JP2013150071A - Encoder, encoding method, program and storage medium - Google Patents

Encoder, encoding method, program and storage medium Download PDF

Info

Publication number
JP2013150071A
JP2013150071A JP2012007383A JP2012007383A JP2013150071A JP 2013150071 A JP2013150071 A JP 2013150071A JP 2012007383 A JP2012007383 A JP 2012007383A JP 2012007383 A JP2012007383 A JP 2012007383A JP 2013150071 A JP2013150071 A JP 2013150071A
Authority
JP
Japan
Prior art keywords
distance
imaging unit
imaging
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012007383A
Other languages
Japanese (ja)
Inventor
Masateru Kitago
正輝 北郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012007383A priority Critical patent/JP2013150071A/en
Publication of JP2013150071A publication Critical patent/JP2013150071A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To encode multi-viewpoint image data and distance information on the multi-viewpoint image data into encoding data of a smaller data amount.SOLUTION: A distance image showing an estimated distance from an imaging section for imaging an input image to a subject of each pixel is acquired on each input image. When view points of the plurality of imaging sections are set in a virtual space in the same arrangement as the reality, and the respective pixels of the distance image corresponding to the respective imaging sections are arranged in a position detached from the view point of the imaging section by a distance which the pixel shows, reliability on the respective imaging sections is set so that reliability becomes higher as a distance difference between the distance from the view points of the imaging sections to the corresponding distance image and a distance from the distance image corresponding to the other imaging section which partially shares a visual field with the imaging section to the view point of the imaging section is smaller. The imaging section in which higher reliability is set is selected. The input image and the distance image, which correspond to the selected imaging section, are encoded.

Description

本発明は、複数の視点から撮影された画像及び距離情報の符号化技術に関し、特に多眼カメラによって撮影された画像の符号化技術に関する。   The present invention relates to an encoding technique for images and distance information taken from a plurality of viewpoints, and more particularly to an encoding technique for images taken by a multi-view camera.

近年、映画業界を中心に3Dコンテンツの利用が活発である。より高い臨場感を求めて多視点撮影技術、多視点表示技術の開発が進んでいる。撮像装置においても、2視点撮影装置としてステレオカメラ、多視点撮影装置としてPlenopticカメラ、多眼カメラ、カメラアレイシステムなどが開発されている。   In recent years, 3D content has been actively used mainly in the movie industry. Development of multi-view shooting technology and multi-view display technology is progressing in search of a higher sense of reality. Also in the imaging apparatus, a stereo camera is developed as a two-viewpoint photographing apparatus, and a Plenoptic camera, a multi-view camera, a camera array system, and the like are developed as a multi-viewpoint photographing apparatus.

しかしながら、視点数の増加に伴い、処理しなければならない画像データ量も増大する。そのため、多視点画像データを効率的に取り扱えるフォーマット及び符号化方式が求められている。多視点画像の標準フォーマットとして、静止画像に関しては、2009年にCIPAによりMulti Picture Formatが制定された。また動画像に関しては、2009年にISO/IECとITU−Tとの共同により、H.264/MPEG−4が多視点映像に拡張されたMVC(Multiview Video Coding)が標準化された。さらに現在、MPEG−3DVC(3D Video Coding)の標準化作業が進行している。MPEG−3DVCは多視点の画像と共に奥行き情報を符号化する方式である。   However, as the number of viewpoints increases, the amount of image data that must be processed also increases. Therefore, there is a need for a format and encoding method that can efficiently handle multi-viewpoint image data. As a standard format for multi-viewpoint images, Multi Picture Format was established by CIPA in 2009 for still images. Regarding moving images, in 2009, in collaboration with ISO / IEC and ITU-T, MVC (Multiview Video Coding) in which H.264 / MPEG-4 is expanded to multi-view video has been standardized. Furthermore, standardization work of MPEG-3DVC (3D Video Coding) is currently in progress. MPEG-3DVC is a method for encoding depth information together with multi-viewpoint images.

より高い符号化効率を実現するため、奥行き情報を利用して視点方向の冗長性を符号化する技術も提案されている。例えば、動き補償予測、視差補償予測、奥行き予測、画面内予測を適応的に切り替えることにより、多視点映像の符号化効率の向上を図る技術が提案されている(特許文献1)。   In order to realize higher encoding efficiency, a technique for encoding redundancy in the viewing direction using depth information has also been proposed. For example, a technique for improving the encoding efficiency of a multi-view video by adaptively switching between motion compensation prediction, parallax compensation prediction, depth prediction, and intra-screen prediction has been proposed (Patent Document 1).

特開2008−271217号公報JP 2008-271217 A

しかしながら、上述の方法は多視点画像の各視点についての画像データ(及び奥行き情報)を効率的に符号化するものであり、視点数が増えるに従って画像データ量が増加するという問題を完全に解決することはできない。   However, the above method efficiently encodes image data (and depth information) for each viewpoint of a multi-viewpoint image, and completely solves the problem that the amount of image data increases as the number of viewpoints increases. It is not possible.

本発明は、多視点画像データ及びこの多視点画像データについての距離情報を、より小さいデータ量の符号化データへと符号化することを目的とする。   An object of the present invention is to encode multi-view image data and distance information about the multi-view image data into encoded data having a smaller data amount.

本発明の目的を達成するために、例えば、本発明の符号化装置は以下の構成を備える。すなわち、
複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得手段と、
それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得手段と、
仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定手段と、
より大きい前記信頼度が設定された撮像部を選択する選択手段と、
前記選択手段が選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化手段と、
を備えることを特徴とする。
In order to achieve the object of the present invention, for example, an encoding apparatus of the present invention comprises the following arrangement. That is,
First acquisition means for acquiring each captured image captured by a plurality of imaging units as an input image;
Second acquisition means for acquiring, for each of the input images, a distance image indicating an estimated distance from an imaging unit that has captured the input image to the subject of each pixel;
In the virtual space, the viewpoints of the plurality of imaging units are set in the same arrangement as in reality, and each pixel of the distance image corresponding to each imaging unit is set at a position separated from the viewpoint of the imaging unit by the distance indicated by the pixel. When arranged, the distance from the viewpoint of each imaging unit to the corresponding distance image, the distance from the distance image corresponding to another imaging unit partially sharing the field of view with the imaging unit, and the viewpoint of the imaging unit, Setting means for setting the reliability for each imaging unit so that the smaller the distance difference is, the higher the reliability is;
Selection means for selecting an imaging unit in which a higher reliability is set;
Encoding means for encoding the input image corresponding to the imaging unit selected by the selection means and the distance image;
It is characterized by providing.

多視点画像データ及びこの多視点画像データについての距離情報を、より小さいデータ量の符号化データへと符号化できる。   The multi-view image data and the distance information about the multi-view image data can be encoded into encoded data having a smaller data amount.

複数の撮像部を備えた符号化装置の一例を示した図である。It is the figure which showed an example of the encoding apparatus provided with the several imaging part. 実施例1に係る符号化装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of a coding apparatus according to Embodiment 1. FIG. 実施例1に係る撮像部101〜109の内部構成を示す図である。1 is a diagram illustrating an internal configuration of imaging units 101 to 109 according to Example 1. FIG. 実施例1に係る画像処理部212の機能構成例を示すブロック図である。3 is a block diagram illustrating a functional configuration example of an image processing unit 212 according to Embodiment 1. FIG. 実施例1の信頼度算出部403が行う処理のフローチャートである。4 is a flowchart of processing performed by a reliability calculation unit 403 according to the first embodiment. 信頼度算出部403が行う処理を説明する為の図である。It is a figure for demonstrating the process which the reliability calculation part 403 performs. 信頼度算出部403が行う処理を説明する為の図である。It is a figure for demonstrating the process which the reliability calculation part 403 performs. 実施例1に係る処理のフローチャートである。3 is a flowchart of processing according to the first embodiment.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下で説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の一つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

実施例1では、多眼カメラで撮影された多視点画像の符号化を想定している。多視点画像のデータ量は多いため、符号化により多視点画像のデータ量を効率的に削減することが求められている。実施例1においては、ユースケースによって必要とする視点数が異なることに注目している。例えば画像のリフォーカス処理を行うときは、それぞれの視点についての画像を用いることが望ましい。一方で距離情報を用いた背景ぼかし処理は、1視点からの画像と距離情報とを用いて行うことができる。このようにユースケースが決まっている場合、ユースケースに適した数の視点についての画像及び距離情報を符号化すればよい。この場合、保存する画像及び距離情報の数を減らすことができるため、多眼カメラで撮影された多視点画像をよりデータ量の少ない符号化データへと符号化することができる。   In the first embodiment, it is assumed that a multi-viewpoint image captured by a multi-view camera is encoded. Since the data amount of the multi-viewpoint image is large, it is required to efficiently reduce the data amount of the multi-viewpoint image by encoding. In the first embodiment, attention is paid to the fact that the number of viewpoints required differs depending on the use case. For example, when performing image refocus processing, it is desirable to use images for each viewpoint. On the other hand, the background blurring process using distance information can be performed using an image from one viewpoint and distance information. When use cases are determined in this way, images and distance information for a number of viewpoints suitable for the use cases may be encoded. In this case, since the number of images and distance information to be stored can be reduced, a multi-view image captured by a multi-view camera can be encoded into encoded data with a smaller data amount.

具体的には上述の処理は以下のように行うことができる。まず、多眼カメラのそれぞれの撮像部で撮像された画像が取得される。そして、それぞれの画像についての距離情報が取得される。この距離情報は、それぞれの画像の各画素についての撮像部から被写体までの距離でありうる。この距離情報は撮像部から取得されてもよいし、後述するようにそれぞれの画像間の比較により算出されてもよい。そして、ユーザの指示に従う数の画像が選択され、選択された画像とこの画像についての距離情報とが符号化される。   Specifically, the above-described processing can be performed as follows. First, images captured by the respective imaging units of the multi-lens camera are acquired. Then, distance information about each image is acquired. This distance information may be the distance from the imaging unit to the subject for each pixel of each image. This distance information may be acquired from the imaging unit, or may be calculated by comparing each image as will be described later. Then, the number of images according to the user's instruction is selected, and the selected image and the distance information about the image are encoded.

多視点画像から1つ以上の視点を選択するとき、どのような基準で選択するかが問題となる。本実施例では、それぞれの画像についての距離情報の信頼度に従って画像が選択される。距離情報を正確に決定することは容易ではないため、視点ごとに距離情報の精度が異なることがありうる。したがって、どの視点についての距離情報を用いるかに依存して、距離情報を用いた画像処理(例えば背景ぼかし処理)の結果が異なることがありうる。より精度が高い距離情報を用いることにより、より良好な画像処理結果が得られるものと考えられる。そこで本実施例においては、それぞれの画像についての距離情報の信頼度(精度)が求められ、信頼度がより高い距離情報と対応する画像とが符号化される。   When selecting one or more viewpoints from a multi-viewpoint image, what is the criterion for selection is a problem. In this embodiment, images are selected according to the reliability of distance information for each image. Since it is not easy to accurately determine the distance information, the accuracy of the distance information may be different for each viewpoint. Therefore, the result of image processing (for example, background blurring processing) using distance information may differ depending on which viewpoint information is used. It is considered that a better image processing result can be obtained by using distance information with higher accuracy. Therefore, in this embodiment, the reliability (accuracy) of the distance information for each image is obtained, and the distance information with higher reliability and the corresponding image are encoded.

図1は、実施例1に係る符号化装置が符号化する画像を撮影する撮像装置を示す。撮像装置は複数の撮像部を備える。撮像装置は例えば、多眼カメラでありうる。実施例1において撮像装置はさらに、撮影した画像を符号化する。すなわちこの撮像装置は、実施例1に係る符号化装置として動作する。しかしながら、画像の符号化は撮像装置とは別の装置によって行われてもよい。すなわち、本実施例に係る符号化処理はCPU201のようなプロセッサとRAM202のようなメモリを備えるコンピュータによって実現されうる。例えば、ROM203のようなコンピュータ読み取り可能な記憶媒体に格納されたコンピュータプログラムをRAM202に読み出し、このコンピュータプログラムに従ってCPU201を動作させることにより、本実施例に係る処理は実現されうる。しかしながら本実施例に係る符号化処理は、図2及び図4に示す各処理部を実現する専用のハードウェアを備える符号化装置によって行われてもよい。   FIG. 1 illustrates an imaging apparatus that captures an image encoded by the encoding apparatus according to the first embodiment. The imaging device includes a plurality of imaging units. The imaging device can be, for example, a multi-view camera. In the first embodiment, the imaging apparatus further encodes the captured image. In other words, this imaging apparatus operates as the encoding apparatus according to the first embodiment. However, the image encoding may be performed by a device other than the imaging device. That is, the encoding process according to the present embodiment can be realized by a computer including a processor such as the CPU 201 and a memory such as the RAM 202. For example, the processing according to the present embodiment can be realized by reading a computer program stored in a computer-readable storage medium such as the ROM 203 into the RAM 202 and operating the CPU 201 according to the computer program. However, the encoding process according to the present embodiment may be performed by an encoding apparatus including dedicated hardware that implements the processing units illustrated in FIGS. 2 and 4.

図1において、100は符号化装置の筺体である。筐体100は、撮像を行う9個の撮像部101〜109及び撮影ボタン110を備えている。9個の撮像部101〜109は、正方格子上に均等に配置されている。本実施例において撮像部101〜109は、24ビットカラー画像(撮像画像)を撮像するものとする。   In FIG. 1, reference numeral 100 denotes a casing of the encoding device. The housing 100 includes nine image capturing units 101 to 109 that perform image capturing and a shooting button 110. The nine imaging units 101 to 109 are equally arranged on the square lattice. In the present embodiment, the imaging units 101 to 109 capture a 24-bit color image (captured image).

ユーザが撮影ボタン110を押下すると、撮像部101〜109は被写体からの光をセンサ(撮像素子)で受光し、受光した信号をA/D変換する。こうして、撮像部101〜109のそれぞれによって、カラー画像(デジタルデータ)が同時に取得される。このような多眼方式の撮像装置(符号化装置)により、同一の被写体を複数の視点から撮像して得られるカラー画像群を得ることができる。   When the user presses the shooting button 110, the imaging units 101 to 109 receive light from the subject with a sensor (imaging device) and A / D convert the received signal. In this way, a color image (digital data) is simultaneously acquired by each of the imaging units 101 to 109. With such a multi-eye imaging device (encoding device), it is possible to obtain a color image group obtained by imaging the same subject from a plurality of viewpoints.

本実施例に係る符号化装置は9個の撮像部を備えるが、撮像部の数は9個には限定されない。すなわち、複数の撮像部を備える撮像装置によって得られた画像について、本実施例の処理を適用することができる。3つ以上の撮像部を備えることにより、後述するように信頼度に従って画像を選択することができる。また、図1において撮像部101〜109は、正方格子上に均等に配置されている。しかしながら、撮像部の配置は任意である。例えば、それぞれの撮像部を放射状又は直線状に配置してもよいし、まったくランダムに配置してもよい。   Although the encoding apparatus according to the present embodiment includes nine image capturing units, the number of image capturing units is not limited to nine. That is, the processing of the present embodiment can be applied to an image obtained by an imaging device including a plurality of imaging units. By providing three or more imaging units, an image can be selected according to the reliability as will be described later. In FIG. 1, the imaging units 101 to 109 are evenly arranged on a square lattice. However, the arrangement of the imaging unit is arbitrary. For example, the respective imaging units may be arranged radially or linearly, or may be arranged at random.

図2は、本実施例に係る符号化装置の内部構成の一例を示すブロック図である。図2には本実施例に係る符号化装置が有する主要な構成を示すが、本実施例に係る符号化装置は他の構成を有していてもよいし、一部の構成を有さなくてもよい。   FIG. 2 is a block diagram illustrating an example of an internal configuration of the encoding apparatus according to the present embodiment. FIG. 2 shows a main configuration of the encoding apparatus according to the present embodiment, but the encoding apparatus according to the present embodiment may have other configurations or may not have a part of the configuration. May be.

201は中央処理装置(CPU)であり、以下に述べる各部を統括的に制御する。202はRAMであり、CPU201の主メモリ又はワークエリア等として機能する。203はROMであり、CPU201で実行される制御プログラム等を格納している。204は各種データの転送経路となるバスである。例えば、撮像部101〜109によって取得されたデジタルデータはこのバス204を介して所定の処理部に送られる。   Reference numeral 201 denotes a central processing unit (CPU) that comprehensively controls each unit described below. A RAM 202 functions as a main memory or work area of the CPU 201. A ROM 203 stores a control program executed by the CPU 201 and the like. A bus 204 serves as a transfer path for various data. For example, digital data acquired by the imaging units 101 to 109 is sent to a predetermined processing unit via the bus 204.

205はユーザの指示を受け取る操作部である。206は撮像画像及び文字などを表示する表示部である。表示部206はタッチスクリーン機能を有していてもよい。この場合表示部206は、操作部205の代わりに、タッチスクリーンにより入力されたユーザ指示を受け取ることができる。207は表示制御部であり、表示部206に表示される撮影画像や文字の表示制御を行う。   Reference numeral 205 denotes an operation unit that receives user instructions. A display unit 206 displays captured images and characters. The display unit 206 may have a touch screen function. In this case, the display unit 206 can receive a user instruction input via a touch screen instead of the operation unit 205. Reference numeral 207 denotes a display control unit, which controls display of captured images and characters displayed on the display unit 206.

208は撮像制御部であり、CPU201の指示に基づいて撮像部101〜109を制御する。例えば撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの制御を行うことができる。209はデジタル信号処理部であり、バス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を行う。210はエンコーダ部であり、デジタルデータを所定のファイルフォーマットに変換する処理を行う。エンコーダ部210の詳細については後述する。   Reference numeral 208 denotes an imaging control unit that controls the imaging units 101 to 109 based on an instruction from the CPU 201. For example, the imaging control unit 208 can perform control such as focusing, opening / closing the shutter, and adjusting the aperture. A digital signal processing unit 209 performs various image processing such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 204. An encoder unit 210 performs a process of converting digital data into a predetermined file format. Details of the encoder unit 210 will be described later.

211は外部メモリ制御部である。外部メモリ制御部211は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)を接続するためのインターフェースである。212は画像処理部である。画像処理部212は、撮像部101〜109で取得されたカラー画像群、又はデジタル信号処理部209から出力されるカラー画像群について、距離情報及び距離情報の信頼度を算出する。そして画像処理部212は、算出された信頼度に基づいて符号化対象とするカラー画像を選択する。画像処理部212の詳細については後述する。   Reference numeral 211 denotes an external memory control unit. The external memory control unit 211 is an interface for connecting a PC and other media (for example, hard disk, memory card, CF card, SD card, USB memory). Reference numeral 212 denotes an image processing unit. The image processing unit 212 calculates the distance information and the reliability of the distance information for the color image group acquired by the imaging units 101 to 109 or the color image group output from the digital signal processing unit 209. Then, the image processing unit 212 selects a color image to be encoded based on the calculated reliability. Details of the image processing unit 212 will be described later.

図3は、撮像部101〜109の内部構成を示す。撮像部101〜109は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310を含む。図3には撮像部101〜109が有する主要な構成を示すが、撮像部101〜109は他の構成を有していてもよいし、一部の構成を有さなくてもよい。   FIG. 3 shows an internal configuration of the imaging units 101 to 109. The imaging units 101 to 109 include lenses 301 to 303, a diaphragm 304, a shutter 305, an optical low-pass filter 306, an iR cut filter 307, a color filter 308, a sensor 309, and an A / D conversion unit 310. FIG. 3 illustrates the main configuration of the imaging units 101 to 109, but the imaging units 101 to 109 may have other configurations or may not have some configurations.

レンズ301〜303はそれぞれ、ズームレンズ301、フォーカスレンズ302、及びぶれ補正レンズ303である。センサ309は、例えばCMOSやCCDなどのセンサ(撮像素子)である。センサ309で被写体からの光量を検知すると、検知された光量がA/D変換部310によってデジタル値に変換され、デジタルデータとなってバス204に出力される。   The lenses 301 to 303 are a zoom lens 301, a focus lens 302, and a shake correction lens 303, respectively. The sensor 309 is a sensor (imaging device) such as a CMOS or a CCD, for example. When the sensor 309 detects the amount of light from the subject, the detected amount of light is converted into a digital value by the A / D converter 310 and output to the bus 204 as digital data.

図4を用いて、本実施例に係る画像処理部212について説明する。図4に示すように画像処理部212は、画像取得部401、距離情報推定部402、信頼度算出部403、及び視点選択部404を有している。以下で、これらの各部について説明する。画像取得部401は、撮像部101〜109のそれぞれで取得されたカラー画像を取得する(第1の取得)。あるいは、デジタル信号処理部209は撮像部101〜109のそれぞれで取得されたカラー画像を画像処理してもよく、画像取得部401はデジタル信号処理部209から画像処理後の画像を取得してもよい。このように画像取得部401は、それぞれが撮像部101〜109に対応する、9視点からの画像群を取得する。以下では画像取得部401が取得した9視点からの画像群を、それぞれ撮像部101〜109の入力画像と呼ぶ。画像取得部401は、9視点からの入力画像群を距離情報推定部402に送る。   The image processing unit 212 according to the present embodiment will be described with reference to FIG. As illustrated in FIG. 4, the image processing unit 212 includes an image acquisition unit 401, a distance information estimation unit 402, a reliability calculation unit 403, and a viewpoint selection unit 404. Hereinafter, each of these units will be described. The image acquisition unit 401 acquires color images acquired by the imaging units 101 to 109 (first acquisition). Alternatively, the digital signal processing unit 209 may perform image processing on the color image acquired by each of the imaging units 101 to 109, and the image acquisition unit 401 may acquire an image after image processing from the digital signal processing unit 209. Good. Thus, the image acquisition unit 401 acquires image groups from nine viewpoints, each corresponding to the imaging units 101 to 109. Hereinafter, the image groups from nine viewpoints acquired by the image acquisition unit 401 are referred to as input images of the imaging units 101 to 109, respectively. The image acquisition unit 401 sends an input image group from nine viewpoints to the distance information estimation unit 402.

距離情報推定部402は、9視点からの入力画像群それぞれについて、カメラから被写体までの距離を表す距離情報を推定する(第2の取得)。この距離情報は、入力画像を撮像した撮像部から各画素の被写体までの推定距離を、画素毎に示す。すなわち、この距離情報は距離画像として記録されうる。そして距離情報推定部402は、9視点からの入力画像群と対応する距離情報とを信頼度算出部403に送出する。   The distance information estimation unit 402 estimates distance information representing the distance from the camera to the subject for each of the input image groups from nine viewpoints (second acquisition). This distance information indicates the estimated distance from the imaging unit that captured the input image to the subject of each pixel for each pixel. That is, this distance information can be recorded as a distance image. Then, the distance information estimation unit 402 sends the input image group from nine viewpoints and the corresponding distance information to the reliability calculation unit 403.

本実施例に係る距離情報推定方法について簡単に説明する。まず距離情報推定部402は、入力画像のそれぞれに平滑化フィルタを適用する。本実施例において距離情報推定部402は、エッジ保持型の平滑化フィルタを用いる。以下で、撮像部101〜109の入力画像にフィルタ処理を行うことにより得られる画像を、それぞれ撮像部101〜109のフィルタ画像と呼ぶ。   The distance information estimation method according to the present embodiment will be briefly described. First, the distance information estimation unit 402 applies a smoothing filter to each input image. In this embodiment, the distance information estimation unit 402 uses an edge holding type smoothing filter. Hereinafter, images obtained by performing filter processing on input images of the imaging units 101 to 109 are referred to as filter images of the imaging units 101 to 109, respectively.

次に距離情報推定部402は、フィルタ画像を複数の小領域に分割する。具体的には距離情報推定部402は、以下のように処理を行うことができる。まず距離情報推定部402は、画素を1つずつ別々の小領域に割り当てる。その後距離情報推定部402は、複数の小領域を統合する。具体的には距離情報推定部402は、小領域を1つ選択し、選択された小領域についての平均色を算出する。例えば、選択された小領域を構成する画素の画素値の平均を平均色として算出することができる。そして距離情報推定部402は、選択された小領域についての平均色と、近隣の小領域の平均色とを比較し、色差が所定値以下である場合にはこれらの小領域を統合する。ただしこの時、統合後の小領域の大きさ(画素数)が一定範囲内に収まるようにする。   Next, the distance information estimation unit 402 divides the filter image into a plurality of small regions. Specifically, the distance information estimation unit 402 can perform processing as follows. First, the distance information estimation unit 402 assigns pixels to separate small areas one by one. Thereafter, the distance information estimation unit 402 integrates a plurality of small regions. Specifically, the distance information estimation unit 402 selects one small region and calculates an average color for the selected small region. For example, the average of the pixel values of the pixels constituting the selected small area can be calculated as the average color. Then, the distance information estimation unit 402 compares the average color of the selected small area with the average color of the neighboring small areas, and integrates these small areas when the color difference is equal to or smaller than a predetermined value. However, at this time, the size (number of pixels) of the small area after integration is set within a certain range.

本実施例では、色差が6以下である場合に小領域を統合するものとする。また、色差はRGBそれぞれについての画素値の差の二乗和の平方根とする。もっとも、色差は他の方法を用いて求めてもよく、例えばL*a*b*表色系における色値を算出し、同様の方法で色差を算出してもよい。また本実施例では、小領域の大きさが100〜1600画素となるように統合を行う。   In this embodiment, it is assumed that the small areas are integrated when the color difference is 6 or less. Also, the color difference is the square root of the sum of squares of the pixel value difference for each of RGB. However, the color difference may be obtained by using another method. For example, a color value in the L * a * b * color system may be calculated, and the color difference may be calculated by the same method. In this embodiment, the integration is performed so that the size of the small area is 100 to 1600 pixels.

9視点からのフィルタ画像それぞれについて領域分割を行った後、距離情報推定部402は、それぞれのフィルタ画像の小領域毎に初期視差量を算出する。具体的には距離情報推定部402は、以下のように処理を行うことができる。まず距離情報推定部402は、初期視差量算出の対象となるフィルタ画像の視点を基準視点として選択する。ここでは、距離情報推定部402は撮像部105を基準視点として選択したものとする。   After performing region segmentation for each of the filter images from nine viewpoints, the distance information estimation unit 402 calculates an initial amount of parallax for each small region of each filter image. Specifically, the distance information estimation unit 402 can perform processing as follows. First, the distance information estimation unit 402 selects the viewpoint of the filter image that is the target of initial parallax amount calculation as the reference viewpoint. Here, it is assumed that the distance information estimation unit 402 selects the imaging unit 105 as a reference viewpoint.

次に距離情報推定部402は、基準視点の周囲の視点を参照視点として選択する。本実施例においては基準視点の上下左右の撮像部を参照視点として選択する。すなわち距離情報推定部402は、撮像部102、104、106、108を参照視点として選択する。もし距離情報推定部402が撮像部107を基準視点として選択している場合、撮像部104、108が参照視点として選択される。また、撮像部108が基準視点として選択された場合、撮像部105、107、109が参照視点として選択される。本実施例において距離情報推定部402はこのように、基準視点である撮像部に隣接する撮像部を、参照視点として選択する。   Next, the distance information estimation unit 402 selects a viewpoint around the reference viewpoint as a reference viewpoint. In this embodiment, the upper, lower, left, and right imaging units of the reference viewpoint are selected as reference viewpoints. That is, the distance information estimation unit 402 selects the imaging units 102, 104, 106, and 108 as reference viewpoints. If the distance information estimation unit 402 has selected the imaging unit 107 as a reference viewpoint, the imaging units 104 and 108 are selected as reference viewpoints. When the imaging unit 108 is selected as the reference viewpoint, the imaging units 105, 107, and 109 are selected as reference viewpoints. In this embodiment, the distance information estimation unit 402 thus selects the imaging unit adjacent to the imaging unit that is the reference viewpoint as the reference viewpoint.

そして距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域について、参照視点のフィルタ画像との比較を行う。こうして距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域について初期視差量を算出する。具体的には距離情報推定部402は、基準視点のフィルタ画像に含まれる各小領域を順次選択し、選択された小領域について以下のように処理を行うことができる。   The distance information estimation unit 402 compares each small region included in the reference viewpoint filter image with the reference viewpoint filter image. In this way, the distance information estimation unit 402 calculates the initial amount of parallax for each small region included in the reference viewpoint filter image. Specifically, the distance information estimation unit 402 can sequentially select each small region included in the reference viewpoint filter image, and perform the following processing on the selected small region.

まず、距離情報推定部402は、適当な視差量を設定し、参照視点のフィルタ画像中において、選択された小領域に対応する小領域を決定する。ここで、基準視点のフィルタ画像中の選択された小領域の位置を、設定された視差量だけシフトすることによって得られる位置が、選択された小領域に対応する小領域の位置である。そして距離情報推定部402は、それぞれの画素ごとに、選択された小領域内の画素と、対応する小領域の画素との色差を算出する。さらに距離情報推定部402は、算出された色差のヒストグラムを参照して、最頻値を持つ画素の数を記録する。距離情報推定部402は、視差量の設定値を変化させながら、最頻値を持つ画素の数を記録することを繰り返す。そして、この最頻値を持つ画素の数が最も多くなる視差量を、初期視差量として選択する。   First, the distance information estimation unit 402 sets an appropriate amount of parallax, and determines a small region corresponding to the selected small region in the reference viewpoint filter image. Here, the position obtained by shifting the position of the selected small area in the filter image of the reference viewpoint by the set amount of parallax is the position of the small area corresponding to the selected small area. Then, the distance information estimation unit 402 calculates, for each pixel, a color difference between the pixel in the selected small area and the corresponding small area pixel. Further, the distance information estimation unit 402 records the number of pixels having the mode value with reference to the calculated color difference histogram. The distance information estimation unit 402 repeatedly records the number of pixels having the mode value while changing the setting value of the parallax amount. Then, the parallax amount with the largest number of pixels having the mode value is selected as the initial parallax amount.

本実施例においては、視差量は縦方向と横方向との双方について設定するものとする。また、参照視点が複数存在する場合、それぞれの参照視点を用いて初期視差量が算出されうる。この場合距離情報推定部402は、1つの参照視点のみを用いて初期視差量を算出してもよい。別の例において距離情報推定部402は、それぞれの参照視点を用いて算出された初期視差量の統計値、例えば平均値、を初期視差量として以下で用いてもよい。   In this embodiment, the parallax amount is set for both the vertical direction and the horizontal direction. Further, when there are a plurality of reference viewpoints, the initial amount of parallax can be calculated using each reference viewpoint. In this case, the distance information estimation unit 402 may calculate the initial parallax amount using only one reference viewpoint. In another example, the distance information estimation unit 402 may use a statistical value of the initial parallax amount calculated using each reference viewpoint, for example, an average value, as the initial parallax amount below.

さらに距離情報推定部402は、こうして算出された初期視差量をリファインしてもよい。例えば、色が類似した近隣の小領域群は似た視差量を持つ可能性が高い。また、視差量の差が小さい近隣の小領域群は似た視差量を持つ可能性が高い。これらの条件に基づいて距離情報推定部402は、小領域間の色差及び視差量の差などを用いて反復的に視差量を調整することができる。最後に距離情報推定部402は、視差量を距離情報に変換することにより距離情報を算出する。視差量から距離情報への変換は、例えば撮像部101〜109の焦点距離などを示す情報を参照して行うことができる。   Further, the distance information estimation unit 402 may refine the initial parallax amount calculated in this way. For example, neighboring small area groups with similar colors are likely to have similar amounts of parallax. In addition, there is a high possibility that neighboring small area groups having a small difference in parallax amount have similar parallax amounts. Based on these conditions, the distance information estimation unit 402 can adjust the parallax amount repeatedly using the color difference between the small regions and the difference in the parallax amount. Finally, the distance information estimation unit 402 calculates distance information by converting the amount of parallax into distance information. The conversion from the parallax amount to the distance information can be performed with reference to information indicating the focal length of the imaging units 101 to 109, for example.

以上のように説明した距離推定方法により、各入力画像の各ピクセルに対応した距離情報を算出できる。それぞれの撮像部101〜109を順番に基準視点として選択して以上のような距離情報算出処理を行うことにより、撮像部101〜109の入力画像のそれぞれについての距離情報を算出することができる。しかしながら距離の推定方法は上述の方法には限定されず、公知の方法を含む他の方法を用いてもよい。また、本実施例においては距離情報推定部402が入力画像を用いて距離情報を算出するが、距離情報推定部402は距離情報を受信してもよい。例えば、撮像部101〜109が被写体との距離を測定することにより距離情報を作成し、この距離情報を距離情報推定部402が受信してもよい。   With the distance estimation method described above, distance information corresponding to each pixel of each input image can be calculated. The distance information about each of the input images of the imaging units 101 to 109 can be calculated by selecting the respective imaging units 101 to 109 in turn as the reference viewpoint and performing the distance information calculation process as described above. However, the distance estimation method is not limited to the above-described method, and other methods including a known method may be used. In this embodiment, the distance information estimation unit 402 calculates distance information using the input image, but the distance information estimation unit 402 may receive the distance information. For example, the imaging units 101 to 109 may create distance information by measuring the distance to the subject, and the distance information estimation unit 402 may receive this distance information.

信頼度算出部403は、撮像部101〜109のそれぞれについて、対応する距離情報の信頼度を設定する。そして信頼度算出部403は、撮像部101〜109のそれぞれについての、入力画像、距離情報、及び信頼度を視点選択部404に送信する。信頼度算出部403の詳しい構成については後述する。以下において、視点についての信頼度とは、その視点に対応する距離情報の信頼度のことを意味する。   The reliability calculation unit 403 sets the reliability of the corresponding distance information for each of the imaging units 101 to 109. Then, the reliability calculation unit 403 transmits the input image, distance information, and reliability for each of the imaging units 101 to 109 to the viewpoint selection unit 404. A detailed configuration of the reliability calculation unit 403 will be described later. In the following, the reliability of a viewpoint means the reliability of distance information corresponding to the viewpoint.

視点選択部404は、信頼度に従って、撮像部101〜109の中から符号化対象とする視点を選択する。例えば視点選択部404は、より高い信頼度が設定された撮像部を選択すればよい。ここで視点選択部404は、最も信頼度が高い撮像部を符号化対象として選択してもよい。また視点選択部404は、より信頼度が高い複数の撮像部を符号化対象として選択してもよい。しかしながら視点選択部404は最も信頼度が高い撮像部を符号化対象として選択する必要はない。例えば視点選択部404は、予め決定された撮像部の組み合わせのうち、合計の信頼度が最も高くなる組み合わせを、符号化対象として選択してもよい。いくつかの互いにより離れた撮像部の組み合わせを、この予め決定された撮像部の組み合わせとして用いることにより、符号化後のデータにはより情報量が多くかつ正確な情報が含まれることとなる。   The viewpoint selection unit 404 selects a viewpoint to be encoded from the imaging units 101 to 109 according to the reliability. For example, the viewpoint selection unit 404 may select an imaging unit for which higher reliability is set. Here, the viewpoint selection unit 404 may select an imaging unit with the highest reliability as an encoding target. The viewpoint selection unit 404 may select a plurality of imaging units with higher reliability as encoding targets. However, the viewpoint selection unit 404 does not need to select an imaging unit with the highest reliability as an encoding target. For example, the viewpoint selection unit 404 may select a combination having the highest total reliability among the predetermined combinations of imaging units as an encoding target. By using several combinations of imaging units that are more distant from each other as the predetermined combination of imaging units, the encoded data includes more information and accurate information.

視点選択部404は、符号化対象とする撮像部についての入力画像と距離情報とをエンコーダ部210に送る。エンコーダ部210は、受け取った入力画像と距離情報とを符号化する。符号化は任意の方法により行うことができる。エンコーダ部210はさらに、多眼カメラの属性情報を取得してこれを符号化してもよい。多眼カメラの属性情報の例としては、以下のものが挙げられる。
・多眼カメラの撮像部数
・距離情報を符号化しているか否かを示すフラグ
・符号化対象とする撮像部数
・符号化対象とする撮像部の位置
・符号化対象とする撮像部の回転方向
・符号化対象とする撮像部の焦点距離
・符号化対象とする撮像部の画角
・符号化対象とする撮像部についての距離範囲
The viewpoint selection unit 404 sends an input image and distance information about the imaging unit to be encoded to the encoder unit 210. The encoder unit 210 encodes the received input image and distance information. Encoding can be performed by any method. The encoder unit 210 may further acquire attribute information of the multiview camera and encode it. Examples of multi-camera attribute information include the following.
-Number of imaging units of multi-view camera-Flag indicating whether distance information is encoded-Number of imaging units to be encoded-Position of imaging unit to be encoded-Direction of rotation of imaging unit to be encoded- Focal length of the imaging unit as the encoding target, angle of view of the imaging unit as the encoding target, distance range for the imaging unit as the encoding target

本実施例においてエンコーダ部210は第1の符号化部と第2の符号化部とを有する。第1の符号化部は受け取った入力画像を符号化する。また第2の符号化部は、受け取った距離情報を符号化する。第1の符号化部と第2の符号化部とは異なる符号化方式を用いて符号化を行ってもよい。本実施例では、入力画像及び距離情報は共にJPEG方式で符号化されるものとする。また距離情報が必要ではないときは、入力画像のみを符号化してもよい。この場合、多眼カメラの属性情報は距離情報を符号化しているかのフラグを有さなくてもよい。   In the present embodiment, the encoder unit 210 includes a first encoding unit and a second encoding unit. The first encoding unit encodes the received input image. The second encoding unit encodes the received distance information. The first encoding unit and the second encoding unit may perform encoding using different encoding methods. In this embodiment, it is assumed that both the input image and the distance information are encoded by the JPEG method. When distance information is not necessary, only the input image may be encoded. In this case, the attribute information of the multi-view camera may not have a flag indicating whether the distance information is encoded.

次に、図8のフローチャートを参照して本実施例に係る処理について説明する。ステップS801において画像取得部401は、撮像部101〜109の入力画像を取得する。ステップS802において距離情報推定部402は、撮像部101〜109の入力画像のそれぞれについて上述のように距離情報を算出する。ステップS803において信頼度算出部403は、撮像部101〜109のそれぞれについて、対応する距離情報の信頼度を算出する。ステップS803の処理については後に詳しく述べる。ステップS804において視点選択部404は、上述のように符号化対象とする撮像部を選択する。ステップS805においてエンコーダ部210は、上述のように選択された撮像部についての入力画像及び距離情報を符号化する。   Next, processing according to the present embodiment will be described with reference to the flowchart of FIG. In step S <b> 801, the image acquisition unit 401 acquires input images of the imaging units 101 to 109. In step S802, the distance information estimation unit 402 calculates distance information for each of the input images of the imaging units 101 to 109 as described above. In step S803, the reliability calculation unit 403 calculates the reliability of corresponding distance information for each of the imaging units 101 to 109. The processing in step S803 will be described in detail later. In step S804, the viewpoint selection unit 404 selects the imaging unit to be encoded as described above. In step S805, the encoder unit 210 encodes the input image and distance information for the imaging unit selected as described above.

ここでステップS803の処理について、図5のフローチャートを参照して説明する。ステップS803において信頼度算出部403は、撮像部101〜109を順番に基準視点(着目撮像部)として選択する。そして、基準視点の入力画像について後述するステップS501〜S513の処理を行うことによって、基準視点についての信頼度を算出する。それぞれの撮像部についてステップS501〜S513の処理を繰り返すことにより、それぞれの撮像部101〜109についての信頼度を算出することができる。   Here, the process of step S803 will be described with reference to the flowchart of FIG. In step S <b> 803, the reliability calculation unit 403 sequentially selects the imaging units 101 to 109 as the reference viewpoint (target imaging unit). And the reliability about a reference viewpoint is calculated by performing the process of step S501-S513 mentioned later about the input image of a reference viewpoint. By repeating the processing of steps S501 to S513 for each imaging unit, the reliability for each imaging unit 101 to 109 can be calculated.

ステップS501において信頼度算出部403は、基準視点の周囲の視点を参照視点(他撮像部)として選択する。ここで、基準視点は参照視点と部分的に視野を共有している。すなわち基準視点の入力画像及び参照視点の入力画像には、同じ被写体が含まれている。この場合、基準視点は参照視点と部分的に視野を共有するものと考えられる。   In step S501, the reliability calculation unit 403 selects viewpoints around the reference viewpoint as reference viewpoints (other imaging units). Here, the reference viewpoint partially shares the field of view with the reference viewpoint. That is, the same subject is included in the reference viewpoint input image and the reference viewpoint input image. In this case, the reference viewpoint is considered to partially share the field of view with the reference viewpoint.

本実施例では基準視点の上下左右の撮像部を参照視点として選択する。ここでは、撮像部105が基準視点として選択されているものとする。この場合信頼度算出部403は、撮像部102、104、106、108を参照視点として選択する。もし信頼度算出部403が撮像部107を基準視点として選択している場合、撮像部104、108が参照視点として選択される。また、撮像部108が基準視点として選択された場合、撮像部105、107、109が参照視点としとて選択される。このように本実施例において、参照視点の数は2〜4となる。信頼度算出部403は、距離情報推定部402によって距離情報を算出するために選択された参照視点を、ステップS501において信頼度を算出するために選択してもよい。   In this embodiment, the upper, lower, left, and right imaging units of the reference viewpoint are selected as reference viewpoints. Here, it is assumed that the imaging unit 105 is selected as the reference viewpoint. In this case, the reliability calculation unit 403 selects the imaging units 102, 104, 106, and 108 as reference viewpoints. If the reliability calculation unit 403 selects the image capturing unit 107 as a reference viewpoint, the image capturing units 104 and 108 are selected as reference viewpoints. When the imaging unit 108 is selected as the reference viewpoint, the imaging units 105, 107, and 109 are selected as reference viewpoints. Thus, in this embodiment, the number of reference viewpoints is 2-4. The reliability calculation unit 403 may select the reference viewpoint selected for calculating the distance information by the distance information estimation unit 402 in order to calculate the reliability in step S501.

ステップS502において信頼度算出部403は、全ての参照視点についての処理を行ったか否かを判定する。全ての参照視点についての処理を行っている場合、処理はステップS513に進む。全ての参照視点についての処理を行っていない場合、処理はステップS503に進む。   In step S502, the reliability calculation unit 403 determines whether or not processing for all reference viewpoints has been performed. If processing for all reference viewpoints has been performed, processing proceeds to step S513. If all the reference viewpoints have not been processed, the process proceeds to step S503.

ステップS503において信頼度算出部403は、未処理の参照視点を1つ選択する。このときの選択の順序は任意である。ステップS504で信頼度算出部403は、選択された参照視点の入力画像の全画素についての処理を行ったか否かを判定する。全画素についての処理を完了している場合、処理はステップS502に戻る。全画素についての処理を完了していない場合、処理はステップS505に進む。   In step S503, the reliability calculation unit 403 selects one unprocessed reference viewpoint. The order of selection at this time is arbitrary. In step S504, the reliability calculation unit 403 determines whether or not processing has been performed on all pixels of the input image of the selected reference viewpoint. If the process for all pixels has been completed, the process returns to step S502. If the process has not been completed for all pixels, the process proceeds to step S505.

ステップS505において信頼度算出部403は、選択された参照視点の入力画像のうち、未処理の画素(着目画素)を1つ選択する。このときの選択の順序は任意である。例えば、入力画像の左上から右下に向かって順番に画素を選択することができる。   In step S505, the reliability calculation unit 403 selects one unprocessed pixel (target pixel) from the input image of the selected reference viewpoint. The order of selection at this time is arbitrary. For example, pixels can be selected in order from the upper left to the lower right of the input image.

ステップS506において信頼度算出部403は、選択された画素を、距離情報を参照して、3D空間上(仮想空間内)に投影する。以下に図6を参照して、ステップS506の処理についてより詳しく説明する。   In step S506, the reliability calculation unit 403 projects the selected pixel on the 3D space (in the virtual space) with reference to the distance information. Hereinafter, the process of step S506 will be described in more detail with reference to FIG.

図6(a)は、撮像部105が基準視点であり、撮像部104、106が参照視点である場合の、3D空間上の配置を示す。上述のように撮像部105が基準視点である場合、参照視点は102、104、106、108であるが、説明を簡単にするために撮像部104、106のみが参照視点であるものとする。撮像部104、106は、現実空間上と同様の配置で、3D空間上に配置される。   FIG. 6A illustrates an arrangement in the 3D space when the imaging unit 105 is a reference viewpoint and the imaging units 104 and 106 are reference viewpoints. As described above, when the imaging unit 105 is the reference viewpoint, the reference viewpoints are 102, 104, 106, and 108, but only the imaging units 104 and 106 are assumed to be reference viewpoints for the sake of simplicity of explanation. The imaging units 104 and 106 are arranged in the 3D space in the same arrangement as in the real space.

オブジェクト601は、撮像部104の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。具体的には、撮像部104の入力画像の各画素を、各画素に対応する方向へ、各画素に対応する距離だけ撮像部104から離れた位置に配置することにより、オブジェクト601が得られる。各画素に対応する距離は、距離情報を参照することにより得ることができる。また各画素に対応する方向は、例えば撮像部104の画角を示す情報及び入力画像の解像度を参照して決定することができる。同様にオブジェクト602は、撮像部105の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。さらにオブジェクト603は、撮像部106の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。   The object 601 is an object obtained by projecting each pixel of the input image of the imaging unit 104 onto the 3D space according to the distance information. Specifically, the object 601 is obtained by disposing each pixel of the input image of the imaging unit 104 in a direction corresponding to each pixel at a position away from the imaging unit 104 by a distance corresponding to each pixel. The distance corresponding to each pixel can be obtained by referring to the distance information. The direction corresponding to each pixel can be determined with reference to, for example, information indicating the angle of view of the imaging unit 104 and the resolution of the input image. Similarly, the object 602 is an object obtained by projecting each pixel of the input image of the imaging unit 105 onto the 3D space according to the distance information. Furthermore, the object 603 is an object obtained by projecting each pixel of the input image of the imaging unit 106 onto the 3D space according to the distance information.

ステップS506において信頼度算出部403は、選択された画素を、選択された画素に対応する方向604に投影する。投影された画素の位置を示す3D点605は、撮像部104から、選択された画素に対応する距離だけ離れている。すなわち3D点605は、上述のオブジェクト601上に存在する。もし撮像部106が参照視点である場合、信頼度算出部403は、選択された画素を、選択された画素に対応する方向611に投影する。投影された画素の位置を示す3D点610は、撮像部106から、選択された画素に対応する距離だけ離れている。   In step S506, the reliability calculation unit 403 projects the selected pixel in the direction 604 corresponding to the selected pixel. A 3D point 605 indicating the position of the projected pixel is separated from the imaging unit 104 by a distance corresponding to the selected pixel. That is, the 3D point 605 exists on the object 601 described above. If the imaging unit 106 is the reference viewpoint, the reliability calculation unit 403 projects the selected pixel in a direction 611 corresponding to the selected pixel. The 3D point 610 indicating the position of the projected pixel is separated from the imaging unit 106 by a distance corresponding to the selected pixel.

図6(b)は、撮像部108が基準視点であり、撮像部107、109が参照視点である場合の、3D空間上の配置を示す。図6(a)の場合と同様に、オブジェクト614、615、616は、それぞれ撮像部107、108、109の入力画像の各画素を3D空間上に投影することによって得られる。この場合、撮像部107が参照視点である時に信頼度算出部403は、選択された画素を、選択された画素に対応する方向617に投影する。投影された画素の位置を示す3D点618は、撮像部107から、選択された画素に対応する距離だけ離れている。また撮像部109が参照視点である時に信頼度算出部403は、選択された画素を、選択された画素に対応する方向624に投影する。投影された画素の位置を示す3D点623は、撮像部109から、選択された画素に対応する距離だけ離れている。   FIG. 6B shows an arrangement in the 3D space when the imaging unit 108 is a reference viewpoint and the imaging units 107 and 109 are reference viewpoints. Similar to the case of FIG. 6A, the objects 614, 615, and 616 are obtained by projecting the pixels of the input images of the imaging units 107, 108, and 109 onto the 3D space, respectively. In this case, when the imaging unit 107 is the reference viewpoint, the reliability calculation unit 403 projects the selected pixel in a direction 617 corresponding to the selected pixel. A 3D point 618 indicating the position of the projected pixel is separated from the imaging unit 107 by a distance corresponding to the selected pixel. When the imaging unit 109 is the reference viewpoint, the reliability calculation unit 403 projects the selected pixel in a direction 624 corresponding to the selected pixel. The 3D point 623 indicating the position of the projected pixel is separated from the imaging unit 109 by a distance corresponding to the selected pixel.

ステップS507において信頼度算出部403は、基準視点から、ステップS506において投影された画素へと向かう方向を決定する。例えば図6(a)において、撮像部104が参照視点である場合、この方向は基準視点105から3D点605へと向かう方向607である。また、撮像部106が参照視点である場合、この方向は基準視点105から3D点610へと向かう方向608である。図6(b)の場合、撮像部107が参照視点であれば、この方向は基準視点108から3D点618へと向かう方向620である。また、撮像部109が参照視点である場合、この方向は基準視点108から3D点623へと向かう方向621である。   In step S507, the reliability calculation unit 403 determines a direction from the reference viewpoint toward the pixel projected in step S506. For example, in FIG. 6A, when the imaging unit 104 is the reference viewpoint, this direction is a direction 607 from the reference viewpoint 105 toward the 3D point 605. When the imaging unit 106 is a reference viewpoint, this direction is a direction 608 from the reference viewpoint 105 toward the 3D point 610. In the case of FIG. 6B, if the imaging unit 107 is the reference viewpoint, this direction is a direction 620 from the reference viewpoint 108 toward the 3D point 618. When the imaging unit 109 is the reference viewpoint, this direction is a direction 621 from the reference viewpoint 108 toward the 3D point 623.

ステップS508において信頼度算出部403は、ステップS507で決定された方向の画像が、基準視点の入力画像に含まれているか否かを判定する。具体的には、基準視点の入力画像の焦点距離などを参照することにより、信頼度算出部403は基準視点の入力画像の画角を知ることができる。そして信頼度算出部403は、ステップS507で決定された方向が基準視点の入力画像の画角内にある場合に、ステップS507で決定された方向の画像が基準視点の入力画像に含まれていると判定することができる。含まれている場合、処理はステップS509に進む。含まれていない場合、処理はステップS504に戻る。   In step S508, the reliability calculation unit 403 determines whether the image in the direction determined in step S507 is included in the reference viewpoint input image. Specifically, the reliability calculation unit 403 can know the angle of view of the input image at the reference viewpoint by referring to the focal length of the input image at the reference viewpoint. Then, when the direction determined in step S507 is within the angle of view of the reference viewpoint input image, the reliability calculation unit 403 includes the direction image determined in step S507 in the reference viewpoint input image. Can be determined. If included, the process proceeds to step S509. If not included, the process returns to step S504.

ステップS509において信頼度算出部403は、ステップS507で決定された方向に対応する、基準視点の入力画像中の画素位置を特定する。ステップS507の処理は、基準視点の入力画像の焦点距離及び入力画像の解像度などを参照して行うことができる。ステップS509において算出される画素位置は、入力画像を構成する画素の間であってもよい。   In step S509, the reliability calculation unit 403 identifies the pixel position in the input image of the reference viewpoint corresponding to the direction determined in step S507. The processing in step S507 can be performed with reference to the focal length of the input image at the reference viewpoint, the resolution of the input image, and the like. The pixel position calculated in step S509 may be between pixels constituting the input image.

ステップS510において信頼度算出部403は、ステップS505で選択された画素が、基準視点のオクルージョン領域中にあるか否かを判定する。基準視点のオクルージョン領域とは、基準視点からは被写体の影に隠れて見えない部分のことをいう。参照視点の入力画像のうちのオクルージョン領域の範囲は、信頼度算出部403が判定することができる。画素がオクルージョン領域中にあるか否かは公知の画像処理技術を用いて判定することができるため、本明細書では詳細には説明しない。   In step S510, the reliability calculation unit 403 determines whether or not the pixel selected in step S505 is in the occlusion region of the reference viewpoint. The occlusion area of the reference viewpoint refers to a portion that is hidden from the shadow of the subject from the reference viewpoint. The reliability calculation unit 403 can determine the range of the occlusion region in the reference viewpoint input image. Whether or not the pixel is in the occlusion region can be determined using a known image processing technique, and thus will not be described in detail in this specification.

ステップS510の処理について、図7を参照して説明する。図7において、基準視点は撮像部105であり、参照視点は撮像部106である。オブジェクト701は、撮像部105の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。またオブジェクト702は、撮像部106の入力画像の各画素を距離情報に従って3D空間上に投影することによって得られるオブジェクトである。ステップS506において信頼度算出部403は、選択された画素を、選択された画素に対応する方向704に投影している。投影された画素の位置を示す3D点706は、撮像部106から、選択された画素に対応する距離だけ離れている。ステップS507において信頼度算出部403は、基準視点から、投影された画素へと向かう方向703を決定している。また3D点705は基準視点から方向703上にあり、3D点705の位置は、撮像部105から、ステップS509において算出された画素位置の画素に対応する距離だけ離れている。オクルージョン領域中では、対応する3D点705、706は異なるオブジェクトを表している。本実施例においては、このような場合には3D点705、706についての距離情報は信頼度算出のために用いない。   The process of step S510 will be described with reference to FIG. In FIG. 7, the reference viewpoint is the imaging unit 105, and the reference viewpoint is the imaging unit 106. The object 701 is an object obtained by projecting each pixel of the input image of the imaging unit 105 onto the 3D space according to the distance information. The object 702 is an object obtained by projecting each pixel of the input image of the imaging unit 106 onto the 3D space according to the distance information. In step S506, the reliability calculation unit 403 projects the selected pixel in the direction 704 corresponding to the selected pixel. A 3D point 706 indicating the position of the projected pixel is separated from the imaging unit 106 by a distance corresponding to the selected pixel. In step S507, the reliability calculation unit 403 determines a direction 703 from the reference viewpoint toward the projected pixel. The 3D point 705 is located in the direction 703 from the reference viewpoint, and the position of the 3D point 705 is separated from the imaging unit 105 by a distance corresponding to the pixel at the pixel position calculated in step S509. In the occlusion area, corresponding 3D points 705 and 706 represent different objects. In this embodiment, in such a case, the distance information about the 3D points 705 and 706 is not used for calculating the reliability.

ステップS510においてオクルージョン領域中にあると判定した場合、処理はステップS504に戻る。ステップS510においてオクルージョン領域中にないと判定した場合、処理はステップS511に進む。この処理によって、参照視点の入力画像のうち、基準視点のオクルージョン領域外にある画素を用いて信頼度を算出することができる。もっとも、ステップS510の処理を行うことは必須ではない。オクルージョン領域の計算は画素単位で行ってもようし、小領域単位で行ってもよい。小領域単位で計算する場合、基準視点の入力画像と参照視点の入力画像とについて対応する領域の特徴が大きく違う場合に、この小領域はオクルージョン領域にあるものと考えることができる。   If it is determined in step S510 that it is in the occlusion area, the process returns to step S504. If it is determined in step S510 that it is not in the occlusion area, the process proceeds to step S511. By this processing, the reliability can be calculated using pixels outside the occlusion area of the reference viewpoint in the reference viewpoint input image. However, it is not essential to perform the process of step S510. The calculation of the occlusion area may be performed in units of pixels or may be performed in units of small areas. When the calculation is performed in units of small areas, it can be considered that the small area is in the occlusion area when the characteristics of the corresponding areas of the input image of the base viewpoint and the input image of the reference viewpoint are greatly different.

本実施例ではステップS505で選択された画素が、基準視点のオクルージョン領域中にある場合に、この画素についての距離情報を信頼度算出のために用いない。しかしながら、いずれかのオクルージョン領域に関係する距離情報は信頼度算出のために用いないように、信頼度算出部403を構成することもできる。例えば別の実施例においては、ステップS509において算出された画素位置が、参照視点のオクルージョン領域中にある場合に、この画素についての距離情報は信頼度算出のために用いられない。   In this embodiment, when the pixel selected in step S505 is in the occlusion region of the reference viewpoint, the distance information about this pixel is not used for the reliability calculation. However, the reliability calculation unit 403 can be configured so that the distance information related to any one of the occlusion areas is not used for calculation of the reliability. For example, in another embodiment, when the pixel position calculated in step S509 is in the occlusion area of the reference viewpoint, the distance information about this pixel is not used for the reliability calculation.

ステップS511において信頼度算出部403は、ステップS509で特定された画素位置についての、距離情報が示す基準視点からの距離(第2の距離)を取得する。ステップS509で特定された画素位置が入力画像を構成する画素の間である場合、信頼度算出部403は距離情報を補間することによって基準視点からの距離を取得することができる。   In step S511, the reliability calculation unit 403 acquires the distance (second distance) from the reference viewpoint indicated by the distance information for the pixel position specified in step S509. When the pixel position specified in step S509 is between the pixels constituting the input image, the reliability calculation unit 403 can acquire the distance from the reference viewpoint by interpolating the distance information.

ステップS512において信頼度算出部403は、ステップS511で取得された距離と、ステップS505で選択された画素についての基準視点からの距離(第1の距離)と、の差分を算出する。そして信頼度算出部403は、算出された差分をメモリ(不図示)に格納する。その後処理は、ステップS504に戻る。   In step S512, the reliability calculation unit 403 calculates a difference between the distance acquired in step S511 and the distance (first distance) from the reference viewpoint for the pixel selected in step S505. Then, the reliability calculation unit 403 stores the calculated difference in a memory (not shown). Thereafter, the processing returns to step S504.

図6(A)を参照してステップS511及びステップS512の処理を詳しく説明する。3D点606、609は、ステップS509において算出された画素位置の画素を、ステップS507で決定された方向607、608へと投影した場合の画素位置を示す。ステップS511で取得された距離は、3D点606、609と撮像部105との間の距離に対応する。またステップS505で選択された画素についての基準視点からの距離は、3D点605、610と撮像部105との間の距離に対応する。したがって、ステップS512で算出される差分は、距離612、613に対応する。   With reference to FIG. 6 (A), the process of step S511 and step S512 is demonstrated in detail. The 3D points 606 and 609 indicate pixel positions when the pixel at the pixel position calculated in step S509 is projected in the directions 607 and 608 determined in step S507. The distance acquired in step S511 corresponds to the distance between the 3D points 606 and 609 and the imaging unit 105. Further, the distance from the reference viewpoint for the pixel selected in step S <b> 505 corresponds to the distance between the 3D points 605 and 610 and the imaging unit 105. Therefore, the difference calculated in step S512 corresponds to the distances 612 and 613.

ここで3D点605、609は、オブジェクト601、603上の点である。オブジェクト601、603は、撮像部104、106に対応する距離情報に従って得られるものである。すなわち、距離情報が距離画像として表されている場合、オブジェクト601、603は、撮像部104、106に対応する距離画像の各画素をその画素が示す距離だけ撮像部から離間させて配置することにより得られる。このように3D点605、609と撮像部105との間の距離は、仮想空間中に配置された撮像部104、106に対応する距離画像と、撮像部105との間の距離に対応する。   Here, the 3D points 605 and 609 are points on the objects 601 and 603. Objects 601 and 603 are obtained according to distance information corresponding to the imaging units 104 and 106. That is, when the distance information is represented as a distance image, the objects 601 and 603 are arranged by disposing the pixels of the distance image corresponding to the imaging units 104 and 106 away from the imaging unit by the distance indicated by the pixels. can get. As described above, the distance between the 3D points 605 and 609 and the imaging unit 105 corresponds to the distance between the imaging unit 105 and the distance image corresponding to the imaging units 104 and 106 arranged in the virtual space.

同様に3D点606、610は、オブジェクト602上の点である。オブジェクト602は、撮像部105に対応する距離情報に従って得られるものである。すなわち、距離情報が距離画像として表されている場合、オブジェクト602は、撮像部105に対応する距離画像の各画素をその画素が示す距離だけ撮像部から離間させて配置することにより得られる。このように3D点606、610と撮像部105との間の距離は、仮想空間中に配置された撮像部105に対応する距離画像と、撮像部105との間の距離に対応する。   Similarly, 3D points 606 and 610 are points on the object 602. The object 602 is obtained according to distance information corresponding to the imaging unit 105. That is, when the distance information is represented as a distance image, the object 602 is obtained by disposing each pixel of the distance image corresponding to the imaging unit 105 away from the imaging unit by the distance indicated by the pixel. As described above, the distance between the 3D points 606 and 610 and the imaging unit 105 corresponds to the distance between the imaging unit 105 and the distance image corresponding to the imaging unit 105 arranged in the virtual space.

また、3D点606は、撮像部105から3D点605へと向かう方向上に位置する。このように本実施例において信頼度算出部は、基準視点からみて距離画像が重なっている部分についての、基準視点からみた距離画像間の距離差を算出する。具体的には、基準視点である撮像部105に対応する距離画像と、参照視点である撮像部104、106に対応する距離画像と、の距離差を算出している。特に本実施例においては、基準画像と参照画像との間で共有している視野部分についての距離情報を用いて、距離差が算出される。   The 3D point 606 is located on the direction from the imaging unit 105 toward the 3D point 605. As described above, in the present embodiment, the reliability calculation unit calculates the distance difference between the distance images viewed from the reference viewpoint with respect to the portion where the distance images overlap as viewed from the reference viewpoint. Specifically, the distance difference between the distance image corresponding to the imaging unit 105 that is the reference viewpoint and the distance images corresponding to the imaging units 104 and 106 that are the reference viewpoints is calculated. In particular, in the present embodiment, the distance difference is calculated using the distance information about the field of view shared between the base image and the reference image.

同様に図6(B)の場合、3D点619、626は、ステップS509において算出された画素位置の画素を、ステップS507で決定された方向620、621へと投影した場合の画素位置を示す。ステップS511で取得された距離は、3D点619、626と撮像部105との間の距離に対応する。またステップS505で選択された画素についての基準視点からの距離は、3D点618、623と撮像部105との間の距離に対応する。したがって、ステップS512で算出される距離差は、距離625、626に対応する。   Similarly, in the case of FIG. 6B, 3D points 619 and 626 indicate pixel positions when the pixels at the pixel positions calculated in step S509 are projected in the directions 620 and 621 determined in step S507. The distance acquired in step S511 corresponds to the distance between the 3D points 619 and 626 and the imaging unit 105. Further, the distance from the reference viewpoint for the pixel selected in step S <b> 505 corresponds to the distance between the 3D points 618 and 623 and the imaging unit 105. Therefore, the distance difference calculated in step S512 corresponds to the distances 625 and 626.

図6の例では、図6(b)の方が図6(a)より距離差が小さい。距離差が小さいことは、基準画像についての距離情報が示す距離が、参照画像についての距離情報が示す距離により近いことを示し、このことは距離情報の精度が高いことを示唆する。したがってステップS512で算出される距離差が小さいほど、基準画像についての距離情報はより信頼性が高いものと判定できる。   In the example of FIG. 6, the distance difference in FIG. 6B is smaller than that in FIG. A small distance difference indicates that the distance indicated by the distance information for the reference image is closer to the distance indicated by the distance information for the reference image, which indicates that the accuracy of the distance information is high. Therefore, as the distance difference calculated in step S512 is smaller, it can be determined that the distance information about the reference image is more reliable.

ステップS513において信頼度算出部403は、ステップS512でメモリに記録された距離差に従って、基準視点についての信頼度を算出する。信頼度算出部は、基準視点に対応する距離画像と、参照視点に対応する距離画像と、の距離差が小さいほど信頼度が高くなるように、基準視点についての信頼度を算出する。本実施例において信頼度算出部は、ステップS512でメモリに記録された距離差の平均値を信頼度として用いる。この場合、信頼度がより小さいことは、信頼度がより高いことを意味する。しかしながら信頼度は他の方法で求めてもよく、距離差の他の統計値(例えば最大値)を信頼度として求めてもよい。   In step S513, the reliability calculation unit 403 calculates the reliability for the reference viewpoint according to the distance difference recorded in the memory in step S512. The reliability calculation unit calculates the reliability of the reference viewpoint such that the reliability increases as the distance difference between the distance image corresponding to the reference viewpoint and the distance image corresponding to the reference viewpoint decreases. In the present embodiment, the reliability calculation unit uses the average value of the distance differences recorded in the memory in step S512 as the reliability. In this case, smaller reliability means higher reliability. However, the reliability may be obtained by other methods, and another statistical value (for example, maximum value) of the distance difference may be obtained as the reliability.

本実施例では、撮像部101〜109で撮像される画像がカラー画像であることを前提に各部の構成や処理を説明した。しかしながら、撮像部101〜109で撮像される画像の一部又は全部はモノクロ画像であってもよい。この場合、撮像部101〜109からはカラーフィルタ308を省くことができる。   In the present embodiment, the configuration and processing of each unit have been described on the assumption that images captured by the imaging units 101 to 109 are color images. However, some or all of the images captured by the imaging units 101 to 109 may be monochrome images. In this case, the color filter 308 can be omitted from the imaging units 101 to 109.

本実施例において説明した信頼度の算出方法は一例にすぎず、各撮像部又は撮像装置からみた距離画像間の距離差が小さいほど基準視点についての信頼度が高くなるような、他の方法を採用することもできる。例えば本実施例では、3D点605と3D点606との間の距離を用いて信頼度を算出した。しかしながら代わりに、撮像部104と3D点605との間の距離と、撮像部105と3D点606との間の距離との差分を用いて、同様に信頼度を算出することもできる。また、オブジェクト(距離画像)601と、オブジェクト602とについて、撮像部105(又は撮像部101〜109が配置されている平面)からみて重なり合っている部分についての平均間隔を算出してもよい。この平均間隔を用いても、同様に信頼度を算出することができる。   The calculation method of the reliability described in the present embodiment is merely an example, and another method in which the reliability of the reference viewpoint becomes higher as the distance difference between the distance images viewed from each imaging unit or imaging apparatus is smaller. It can also be adopted. For example, in this embodiment, the reliability is calculated using the distance between the 3D point 605 and the 3D point 606. However, instead, the reliability can be calculated similarly using the difference between the distance between the imaging unit 104 and the 3D point 605 and the distance between the imaging unit 105 and the 3D point 606. In addition, for the object (distance image) 601 and the object 602, an average interval may be calculated for a portion overlapping with the imaging unit 105 (or the plane on which the imaging units 101 to 109 are arranged). The reliability can be similarly calculated using this average interval.

実施例1においては、距離情報の信頼度に従って符号化対象となる撮像部を選択した。実施例2ではさらに、オクルージョンの度合いに従って符号化対象となる撮像部を選択する。ある入力画像についてオクルージョンの度合いが大きい場合、この入力画像は他の画像には写っていない被写体を多く含んでいるものと考えられる。本実施例では、このような入力画像についても符号化の対象とする。   In the first embodiment, the imaging unit to be encoded is selected according to the reliability of the distance information. In the second embodiment, an imaging unit to be encoded is further selected according to the degree of occlusion. When the degree of occlusion is large for a certain input image, this input image is considered to include many subjects that are not shown in other images. In the present embodiment, such an input image is also an encoding target.

以下で、実施例2に係る符号化装置及びその処理方法について説明する。実施例2に係る符号化装置の構成は実施例1と同様であり、説明は省略する。また、実施例2に係る符号化装置が備える画像処理部212の構成も、実施例1と同様であるから、説明は省略する。   Hereinafter, an encoding apparatus and a processing method thereof according to the second embodiment will be described. The configuration of the encoding apparatus according to the second embodiment is the same as that of the first embodiment, and a description thereof will be omitted. In addition, the configuration of the image processing unit 212 included in the encoding apparatus according to the second embodiment is the same as that of the first embodiment, and thus the description thereof is omitted.

実施例2に係る処理は、図8及び図5に示す実施例1に係る処理と同様であるが、ステップS510、ステップS513、及びステップS804の処理が実施例1とは異なる。   The process according to the second embodiment is the same as the process according to the first embodiment illustrated in FIGS. 8 and 5, but the processes in step S510, step S513, and step S804 are different from those in the first embodiment.

ステップS510において、ステップS505で選択された画素が基準視点のオクルージョン領域中にあると判定された場合、信頼度算出部403は、ステップS505で選択された画素についてのオクルージョン量を算出する。そして、処理はステップS504に戻る。オクルージョン領域中にないと判定された場合、実施例1と同様に、処理はステップS511に進む。   In step S510, when it is determined that the pixel selected in step S505 is in the occlusion region of the reference viewpoint, the reliability calculation unit 403 calculates the occlusion amount for the pixel selected in step S505. Then, the process returns to step S504. If it is determined that it is not in the occlusion area, the process proceeds to step S511 as in the first embodiment.

図7を参照してオクルージョン量について説明する。図7に示される各要素は、実施例1に関連して既に説明した。本実施例で信頼度算出部403は、3D点705、706間の距離をオクルージョン量として算出し、算出されたオクルージョン量をメモリ(不図示)に記録する。   The occlusion amount will be described with reference to FIG. Each element shown in FIG. 7 has already been described in connection with the first embodiment. In the present embodiment, the reliability calculation unit 403 calculates the distance between the 3D points 705 and 706 as an occlusion amount, and records the calculated occlusion amount in a memory (not shown).

ステップS513において信頼度算出部403は、ステップS512でメモリに記録された距離差に従って、基準視点についての信頼度を算出する。本実施例において信頼度算出部403はさらに、ステップS509でメモリに記録されたオクルージョン量に従って、基準視点の入力画像についてのオクルージョン量(オクルージョンの度合い)を算出する。本実施例において信頼度算出部は、ステップS509でメモリに記録されたオクルージョン量の平均値を、基準視点の入力画像についてのオクルージョン量として算出する。しかしながら、記録されたオクルージョン量の他の統計値(例えば最大値)を、基準視点の入力画像についてのオクルージョン量として求めてもよい。   In step S513, the reliability calculation unit 403 calculates the reliability for the reference viewpoint according to the distance difference recorded in the memory in step S512. In this embodiment, the reliability calculation unit 403 further calculates an occlusion amount (degree of occlusion) for the input image at the reference viewpoint according to the occlusion amount recorded in the memory in step S509. In the present embodiment, the reliability calculation unit calculates the average value of the occlusion amounts recorded in the memory in step S509 as the occlusion amount for the input image at the reference viewpoint. However, another statistical value (for example, maximum value) of the recorded occlusion amount may be obtained as the occlusion amount for the input image at the reference viewpoint.

ステップS804において視点選択部404は、実施例1と同様に信頼度に従って、撮像部101〜109の中から符号化対象とする撮像部を選択する。本実施例において視点選択部404はさらに、ステップS513で求められたオクルージョン量に応じて、符号化対象とする撮像部を選択する。具体的には、ステップS513で求められたオクルージョン量が設定された閾値よりも大きい場合に、対応する撮像部を符号化対象として選択することができる。   In step S804, the viewpoint selection unit 404 selects an imaging unit to be encoded from the imaging units 101 to 109 according to the reliability as in the first embodiment. In the present embodiment, the viewpoint selection unit 404 further selects an imaging unit to be encoded according to the occlusion amount obtained in step S513. Specifically, when the occlusion amount obtained in step S513 is larger than the set threshold value, the corresponding imaging unit can be selected as an encoding target.

本実施例においては視点選択部404は、実施例1と同様に信頼度に従って符号化対象とする撮像部を選択した後に、オクルージョン量に応じて符号化対象とする撮像部を追加的に選択する。しかしながら、信頼度とオクルージョン量とに従って符号化対象とする撮像部を決めるのであれば、他の方法を用いてもよい。例えば、符号化対象とする撮像部の数が一定となるように、視点選択部404は符号化対象とする撮像部を選択してもよい。   In this embodiment, the viewpoint selection unit 404 selects an imaging unit to be encoded according to the reliability, and then additionally selects an imaging unit to be encoded according to the occlusion amount, as in the first embodiment. . However, other methods may be used as long as the imaging unit to be encoded is determined according to the reliability and the occlusion amount. For example, the viewpoint selection unit 404 may select an imaging unit to be encoded so that the number of imaging units to be encoded is constant.

本実施例においては、オクルージョンの度合いを、上述のように3D点の間の距離に従って算出した。この3D点の間の距離はそれぞれの入力画像についての距離情報の誤差に対応し、この誤差が大きいほどオクルージョンの度合いは大きいものと考えられる。しかしながらオクルージョンの度合いは本実施例のように算出される必要はない。例えば、オクルージョンの度合いとして、オクルージョン領域の大きさ、前景オブジェクトに隠れている背景オブジェクトの大きさを表す指標を用いてもよい。すなわち、より大きいオクルージョン領域を有する入力画像を撮像した撮像部を、符号化対象とする撮像部として選択してもよい。ここでオクルージョン領域の大きさとは、他の撮像部のいずれによっても撮像されない領域の大きさを指してもよいし、他の撮像部のいずれかによっては撮像されない領域の大きさを指してもよい。例えば、オクルージョン領域として特定された領域の大きさ(画素数)を指標として用いることができる。   In this example, the degree of occlusion was calculated according to the distance between 3D points as described above. The distance between the 3D points corresponds to the error of the distance information for each input image, and the greater the error, the greater the degree of occlusion. However, the degree of occlusion need not be calculated as in this embodiment. For example, as the degree of occlusion, an index representing the size of the occlusion area and the size of the background object hidden behind the foreground object may be used. That is, an imaging unit that captures an input image having a larger occlusion area may be selected as an imaging unit to be encoded. Here, the size of the occlusion area may indicate the size of an area that is not imaged by any of the other imaging units, or may indicate the size of an area that is not captured by any of the other imaging units. . For example, the size (number of pixels) of the area specified as the occlusion area can be used as an index.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (8)

複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得手段と、
それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得手段と、
仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定手段と、
より大きい前記信頼度が設定された撮像部を選択する選択手段と、
前記選択手段が選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化手段と、
を備えることを特徴とする符号化装置。
First acquisition means for acquiring each captured image captured by a plurality of imaging units as an input image;
Second acquisition means for acquiring, for each of the input images, a distance image indicating an estimated distance from an imaging unit that has captured the input image to the subject of each pixel;
In the virtual space, the viewpoints of the plurality of imaging units are set in the same arrangement as in reality, and each pixel of the distance image corresponding to each imaging unit is set at a position separated from the viewpoint of the imaging unit by the distance indicated by the pixel. When arranged, the distance from the viewpoint of each imaging unit to the corresponding distance image, the distance from the distance image corresponding to another imaging unit partially sharing the field of view with the imaging unit, and the viewpoint of the imaging unit, Setting means for setting the reliability for each imaging unit so that the smaller the distance difference is, the higher the reliability is;
Selection means for selecting an imaging unit in which a higher reliability is set;
Encoding means for encoding the input image corresponding to the imaging unit selected by the selection means and the distance image;
An encoding device comprising:
前記設定手段は、
前記仮想空間における、前記信頼度を設定する着目撮像部の視点と、前記他撮像部に対応する距離画像の着目画素との間の距離を、第1の距離として取得する手段と、
前記仮想空間における、前記着目撮像部の視点から前記着目画素へと向かう方向を決定する手段と、
前記決定された方向に対応する、前記着目撮像部によって撮像された入力画像中の画素を特定する手段と、
前記距離画像を参照して、前記特定された画素に対応する距離画像の画素と、前記着目撮像部の視点との間の距離を、第2の距離として取得する手段と、
前記第1の距離と前記第2の距離との差分を用いて前記距離差を算出する手段と、
を備えることを特徴とする、請求項1に記載の符号化装置。
The setting means includes
Means for acquiring, as a first distance, a distance between a viewpoint of the target imaging unit that sets the reliability in the virtual space and a target pixel of a distance image corresponding to the other imaging unit;
Means for determining a direction from the viewpoint of the target imaging unit to the target pixel in the virtual space;
Means for identifying a pixel in the input image captured by the imaging unit of interest corresponding to the determined direction;
Means for referring to the distance image and acquiring a distance between a pixel of the distance image corresponding to the identified pixel and a viewpoint of the imaging unit of interest as a second distance;
Means for calculating the distance difference using a difference between the first distance and the second distance;
The encoding device according to claim 1, comprising:
前記設定手段はオクルージョン領域を特定する手段をさらに備え、前記着目画素は、前記他撮像部に対応する距離画像のうち前記着目撮像部のオクルージョン領域外から選択されることを特徴とする、請求項2に記載の符号化装置。   The said setting means is further provided with a means to specify an occlusion area | region, The said focused pixel is selected from the outside of the occlusion area | region of the said focused imaging part among the distance images corresponding to the said other imaging part. 2. The encoding device according to 2. 前記設定手段は、前記信頼度を設定する撮像部に隣接する撮像部を、前記他撮像部として選択することを特徴とする、請求項1乃至3の何れか1項に記載の符号化装置。   The encoding apparatus according to any one of claims 1 to 3, wherein the setting unit selects, as the other imaging unit, an imaging unit adjacent to an imaging unit that sets the reliability. 前記選択手段は、より大きいオクルージョン領域を有する入力画像を撮像した撮像部をさらに選択することを特徴とする、請求項1乃至4の何れか1項に記載の符号化装置。   5. The encoding apparatus according to claim 1, wherein the selection unit further selects an imaging unit that has captured an input image having a larger occlusion area. 6. 符号化装置が行う符号化方法であって、
第1の取得手段が、複数の撮像部によって撮像されたそれぞれの撮像画像を入力画像として取得する第1の取得工程と、
第2の取得手段が、それぞれの前記入力画像について、該入力画像を撮像した撮像部から各画素の被写体までの推定距離を示す距離画像を取得する第2の取得工程と、
設定手段が、仮想空間内に、前記複数の撮像部の視点を現実と同様の配置で設定し、各撮像部に対応する距離画像の各画素を該画素が示す距離だけ該撮像部の視点から離間した位置に配置した場合に、各撮像部の視点から対応する距離画像までの距離と、該撮像部と部分的に視野を共有する他撮像部に対応する距離画像から該撮像部の視点までの距離と、の距離差が小さいほど信頼度が高くなるように、各撮像部についての信頼度を設定する設定工程と、
選択手段が、より大きい前記信頼度が設定された撮像部を選択する選択工程と、
符号化手段が、前記選択工程で選択した撮像部に対応する前記入力画像と前記距離画像とを符号化する符号化工程と、
を備えることを特徴とする符号化方法。
An encoding method performed by an encoding device,
A first acquisition unit that acquires, as an input image, each captured image captured by a plurality of imaging units;
A second acquisition step in which a second acquisition unit acquires, for each of the input images, a distance image indicating an estimated distance from an imaging unit that has captured the input image to a subject of each pixel;
The setting means sets the viewpoints of the plurality of imaging units in the virtual space in the same arrangement as in reality, and sets each pixel of the distance image corresponding to each imaging unit from the viewpoint of the imaging unit by the distance indicated by the pixel. When arranged at a separated position, the distance from the viewpoint of each imaging unit to the corresponding distance image, and the distance image corresponding to another imaging unit partially sharing the field of view with the imaging unit to the viewpoint of the imaging unit A setting step for setting the reliability for each imaging unit so that the reliability is higher as the distance difference is smaller,
A selection step in which the selection means selects an imaging unit in which the greater reliability is set;
An encoding step for encoding the input image corresponding to the imaging unit selected in the selection step and the distance image;
An encoding method comprising:
コンピュータを、請求項1乃至5の何れか1項に記載の符号化装置の各手段として機能させるための、コンピュータプログラム。   A computer program for causing a computer to function as each unit of the encoding device according to any one of claims 1 to 5. 請求項7に記載のコンピュータプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 7.
JP2012007383A 2012-01-17 2012-01-17 Encoder, encoding method, program and storage medium Pending JP2013150071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012007383A JP2013150071A (en) 2012-01-17 2012-01-17 Encoder, encoding method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012007383A JP2013150071A (en) 2012-01-17 2012-01-17 Encoder, encoding method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2013150071A true JP2013150071A (en) 2013-08-01

Family

ID=49047189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012007383A Pending JP2013150071A (en) 2012-01-17 2012-01-17 Encoder, encoding method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2013150071A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087851A (en) * 2013-10-29 2015-05-07 日本電信電話株式会社 Image processor and image processing program
JP2017028606A (en) * 2015-07-27 2017-02-02 キヤノン株式会社 Imaging apparatus
JP2017524917A (en) * 2014-07-09 2017-08-31 ソフトキネティック センサーズ エヌブイ Method for binning time-of-flight data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087851A (en) * 2013-10-29 2015-05-07 日本電信電話株式会社 Image processor and image processing program
JP2017524917A (en) * 2014-07-09 2017-08-31 ソフトキネティック センサーズ エヌブイ Method for binning time-of-flight data
JP2017028606A (en) * 2015-07-27 2017-02-02 キヤノン株式会社 Imaging apparatus

Similar Documents

Publication Publication Date Title
JP6021541B2 (en) Image processing apparatus and method
JP5954668B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9076267B2 (en) Image coding device, integrated circuit thereof, and image coding method
GB2500758A (en) Generating three dimensional images from two dimensional images using auto-focus, auto-exposure or auto-white balance statistics
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
WO2019124248A1 (en) Image processing device, content processing device, content processing system, and image processing method
US10037335B1 (en) Detection of 3-D videos
JP2013025649A (en) Image processing device, image processing method, and program
CN112352264A (en) Image processing apparatus, image processing method, and program
JP6128748B2 (en) Image processing apparatus and method
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
KR102265109B1 (en) Method and apparatus for image processing
JP2015171097A (en) Image processing apparatus and control method thereof
JP2013150071A (en) Encoder, encoding method, program and storage medium
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
CN110995982B (en) Image processing apparatus, control method therefor, imaging apparatus, and recording medium
US20200267374A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
US10382676B2 (en) Image display apparatus, image capturing apparatus, image display method, and storage medium
US20210065404A1 (en) Image processing apparatus, image processing method, and program
JP5869839B2 (en) Image processing apparatus and control method thereof
JP2015233270A (en) Imaging apparatus and control method of the same
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2014164497A (en) Information processor, image processing method and program
US10911780B2 (en) Multi-viewpoint image coding apparatus, multi-viewpoint image coding method, and storage medium
JP2014049895A (en) Image processing method