JP4706068B2 - Image information processing method and image information processing system - Google Patents

Image information processing method and image information processing system Download PDF

Info

Publication number
JP4706068B2
JP4706068B2 JP2007106213A JP2007106213A JP4706068B2 JP 4706068 B2 JP4706068 B2 JP 4706068B2 JP 2007106213 A JP2007106213 A JP 2007106213A JP 2007106213 A JP2007106213 A JP 2007106213A JP 4706068 B2 JP4706068 B2 JP 4706068B2
Authority
JP
Japan
Prior art keywords
image
camera
image information
depth
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007106213A
Other languages
Japanese (ja)
Other versions
JP2008263528A (en
Inventor
正幸 谷本
俊彰 藤井
知博 圓道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2007106213A priority Critical patent/JP4706068B2/en
Publication of JP2008263528A publication Critical patent/JP2008263528A/en
Application granted granted Critical
Publication of JP4706068B2 publication Critical patent/JP4706068B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、複数のカメラ画像に基づいて実際にカメラが存在しない視点(仮想カメラ)から見た自由視点画像を生成するための画像情報処理方法及び画像情報処理システムに関し、特に、複数のカメラ画像を取得する送信側システム及び自由視点画像を表示する受信側システムにおける画像情報処理に関する。   The present invention relates to an image information processing method and an image information processing system for generating a free viewpoint image viewed from a viewpoint (virtual camera) where no camera actually exists based on a plurality of camera images, and in particular, a plurality of camera images. The present invention relates to image information processing in a transmission-side system that acquires image and a reception-side system that displays a free viewpoint image.

見る者があたかもその場にいるかのように、自由に視点を変えて3次元シーンを見ることのできる自由視点テレビ(Free viewpoint TV:FTV)が提案されている(例えば、非特許文献1及び2参照)。図1は、FTVシステムの基本的な構成を概念的に示す図である。図1に示されるFTVシステムは、複数のカメラによる撮影(ステップST1)、離散的にしか存在しないカメラ画像の間に画像を補間する補間処理(ステップST2又は2a)、及び入力された視点(仮想カメラ)から見た画像の切り出し及び表示(ステップST4及びST5)を行う。FTVシステムでは、3次元実空間に存在する被写体101の画像情報を複数のカメラ(図1には、符号102〜102の5台を示すが、実際にはより多くのカメラが用いられる。)によって取得し、取得された複数のカメラ画像(図1には、符号103〜103の5つの画像を示すが、実際にはより多くの画像が用いられる。)を光線空間103に配列し、FTV信号とする。なお、図において、xは、水平視野方向、yは、垂直視野方向、u(=tanθ)は、視域方向を示す。 Free viewpoint TV (FTV) has been proposed that allows a viewer to freely change the viewpoint and view a three-dimensional scene as if the viewer is on the spot (for example, Non-Patent Documents 1 and 2). reference). FIG. 1 is a diagram conceptually showing the basic structure of an FTV system. The FTV system shown in FIG. 1 captures by a plurality of cameras (step ST1), interpolation processing (step ST2 or 2a) for interpolating images between discretely existing camera images, and an input viewpoint (virtual) The image viewed from the camera) is cut out and displayed (steps ST4 and ST5). In the FTV system, image information of the subject 101 existing in the three-dimensional real space is shown by a plurality of cameras (FIG. 1 shows five cameras 102 1 to 102 5 , but more cameras are actually used. ), And a plurality of acquired camera images (five images of reference numerals 103 1 to 103 5 are shown in FIG. 1 but more images are actually used) are arranged in the light space 103. And an FTV signal. In the figure, x is the horizontal viewing direction, y is the vertical viewing direction, and u (= tan θ) is the viewing zone direction.

光線空間法では、3次元実空間の1本の光線を、それを表すパラメータを座標とする多次元空間の1点で表す。この仮想的な多次元空間を光線空間(Ray Space)という。光線空間全体は、3次元空間のすべての光線を過不足なく表現する。光線空間は、多くの視点から撮影された画像を集めることによって作られる。光線空間の点の値は、画像の画素値と同じであるから、画像から光線空間への変換は、単なる座標変換である。図2(a)に示されるように、実空間中の基準面106を通過する光線107は通過位置(x,y)と通過方向(θ,φ)の4つのパラメータによって一意に表現することができる。図2(a)において、Xは、3次元実空間における水平方向の座標軸であり、Yは、垂直方向の座標軸であり、Zは、奥行き方向の座標軸である。また、θは、基準面106の法線に対する水平方向の角度、すなわち、基準面106に対する水平方向の出射角であり、φは、基準面106の法線に対する垂直方向の角度、すなわち、基準面106に対する垂直方向の出射角である。これにより、この3次元実空間内の光線情報を輝度f(x,y,θ,φ)と表すことができる。ここでは、説明を分かりやすくするために、垂直方向の視差(角度φ)を無視する。図2(a)に示されるように、基準面106に向けて、且つ、水平に配置された多数のカメラで撮影された画像は、図2(b)に示されるように、x,y,u(=tanθ)の軸を持つ3次元空間において、点線で描かれる断面103〜103に位置していることになる。図2(b)に示される光線空間103から任意の面を切り取ることによって、実空間における水平方向の任意の視点から見た画像を生成することが可能となる。例えば、図3(a)に示される光線空間103から断面103aを切り出すと、図3(b)に示されるような画像がディスプレイに表示され、図3(a)に示される光線空間103から断面103bを切り出すと、図3(c)に示されるような画像がディスプレイに表示される。また、光線空間103に配列された画像(断面103〜103)の間にはデータがないため、これを補間によって作る。なお、補間は、光線空間の全体についてではなく、必要な部分についてのみ行う場合もある。 In the ray space method, one ray in a three-dimensional real space is represented by one point in a multidimensional space with parameters representing the coordinates as coordinates. This virtual multidimensional space is called a ray space. The entire ray space expresses all rays in the three-dimensional space without excess or deficiency. Ray space is created by collecting images taken from many viewpoints. Since the value of the point in the light space is the same as the pixel value of the image, the conversion from the image to the light space is a simple coordinate conversion. As shown in FIG. 2A, the light beam 107 passing through the reference plane 106 in the real space can be uniquely expressed by four parameters of the passing position (x, y) and the passing direction (θ, φ). it can. In FIG. 2A, X is a horizontal coordinate axis in the three-dimensional real space, Y is a vertical coordinate axis, and Z is a depth coordinate axis. In addition, θ is an angle in the horizontal direction with respect to the normal line of the reference surface 106, that is, an output angle in the horizontal direction with respect to the reference surface 106, and φ is an angle in the vertical direction with respect to the normal line of the reference surface 106, that is, the reference surface. The emission angle in the vertical direction with respect to 106. Thereby, the light ray information in the three-dimensional real space can be expressed as luminance f (x, y, θ, φ). Here, in order to make the explanation easy to understand, the parallax (angle φ) in the vertical direction is ignored. As shown in FIG. 2 (a), images taken by a large number of cameras arranged toward the reference plane 106 and horizontally are shown in FIG. 2 (b) as x, y, In the three-dimensional space having the axis of u (= tan θ), the cross sections are 103 1 to 103 5 drawn by dotted lines. By cutting an arbitrary surface from the light beam space 103 shown in FIG. 2B, an image viewed from an arbitrary viewpoint in the horizontal direction in the real space can be generated. For example, when the cross section 103a is cut out from the light beam space 103 shown in FIG. 3A, an image as shown in FIG. 3B is displayed on the display, and the cross section from the light beam space 103 shown in FIG. When 103b is cut out, an image as shown in FIG. 3C is displayed on the display. In addition, since there is no data between the images (cross sections 103 1 to 103 5 ) arranged in the light space 103, this is created by interpolation. In some cases, the interpolation is performed not for the entire light space but only for a necessary portion.

図4は、送信側システム210と受信側システム230とから構成される従来の画像情報処理システムの構成及び動作を示す図である。図4に示されるように、送信側システム210は、被写体101を複数のカメラ211aで撮影することによって複数のカメラ画像210aを取得する画像取得部211と、取得された複数のカメラ画像210aを補正する補正部212と、補正されたカメラ画像210bを符号化する符号化部(エンコーダ)213と、符号化されたカメラ画像210cとカメラパラメータをインターネットなどの伝送手段220を介して送信する送信部214とを有している。また、受信側システム230は、送信側システム210から送信されたカメラ画像210cとカメラパラメータを受信する受信部231と、受信されたカメラ画像210cを復号化する復号化部(デコーダ)232と、復号化されたカメラ画像230aを用いて光線空間230bを生成する画像生成(View Generation)部233と、光線空間230bから表示画像を切り出す抽出部234と、切り出された表示画像230cを表示する表示部235と有している。   FIG. 4 is a diagram illustrating the configuration and operation of a conventional image information processing system including a transmission side system 210 and a reception side system 230. As illustrated in FIG. 4, the transmission-side system 210 corrects the acquired plurality of camera images 210a and the image acquisition unit 211 that acquires the plurality of camera images 210a by photographing the subject 101 with the plurality of cameras 211a. A correction unit 212 that performs encoding, an encoding unit (encoder) 213 that encodes the corrected camera image 210b, and a transmission unit 214 that transmits the encoded camera image 210c and camera parameters via a transmission unit 220 such as the Internet. And have. The reception-side system 230 also includes a reception unit 231 that receives the camera image 210c and camera parameters transmitted from the transmission-side system 210, a decoding unit (decoder) 232 that decodes the received camera image 210c, and a decoding Image generation unit 233 that generates a light space 230b using the converted camera image 230a, an extraction unit 234 that extracts a display image from the light space 230b, and a display unit 235 that displays the extracted display image 230c. It has.

図5(a)〜(c)は、従来の画像情報処理システム又は3Dサービスシステムの具体例を示すブロック図である。図5(a)に示されるインターネットを用いたダウンロード/パッケージサービスにおいては、送信側システムのデジタルアーカイブス241を伝送/パッケージ手段242を介して受信側の複数のユーザのシステムに送信し、各ユーザのシステムがデコーダ243による復号化、画像生成部244による光線空間の生成、及び表示部245による自由視点画像(2D画像又は3D画像)の表示を行う。ダウンロード/パッケージサービスにおいては、リアルタイム性はあまり要求されない。図5(b)に示される放送サービスにおいては、送信側の画像取得部251でカメラ画像を取得し、補正部252でカメラ画像を補正し、エンコーダ253で符号化した画像を伝送手段254によって伝送し、受信側の複数のユーザのシステムにおいて、デコーダ255が受信画像を復号化し、画像生成部256によって光線空間を生成し、自由視点画像の表示を行う。放送サービスにおいては、ダウンロード/パッケージサービスよりはリアルタイム性が要求されるが、完全なリアルタイム性までは要求されない。図5(c)に示される通信サービスにおいては、画像取得部261又は271、補正部262又は272、及びエンコーダ263又は273を有する送信側システムから、伝送手段264を介して符号化画像を伝送し、デコーダ265又は275、画像生成部266又は276、及び表示部267又は277を有する受信側システムが復号化、画像生成、及び自由視点画像の表示を行う。通信サービスにおいては、高いリアルタイム性が要求される。   FIGS. 5A to 5C are block diagrams illustrating a specific example of a conventional image information processing system or 3D service system. In the download / package service using the Internet shown in FIG. 5A, the digital archives 241 of the transmission side system is transmitted to the systems of a plurality of users on the reception side via the transmission / package means 242, and each user's system is transmitted. The system performs decoding by the decoder 243, generation of a light space by the image generation unit 244, and display of a free viewpoint image (2D image or 3D image) by the display unit 245. In the download / package service, real-time performance is not so required. In the broadcasting service shown in FIG. 5B, a camera image is acquired by the image acquisition unit 251 on the transmission side, the camera image is corrected by the correction unit 252, and an image encoded by the encoder 253 is transmitted by the transmission unit 254. Then, in a system of a plurality of users on the receiving side, the decoder 255 decodes the received image, generates a light space by the image generation unit 256, and displays a free viewpoint image. In the broadcast service, real-time property is required rather than the download / package service, but not complete real-time property is required. In the communication service shown in FIG. 5C, an encoded image is transmitted from the transmission side system having the image acquisition unit 261 or 271, the correction unit 262 or 272, and the encoder 263 or 273 via the transmission unit 264. The receiving system including the decoder 265 or 275, the image generation unit 266 or 276, and the display unit 267 or 277 performs decoding, image generation, and display of a free viewpoint image. In communication services, high real-time performance is required.

谷本正幸、「自由視点テレビ」、日本工業出版、画像ラボ、2005年2月号、23〜28頁Masayuki Tanimoto, “Free Viewpoint Television”, Nihon Kogyo Shuppan, Image Lab, February 2005, pages 23-28 岡慎也、ナ バンチャンプリム、藤井俊彰、谷本正幸、「自由視点テレビのための光線空間情報圧縮」、信学技報、CS2003−141、7〜12頁、2003年12月Shinya Oka, Na Ban Chang Prim, Toshiaki Fujii, Masayuki Tanimoto, “Light Space Information Compression for Free Viewpoint Television”, IEICE Technical Report, CS 2003-141, pp. 7-12, December 2003

図4又は図5(a)〜(c)に示されるシステムにおいては、カメラ画像から自由視点画像を生成するための画像生成処理(図4の画像生成部233による処理、図5(a)の画像生成部244による処理、図5(b)の画像生成部256による処理、図5(c)の画像生成部266及び276による処理)をすべて受信側システムで行っている。自由視点画像の生成にはシーンの奥行き情報である奥行きマップ(Depth Map)の算出プロセスと、この奥行きマップを用いた光線空間の補間(interpolation)プロセスが含まれる。このため、複数のカメラ画像(輝度信号)のみを受信側システムに伝送した場合には、受信側システムで複数のカメラ画像から奥行きマップを算出する必要が生じる。しかし、奥行きマップの算出処理には、非常に計算能力の高い装置が必要であり、ユーザ側機器である受信側システム230に、自由視点画像を生成するための高い計算能力を持たせることは、コスト面から難しいという問題がある。   In the system shown in FIG. 4 or FIGS. 5A to 5C, image generation processing for generating a free viewpoint image from a camera image (processing by the image generation unit 233 in FIG. 4, FIG. 5A). The processing by the image generation unit 244, the processing by the image generation unit 256 in FIG. 5B, and the processing by the image generation units 266 and 276 in FIG. The generation of a free viewpoint image includes a process of calculating a depth map (Depth Map), which is depth information of the scene, and a light space interpolation process using the depth map. For this reason, when only a plurality of camera images (luminance signals) are transmitted to the receiving side system, it is necessary to calculate a depth map from the plurality of camera images in the receiving side system. However, the calculation process of the depth map requires a device having a very high calculation capability, and the receiving side system 230 that is a user side device has a high calculation capability for generating a free viewpoint image. There is a problem that it is difficult in terms of cost.

このため、複数のカメラ画像から自由視点画像を生成するための処理における、奥行きマップの算出プロセス及び補間プロセスを送信側システムで行い、受信側システムは光線空間から表示画像を切り出す処理を行うシステムも考えられる。図6は、このような画像情報処理システムの構成及び動作を示す図である。図6に示されるように、送信側システム310は、被写体101を複数のカメラ311aで撮影することによって複数のカメラ画像310aを取得する画像取得部311と、撮影された複数のカメラ画像310aを補正する補正部312と、補正されたカメラ画像310bから補間画像を生成して補間された光線空間310cを生成する画像生成部313と、光線空間310cの情報を符号化する符号化部314と、符号化された光線空間情報を伝送手段320を介して送信する送信部315とを有している。また、受信側システム330は、送信側システム310から送信された光線空間310cの情報を受信する受信部331と、受信された情報を復号化する復号化部332と、復号化された情報を用いて光線空間310cを生成する画像生成部332と、光線空間310cから表示画像を切り出す抽出部333と、抽出された表示画像310dを表示する表示部334と有している。   For this reason, in the process for generating a free viewpoint image from a plurality of camera images, the depth map calculation process and the interpolation process are performed in the transmission side system, and the reception side system performs a process of cutting out the display image from the light space. Conceivable. FIG. 6 is a diagram showing the configuration and operation of such an image information processing system. As illustrated in FIG. 6, the transmission-side system 310 corrects the captured plurality of camera images 310a and the image acquisition unit 311 that acquires the plurality of camera images 310a by capturing the subject 101 with the plurality of cameras 311a. A correction unit 312 that generates an interpolated image from the corrected camera image 310b, generates an interpolated ray space 310c, an encoding unit 314 that encodes information in the ray space 310c, A transmission unit 315 that transmits the converted light beam space information via the transmission unit 320. In addition, the reception-side system 330 uses the reception unit 331 that receives the information of the light space 310c transmitted from the transmission-side system 310, the decoding unit 332 that decodes the received information, and the decoded information. An image generation unit 332 that generates the light space 310c, an extraction unit 333 that extracts a display image from the light space 310c, and a display unit 334 that displays the extracted display image 310d.

しかし、図6に示される画像情報処理システムの送信側システム310で光線空間を作成する場合には、受信側に存在する多数のユーザのすべての要望に対応できるようにするため、離散的にしか存在しない複数のカメラ画像の間を埋め尽くすように、極めて多くの補間画像を形成する必要がある。このため、送信側システム310における情報処理量が膨大になり、送信者、例えば、放送事業者、に多大なコストを強いるという問題がある。   However, when the light space is created by the transmission side system 310 of the image information processing system shown in FIG. 6, in order to be able to respond to all the requests of a large number of users existing on the reception side, it is only discrete. It is necessary to form an extremely large number of interpolated images so as to fill in a space between a plurality of non-existing camera images. For this reason, there is a problem that the amount of information processing in the transmission-side system 310 becomes enormous, and a sender, for example, a broadcaster, is forced to cost a lot.

そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、複数のカメラ画像に基づく任意視点の画像を生成する画像情報処理において、送信側システムにおける情報処理量を抑制でき、かつ、受信側システムとして計算能力の低い機器を使用でき、かつ、システム全体の情報処理量を低減することができる画像情報処理方法及び画像情報処理システムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to perform information processing in a transmission-side system in image information processing that generates an image of an arbitrary viewpoint based on a plurality of camera images. An object of the present invention is to provide an image information processing method and an image information processing system capable of reducing the amount of information, using a device with low calculation capability as a receiving system, and reducing the information processing amount of the entire system.

本発明の画像情報処理方法は、送信側システムと受信側システムとを有する画像情報処理システムにおける方法であって、前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得するステップと、前記送信側システムが、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成するステップと、前記送信側システムが、前記カメラ画像及び前記奥行きマップを符号化するステップと、前記送信側システムが、符号化された前記カメラ画像及び前記奥行きマップを送信するステップと、前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信するステップと、前記受信側システムが、受信された前記カメラ画像及び前記奥行きマップを復号化するステップと、前記受信側システムが、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成するステップと、前記受信側システムが、前記光線空間情報から表示画像を抽出して出力するステップとを有することを特徴としている。   An image information processing method of the present invention is a method in an image information processing system having a transmission side system and a reception side system, and the transmission side system captures a plurality of camera images by photographing a subject with a plurality of cameras. The step of obtaining, and the transmission side system includes depth information of the subject including the direction and distance of the portion of the subject corresponding to the plurality of photographed camera images and emitting light incident on the camera Generating a depth map; the transmitting system encoding the camera image and the depth map; and the transmitting system transmitting the encoded camera image and the depth map. The camera image and the depth map transmitted from the transmission side system by the reception side system Receiving, the receiving system decoding the received camera image and the depth map, and the receiving system using the decoded camera image and the depth map, A step of calculating an interpolated image between camera images and generating light space information comprising the camera image and the interpolated image; and the receiving system extracting and outputting a display image from the light space information. And a step.

また、本発明の画像情報処理システムは、送信側システムと受信側システムとを有する画像情報処理システムであって、前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得する複数のカメラと、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成する奥行きサーチ部と、前記カメラ画像及び前記奥行きマップを符号化する符号化部と、符号化された前記カメラ画像及び前記奥行きマップを送信する送信部とを有し、前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信する受信部と、受信された前記カメラ画像及び前記奥行きマップを復号化する復号化部と、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成する補間部と、前記光線空間情報から表示画像を抽出して出力する抽出部とを有することを特徴としている。   The image information processing system of the present invention is an image information processing system having a transmission side system and a reception side system, and the transmission side system captures a plurality of camera images by photographing a subject with a plurality of cameras. Generates a depth map consisting of a plurality of cameras to be acquired and depth information of the subject including the direction and distance of the portion of the subject that emits light incident on the camera, corresponding to the captured camera images A depth search unit, an encoding unit that encodes the camera image and the depth map, and a transmission unit that transmits the encoded camera image and the depth map. A receiving unit that receives the camera image and the depth map transmitted from the transmission-side system; the received camera image and the depth map; A decoding unit that decodes a map, and using the decoded camera image and the depth map, an interpolation image between the camera images is calculated, and a light beam composed of the camera image and the interpolation image An interpolation unit that generates spatial information and an extraction unit that extracts and outputs a display image from the light space information are characterized.

本発明の画像情報処理方法及び画像情報処理システムにおいては、複数のカメラ画像から各カメラに対応する奥行きマップを計算する処理を送信側システムで行い、複数のカメラ画像と複数の奥行きマップを用いて、光線空間に画像を補間する処理を受信側システムで行っている。このように、情報処理量の大きい奥行きマップの生成処理を送信側システムが行うことによって、受信側システムに要求される計算能力を低くすることができ、受信者のコスト負担を低減することができる。   In the image information processing method and the image information processing system according to the present invention, processing for calculating a depth map corresponding to each camera from a plurality of camera images is performed in the transmission side system, and the plurality of camera images and the plurality of depth maps are used. The receiving side system performs the process of interpolating the image in the light space. As described above, when the transmission-side system performs the depth map generation processing with a large amount of information processing, the calculation capability required for the reception-side system can be reduced, and the cost burden on the receiver can be reduced. .

また、複数のカメラ画像と複数の奥行きマップを用いて光線空間を補間する処理は、送信側システムで行う場合には、複数のカメラ画像の間の全領域について行う必要があるが、受信側システムで行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。したがって、本発明の画像情報処理方法及び画像情報処理システムによれば、補間処理を行う受信側システムに要求される計算能力は低く、受信者のコスト負担を大きく増加させることはない。   In addition, when the process of interpolating the light space using a plurality of camera images and a plurality of depth maps is performed in the transmission side system, it is necessary to perform the entire region between the plurality of camera images. In this case, it is sufficient to perform only the portion related to the area designated by the user. Therefore, according to the image information processing method and the image information processing system of the present invention, the calculation capability required for the receiving system that performs the interpolation processing is low, and the cost burden on the receiver is not greatly increased.

さらに、複数のカメラ画像と奥行きマップを用いて光線空間を補間する処理は、送信側システムで行う場合には、複数のカメラ画像の間の全領域について行う必要があるが、受信側システムで行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。このため、補間処理を受信側システムで行う本発明の画像情報処理方法及び画像情報処理システムによれば、画像生成処理のすべてを送信側システムで行う場合に比べ、システム全体の情報処理量を削減することができ、結果的に、計算コストを削減することができる。   Furthermore, when the process of interpolating the light space using the plurality of camera images and the depth map is performed on the transmission side system, it is necessary to perform the process on the entire area between the plurality of camera images. In this case, it is only necessary to perform a portion related to the area designated by the user. For this reason, according to the image information processing method and the image information processing system of the present invention in which the interpolation processing is performed in the reception side system, the information processing amount of the entire system is reduced as compared with the case where all of the image generation processing is performed in the transmission side system. As a result, the calculation cost can be reduced.

《1.第1の実施形態》
〈1−1.第1の実施形態の画像情報処理システムの構成及び動作〉
図7は、送信側(sender)システム10と受信側(receiver)システム30とから構成される本発明の第1の実施形態の画像情報処理システムの構成及び動作を示す図である。図7の画像情報処理システムは、任意の視点から見た2次元画像を表示するFTVシステムであるが、三次元(3D)画像を表示する3D表示システムとすることもできる。
<< 1. First Embodiment >>
<1-1. Configuration and Operation of Image Information Processing System According to First Embodiment>
FIG. 7 is a diagram showing the configuration and operation of the image information processing system according to the first embodiment of the present invention, which is composed of a sender system 10 and a receiver system 30. The image information processing system of FIG. 7 is an FTV system that displays a two-dimensional image viewed from an arbitrary viewpoint, but may be a 3D display system that displays a three-dimensional (3D) image.

図7に示される画像情報処理システムは、送信側システム10と受信側システム30とを有するシステムである。送信側システム10は伝送(transmission)手段20を介して受信側システム30に情報を送信する。伝送手段20は、例えば、インターネット、放送設備、通信設備などであるが、信号を伝送できる手段であれば何であってもよい。また、伝送手段20は、必要に応じて、情報を保持する記憶手段(storage)を備えたものであってもよい。   The image information processing system shown in FIG. 7 is a system having a transmission side system 10 and a reception side system 30. The transmission side system 10 transmits information to the reception side system 30 through transmission means 20. The transmission means 20 is, for example, the Internet, a broadcasting facility, a communication facility, or the like, but may be any means that can transmit a signal. Further, the transmission means 20 may include storage means (storage) for holding information as necessary.

図7に示されるように、送信側システム10は、被写体101を複数のカメラ11aで撮影することによって複数のカメラ画像10aを取得する画像取得部11と、撮影された複数のカメラ画像10aを補正する補正部12と、補正された複数のカメラ画像10bに対応する複数の奥行きマップ10dを生成する奥行きサーチ部13と、複数のカメラ画像10b及び各カメラ画像に対応する複数の奥行きマップを符号化する符号化部14と、符号化されたカメラ画像10c、奥行きマップ10d、及び複数のカメラ11aに関するカメラパラメータを伝送手段20を介して送信する送信部15とを有している。補正部12は、複数のカメラ11aが、例えば、1列に等間隔で並んでいない場合や同じ方向を向いていない場合に、カメラ画像を補正して、複数のカメラが1列に等間隔で並び且つ同じ方向を向いていると見なせるように、カメラ画像10aを補正する。奥行きマップ10dは、カメラに入射する光線を出す被写体101の各部分の方向と距離を含む被写体101の奥行き情報から構成される。   As shown in FIG. 7, the transmission-side system 10 corrects the captured plurality of camera images 10a and the image acquisition unit 11 that acquires the plurality of camera images 10a by capturing the subject 101 with the plurality of cameras 11a. The correction unit 12, the depth search unit 13 that generates a plurality of depth maps 10d corresponding to the corrected plurality of camera images 10b, and the plurality of camera images 10b and a plurality of depth maps corresponding to the camera images. And a transmission unit 15 that transmits the encoded camera image 10c, the depth map 10d, and camera parameters related to the plurality of cameras 11a via the transmission unit 20. The correction unit 12 corrects the camera image when, for example, the plurality of cameras 11a are not lined up at equal intervals in one row or facing the same direction, and the plurality of cameras are arranged at equal intervals in one row. The camera images 10a are corrected so that they can be regarded as being aligned and facing the same direction. The depth map 10d includes depth information of the subject 101 including the direction and distance of each part of the subject 101 that emits light incident on the camera.

また、図7に示されるように、受信側システム30は、送信側システム10から伝送手段20を介して送信されたカメラ画像10c、奥行きマップ10d、及びカメラパラメータを受信する受信部31と、受信されたカメラ画像10c及び奥行きマップ10dを復号化する復号化部32と、復号化されたカメラ画像10e、奥行きマップ10f、及びカメラパラメータを用いて、カメラ画像の間の補間画像を計算して、カメラ画像からなる光線空間に補間画像を補間する補間部33と、補間後の光線空間10gから表示画像を切り出す抽出部34と、切り出された表示画像10hを1台又は複数台のディスプレイに表示する表示部35と有している。   As shown in FIG. 7, the receiving system 30 includes a receiving unit 31 that receives the camera image 10c, the depth map 10d, and the camera parameters transmitted from the transmitting system 10 via the transmission unit 20, and a reception unit 31. The interpolated image between the camera images is calculated using the decoding unit 32 that decodes the camera image 10c and the depth map 10d, the decoded camera image 10e, the depth map 10f, and the camera parameters, An interpolation unit 33 that interpolates an interpolated image in a light space composed of camera images, an extraction unit 34 that extracts a display image from the interpolated light space 10g, and the cut display image 10h are displayed on one or a plurality of displays. It has the display part 35.

<本発明の画像情報処理システムの動作(本発明の画像情報処理方法)>
本発明の第1の実施形態においては、図7に示されるように、送信側システム10は、被写体101を複数のカメラ11aで撮影することによって複数のカメラ画像10aを取得し、撮影された複数のカメラ画像10aを必要に応じて補正し、複数のカメラ画像10bに対応する複数の奥行きマップを生成し、複数のカメラ画像10b及び複数の奥行きマップを符号化し、カメラ画像10c、奥行きマップ10d、及びカメラパラメータを伝送手段20を介して送信する。
<Operation of Image Information Processing System of the Present Invention (Image Information Processing Method of the Present Invention)>
In the first embodiment of the present invention, as shown in FIG. 7, the transmission-side system 10 obtains a plurality of camera images 10a by photographing the subject 101 with a plurality of cameras 11a, and takes a plurality of photographed images. The camera image 10a is corrected as necessary, a plurality of depth maps corresponding to the plurality of camera images 10b are generated, the plurality of camera images 10b and the plurality of depth maps are encoded, and the camera image 10c, the depth map 10d, The camera parameters are transmitted via the transmission means 20.

また、図7に示されるように、受信側システム30は、送信側システム10から伝送手段20を介して送信されたカメラ画像10c、奥行きマップ10d、及びカメラパラメータを受信し、受信されたカメラ画像10c及び奥行きマップ10dを復号化し、復号化されたカメラ画像10e、奥行きマップ10f、及びカメラパラメータを用いて、カメラ画像の間の補間画像を計算して、カメラ画像からなる光線空間に補間画像を補間し、補間後の光線空間10gから表示画像を切り出し、切り出された表示画像10hを表示する。   Also, as shown in FIG. 7, the receiving system 30 receives the camera image 10c, the depth map 10d, and the camera parameters transmitted from the transmitting system 10 via the transmission unit 20, and receives the received camera image. 10c and the depth map 10d are decoded, and the interpolated image between the camera images is calculated using the decoded camera image 10e, the depth map 10f, and the camera parameters, and the interpolated image is formed in the light space composed of the camera images. Interpolate, cut out the display image from the interpolated ray space 10g, and display the cut out display image 10h.

図8は、本発明の第1の実施形態の画像情報処理システム(図7)及び従来の画像情報処理システム(図4、図6)における送信側システムから送信される情報を示す図である。図4に示される従来の画像情報処理システム(比較例)の場合には、送信側システム210から送信される画像はカメラパラメータと複数のカメラ画像210cである。図6に示される従来の画像情報処理システム(比較例)の場合には、送信側システム310から送信される画像は光線空間情報310cである。これに対し、図7に示される本発明の画像情報処理システムにおいては、送信側システム10から送信される画像はカメラパラメータと複数のカメラ画像10cと各カメラの奥行きマップ10dである。   FIG. 8 is a diagram showing information transmitted from the transmission-side system in the image information processing system (FIG. 7) and the conventional image information processing system (FIGS. 4 and 6) according to the first embodiment of the present invention. In the case of the conventional image information processing system (comparative example) shown in FIG. 4, images transmitted from the transmission-side system 210 are camera parameters and a plurality of camera images 210c. In the case of the conventional image information processing system shown in FIG. 6 (comparative example), the image transmitted from the transmission side system 310 is the light space information 310c. On the other hand, in the image information processing system of the present invention shown in FIG. 7, images transmitted from the transmission side system 10 are camera parameters, a plurality of camera images 10c, and a depth map 10d of each camera.

図9は、本発明の第1の実施形態の画像情報処理システム(図7)における複数のカメラ画像と複数の奥行きマップを示す図である。図9において、Nは正の整数であり、kはN以下の正の整数である。図9において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図9に示されるカメラ画像I、I、…、Ik−1、I、Ik+1、…、Iのそれぞれは1枚の画像で(例えば、長方形)あるが、図9においては、カメラ画像を図9が描かれた紙面に垂直に並べている場合を示している。また、図9に示される奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図9においては、奥行きマップを図9が描かれた紙面に垂直に並べている場合を示している。 FIG. 9 is a diagram showing a plurality of camera images and a plurality of depth maps in the image information processing system (FIG. 7) according to the first embodiment of the present invention. In FIG. 9, N is a positive integer, and k is a positive integer equal to or less than N. 9, 1, 2,..., K-1, k, k + 1,..., N are camera numbers of a plurality of cameras of the image acquisition unit (reference numeral 11 in FIG. 7). Further, I 1, I 2, ... , I k-1, I k, I k + 1, ..., I N represents a plurality of camera images, D 1, D 2, ... , D k-1, D k, D k + 1, ..., D N denotes the depth map corresponding to each camera. Each of the camera images I 1 , I 2 ,..., I k−1 , I k , I k + 1 ,..., I N shown in FIG. 9 is a single image (for example, a rectangle). 9 shows a case where camera images are arranged vertically on the paper surface on which FIG. 9 is drawn. Further, the depth map D 1, D 2 shown in FIG. 9, ..., D k-1 , D k, D k + 1, ..., each of D N, like the camera images one image (e.g., rectangular) FIG. 9 shows a case where the depth map is arranged vertically on the paper on which FIG. 9 is drawn.

図10は、1枚の奥行きマップを明るさの違いで表示した例を示す図である。図10において、明るい部分(白い部分)は近い部分であり、暗く(黒く)なるほど遠い部分を示す。送信側システム10から送信されるカメラ画像I、I、…、Ik−1、I、Ik+1、…、IがN枚である場合には、送信側システム10から送信される奥行きマップD、D、…、Dk−1、D、Dk+1、…、DもN枚となる。 FIG. 10 is a diagram illustrating an example in which one depth map is displayed with a difference in brightness. In FIG. 10, a bright part (white part) is a close part, and a dark part (black) shows a far part. When the camera images I 1 , I 2 ,..., I k−1 , I k , I k + 1 ,..., N transmitted from the transmission side system 10 are N, the transmission side system 10 transmits them. depth map D 1, D 2, ..., D k-1, D k, D k + 1, ..., D N also becomes N sheets.

図11は、図4に示される従来の画像情報処理システム(比較例)の送信側システム210及び受信側システム230における情報処理プロセスを示す図である。図11において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図4の符号211)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図11に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図11においては、奥行きマップを図11が描かれた紙面に垂直に並べている場合を示している。図11に示されるように、図4に示される画像情報処理システム(比較例)においては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成を、受信側システム230が行っている。 FIG. 11 is a diagram showing an information processing process in the transmission side system 210 and the reception side system 230 of the conventional image information processing system (comparative example) shown in FIG. 11, 1, 2,..., K-1, k, k + 1,..., N are camera numbers of a plurality of cameras of the image acquisition unit (reference numeral 211 in FIG. 4). Further, I 1, I 2, ... , I k-1, I k, I k + 1, ..., I N represents a plurality of camera images, D 1, D 2, ... , D k-1, D k, D k + 1, ..., D N denotes the depth map corresponding to each camera. Each of the camera image and the depth map shown in FIG. 11 can be represented as one image (for example, a rectangle) like the camera image, but in FIG. 11, the depth map is a paper surface on which FIG. 11 is drawn. Shows the case of being arranged vertically. As shown in FIG. 11, in the image information processing system (comparative example) shown in FIG. 4, depth search and depth maps D 1 , D 2 ,..., D k−1 , D k , D k + 1 ,. , DN is generated by the receiving system 230.

図12は、図6に示される従来の画像情報処理システム(比較例)の送信側システム310及び受信側システム330における情報処理プロセスを示す図である。図12において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図6の符号311)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図12に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像として表すことができるが、図12においては、奥行きマップを図12が描かれた紙面に垂直に並べている場合を示している。図12に示されるように、図6に示される画像情報処理システム(比較例)においては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成、光線空間の生成を送信側システム310が行っている。 FIG. 12 is a diagram showing an information processing process in the transmission side system 310 and the reception side system 330 of the conventional image information processing system (comparative example) shown in FIG. 12, 1, 2,..., K-1, k, k + 1,..., N are camera numbers of a plurality of cameras of the image acquisition unit (reference numeral 311 in FIG. 6). Further, I 1, I 2, ... , I k-1, I k, I k + 1, ..., I N represents a plurality of camera images, D 1, D 2, ... , D k-1, D k, D k + 1, ..., D N denotes the depth map corresponding to each camera. Each of the camera image and the depth map shown in FIG. 12 can be represented as one image similarly to the camera image, but in FIG. 12, the depth map is arranged vertically on the paper on which FIG. 12 is drawn. Shows the case. As shown in FIG. 12, in the image information processing system (comparative example) shown in FIG. 6, depth search and depth maps D 1 , D 2 ,..., D k−1 , D k , D k + 1 ,. , DN , and ray space are generated by the transmission side system 310.

図13は、本発明の第1の実施形態の画像情報処理システムの送信側システム10及び受信側システム30における情報処理プロセスを示す図である。図13において、1、2、…、k−1、k、k+1、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Ik−1、I、Ik+1、…、Iは、複数のカメラ画像を示し、D、D、…、Dk−1、D、Dk+1、…、Dは、各カメラに対応する奥行きマップを示す。図13に示されるカメラ画像及び奥行きマップのそれぞれは、カメラ画像と同様に1枚の画像(例えば、長方形)として表すことができるが、図13においては、奥行きマップを図13が描かれた紙面に垂直に並べている場合を示している。図13に示されるように、本発明の第1の実施形態の画像情報処理システムにおいては、奥行きサーチ、及び奥行きマップD、D、…、Dk−1、D、Dk+1、…、Dの生成を送信側システム10が行い、補間画像の生成及び補間された光線空間からの表示画像の切り出しを受信側システム30が行っている。 FIG. 13 is a diagram illustrating an information processing process in the transmission-side system 10 and the reception-side system 30 of the image information processing system according to the first embodiment of this invention. 13, 1, 2,..., K-1, k, k + 1,..., N are camera numbers of a plurality of cameras in the image acquisition unit (reference numeral 11 in FIG. 7). Further, I 1, I 2, ... , I k-1, I k, I k + 1, ..., I N represents a plurality of camera images, D 1, D 2, ... , D k-1, D k, D k + 1, ..., D N denotes the depth map corresponding to each camera. Each of the camera image and the depth map shown in FIG. 13 can be represented as a single image (for example, a rectangle) like the camera image, but in FIG. 13, the depth map is a sheet of paper on which FIG. 13 is drawn. Shows the case of being arranged vertically. As shown in FIG. 13, in the image information processing system according to the first embodiment of the present invention, depth search and depth maps D 1 , D 2 ,..., D k−1 , D k , D k + 1 ,. , DN is generated by the transmission side system 10, and the reception side system 30 performs generation of an interpolation image and extraction of a display image from the interpolated ray space.

〈1−2.画像生成処理〉
図14は、実際のカメラで取得されたカメラ画像から任意視点の画像を生成するプロセスを示す図である。図14において、401〜405は、直線上に1列に同じ方向を向けて配列したカメラであり、411は、実際には存在しない仮想カメラ(ユーザーが指定して視点位置)である。カメラ401〜405は、カメラ401〜405を通る光線を撮影するが、隣り合うカメラ間を通る光線は撮影していない。そこで、ユーザが見たいところ、すなわち、隣り合うカメラ間に仮想カメラ411を置く。実際のカメラ(図14においては、カメラ402、403)を通る光線から、補間して仮想カメラ411を通る光線を作る。しかし、カメラ401〜405を通る光線はどの方向から来た光線であるかはわかるが、どの位置から来た光線かは、わからない。そこで、例えば、図14に示されるカメラ402と403を用いて、被写体412の奥行きをサーチする。この奥行きサーチに際しては、物体表面のある点からの光はどの方向にも同じ強度であるということ(ランベルト反射)を前提とすると、カメラ402の撮影点(被写体上の部分)とカメラ403の撮影点(被写体上の部分)の輝度がマッチングする位置を探し、マッチングした位置を物体の表面と推定する。このとき、カメラ402とカメラ403の間隔は既知であり、マッチング位置からの光線がカメラ402に入射する角度とマッチング位置からの光線がカメラ403に入射する角度も判るので、マッチング位置までの距離を計算することができる。このようにして物体の奥行きを推定できた後に、仮想カメラ411から見た画像を推定して補間画像を生成する。
<1-2. Image generation processing>
FIG. 14 is a diagram illustrating a process for generating an image of an arbitrary viewpoint from a camera image acquired by an actual camera. In FIG. 14, reference numerals 401 to 405 denote cameras arranged in the same direction in a line on a straight line, and reference numeral 411 denotes a virtual camera (viewpoint position specified by the user) that does not actually exist. The cameras 401 to 405 photograph the light rays passing through the cameras 401 to 405, but do not photograph the light rays passing between adjacent cameras. Therefore, the virtual camera 411 is placed where the user wants to see, that is, between adjacent cameras. From the light rays passing through the actual camera (cameras 402 and 403 in FIG. 14), the light rays passing through the virtual camera 411 are interpolated. However, although it can be seen from which direction the light rays that pass through the cameras 401 to 405 come from, it is not known from which position. Therefore, for example, the depth of the subject 412 is searched using the cameras 402 and 403 shown in FIG. In this depth search, assuming that light from a certain point on the object surface has the same intensity in all directions (Lambert reflection), the shooting point (portion on the subject) of the camera 402 and the shooting of the camera 403 A position where the luminance of the point (portion on the subject) matches is searched, and the matched position is estimated as the surface of the object. At this time, the distance between the camera 402 and the camera 403 is known, and the angle at which the light beam from the matching position enters the camera 402 and the angle at which the light beam from the matching position enters the camera 403 are also known. Can be calculated. After the depth of the object can be estimated in this way, an image viewed from the virtual camera 411 is estimated to generate an interpolation image.

図15は、奥行きと視差との関係を示す図である。光線空間における補間画像は、生成すべきカメラ位置でのシーンの奥行きを求めることができれば、生成可能となる。ここで、奥行きと視差との幾何学的な関係を説明する。簡単のために高さ方向を考慮しない2次元平面で考える。左右のカメラをカメラ(camera)Lとカメラ(camera)Rとする。光線源Mの奥行きをDと仮定する。このとき、この光線源Mが放つ光線は、左右のカメラLとカメラRのそれぞれの点V及び点Vに入射する。同一の光線源Mが放つ光線を、異なるカメラがとらえた点(この場合は、V,V)を対応点と呼ぶ。また、カメラLとカメラR間の対応点V,Vの差を視差と呼び、dと記述する。 FIG. 15 is a diagram illustrating the relationship between depth and parallax. An interpolated image in the light space can be generated if the depth of the scene at the camera position to be generated can be obtained. Here, the geometric relationship between depth and parallax will be described. For simplicity, consider a two-dimensional plane that does not consider the height direction. Let the left and right cameras be a camera L and a camera R. Assume that the depth of the light source M is D. In this case, light emitted by the light source M is incident on each point V L and point V R of the left and right cameras L and camera R. A point (in this case, V L , V R ) where a different camera captures a light beam emitted from the same light source M is called a corresponding point. Further, called corresponding points V L between the cameras L and camera R, the difference between V R and a parallax is described as d.

奥行きDと視差dの関係を求める。図15において、カメラの焦点距離をf、左右のカメラ間距離をJ、光線源をMとし、光線源MからカメラLまでのX座標の距離をmとしたとき、幾何関係から、図15中のd及びdは以下のように求めことができる。
=f・(J−m)/D
=f・m/D
視差dは、d+dで与えられるため、
d=d+d=f・(J−m)/D+f・m/D=f・J/D
となる。カメラLから光線源Mまでの距離D
=D/cosθ
カメラLから見たときの、視差dと距離Dの関係は、
d=(f・J・cosθ)/D
となる。つまり、視差dは、カメラ間隔Jに比例し、カメラLから見たときの光線源Mの奥行きDに反比例したものとなる。本発明の奥行き推定法は、補間するカメラ位置での奥行き推定となる。したがって、情報の無い状態から、周辺画像情報のみを利用して奥行き推定を行い、補間画像を生成することになる。この奥行き推定法によれば、作り出す視点での奥行きを求めることで、より正確に補間画像を生成できる。このような奥行きDと視差dの関係から、左右の画像間で視差dを変化させることは、光線源の奥行きDを変化させたことと等価であるとわかる。つまり、視差dを様々に変化させることで、画像間での対応点を探し出し、求められた視差情報を基に、光線源が推定され、補間すべき画素値が特定される。
The relationship between the depth D and the parallax d is obtained. In FIG. 15, the focal length of the camera is f, the distance between the left and right cameras is J, the light source is M, and the distance of the X coordinate from the light source M to the camera L is m. d 1 and d 2 of the can obtained as follows.
d 1 = f · (J−m) / D
d 2 = f · m / D
Since the parallax d is given by d 1 + d 2 ,
d = d 1 + d 2 = f · (J−m) / D + f · m / D = f · J / D
It becomes. Distance D L from the camera L to light source M is D L = D / cos [theta]
The relationship between the parallax d and the distance D L when viewed from the camera L is
d = (f · J · cos θ) / D L
It becomes. That is, the parallax d is proportional to the camera interval J, it becomes inversely proportional to the depth D L of light source M as viewed from the camera L. The depth estimation method of the present invention is depth estimation at the camera position to be interpolated. Therefore, depth estimation is performed using only peripheral image information from a state where there is no information, and an interpolation image is generated. According to this depth estimation method, an interpolation image can be generated more accurately by obtaining the depth at the viewpoint to be created. The relationship of such depth D L and the parallax d, altering the parallax d is between the left and right images, found to be equivalent to changing the depth D L of the ray source. That is, by changing the parallax d in various ways, a corresponding point between images is found, the light source is estimated based on the obtained parallax information, and the pixel value to be interpolated is specified.

〈1−3.オクルージョンを考慮した奥行きマップ生成方法〉
図16は、オクルージョン(occulusion)が存在するときの奥行きサーチの方法を示す図である。図16において、物体421の表面の点421aは、カメラ位置k及びカメラ位置k+1の両方が見える位置である。したがって、仮想カメラ位置である視点431から点421aを見たときの奥行き推定は、視点kからの画像情報と視点k+1からの画像情報とを用いて行うことができる。しかし、後方にある物体422の表面の点422aは、カメラ位置k+1からは見えるが、物体421の陰になってカメラ位置kからは見えない。このように一方のカメラ視点から見えるが他方のカメラ視点から見えないことをハーフオクルージョン(half occulusion)と言う。また、両方のカメラ位置から見えないことをフルオクルージョン(full occulusion)と言う。
<1-3. Depth map generation method considering occlusion>
FIG. 16 is a diagram illustrating a depth search method when occlusion exists. In FIG. 16, a point 421a on the surface of the object 421 is a position where both the camera position k and the camera position k + 1 can be seen. Therefore, depth estimation when viewing the point 421a from the viewpoint 431, which is the virtual camera position, can be performed using image information from the viewpoint k and image information from the viewpoint k + 1. However, the point 422a on the surface of the object 422 in the rear is visible from the camera position k + 1, but cannot be seen from the camera position k behind the object 421. The fact that it can be seen from one camera viewpoint but cannot be seen from the other camera viewpoint is called half occlusion. Also, the fact that it cannot be seen from both camera positions is called full occlusion.

図17は、物体422についてカメラ位置k及びカメラ位置k+1から見たときの、ハーフオクルージョンの範囲とフルオクルージョンの範囲を示す図である。図17に示されるように、物体422の範囲440は、いずれのカメラ位置k及びカメラ位置k+1からも見える範囲であり、物体422の範囲441及び443は、カメラ視点k+1からは見えるがカメラ視点kからは見えないハーフオクルージョンの範囲であり、物体422の範囲442は、カメラ視点k及びカメラ位置k+1のいずれからも見えないフルオクルージョンの範囲である。   FIG. 17 is a diagram illustrating a half occlusion range and a full occlusion range when the object 422 is viewed from the camera position k and the camera position k + 1. As shown in FIG. 17, the range 440 of the object 422 is a range that can be seen from any camera position k and camera position k + 1, and the ranges 441 and 443 of the object 422 are seen from the camera viewpoint k + 1, but the camera viewpoint k. The range 442 of the object 422 is a range of full occlusion that cannot be seen from either the camera viewpoint k or the camera position k + 1.

図18は、本発明の第1の実施形態における奥行きマップの計算方法を示す図である。図18において、最上段の1、2、…、Nは、画像取得部(図7の符号11)の複数のカメラのカメラ番号である。また、I、I、…、Iは、複数のカメラ画像を示し、中段付近の1、2、…、N−1はカメラ画像の対(pair)を示している。カメラ画像の1つの対に含まれる2本の線のうち太線は、カメラの対の内の左側のカメラに基づく奥行きマップを示し、細線は右側のカメラに基づく奥行きマップを示す。 FIG. 18 is a diagram illustrating a depth map calculation method according to the first embodiment of the present invention. In FIG. 18, 1, 2,..., N at the top are camera numbers of a plurality of cameras in the image acquisition unit (reference numeral 11 in FIG. 7). In addition, I 1 , I 2 ,..., I N indicate a plurality of camera images, and 1, 2,..., N-1 near the middle stage indicate camera image pairs. Of the two lines included in one pair of camera images, a thick line indicates a depth map based on the left camera in the camera pair, and a thin line indicates a depth map based on the right camera.

図19は、本発明における視差の計算方法を示す図である。図19において、IとIk+1は、カメラ画像の対(pair)を示し、Iはカメラの対の内の左側のカメラのカメラ画像を示し、Ik+1は右側のカメラのカメラ画像を示す。また、図19において、500は、カメラ画像Iとカメラ画像Ik+1の視差を示す図である。 FIG. 19 is a diagram illustrating a parallax calculation method according to the present invention. In Figure 19, I k and I k + 1 denotes a pair of camera images (pair), I k represents the left side of the camera the camera images of the pair of cameras, I k + 1 denotes a camera image of the right camera . Further, in FIG. 19, 500 is a diagram showing a parallax of camera image I k and the camera image I k + 1.

図19に示されるように、先ず、左側のカメラで撮影した画像Iの中の部分501と同じと見なすことができる(又は類似する)輝度及び形状の部分を、右側のカメラで撮影したカメラ画像Ik+1の中から検出する。この処理によって検出されたカメラ画像Ik+1の部分を501k+1とし、視差図500内に示されるように、そのときの視差をRとする。ここで、同じと見なすことができる(又は類似する)とは、輝度値の差分値が所定範囲内であるという意味である。 As shown in FIG. 19, first, a portion of brightness and shape that can be considered to be the same as (or similar to) the portion 501 k in the image I k taken with the left camera was taken with the right camera. Detection is performed from the camera image I k + 1 . The part of the camera image I k + 1 detected by this processing is 501 k + 1 , and the parallax at that time is R k as shown in the parallax diagram 500. Here, being able to be regarded as being the same (or similar) means that the difference value of the luminance values is within a predetermined range.

次に、右側のカメラで撮影した画像Iの中の検出された部分501k+1と同じと見なすことができる(又は類似する)輝度及び形状の部分を、左側のカメラで撮影したカメラ画像Iの中から検出する。この処理によって検出されたカメラ画像Iの部分は501となっており、視差図500内に示されるように、そのときの視差をLとする。 Next, can be regarded as the same as the detected partial 501 k + 1 in the image I k taken by the right camera (or similar) the portion of the luminance and shape, camera image I k taken by the left camera Detect from inside. The portion of the camera image I k detected by this processing is 501 k, and the parallax at that time is L k as shown in the parallax diagram 500.

したがって、左側のカメラで撮影した画像Iの中の部分501を基準としたときの右側のカメラで撮影した画像Ik+1の中の検出部分(対応部分)は、部分501k+1であり、且つ、右側のカメラで撮影した画像Ik+1の中の部分501k+1を基準としたときの左側のカメラで撮影した画像Iの中の検出部分(対応部分)は、部分501である。したがって、部分501と部分501k+1についてはL=Rである。この場合、奥行きは、2つのカメラ画像に基づいて、計算することができ、この場合は奥行きの信頼度(reliability)が高いと言うことができる。 Therefore, the detection portion in the image I k + 1 taken by the right camera when based on the portion 501 k in the image I k taken by the left camera (corresponding portion) is a portion 501 k + 1, and The detected portion (corresponding portion) in the image I k photographed by the left camera when the portion 501 k + 1 in the image I k + 1 photographed by the right camera is used as a reference is a portion 501 k . Therefore, L k = R k for the part 501 k and the part 501 k + 1 . In this case, the depth can be calculated based on the two camera images. In this case, it can be said that the reliability of the depth is high.

次に、別の例を説明する。図19に示されるように、左側のカメラで撮影した画像Iの中の部分502と同じと見なすことができる(又は類似する)輝度及び形状の部分を、右側のカメラで撮影したカメラ画像Ik+1の中から検出する。この処理によって検出されたカメラ画像Ik+1の部分を502k+1とし、視差図500内に示されるように、そのときの視差をRとする。 Next, another example will be described. As shown in FIG. 19, a camera image obtained by photographing a portion of brightness and shape that can be considered to be the same as (or similar to) a portion 502 k in an image I k photographed by the left camera with the right camera. to detect from the I k + 1. The part of the camera image I k + 1 detected by this processing is set to 502 k + 1 , and the parallax at that time is set to R k as shown in the parallax diagram 500.

次に、右側のカメラで撮影した画像Ik+1の中の部分502k+1と同じと見なすことができる(又は類似する)輝度及び形状の部分を、左側のカメラで撮影したカメラ画像Iの中から検出する。この処理によって検出されたカメラ画像Iの部分は503となり、部分502とは異なる位置になっている。視差図500内に示されるように、そのときの視差をLとする。 Next, luminance and shape portions that can be considered to be the same as (or similar to) the portion 502 k + 1 in the image I k + 1 photographed by the right camera are extracted from the camera image I k photographed by the left camera. To detect. The portion of the camera image I k detected by this processing is 503 k , which is a position different from the portion 502 k . As shown in disparity map 500, the parallax at that time and L k.

したがって、左側のカメラで撮影した画像Iの中の部分502を基準としたときの右側のカメラで撮影した画像Ik+1の中の検出部分は、部分502k+1であり、且つ、右側のカメラで撮影した画像Ik+1の中の部分502k+1を基準としたときの左側のカメラで撮影した画像Iの中の検出部分は、部分503である。したがって、部分501k+1についてはL≠Rである。このような状況は、オクルージョンが存在する箇所に生じることが多く、奥行きは、1台又は0台のカメラ画像に基づく結果であり、信頼度(reliability)が低いと言うことができる。 Therefore, the detection portion in the image I k + 1 taken by the right camera when based on the portion 502 k in the image I k taken by the left camera is a portion 502 k + 1, and the right side of the camera The detected portion in the image I k photographed by the left camera when the portion 502 k + 1 in the image I k + 1 photographed in step 1 is used as a reference is a portion 503 k . Therefore, L k ≠ R k for the portion 501 k + 1 . Such a situation often occurs where an occlusion exists, and the depth is a result based on one or zero camera images, and it can be said that the reliability is low.

図20は、視点kにおける奥行きDの決定方法を示す図である。図20に示されるように、まず、隣接するカメラからのカメラ画像Ik―1、Iの対について、図19に示される視差の計算を行い、左側のカメラ画像Ik―1の部分を基準として右側のカメラ画像Iの類似部分を検出したときの視差Lk−1と右側のカメラ画像Iの部分を基準として左側のカメラ画像Ik―1の類似部分を検出したときの視差Rk−1から、奥行きDk−とその信頼性を計算する。 Figure 20 is a diagram illustrating a method for determining the depth D k at the viewpoint k. As shown in FIG. 20, first, the parallax calculation shown in FIG. 19 is performed for a pair of camera images I k-1 and I k from adjacent cameras, and the left camera image I k-1 part is calculated. Parallax L k-1 when a similar part of the right camera image I k is detected as a reference and parallax when a similar part of the left camera image I k-1 is detected using the right camera image I k as a reference From R k−1 , the depth D k− and its reliability are calculated.

次に、隣接するカメラからのカメラ画像I、Ik+1の対について、図19に示される視差の計算を行い、左側のカメラ画像Iの部分を基準として右側のカメラ画像Ik+1の類似部分を検出したときの視差Lと右側のカメラ画像Ik+1の部分を基準として左側のカメラ画像Iの類似部分を検出したときの視差Rから、奥行きDk+とその信頼性を計算する。 Next, the camera image I k from the adjacent cameras, the pair of I k + 1, perform calculations of parallax shown in FIG. 19, like parts of the right camera image I k + 1 based on the portion of the left side of the camera image I k The depth D k + and its reliability are calculated from the parallax R k when a similar part of the left camera image I k is detected with reference to the parallax L k when the camera detects I and the part of the right camera image I k + 1 .

次に、Lk−1=Rk−1又はL=Rであれば、信頼性は高く、それ以外では信頼性は低い。したがって、得られた信頼性を考慮にいれて、奥行きDk+とDk−から奥行きDを計算する。 Next, if L k−1 = R k−1 or L k = R k , the reliability is high, otherwise the reliability is low. Therefore, the depth D k is calculated from the depths D k + and D k− in consideration of the obtained reliability.

例えば、Lk−1=Rk−1且つL≠Rであれば、ハーフオクルージョンがあると判定し、奥行きDk−を奥行きDとする。また、例えば、Lk−1≠Rk−1且つL=Rであれば、ハーフオクルージョンがあると判定し、奥行きDk+を奥行きDとする。また、例えば、Lk−1=Rk−1且つL=Rであれば、オクルージョンは無いと判定し、奥行きDk−と奥行きDk+の平均値を奥行きDとする。また、例えば、Lk−1≠Rk−1且つL≠Rであれば、フルオクルージョンがあると判定し、奥行きDとして、別な方法で得た値(例えば、隣接部分の奥行きに基づく値)、又は、予め決められ値などを用いる。なお、Dk+の決定方法は、上記例に限定されない。 For example, if L k−1 = R k−1 and L k ≠ R k , it is determined that there is half occlusion, and the depth D k− is set as the depth D k . For example, if L k−1 ≠ R k−1 and L k = R k , it is determined that there is half occlusion, and the depth D k + is set as the depth D k . For example, if L k−1 = R k−1 and L k = R k , it is determined that there is no occlusion, and the average value of the depth D k− and the depth D k + is set as the depth D k . For example, if L k−1 ≠ R k−1 and L k ≠ R k , it is determined that there is full occlusion, and the value obtained by another method (for example, the depth of the adjacent portion) is determined as the depth D k. Or a predetermined value is used. Note that the method of determining D k + is not limited to the above example.

また、Lk−1≠Rk−1、又は、L≠Rが生じる範囲は、オクルージョンが存在する範囲であり、例えば、図21にハッチングで示す領域である。図21において、クロスハッチングの領域は、右側のカメラからは見えるが左側のカメラからは見えないハーフオクルージョンの範囲であり、ハッチングの領域は、左側のカメラからは見えるが右側のカメラからは見えないハーフオクルージョンの範囲である。このように、検出された視差Lk−1とRk−1の一致又は不一致、視差LとRの一致又は不一致に基づいて、すなわち、奥行きの一致又は不一致に基づいて、オクルージョンの有無を判定し、光線が届く側のカメラ画像の対に基づく片側補間を行っているので、ハーフオクルージョンの存在による、奥行きDの誤差を小さくすることができ、結果的に、生成された画像の品質を向上させることができる。 Further, the range where L k−1 ≠ R k−1 or L k ≠ R k is a range where occlusion exists, for example, a region indicated by hatching in FIG. In FIG. 21, the cross-hatched area is a half-occlusion area that is visible from the right camera but not from the left camera, and the hatched area is visible from the left camera but not from the right camera. It is a range of half occlusion. Thus, the presence or absence of occlusion based on the coincidence or mismatch between the detected parallaxes L k-1 and R k-1 and the coincidence or mismatch between the parallaxes L k and R k , that is, based on the coincidence or mismatch between the depths. Since the one-side interpolation based on the pair of camera images on the side where the light rays reach is performed, the error of the depth D k due to the presence of half occlusion can be reduced, and as a result, the generated image Quality can be improved.

〈1−4.第1の実施形態の効果〉
以上に説明したように、第1の実施形態の画像情報処理方法及び画像情報処理システムにおいては、複数のカメラ画像I、I、…、Iから各カメラに対応する奥行きマップD、D、…、Dを計算する処理を送信側システム10で行い、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて、光線空間に画像を補間する処理を受信側システム30で行っている。このように、情報処理量の大きい奥行きマップD、D、…、Dの生成という処理を送信側システム10が行うことによって、ユーザ側である受信側システム30に要求される計算能力は高くなくてもよく、ユーザのコスト負担を低減することができる。
<1-4. Effect of First Embodiment>
As described above, in the image processing method and an image information processing system of the first embodiment, a plurality of camera images I 1, I 2, ..., the depth map D 1 for each camera from the I N, D 2, ..., performed at the sending system 10 the process of calculating the D N, a plurality of camera images I 1, I 2, ..., I N and a plurality of depth map D 1, D 2, ..., with D N Thus, the receiving side system 30 performs processing for interpolating an image in the light space. Thus, greater depth map D 1, D 2 of the information processing amount, ..., By is performed sending system 10 a process of production of D N, computing power required for the receiving system 30 is a user side The cost may not be high, and the cost burden on the user can be reduced.

また、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて光線空間を補間する処理は、送信側システム10で行う場合には、複数のカメラ画像I、I、…、Iの間の全領域について行う必要があるが、受信側システム30で行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。したがって、第1の実施形態の画像情報処理方法及び画像情報処理システムによれば、補間処理を行う受信側システム30に要求される計算能力は高くなくてもよく、ユーザのコスト負担を増加させることはない。 Further, a plurality of camera images I 1, I 2, ..., I N and a plurality of depth map D 1, D 2, ..., the processing of interpolating the light space by using a D N is the case of the transmission side system 10 a plurality of camera images I 1, I 2, ..., it is necessary to perform the entire area between the I N, in case of the receiving system 30, the portions related to the user-specified region only line Just do it. Therefore, according to the image information processing method and the image information processing system of the first embodiment, the calculation capability required for the reception-side system 30 that performs the interpolation process may not be high, and the cost burden on the user is increased. There is no.

さらに、複数のカメラ画像I、I、…、Iと複数の奥行きマップD、D、…、Dを用いて光線空間を補間する処理は、送信側システム10で行う場合には、複数のカメラ画像I、I、…、Iの間の全領域について行う必要があるが、受信側システム30で行う場合には、ユーザが指定した領域に関係する部分についてのみ行えばよい。このため、補間処理を受信側システム30で行う第1の実施形態の画像情報処理方法及び画像情報処理システムによれば、画像生成処理のすべてを送信側システム10で行う場合に比べ、システム全体の情報処理量を削減することができ、結果的に、計算コストを削減することができる。 Further, a plurality of camera images I 1, I 2, ..., I N and a plurality of depth map D 1, D 2, ..., the processing of interpolating the light space by using a D N is the case of the transmission side system 10 a plurality of camera images I 1, I 2, ..., it is necessary to perform the entire area between the I N, in case of the receiving system 30, the portions related to the user-specified region only line Just do it. For this reason, according to the image information processing method and the image information processing system of the first embodiment in which the interpolation processing is performed in the reception side system 30, the entire system is compared with the case where all of the image generation processing is performed in the transmission side system 10. The amount of information processing can be reduced, and as a result, the calculation cost can be reduced.

《2.第2の実施形態》
〈2−1.第2の実施形態の画像情報処理システムの構成及び動作〉
図22は、本発明の第2の実施形態の画像情報処理システムであるFTVシステムの構成及び動作を示す図である。図22において、図7(第1の実施形態)の構成と同一又は対応する構成には同じ符号を付す。第2の実施形態の画像情報処理システムにおいては、図7に示される第1の実施形態の画像情報処理システムとは異なり、送信側システム10は、実測による奥行き情報、オクルージョン範囲を示すオクルージョン情報、被写体が鏡面反射する範囲などを示す鏡面反射情報等の追加情報を、カメラ画像10c、奥行きマップ10d、カメラパラメータに追加して、受信側システム30に送信している。
<< 2. Second Embodiment >>
<2-1. Configuration and Operation of Image Information Processing System According to Second Embodiment>
FIG. 22 is a diagram illustrating the configuration and operation of an FTV system that is an image information processing system according to the second embodiment of this invention. In FIG. 22, the same reference numerals are given to the same or corresponding components as those in FIG. 7 (first embodiment). In the image information processing system according to the second embodiment, unlike the image information processing system according to the first embodiment shown in FIG. 7, the transmission-side system 10 includes depth information obtained by actual measurement, occlusion information indicating an occlusion range, Additional information such as specular reflection information indicating a range in which the subject is specularly reflected is added to the camera image 10c, the depth map 10d, and the camera parameters and transmitted to the receiving system 30.

図7に示される第1の実施形態の画像情報処理システムにおいては、受信側システム30において、送信側システム10から送信された複数のカメラ画像、複数の奥行きマップ、及びカメラパラメータを用いて、補間画像を生成している。しかし、例えば、被写体101の表面で鏡面反射が生じる場合、オクルージョンが生じる場合、被写体の表面が周期的構造を持っている場合、被写体の表面が模様のない構造(平板、白板、曲面)である場合などには、図19に示されるマッチング判定が不正確になり、奥行きを正確に推定できないことがある。ここで、鏡面反射とは、図23(a)に示されるランベルト反射とは異なり、図23(b)に示されるように楕円状の反射光強度分布を持つ反射である。   In the image information processing system according to the first embodiment shown in FIG. 7, the reception-side system 30 performs interpolation using a plurality of camera images, a plurality of depth maps, and camera parameters transmitted from the transmission-side system 10. An image is generated. However, for example, when specular reflection occurs on the surface of the subject 101, occlusion occurs, the surface of the subject has a periodic structure, the surface of the subject has a structure without a pattern (flat plate, white plate, curved surface). In some cases, the matching determination shown in FIG. 19 becomes inaccurate, and the depth may not be estimated accurately. Here, unlike the Lambertian reflection shown in FIG. 23A, the specular reflection is a reflection having an elliptical reflected light intensity distribution as shown in FIG. 23B.

そこで、第2の実施形態の画像情報処理システムにおいては、送信側システム10が、図示しない別の手段で被写体の奥行きを測定し、又は、鏡面反射の範囲を測定し、又は、オクルージョンの生じる範囲を測定して、測定結果を追加情報Eをして受信側システム30に送信する。ここで、被写体の奥行き、鏡面反射の範囲、オクルージョンの有無は、例えば、被写体に光線を照射して反射光線の有無、反射光線の方向、反射光線の強度分布などを検出するなど、既知の装置によって取得することができる。なお、通常の補間では仮想カメラに近い2台のカメラから線形補間等を用いて補間画像を生成するが、鏡面反射の場合は、指向性が高いため線形補間では、その反射強度が適切に近似できない場合がある。このため、2台のカメラのみでなく、3台以上の多数のカメラ画像を用いて補間することによって、反射強度の適切な近似が可能になる。   Therefore, in the image information processing system according to the second embodiment, the transmission-side system 10 measures the depth of the subject by another means (not shown), or measures the specular reflection range, or a range where occlusion occurs. And the measurement result is sent to the receiving system 30 as additional information E. Here, the depth of the subject, the range of specular reflection, and the presence or absence of occlusion are known devices such as detecting the presence or absence of reflected light, the direction of reflected light, the intensity distribution of reflected light, etc. by irradiating the subject with light. Can be obtained by: Note that in normal interpolation, an interpolation image is generated from two cameras close to the virtual camera using linear interpolation, etc., but in the case of specular reflection, the directivity is high, so the reflection intensity approximates appropriately in linear interpolation. There are cases where it is not possible. For this reason, it is possible to appropriately approximate the reflection intensity by performing interpolation using not only two cameras but also a large number of three or more camera images.

〈2−2.第2の実施形態の効果〉
以上に説明したように、第2の実施形態の画像情報処理方法及び画像情報処理システムにおいては、カメラ画像、奥行き情報に加えて、送信側でしか知り得ない情報である追加情報Eを受信側システム30に送信しているので、第1の実施形態の画像情報処理方法及び画像情報処理システムよりも、奥行き誤差を小さくすることができ、結果的に、品質の高い画像を生成できる。
<2-2. Effect of Second Embodiment>
As described above, in the image information processing method and the image information processing system according to the second embodiment, in addition to the camera image and depth information, additional information E that is information that can be known only on the transmission side is received on the reception side. Since the image is transmitted to the system 30, the depth error can be reduced as compared with the image information processing method and the image information processing system of the first embodiment, and as a result, a high-quality image can be generated.

なお、第2の実施形態において、上記以外の点は、上記第1の実施形態の場合と同じである。   In the second embodiment, points other than those described above are the same as in the case of the first embodiment.

FTVシステムの基本的な構成を概念的に示す図である。It is a figure which shows notionally the basic composition of a FTV system. (a)は実空間上における物体、直線配置されたカメラ、基準面、及び光線を示す図であり、(b)は光線空間を示す図である。(A) is a figure which shows the object in real space, the camera by which linear arrangement | positioning, the reference plane, and the light ray, (b) is a figure which shows light ray space. (a)は光線空間を示す図であり、(b)は光線空間から切り出された画像を示す図であり、(c)は光線空間から切り出された他の画像を示す図である。(A) is a figure which shows light beam space, (b) is a figure which shows the image cut out from light beam space, (c) is a figure which shows the other image cut out from light beam space. 従来のFTVシステムの構成及び動作を示す図である。It is a figure which shows the structure and operation | movement of the conventional FTV system. (a)〜(c)は、従来のFTV/3Dサービスの具体例を示すブロック図である。(A)-(c) is a block diagram which shows the specific example of the conventional FTV / 3D service. 従来の他のFTVシステムの構成及び動作を示す図である。It is a figure which shows the structure and operation | movement of another conventional FTV system. 本発明の第1の実施形態の画像情報処理システムの構成及び動作を示す図である。It is a figure which shows the structure and operation | movement of an image information processing system of the 1st Embodiment of this invention. 本発明及び従来の画像情報処理システムの送信側システムから送信される情報を示す図である。It is a figure which shows the information transmitted from the transmission side system of this invention and the conventional image information processing system. 画像情報処理システムにおいて用いられる複数の画像情報と複数の奥行きマップ情報を概念的に示す図である。It is a figure which shows notionally the several image information used in an image information processing system, and several depth map information. 1枚の奥行きマップを明るさの違いで表示した例を示す図である。本発明における奥行きマップの一例を示す図である。It is a figure which shows the example which displayed the depth map of 1 sheet by the difference in the brightness. It is a figure which shows an example of the depth map in this invention. 図4に示される従来の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。It is a figure which shows the process of the image generation in the transmission side system of the conventional image information processing system shown by FIG. 4, and a receiving side system. 図6に示される従来の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。It is a figure which shows the process of the image generation in the transmission side system of the conventional image information processing system shown by FIG. 6, and a receiving side system. 図7に示される本発明の第1の実施形態の画像情報処理システムの送信側システム及び受信側システムにおける画像生成のプロセスを示す図である。It is a figure which shows the process of the image generation in the transmission side system of the image information processing system of the 1st Embodiment of this invention shown by FIG. 7, and a receiving side system. 実際のカメラ画像から任意視点(仮想カメラ)の画像を生成するプロセスを示す図である。It is a figure which shows the process which produces | generates the image of arbitrary viewpoints (virtual camera) from an actual camera image. 奥行きと視差の幾何関係を示す図である。It is a figure which shows the geometrical relationship between depth and parallax. 本発明における奥行きサーチの方法を示す図である。It is a figure which shows the method of the depth search in this invention. ハーフオクルージョン及びフルオクルージョンを示す図である。It is a figure which shows a half occlusion and a full occlusion. 本発明における奥行きマップの計算方法を示す図である。It is a figure which shows the calculation method of the depth map in this invention. 本発明における視差の計算方法を示す図である。It is a figure which shows the calculation method of the parallax in this invention. 本発明における奥行きの決定方法を示す図である。It is a figure which shows the determination method of the depth in this invention. オクルージョンの箇所を示した図である。It is the figure which showed the location of the occlusion. 本発明の第2の実施形態の画像情報処理システムの構成及び動作を示す図である。It is a figure which shows the structure and operation | movement of an image information processing system of the 2nd Embodiment of this invention. (a)は、ランベルト反射を示し、(b)は鏡面反射を示す。(A) shows Lambertian reflection and (b) shows specular reflection.

符号の説明Explanation of symbols

10 送信側システム、
10a カメラ画像(補正前)、
10b カメラ画像(補正後)、
10c カメラ画像(符号化後)、
10d 奥行きマップ(符号化後)、
10e カメラ画像(復号化後)、
10f 奥行きマップ(復号化後)、
10g 光線空間、
10h 切り出された画像、
11 画像取得部、
11a カメラ、
12 補正部、
13 奥行きサーチ部、
14 符号化部、
15 送信部、
20 伝送手段、
30 受信側システム、
31 受信部、
32 復号化部、
33 補間部、
34 抽出部、
35 表示部、
101 被写体、
、I、…、Ik−1、I、Ik+1、…、I カメラ画像、
、D、…、Dk−1、D、Dk+1、…、D 奥行きマップ、
E 追加情報。
10 Sender system,
10a Camera image (before correction),
10b Camera image (after correction),
10c Camera image (after encoding),
10d depth map (after encoding),
10e Camera image (after decoding),
10f Depth map (after decoding),
10g ray space,
10h cropped image,
11 Image acquisition unit,
11a camera,
12 Correction part,
13 Depth search part,
14 encoding unit,
15 Transmitter,
20 transmission means,
30 receiving system,
31 receiver,
32 decryption unit,
33 Interpolator,
34 Extraction unit,
35 display,
101 Subject,
I 1, I 2, ..., I k-1, I k, I k + 1, ..., I N camera image,
D 1, D 2, ..., D k-1, D k, D k + 1, ..., D N depth map,
E Additional information.

Claims (18)

送信側システムと受信側システムとを有する画像情報処理システムにおける画像情報処理方法であって、
前記送信側システムが、被写体を複数のカメラで撮影することによって複数のカメラ画像を取得するステップと、
前記送信側システムが、撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成するステップと、
前記送信側システムが、前記カメラ画像及び前記奥行きマップを符号化するステップと、
前記送信側システムが、符号化された前記カメラ画像及び前記奥行きマップを送信するステップと、
前記受信側システムが、前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信するステップと、
前記受信側システムが、受信された前記カメラ画像及び前記奥行きマップを復号化するステップと、
前記受信側システムが、復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成するステップと、
前記受信側システムが、前記光線空間情報から表示画像を抽出して出力するステップと
を有することを特徴とする画像情報処理方法。
An image information processing method in an image information processing system having a transmission side system and a reception side system,
The transmitting system acquiring a plurality of camera images by photographing a subject with a plurality of cameras;
The transmission-side system generates a depth map that includes the depth information of the subject including the direction and distance of the portion of the subject that emits light incident on the camera, corresponding to the plurality of captured camera images. Steps,
The transmitting system encoding the camera image and the depth map;
The transmitting system transmitting the encoded camera image and the depth map;
The receiving system receiving the camera image and the depth map transmitted from the transmitting system;
The receiving system decoding the received camera image and the depth map;
The receiving system calculates an interpolated image between the camera images using the decoded camera image and the depth map, and generates ray space information including the camera image and the interpolated image. Steps,
The receiving system includes a step of extracting and outputting a display image from the light space information.
前記表示画像は、カメラが存在しない任意の位置から見た1又は複数の2次元画像であることを特徴とする請求項1に記載の画像情報処理方法。   The image information processing method according to claim 1, wherein the display image is one or a plurality of two-dimensional images viewed from an arbitrary position where no camera is present. 前記表示画像は、カメラが存在しない任意の位置から見た3次元画像であることを特徴とする請求項1に記載の画像情報処理方法。   2. The image information processing method according to claim 1, wherein the display image is a three-dimensional image viewed from an arbitrary position where no camera is present. 前記奥行きマップを生成するステップは、
kを前記複数のカメラの台数以下の正の整数としたときに、
前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk+1番目のカメラで撮影された第k+1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と、
前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk−1番目のカメラで撮影された第k−1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と
に基づいて、第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定するステップを含む
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像情報処理方法。
The step of generating the depth map includes:
When k is a positive integer less than or equal to the number of the plurality of cameras,
Image information of the portion of the subject included in the kth camera image captured by the kth camera of the plurality of cameras, and the k + 1th camera captured by the k + 1th camera of the plurality of cameras. The result of matching judgment with the image information of the part of the subject included in the image,
Image information of the portion of the subject included in the kth camera image captured by the kth camera of the plurality of cameras, and the kth image captured by the k−1th camera of the plurality of cameras. And determining the depth of the portion of the subject included in the k-th camera image based on the result of the matching determination with the image information of the portion of the subject included in the -1 camera image. The image information processing method according to claim 1.
前記奥行きマップを生成するステップにおける前記マッチング判定において、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報と、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報とから、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
ことを特徴とする請求項4に記載の画像情報処理方法。
In the matching determination in the step of generating the depth map,
It is determined that the image information of the portion of the subject included in the kth camera image matches the image information of the portion of the subject included in the k + 1th camera image, and the kth camera image When it is determined that the image information of the portion of the included subject matches the image information of the portion of the subject included in the k−1th camera image,
Depth information calculated based on image information of the portion of the subject included in the k-th camera image and image information of the portion of the subject included in the k + 1-th camera image, and the k-th camera image Included in the kth camera image from the depth information calculated based on the image information of the portion of the subject included in the image and the image information of the portion of the subject included in the k−1th camera image. The image information processing method according to claim 4, wherein the depth of the portion of the subject is determined.
前記奥行きマップを生成するステップにおける前記マッチング判定において、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定し、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
ことを特徴とする請求項4に記載の画像情報処理方法。
In the matching determination in the step of generating the depth map,
It is determined that the image information of the portion of the subject included in the kth camera image matches the image information of the portion of the subject included in the k + 1th camera image, and the kth camera image When it is determined that the image information of the portion of the included subject and the image information of the portion of the subject included in the k−1th camera image do not match, the image of the subject included in the kth camera image is determined. The depth of the portion of the subject included in the kth camera image is determined from depth information calculated based on the image information of the portion and the image information of the portion of the subject included in the k + 1th camera image. ,
It is determined that the image information of the portion of the subject included in the k-th camera image and the image information of the portion of the subject included in the k + 1-th camera image do not match, and the k-th camera image When it is determined that the image information of the portion of the included subject matches the image information of the portion of the subject included in the k−1th camera image, the image of the subject included in the kth camera image is determined. The depth of the portion of the subject included in the k-th camera image is calculated from the depth information calculated based on the image information of the portion and the image information of the portion of the subject included in the k-1 camera image. The image information processing method according to claim 4, wherein the determination is performed.
前記送信側システムが、前記複数のカメラのそれぞれから見た被写体の奥行きの実測値を測定し、前記実測値に基づく実測奥行き情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から6までのいずれか1項に記載の画像情報処理方法。   The transmission-side system measures an actual measurement value of a depth of a subject viewed from each of the plurality of cameras, and transmits actual measurement depth information based on the actual measurement value together with the camera image and the depth map. Item 7. The image information processing method according to any one of Items 1 to 6. 前記送信側システムが、前記複数のカメラのそれぞれについて、撮影できる範囲を求め、前記撮影できる範囲以外のオクルージョン範囲を示すオクルージョン情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から7までのいずれか1項に記載の画像情報処理方法。   The transmission-side system obtains an imageable range for each of the plurality of cameras, and transmits occlusion information indicating an occlusion range other than the imageable range together with the camera image and the depth map. 8. The image information processing method according to any one of 1 to 7. 前記送信側システムが、前記複数のカメラのそれぞれについて、被写体の表面が鏡面反射する範囲を求め、前記鏡面反射する範囲を示す鏡面反射情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項1から8までのいずれか1項に記載の画像情報処理方法。   The transmission side system obtains a range in which the surface of a subject is specularly reflected for each of the plurality of cameras, and transmits specular reflection information indicating the specularly reflected range together with the camera image and the depth map. The image information processing method according to any one of claims 1 to 8. 送信側システムと受信側システムとを有する画像情報処理システムであって、
前記送信側システムが、
被写体を複数のカメラで撮影することによって複数のカメラ画像を取得する複数のカメラと、
撮影された前記複数のカメラ画像に対応し、前記カメラに入射する光線を出す前記被写体の部分の方向と距離を含む前記被写体の奥行き情報から構成される奥行きマップを生成する奥行きサーチ部と、
前記カメラ画像及び前記奥行きマップを符号化する符号化部と、
符号化された前記カメラ画像及び前記奥行きマップを送信する送信部とを有し、
前記受信側システムが、
前記送信側システムから送信された前記カメラ画像及び前記奥行きマップを受信する受信部と、
受信された前記カメラ画像及び前記奥行きマップを復号化する復号化部と、
復号化された前記カメラ画像及び前記奥行きマップを用いて、前記カメラ画像の間の補間画像を計算して、前記カメラ画像と前記補間画像とからなる光線空間情報を生成する補間部と、
前記光線空間情報から表示画像を抽出して出力する抽出部とを有する
ことを特徴とする画像情報処理システム。
An image information processing system having a transmission side system and a reception side system,
The sending system is
A plurality of cameras for acquiring a plurality of camera images by photographing a subject with a plurality of cameras;
A depth search unit that generates a depth map composed of depth information of the subject including the direction and distance of the portion of the subject that emits light incident on the camera, corresponding to the plurality of captured camera images;
An encoding unit for encoding the camera image and the depth map;
A transmitter that transmits the encoded camera image and the depth map;
The receiving system is
A receiving unit for receiving the camera image and the depth map transmitted from the transmitting side system;
A decoding unit that decodes the received camera image and the depth map;
An interpolation unit that calculates an interpolated image between the camera images using the decoded camera image and the depth map, and generates ray space information composed of the camera image and the interpolated image;
An image information processing system comprising: an extraction unit that extracts and outputs a display image from the light space information.
前記表示画像は、前記カメラが存在しない任意の位置から見た1又は複数の2次元画像であることを特徴とする請求項10に記載の画像情報処理システム。   The image information processing system according to claim 10, wherein the display image is one or a plurality of two-dimensional images viewed from an arbitrary position where the camera does not exist. 前記表示画像は、前記カメラが存在しない任意の位置から見た3次元画像であることを特徴とする請求項10に記載の画像情報処理システム。   The image information processing system according to claim 10, wherein the display image is a three-dimensional image viewed from an arbitrary position where the camera does not exist. 前記奥行きサーチ部は、
kを前記複数のカメラの台数以下の正の整数としたときに、
前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk+1番目のカメラで撮影された第k+1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と、
前記複数のカメラのうちのk番目のカメラで撮影された第kのカメラ画像に含まれる被写体の部分の画像情報と、前記複数のカメラのうちのk−1番目のカメラで撮影された第k−1のカメラ画像に含まれる被写体の部分の画像情報とのマッチング判定の結果と
に基づいて、第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
ことを特徴とする請求項10から12までのいずれか1項に記載の画像情報処理システム。
The depth search unit
When k is a positive integer less than or equal to the number of the plurality of cameras,
Image information of the portion of the subject included in the kth camera image captured by the kth camera of the plurality of cameras, and the k + 1th camera captured by the k + 1th camera of the plurality of cameras. The result of matching judgment with the image information of the part of the subject included in the image,
Image information of the portion of the subject included in the kth camera image captured by the kth camera of the plurality of cameras, and the kth image captured by the k−1th camera of the plurality of cameras. The depth of the portion of the subject included in the kth camera image is determined based on the result of the matching determination with the image information of the portion of the subject included in the −1 camera image. 13. The image information processing system according to any one of items 1 to 12.
前記奥行きサーチ部は、前記マッチング判定において、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報と、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報とから、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
ことを特徴とする請求項13に記載の画像情報処理システム。
The depth search unit, in the matching determination,
It is determined that the image information of the portion of the subject included in the kth camera image matches the image information of the portion of the subject included in the k + 1th camera image, and the kth camera image When it is determined that the image information of the portion of the included subject matches the image information of the portion of the subject included in the k−1th camera image,
Depth information calculated based on image information of the portion of the subject included in the k-th camera image and image information of the portion of the subject included in the k + 1-th camera image, and the k-th camera image Included in the kth camera image from the depth information calculated based on the image information of the portion of the subject included in the image and the image information of the portion of the subject included in the k−1th camera image. The image information processing system according to claim 13, wherein the depth of the portion of the subject is determined.
前記奥行きサーチ部は、前記マッチング判定において、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定し、
前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k+1のカメラ画像に含まれる被写体の前記部分の画像情報が一致しないという判定がなされ、かつ、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報が一致するという判定がなされたときには、前記第kのカメラ画像に含まれる被写体の前記部分の画像情報と前記第k−1のカメラ画像に含まれる被写体の前記部分の画像情報とに基づいて計算された奥行き情報から、前記第kのカメラ画像に含まれる被写体の前記部分の奥行きを決定する
ことを特徴とする請求項14に記載の画像情報処理システム。
The depth search unit, in the matching determination,
It is determined that the image information of the portion of the subject included in the kth camera image matches the image information of the portion of the subject included in the k + 1th camera image, and the kth camera image When it is determined that the image information of the portion of the included subject and the image information of the portion of the subject included in the k−1th camera image do not match, the image of the subject included in the kth camera image is determined. The depth of the portion of the subject included in the kth camera image is determined from depth information calculated based on the image information of the portion and the image information of the portion of the subject included in the k + 1th camera image. ,
It is determined that the image information of the portion of the subject included in the k-th camera image and the image information of the portion of the subject included in the k + 1-th camera image do not match, and the k-th camera image When it is determined that the image information of the portion of the included subject matches the image information of the portion of the subject included in the k−1th camera image, the image of the subject included in the kth camera image is determined. The depth of the portion of the subject included in the k-th camera image is calculated from depth information calculated based on the image information of the portion and the image information of the portion of the subject included in the k-1 camera image. It determines. The image information processing system of Claim 14 characterized by the above-mentioned.
前記送信側システムが、前記複数のカメラのそれぞれから見た被写体の奥行きの実測値を測定する距離測定手段を有し、前記実測値に基づく実測奥行き情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から15までのいずれか1項に記載の画像情報処理システム。   The transmission-side system has distance measurement means for measuring an actual measurement value of the depth of a subject viewed from each of the plurality of cameras, and transmits actual measurement depth information based on the actual measurement value together with the camera image and the depth map. 16. The image information processing system according to claim 10, wherein the image information processing system is any one of claims 10 to 15. 前記送信側システムが、前記複数のカメラのそれぞれについて、撮影できる範囲を求め、前記撮影できる範囲以外のオクルージョン範囲を示すオクルージョン情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から16までのいずれか1項に記載の画像情報処理システム。   The transmission-side system obtains an imageable range for each of the plurality of cameras, and transmits occlusion information indicating an occlusion range other than the imageable range together with the camera image and the depth map. The image information processing system according to any one of 10 to 16. 前記送信側システムが、前記複数のカメラのそれぞれについて、被写体の表面が鏡面反射する範囲を求め、前記鏡面反射する範囲を示す鏡面反射情報を前記カメラ画像及び前記奥行きマップと共に送信することを特徴とする請求項10から17までのいずれか1項に記載の画像情報処理システム。
The transmission side system obtains a range in which the surface of a subject is specularly reflected for each of the plurality of cameras, and transmits specular reflection information indicating the specularly reflected range together with the camera image and the depth map. The image information processing system according to any one of claims 10 to 17.
JP2007106213A 2007-04-13 2007-04-13 Image information processing method and image information processing system Expired - Fee Related JP4706068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007106213A JP4706068B2 (en) 2007-04-13 2007-04-13 Image information processing method and image information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007106213A JP4706068B2 (en) 2007-04-13 2007-04-13 Image information processing method and image information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011036774A Division JP5488929B2 (en) 2011-02-23 2011-02-23 Image information processing method and image information processing system

Publications (2)

Publication Number Publication Date
JP2008263528A JP2008263528A (en) 2008-10-30
JP4706068B2 true JP4706068B2 (en) 2011-06-22

Family

ID=39985669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007106213A Expired - Fee Related JP4706068B2 (en) 2007-04-13 2007-04-13 Image information processing method and image information processing system

Country Status (1)

Country Link
JP (1) JP4706068B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4821846B2 (en) * 2008-12-26 2011-11-24 日本ビクター株式会社 Image encoding apparatus, image encoding method and program thereof
JP2010157826A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
JP2010157821A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157824A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
JP2010157822A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image decoder, image encoding/decoding method, and program of the same
JP2010157823A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
WO2010073513A1 (en) * 2008-12-26 2010-07-01 日本ビクター株式会社 Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
JP5249114B2 (en) * 2009-04-03 2013-07-31 Kddi株式会社 Image generating apparatus, method and program
DE102010009737A1 (en) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Method and arrangement for reproducing 3D image content
JP4815004B2 (en) * 2010-04-16 2011-11-16 シャープ株式会社 Multi-view image encoding device
KR101291071B1 (en) 2010-06-08 2013-08-01 주식회사 에스칩스 Method And Apparatus for Impoving Stereoscopic Image Error
US20110304618A1 (en) * 2010-06-14 2011-12-15 Qualcomm Incorporated Calculating disparity for three-dimensional images
WO2012063540A1 (en) * 2010-11-12 2012-05-18 シャープ株式会社 Virtual viewpoint image generating device
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
JPWO2012128069A1 (en) 2011-03-18 2014-07-24 ソニー株式会社 Image processing apparatus and image processing method
JP6057136B2 (en) 2011-03-18 2017-01-11 ソニー株式会社 Image processing apparatus and image processing method
JP2012222399A (en) * 2011-04-04 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Video playback system, video playback method, and video playback device and program
JP5749595B2 (en) * 2011-07-27 2015-07-15 日本電信電話株式会社 Image transmission method, image transmission apparatus, image reception apparatus, and image reception program
WO2013031573A1 (en) 2011-08-31 2013-03-07 ソニー株式会社 Encoding device, encoding method, decoding device, and decoding method
JP2013089981A (en) * 2011-10-13 2013-05-13 Sony Corp Image processing apparatus, image processing method and program
JP6095067B2 (en) * 2011-11-14 2017-03-15 国立研究開発法人情報通信研究機構 Stereoscopic video encoding apparatus, stereoscopic video decoding apparatus, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program
JP7377413B2 (en) * 2018-04-12 2023-11-10 Toppanホールディングス株式会社 Light field image generation system, image display system, shape information acquisition server, light field image generation method, and image display method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067473A (en) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for image generation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (en) * 1996-10-04 1998-04-28 Canon Inc Method and device for image processing and storage medium
JP4825984B2 (en) * 2005-08-29 2011-11-30 国立大学法人名古屋大学 Image information compression method, image information compression apparatus, and free-viewpoint television system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067473A (en) * 1999-08-25 2001-03-16 Nippon Telegr & Teleph Corp <Ntt> Method and device for image generation

Also Published As

Publication number Publication date
JP2008263528A (en) 2008-10-30

Similar Documents

Publication Publication Date Title
JP4706068B2 (en) Image information processing method and image information processing system
CN101682794B (en) Method, apparatus and system for processing depth-related information
CN1956555B (en) Apparatus and method for processing 3d picture
US9600889B2 (en) Method and apparatus for performing depth estimation
JP6027034B2 (en) 3D image error improving method and apparatus
US8330796B2 (en) Arrangement and method for the recording and display of images of a scene and/or an object
US9137518B2 (en) Method and system for converting 2D image data to stereoscopic image data
US20140198182A1 (en) Representation and Coding of Multi-View Images Using Tapestry Encoding
JP4939639B2 (en) Image processing apparatus, image processing method, program, and recording medium
US8659644B2 (en) Stereo video capture system and method
KR20090007384A (en) Efficient encoding of multiple views
GB2465072A (en) Combining range information with images to produce new images of different perspective
JP2013527646A5 (en)
WO2012062652A1 (en) Improved view synthesis
JP2009010557A (en) Depth data output device, and depth data receiver
US8947506B2 (en) Method and system for utilizing depth information for generating 3D maps
KR102265109B1 (en) Method and apparatus for image processing
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
JP5488929B2 (en) Image information processing method and image information processing system
KR101960577B1 (en) Method for transmitting and receiving stereo information about a viewed space
EP4344237A1 (en) Generation of depth maps for images
JP4999010B2 (en) Free viewpoint video generation method and recording medium
Cellatoglu et al. Depth map creation considerations towards realizing volumetric television
Shankar et al. Simulation of 3D cloud point from disparity map of stereo image
TW201424341A (en) Stereoscopic display device and method capable of automatically adjusting image display depth

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110223

R150 Certificate of patent or registration of utility model

Ref document number: 4706068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees