JP2015125494A - Image generation method, image generation device, and image generation program - Google Patents

Image generation method, image generation device, and image generation program Download PDF

Info

Publication number
JP2015125494A
JP2015125494A JP2013267781A JP2013267781A JP2015125494A JP 2015125494 A JP2015125494 A JP 2015125494A JP 2013267781 A JP2013267781 A JP 2013267781A JP 2013267781 A JP2013267781 A JP 2013267781A JP 2015125494 A JP2015125494 A JP 2015125494A
Authority
JP
Japan
Prior art keywords
image
image generation
viewpoint position
subject
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013267781A
Other languages
Japanese (ja)
Other versions
JP6181549B2 (en
Inventor
伊達 宗和
Munekazu Date
宗和 伊達
高田 英明
Hideaki Takada
英明 高田
小澤 史朗
Shiro Ozawa
史朗 小澤
知史 三枝
Tomofumi Saegusa
知史 三枝
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013267781A priority Critical patent/JP6181549B2/en
Publication of JP2015125494A publication Critical patent/JP2015125494A/en
Application granted granted Critical
Publication of JP6181549B2 publication Critical patent/JP6181549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image generation method capable of generating an image, seen from a desired viewpoint position, that has the quality sufficient to give high sense of presence.SOLUTION: Provided is an image generation method executed by an image generation device equipped with a plurality of image-capturing means for capturing the image of a subject from positions differing from each other, a depth map image-capturing means for capturing the image of a depth map relative to the subject, and a viewpoint position setting means for setting a viewpoint position relative to the subject, the image generation method including: a selection step of selecting two or more of the image-capturing means in which a positional relation between the subject and the viewpoint position and a positional relation between the subject and the image-capturing means are close; an image generation step of generating, on the basis of the plurality of images and the depth map captured by the plurality of image-capturing means selected in the selection step, an image of the subject seen from the viewpoint position set by the viewpoint position setting means; and an image addition step of making an image obtained by adding up the plurality of generated images an image at the viewpoint position.

Description

本発明は、既存の画像から所望の視点位置の画像を生成する画像生成方法、画像生成装置及び画像生成プログラムに関する。   The present invention relates to an image generation method, an image generation apparatus, and an image generation program for generating an image at a desired viewpoint position from an existing image.

従来から、視点の変化に応じた画像を2次元ディスプレイ上に表示する技術が知られている(例えば、特許文献1参照)。図6(特許文献1の図1から引用)は、従来技術による映像表示のイメージを示す概念図である。図6において、ユーザ1が視点を変えると(3軸移動に対応)、映像中の対話相手2の奥行き位置(対話相手2とその背景の壁3)を、その視点の変化に応じて2次元ディスプレイ4上に表示することで、対話相手2、背景の壁3の見え方があたかも現実のように再現することができる。   2. Description of the Related Art Conventionally, a technique for displaying an image corresponding to a change in viewpoint on a two-dimensional display is known (see, for example, Patent Document 1). FIG. 6 (cited from FIG. 1 of Patent Document 1) is a conceptual diagram showing an image display image according to the prior art. In FIG. 6, when the user 1 changes the viewpoint (corresponding to three-axis movement), the depth position of the conversation partner 2 in the video (the conversation partner 2 and the background wall 3) is displayed in two dimensions according to the change of the viewpoint. By displaying on the display 4, the appearance of the conversation partner 2 and the background wall 3 can be reproduced as if they were real.

これは、ユーザ1が位置P1にて2次元ディスプレイ4に対峙する場合には、対話相手2を正面から見ているように表示し、ユーザ1が左側の位置P2から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を左側から見ているように表示し、ユーザ1が右側の位置 P3から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を右側から見ているように表示するものである。   When the user 1 faces the two-dimensional display 4 at the position P1, the conversation partner 2 is displayed as if viewed from the front, and when the user 1 is viewed from the left position P2, When the dialog partner 2 is displayed as if viewed from the left side, reflecting the positional relationship (depth) between the dialog partner 2 and the wall 3 in the background, and the user 1 is viewing from the right position P3 Reflecting the positional relationship (depth) between the conversation partner 2 and the wall 3 behind it, the conversation partner 2 is displayed as if viewed from the right side.

この従来技術を実現するために、ディスプレイ4に対するユーザ1の視点位置・姿勢の検出、ユーザ1の視点位置に応じた対話相手2の映像の生成・表示の2つの技術が重要であり、カメラから撮影された2次元映像から、人物と背景を分離し、多層化して奥行きを持つ3次元映像を生成し、ユーザの視点位置に応じて、ディスプレイ面に投影して表示することを提案している。   In order to realize this conventional technique, two techniques of detecting the viewpoint position / attitude of the user 1 with respect to the display 4 and generating / displaying the video of the conversation partner 2 in accordance with the viewpoint position of the user 1 are important. Proposed to separate a person and background from a captured 2D video, generate a 3D video with depth by multilayering, and project and display it on the display surface according to the user's viewpoint position. .

しかしながら、特許文献1に記載の映像表示方法にあっては、ユーザと背景の位置関係や大きさを正しく表現はできるものの、背景が立体的な構造を有していた場合、ユーザ1の視点が変化しても背景が変化しないため、背景の状態を正しく表現することができないという問題がある。このような問題は、視線方向に応じた背景画像を生成すれば解決することができる。このような問題を解決する技術として、複数のカメラ画像から所望の位置の視点からの映像を生成する仮想視点画像生成方法が知られている(例えば、特許文献2参照)。   However, in the video display method described in Patent Literature 1, although the positional relationship and size between the user and the background can be expressed correctly, if the background has a three-dimensional structure, the viewpoint of the user 1 is Since the background does not change even if it changes, there is a problem that the background state cannot be expressed correctly. Such a problem can be solved by generating a background image corresponding to the line-of-sight direction. As a technique for solving such a problem, a virtual viewpoint image generation method for generating a video from a viewpoint at a desired position from a plurality of camera images is known (for example, see Patent Document 2).

しかしながら、特許文献2に記載の仮想視点画像生成方法にあっては、複数の画像のマッチングにより奥行位置を推定して画像を計算するため、画像のテクスチャ状態によって奥行が取得できなかったり、奥行の誤差が大きすぎてしまったりという問題を有している。特許文献2に記載の仮想視点画像生成方法においては奥行位置の尤度を考慮して画質の向上を図っているが、高臨場感を与えられるような品質での特定の視点からの画像を作成することは困難であるという問題がある。   However, in the virtual viewpoint image generation method described in Patent Document 2, since the depth position is estimated by matching a plurality of images and the image is calculated, the depth cannot be acquired depending on the texture state of the image, There is a problem that the error is too large. In the virtual viewpoint image generation method described in Patent Document 2, the image quality is improved in consideration of the likelihood of the depth position, but an image from a specific viewpoint with a quality that gives a high sense of reality is created. There is a problem that it is difficult to do.

特許第5237234号公報Japanese Patent No. 5237234 特許第4052331号公報Japanese Patent No. 4052331

ところで、特許文献1に記載の仮想視点画像生成方法にあっては、複数の画像のマッチングにより奥行位置を推定して画像を計算するため、画像のテクスチャ状態によって奥行が取得できなかったり、奥行の誤差が大きすぎてしまったりという問題を有している。また、特許文献2に記載の仮想視点画像生成方法においては奥行位置の尤度を考慮して画質の向上を図っているが、高臨場感を与えられるような品質での特定の視点からの画像を作成することは困難であるという問題がある。   By the way, in the virtual viewpoint image generation method described in Patent Document 1, since the depth position is estimated by matching a plurality of images and the image is calculated, the depth cannot be acquired depending on the texture state of the image, There is a problem that the error is too large. Further, in the virtual viewpoint image generation method described in Patent Document 2, the image quality is improved in consideration of the likelihood of the depth position, but the image from a specific viewpoint with a quality that gives a high sense of reality. There is a problem that it is difficult to create.

本発明は、このような事情に鑑みてなされたもので、広い奥行き範囲の被写体に対し所望の視点位置から見た画像を高臨場感が与えられる品質で生成することができる画像生成方法、画像生成装置及び画像生成プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image generation method and image capable of generating an image viewed from a desired viewpoint position with respect to a subject having a wide depth range with a quality that provides a high sense of presence. An object is to provide a generation device and an image generation program.

本発明は、被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、前記被写体に対するデプスマップを撮像するデプスマップ撮像手段と、前記被写体に対する視点位置を設定する視点位置設定手段とを備えた画像生成装置が行う画像生成方法であって、前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択ステップと、前記選択ステップにおいて選択された複数の前記撮像手段によって撮像された複数の画像と前記デプスマップとに基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を複数生成する画像生成ステップと、前記生成した複数の画像を加算して得られる画像を前記視点位置の画像とする画像加算ステップとを有することを特徴とする。   The present invention includes: a plurality of image pickup means for picking up a subject from different positions; a depth map image pickup means for picking up a depth map for the subject; and a viewpoint position setting means for setting a viewpoint position for the subject. In the image generation method performed by the apparatus, a selection step of selecting a plurality of imaging units having a close positional relationship between the subject and the viewpoint position and a positional relationship between the subject and the imaging unit, and An image generation step of generating a plurality of images of the subject viewed from the viewpoint position set by the viewpoint position setting unit based on the plurality of images captured by the plurality of selected imaging units and the depth map. And an image adding step in which an image obtained by adding the plurality of generated images is an image at the viewpoint position; Characterized in that it has.

本発明は、前記画像生成ステップにおいて生成される複数の画像は、複数の相異なる奥行き範囲に設定される仮想スクリーン上の画像であることを特徴とする。   The present invention is characterized in that the plurality of images generated in the image generation step are images on a virtual screen set in a plurality of different depth ranges.

本発明は、前記画像生成ステップでは、選択された複数の前記撮像手段によって撮像された複数の画像の対象画素の輝度値から加重平均によって求めた値を生成すべき画像の対象画素の輝度値とすることを特徴とする。   According to the present invention, in the image generation step, the luminance value of the target pixel of the image to be generated is a value obtained by weighted averaging from the luminance values of the target pixel of the plurality of images captured by the plurality of selected imaging units. It is characterized by doing.

本発明は、前記画像生成ステップにおいて生成すべき画像の対象画素の輝度値を加重平均によって求める際に、前記撮像手段に対応する前記デプスマップ撮像手段によって撮像されたデプスマップの値が前記奥行き範囲に含まれない場合には、前記撮像手段によって撮像された画像の対象画素の輝度値をゼロとして加重平均を計算することを特徴とする。   In the present invention, when the luminance value of the target pixel of the image to be generated in the image generation step is obtained by a weighted average, the value of the depth map captured by the depth map imaging unit corresponding to the imaging unit is the depth range. Is not included, the weighted average is calculated by setting the luminance value of the target pixel of the image captured by the imaging unit to zero.

本発明は、前記画像生成ステップでは、前記加重平均する際の加重の係数を、前記位置関係の近さに応じた値とすることを特徴とする。   The present invention is characterized in that, in the image generation step, a weighting coefficient for the weighted average is a value corresponding to the proximity of the positional relationship.

本発明は、前記画像生成ステップでは、前記加重平均する際の加重の係数を、前記位置関係の近さに反比例する値とすることを特徴とする。   The present invention is characterized in that, in the image generation step, a weighting coefficient for the weighted average is set to a value inversely proportional to the proximity of the positional relationship.

本発明は、被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、前記被写体に対するデプスマップを撮像するデプスマップ撮像手段と、前記被写体に対する視点位置を設定する視点位置設定手段と、前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択手段と、前記選択ステップにおいて選択された複数の前記撮像手段によって撮像された複数の画像と前記デプスマップとに基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を複数生成する画像生成手段と、前記生成した複数の画像を加算して得られる画像を前記視点位置の画像とする画像加算手段とを備えることを特徴とする。   The present invention includes a plurality of imaging means for imaging a subject from different positions, a depth map imaging means for imaging a depth map for the subject, a viewpoint position setting means for setting a viewpoint position for the subject, the subject, A selection unit that selects a plurality of the imaging units that are close in positional relationship to the viewpoint position and a positional relationship between the subject and the imaging unit; and a plurality of imaging units that are captured by the plurality of imaging units selected in the selection step Based on the image and the depth map, the image generation means for generating a plurality of images of the subject viewed from the viewpoint position set by the viewpoint position setting means, and the plurality of generated images are added. Image adding means for setting an image as the image at the viewpoint position is provided.

本発明は、コンピュータに、前記画像生成方法を実行させるための画像生成プログラムである。   The present invention is an image generation program for causing a computer to execute the image generation method.

本発明によれば、広い奥行き範囲の被写体に対し所望の視点位置から見た画像を高臨場感が与えられる品質で生成することができるという効果が得られる。   According to the present invention, an effect that an image viewed from a desired viewpoint position with respect to a subject in a wide depth range can be generated with a quality that gives a high sense of presence.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 図1に示す画像生成部5が行う画像生成処理の概略を示す説明図である。It is explanatory drawing which shows the outline of the image generation process which the image generation part 5 shown in FIG. 1 performs. 図1に示す画像生成部5の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image generation part 5 shown in FIG. 2つの画像の加重平均と輪郭位置の関係を示す図である。It is a figure which shows the relationship between the weighted average of two images, and an outline position. カメラ位置の後方に視点位置がある場合の説明図である。It is explanatory drawing in case there exists a viewpoint position behind camera position. 従来技術による映像表示のイメージを示す概念図である。It is a conceptual diagram which shows the image of the video display by a prior art.

以下、図面を参照して、本発明の一実施形態による画像生成装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、画像生成対象の被写体である。符号2は、生成すべき画像を映す仮想のスクリーンである。符号3−1、3−2は、被写体1を撮像する複数のカメラである。本カメラは、2次元映像(テクスチャ)の撮影機能だけでなく奥行き映像(デプスマップ)の撮影機能も有する。図1においては、カメラを2台のみ図示したが、必要に応じて3台以上のカメラを備えていてもよい。   Hereinafter, an image generation apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a subject for image generation. Reference numeral 2 denotes a virtual screen that displays an image to be generated. Reference numerals 3-1 and 3-2 denote a plurality of cameras that capture an image of the subject 1. This camera has not only a 2D video (texture) shooting function but also a depth video (depth map) shooting function. Although only two cameras are illustrated in FIG. 1, three or more cameras may be provided as necessary.

生成する画像の品質を向上させるためには、多数のカメラを備えていることが望ましい。また、複数のカメラは、スクリーン2と平行な面状に配置されていることが望ましい。符号4は、生成した画像を見る者の視点位置を検出して、生成すべき画像の視点位置を設定する視点位置設定部である。符号5は、視点位置設定部4によって設定した視点位置から見た被写体1の画像を生成する画像生成部である。符号6は、画像生成部5において生成された生成画像を表示する表示装置である。   In order to improve the quality of an image to be generated, it is desirable to have a large number of cameras. It is desirable that the plurality of cameras be arranged in a plane parallel to the screen 2. Reference numeral 4 denotes a viewpoint position setting unit that detects the viewpoint position of a person who views the generated image and sets the viewpoint position of the image to be generated. Reference numeral 5 denotes an image generation unit that generates an image of the subject 1 viewed from the viewpoint position set by the viewpoint position setting unit 4. Reference numeral 6 denotes a display device that displays a generated image generated by the image generation unit 5.

次に、図2を参照して、図1に示す画像生成部5の画像生成の原理について説明する。図2は図1に示す画像生成部5が行う画像生成処理の概略を示す説明図である。図2では、奥行方向に平行な奥行範囲を複数設け(図2に示す例では、奥行範囲1、奥行範囲2、奥行範囲3)それぞれに仮想的なスクリーン位置を想定している。奥行範囲の判定は、デプスマップの値に基づいて行う。図2は、スクリーン2に垂直な断面を示しており、奥行範囲2にある画素のうちスクリーン上のある画素の輝度の計算方法の概略を示している。図2に示す視点位置から見た場合の画像の生成方法を説明する。各奥行範囲ごとに仮想的なスクリーン2上の画像を計算した後、全ての奥行範囲の画像を加算したものをその視点位置の画像として使用する。   Next, the principle of image generation of the image generation unit 5 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is an explanatory diagram showing an outline of image generation processing performed by the image generation unit 5 shown in FIG. In FIG. 2, a plurality of depth ranges parallel to the depth direction are provided (in the example illustrated in FIG. 2, a virtual screen position is assumed for each of the depth range 1, the depth range 2, and the depth range 3). The depth range is determined based on the value of the depth map. FIG. 2 shows a cross section perpendicular to the screen 2, and shows an outline of a method of calculating the luminance of a pixel on the screen among the pixels in the depth range 2. A method for generating an image when viewed from the viewpoint position shown in FIG. 2 will be described. After calculating an image on the virtual screen 2 for each depth range, an image obtained by adding all the images in the depth range is used as an image at the viewpoint position.

各奥行範囲での画像の計算方法を以下に詳細に説明する。仮想的なスクリーン2上の対象画素の輝度は、対象画素から出た光が視点位置に達する光線の近傍にあるカメラ位置から撮像された画像から計算する。図2に示す例では、第1のカメラ位置(例えば、カメラ3−1の位置)、第2のカメラ位置(例えば、カメラ3−2の位置)の2箇所のカメラによって撮像した画像から設定した視点位置の画像を生成する。   A method for calculating an image in each depth range will be described in detail below. The luminance of the target pixel on the virtual screen 2 is calculated from an image captured from a camera position in the vicinity of the light beam from which the light emitted from the target pixel reaches the viewpoint position. In the example illustrated in FIG. 2, the setting is made from images captured by two cameras, a first camera position (for example, the position of the camera 3-1) and a second camera position (for example, the position of the camera 3-2). An image of the viewpoint position is generated.

対象画素の輝度Lは、第1のカメラ位置、第2のカメラ位置から撮像した画像の仮想スクリーン2上の対象画素の位置の画素の輝度(画素値)をL1、L2とし、第1のカメラ位置、第2のカメラ位置それぞれから光線までの距離をd1、d2とすると、(1)式によって求める。ここで、d1、d2の値は、第1、第2のカメラ位置の座標X1、X2と視点位置の座標X0として、d1=X0−X1、d2=X2−X0として計算することにより算出される。但し、カメラが撮像した画像の画素のデプスマップ値がこの奥行範囲外の場合は画素の輝度(画素値)は0として計算する。

Figure 2015125494
For the luminance L of the target pixel, the luminance (pixel value) of the pixel at the position of the target pixel on the virtual screen 2 of the image captured from the first camera position and the second camera position is set to L1 and L2. If the distances from the position and the second camera position to the light beam are d 1 and d 2, they are obtained by the equation (1). Here, the values of d1 and d2 are calculated by calculating the coordinates X1 and X2 of the first and second camera positions and the coordinate X0 of the viewpoint position as d1 = X0−X1 and d2 = X2−X0. . However, when the depth map value of the pixel of the image captured by the camera is outside this depth range, the pixel brightness (pixel value) is calculated as 0.
Figure 2015125494

なお、カラー画像の場合には、各原色ごとに同様の計算をすればよい。また、演算量を減らすため三原色の中で分解能が最も高い緑色のみについて計算し、他の原色については一方のカメラ画像の画素値を使用してもよい。また、YPbPrのように輝度信号と色差信号で映像が提供される場合に輝度信号のみに対してのみ同様の計算を行い色差信号については一方のカメラの情報を用いてもよい。カメラと光線の距離は、カメラ位置から光線におろした垂線の長さであるが、格子状にカメラを配置している場合は、格子を形成する面と光線の交点とカメラ位置の距離を用いるなど近似をしてもよい。   In the case of a color image, the same calculation may be performed for each primary color. Further, in order to reduce the calculation amount, only the green color having the highest resolution among the three primary colors may be calculated, and the pixel values of one camera image may be used for the other primary colors. Further, when an image is provided with a luminance signal and a color difference signal as in YPbPr, the same calculation may be performed only for the luminance signal, and information of one camera may be used for the color difference signal. The distance between the camera and the light beam is the length of the perpendicular line drawn from the camera position to the light beam, but when the camera is arranged in a lattice shape, the distance between the intersection of the surface forming the lattice and the light beam and the camera position is used. You may approximate.

また、近傍のカメラ数を2としたが、2より多くてもよい。この場合には近傍のカメラ数をnとすると、対象画素の輝度Lは、(2)式によって求める。

Figure 2015125494
Although the number of nearby cameras is two, it may be more than two. In this case, assuming that the number of nearby cameras is n, the luminance L of the target pixel is obtained by equation (2).
Figure 2015125494

なお、視点位置がカメラ位置と同一の場合、(1)式、(2)式は不安定になるがその場合は視点位置に配置されたカメラの画像の輝度値をそのまま対象画素の輝度Lとして用いればよい。但し、カメラが撮像した画像の画素のデプスマップ値が当該奥行範囲外の場合は画素の輝度(画素値)は0として計算する。   If the viewpoint position is the same as the camera position, equations (1) and (2) become unstable. In this case, the luminance value of the camera image arranged at the viewpoint position is used as the luminance L of the target pixel as it is. Use it. However, when the depth map value of the pixel of the image captured by the camera is outside the depth range, the pixel brightness (pixel value) is calculated as 0.

次に、図3を参照して、図1に示す画像生成部5の処理動作を説明する。図3は、図1に示す画像生成部5の処理動作を示すフローチャートである。図3に示す処理動作は、1枚の静止画像を生成する処理動作であるが、図3に示す処理動作を連続して繰り返すことで動画像にも対応することができる。   Next, the processing operation of the image generation unit 5 shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the image generation unit 5 shown in FIG. The processing operation shown in FIG. 3 is a processing operation for generating one still image, but it is also possible to deal with a moving image by continuously repeating the processing operation shown in FIG.

画像生成処理は奥行範囲ごとに行うため、まず、画像生成部5は、演算の対象となる奥行範囲を選択する(ステップS1)。続いて、画像生成部5は、生成すべきスクリーン上の画像中の対象画素を1個選択する(ステップS2)。そして、画像生成部5は、選択した対象画素と、視点位置設定部4において設定した視点位置とを結ぶ光線(直線)を計算する(ステップS3)。   Since the image generation processing is performed for each depth range, first, the image generation unit 5 selects a depth range to be calculated (step S1). Subsequently, the image generation unit 5 selects one target pixel in the image on the screen to be generated (step S2). Then, the image generation unit 5 calculates a light ray (straight line) connecting the selected target pixel and the viewpoint position set by the viewpoint position setting unit 4 (step S3).

次に、画像生成部5は、求めた光線の近傍に位置するカメラを選択する(ステップS4)。ここで、近傍に位置するカメラの選択は、(1)各カメラ位置について光線からの距離を計算し近い順に所定の個数選ぶ、(2)視点位置とカメラ位置の距離を算出し近い順に所定の個数選ぶ、(3)カメラを格子状にならべ、格子の単位胞がなす多角形の頂点に相当するカメラ位置を選ぶ、などの手法を適用することができる。   Next, the image generation unit 5 selects a camera located in the vicinity of the obtained light beam (step S4). Here, the selection of the cameras located in the vicinity is performed by (1) calculating the distance from the light ray for each camera position and selecting a predetermined number in order of closeness. It is possible to apply techniques such as selecting the number, (3) arranging the cameras in a grid, and selecting the camera position corresponding to the vertex of the polygon formed by the unit cells of the grid.

次に、画像生成部5は、光線からの距離をパラメータとする所定の重みで、選択されたカメラの画像のスクリーン上の対象画素の輝度を加重平均し、対象画素の輝度値とする(ステップS5)。そして、画像生成部5は、未計算の画素が残っているか否かを判定し(ステップS6)、残っていればステップS2に戻って他の対象画素の計算を繰り返し、残っていなければ次へ進む。   Next, the image generation unit 5 performs a weighted average of the luminance of the target pixel on the screen of the selected camera image with a predetermined weight using the distance from the light ray as a parameter, and obtains the luminance value of the target pixel (step). S5). Then, the image generation unit 5 determines whether or not an uncalculated pixel remains (step S6). If it remains, the process returns to step S2 and repeats the calculation of another target pixel. move on.

次に、画像生成部5は、見計算の奥行範囲が残っているか否かを判定し(ステップS7)、残っていればステップS1に戻り未計算の奥行範囲について計算する。すべての奥行範囲の計算が完了していた場合には、各奥行範囲で生成した画像を加算合成して生成画像とする(ステップS8)。この処理動作により作成された画像は、複数カメラ位置から撮像された画像となり、カメラ位置の違いによりずれた画像の加重平均となる。隣接カメラ間での画像のずれの幅が3 arc min.程度の小さい値となるように奥行範囲の奥行幅を選定した場合には図4に示すように輪郭位置が加重比によって連続的に変化するため、視点位置にあった適切な輪郭位置の画像が生成されることになる。図4は、2つの画像の加重平均と輪郭位置の関係を示す図である。   Next, the image generation unit 5 determines whether or not the depth range for viewing calculation remains (step S7), and if it remains, returns to step S1 and calculates the uncalculated depth range. If all the depth ranges have been calculated, the images generated in each depth range are added and combined to form a generated image (step S8). An image created by this processing operation is an image captured from a plurality of camera positions, and is a weighted average of images that are shifted due to a difference in camera positions. The width of the image shift between adjacent cameras is 3 arc min. When the depth width of the depth range is selected so as to be a small value, the contour position continuously changes depending on the weighting ratio as shown in FIG. Will be generated. FIG. 4 is a diagram illustrating the relationship between the weighted average of two images and the contour position.

前述した説明では、カメラ位置と視点が同一直線上に並んだ場合を説明したが、異なってもよい。図5はカメラ位置の後方に視点位置がある場合の説明図である。このような場合にも図3に示す処理動作に従って画像生成を行えばよい。図3に示す処理動作に従うと画素によって加重平均する画像が変化する。図5に示す第1の対象画素(画素1)については第1、第2のカメラ位置の画像、第2の対象画素(画素2)については第2、第3のカメラ位置の画像、第3の対象画素(画素3)については第3、第4のカメラ位置の画像になるが、カメラ位置が前後に変化しても同様な処理動作によって画像生成することができる。   In the above description, the case where the camera position and the viewpoint are aligned on the same straight line has been described, but they may be different. FIG. 5 is an explanatory diagram when the viewpoint position is behind the camera position. In such a case, image generation may be performed according to the processing operation shown in FIG. According to the processing operation shown in FIG. 3, the weighted average image changes depending on the pixel. For the first target pixel (pixel 1) shown in FIG. 5, the images at the first and second camera positions, for the second target pixel (pixel 2), the images at the second and third camera positions, the third The target pixel (pixel 3) is an image at the third and fourth camera positions, but an image can be generated by a similar processing operation even if the camera position changes back and forth.

本実施形態で使用する各カメラ位置から撮像された画像は、それぞれのカメラ位置で撮像された画像をスクリーン面に対し射影したものとする。このような画像は、一般的なカメラよって所定の位置から画像を撮像し、カメラの光軸がスクリーンの法線からずれに相当する台形補正を施すことで容易に取得することができる。また、カメラの光軸をスクリーン法線と平行として撮像し、スクリーンの表示領域に相当する部分を切り抜いてもよい。また、カメラの光軸をスクリーン法線と平行とし、シフト可能なレンズを使用しスクリーンの表示領域の中心と光軸のずれを補償しながら撮像して取得し、表示領域に相当する部分を切り抜いてもよい。   Assume that the images captured from each camera position used in the present embodiment are obtained by projecting the images captured at the respective camera positions onto the screen surface. Such an image can be easily obtained by capturing an image from a predetermined position with a general camera and performing keystone correction corresponding to a deviation of the optical axis of the camera from the normal line of the screen. Alternatively, the image may be taken with the optical axis of the camera parallel to the screen normal, and a portion corresponding to the display area of the screen may be cut out. In addition, the camera optical axis is parallel to the screen normal, and a shiftable lens is used to capture and capture the offset between the center of the screen display area and the optical axis, and the portion corresponding to the display area is cut out. May be.

このように、所望の視点位置から見た画像生成において、複数カメラの画像から特定の視点の画像を生成する際に、画像を劣化させる原因となる奥行情報を使用しないようにしたため、高臨場感を与えられる品質で所望の視点位置から見た画像を生成することができる。   As described above, in generating an image viewed from a desired viewpoint position, when generating an image of a specific viewpoint from images of a plurality of cameras, depth information that causes image deterioration is not used. It is possible to generate an image viewed from a desired viewpoint position with a quality that is given.

なお、前述した説明ではすべてのカメラにデプスマップ撮影機能を具備したが、一部のカメラに具備し、カメラの位置関係から座標変換によってる算出することで設備の簡略化を図ってもよい。   In the above description, all the cameras have the depth map photographing function. However, some cameras may be provided, and the equipment may be simplified by calculating by coordinate conversion from the positional relationship of the cameras.

次に、前述した実施形態による画像生成装置によって生成した所望の視点位置における画像を表示装置6に表示した結果について図1を参照して説明する。使用者(画像を見る者)の視点位置の検出し、視点位置設定部4によって視点位置を設定して、画像生成部5によって視点位置に応じた画像を表示装置6に表示した。表示装置6に表示される画像は、視点位置に対応した画像となるので定位感が高く高臨場な表示が可能であった。   Next, a result of displaying an image at a desired viewpoint position generated by the image generation apparatus according to the above-described embodiment on the display device 6 will be described with reference to FIG. The viewpoint position of the user (the person who views the image) is detected, the viewpoint position is set by the viewpoint position setting unit 4, and an image corresponding to the viewpoint position is displayed on the display device 6 by the image generation unit 5. Since the image displayed on the display device 6 is an image corresponding to the viewpoint position, it has a high sense of orientation and a highly realistic display.

また、表示装置6に表示される表示画像を被写体1の実サイズとすることで、より高い臨場感を得ることができた。また、使用者の左右眼の位置に合わせた画像を生成し、3Dメガネを使用して左右眼それぞれに画像を提示したところあたかもそこに実物があるかのような高臨場感で画像を見ることができた。さらに表示装置として、裸眼式の3D表示装置を使用し、各視点位置に対応した画像を生成表示したところ、3Dメガネのような特殊な器具を装着しなくてもあたかもそこに実物があるかのような高臨場感で画像を見ることができた。   Further, by making the display image displayed on the display device 6 the actual size of the subject 1, it was possible to obtain a higher sense of realism. Also, when the image is generated according to the position of the left and right eyes of the user and the images are presented to each of the left and right eyes using 3D glasses, the image can be viewed with a high sense of presence as if there is a real thing. I was able to. Furthermore, when a naked eye 3D display device is used as a display device and an image corresponding to each viewpoint position is generated and displayed, it is as if there is a real thing without wearing special equipment such as 3D glasses. I was able to see images with such a high sense of reality.

以上説明したように、所望の視点位置における画像の生成において、視点位置と画面上の位置を結ぶ直線(光線)の近傍の位置において撮像された画像を所定の比率で加重平均して画像生成するようにした。そして、所定の比率として、直線(光線)と撮像位置の距離に反比例する量を加重として用いるようにした。また、所定の比率として、直線(光線)と撮像位置の距離が最も近い画像に対する加重を重くするようにした。さらに、奥行範囲を限定して計算することで、二重像の目立たない高画質な画像を生成可能とした。   As described above, in the generation of an image at a desired viewpoint position, an image is generated by weighted average of images captured at positions near a straight line (light ray) connecting the viewpoint position and the position on the screen at a predetermined ratio. I did it. As the predetermined ratio, an amount that is inversely proportional to the distance between the straight line (light ray) and the imaging position is used as a weight. In addition, as a predetermined ratio, the weight for an image having the closest distance between the straight line (light ray) and the imaging position is increased. Further, by limiting the depth range and calculating, it is possible to generate a high-quality image in which a double image is not conspicuous.

この構成により、所望の視点位置における画像の生成において、奥行情報を使用することで加重平均となる対象の画像間のずれを抑制して高画質の画像を生成することができる。これにより、高臨場な表現の画像を生成して表示することが実現できる。   With this configuration, in the generation of an image at a desired viewpoint position, it is possible to generate a high-quality image by using the depth information to suppress a shift between target images that are weighted averages. Thereby, it is possible to realize generation and display of a highly realistic expression image.

前述した実施形態における視点位置設定部4及び画像生成部5をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the viewpoint position setting part 4 and the image generation part 5 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

既存の画像から所望の視点位置の画像を生成することが不可欠な用途に適用できる。   The present invention can be applied to applications where it is indispensable to generate an image at a desired viewpoint position from an existing image.

1・・・被写体、2・・・スクリーン、3−1、3−2・・・カメラ、4・・・視点位置設定部、5・・・画像生成部、6・・・表示装置   DESCRIPTION OF SYMBOLS 1 ... Subject, 2 ... Screen, 3-1, 3-2 ... Camera, 4 ... Viewpoint position setting part, 5 ... Image generation part, 6 ... Display apparatus

Claims (8)

被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、前記被写体に対するデプスマップを撮像するデプスマップ撮像手段と、前記被写体に対する視点位置を設定する視点位置設定手段とを備えた画像生成装置が行う画像生成方法であって、
前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択ステップと、
前記選択ステップにおいて選択された複数の前記撮像手段によって撮像された複数の画像と前記デプスマップとに基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を複数生成する画像生成ステップと、
前記生成した複数の画像を加算して得られる画像を前記視点位置の画像とする画像加算ステップと
を有することを特徴とする画像生成方法。
An image generated by an image generation apparatus comprising: a plurality of imaging means for imaging a subject from different positions; a depth map imaging means for imaging a depth map for the subject; and a viewpoint position setting means for setting a viewpoint position for the subject. A generation method,
A selection step of selecting a plurality of the imaging means having a positional relationship between the subject and the viewpoint position and a positional relationship between the subject and the imaging means;
A plurality of images of the subject viewed from the viewpoint position set by the viewpoint position setting unit are generated based on the plurality of images captured by the plurality of imaging units selected in the selection step and the depth map. An image generation step,
An image addition method comprising: an image addition step in which an image obtained by adding the plurality of generated images is an image at the viewpoint position.
前記画像生成ステップにおいて生成される複数の画像は、複数の相異なる奥行き範囲に設定される仮想スクリーン上の画像であることを特徴とする請求項1に記載の画像生成方法。   The image generation method according to claim 1, wherein the plurality of images generated in the image generation step are images on a virtual screen set in a plurality of different depth ranges. 前記画像生成ステップでは、選択された複数の前記撮像手段によって撮像された複数の画像の対象画素の輝度値から加重平均によって求めた値を生成すべき画像の対象画素の輝度値とすることを特徴とする請求項1または2に記載の画像生成方法。   In the image generation step, a value obtained by weighted averaging from luminance values of target pixels of a plurality of images captured by the selected plurality of imaging means is set as a luminance value of the target pixels of the image to be generated. The image generation method according to claim 1 or 2. 前記画像生成ステップにおいて生成すべき画像の対象画素の輝度値を加重平均によって求める際に、前記撮像手段に対応する前記デプスマップ撮像手段によって撮像されたデプスマップの値が前記奥行き範囲に含まれない場合には、前記撮像手段によって撮像された画像の対象画素の輝度値をゼロとして加重平均を計算することを特徴とする請求項3に記載の画像生成方法。   When the luminance value of the target pixel of the image to be generated in the image generation step is obtained by a weighted average, the depth map value captured by the depth map imaging unit corresponding to the imaging unit is not included in the depth range. 4. The image generation method according to claim 3, wherein the weighted average is calculated by setting the luminance value of the target pixel of the image captured by the imaging unit to zero. 前記画像生成ステップでは、前記加重平均する際の加重の係数を、前記位置関係の近さに応じた値とすることを特徴とする請求項4に記載の画像生成方法。   5. The image generation method according to claim 4, wherein, in the image generation step, a weighting coefficient for the weighted average is set to a value corresponding to the proximity of the positional relationship. 前記画像生成ステップでは、前記加重平均する際の加重の係数を、前記位置関係の近さに反比例する値とすることを特徴とする請求項5に記載の画像生成方法。   6. The image generation method according to claim 5, wherein, in the image generation step, a weighting coefficient for the weighted average is set to a value inversely proportional to the proximity of the positional relationship. 被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、
前記被写体に対するデプスマップを撮像するデプスマップ撮像手段と、
前記被写体に対する視点位置を設定する視点位置設定手段と、
前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択手段と、
前記選択ステップにおいて選択された複数の前記撮像手段によって撮像された複数の画像と前記デプスマップとに基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を複数生成する画像生成手段と、
前記生成した複数の画像を加算して得られる画像を前記視点位置の画像とする画像加算手段と
を備えることを特徴とする画像生成装置。
A plurality of imaging means for imaging the subject from different positions;
A depth map imaging means for imaging a depth map for the subject;
Viewpoint position setting means for setting a viewpoint position with respect to the subject;
A selection means for selecting a plurality of the imaging means having a close positional relationship between the subject and the viewpoint position and a close positional relationship between the subject and the imaging means;
A plurality of images of the subject viewed from the viewpoint position set by the viewpoint position setting unit are generated based on the plurality of images captured by the plurality of imaging units selected in the selection step and the depth map. Image generating means for
An image generation apparatus comprising: an image addition unit configured to add an image obtained by adding the plurality of generated images to the image at the viewpoint position.
コンピュータに、請求項1から6のいずれか1項に記載の画像生成方法を実行させるための画像生成プログラム。   An image generation program for causing a computer to execute the image generation method according to claim 1.
JP2013267781A 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program Active JP6181549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013267781A JP6181549B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013267781A JP6181549B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Publications (2)

Publication Number Publication Date
JP2015125494A true JP2015125494A (en) 2015-07-06
JP6181549B2 JP6181549B2 (en) 2017-08-16

Family

ID=53536182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267781A Active JP6181549B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Country Status (1)

Country Link
JP (1) JP6181549B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763472A (en) * 2021-09-08 2021-12-07 未来科技(襄阳)有限公司 Method and device for determining viewpoint width and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152133A (en) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今井悠介,高木康博: "複数のデプス情報を用いたカメラアレイによる指向性画像の生成(2)", 映像情報メディア学会技術報告, vol. 第32巻第14号, JPN6016043485, 5 March 2008 (2008-03-05), JP, pages 5 - 18 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763472A (en) * 2021-09-08 2021-12-07 未来科技(襄阳)有限公司 Method and device for determining viewpoint width and storage medium
CN113763472B (en) * 2021-09-08 2024-03-29 未来科技(襄阳)有限公司 Viewpoint width determining method and device and storage medium

Also Published As

Publication number Publication date
JP6181549B2 (en) 2017-08-16

Similar Documents

Publication Publication Date Title
US10535181B2 (en) Virtual viewpoint for a participant in an online communication
US10540818B2 (en) Stereo image generation and interactive playback
US10373362B2 (en) Systems and methods for adaptive stitching of digital images
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
US20180329485A1 (en) Generation of virtual reality with 6 degrees of freedom from limited viewer data
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
KR20180101165A (en) Frame stitching with panoramic frame
US20230291884A1 (en) Methods for controlling scene, camera and viewing parameters for altering perception of 3d imagery
JP2013003848A (en) Virtual object display device
JP2012253690A (en) Program, information storage medium, and image generation system
JPWO2017094543A1 (en) Information processing apparatus, information processing system, information processing apparatus control method, and parameter setting method
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
US20180329602A1 (en) Vantage generation and interactive playback
CN104599317A (en) Mobile terminal and method for achieving 3D (three-dimensional) scanning modeling function
US20200177868A1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
WO2019050038A1 (en) Image generation method and image generation device
JP2014203462A (en) Apparatus and method for forming light field image
JP2009175866A (en) Stereoscopic image generation device, its method, and its program
CN107864372B (en) Stereo photographing method and device and terminal
US20140198104A1 (en) Stereoscopic image generating method, stereoscopic image generating device, and display device having same
JP6200316B2 (en) Image generation method, image generation apparatus, and image generation program
JP6181549B2 (en) Image generation method, image generation apparatus, and image generation program
JP6168597B2 (en) Information terminal equipment
JP6042732B2 (en) Image generation method, image generation apparatus, and image generation program
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170529

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170720

R150 Certificate of patent or registration of utility model

Ref document number: 6181549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150