JP2011210202A - Apparatus for generating free viewpoint image - Google Patents

Apparatus for generating free viewpoint image Download PDF

Info

Publication number
JP2011210202A
JP2011210202A JP2010079891A JP2010079891A JP2011210202A JP 2011210202 A JP2011210202 A JP 2011210202A JP 2010079891 A JP2010079891 A JP 2010079891A JP 2010079891 A JP2010079891 A JP 2010079891A JP 2011210202 A JP2011210202 A JP 2011210202A
Authority
JP
Japan
Prior art keywords
image
subject
camera
mirror
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010079891A
Other languages
Japanese (ja)
Inventor
Tehrani Mehrdad Panahpour
テヘラニ メヒルダド パナヒプル
Masayuki Tanimoto
正幸 谷本
Tomohiro Marumichi
知博 圓道
Ryo Fukami
遼 深見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2010079891A priority Critical patent/JP2011210202A/en
Publication of JP2011210202A publication Critical patent/JP2011210202A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a compact and inexpensive apparatus for generating free-viewpoint image, which is easily installed and images all subjects including a stationary one.SOLUTION: An image processing computer 14 generates a virtual-view-point image GK on the basis of a pair of direct subject images GL and GR directly captured by a left camera CL and a right camera CR, respectively, two pairs of indirect subject images GLML/GRML and GLMR/GRMR, and a depth value Z determined by the direct and indirect subject images. The direct and indirect subject images are simultaneously formed by a single shooting operation of the left and right cameras CL and CR. Thus, every subject 12 including the stationary one can be imaged. Only by installing the pair of left camera CL and the right camera CR between the computer and the left and right mirrors ML and MR, respectively, thereby providing the easy-to-install, compact and inexpensive apparatus 10 for generating free-viewpoint image.

Description

本発明は、被写体の撮像データからその被写体を所望の仮想視点から見た画像に変換して出力するための自由視点画像生成装置に関する。   The present invention relates to a free viewpoint image generation apparatus for converting and outputting an image of a subject viewed from a desired virtual viewpoint from the imaging data of the subject.

被写体の画像を任意の仮想視点で生成できる装置としては、特許文献1の段落0007、0048、0049、図14、特許文献2に示されるように、被写体を取り囲むように多数個のカメラを配置し、それらのカメラからの映像から所定位置に想定した仮想カメラにおける映像を合成する装置が提案されている。しかし、このような装置では、多数個のカメラを配置することから、装置が大規模となるとともに、カメラ毎の位置出し、カメラ間の色補正や同期が必要であるため、信号処理が複雑となるので、消費電力に伴う発熱が多く、装置が高価となる不都合があった。   As an apparatus that can generate an image of a subject at an arbitrary virtual viewpoint, as shown in paragraphs 0007, 0048, 0049, FIG. 14, and patent document 2 of Patent Document 1, a large number of cameras are arranged so as to surround the subject. An apparatus for synthesizing video in a virtual camera assumed at a predetermined position from videos from these cameras has been proposed. However, in such an apparatus, since a large number of cameras are arranged, the apparatus becomes large-scale, and positioning of each camera and color correction and synchronization between cameras are necessary, so that signal processing becomes complicated. As a result, the heat generated by the power consumption is large and the apparatus is expensive.

特開2006−352539号公報JP 2006-352539 A WO 2007/026440 A1WO 2007/026440 A1

これに対して、カメラを被写体に向けた状態を保ちつつそのカメラをその被写体を取り囲む円弧に沿って移動させる過程でその被写体の映像を複数取得し、取得した複数の映像から所定位置に想定した仮想カメラにおける映像を合成する装置が提案されている。これによれば、カメラの個数が少なくなることから、消費電力に伴う発熱が少なく、カメラ間の色補正や同期が不要となって信号処理が簡単となり、装置が安価となるが、カメラを被写体に向けた姿勢でその被写体との距離を保持しつつ正確に移動させる装置が必要であるため、装置が未だ大型となって設置が煩雑であるとともに、被写体が不動の物体に限定されるという欠点があった。   On the other hand, multiple images of the subject were acquired in the process of moving the camera along an arc surrounding the subject while keeping the camera facing the subject, and assumed to be at a predetermined position from the acquired multiple images An apparatus for synthesizing video in a virtual camera has been proposed. According to this, since the number of cameras is reduced, heat generation due to power consumption is reduced, color correction and synchronization between cameras is unnecessary, signal processing is simplified, and the apparatus is inexpensive. A device that accurately moves while maintaining the distance to the subject in a posture directed toward the camera, and the device is still large and complicated to install, and the subject is limited to immovable objects was there.

本発明は以上の事情を背景として為されたものであり、その目的とするところは、被写体が不動の物体に限定されず、しかも設置が容易で小型且つ安価な自由視点画像生成装置を提供することにある。   The present invention has been made against the background of the above circumstances, and an object of the present invention is to provide a free viewpoint image generation apparatus that is not limited to a stationary object and that is easy to install and that is small and inexpensive. There is.

本発明者等は、以上の事情を背景として種々検討を重ねた結果、実際のカメラの他に、ミラーを用いて形成されるその実際のカメラの鏡像位置に仮想カメラを用いて被写体の仮想視点画像をそれぞれ取得し、それぞれ取得した画像を用いると、所定位置に任意に想定した視点から見た被写体の仮想視点画像を得ることができることを見いだした。本発明は、斯かる知見に基づいて為されたものである。   As a result of various studies on the background of the above circumstances, the present inventors have made a virtual viewpoint of a subject using a virtual camera at the mirror image position of the actual camera formed using a mirror in addition to the actual camera. It has been found that a virtual viewpoint image of a subject viewed from a viewpoint arbitrarily assumed at a predetermined position can be obtained by acquiring each image and using each acquired image. The present invention has been made based on such knowledge.

すなわち、前記目的を達成するための請求項1に係る発明の要旨とするところは、被写体の撮像データから該被写体を所望の仮想視点から見た画像に変換して出力するための自由視点画像生成装置であって、前記被写体を撮像する少なくとも1つのカメラと、該カメラの撮像視野内に位置し、前記被写体からの光を該カメラに向かって反射する少なくとも1つのミラーと、前記カメラにより直接撮像された少なくとも1つの直接被写体画像と、該カメラにより前記ミラーを介して間接的に撮像された少なくとも1つの間接被写体画像と、該直接被写体画像および間接被写体画像から求められた奥行き値とに基づいて前記仮想視点の画像を生成する画像処理演算制御装置とを、含むことにある。   That is, the gist of the invention according to claim 1 for achieving the above object is to generate a free viewpoint image for converting the imaging data of the subject into an image viewed from a desired virtual viewpoint and outputting the image. An apparatus, at least one camera that images the subject, at least one mirror that is located within the imaging field of view of the camera and reflects light from the subject toward the camera, and is directly imaged by the camera Based on the at least one direct subject image, at least one indirect subject image indirectly captured by the camera via the mirror, and a depth value obtained from the direct subject image and the indirect subject image And an image processing calculation control device that generates the image of the virtual viewpoint.

また、請求項2に係る発明の要旨とするところは、請求項1の発明において、前記画像処理演算制御装置は、前記カメラの撮像画像内から、該カメラにより直接撮像された前記被写体を表わす前記直接被写体画像と該カメラにより前記ミラーを介して間接的に撮像された前記被写体を表わす前記間接被写体画像とを分離する被写体画像分離部と、該カメラの位置および該ミラーの位置に基づいて仮想カメラの位置を算出するカメラ位置算出部と、前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間の局部的に相互に関連する部分の相対位置とに基づいて前記奥行き値をそれぞれ算出する奥行き値算出部と、該奥行き値算出部により該奥行き値が算出された相互に対を成す被写体画像と、該奥行き値とに基づいて前記仮想視点から見た前記被写体の仮想視点画像を生成する仮想視点画像生成部とを、含むことにある。   According to a second aspect of the present invention, in the first aspect of the invention, the image processing calculation control device represents the subject directly captured by the camera from the captured image of the camera. A subject image separation unit that separates a direct subject image from the indirect subject image representing the subject indirectly captured by the camera via the mirror, and a virtual camera based on the position of the camera and the position of the mirror A pair of cameras having a high correlation among a plurality of subject images including the at least one direct subject image and at least one indirect subject image separated by the subject image separation unit. Depth value calculation for calculating each of the depth values based on the relative positions of locally related portions between the subject images formed A virtual viewpoint image for generating a virtual viewpoint image of the subject viewed from the virtual viewpoint based on the pair of subject images for which the depth value is calculated by the depth value calculation unit, and the depth value A generation unit.

また、請求項3に係る発明の要旨とするところは、請求項2の発明において、前記被写体画像分離部は、前記カメラにより撮像された前記被写体を含む画像と該カメラにより撮像された前記被写体を含まない背景画像との差分の画像を算出することにより、該被写体のみの被写体画像を生成し、該被写体画像のうちの相対的に大きいものを前記直接被写体画像として抽出し、相対的に小さいものを前記間接被写体画像として抽出するものであることにある。   The gist of the invention according to claim 3 is that, in the invention of claim 2, the subject image separation unit includes an image including the subject imaged by the camera and the subject imaged by the camera. By calculating a difference image from the background image not included, a subject image of only the subject is generated, and a relatively large one of the subject images is extracted as the direct subject image, and a relatively small one Is extracted as the indirect subject image.

また、請求項4に係る発明の要旨とするところは、請求項2又は3の発明において、前記カメラ位置算出部は、前記カメラの位置と前記ミラーの位置とに基づいて、該カメラの該ミラーに対する鏡像位置にある前記仮想カメラの位置を算出するものであることにある。   The gist of the invention according to claim 4 is that, in the invention of claim 2 or 3, the camera position calculation unit is configured to determine the mirror of the camera based on the position of the camera and the position of the mirror. The position of the virtual camera in the mirror image position with respect to is calculated.

また、請求項5に係る発明の要旨とするところは、請求項4の発明において、前記カメラ位置算出部は、前記カメラの位置から前記ミラーの中心までの3次元ベクトルを算出し、該3次元ベクトルと該ミラーの鏡面に対して対称な対称ベクトルを算出し、該対称ベクトルの先端位置を前記仮想カメラの位置として算出するものであることにある。   The gist of the invention according to claim 5 is that, in the invention of claim 4, the camera position calculation unit calculates a three-dimensional vector from the position of the camera to the center of the mirror, and A symmetric vector that is symmetric with respect to the mirror surface of the vector and the mirror is calculated, and the tip position of the symmetric vector is calculated as the position of the virtual camera.

また、請求項6に係る発明の要旨とするところは、請求項2乃至5のいずれか1の発明において、前記奥行き値算出部は、前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間において、一方の被写体画像の局所を構成する1画素又は複数の画素と他方の被写体画像の局所を構成する1画素又は複数の画素との間の相関性が最も高い関係にある一対の1画素又は複数の画素の間の相対位置である視差を算出し、該視差と前記カメラの焦点距離およびカメラ間距離とに基づいて前記対を成す被写体画像間の前記奥行き値を算出するものであることにある。   According to a sixth aspect of the present invention, there is provided the gist of the invention according to any one of the second to fifth aspects, wherein the depth value calculation unit is the at least one direct subject separated by the subject image separation unit. Among a plurality of subject images including an image and at least one indirect subject image, one or a plurality of pixels constituting the local area of one subject image and the other subject image between subject images that form a highly correlated pair Calculating a parallax that is a relative position between a pair of one pixel or a plurality of pixels having the highest correlation with one pixel or a plurality of pixels constituting the local area, and the focal point of the camera The depth value between the paired subject images is calculated based on the distance and the inter-camera distance.

また、請求項7に係る発明の要旨とするところは、請求項2乃至6のいずれか1の発明において、前記仮想視点画像生成部は、前記直接被写体画像および間接被写体画像と前記奥行き値とに基づいて、前記被写体を3次元で表わす画素の3次元位置、または該被写体を複数の多角形を用いた3次元図形で表わす画素の3次元位置を決定し、該画素の3次元位置に基づいて所定の仮想視点から見た該被写体の仮想視点画像を生成するものであることにある。   A gist of the invention according to claim 7 is that, in the invention according to any one of claims 2 to 6, the virtual viewpoint image generation unit generates the direct subject image, the indirect subject image, and the depth value. Based on the three-dimensional position of the pixel, the three-dimensional position of the pixel representing the subject in three dimensions or the three-dimensional position of the pixel representing the subject in a three-dimensional figure using a plurality of polygons is determined. The object is to generate a virtual viewpoint image of the subject viewed from a predetermined virtual viewpoint.

請求項1に係る発明の自由視点画像生成装置によれば、前記画像処理演算制御装置により、少なくとも1つのカメラにより直接撮像された少なくとも1つの直接被写体画像とそのカメラにより少なくとも1つのミラーを介して間接的に撮像された少なくとも1つの間接被写体画像と、それらの直接被写体画像および間接被写体画像から求められた奥行き値とに基づいて仮想視点の画像が生成される。このため、少なくとも1つのカメラの少なくとも1回の撮像により、直接被写体画像および間接被写体画像が瞬時に得られることから被写体が不動の物体に限定されず、しかも、ミラーから手前に少なくとも1台のカメラを設置すればよいので、設置が容易で小型且つ安価な自由視点画像生成装置が得られる。   According to the free viewpoint image generation device of the invention according to claim 1, the image processing calculation control device passes at least one direct subject image directly captured by at least one camera and at least one mirror by the camera. A virtual viewpoint image is generated based on at least one indirect subject image captured indirectly and a depth value obtained from the direct subject image and the indirect subject image. For this reason, since the direct subject image and the indirect subject image can be instantaneously obtained by at least one imaging with at least one camera, the subject is not limited to an immovable object, and at least one camera is located in front of the mirror. Therefore, a free viewpoint image generating apparatus that is easy to install, small and inexpensive can be obtained.

請求項2に係る発明の自由視点画像生成装置によれば、前記画像処理演算制御装置は、前記カメラの撮像画像内から、該カメラにより直接撮像された前記被写体を表わす前記直接被写体画像と該カメラにより前記ミラーを介して間接的に撮像された前記被写体を表わす前記間接被写体画像とを分離する被写体画像分離部と、該カメラの位置および該ミラーの位置に基づいて仮想カメラの位置を算出するカメラ位置算出部と、前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間の局部的に相互に関連する部分の相対位置とに基づいて前記奥行き値をそれぞれ算出する奥行き値算出部と、該奥行き値算出部により該奥行き値が算出された相互に対を成す被写体画像と、該奥行き値とに基づいて前記仮想視点から見た前記被写体の仮想視点画像を生成する仮想視点画像生成部とを、含む。これにより、前記画像処理演算制御装置によって、被写体画像分離部により分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像と、それらの間の局部的に相互に関連する部分の相対位置とに基づいて奥行き値算出部により算出された奥行き値とに基づいて前記仮想視点から見た前記被写体の仮想視点画像が生成されるので、直接被写体画像および間接被写体画像が瞬時に得られることから被写体が不動の物体に限定されず、しかも、ミラーから手前に少なくとも1台のカメラを設置すればよく設置が容易で小型且つ安価な自由視点画像生成装置が得られる。   According to the free viewpoint image generation device of the invention according to claim 2, the image processing calculation control device includes the direct subject image representing the subject directly captured by the camera from the captured image of the camera, and the camera. A subject image separation unit that separates the indirect subject image representing the subject indirectly captured through the mirror, and a camera that calculates the position of the camera and the position of the virtual camera based on the position of the mirror A local portion between subject images forming a highly correlated pair from among a plurality of subject images including the position calculating unit and the at least one direct subject image and at least one indirect subject image separated by the subject image separating unit A depth value calculation unit for calculating the depth value based on relative positions of mutually related portions, and the depth value calculation And the object image forming a pair mutually 該奥 go values calculated by the section, and a virtual viewpoint image generation unit for generating a virtual viewpoint image of the object viewed from the virtual viewpoint based on the 該奥 go values, including. Accordingly, the image processing calculation control device forms a highly correlated pair from among a plurality of subject images including the at least one direct subject image and at least one indirect subject image separated by the subject image separation unit. The virtual viewpoint image of the subject viewed from the virtual viewpoint based on the subject image and the depth value calculated by the depth value calculation unit based on the relative position of the locally interrelated portions between them. Since the direct subject image and the indirect subject image can be obtained instantly, the subject is not limited to an immovable object, and it is only necessary to install at least one camera in front of the mirror, making installation easy and compact. In addition, an inexpensive free viewpoint image generation apparatus can be obtained.

請求項3に係る発明の自由視点画像生成装置によれば、前記被写体画像分離部は、前記カメラにより撮像された前記被写体を含む画像と該カメラにより撮像された前記被写体を含まない背景画像との差分の画像を算出することにより、該被写体のみの被写体画像を生成し、該被写体画像のうちの相対的に大きいものを前記直接被写体画像として抽出し、相対的に小さいものを前記間接被写体画像として抽出するものであることから、直接被写体画像と間接被写体画像とが容易に分離される。   According to the free viewpoint image generation device of the invention according to claim 3, the subject image separation unit is configured to obtain an image including the subject captured by the camera and a background image not including the subject captured by the camera. By calculating a difference image, a subject image of only the subject is generated, a relatively large one of the subject images is extracted as the direct subject image, and a relatively small one is used as the indirect subject image. Since it is what is extracted, the direct subject image and the indirect subject image are easily separated.

請求項4に係る発明の自由視点画像生成装置によれば、前記カメラ位置算出部は、前記カメラの位置と前記ミラーの位置とに基づいて、該カメラの該ミラーに対する鏡像位置にある前記仮想カメラの位置を算出するものであることから、仮想カメラの位置が容易に算出される。   According to the free viewpoint image generation device of the invention according to claim 4, the camera position calculation unit is based on the position of the camera and the position of the mirror, and the virtual camera is located at the mirror image position of the camera Therefore, the position of the virtual camera is easily calculated.

請求項5に係る発明の自由視点画像生成装置によれば、前記カメラ位置算出部は、前記カメラの位置から前記ミラーの中心までの3次元ベクトルを算出し、該3次元ベクトルと該ミラーの鏡面に対して対称な対称ベクトルを算出し、該対称ベクトルの先端位置を前記仮想カメラの位置として算出するものであることから、仮想カメラの位置が容易に算出される。   According to the free viewpoint image generation device of the invention according to claim 5, the camera position calculation unit calculates a three-dimensional vector from the position of the camera to the center of the mirror, and the three-dimensional vector and the mirror surface of the mirror Therefore, the position of the virtual camera can be easily calculated.

請求項6に係る発明の自由視点画像生成装置によれば、前記奥行き値算出部は、前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間において、一方の被写体画像の局所を構成する1画素又は複数の画素と他方の被写体画像の局所を構成する1画素又は複数の画素との間の相関性が最も高い関係にある一対の1画素又は複数の画素の間の相対位置である視差を算出し、該視差と前記カメラの焦点距離およびカメラ間距離とに基づいて前記対を成す被写体画像間の前記奥行き値を算出するものであることから、奥行き値を容易に得ることができる。   According to the free viewpoint image generation device of the invention according to claim 6, the depth value calculation unit includes a plurality of the at least one direct subject image and at least one indirect subject image separated by the subject image separation unit. Between subject images that form a highly correlated pair from among the subject images, one pixel or a plurality of pixels constituting the locality of one subject image and one or a plurality of pixels constituting the locality of the other subject image Calculating a parallax that is a relative position between a pair of one or a plurality of pixels having the highest correlation between the pair of pixels, and determining the pair based on the parallax, the focal length of the camera, and the inter-camera distance. Since the depth value between the formed subject images is calculated, the depth value can be easily obtained.

請求項7に係る発明の自由視点画像生成装置によれば、前記仮想視点画像生成部は、前記直接被写体画像および間接被写体画像と前記奥行き値とに基づいて、前記被写体を3次元で表わす画素の3次元位置、または該被写体を複数の多角形を用いた3次元図形で表わす画素の3次元位置を決定し、該画素の3次元位置に基づいて所定の仮想視点から見た該被写体の仮想視点画像を生成するものであることから、任意の仮想視点から見た被写体の仮想視点画像を容易に得ることができる。   According to the free viewpoint image generation device of the invention according to claim 7, the virtual viewpoint image generation unit includes pixels of the subject representing in three dimensions based on the direct subject image, the indirect subject image, and the depth value. A three-dimensional position or a three-dimensional position of a pixel representing the subject as a three-dimensional figure using a plurality of polygons is determined, and a virtual viewpoint of the subject viewed from a predetermined virtual viewpoint based on the three-dimensional position of the pixel Since an image is generated, a virtual viewpoint image of a subject viewed from an arbitrary virtual viewpoint can be easily obtained.

本発明の一実施例の自由視点画像生成装置の全体的な構成を説明する概念図である。It is a conceptual diagram explaining the whole structure of the free viewpoint image generation apparatus of one Example of this invention. 図1の画像処理コンピュータの演算制御機能の要部を説明する機能ブロック線図である。It is a functional block diagram explaining the principal part of the calculation control function of the image processing computer of FIG. 図1および図2の右カメラによって撮像された撮像画像を例示する図である。It is a figure which illustrates the picked-up image imaged with the right camera of FIG. 1 and FIG. 図1および図2の右カメラによって予め撮像され且つ記憶された背景画像を例示する図である。It is a figure which illustrates the background image previously imaged and memorize | stored by the right camera of FIG. 1 and FIG. 図2の被写体画像分離部によって図3の撮像画像から分離された直接被写体画像および間接被写体画像を示す図である。FIG. 4 is a diagram illustrating a direct subject image and an indirect subject image separated from the captured image of FIG. 3 by the subject image separation unit of FIG. 2. 図2の被写体画像分離部によって、左右のカメラにより撮像された撮像画像から分離された一対の直接被写体画像と二対の間接被写体画像とを、左右一対のカメラと二対の仮想カメラに対応づけして示す図である。The pair of direct subject images and the two pairs of indirect subject images separated from the captured images taken by the left and right cameras by the subject image separation unit in FIG. 2 are associated with the pair of left and right cameras and the two pairs of virtual cameras. It is a figure shown. 右ミラーにより右カメラの鏡像位置に形成される仮想カメラの位置を決定するプロセスのうち、右ミラーの枠を含む右カメラの撮像画像を示す図である。It is a figure which shows the picked-up image of the right camera containing the frame of a right mirror among the processes which determine the position of the virtual camera formed in the mirror image position of a right camera with a right mirror. 右ミラーにより右カメラの鏡像位置に形成される仮想カメラの位置を決定するプロセスのうち、形状が既知の右ミラーの枠が撮像画像内においてどのように写っているかの長さおよび位置に基づいて、その幾何的な関係を利用して算出した右ミラーMR の中心点の位置を示す図である。Of the process of determining the position of the virtual camera formed at the mirror image position of the right camera by the right mirror, based on the length and position of how the right mirror frame with a known shape is reflected in the captured image FIG. 5 is a diagram showing the position of the center point of the right mirror MR calculated using the geometric relationship. 右ミラーにより右カメラの鏡像位置に形成される仮想カメラの位置を決定するプロセスのうち、右カメラの位置から右ミラーの中心点の位置までの三次元ベクトルとその右ミラーの面で対称なベクトルと、その対称なベクトル先端に位置する仮想カメラとを示す図である。Of the process of determining the position of the virtual camera formed at the mirror image position of the right camera by the right mirror, the three-dimensional vector from the right camera position to the position of the center point of the right mirror and the vector symmetric with respect to the plane of the right mirror And a virtual camera located at the symmetric vector tip. 図2の被写体画像分離部によって分離された一対の直接被写体画像および二対の間接被写体画像GRMR 、GRML 、GLML 、GLMR のうちから、大きさや形状の上で相対的に相関の高い互いに類似する一対の直接被写体画像を示す図であって、(a)は左カメラにより撮像された直接被写体画像を、(b)は右カメラにより撮像された直接被写体画像をそれぞれ示している。Among a pair of direct subject images and two indirect subject images GRMR, GRML, GLML, and GLMR separated by the subject image separation unit in FIG. FIG. 4A is a diagram illustrating a direct subject image, where FIG. 5A illustrates a direct subject image captured by the left camera, and FIG. 5B illustrates a direct subject image captured by the right camera. 図2の奥行き値算出部による奥行き値の算出に用いられる、図10の互いに類似する一対の直接被写体画像の間の視差を説明する図である。It is a figure explaining the parallax between a pair of direct subject images similar to FIG. 10 used for the calculation of the depth value by the depth value calculation unit of FIG. 図2の奥行き値算出部による、視差とカメラの焦点距離および一対のカメラ間の距離に基づく奥行き値の算出方法を説明する図である。It is a figure explaining the calculation method of the depth value based on the parallax, the focal distance of a camera, and the distance between a pair of cameras by the depth value calculation part of FIG. 図2の奥行き値算出部により求められた互いに類似する一対の直接被写体画像間の奥行き値とその直接被写体画像とから生成され且つ保存される、その奥行き値が小さくなるほど白くなる(明るくなる)ように処理された右カメラの直接被写体画像に基づくグレイスケール画像を示している。A depth value between a pair of similar direct subject images obtained by the depth value calculation unit shown in FIG. 2 and the direct subject image is generated and stored. The smaller the depth value is, the whiter (brighter) it is. The gray scale image based on the direct subject image of the right camera processed in FIG. 図2の仮想視点画像生成部により生成される仮想視点画像の生成手順を説明する図である。It is a figure explaining the production | generation procedure of the virtual viewpoint image produced | generated by the virtual viewpoint image production | generation part of FIG. 図14の生成手順に従って視点が60度である場合に生成したときの、実験設備の相互配置位置と得られた仮想視点画像とを示す図である。It is a figure which shows the mutual arrangement position of an experimental installation, and the obtained virtual viewpoint image when it produces | generates when a viewpoint is 60 degree | times according to the production | generation procedure of FIG. 図14の生成手順に従って視点が30度である場合に生成したときの、実験設備の相互配置位置と得られた仮想視点画像とを示す図である。It is a figure which shows the mutual arrangement position of an experimental installation, and the obtained virtual viewpoint image when it produces | generates when a viewpoint is 30 degree | times according to the production | generation procedure of FIG. 図1の画像処理コンピュータの演算制御作動の要部を説明するフローチャートである。2 is a flowchart for explaining a main part of an arithmetic control operation of the image processing computer of FIG. 1.

以下、本発明の一実施例を、概念的な図面を参照しつつ説明する。なお、各図は概念図であるから、細部の機械的構造や各部の寸法比等は必ずしも正確に描かれていない。   Hereinafter, an embodiment of the present invention will be described with reference to conceptual drawings. In addition, since each figure is a conceptual diagram, the mechanical structure of a detail, the dimensional ratio of each part, etc. are not necessarily drawn correctly.

図1は、本発明の一実施例として、最も簡単な光学系の一つである2台のカメラCR およびCL と2枚のミラーMR およびML とを有する自由視点画像生成装置10の構成を平面視で説明する概略図である。図1において、自由視点画像生成装置10は、被写体12を撮像するために被写体12の手前に配置された左右一対のカメラCR およびCL と、その被写体12の後方に配置されたその被写体12からの光をそれら左右一対のカメラCR およびCL に向かってそれぞれ反射する左右一対のミラーMR およびML と、カメラCR およびCL によって撮像された画像を表わす画像信号がカメラCR およびCL からそれぞれ入力されると、予め記憶されたプログラムに従ってそれらの画像信号を処理して自由視点画像を生成する画像処理コンピュータ(画像処理演算制御装置)14と、自由視点の位置或いは角度を指定する操作信号などを画像処理コンピュータ14へ入力するキーボードなどの入力操作装置16と、画像処理コンピュータ14から出力された画像を表示するカラー液晶モニタなどの画像表示装置18とを備えている。   FIG. 1 is a plan view of a configuration of a free viewpoint image generation apparatus 10 having two cameras CR and CL and two mirrors MR and ML, which is one of the simplest optical systems, as an embodiment of the present invention. It is the schematic demonstrated visually. In FIG. 1, a free viewpoint image generation apparatus 10 includes a pair of left and right cameras CR and CL disposed in front of the subject 12 for imaging the subject 12, and the subject 12 disposed behind the subject 12. When a pair of left and right mirrors MR and ML that reflect light toward the pair of left and right cameras CR and CL, respectively, and image signals representing images taken by the cameras CR and CL are input from the cameras CR and CL, respectively. An image processing computer (image processing arithmetic control device) 14 that processes those image signals according to a program stored in advance to generate a free viewpoint image, and an operation signal that specifies the position or angle of the free viewpoint, etc. Output from the input operation device 16 such as a keyboard and the image processing computer 14. And an image display device 18 such as a color liquid crystal monitor for displaying an image.

上記左右一対のカメラCR およびCL は、水平方向すなわちx方向に所定の間隔Tだけ離隔させられ、水平方向且つx方向に直交するz方向に略平行な光軸をそれぞれ備えている。また、右カメラCR は被写体12と右ミラーMR および左ミラーML の少なくとも一部とが撮像視野内に位置するように配置され、左カメラCL は少なくとも被写体12と右ミラーMR および左ミラーML の少なくとも一部とが撮像視野内に位置するように配置されている。   The pair of left and right cameras CR and CL are each provided with an optical axis that is spaced apart by a predetermined interval T in the horizontal direction, that is, the x direction, and is substantially parallel to the horizontal direction and the z direction perpendicular to the x direction. The right camera CR is arranged so that the subject 12 and at least a part of the right mirror MR and the left mirror ML are located within the imaging field of view, and the left camera CL is at least the subject 12, at least the right mirror MR and the left mirror ML. A part is arranged so as to be located in the imaging field of view.

左右一対のミラーMR およびML は、垂直な方向すなわちy方向に略平行な平面鏡であって、被写体12からの光がカメラCR およびCL に向かって反射する反射点が略中央となるように略同じ角度でz方向に対して傾斜させられている。図1には、一対の仮想カメラVCRRおよびVCLRが、右ミラーMR における左右一対のカメラCR およびCL の鏡像位置に示されており、また、一対の仮想カメラVCRLおよびVCLLが、左ミラーMR における左右一対のカメラCR およびCL の鏡像位置に示されている。   The pair of left and right mirrors MR and ML are plane mirrors that are substantially parallel to the vertical direction, that is, the y direction, and are substantially the same so that the reflection point at which the light from the subject 12 is reflected toward the cameras CR and CL is approximately the center. It is inclined with respect to the z direction at an angle. FIG. 1 shows a pair of virtual cameras VCRR and VCLR at the mirror image positions of a pair of left and right cameras CR and CL on the right mirror MR, and a pair of virtual cameras VCRL and VCLL on the left and right sides of the left mirror MR. It is shown in the mirror image position of a pair of cameras CR and CL.

カメラCR およびCL は、たとえば、レンズにより結像される位置に配置されたCCD素子などから成る映像センサと、その映像センサからの信号をA/D変換して所定のデジタル画像信号に変換する画像処理チップとを含み、所定の画素数m×nの画素毎の濃淡をRGB毎に示す画像信号IMi (m,n)(但し、i=R,G,B)をそれぞれ画像処理コンピュータ14へ出力する。たとえば画素(ピクセル)数が480×640である画像であれば、m=1〜480、n=1〜640の範囲の値となる。   The cameras CR and CL are, for example, an image sensor composed of a CCD element or the like arranged at a position where an image is formed by a lens, and an image for A / D converting a signal from the image sensor into a predetermined digital image signal. The image signal IMi (m, n) (where i = R, G, B) indicating the density of each pixel having a predetermined number m × n of pixels is output to the image processing computer 14. To do. For example, in the case of an image having 480 × 640 pixels, the values are in the range of m = 1 to 480 and n = 1 to 640.

右カメラCR により撮像された撮像画像ER は、図3に示されている。この右カメラCR により撮像された撮像画像ER には、左右のミラーMR およびML を含む背景画像HR と、被写体12を表わす直接被写体画像GR と、右ミラーMR を通した間接被写体画像GRMR と、左ミラーML を通した間接被写体画像GRML とが含まれている。また、左カメラCL により撮像された撮像画像EL は、図3を左右反転させた画像となる。この左カメラCL により撮像された撮像画像EL には、左右のミラーMR およびML を含む背景画像HL と、被写体12を表わす直接被写体画像GL と、左ミラーML を通した間接被写体画像GLML と、右ミラーMR を通した間接被写体画像GLMR とが含まれている。図3には、右カメラCL により撮像された撮像画像EL に対応する符号を括弧内に示している。   A captured image ER captured by the right camera CR is shown in FIG. The captured image ER captured by the right camera CR includes a background image HR including left and right mirrors MR and ML, a direct subject image GR representing the subject 12, an indirect subject image GRMR through the right mirror MR, Indirect subject image GRML through mirror ML is included. The captured image EL captured by the left camera CL is an image obtained by horizontally inverting FIG. The captured image EL captured by the left camera CL includes a background image HL including left and right mirrors MR and ML, a direct subject image GL representing the subject 12, an indirect subject image GLML through the left mirror ML, Indirect subject image GLMR through mirror MR is included. In FIG. 3, the reference numerals corresponding to the captured image EL captured by the right camera CL are shown in parentheses.

図2は、画像処理コンピュータ14の画像処理制御機能の要部を説明する機能ブロック線図である。図2において、画像処理コンピュータ14は、画像処理演算制御装置として機能するものであり、被写体画像分離部30、カメラ位置算出部32、奥行き値算出部34、仮想視点画像生成部36を、備えている。   FIG. 2 is a functional block diagram for explaining a main part of the image processing control function of the image processing computer 14. 2, the image processing computer 14 functions as an image processing calculation control device, and includes a subject image separation unit 30, a camera position calculation unit 32, a depth value calculation unit 34, and a virtual viewpoint image generation unit 36. Yes.

被写体画像分離部30は、カメラCR およびCL からのそれぞれの撮像画像ER およびEL 内から、それらカメラCR およびCL により直接撮像された被写体12を表わす直接被写体画像GR およびGL とそれらのカメラCR およびCL により右ミラーMR を通して間接的に撮像された間接被写体画像GRMR およびGLMR と、左ミラーML を通して間接的に撮像された間接被写体画像GRML およびGLML とを分離する。すなわち、被写体画像分離部30は、図3に示す撮像画像ER (EL )を表わす画像信号から、予め撮像して記憶した図4に示す背景画像HR (HL )を表わす画像信号を差し引くことで、図5に示す、直接被写体画像GR (GL )、間接被写体画像GRMR (GLMR )、GRML (GLML )を表わす画像信号を算出(抽出)する。次いで、被写体画像分離部30は、直接被写体画像GR (GL )を表わす画像信号、間接被写体画像GRMR (GLMR )を表わす画像信号、および間接被写体画像GRML (GLML )を表わす画像信号のそれぞれの画素の集合にそれぞれラベリングを行い、それらのうち、画像を構成する画素数(ピクセル数)の最大数のもの或いは画像の高さ或いは面積が最大のものを直接被写体画像GR (GL )を表わす画像信号として決定し、残りの間接被写体画像GRMR (GLMR )を表わす画像信号および間接被写体画像GRML (GLML )を表わす画像信号のうち、右側に位置するものを間接被写体画像GRMR (GLMR )として決定し、左側に位置するものを間接被写体画像GRML (GLML )を表わす画像信号として決定する。   The subject image separation unit 30 directly captures subject images GR and GL representing the subject 12 directly captured by the cameras CR and CL from the captured images ER and EL from the cameras CR and CL and the cameras CR and CL. Thus, the indirect subject images GRMR and GLMR indirectly imaged through the right mirror MR and the indirect subject images GRML and GLML indirectly imaged through the left mirror ML are separated. That is, the subject image separation unit 30 subtracts the image signal representing the background image HR (HL) shown in FIG. 4 that has been captured and stored in advance from the image signal representing the captured image ER (EL) shown in FIG. Image signals representing the direct subject image GR (GL), the indirect subject image GRMR (GLMR), and GRML (GLML) shown in FIG. 5 are calculated (extracted). Next, the subject image separation unit 30 outputs each pixel of the image signal representing the direct subject image GR (GL), the image signal representing the indirect subject image GRMR (GLMR), and the image signal representing the indirect subject image GRML (GLML). Each set is labeled, and among them, the image having the maximum number of pixels constituting the image (the number of pixels) or the image having the maximum height or area is directly used as an image signal representing the subject image GR (GL). Of the image signal representing the remaining indirect subject image GRMR (GLMR) and the image signal representing the indirect subject image GRML (GLML), the one located on the right side is determined as the indirect subject image GRMR (GLMR) and The position is determined as an image signal representing the indirect subject image GRML (GLML).

図6では、上記被写体画像分離部30の上記画像分離処理により得られた、直接被写体画像GR 、間接被写体画像GRMR 、間接被写体画像GRML が、右カメラCR 、右ミラーMR により形成される右カメラCR に関連した仮想カメラVCRR、左ミラーML により形成される右カメラCR に関連した仮想カメラVCRLに対応づけて、それぞれ示されている。また、同様に、上記被写体画像分離部30の上記画像分離処理により得られた、直接被写体画像GL 、間接被写体画像GLMR 、間接被写体画像GLML が、左カメラCL 、右ミラーMR により形成される左カメラCL に関連した仮想カメラVCLR、左ミラーML により形成される左カメラCL に関連した仮想カメラVCLLに対応づけて、それぞれ示されている。   In FIG. 6, the direct camera image GR, the indirect camera image GRMR, and the indirect camera image GRML obtained by the image separation processing of the camera image separation unit 30 are formed by the right camera CR and the right mirror MR. Are associated with the virtual camera VCRL related to the right camera CR formed by the left mirror ML. Similarly, the left camera in which the direct subject image GL, the indirect subject image GLMR, and the indirect subject image GLML obtained by the image separation process of the subject image separation unit 30 are formed by the left camera CL and the right mirror MR. A virtual camera VCLR related to CL and a virtual camera VCLL related to the left camera CL formed by the left mirror ML are shown respectively.

図2に戻って、カメラ位置算出部32は、カメラCR およびCL の位置と右ミラーMR および左ミラーML の位置とに基づいて、右ミラーMR における左右一対のカメラCR およびCL の鏡像位置に位置する仮想カメラVCRRおよびVCLRの位置と、左ミラーML における左右一対のカメラCR およびCL の鏡像位置に位置する仮想カメラVCRLおよびVCLLの位置とをそれぞれ算出する。すなわち、カメラ位置算出部32は、先ず、右ミラーMR および左ミラーML の形状が既知である場合に、それらの右ミラーMR および左ミラーML の枠が、撮像画像ER およびEL 内においてどのように写っているかの長さおよび位置に基づいて、幾何的な関係を利用して、カメラCR およびCL の内部パラメータ(焦点距離fおよび歪み係数)と外部パラメータ(カメラCR およびCL のx−y−z座標系の三次元空間における位置PCR(x,y,z)およびPCL(x,y,z)、カメラCR およびCL の光軸の方向)とを算出する。   Returning to FIG. 2, the camera position calculation unit 32 is positioned at the mirror image position of the pair of left and right cameras CR and CL in the right mirror MR based on the positions of the cameras CR and CL and the positions of the right mirror MR and left mirror ML. And the positions of the virtual cameras VCRL and VCLL positioned at the mirror image positions of the pair of left and right cameras CR and CL in the left mirror ML, respectively. That is, first, when the shapes of the right mirror MR and the left mirror ML are known, the camera position calculation unit 32 determines how the frames of the right mirror MR and the left mirror ML are in the captured images ER and EL. Based on the length and position of what is captured, geometrical relationships are used to determine the internal parameters of camera CR and CL (focal length f and distortion factor) and external parameters (xyz of cameras CR and CL). A position PCR (x, y, z) and PCL (x, y, z) in the three-dimensional space of the coordinate system, and directions of the optical axes of the cameras CR and CL are calculated.

次いで、カメラ位置算出部32は、右ミラーMR および左ミラーML のそれぞれの対角線の交点である中心点AR およびAL をそれぞれ求め、前記算出したカメラCR およびCL のxyz三次元空間における位置PCR(x,y,z)およびPCL(x,y,z)から右ミラーMR および左ミラーML のそれぞれの中心点AR およびAL までの三次元ベクトルVRRA 、VRLA 、VLRA 、VLLA をそれぞれ算出し、それらの三次元ベクトルVRRA 、VRLA 、VLRA 、VLLA の左ミラーML および右ミラーMR の面で対称な対称ベクトルVRRB 、VRLB 、VLRB 、VLLB をそれぞれ算出し、それらの対称ベクトルVRRB 、VRLB 、VLRB 、VLLB の先端位置を、仮想カメラVCRR、VCRL、VCLR、VCLLの位置として決定する。これらの仮想カメラVCRR、VCRL、VCLR、およびVCLLの位置は、カメラCR およびCL のxyz三次元空間における位置PCR(x,y,z)およびPCL(x,y,z)と同様に、三次元空間における位置PVCRR(x,y,z)、PVCRL(x,y,z)、PVCLR(x,y,z)、およびPVCLL(x,y,z)として示される。   Next, the camera position calculation unit 32 obtains center points AR and AL that are intersections of the diagonal lines of the right mirror MR and the left mirror ML, respectively, and calculates the position PCR (xx) of the calculated cameras CR and CL in the xyz three-dimensional space. , Y, z) and PCL (x, y, z) to calculate the three-dimensional vectors VRRA, VRLA, VRLA and VLLA from the center points AR and AL of the right mirror MR and left mirror ML, respectively, Symmetric vectors VRRB, VRLB, VRLB, and VRLB are calculated on the planes of the left mirror ML and the right mirror MR of the original vectors VRRA, VRLA, VRLA, and VLLA, respectively, and the tip positions of the symmetrical vectors VRRB, VRLB, VRLB, and VRLB are calculated. Are determined as the positions of the virtual cameras VCRR, VCRL, VCLR, and VCLL. The positions of these virtual cameras VCRR, VCRL, VCLR, and VCLL are three-dimensional, similar to the positions PCR (x, y, z) and PCL (x, y, z) of the cameras CR and CL in the xyz three-dimensional space. The positions PVCRR (x, y, z), PVCRL (x, y, z), PVCLR (x, y, z), and PVCLL (x, y, z) in space are indicated.

図7乃至図9は、仮想カメラVCRRに代表させてその位置を決定するプロセスを説明するものであり、図7は右ミラーMR の枠を含む右カメラCR の撮像画像ER を示し、図8は、形状が既知の右ミラーMR の枠が、撮像画像ER 内においてどのように写っているかの長さおよび位置に基づいて、幾何的な関係を利用して算出した右ミラーMR の中心点AR の位置を示し、図9は右カメラCR の位置からその中心点AR の位置までの三次元ベクトルVRRA とその右ミラーMR の面で対称な対称ベクトルVRRB と、その対称ベクトルVRRB 先端に位置する仮想カメラVCRRとを示している。   7 to 9 illustrate the process of determining the position of the virtual camera VCRR as a representative. FIG. 7 shows a captured image ER of the right camera CR including the frame of the right mirror MR, and FIG. The center point AR of the right mirror MR calculated using the geometric relationship based on the length and position of how the frame of the right mirror MR whose shape is known is reflected in the captured image ER. FIG. 9 shows a three-dimensional vector VRRA from the position of the right camera CR to the position of the center point AR, a symmetric vector VRRB that is symmetric in the plane of the right mirror MR, and a virtual camera located at the tip of the symmetric vector VRRB. VCRR.

奥行き値算出部34は、カメラCR およびCL の位置および前記仮想カメラVCRR、VCLR、VCRL、VCLLとの位置と、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR のうちの対を成す画像間の局部的な相互に関連する部分すなわち濃度および色の相関の高い部分の相対位置とに基づいて、各対を成す画像間毎に奥行き値Zをそれぞれ算出する。すなわち、奥行き値算出部34は、それまで取得した被写体12の画像である、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR のうちから大きさや形状の上で相対的に相関の高い類似する画像を2つ選択する。これにより、本実施例では、カメラCR およびCL により直接的に撮像された直接被写体画像GR およびGL と、仮想カメラVCRRおよびVCLRにより撮像された間接被写体画像GRMR およびGLMR と、仮想カメラVCRLおよびVCLLにより撮像された間接被写体画像GRML およびGLML との3対の画像が選択される。   The depth value calculation unit 34 is a pair of the positions of the cameras CR and CL and the positions of the virtual cameras VCRR, VCLR, VCRL, and VCLL, and the direct subject images GR and GL and the indirect subject images GRMR, GRML, GLML, and GLMR. Depth value Z is calculated for each pair of images based on the locally correlated portions between the images forming the image, that is, the relative positions of the highly correlated portions of density and color. That is, the depth value calculation unit 34 correlates relatively in size and shape from among the direct subject images GR and GL and the indirect subject images GRMR, GRML, GLML, and GLMR, which are images of the subject 12 acquired so far. Select two similar images with high. Thus, in this embodiment, the direct subject images GR and GL directly captured by the cameras CR and CL, the indirect subject images GRMR and GLMR captured by the virtual cameras VCRR and VCLR, and the virtual cameras VCRL and VCLL are used. Three pairs of images of the captured indirect subject images GRML and GLML are selected.

選択された3対の画像毎に、奥行き値Zが同様に算出される。以下においては、図10の(a)に示す直接被写体画像GL と図10の(b)に示す直接被写体画像GR とが選択された場合について代表的に説明する。対となる画像が選択されることに続いて、奥行き値算出部34は、直接被写体画像GL および直接被写体画像GR の一方の画像中の1画素(1ピクセル)毎の単位で画像中の同じ高さ位置において濃淡或いは色度において相関係数の高いものを他方の画像中から探索(ピクセルマッチング)し、或いは一方の画像中の1群の画素(たとえば3×3の9ピクセル)毎の単位で、画像中の同じ高さ位置(y位置)において濃淡或いは色度において相関係数の高いものを他方の画像中から探索し、最も相関係数の高いものを決定し、視差dを算出する。たとえば、相互に最も相関の高い関係にある一対の画素が直接被写体画像GL の画像平面内におけるn方向(x方向)の位置がXl 、直接被写体画像GR の画像平面内におけるn方向の位置がXr であるとすると、図11に示す視差d(=Xl −Xr )が算出され、図12に示す幾何学的な関係から、その視差dと、予め求められたカメラCR およびCL の焦点距離fおよびf(f=f=f)、カメラCR およびCL の間のx方向の距離Tとに基づいて奥行き値Z(=(f×T)/d)が算出される。 The depth value Z is similarly calculated for each of the three selected pairs of images. In the following, a case where the direct subject image GL shown in FIG. 10A and the direct subject image GR shown in FIG. Following the selection of the paired images, the depth value calculation unit 34 uses the same height in the image in units of one pixel (one pixel) in one of the direct subject image GL and the direct subject image GR. Search for one having a high correlation coefficient in lightness or chromaticity in the other position (pixel matching) from the other image, or in units of a group of pixels (for example, 3 × 3 9 pixels) in one image The image having the highest correlation coefficient at the same height position (y position) in the image is searched from the other image, the one having the highest correlation coefficient is determined, and the parallax d is calculated. For example, a pair of pixels having the highest correlation with each other has a position Xl in the n direction (x direction) in the image plane of the direct subject image GL and a position in the n direction in the image plane of the direct subject image GR is Xr. 11 is calculated, and the parallax d and the focal lengths f R of the cameras CR and CL obtained in advance from the geometric relationship shown in FIG. 12 are calculated. And a depth value Z (= (f × T) / d) is calculated based on f L (f R = f L = f) and a distance T in the x direction between the cameras CR and CL.

図11は、直接被写体画像GL と直接被写体画像GR との間の視差dを説明するものである。図11において、上記のように、相互に最も相関の高い関係にある一対の画素が直接被写体画像GL の画像平面内におけるn方向(x方向)の位置がXl 、直接被写体画像GR の画像平面内におけるn方向の位置がXr である場合に、直接被写体画像GL と直接被写体画像GR とを左上の基準点が同じとなるように重ねて、直接被写体画像GL の画像平面内におけるn方向(x方向)の位置Xl を、直接被写体画像GR の画像平面内の点Pとし、その直接被写体画像GR の画像平面内におけるその点Pと直接被写体画像GR の画像平面内におけるn方向の位置Xr との間の相対位置である距離が、視差dとして示される。   FIG. 11 illustrates the parallax d between the direct subject image GL and the direct subject image GR. In FIG. 11, as described above, the pair of pixels having the highest correlation with each other has the position in the n direction (x direction) in the image plane of the direct subject image GL as Xl, and in the image plane of the direct subject image GR. When the position in the n direction at Xr is Xr, the direct subject image GL and the direct subject image GR are overlapped so that the upper left reference point is the same, and the direct direction of the subject image GL in the image plane (x direction) ) Is defined as a point P in the image plane of the direct subject image GR, and between the point P in the image plane of the direct subject image GR and the position Xr in the n direction in the image plane of the direct subject image GR. The distance that is the relative position is indicated as parallax d.

図12は、カメラCR およびCL をピンホールカメラとしてモデル化し、一方の直接被写体画像GL 中の1つの画素を基準として他方の直接被写体画像GR の同じ高さ位置Yの画像を探索したときの例を示している。図12においては、たとえば直接被写体画像GL 中の1つの画素IM(m,nXl)と直接被写体画像GR の画素IM(m,nXr)とが最大の相関を示し、一方の画素IM(m,nXl) の直接被写体画像GL の画像平面内のx方向位置をXl 、他方の画素IM(m,nXr)の直接被写体画像GR の画像平面内のx方向位置をXr としたときの幾何学的関係が示されている。ここで、カメラCR のピンホールPHR と画素IM(m,nXr)とを結ぶ直線LR と、カメラCL のピンホールPHL と画素IM(m,nXl)とを結ぶ直線LL と、ピンホールPHR とピンホールPHL を結ぶ直線Tにより、頂点Q、底辺T、および高さZを有する三角形が形成される。この三角形を180度回転させてその頂点QをピンホールPHL に一致させて1点鎖線に示す三角形とすると、底辺Tおよび高さZを有する三角形と底辺(Xl −Xr )および高さfを有する三角形とは相似の関係を有することから、T/Z=f/(Xl −Xr )という関係が成立して、上記のように奥行き値Zが算出されることが明らかである。 FIG. 12 shows an example in which the cameras CR and CL are modeled as pinhole cameras, and an image at the same height position Y of the other direct subject image GR is searched with reference to one pixel in one direct subject image GL. Is shown. In FIG. 12, for example, one pixel IM (m Y , n Xl ) in the direct subject image GL and the pixel IM (m Y , n Xr ) in the direct subject image GR show the maximum correlation, and one pixel IM The x-direction position in the image plane of the direct subject image GL of (m Y , n Xl ) is Xl, and the x-direction position in the image plane of the direct subject image GR of the other pixel IM (m Y , n Xr ) is Xr and The geometric relationship is shown. Here, a straight line LR connecting the pin hole PHR of the camera CR and the pixel IM (m Y , n Xr ), a straight line LL connecting the pin hole PHL of the camera CL and the pixel IM (m Y , n Xl ), and a pin A straight line T connecting the hole PHR and the pinhole PHL forms a triangle having a vertex Q, a base T, and a height Z. If this triangle is rotated 180 degrees so that its apex Q coincides with the pinhole PHL to form a triangle indicated by a one-dot chain line, a triangle having a base T and a height Z, a base (X1-Xr), and a height f are provided. Since it has a similar relationship with the triangle, it is clear that the relationship T / Z = f / (X1-Xr) is established and the depth value Z is calculated as described above.

このようにして画素毎に算出された奥行き値Zは、平面画像すなわち2次元画像である直接被写体画像GL 、直接被写体画像GR 毎に反映させられることにより、3次元の奥行き画像としてのグレイスケール画像GDが生成されてそれが保存される。図13は、その上段に示す1対の直接被写体画像GL 、直接被写体画像GR から得られた奥行き値Zを直接被写体画像GR に反映させたグレイスケール画像GDを下段に例示している。このグレイスケール画像GDは、黒くなるほど遠く(奥行き値Zが大きく)なり、白くなるほど近く(奥行き値Zが小さく)なることを示している。   The depth value Z calculated for each pixel in this way is reflected on each of the planar image, that is, the direct subject image GL that is a two-dimensional image, and the direct subject image GR, thereby obtaining a grayscale image as a three-dimensional depth image. A GD is generated and saved. FIG. 13 illustrates a pair of direct subject images GL shown in the upper part, and a gray scale image GD in which the depth value Z obtained from the direct subject image GR is directly reflected in the subject image GR. This gray scale image GD shows that the closer to black (the depth value Z is larger), the closer to white (the depth value Z is small).

間接被写体画像GRMR 、GRML 、GLML 、GLMR のうち、大きさや形状の上で相互に相関の高い一対の間接被写体画像GRMR およびGLMR と一対の間接被写体画像GRML およびGLML について、上記と同様にして奥行き値Zがそれぞれ決定され、奥行き値Zを反映させた3次元の奥行き画像としてのグレイスケール画像GDが生成されてそれぞれ保存される。この場合の幾何学的関係は、カメラ位置算出部32により算出された仮想カメラVCRRの位置PVCRR(x,y,z)、仮想カメラVCRLの位置PVCRL(x,y,z)、仮想カメラVCLRの位置PVCLR(x,y,z)、および、仮想カメラVCLLの位置PVCLL(x,y,z)が、基準として用いられる。   Of the indirect subject images GRMR, GRML, GLML, and GLMR, the depth values of the pair of indirect subject images GRMR and GLMR and the pair of indirect subject images GRML and GLML that are highly correlated with each other in size and shape are the same as described above. Each Z is determined, and a gray scale image GD as a three-dimensional depth image reflecting the depth value Z is generated and stored. The geometric relationship in this case is as follows: the virtual camera VCRR position PVCRR (x, y, z) calculated by the camera position calculation unit 32, the virtual camera VCRL position PVCRL (x, y, z), and the virtual camera VCLR. The position PVCLR (x, y, z) and the position PVCLL (x, y, z) of the virtual camera VCLL are used as a reference.

図2に戻って、仮想視点画像生成部36は、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR と、奥行き値算出部34により算出された奥行き値Zとに基づいて、オペレータにより入力された所望の仮想視点Kから見た被写体12の仮想視点画像GK を、たとえばイメージベースレンダリングやモデルベースレンダリングなどとして知られる既知のレンダリング(表示)アルゴリズムを用いて生成する。イメージベースレンダリングは、複数の3次元画像情報を元に、所望の仮想視点位置の3次元画像を直接生成するものであり、モデルベースレンダリングは、複数の3次元画像情報から多数のポリゴン(多角形)などの集合による3次元モデルをそれぞれ生成し、その複数の3次元モデルを所望の仮想視点位置から見た画像を描画するものである。   Returning to FIG. 2, the virtual viewpoint image generation unit 36 is based on the direct subject images GR and GL and the indirect subject images GRMR, GRML, GLML, and GLMR and the depth value Z calculated by the depth value calculation unit 34. A virtual viewpoint image GK of the subject 12 viewed from a desired virtual viewpoint K input by an operator is generated using a known rendering (display) algorithm known as, for example, image-based rendering or model-based rendering. Image-based rendering directly generates a three-dimensional image at a desired virtual viewpoint position based on a plurality of pieces of three-dimensional image information. Model-based rendering uses a large number of polygons (polygons) from a plurality of pieces of three-dimensional image information. ) And the like are respectively generated, and an image obtained by viewing the plurality of three-dimensional models from a desired virtual viewpoint position is drawn.

図14は、仮想視点画像生成部36において実行される上記イメージベースレンダリングによる自由視点画像の生成を説明する図である。図14では、複数種類の3次元の奥行き画像としてのグレイスケール画像GD毎に、3Dワーピング処理を用いて処理することで、その奥行き値Zを用いて所定の三次元空間位置HSにおける画素位置がそれぞれ算出される。それら三次元位置が算出された画素群は立体である被写体12を反映するので、被写体12の中心を通るy軸に平行な垂直線まわりであって左カメラCL と右カメラCR との間からの回転角度である仮想視点角度θに設置された自由視点カメラCF から見たときの画像がそれら三次元位置が算出された画素群に基づいて算出される。任意の仮想視点角度θにおいて三次元空間位置HSに向かって設置された自由視点カメラCF から見た画像は、上記三次元位置が算出された画素群がその自由視点カメラCF の位置およびその任意の仮想視点角度θの座標系(x’−y’−z’)を基準に画素群の位置が変換(投影)されることで、任意の仮想視点角度θから見た被写体12の仮想視点画像GK が生成される。   FIG. 14 is a diagram illustrating generation of a free viewpoint image by the image-based rendering executed in the virtual viewpoint image generation unit 36. In FIG. 14, for each grayscale image GD as a plurality of types of three-dimensional depth images, processing is performed using 3D warping processing, so that the pixel position at a predetermined three-dimensional spatial position HS is determined using the depth value Z. Each is calculated. The pixel group whose three-dimensional position is calculated reflects the subject 12 which is a three-dimensional object. Therefore, the pixel group around the vertical line passing through the center of the subject 12 and parallel to the y-axis is between the left camera CL and the right camera CR. An image viewed from a free viewpoint camera CF installed at a virtual viewpoint angle θ, which is a rotation angle, is calculated based on the pixel group whose three-dimensional position is calculated. The image viewed from the free viewpoint camera CF installed at the arbitrary virtual viewpoint angle θ toward the three-dimensional space position HS is the pixel group from which the three-dimensional position is calculated, and the position of the free viewpoint camera CF and its arbitrary position. By converting (projecting) the position of the pixel group based on the coordinate system (x′−y′−z ′) of the virtual viewpoint angle θ, the virtual viewpoint image GK of the subject 12 viewed from an arbitrary virtual viewpoint angle θ. Is generated.

図15は、仮想視点角度θが60度である場合の、被写体12、左カメラCL および右カメラCR 、左ミラーML および右ミラーMR の相互の幾何的配置を上段に、仮想視点画像GK60を下段に示す図である。また、図16は、仮想視点角度θが30度である場合の、被写体12、左カメラCL および右カメラCR 、左ミラーML および右ミラーMR の相互の幾何的配置を上段に、仮想視点画像GK30を下段に示す図である。なお、図15および図16の寸法を示す数字の単位はmmである。 FIG. 15 shows a virtual viewpoint image GK 60 with the geometrical arrangement of the subject 12, the left camera CL and the right camera CR, the left mirror ML and the right mirror MR at the upper stage when the virtual viewpoint angle θ is 60 degrees. It is a figure shown in the lower stage. FIG. 16 shows the virtual viewpoint image GK with the geometrical arrangement of the subject 12, the left camera CL and the right camera CR, the left mirror ML and the right mirror MR in the upper stage when the virtual viewpoint angle θ is 30 degrees. it is a diagram showing a 30 to lower. The unit of the numbers indicating the dimensions in FIGS. 15 and 16 is mm.

図17は、画像処理コンピュータ14による画像処理制御作動の要部を説明するフローチャートである。この画像処理制御作動は、右カメラCR および左カメラCL による同時撮像に応答して自動的に、或いはその同時撮像後のマニュアル始動操作に応答して開始される。図17のステップS1(以下、ステップを省略する)では、右カメラCR および左カメラCL により撮像された撮像画像ER およびEL が所定の記憶領域内に読み込まれる。次いで、被写体画像分離部30に対応するS2において、それぞれの撮像画像ER およびEL 内から、カメラCR およびCL により直接撮像された被写体12を表わす直接被写体画像GR およびGL とそれらのカメラCR およびCL により右ミラーMR を通して間接的に撮像された間接被写体画像GRMR およびGLMR と、左ミラーML を通して間接的に撮像された間接被写体画像GLML およびGRML とが、上記撮像画像ER およびEL と背景画像HR およびHL との差分が算出されることで分離される。   FIG. 17 is a flowchart for explaining a main part of an image processing control operation by the image processing computer 14. This image processing control operation is started automatically in response to simultaneous imaging by the right camera CR and left camera CL or in response to a manual start operation after the simultaneous imaging. In step S1 of FIG. 17 (hereinafter, step is omitted), captured images ER and EL captured by the right camera CR and the left camera CL are read into a predetermined storage area. Next, in S2 corresponding to the subject image separation unit 30, the direct subject images GR and GL representing the subject 12 directly captured by the cameras CR and CL and the cameras CR and CL from the respective captured images ER and EL. The indirect subject images GRMR and GLMR that are indirectly imaged through the right mirror MR and the indirect subject images GLML and GRML that are indirectly imaged through the left mirror ML are the above-described captured images ER and EL and the background images HR and HL, It is separated by calculating the difference of.

続いて、カメラ位置算出部32に対応するS3では、カメラCR およびCL の位置と右ミラーMR および左ミラーML の位置とに基づいて、右ミラーMR における左右一対のカメラCR およびCL の鏡像位置に位置する仮想カメラVCRRおよびVCLRの位置と、左ミラーML における左右一対のカメラCR およびCL の鏡像位置に位置する仮想カメラVCRLおよびVCLLの位置とが、それぞれ算出される。   Subsequently, in S3 corresponding to the camera position calculation unit 32, the mirror image positions of the pair of left and right cameras CR and CL in the right mirror MR are determined based on the positions of the cameras CR and CL and the positions of the right mirror MR and the left mirror ML. The positions of the virtual cameras VCRR and VCLR located and the positions of the virtual cameras VCRL and VCLL located at the mirror image positions of the pair of left and right cameras CR and CL in the left mirror ML are calculated, respectively.

次に、奥行き値算出部34に対応するS4では、カメラCR およびCL の位置および仮想カメラVCRR、VCLR、VCRL、VCLLとの位置と、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR のうちの対を成す画像間の局部的な相互に関連する部分すなわち濃度および色の相関の高い部分の相対位置とに基づいて、各対を成す画像間毎に奥行き値Zがそれぞれ算出される。すなわち、それまで取得した被写体12の画像である、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR のうちから大きさや形状の上で相対的に相関の高い類似する画像がそれぞれ一対選択され、その選択された一対の画像毎に、一方の画像中の1画素(1ピクセル)毎の単位で画像中の同じ高さ位置において濃淡或いは色度において相関係数の高いものを他方の画像中から探索(ピクセルマッチング)し、或いは一方の画像中の1群の画素(たとえば3×3の9ピクセル)毎の単位で、画像中の同じ高さ位置(y位置)において濃淡或いは色度において相関係数の高いものを他方の画像中から探索し、最も相関係数の高いものが決定され、図11に示すような視差dが算出される。そして、図12に示す幾何学的な関係から、その視差dと、予め求められたカメラCR およびCL の焦点距離fおよびf(f=f=f)、カメラCR およびCL の間のx方向の距離Tとに基づいて奥行き値Z(=(f×T)/d)が算出される。このようにして画素毎に算出された奥行き値Zは、平面画像すなわち2次元画像である直接被写体画像GL 、直接被写体画像GR 毎に反映させられることにより、3次元の奥行き画像としてのグレイスケール画像GDが生成されてそれが保存される。 Next, in S4 corresponding to the depth value calculation unit 34, the positions of the cameras CR and CL and the positions of the virtual cameras VCRR, VCLR, VCRL, and VCLL, the direct subject images GR and GL, and the indirect subject images GRMR, GRML, and GLML Depth value Z is calculated for each pair of images based on the local interrelationship between the paired images of GLMR, that is, the relative position of the portion with high density and color correlation. Is done. That is, similar images having a relatively high correlation in size and shape are obtained from the direct subject images GR and GL and the indirect subject images GRMR, GRML, GLML, and GLMR, which are images of the subject 12 acquired so far. A pair is selected, and for each of the selected pair of images, one having a high correlation coefficient in lightness or chromaticity at the same height position in the image in units of one pixel (one pixel) in the other image. Search (pixel matching) from one of the images, or shade or color at the same height position (y position) in the image in units of one group of pixels (for example, 3 × 3 9 pixels) in one image The one with the highest correlation coefficient is searched from the other image, the one with the highest correlation coefficient is determined, and the parallax d as shown in FIG. 11 is calculated. Then, from the geometric relationship shown in FIG. 12, the parallax d and the focal lengths f R and f L (f R = f L = f) of the cameras CR and CL and the cameras CR and CL determined in advance. The depth value Z (= (f × T) / d) is calculated based on the distance T in the x direction. The depth value Z calculated for each pixel in this way is reflected on each of the planar image, that is, the direct subject image GL that is a two-dimensional image, and the direct subject image GR, thereby obtaining a grayscale image as a three-dimensional depth image. A GD is generated and saved.

次いで、仮想視点画像生成部36に対応するS5では、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR と、奥行き値算出部34により算出された奥行き値Zとに基づいて、オペレータにより入力された所望の仮想視点Kから見た被写体12の仮想視点画像GK が、たとえばイメージベースレンダリングやモデルベースレンダリングなどとして知られる既知のレンダリング(表示)アルゴリズムを用いて生成される。そして、S6では、その仮想視点画像GK が画像表示装置18に表示される。   Next, in S5 corresponding to the virtual viewpoint image generation unit 36, based on the direct subject image GR, GL and the indirect subject image GRMR, GRML, GLML, GLMR and the depth value Z calculated by the depth value calculation unit 34, A virtual viewpoint image GK of the subject 12 viewed from a desired virtual viewpoint K input by an operator is generated using a known rendering (display) algorithm known as, for example, image-based rendering or model-based rendering. In S6, the virtual viewpoint image GK is displayed on the image display device 18.

上述のように、本実施例の自由視点画像生成装置10によれば、画像処理コンピュータ(画像処理演算制御装置)14により、一対の左カメラCL および右カメラCR により直接撮像された一対の直接被写体画像GL および直接被写体画像GR と、それら左カメラCL および右カメラCR により一対の左ミラーML および右ミラーMR を介して間接的に撮像された二対の間接被写体画像GLML 、GRML および間接被写体画像GLMR 、GRMR と、それらの直接被写体画像GL 、GR および間接被写体画像GLML 、GRML 、GLMR 、GRMR から求められた奥行き値Zとに基づいて仮想視点画像GK が生成される。このような構成によれば、左カメラCL および右カメラCR の少なくとも1回の撮像により、直接被写体画像GL 、GR および間接被写体画像GLML 、GRML 、GLMR 、GRMR が瞬時に得られることから被写体12が不動の物体に限定されず、しかも、左ミラーML および右ミラーMR から手前位置に一対の左カメラCL および右カメラCR を設置すればよいので、設置が容易で小型且つ安価な自由視点画像生成装置10が得られる。   As described above, according to the free viewpoint image generation device 10 of the present embodiment, a pair of direct subjects captured directly by the image processing computer (image processing calculation control device) 14 by the pair of left camera CL and right camera CR. An image GL and a direct subject image GR, and two pairs of indirect subject images GLML, GRML and an indirect subject image GLMR captured indirectly by the left camera CL and right camera CR via a pair of left mirror ML and right mirror MR , GRMR, and the depth value Z obtained from these direct subject images GL, GR and indirect subject images GLML, GRML, GLMR, GRMR, a virtual viewpoint image GK is generated. According to such a configuration, the subject 12 is obtained because the direct subject image GL, GR and the indirect subject image GLML, GRML, GLMR, GRMR are instantaneously obtained by at least one imaging of the left camera CL and the right camera CR. It is not limited to an immovable object, and a pair of left camera CL and right camera CR need only be installed in front of left mirror ML and right mirror MR. 10 is obtained.

また、本実施例の自由視点画像生成装置10によれば、画像処理コンピュータ(画像処理演算制御装置)14は、左カメラCL および右カメラCR の撮像画像EL およびER 内から、左カメラCL および右カメラCR により直接撮像された直接被写体画像GL 、GR と左カメラCL および右カメラCR により左ミラーML および右ミラーMR を介して間接的に撮像された間接被写体画像GLML 、GRML 、GLMR 、GRMR とを分離する被写体画像分離部30と、左カメラCL および右カメラCR の位置および左ミラーML および右ミラーMR の位置に基づいて仮想カメラVCLL、VCRL、VCLR、VCRRの位置を算出するカメラ位置算出部32と、被写体画像分離部30によって分離された1対の直接被写体画像GL 、GR および二対間接被写体画像GLML 、GRML 、GLMR 、GRMR を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間の局部的に相互に関連する部分の相対位置とに基づいて奥行き値Zをそれぞれ算出する奥行き値算出部34と、その奥行き値算出部によりその奥行き値Zが算出された相互に対を成す被写体画像GL およびGR 、GLML およびGRML 、GLMR およびGRMR とその奥行き値Zとに基づいて仮想視点の角度θから見た被写体12の画像を生成する仮想視点画像生成部36とを、含む。これにより、画像処理コンピュータ14によって、被写体画像分離部30により分離された一対の直接被写体画像GL 、GR および二対間接被写体画像GLML 、GRML 、GLMR 、GRMR を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像と、それらの間の局部的に相互に関連する部分の相対位置とに基づいて奥行き値算出部34により算出された奥行き値Zとに基づいて仮想視点角度θから見た被写体12の仮想視点画像GK が生成されることから、直接被写体画像GL 、GR および間接被写体画像GLML 、GRML 、GLMR 、GRMR が瞬時に得られることから被写体12が不動の物体に限定されず、しかも、左ミラーML および右ミラーMR から手前位置に一対の左カメラCL および右カメラCR を設置すればよいので、設置が容易で小型且つ安価な自由視点画像生成装置10が得られる。   In addition, according to the free viewpoint image generation device 10 of the present embodiment, the image processing computer (image processing arithmetic control device) 14 detects the left camera CL and the right from within the captured images EL and ER of the left camera CL and the right camera CR. Indirect subject images GLML, GRML, GLMR, and GRMR captured indirectly by the camera CR and indirectly captured by the left camera CL and the right camera CR via the left mirror ML and the right mirror MR. A subject image separation unit 30 to be separated, and a camera position calculation unit 32 that calculates the positions of the virtual cameras VCLL, VCRL, VCLR, and VCRR based on the positions of the left camera CL and the right camera CR and the positions of the left mirror ML and the right mirror MR. And a pair of direct subject images GL, GR and two pairs of indirect subject images GLML, GRML, Depth value calculation units that respectively calculate depth values Z based on the relative positions of locally correlated portions between subject images that form a highly correlated pair among a plurality of subject images including LMR and GRMR 34 and the depth value Z calculated by the depth value calculation unit based on the paired subject images GL and GR, GLML and GRML, GLMR and GRMR, and the depth value Z, from the angle θ of the virtual viewpoint A virtual viewpoint image generation unit 36 that generates an image of the viewed subject 12. Accordingly, the image processing computer 14 mutually selects a plurality of subject images including the pair of direct subject images GL and GR and the two indirect subject images GLML, GRML, GLMR, and GRMR separated by the subject image separation unit 30. From the virtual viewpoint angle θ based on the subject image forming a highly correlated pair and the depth value Z calculated by the depth value calculating unit 34 based on the relative positions of the locally interrelated portions between them. Since the virtual viewpoint image GK of the viewed subject 12 is generated, the direct subject image GL, GR and the indirect subject image GLML, GRML, GLMR, GRMR can be obtained instantaneously, so the subject 12 is not limited to an immovable object. Moreover, since a pair of left camera CL and right camera CR need only be installed in front of the left mirror ML and right mirror MR, the installation is easy and compact. In addition, an inexpensive free viewpoint image generation apparatus 10 can be obtained.

また、本実施例の自由視点画像生成装置10によれば、被写体画像分離部30は、左カメラCL および右カメラCR の撮像画像EL およびER 内と、それら左カメラCL および右カメラCR により撮像された被写体12を含まない背景画像HL およびHR との差分の画像を算出することにより、被写体12のみの被写体画像GL 、GR 、GLML 、GRML 、GLMR 、GRMR を生成し、それら複数の被写体画像のうちの相対的に大きいものを直接被写体画像GL 、GR として抽出し、相対的に小さいものを間接被写体画像GLML 、GRML 、GLMR 、GRMR として抽出するものであることから、直接被写体画像GL 、GR と間接被写体画像GLML 、GRML 、GLMR 、GRMR とが容易に分離される。   Further, according to the free viewpoint image generating apparatus 10 of the present embodiment, the subject image separation unit 30 is imaged in the captured images EL and ER of the left camera CL and the right camera CR, and the left camera CL and the right camera CR. By calculating the difference image from the background images HL and HR that do not include the subject 12, subject images GL, GR, GLML, GRML, GLMR, GRMR of only the subject 12 are generated, and among the plurality of subject images Are extracted as direct subject images GL and GR, and relatively small ones are extracted as indirect subject images GLML, GRML, GLMR and GRMR, so that the direct subject images GL and GR are indirect. The subject images GLML, GRML, GLMR, and GRMR are easily separated.

また、本実施例の自由視点画像生成装置10によれば、カメラ位置算出部32は、左カメラCL および右カメラCR の位置と左ミラーML および右ミラーMR の位置とに基づいて、それら左カメラCL および右カメラCR の左ミラーML および右ミラーMR に対する鏡像位置にある仮想カメラVCLL、VCRL、VCLR、VCRRの位置を算出するものであることから、それらの仮想カメラVCLL、VCRL、VCLR、VCRRの位置が容易に算出される。   Further, according to the free viewpoint image generation apparatus 10 of the present embodiment, the camera position calculation unit 32 determines the left camera based on the positions of the left camera CL and the right camera CR and the positions of the left mirror ML and the right mirror MR. Since the positions of the virtual cameras VCLL, VCRL, VCLR, VCRR at the mirror image positions with respect to the left mirror ML and the right mirror MR of the CL and right camera CR are calculated, the virtual cameras VCLL, VCRL, VCLR, VCRR The position is easily calculated.

また、本実施例の自由視点画像生成装置10によれば、カメラ位置算出部32は、左ミラーML および右ミラーMR のそれぞれの対角線の交点である中心点AL およびAR をそれぞれ求め、前記算出したカメラCL およびCR のxyz三次元空間における位置PCL(x,y,z)およびPCR(x,y,z)から左ミラーML および右ミラーMR のそれぞれの中心点AL およびAR までの三次元ベクトルVLLA 、VRLA 、VLRA 、VRRA をそれぞれ算出し、それらの三次元ベクトルVLLA 、VRLA 、VLRA 、VRRA の左ミラーML および右ミラーMR の面で対称な対称ベクトルVLLB 、VRLB 、VLRB 、VRRB をそれぞれ算出し、それらの対称ベクトルVLLB 、VRLB 、VLRB 、VRRB の先端位置を、仮想カメラVCLL、VCRL、VCLR、VCRRの位置として算出するものであるから、これらの仮想カメラVCLL、VCRL、VCLR、およびVCRRの位置は、三次元空間における位置PVCLL(x,y,z)、PVCRL(x,y,z)、PVCLR(x,y,z)、およびPVCRR(x,y,z)として容易に算出される。   Further, according to the free viewpoint image generation device 10 of the present embodiment, the camera position calculation unit 32 obtains the center points AL and AR, which are the intersections of the diagonal lines of the left mirror ML and the right mirror MR, respectively, and calculates the calculated values. A three-dimensional vector VLLA from the positions PCL (x, y, z) and PCR (x, y, z) in the xyz three-dimensional space of the cameras CL and CR to the center points AL and AR of the left mirror ML and the right mirror MR, respectively. , VRLA, VRLA, VRRA are calculated respectively, and symmetric vectors VLLB, VRLB, VRLB, VRRB that are symmetric with respect to the left mirror ML and the right mirror MR of the three-dimensional vectors VRLA, VRLA, VRRA, VRRA are calculated, Whether the tip positions of the symmetric vectors VLLB, VRLB, VRLB, VRRB are calculated as the positions of the virtual cameras VCLL, VCRL, VCLR, VCRR The positions of these virtual cameras VCLL, VCRL, VCLR, and VCRR are the positions PVCLL (x, y, z), PVCRL (x, y, z), PVCLR (x, y, z) in the three-dimensional space, And PVCRR (x, y, z) are easily calculated.

また、本実施例の自由視点画像生成装置10によれば、奥行き値算出部34は、被写体画像分離部30によって分離された一対の直接被写体画像GL 、GR および二対の間接被写体画像GLML 、GRML 、GLMR 、GRMR を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間において、一方の被写体画像の局所を構成する1画素又は複数の画素と他方の被写体画像の局所を構成する1画素又は複数の画素との間の相関性が最も高い関係にある一対の1画素又は複数の画素の間の相対位置である視差dを算出し、その視差dと左カメラCL および右カメラCR の焦点距離f(=f=f)およびカメラ間距離Tとに基づいて上記対を成す被写体画像間の奥行き値Zを算出するものであることから、奥行き値Zを容易に得ることができる。 Further, according to the free viewpoint image generation apparatus 10 of the present embodiment, the depth value calculation unit 34 includes the pair of direct subject images GL and GR separated by the subject image separation unit 30 and the two pairs of indirect subject images GLML and GRML. Among a plurality of subject images including GLMR and GRMR, one or a plurality of pixels constituting the locality of one subject image and the locality of the other subject image are formed between subject images that form a highly correlated pair. The parallax d, which is the relative position between a pair of one pixel or a plurality of pixels having the highest correlation with one pixel or a plurality of pixels, is calculated, and the parallax d and the left camera CL and the right camera are calculated. Since the depth value Z between the paired subject images is calculated based on the focal length f (= f L = f R ) of CR and the inter-camera distance T, the depth value Z can be easily obtained. But it can.

また、本実施例の自由視点画像生成装置10によれば、仮想視点画像生成部36は、直接被写体画像GL 、GR および二対の間接被写体画像GLML 、GRML 、GLMR 、GRMR と、それらのうちの類似する一対の画像間でそれぞれ求められた奥行き値Zとに基づいて、被写体12を3次元で表わす画素の3次元位置、または被写体12を複数の多角形を用いた3次元図形を表わす画素の3次元位置を決定し、それら画素の3次元位置に基づいて所定の仮想視点角度θから見た被写体12の仮想視点画像GK を生成するものであることから、任意の仮想視点角度θから見た被写体12の仮想視点画像GK を容易に得ることができる。   Further, according to the free viewpoint image generation apparatus 10 of the present embodiment, the virtual viewpoint image generation unit 36 includes the direct subject images GL and GR and the two pairs of indirect subject images GLML, GRML, GLMR, GRMR, and among them. Based on the depth value Z obtained between each pair of similar images, the three-dimensional position of the pixel representing the subject 12 in three dimensions, or the pixel representing the three-dimensional figure using the plurality of polygons for the subject 12 Since the three-dimensional position is determined and the virtual viewpoint image GK of the subject 12 viewed from the predetermined virtual viewpoint angle θ is generated based on the three-dimensional positions of the pixels, the virtual viewpoint image GK is viewed from an arbitrary virtual viewpoint angle θ. The virtual viewpoint image GK of the subject 12 can be easily obtained.

以上、本発明の一実施例について図面を参照して詳細に説明したが、本発明は更に別の態様でも実施される。   As mentioned above, although one Example of this invention was described in detail with reference to drawings, this invention is implemented also in another aspect.

たとえば、前述の実施例の自由視点画像生成装置10においては、一対の右カメラCR および左カメラCL と一対の右ミラーMR および左ミラーML が用いられていたが、自由視点画像の精度を高めるためにカメラおよびミラーはそれぞれ3以上用いられるものでもよい。また、被写体12の全周の自由視点画像が不要である場合には、少なくとも1個のカメラと少なくとも1個のミラーから成るものであっても、本発明が適用される。1個のカメラと1個のミラーから成るものである場合には、1つのカメラにより直接撮像された1つの直接被写体画像と、そのカメラにより1つのミラーを介して間接的に撮像された1つの間接被写体画像と、それらの直接被写体画像および間接被写体画像から求められた奥行き値Zとに基づいて、上記1つのカメラと上記1つのミラーの鏡像位置にある仮想カメラとの間の角度範囲において、被写体12の仮想視点の画像が生成され得る。   For example, in the free viewpoint image generating apparatus 10 of the above-described embodiment, a pair of right camera CR and left camera CL and a pair of right mirror MR and left mirror ML are used. However, in order to increase the accuracy of the free viewpoint image. Three or more cameras and mirrors may be used. In addition, when a free viewpoint image of the entire circumference of the subject 12 is not necessary, the present invention is applied even if the subject 12 includes at least one camera and at least one mirror. In the case of one camera and one mirror, one direct subject image directly captured by one camera and one indirectly captured by one camera through one mirror Based on the indirect subject image and the depth value Z obtained from the direct subject image and the indirect subject image, in the angle range between the one camera and the virtual camera at the mirror image position of the one mirror, An image of the virtual viewpoint of the subject 12 can be generated.

また、前述の被写体画像分離部30は、図3に示す撮像画像ER 、EL を表わす画像信号から、予め撮像して記憶した図4に示す背景画像HR 、HL を表わす画像信号を差し引くことで、直接被写体画像GR 、GL や間接被写体画像GRMR およびGLMR 、GRML およびGLML を表わす画像信号を算出(抽出)するものであったが、たとえば、被写体12を表わす画素共通の色などの特徴に基づいて、その特徴を有する画素を抽出することで、直接被写体画像GR 、GL や間接被写体画像GRMR およびGLMR 、GRML およびGLML を表わす画像信号を分離するものであってもよい。   The subject image separation unit 30 subtracts the image signals representing the background images HR and HL shown in FIG. 4 that have been captured and stored in advance from the image signals representing the captured images ER and EL shown in FIG. The image signals representing the direct subject images GR and GL and the indirect subject images GRMR and GLMR, GRML and GLML are calculated (extracted). For example, based on characteristics such as a color common to the pixels representing the subject 12, By extracting pixels having the characteristics, the image signals representing the direct subject images GR and GL and the indirect subject images GRMR and GLMR, GRML and GLML may be separated.

また、前述の実施例のカメラ位置算出部32では、先ず、右ミラーMR および左ミラーML の形状が既知である場合に、それらの右ミラーMR および左ミラーML の枠が、撮像画像ER およびEL 内においてどのように写っているかの長さおよび位置に基づいて、幾何的な関係を利用して、カメラCR およびCL の内部パラメータ(焦点距離fおよび歪み係数)と外部パラメータ(カメラCR およびCL のx−y−z座標系の三次元空間における位置PCR(x,y,z)およびPCL(x,y,z)、カメラCR およびCL の光軸の方向)とを算出するものであったが、カメラCR およびCL の位置および向きがそれらの設定位置から予め既知であってたとえばそれらの情報が予め入力操作されて記憶されている場合は、上記カメラ位置算出部32は、それらカメラCR およびCL の位置および向きを算出せず、仮想カメラVCRRおよびVCLRの位置と仮想カメラVCRLおよびVCLLの位置とを算出するものであってもよい。   In the camera position calculation unit 32 of the above-described embodiment, first, when the shapes of the right mirror MR and the left mirror ML are known, the frames of the right mirror MR and the left mirror ML are captured images ER and EL. Based on the length and position of how the image appears in the camera, the geometrical relationship is used to determine the camera CR and CL internal parameters (focal length f and distortion factor) and the external parameters (cameras CR and CL. The position PCR (x, y, z) and PCL (x, y, z) in the three-dimensional space of the xyz coordinate system and the directions of the optical axes of the cameras CR and CL) are calculated. When the positions and orientations of the cameras CR and CL are known in advance from their set positions, for example, when such information is input and stored in advance, the camera position calculation unit 32 Without calculating the position and orientation of the Luo cameras CR and CL, it may be configured to calculate the position of the virtual camera VCRL and VCLL virtual camera VCRR and VCLR.

また、前述の実施例の奥行き値算出部34は、カメラCR およびCL の位置および前記仮想カメラVCRR、VCLR、VCRL、VCLLとの位置と、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR 間の局部的な相互に関連する部分すなわち濃度および色の相関の高い部分の相対位置(視差d)とに基づいて奥行き値Zをそれぞれ算出するものであったが、焦点距離変更可能なカメラから得られる被写体12中の局所部位毎の焦点距離に基づいて奥行き値Zを求めるなど、他の方法で算出されるものであってもよい。   In addition, the depth value calculation unit 34 of the above-described embodiment includes the positions of the cameras CR and CL and the positions of the virtual cameras VCRR, VCLR, VCRL, and VCLL, the direct subject image GR, GL, and the indirect subject image GRMR, GRML, Depth value Z was calculated based on the relative position (parallax d) of GLML and GLMR, which are locally related to each other, that is, where the density and color are highly correlated, but the focal length can be changed. For example, the depth value Z may be calculated based on the focal length of each local part in the subject 12 obtained from a simple camera.

仮想視点画像生成部36は、直接被写体画像GR 、GL および間接被写体画像GRMR 、GRML 、GLML 、GLMR と、奥行き値Zとに基づき、イメージレンダリング処理やモデルベースレンダリング処理を用いて、オペレータにより入力された所望の仮想視点Kから見た被写体12の画像GK を生成するものであったが、3Dメッシュのワーフィング、3Dメッシュのモーフィング、MFFDモーフィングなどの他の処理が用いられてもよい。   The virtual viewpoint image generation unit 36 is input by an operator using image rendering processing or model-based rendering processing based on the direct subject images GR and GL and the indirect subject images GRMR, GRML, GLML, and GLMR and the depth value Z. Although the image GK of the subject 12 viewed from the desired virtual viewpoint K is generated, other processes such as 3D mesh warping, 3D mesh morphing, and MFFD morphing may be used.

なお、前述したのはあくまでも例示であり、必要に応じて適宜変更され得る。その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲で種々変更を加え得るものである。   In addition, what was mentioned above is an illustration to the last and can be suitably changed as needed. In addition, although not illustrated one by one, the present invention can be variously modified without departing from the spirit of the present invention.

10:自由視点画像生成装置
12:被写体
14:画像処理コンピュータ(画像処理演算制御装置)
30:被写体画像分離部
32:カメラ位置算出部(仮想カメラ位置算出部)
34:奥行き値算出部
36:仮想視点画像生成部
CR :右カメラ
CL :左カメラ
MR :右ミラー
ML :左ミラー
10: Free viewpoint image generation device 12: Subject 14: Image processing computer (image processing calculation control device)
30: Subject image separation unit 32: Camera position calculation unit (virtual camera position calculation unit)
34: Depth value calculator 36: Virtual viewpoint image generator CR: Right camera CL: Left camera MR: Right mirror ML: Left mirror

Claims (7)

被写体の撮像データから該被写体を所望の仮想視点から見た画像に変換して出力するための自由視点画像生成装置であって、
前記被写体を撮像する少なくとも1つのカメラと、
該カメラの撮像視野内に位置し、前記被写体からの光を該カメラに向かって反射する少なくとも1つのミラーと、
前記カメラにより直接撮像された少なくとも1つの直接被写体画像と、該カメラにより前記ミラーを介して間接的に撮像された少なくとも1つの間接被写体画像と、該直接被写体画像および間接被写体画像から求められた奥行き値とに基づいて前記仮想視点の画像を生成する画像処理演算制御装置と
を、含むことを特徴とする自由視点画像生成装置。
A free viewpoint image generating device for converting and outputting an image of a subject viewed from a desired virtual viewpoint from imaging data of the subject,
At least one camera for imaging the subject;
At least one mirror located within the imaging field of view of the camera and reflecting light from the subject toward the camera;
At least one direct subject image directly captured by the camera, at least one indirect subject image indirectly captured by the camera via the mirror, and a depth obtained from the direct subject image and the indirect subject image A free viewpoint image generation device, comprising: an image processing calculation control device that generates an image of the virtual viewpoint based on a value.
前記画像処理演算制御装置は、
前記カメラの撮像画像内から、該カメラにより直接撮像された前記被写体を表わす前記直接被写体画像と該カメラにより前記ミラーを介して間接的に撮像された前記被写体を表わす前記間接被写体画像とを分離する被写体画像分離部と、
該カメラの位置および該ミラーの位置に基づいて仮想カメラの位置を算出する仮想カメラ位置算出部と、
前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間の局部的に相互に関連する部分の相対位置とに基づいて前記奥行き値をそれぞれ算出する奥行き値算出部と、
該奥行き値算出部により該奥行き値が算出された相互に対を成す被写体画像と、該奥行き値とに基づいて前記仮想視点から見た前記被写体の仮想視点画像を生成する仮想視点画像生成部と
を、含むことを特徴とする請求項1の自由視点画像生成装置。
The image processing arithmetic control device
The direct subject image representing the subject directly captured by the camera and the indirect subject image representing the subject indirectly captured by the camera via the mirror are separated from the captured image of the camera. A subject image separation unit;
A virtual camera position calculation unit that calculates the position of the virtual camera based on the position of the camera and the position of the mirror;
A plurality of subject images including the at least one direct subject image and at least one indirect subject image separated by the subject image separation unit are locally related to each other between subject images that form a highly correlated pair. A depth value calculation unit for calculating each of the depth values based on the relative position of the part to perform,
A pair of subject images for which the depth value has been calculated by the depth value calculation unit, and a virtual viewpoint image generation unit for generating a virtual viewpoint image of the subject viewed from the virtual viewpoint based on the depth value; The free viewpoint image generation device according to claim 1, further comprising:
前記被写体画像分離部は、前記カメラにより撮像された前記被写体を含む画像と該カメラにより撮像された前記被写体を含まない背景画像との差分の画像を算出することにより、該被写体のみの被写体画像を生成し、該被写体画像のうちの相対的に大きいものを前記直接被写体画像として抽出し、相対的に小さいものを前記間接被写体画像として抽出するものである請求項2の自由視点画像生成装置。   The subject image separation unit calculates a difference image between an image including the subject captured by the camera and a background image not including the subject captured by the camera, thereby obtaining a subject image of only the subject. 3. The free viewpoint image generating apparatus according to claim 2, wherein a relatively large one of the subject images is extracted as the direct subject image, and a relatively small one is extracted as the indirect subject image. 前記仮想カメラ位置算出部は、前記カメラの位置と前記ミラーの位置とに基づいて、該カメラの該ミラーに対する鏡像位置にある前記仮想カメラの位置を算出するものである請求項2又は3の自由視点画像生成装置。   The freedom of claim 2 or 3, wherein the virtual camera position calculation unit calculates the position of the virtual camera at a mirror image position of the camera with respect to the mirror based on the position of the camera and the position of the mirror. Viewpoint image generation device. 前記仮想カメラ位置算出部は、前記カメラの位置から前記ミラーの中心までの3次元ベクトルを算出し、該3次元ベクトルと該ミラーの鏡面に対して対称な対称ベクトルを算出し、該対称ベクトルの先端位置を前記仮想カメラの位置として算出するものである請求項4の自由視点画像生成装置。   The virtual camera position calculation unit calculates a three-dimensional vector from the camera position to the center of the mirror, calculates a symmetric vector symmetric with respect to the mirror surface of the three-dimensional vector and the mirror, The free viewpoint image generation apparatus according to claim 4, wherein the tip position is calculated as the position of the virtual camera. 前記奥行き値算出部は、前記被写体画像分離部によって分離された前記少なくとも1つの直接被写体画像および少なくとも1つの間接被写体画像を含む複数の被写体画像のうちから相互に相関の高い対を成す被写体画像間において、一方の被写体画像の局所を構成する1画素又は複数の画素と他方の被写体画像の局所を構成する1画素又は複数の画素との間の相関性が最も高い関係にある一対の1画素又は複数の画素の間の相対位置である視差を算出し、該視差と前記カメラの焦点距離およびカメラ間距離とに基づいて前記対を成す被写体画像間の前記奥行き値を算出するものである請求項2乃至5のいずれか1の自由視点画像生成装置。   The depth value calculation unit includes a plurality of subject images including the at least one direct subject image and the at least one indirect subject image separated by the subject image separation unit. A pair of one or more pixels having the highest correlation between one pixel or a plurality of pixels constituting the local area of one subject image and one pixel or a plurality of pixels constituting the local area of the other subject image The parallax that is a relative position between a plurality of pixels is calculated, and the depth value between the paired subject images is calculated based on the parallax, the focal length of the camera, and the inter-camera distance. The free viewpoint image generation device according to any one of 2 to 5. 前記仮想視点画像生成部は、前記直接被写体画像および間接被写体画像と前記奥行き値とに基づいて、前記被写体を3次元で表わす画素の3次元位置、または該被写体を複数の多角形を用いた3次元図形で表わす画素の3次元位置を決定し、該画素の3次元位置に基づいて所定の仮想視点から見た該被写体の仮想視点画像を生成するものである請求項2乃至6のいずれか1の自由視点画像生成装置。   The virtual viewpoint image generation unit uses a three-dimensional position of a pixel representing the subject in three dimensions based on the direct subject image, the indirect subject image, and the depth value, or uses a plurality of polygons for the subject. The virtual viewpoint image of the subject viewed from a predetermined virtual viewpoint is generated based on the three-dimensional position of the pixel represented by the three-dimensional figure, and based on the three-dimensional position of the pixel. Free viewpoint image generator.
JP2010079891A 2010-03-30 2010-03-30 Apparatus for generating free viewpoint image Pending JP2011210202A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010079891A JP2011210202A (en) 2010-03-30 2010-03-30 Apparatus for generating free viewpoint image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010079891A JP2011210202A (en) 2010-03-30 2010-03-30 Apparatus for generating free viewpoint image

Publications (1)

Publication Number Publication Date
JP2011210202A true JP2011210202A (en) 2011-10-20

Family

ID=44941147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010079891A Pending JP2011210202A (en) 2010-03-30 2010-03-30 Apparatus for generating free viewpoint image

Country Status (1)

Country Link
JP (1) JP2011210202A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data
KR102129085B1 (en) 2018-12-12 2020-07-01 서울과학기술대학교 산학협력단 Apparatus and method for composing video data

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
US6233004B1 (en) Image processing method and apparatus
US9654704B2 (en) Apparatus and method for multispectral imaging with three dimensional overlaying
JP4642723B2 (en) Image generating apparatus and image generating method
US20120242795A1 (en) Digital 3d camera using periodic illumination
US9615081B2 (en) Method and multi-camera portable device for producing stereo images
JP2008083786A (en) Image creation apparatus and image creation method
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
KR102222290B1 (en) Method for gaining 3D model video sequence
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
WO2020075252A1 (en) Information processing device, program, and information processing method
KR102176963B1 (en) System and method for capturing horizontal parallax stereo panorama
TW202008064A (en) Projector calibration method and projection system using the same
US20190132574A1 (en) Depth sensing system with differential imaging camera
JPH07129792A (en) Method and device for image processing
JP2019029721A (en) Image processing apparatus, image processing method, and program
WO2023112971A1 (en) Three-dimensional model generation device, three-dimensional model generation method, and three-dimensional model generation program
JPH08201941A (en) Three-dimensional image formation
JP2008204318A (en) Image processor, image processing method and image processing program
JP2002032744A (en) Device and method for three-dimensional modeling and three-dimensional image generation
JP2011210202A (en) Apparatus for generating free viewpoint image
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP6545033B2 (en) Three-dimensional temperature distribution display
JPH07296195A (en) Device and method for image processing