JP2006350852A - Image generation system - Google Patents

Image generation system Download PDF

Info

Publication number
JP2006350852A
JP2006350852A JP2005178403A JP2005178403A JP2006350852A JP 2006350852 A JP2006350852 A JP 2006350852A JP 2005178403 A JP2005178403 A JP 2005178403A JP 2005178403 A JP2005178403 A JP 2005178403A JP 2006350852 A JP2006350852 A JP 2006350852A
Authority
JP
Japan
Prior art keywords
image
perspective projection
image generation
projection image
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005178403A
Other languages
Japanese (ja)
Inventor
Mikio Terasawa
幹雄 寺沢
Shinichi Fukushige
真一 福重
Koichi Tamura
公一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NABURA KK
Original Assignee
NABURA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NABURA KK filed Critical NABURA KK
Priority to JP2005178403A priority Critical patent/JP2006350852A/en
Publication of JP2006350852A publication Critical patent/JP2006350852A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system for generating and displaying a perspective projection image from a position designated in a virtual three-dimensional space on the basis of at least two panoramic images. <P>SOLUTION: The image generation system for generating a perspective projection image from a position designated by a user in a virtual three-dimensional space on the basis of at least two panoramic images comprises: a panoramic image receiving means for reading a panoramic image; a position input receiving means for receiving information of a position designated by the user in the virtual three-dimensional space; an image generation operation processing means for generating a perspective projection image at a received position from the at least two read panoramic images; and a display processing means for outputing the generated perspective projection image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、少なくとも2つのパノラマ画像に基づいて、仮想3次元空間の指定した位置からの透視投影画像を生成し、表示する画像生成システムに関する。
The present invention relates to an image generation system that generates and displays a perspective projection image from a specified position in a virtual three-dimensional space based on at least two panoramic images.

仮想3次元空間に於いて、ユーザが指定した位置からのその3次元空間を見た場合の画像(透視投影画像)をコンピュータ端末で表示する方法としては、VRML(Virtual Reality Modeling Language)などのモデルベースの方法や実写画像を利用した画像ベースの方法がある。   A model such as VRML (Virtual Reality Modeling Language) is used as a method of displaying an image (perspective projection image) when viewing the 3D space from a position specified by the user in a virtual 3D space on a computer terminal. There are a base method and an image based method using a real image.

モデルベースの方法では、仮想3次元空間に於ける任意の位置からの透視投影画像を生成するには、通常、ポリゴンなどによって、仮想3次元空間に於ける各物体の3次元形状モデルを作成し、モデルに適したテクスチャを定義したり、適切な明るさや色となるようライトデータを定義することで行っている。このようにして作成した各物体の位置する仮想3次元空間に於いて、ユーザが任意の位置を指定することにより、その位置からの透視投影画像を生成、表示する。   In the model-based method, in order to generate a perspective projection image from an arbitrary position in the virtual three-dimensional space, a three-dimensional shape model of each object in the virtual three-dimensional space is usually created by a polygon or the like. This is done by defining a texture suitable for the model or defining light data so that the brightness and color are appropriate. When the user designates an arbitrary position in the virtual three-dimensional space where each object is created as described above, a perspective projection image from that position is generated and displayed.

一方、画像ベースの方法では、複数の静止画に基づいて、仮想3次元空間に於ける一つの固定地点からの全周囲画像を生成、表示したり、連続した多数の地点での画像を、あたかも動画像のように取扱、動画圧縮再生技術やその関連技術を用いて任意の地点からの画像を再生することで表示するものなどがある。   On the other hand, in the image-based method, based on a plurality of still images, an entire surrounding image from one fixed point in a virtual three-dimensional space is generated and displayed, or images at a number of consecutive points are displayed as if There are things such as moving images, which are displayed by reproducing images from arbitrary points using video compression / playback technology and related technologies.

これらの従来技術を代表する例として下記に6つの特許文献を示す。   The following six patent documents are shown as examples representing these conventional techniques.

特開2003−187261号公報JP 2003-187261 A 特開2003−24624号公報JP 2003-24624 A 特開2002−52240号公報JP 2002-52240 A 特開2001−229402号公報JP 2001-229402 A 特開2000−67274号公報JP 2000-67274 A 特開平10−49704号公報JP 10-49704 A

しかしモデルベースの方法の場合、仮想3次元空間に於ける任意の透視投影画像を生成することは出来るが、仮想3次元空間に配置される各物体を作成することが非常に困難である。特に、3次元形状モデルの作成は、熟練したエンジニアが専用のソフトウェアを用いて作業を行うことが通常であり、一般のユーザがその作業を行うのは困難である。テクスチャやライトの生成、配置も同様に多くのノウハウが必要となる。従って、この方法を用いる場合の元となるデータ(シーンデータ)の作成には、多くの時間と、多くの費用が必要となる。   However, in the case of the model-based method, an arbitrary perspective projection image in the virtual three-dimensional space can be generated, but it is very difficult to create each object arranged in the virtual three-dimensional space. In particular, the creation of a three-dimensional shape model is usually performed by a skilled engineer using dedicated software, and it is difficult for a general user to perform the operation. A lot of know-how is required for the generation and arrangement of textures and lights as well. Therefore, it takes a lot of time and a lot of money to create the data (scene data) that is the basis for using this method.

またシーンデータを実写静止画像と同等の表示品質とする為には、高精細な3次元形状モデルを作成する必要があるが、そのようなモデルはデータ量が多いので、更に多くの時間と費用とを必要とするほか、インターネット等を介してデータの送受信を行う場合には通信速度や表示速度を低下させる。   In addition, in order to make the scene data display quality equivalent to that of a live-action still image, it is necessary to create a high-definition three-dimensional shape model. Since such a model has a large amount of data, more time and cost are required. In addition, when data is transmitted / received via the Internet or the like, the communication speed and display speed are reduced.

一方、実写画像を利用した画像ベースの方法の場合、3次元形状モデルを作成することなく、高精細な画像データを得ることが出来る。しかしこの方法に於ける従来技術では、例えばQuickTimeVRなどのように、仮想3次元空間に於ける固定地点からの全周囲画像しか表示することが出来ず、原則として位置(視点)を移動することが出来ない。移動出来る方法もあるが、その方法に於いては、画像中に表示されたマーカをユーザが指定して別の位置にジャンプするなど、不連続な移動が行えるのみであり、連続的且つ自由な移動を行えない。また任意の位置からの画像を表示する場合には、カメラの校正が必要であったり、特殊な機材が必要であったりと、様々な制約があり、一般のユーザが簡単に、仮想3次元空間の任意位置からの透視投影画像を生成、表示することが出来ない。   On the other hand, in the case of an image-based method using a real image, high-definition image data can be obtained without creating a three-dimensional shape model. However, with the prior art in this method, for example, QuickTimeVR can only display the entire surrounding image from a fixed point in the virtual three-dimensional space, and in principle, the position (viewpoint) can be moved. I can't. There is a method that can be moved, but in that method, the user can specify only the marker displayed in the image and jump to another position. Cannot move. In addition, when displaying an image from an arbitrary position, there are various restrictions such as the need for camera calibration or special equipment. A perspective projection image from an arbitrary position cannot be generated and displayed.

そこで本発明者は、仮想3次元空間に於ける少なくとも2つのパノラマ画像を用いることにより、仮想3次元空間内のユーザが指定した位置からの透視投影画像を生成することが出来、またその処理を連続的に行うことにより、連続的に透視投影画像を表示することが出来る画像生成システムを発明した。   Therefore, the present inventor can generate a perspective projection image from a position designated by the user in the virtual three-dimensional space by using at least two panoramic images in the virtual three-dimensional space, and perform the processing. The present invention has invented an image generation system capable of continuously displaying a perspective projection image by performing continuously.

第1の発明は、少なくとも2つのパノラマ画像に基づいて、仮想3次元空間に於けるユーザが指定した位置からの透視投影画像を生成する画像生成システムであって、前記画像生成システムは、前記パノラマ画像を読み込むパノラマ画像受付手段と、前記仮想3次元空間に於ける前記ユーザが指定した位置の情報を受け付ける位置入力受付手段と、前記読み込んだ少なくとも2つのパノラマ画像から、前記受け付けた位置に於ける透視投影画像を生成する画像生成演算処理手段と、前記生成した透視投影画像を出力する表示処理手段と、を有する画像生成システムである。   A first invention is an image generation system that generates a perspective projection image from a position designated by a user in a virtual three-dimensional space based on at least two panoramic images, and the image generation system includes the panorama image. A panoramic image receiving means for reading an image, a position input receiving means for receiving information on a position designated by the user in the virtual three-dimensional space, and at the received position from the read at least two panoramic images. An image generation system includes an image generation calculation processing unit that generates a perspective projection image and a display processing unit that outputs the generated perspective projection image.

本発明のように構成することで、少なくとも2以上のパノラマ画像に基づいて、仮想3次元空間内の任意の位置からの透視投影画像を出力することが可能となる。   With the configuration according to the present invention, it is possible to output a perspective projection image from an arbitrary position in the virtual three-dimensional space based on at least two or more panoramic images.

第1の発明に於いて、透視投影画像を生成するには、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、中間パノラマ画像生成手段と透視投影画像生成手段とを有しており、前記中間パノラマ画像生成手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、三角測量法により前記パノラマ画像に於ける対応点が前記中間パノラマ画像に於いてどこに位置するかを算出し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記算出した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、前記透視投影画像生成手段は、前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, in order to generate a perspective projection image, an image generation system using the following method may be used. That is, the image generation calculation processing unit includes an intermediate panorama image generation unit and a perspective projection image generation unit, and the intermediate panorama image generation unit is configured to specify a shooting target common to the panorama image. Based on the point information, the triangulation method calculates where the corresponding point in the panoramic image is located in the intermediate panoramic image, and the texture of the face constituted by the corresponding point in the panoramic image Is generated by texture mapping onto the face that has the calculated position in the intermediate panorama image corresponding to the face as a vertex, and the perspective projection image generation means generates the perspective projection image. Divide the image area into a plurality of arbitrary faces, and the vertices that make up the face become the intermediate panorama image. The texture of the face constituted by vertices of the calculated position in the intermediate panorama image is mapped to the corresponding face divided in the perspective projection image. This is an image generation system that generates the perspective projection image.

このような構成とすることによって、ユーザが入力した位置からの中間パノラマ画像を生成し、それに基づいて透視投影画像を出力することが出来る。   With such a configuration, it is possible to generate an intermediate panorama image from a position input by the user and output a perspective projection image based on the intermediate panorama image.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、対応点算出手段と透視投影画像生成手段とを有しており、前記対応点算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、三角測量法により前記パノラマ画像に於ける対応点が前記中間パノラマ画像に於いてどこに位置するかを算出し、前記算出した位置を前記透視投影画像上の位置に変換し、前記透視投影画像生成手段は、前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. That is, the image generation calculation processing means includes corresponding point calculation means and perspective projection image generation means, and the corresponding point calculation means calculates the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the triangulation method calculates where the corresponding point in the panoramic image is located in the intermediate panoramic image, converts the calculated position into a position on the perspective projection image, The perspective projection image generation means uses the position on the perspective projection image of the corresponding point of the calculated panoramic image as a vertex, and texture-maps the texture corresponding to the panoramic image on the face constituted by the vertex, thereby An image generation system for generating a perspective projection image.

このような構成とすることによって、ユーザが入力した位置からの中間パノラマ画像に於ける対応点の位置を算出し、その対応点を更に透視投影画像上に変換することが出来る。これによってテクスチャマッピングを一度しか行わないので、高速処理且つ高精度の透視投影画像を生成することが出来る。   With such a configuration, the position of the corresponding point in the intermediate panorama image from the position input by the user can be calculated, and the corresponding point can be further converted into a perspective projection image. As a result, texture mapping is performed only once, so that a high-speed processing and high-accuracy perspective projection image can be generated.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、前記透視投影画像生成手段は、前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、変換後の座標を前記透視投影画像上の位置に変換し、前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is determined on a half line that is a possible range of the virtual three-dimensional space position of the imaging object corresponding to the corresponding point, The projection image generating means converts the position of the corresponding point in the determined panoramic image in the virtual three-dimensional space to the coordinate of the intermediate panoramic image at the received position, and the converted coordinate is the fluoroscopic image. The position corresponding to the calculated panoramic image is converted into a position on the perspective image, and the texture corresponding to the panoramic image is applied to the face constituted by the vertex. By catcher mapping, it generates the perspective projection image, an image generation system.

このような構成とすることでも、テクスチャマッピングを一度しか行わずに高速処理且つ高精度の透視投影画像を生成することが出来る。   Even with such a configuration, it is possible to generate a high-speed and high-accuracy perspective projection image by performing texture mapping only once.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、前記透視投影画像生成手段は、前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記変換した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is determined on a half line that is a possible range of the virtual three-dimensional space position of the imaging object corresponding to the corresponding point, The projection image generation means converts the position of the corresponding point in the determined panoramic image in the virtual three-dimensional space into the coordinate of the intermediate panoramic image at the received position, and the corresponding in the panoramic image Texture mapping of the face composed of points is texture-mapped to the face constructed with the converted position in the intermediate panorama image corresponding to this face as a vertex. To generate the intermediate panorama image, divide the region of the perspective projection image into an arbitrary plurality of faces, calculate the position of the vertex constituting the face in the intermediate panorama image, The perspective projection image is generated by texture-mapping the texture of the face formed by using the calculated position in the intermediate panorama image as a vertex to the corresponding face divided in the perspective projection image. An image generation system.

このような構成とすることでも、第1の発明と同様に、ユーザが入力した位置からの中間パノラマ画像を生成し、それに基づいて透視投影画像を出力することが出来る。   Even with this configuration, an intermediate panorama image from a position input by the user can be generated and a perspective projection image can be output based on the intermediate panorama image, as in the first invention.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、前記透視投影画像生成手段は、前記決定した前記対応点の仮想3次元空間上に於ける位置により構成されるフェイスを面とする3次元ポリゴンを構成し、前記パノラマ画像のフェイスのテクスチャを、前記3次元ポリゴンの対応するフェイスにテクスチャマッピングすることで前記3次元ポリゴンを生成し、前記3次元ポリゴンを前記受け付けた位置からの透視投影画像に変換することで前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is determined on a half line that is a possible range of the virtual three-dimensional space position of the imaging object corresponding to the corresponding point, The projection image generation means constitutes a three-dimensional polygon having a face formed by a face constituted by the determined position of the corresponding point in the virtual three-dimensional space, and the texture of the face of the panoramic image is represented by the three-dimensional The three-dimensional polygon is generated by texture mapping to the corresponding face of the polygon, and the three-dimensional polygon is converted into a perspective projection image from the received position. Generating a perspective projection image, an image generation system.

このような構成とすることでも、第1の発明と同様に、ユーザが入力した位置からの中間パノラマ画像を生成し、それに基づいて透視投影画像を出力することが出来る。またこの場合には3次元データにすることが出来るので、データの扱いが容易となる。   Even with this configuration, an intermediate panorama image from a position input by the user can be generated and a perspective projection image can be output based on the intermediate panorama image, as in the first invention. In this case, since the data can be made into three-dimensional data, the data can be easily handled.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、前記透視投影画像生成手段は、前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、変換後の座標を前記透視投影画像上の位置に変換し、前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is used as a predetermined interpolation parameter between the half lines that are the possible range of the virtual three-dimensional space position of the object to be imaged corresponding to the corresponding point. A position to be internally divided is determined as a position in the virtual three-dimensional space, and the perspective projection image generation unit is configured to determine the position in the virtual three-dimensional space of the corresponding point in the determined panoramic image as the received position. The coordinates of the intermediate panorama image in the image, the converted coordinates are converted into positions on the perspective projection image, the position of the corresponding point of the calculated panorama image on the perspective projection image as a vertex, Ri to constituted face, by texture mapping a corresponding texture of the panorama image, and generates the perspective projection image, an image generation system.

このような構成とすることでも、テクスチャマッピングを一度しか行わずに高速処理且つ高精度の透視投影画像を生成することが出来る。また対応点の仮想3次元空間上の位置を算出するにあたり、半直線が交点を持たない場合もあり得る。そのような場合に本発明のような処理を用いることが有効である。   Even with such a configuration, it is possible to generate a high-speed and high-accuracy perspective projection image by performing texture mapping only once. In calculating the position of the corresponding point in the virtual three-dimensional space, the half line may not have an intersection. In such a case, it is effective to use the processing as in the present invention.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、前記透視投影画像生成手段は、前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記変換した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is used as a predetermined interpolation parameter between the half lines that are the possible range of the virtual three-dimensional space position of the object to be imaged corresponding to the corresponding point. A position to be internally divided is determined as a position in the virtual three-dimensional space, and the perspective projection image generation unit is configured to determine the position in the virtual three-dimensional space of the corresponding point in the determined panoramic image as the received position. Is converted to the coordinates of the intermediate panorama image, and the texture of the face constituted by the corresponding points in the panorama image is changed to the previous in the intermediate panorama image corresponding to the face. The intermediate panorama image is generated by texture-mapping the converted position on the face constituting the vertex, the region of the perspective projection image is divided into a plurality of arbitrary faces, and the vertex constituting the face is the intermediate panorama The position of the face calculated by calculating the position in the image and having the calculated position in the intermediate panorama image as a vertex is divided into the corresponding face divided in the perspective projection image. The image generation system generates the perspective projection image by texture mapping.

このような構成とすることでも、第1の発明と同様に、ユーザが入力した位置からの中間パノラマ画像を生成し、それに基づいて透視投影画像を出力することが出来る。また対応点の仮想3次元空間上の位置を算出するにあたり、半直線が交点を持たない場合もあり得る。そのような場合に本発明のような処理を用いることが有効である。   Even with this configuration, an intermediate panorama image from a position input by the user can be generated and a perspective projection image can be output based on the intermediate panorama image, as in the first invention. In calculating the position of the corresponding point in the virtual three-dimensional space, the half line may not have an intersection. In such a case, it is effective to use the processing as in the present invention.

第1の発明に於いて、透視投影画像を生成する他の方法としては、以下のような方法を用いる画像生成システムとしても良い。即ち、前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、前記空間位置算出手段は、前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、前記透視投影画像生成手段は、前記決定した前記対応点の仮想3次元空間上に於ける位置により構成されるフェイスを面とする3次元ポリゴンを構成し、前記パノラマ画像のフェイスのテクスチャを、前記3次元ポリゴンの対応するフェイスにテクスチャマッピングすることで前記3次元ポリゴンを生成し、前記3次元ポリゴンを前記受け付けた位置からの透視投影画像に変換することで前記透視投影画像を生成する、画像生成システムである。   In the first invention, as another method for generating a perspective projection image, an image generation system using the following method may be used. In other words, the image generation calculation processing means includes a spatial position calculation means and a perspective projection image generation means, and the spatial position calculation means determines the corresponding corresponding points of the photographing object common to the panoramic image. Based on the information, the position of the corresponding point in the virtual three-dimensional space is used as a predetermined interpolation parameter between the half lines that are the possible range of the virtual three-dimensional space position of the object to be imaged corresponding to the corresponding point. A position to be internally divided is determined as a position in the virtual three-dimensional space, and the perspective projection image generation means uses a face constituted by the position of the determined corresponding point in the virtual three-dimensional space as a plane. Forming a three-dimensional polygon, generating the three-dimensional polygon by texture mapping the texture of the face of the panoramic image to the corresponding face of the three-dimensional polygon, Generating said perspective projection image by converting the dimension polygons perspective projection image from the received position, an image generation system.

このような構成とすることでも、第1の発明と同様に、ユーザが入力した位置からの中間パノラマ画像を生成し、それに基づいて透視投影画像を出力することが出来る。またこの場合には3次元データにすることが出来るので、データの扱いが容易となる。更に、対応点の仮想3次元空間上の位置を算出するにあたり、半直線が交点を持たない場合もあり得る。そのような場合に本発明のような処理を用いることが有効である。   Even with this configuration, an intermediate panorama image from a position input by the user can be generated and a perspective projection image can be output based on the intermediate panorama image, as in the first invention. In this case, since the data can be made into three-dimensional data, the data can be easily handled. Further, in calculating the position of the corresponding point in the virtual three-dimensional space, the half line may not have an intersection. In such a case, it is effective to use the processing as in the present invention.

第1の発明に於いて、前記画像生成演算処理手段は、前記読み込んだ少なくとも2つのパノラマ画像から、前記パノラマ画像における歪みを補正したパノラマ画像を生成し、前記補正した少なくとも2つのパノラマ画像に基づいて、前記受け付けた位置における透視投影画像を生成する、画像生成システムとしても良い。   In the first invention, the image generation calculation processing means generates a panoramic image in which distortion in the panoramic image is corrected from the read at least two panoramic images, and based on the corrected at least two panoramic images. Thus, an image generation system that generates a perspective projection image at the received position may be used.

パノラマ画像は球面座標系や円柱座標系の画像であるため、透視投影画像と異なり、画像に歪みが生じてしまう。従って、このままの歪みのあるパノラマ画像に基づいて透視投影画像の生成処理をしてしまうと、テクスチャマッピングの際にも歪んだテクスチャのままテクスチャマッピングしてしまうこととなり、透視投影画像でも歪みがでてしまう。   Since a panoramic image is an image in a spherical coordinate system or a cylindrical coordinate system, unlike a perspective projection image, the image is distorted. Therefore, if a perspective projection image generation process is performed based on a panoramic image with such distortion, the texture mapping is performed with the distorted texture even during texture mapping, and the perspective projection image is also distorted. End up.

そこでこのような問題を解決するために、上述の基本的な処理プロセスに加え、パノラマ画像受付手段に読み込ませたパノラマ画像について、そのまま画像生成演算処理手段で透視投影画像の生成処理をさせるのではなく、その前にパノラマ画像の歪みを補正する処理を行い、その補正処理を行ったパノラマ画像を用いて、上述の透視投影画像の生成処理を画像生成演算処理手段4で行っても良い。このようにすることで、歪みの少ない綺麗な透視投影画像を生成することが出来る。   Therefore, in order to solve such a problem, in addition to the above-described basic processing process, the panorama image read by the panorama image receiving unit is not directly processed by the image generation calculation processing unit. Instead, the processing for correcting the distortion of the panoramic image may be performed before that, and the above-described perspective projection image generation processing may be performed by the image generation calculation processing means 4 using the panoramic image that has been subjected to the correction processing. In this way, a beautiful perspective projection image with little distortion can be generated.

上述の各発明に於いて、前記画像生成システムは、前記位置入力受付手段で受け付けた位置から各パノラマ画像の位置までの比率に応じて、テクスチャのテクスチャマッピングを行う、画像生成システムとすることも出来る。   In each of the above-described inventions, the image generation system may be an image generation system that performs texture mapping of a texture according to a ratio from a position received by the position input reception unit to a position of each panoramic image. I can do it.

このようにテクスチャマッピングの際に、ユーザが指定した位置で、パノラマ画像間を内分する点の比率に応じてテクスチャマッピングを行うことで、寄り自然な透視投影画像とすることが出来る。   As described above, when texture mapping is performed at a position designated by the user in accordance with the ratio of points that internally divide between panoramic images, a natural perspective projection image can be obtained.

上述の各発明に於いて、前記位置入力受付手段は、前記位置の情報を逐次受け付け、前記画像生成演算処理手段は、前記受け付けた位置の情報に基づいて、各々の位置に於ける透視投影画像を逐次生成し、前記表示処理手段は、前記生成した透視投影画像を出力する、画像生成システムとすることも出来る。   In each of the above-described inventions, the position input receiving means sequentially receives the position information, and the image generation calculation processing means is based on the received position information, and the perspective projection image at each position. Can be sequentially generated, and the display processing unit can be an image generation system that outputs the generated perspective projection image.

このように構成することで、逐次的に透視投影画像を生成、出力するので、あたかも動画のように連続的に出力することも出来、またユーザがインタラクティブに位置や見る方向を変えることが出来る。   With this configuration, the perspective projection images are generated and output sequentially, so that they can be output continuously as if they were moving images, and the user can interactively change the position and viewing direction.

上述の各発明に於いて、前記少なくとも2つのパノラマ画像によって構成されるモーフィング区間に於いて、前記位置入力受付手段が前記モーフィング区間内の位置を受け付けたときには、前記画像生成演算処理手段は、前記モーフィング区間に於ける透視投影画像を、前記モーフィング区間の両端点に位置するパノラマ画像に基づいて生成する、画像生成システムとすることも出来る。   In each of the above-described inventions, when the position input receiving means receives a position in the morphing section in the morphing section composed of the at least two panoramic images, the image generation calculation processing means It is also possible to provide an image generation system that generates a perspective projection image in a morphing section based on panoramic images located at both end points of the morphing section.

複数のモーフィング区間がある場合には、本発明のように構成すると良い。   When there are a plurality of morphing sections, it may be configured as in the present invention.

上述の各発明に於いて、前記画像生成演算処理手段は、前記モーフィング区間を切り替える際に、現在処理対象となるモーフィング区間での補間パラメータから、次に処理対象となるモーフィング区間の補間パラメータに変換した上で、前記パノラマ画像に基づいて前記透視投影画像を生成する、画像生成システムとすることも出来る。   In each of the above-described inventions, when the morphing section is switched, the image generation calculation processing means converts the interpolation parameter in the morphing section that is the current processing target to the interpolation parameter of the morphing section that is the next processing target. In addition, an image generation system that generates the perspective projection image based on the panoramic image can be provided.

複数のモーフィング区間がある場合には、本発明のように構成することで、モーフィング区間の切替の際に、より滑らかな透視投影画像を出力することが出来る。   When there are a plurality of morphing sections, a smoother perspective projection image can be output when the morphing sections are switched by configuring as in the present invention.

上述の各発明に於いて、前記画像生成システムは、前記画像生成演算処理手段で生成した透視投影画像を、実写画像、CG画像、又は他の画像生成方法によって得られた画像と合成する処理を行い、合成した画像を前記表示処理手段で出力する、画像生成システムとすることも出来る。   In each of the above-described inventions, the image generation system performs a process of synthesizing the perspective projection image generated by the image generation calculation processing unit with a photographed image, a CG image, or an image obtained by another image generation method. It is also possible to provide an image generation system in which the combined image is output by the display processing means.

このような合成する処理を設けることで、利用用途が拡大する。   By providing such a process for combining, the usage applications are expanded.

本発明によって、一般のユーザが簡単に、仮想3次元空間内のユーザが指定した位置からの透視投影画像を生成、表示することが可能となる。これによって、従来のような3次元形状モデルを作成したり、シーンデータを作成する必要がない。また画像ベースの方法のように、不連続な移動ともならず、連続的且つ自由な移動を行うことを特別な機材等を用いずに出来る。   According to the present invention, a general user can easily generate and display a perspective projection image from a position designated by a user in a virtual three-dimensional space. This eliminates the need for creating a conventional three-dimensional shape model or creating scene data. Further, as in the image-based method, it is possible to perform continuous and free movement without using special equipment or the like, not discontinuous movement.

また元となる2視点のパノラマ画像からその中間の画像を生成することによって3次元画像を生成、表示するので、実写画像の表示品質であってもデータ量が極めて少なくて済む。
In addition, since a three-dimensional image is generated and displayed by generating an intermediate image from the original panoramic image of the two viewpoints, the amount of data can be extremely small even with the display quality of the photographed image.

本発明の画像生成システム1は、CPUなどの演算装置11、RAMやハードディスクなどの記憶装置12を有するコンピュータ端末(サーバも含む)上でその処理が実現される。このコンピュータ端末には、更にキーボードやマウスなどの入力装置10、ディスプレイの表示装置14、他のコンピュータ端末とインターネット等のネットワークを介してデータの送受信を行う通信装置13を更に備えていると良い。   In the image generation system 1 of the present invention, the processing is realized on a computer terminal (including a server) having an arithmetic device 11 such as a CPU and a storage device 12 such as a RAM or a hard disk. The computer terminal may further include an input device 10 such as a keyboard and a mouse, a display device 14 for display, and a communication device 13 that transmits / receives data to / from other computer terminals via a network such as the Internet.

画像生成システム1を実現するプログラムは、当該コンピュータ端末のハードディスクに記録されており、それが所定の操作が行われることによってRAMなどに読み込まれ、その機能(手段)を演算装置11で実行することで、処理が行われる。またJAVAアプレットなどによりブラウザ上で本発明の画像生成システム1を実現する場合には、画像生成システム1を実現するプログラム(アプレット)が所定のサーバから、ユーザが利用する上述のようなハードウェア構成を有するコンピュータ端末にダウンロードされ記憶装置12に記憶される。そしてそのプログラムが記憶装置12から読み出され、演算装置11で実行されることで、ブラウザ上で本発明の画像生成システム1を実現することも出来る。   A program that realizes the image generation system 1 is recorded on the hard disk of the computer terminal, and is read into a RAM or the like when a predetermined operation is performed, and the function (means) is executed by the arithmetic unit 11. Then, the process is performed. Further, when the image generation system 1 of the present invention is realized on a browser by a JAVA applet or the like, the above-described hardware configuration used by a user from a predetermined server by a program (applet) for realizing the image generation system 1 Is downloaded to a computer terminal and stored in the storage device 12. Then, the program is read from the storage device 12 and executed by the arithmetic device 11, whereby the image generation system 1 of the present invention can be realized on the browser.

これらの処理に用いる情報は、データベースやデータファイルなどの各種のファイル保存形式でRAMやハードディスクなどの記憶装置12に記憶され、その処理の際に適宜読み出されることで処理が行われる。また処理結果もRAMやハードディスクなどの記憶装置12に書き出され、適宜記憶される。従って演算した座標やテクスチャの情報は記憶装置12に記憶され、それを適宜読み出すことによって、新たな座標の演算、テクスチャマッピングなどの演算処理を実行する。本発明に於ける各手段は、その機能が論理的に区別されているのみであって、物理上あるいは事実上は同一の領域を為していても良い。   Information used in these processes is stored in the storage device 12 such as a RAM or a hard disk in various file storage formats such as a database and a data file, and is processed by being read out appropriately during the process. The processing result is also written to the storage device 12 such as a RAM or a hard disk and stored as appropriate. Accordingly, the calculated coordinates and texture information are stored in the storage device 12, and calculation processing such as calculation of new coordinates and texture mapping is executed by appropriately reading out the information. Each means in the present invention is only logically distinguished in function, and may be physically or practically the same area.

画像生成システム1は、パノラマ画像受付手段2と位置入力受付手段3と画像生成演算処理手段4と表示処理手段5とを有している。   The image generation system 1 includes a panoramic image reception unit 2, a position input reception unit 3, an image generation calculation processing unit 4, and a display processing unit 5.

パノラマ画像受付手段2は、仮想3次元空間に於ける、少なくとも任意の2地点のパノラマ画像を読み込む手段である。パノラマ画像とは、ある位置を中心として360度の全周囲を撮像した画像であり、円柱座標系、球面座標系などがある。円柱座標系のパノラマ画像の概念図を図9左側に、球面座標系のパノラマ画像の概念図を図9右側に示す。   The panorama image receiving means 2 is a means for reading at least two arbitrary panorama images in the virtual three-dimensional space. A panoramic image is an image obtained by imaging the entire circumference of 360 degrees around a certain position, and includes a cylindrical coordinate system, a spherical coordinate system, and the like. A conceptual diagram of a panoramic image of a cylindrical coordinate system is shown on the left side of FIG. 9, and a conceptual diagram of a panoramic image of a spherical coordinate system is shown on the right side of FIG.

図9に示すように位置を原点とした場合、仮想3次元空間P(Px,Py,Pz)が円柱座標系のパノラマ画像に投影された場合、対応する円柱座標(θ,h)は、

Figure 2006350852
で表される。 As shown in FIG. 9, when the position is the origin, when the virtual three-dimensional space P (Px, Py, Pz) is projected on the panoramic image of the cylindrical coordinate system, the corresponding cylindrical coordinates (θ, h) are
Figure 2006350852
It is represented by

また仮想3次元空間P(Px,Py,Pz)が球面座標系のパノラマ画像に投影された場合、対応する球面座標(θ,φ)は、

Figure 2006350852
で表される。 When the virtual three-dimensional space P (Px, Py, Pz) is projected on the panoramic image of the spherical coordinate system, the corresponding spherical coordinates (θ, φ) are
Figure 2006350852
It is represented by

尚、本明細書では、球面座標系のパノラマ画像を読み込む場合を説明するが、円柱座標系などの他の座標系を用いた場合であっても同様に処理を行うことが出来る。   In this specification, a case where a panoramic image in a spherical coordinate system is read will be described, but the same processing can be performed even when another coordinate system such as a cylindrical coordinate system is used.

位置入力受付手段3は、ユーザが透視投影画像を見たい位置の入力を受け付ける手段である。この位置は、画像生成システム1を実行するコンピュータ端末の入力装置10から直接受け付けても良いし、ユーザが利用するコンピュータ端末からネットワークを介して、その入力された位置の情報を画像生成システム1を実行するコンピュータ端末の通信装置13で受信して、それを位置入力受付手段3で受け付けても良い。前者の場合にはスタンドアローンで本発明の画像生成システム1を機能させる場合であり、後者の場合にはネットワークを用いて本発明の画像生成システム1を機能させる場合である。   The position input receiving unit 3 is a unit that receives an input of a position where the user wants to view the perspective projection image. This position may be received directly from the input device 10 of the computer terminal that executes the image generation system 1, or information on the input position is sent from the computer terminal used by the user via the network to the image generation system 1. It may be received by the communication device 13 of the computer terminal to be executed and received by the position input receiving means 3. In the former case, the image generation system 1 of the present invention is made to function stand-alone, and in the latter case, the image generation system 1 of the present invention is made to function using a network.

画像生成演算処理手段4は、パノラマ画像受付手段2で受け付けた、少なくとも2地点のパノラマ画像と、位置入力受付手段3で受け付けた透視投影画像を見たい位置の情報とに基づいて、その位置からの透視投影画像を生成する手段である。   Based on the panoramic image at least two points received by the panoramic image receiving unit 2 and the information on the position where the perspective projection image received by the position input receiving unit 3 is to be viewed, the image generation calculation processing unit 4 Is a means for generating a perspective projection image.

表示処理手段5は、画像生成演算処理手段4で生成した透視投影画像を当該コンピュータ端末の表示装置14で表示させる手段である。またネットワークを用いて本発明の画像生成システム1を機能させる場合には、画像生成演算処理手段4で生成した透視投影画像を表示処理手段5が通信装置13からネットワークを介して、ユーザが利用するコンピュータ端末に送信することで、当該ユーザが利用するコンピュータ端末でその透視投影画像を表示させる手段である。尚、本明細書では、表示装置14での表示処理、プリンターなどにより印刷処理、ネットワークを用いて他のコンピュータ端末に送信する処理を総称して出力処理とする。   The display processing unit 5 is a unit that displays the perspective projection image generated by the image generation calculation processing unit 4 on the display device 14 of the computer terminal. When the image generation system 1 of the present invention is functioned using a network, the display processing unit 5 uses the perspective projection image generated by the image generation calculation processing unit 4 from the communication device 13 via the network. By transmitting to a computer terminal, the perspective projection image is displayed on the computer terminal used by the user. In this specification, display processing on the display device 14, printing processing by a printer, and processing transmitted to another computer terminal using a network are collectively referred to as output processing.

まず本発明の画像生成システム1の基本的な実施態様の一例を図2及び図3のシステム構成図、図6のフローチャートを用いて説明する。   First, an example of a basic embodiment of the image generation system 1 of the present invention will be described with reference to the system configuration diagrams of FIGS.

本実施例の画像生成演算処理手段4は、中間パノラマ画像生成手段6と透視投影画像生成手段7とを有する。   The image generation calculation processing unit 4 of the present embodiment includes an intermediate panorama image generation unit 6 and a perspective projection image generation unit 7.

中間パノラマ画像生成手段6は、位置入力受付手段3で入力を受け付けた、ユーザが透視投影画像を見たい位置の情報と、仮想3次元空間に於ける少なくとも2以上のパノラマ画像とに基づいて、当該位置に於けるパノラマ画像(中間パノラマ画像I)を生成する手段である。 The intermediate panorama image generation means 6 receives the input by the position input reception means 3, and based on the information of the position where the user wants to see the perspective projection image and at least two or more panorama images in the virtual three-dimensional space, This is means for generating a panoramic image (intermediate panoramic image I s ) at the position.

透視投影画像生成手段7は、中間パノラマ画像生成手段6で生成した中間パノラマ画像Iに基づいて、表示装置14で表示する透視投影画像Iを生成する手段である。 Perspective projection image generation means 7, based on the intermediate panoramic image I s generated by the intermediate panorama image generating means 6 is a means for generating a perspective projection image I v to be displayed on the display device 14.

次に本発明の処理プロセスの一例を図6のフローチャート、図2及び図3のシステム構成図を用いて説明する。   Next, an example of the processing process of the present invention will be described with reference to the flowchart of FIG. 6 and the system configuration diagrams of FIGS.

まず仮想3次元空間に於ける少なくとも2以上のパノラマ画像をパノラマ画像受付手段2に読み込ませる(S100)。この際に読み込ませるパノラマ画像としては、円柱座標系のパノラマ画像でも良いし、球面座標系のパノラマでも良いし、それ以外の座標系のパノラマ画像であっても良い。本明細書では、球面座標系のパノラマ画像の場合を説明するが、それ以外の座標系でも同様に実施できる。   First, at least two or more panoramic images in the virtual three-dimensional space are read into the panoramic image receiving means 2 (S100). The panoramic image read at this time may be a panoramic image in a cylindrical coordinate system, a panoramic image in a spherical coordinate system, or a panoramic image in other coordinate systems. In this specification, a case of a panoramic image in a spherical coordinate system will be described, but the present invention can be similarly applied to other coordinate systems.

またパノラマ画像がない場合には、デジタルカメラ等で撮像した画像から、一般のステッチングソフトウェア等を用いることでパノラマ画像を生成し、それをパノラマ画像受付手段2に読み込ませても良い。   When there is no panoramic image, a panoramic image may be generated from an image captured by a digital camera or the like by using general stitching software or the like and read into the panoramic image receiving means 2.

本実施例では球面座標系のパノラマ画像を説明するので、図9右側に示すように、視点を原点とする。上述したように、仮想3次元空間上のP(Px,Py,Pz)に対応する球面座標(θ,φ)は、

Figure 2006350852
で表される。 In this embodiment, a panoramic image of a spherical coordinate system will be described, so that the viewpoint is the origin as shown on the right side of FIG. As described above, the spherical coordinates (θ, φ) corresponding to P (Px, Py, Pz) in the virtual three-dimensional space are
Figure 2006350852
It is represented by

2地点のパノラマ画像を設けた仮想3次元空間の概念図を図10に示す。図10では、地面からの高さが同じ2地点P、Pがあり、その2地点のパノラマ画像I、Iがパノラマ画像受付手段2に読み込まれることとなる。 A conceptual diagram of a virtual three-dimensional space provided with panoramic images at two points is shown in FIG. In FIG. 10, there are two points P 0 and P 1 having the same height from the ground, and panoramic images I 0 and I 1 at the two points are read into the panoramic image receiving means 2.

そしてユーザは、仮想3次元空間内の位置を入力装置10を用いて入力することで、その仮想3次元空間に於ける位置の情報を位置入力受付手段3で受け付ける(S110)。この位置をPとすると、画像生成演算処理手段4の中間パノラマ画像生成手段6は、パノラマ画像I、Iに於ける点が、位置Pに於ける中間パノラマ画像Iのどこに位置するかを三角測量法に基づいて算出することで、中間パノラマ画像Iを生成する演算処理を行う(S120)。 Then, the user inputs the position in the virtual three-dimensional space using the input device 10, and receives the position information in the virtual three-dimensional space by the position input receiving means 3 (S110). When this position as P s, intermediate panorama image generating means 6 of the image generating processing means 4, in point in the panoramic image I 0, I 1 is where the position of in the middle panoramic image I s to the position P s by calculating based on whether the to triangulation, performs arithmetic processing for generating the intermediate panoramic image I s (S120).

中間パノラマ画像Iを生成するには、まずパノラマ画像IとIに共通な撮影対象物を指定して対応する点(対応点)として指定する。即ち、仮想3次元空間の撮影対象物の位置が、パノラマ画像IとIに於いてどこに位置するかを対応付ける。この共通な対応点は、自動的に見つけても良いし、入力装置10などによって事前に指定されており、それがファイル形式で記憶装置12に記憶されていても良い。この対応点の座標情報を対応点情報と呼ぶ。 To generate an intermediate panoramic image I s, first specify the panoramic image I 0 and the common shooting object to I 1 as specified in the corresponding point (corresponding point). That is, the position of the object to be photographed in the virtual three-dimensional space is associated with the panoramic images I 0 and I 1 . This common corresponding point may be found automatically, or may be specified in advance by the input device 10 or the like, and stored in the storage device 12 in a file format. The coordinate information of the corresponding points is referred to as corresponding point information.

ここで対応点情報に基づいて、パノラマ画像生成手段は、パノラマ画像IとIを対応点によって構成される多角形領域(これを「フェイス」と呼ぶ)に分割する。従って、フェイスの頂点は対応点となっている。図11及び図12にパノラマ画像IとIに於ける対応点の指定と、パノラマ画像IとIをフェイスに分割した状態を示す。これによって、パノラマ画像I上のあるフェイスを構成する対応点は、パノラマ画像I上のフェイスを構成するいずれかの対応点に対応付けられている。 Here, based on the corresponding point information, the panoramic image generation means divides the panoramic images I 0 and I 1 into polygonal regions (referred to as “faces”) constituted by corresponding points. Therefore, the vertex of the face is a corresponding point. 11 and 12 show a specification of corresponding points that put in the panoramic image I 0 and I 1, the state of dividing a panorama image I 0 and I 1 to the face. As a result, a corresponding point constituting a face on the panoramic image I 0 is associated with any corresponding point constituting a face on the panoramic image I 1 .

パノラマ画像I上のあるフェイスをR、それに対応するパノラマ画像I上のフェイスをRとする。またR、Rを構成する対応点について、中間パノラマ画像I上で対応付けられる点で構成されるフェイスをRとする。従って中間パノラマ画像生成手段6は、R、Rの対応点情報に基づいて、三角測量法を用いて以下のようにRを算出する。 A face on the panorama image I 0 is R 0 , and a corresponding face on the panorama image I 1 is R 1 . Further, regarding the corresponding points constituting R 0 and R 1 , a face constituted by points that are associated on the intermediate panorama image Is is defined as R s . Therefore, the intermediate panorama image generation means 6 calculates R s as follows using the triangulation method based on the corresponding point information of R 0 and R 1 .

ここでRを構成するフェイスの対応点の一つをX、Rを構成するフェイスの対応点であってXに対応した対応点をX、Rを構成するフェイスの対応点であってXに対応した対応点をXとする。 Here, one of the corresponding points of the face constituting R 0 is X 0 , the corresponding point of the face constituting R 1 , the corresponding point corresponding to X 0 is X 1 , and the corresponding point of the face constituting R s the corresponding point and X s that there are corresponding to X 0 at.

本明細書では、パノラマ画像I、Iが半径1の正規化球面座標系で表されている場合を説明しているので、点Xに対応する位置をそれぞれX(θ,φ)、X(θ,φ)である。 In this specification, the case where the panoramic images I 0 and I 1 are represented by a normalized spherical coordinate system having a radius of 1 is described. Therefore, the position corresponding to the point X is set to X 00 , φ 0 , respectively). ), X 11 , φ 1 ).

ここで、

Figure 2006350852
とする。また図10に示すように、位置P、Pを含む面をxz平面とし、Pを原点、z軸上にPが位置するように空間の座標系を定める。 here,
Figure 2006350852
And As shown in FIG. 10, the plane including the positions P 0 and P 1 is defined as the xz plane, the coordinate system of the space is determined so that P 0 is the origin and P 1 is located on the z axis.

そしてユーザにより指定された地点Pでの中間パノラマ画像Iに於けるXの正規化球面座標を(θ,φ)とする。そうすると、PはP、Pをs:1−sに内分する点なので、

Figure 2006350852
となる。従って、この演算を中間パノラマ画像生成手段6が、R、Rを構成する各対応点に関して行うと、中間パノラマ画像Iに於けるRの対応点の座標が決定される。これをパノラマ画像I、Iの全てのフェイスに関して行う。そうすると、パノラマ画像I、Iの各フェイスを構成する各対応点の座標を、中間パノラマ画像Iの座標に変換することとなる。 And normalized spherical coordinates in X s in the middle panoramic image I s at the specified point P s by the user and (θ s, φ s). Then, since P s is a point that internally divides P 0 and P 1 into s: 1-s,
Figure 2006350852
It becomes. Therefore, when the intermediate panorama image generating means 6 performs this calculation for each corresponding point constituting R 0 and R 1 , the coordinates of the corresponding point of R s in the intermediate panorama image I s are determined. This is performed for all the faces of the panoramic images I 0 and I 1 . Then, the converting the coordinates of corresponding points constituting each face of the panoramic image I 0, I 1, the coordinates of the intermediate panoramic image I s.

そして中間パノラマ画像生成手段6は、中間パノラマ画像I上の各フェイスRについて、パノラマ画像I、Iに於いて、Rに対応するフェイスR、Rをテクスチャとしてテクスチャマッピングすることにより、中間パノラマ画像Iを生成することが出来る。 The intermediate panorama image generating means 6, for each face R s on the intermediate panorama image I s, at the panorama image I 0, I 1, to texture mapping a face R 0, R 1 corresponding to R s as a texture it makes it possible to generate an intermediate panoramic image I s.

中間パノラマ画像生成手段6で位置Pに於ける中間パノラマ画像Iを生成したら、透視投影画像生成手段7が、中間パノラマ画像Iに基づいて、当該位置Pに於ける透視投影画像Iを生成する処理を行う(S130)。 When the intermediate panorama image generating means 6 generates the position P s in in the middle panoramic image I s, perspective projection image generation means 7, based on the intermediate panoramic image I s, the position P s in the perspective projection to the image I A process of generating v is performed (S130).

まず透視投影画像生成手段7は、透視投影画像Iの領域を任意の複数のフェイスRに分割する。即ち、透視投影画像Iに於いて、フェイスRを構成する頂点(x,y)を複数設ける。このフェイスRは如何なる多角形であっても良く、R、Rと同一形状であってもなくても良い。そして透視投影画像IのフェイスRを構成する頂点の座標(x,y)が、中間パノラマ画像I上のどの座標(θ,φ)になるかを算出する。つまり透視投影画像IのフェイスRを構成する頂点の座標と、中間パノラマ画像I上の座標とを対応付ける。これは、透視投影画像生成手段7が数6を演算することにより算出できる。

Figure 2006350852
ここで、fx、fyはラジアン単位で表した透視投影画像Iのx、y方向画角、Rotx(−α)、Rotx(−β)はそれぞれ座標系をx軸、y軸を中心に−α、−β回転させたときの点の座標変換を表す行列である。 First perspective projection image generation means 7 divides the area of the perspective projection image I v to any of a plurality of face R v. That is, a plurality of vertices (x v , y v ) constituting the face R v are provided in the perspective projection image I v . The face Rv may be any polygon, and may or may not have the same shape as R 0 and R 1 . The vertex coordinates constituting the face R v of the perspective projection image I v (x v, y v ) is, what the coordinates (θ s, φ s) on the intermediate panorama image I s is calculated before it becomes. That associating the vertex coordinates constituting the face R v of the perspective projection image I v, and on the intermediate panorama image I s coordinates. This can be calculated by the perspective projection image generation means 7 calculating Equation 6.
Figure 2006350852
Here, fx, fy are the perspective projection image I v, expressed in radians x, y-direction angle, Rotx (-α), Rotx ( -β) x -axis, respectively, a coordinate system, about the y-axis - It is a matrix representing the coordinate conversion of points when rotated by α and −β.

透視投影画像生成手段7が数6を演算することによって、透視投影画像Iに於けるフェイスRの各頂点(x,y)が、中間パノラマ画像Iに於いてどの位置にあるかが算出できる。従って、透視投影画像IのフェイスRを中間パノラマ画像I上に変換することが出来る。このフェイスRが中間パノラマ画像I上に変換されたフェイスをRsvとする。 The perspective projection image generation means 7 calculates Equation 6, so that each vertex (x v , y v ) of the face R v in the perspective projection image I v is located in the intermediate panorama image I s. Can be calculated. Therefore, it is possible to convert the face R v of the perspective projection image I v on the intermediate panorama image I s. The face of this face R v is converted to the intermediate panorama image I s and R sv.

透視投影画像生成手段7は、中間パノラマ画像Iに於けるフェイスRsvのテクスチャを、透視投影画像IのフェイスRにテクスチャマッピングをする。これを透視投影画像Iに於ける各フェイスについて行うことで、中間パノラマ画像Iから透視投影画像Iが生成できる。図26に、パノラマ画像I及びIに基づく、位置Pからの透視投影画像Iの一例を示す。 The perspective projection image generation means 7 texture-maps the texture of the face R sv in the intermediate panorama image I s to the face R v of the perspective projection image I v . By performing each face in the perspective projection image I v this intermediate panorama image I s from perspective projection image I v can be generated. FIG. 26 shows an example of a perspective projection image I v from the position P s based on the panoramic images I 0 and I 1 .

このようにして生成した透視投影画像Iを表示処理手段5が表示装置14で表示させる(S140)。またネットワークを用いて本発明の画像生成システム1を機能させる場合には、画像生成演算処理手段4で生成した透視投影画像Iを、表示処理手段5が通信装置13からネットワークを介して、ユーザが利用するコンピュータ端末に送信することで、当該ユーザが利用するコンピュータ端末でその透視投影画像Iを表示させる。 Thus generated perspective projection image I v is display processing means 5 is displayed on the display device 14 (S140). Further, when the image generation system 1 of the present invention is made to function using a network, the perspective projection image I v generated by the image generation calculation processing unit 4 is displayed by the display processing unit 5 from the communication device 13 via the network. By transmitting to the computer terminal used by the user, the perspective projection image Iv is displayed on the computer terminal used by the user.

上述の処理をすればパノラマ画像I、Iから任意の地点の透視投影画像Iを生成して表示することが出来る。しかしパノラマ画像は球面座標系や円柱座標系の画像であるため、透視投影画像と異なり、画像に歪みが生じている。例えば図12に示すパノラマ画像の左上の天井部分については天井が丸くなり歪みが生じている(この部分を拡大した画像を図13に示す)。従って、このままの歪みのあるパノラマ画像に基づいて画像生成演算処理手段4で透視投影画像の生成処理をさせてしまうと、テクスチャマッピングの際にも歪んだテクスチャのままテクスチャマッピングしてしまうこととなり、透視投影画像Iでも歪みがでてしまう。 By performing the above-described processing, it is possible to generate and display a perspective projection image I v at an arbitrary point from the panoramic images I 0 and I 1 . However, since the panoramic image is an image of a spherical coordinate system or a cylindrical coordinate system, unlike the perspective projection image, the image is distorted. For example, the ceiling portion at the upper left of the panoramic image shown in FIG. 12 is rounded and distorted (an enlarged image of this portion is shown in FIG. 13). Therefore, if the image generation calculation processing means 4 generates the perspective projection image based on the panorama image having the distortion as it is, the texture mapping is performed with the distorted texture even in the texture mapping. Even the perspective projection image Iv is distorted.

そこでこのような問題を解決するために、上述の基本的な処理プロセスに加え、パノラマ画像受付手段2に読み込ませたパノラマ画像について、そのまま画像生成演算処理手段4で透視投影画像の生成処理をさせるのではなく、その前に画像生成演算処理手段4に歪み補正処理手段(図示せず)を設け、パノラマ画像受付手段2で受け付けたパノラマ画像について、歪みを補正する処理を行い、その補正処理を行ったパノラマ画像をパノラマ画像I、Iとして、上述の透視投影画像の生成処理を画像生成演算処理手段4で行っても良い。 Therefore, in order to solve such a problem, in addition to the above-described basic processing process, the panorama image read by the panorama image receiving unit 2 is directly subjected to the generation processing of the perspective projection image by the image generation calculation processing unit 4. Instead, a distortion correction processing means (not shown) is provided in the image generation calculation processing means 4 before that, a process for correcting distortion is performed on the panoramic image received by the panorama image receiving means 2, and the correction processing is performed. The generated panoramic image may be used as the panoramic images I 0 and I 1 , and the above-described perspective projection image generation processing may be performed by the image generation calculation processing means 4.

歪み補正処理手段に於ける、歪みをなくす補正処理の概念図を図27に示す。図27(a)は歪みをなくす補正処理の概念図を示しており、図27(b)は球面座標の一部のパノラマ画像のピクセルを示した図である。   FIG. 27 shows a conceptual diagram of correction processing for eliminating distortion in the distortion correction processing means. FIG. 27A shows a conceptual diagram of correction processing for eliminating distortion, and FIG. 27B shows a part of panoramic image pixels of spherical coordinates.

歪み補正処理手段は、歪みの補正処理前のパノラマ画像に於いて、上述のように複数のフェイス(図27(b)の三角で示される部分)に分割し、その各フェイスの各ピクセルFに関して以下の処理を行う。   The distortion correction processing unit divides the panoramic image before distortion correction processing into a plurality of faces (portions indicated by triangles in FIG. 27B) as described above, and relates to each pixel F of each face. The following processing is performed.

まずピクセルFの位置に対応する球面パノラマ画像上のフェイスA上の位置F’を算出し、数7で表される半直線hの方向ベクトルを算出し、数2により、その方向に対応するパノラマ画像上の位置を算出し、その位置のカラー(色情報。RGB値などの当該ピクセルの色を表す値)をピクセルFのカラーとする処理を行う。尚、位置F’は、テクスチャマッピングを行ったときに位置Fがマッピングされる位置になる。

Figure 2006350852
尚、点Fの座標を(θ、φ)とする。 First, the position F ′ on the face A on the spherical panorama image corresponding to the position of the pixel F is calculated, the direction vector of the half line h expressed by Equation 7 is calculated, and the panorama corresponding to that direction is calculated by Equation 2. A position on the image is calculated, and the color (color information; a value representing the color of the pixel such as an RGB value) at that position is used as the color of the pixel F. Note that the position F ′ is a position to which the position F is mapped when texture mapping is performed.
Figure 2006350852
Note that the coordinates of the point F are (θ 0 , φ 0 ).

このようにして算出された位置F’がパノラマ画像上に投影された場合の位置をGとすると、ピクセルFは、位置F’のカラーで位置Gに投影されるので、歪みが補正されることとなる。   When the position F ′ calculated in this way is projected onto the panoramic image as G, the pixel F is projected onto the position G in the color of the position F ′, so that the distortion is corrected. It becomes.

このような歪みの補正処理を歪み補正処理手段が各フェイスの各ピクセルFについて行うことで、パノラマ画像の補正処理を行うことが出来る。図13についてこのような補正処理を行った後の画像を図14に示す。   By performing such distortion correction processing for each pixel F of each face by the distortion correction processing means, it is possible to perform panorama image correction processing. FIG. 14 shows an image after such a correction process for FIG.

このように歪み補正処理後のパノラマ画像に基づいて、上述のパノラマ画像I、Iとして透視投影画像Iを生成するための基本画像とすることで、より綺麗な透視投影画像Iを生成することが出来る。 Thus, based on the panorama image after the distortion correction processing, a more beautiful perspective projection image I v is obtained by using the basic image for generating the perspective projection image I v as the above-described panorama images I 0 and I 1. Can be generated.

また、処理の基本となるのはパノラマ画像なので、フェイスに分割する際に、図15に示すように、パノラマ画像を跨ぐフェイスとなる場合もある。この場合には図15に示すようにテクスチャを反復させることで、そこを一つのテクスチャとして連続してあつかうことにより、テクスチャマッピングを容易に処理することも出来る。   Since the basis of the processing is a panoramic image, when dividing into faces, as shown in FIG. 15, there may be a face straddling the panoramic image. In this case, the texture mapping can be easily processed by repeating the texture as shown in FIG. 15 and continuously treating it as one texture.

即ち、パノラマ画像に球面座標系のパノラマ画像、円柱座標系のパノラマ画像等などの左右端が共通な投影方法のパノラマ画像を用いた場合、図16に示すように同一の対応点によるフェイスは一意には決定されない。   That is, when a panoramic image using a projection method having a common left and right end, such as a panoramic image in a spherical coordinate system or a panoramic image in a cylindrical coordinate system, is used as a panoramic image, the face corresponding to the same corresponding point is uniquely shown in FIG. Is not determined.

その為、図17に示すように、フェイス毎にフラグを持たせ(図17ではフラグRまたはフラグL)、フェイスにどのテクスチャを用いるかをそのフラグによって決定する。図17でフラグRは画像を反復させたとき、元の画像の右端よりも右にあることを意味する(図15の破線部に於けるフェイス)。   Therefore, as shown in FIG. 17, a flag is assigned to each face (flag R or flag L in FIG. 17), and which texture is used for the face is determined by the flag. In FIG. 17, the flag R means that when the image is repeated, it is on the right side of the right end of the original image (face in the broken line portion in FIG. 15).

或いはフェイス毎にフラグを持たせるのではなく、図18に示すように、画像をx方向に所定数分割、例えば4分割し、フェイスの全ての対応点の位置が図18(a)のように領域RL、RRのいずれかの範囲内にあれば図18(c)のようにフェイスを決定し、対応点の位置が図18(b)のように一つでも領域RL、RRの範囲外にあれば図18(d)のようにフェイスを決定する。つまり、頂点の位置情報から自動的にフェイスを決定することが出来る。   Alternatively, instead of providing a flag for each face, as shown in FIG. 18, the image is divided into a predetermined number of parts in the x direction, for example, four parts, and the positions of all corresponding points on the face are as shown in FIG. If it is within the range of either region RL or RR, the face is determined as shown in FIG. 18C, and even if the position of the corresponding point is outside the range of regions RL and RR as shown in FIG. 18B. If there is, the face is determined as shown in FIG. That is, the face can be automatically determined from the vertex position information.

更に、各フェイスについてテクスチャマッピングを行う場合、例えばフェイスR、Rをテクスチャとして、Rへテクスチャマッピングする場合に、R、Rを所定の補間パラメータsに応じて組み合わせることで、自然なテクスチャをRに貼り付けるようにしても良い。 Further, when texture mapping is performed for each face, for example, when faces R 0 and R 1 are used as textures and texture mapping is performed on R s , R 0 and R 1 are combined in accordance with a predetermined interpolation parameter s. the such texture may be pasted to R s.

補間パラメータsは、例えば図10に於いて、PからPを1としたとき、PからPがs、PからPが1−sとなる。そうすると、PはPとPをs:1−sに内分する点となるので、PのフェイスRをsの比率で、PのフェイスRを1−sの比率で一つのテクスチャとして合成し、合成後のテクスチャをRに貼り付ける。 Interpolation parameter s, for example at 10, when the P 0 to P 1 and 1, P s is s, the P 1 from P s becomes 1-s from P 0. Then, P s is a point that internally divides P 0 and P 1 into s: 1-s, so that the face R 0 of P 0 is a ratio of s and the face R 1 of P 1 is a ratio of 1-s. synthesized as one of the texture, paste the texture of post-synthesis to R s.

以上のように、実施例1の処理を行うことで、仮想3次元空間の任意の地点から透視投影画像Iをファイルへ出力したり、表示装置14で表示することが出来る。この際に、透視投影画像Iの生成に際しては、各演算を対応点でのみ行い、その対応点に対してテクスチャマッピングをしているに過ぎないので、極めて高速な処理が行え、リアルタイム表示も行える。 Thus, by performing the process of Example 1, and outputs the perspective projection image I v to files from any point in the virtual three-dimensional space can be displayed on the display device 14. At this time, upon generation of a perspective projection image I v performs the operation only at the corresponding point, since merely the texture mapped to the corresponding points, can very fast processing, even real-time display Yes.

次に実施例1の変形例として、パノラマ画像I及びIの対応点情報に基づいて中間パノラマ画像I上に於ける対応点を算出するが、中間パノラマ画像Iへのテクスチャマッピングを行わずに(即ち、中間パノラマ画像Iを生成せずに)透視投影画像Iを生成する場合を説明する。 Next, as the modification of the first embodiment, calculates a corresponding point that put on the intermediate panorama image I s based on the corresponding point information of the panoramic image I 0 and I 1, the texture mapping to the intermediate panorama image I s without (i.e., without generating an intermediate panoramic image I s) describing a case of generating a perspective projection image I v.

本実施例に於ける画像生成演算処理手段4は、図4に示すように、対応点算出手段8と透視投影画像生成手段7とを有している。   As shown in FIG. 4, the image generation calculation processing means 4 in the present embodiment has a corresponding point calculation means 8 and a perspective projection image generation means 7.

対応点算出手段8は、位置入力受付手段3で入力を受け付けた、ユーザが透視投影画像を見たい位置の情報と、仮想3次元空間に於ける少なくとも2以上のパノラマ画像とに基づいて、当該位置に於けるパノラマ画像(中間パノラマ画像I)の対応点Xを算出し、それに基づいて、当該位置からの透視投影画像Iの対応点Xを算出する手段である。 Corresponding point calculation means 8 receives the input by position input reception means 3, and based on the information of the position where the user wants to see the perspective projection image and at least two or more panoramic images in the virtual three-dimensional space. This is means for calculating the corresponding point X s of the panoramic image (intermediate panoramic image I s ) at the position and calculating the corresponding point X v of the perspective projection image I v from the position based on the calculated point X s .

透視投影画像生成手段7は、対応点算出手段8で算出した対応点Xに基づいて、透視投影画像Iを生成する手段である。 The perspective projection image generation means 7 is a means for generating a perspective projection image I v based on the corresponding point X v calculated by the corresponding point calculation means 8.

次に本実施例に於ける処理プロセスの一例を図7のフローチャート、図2及び図4のシステム構成図を用いて説明する。尚、S200及びS210は実施例1のS100及びS110と同様なので説明を省略する。   Next, an example of the processing process in the present embodiment will be described with reference to the flowchart of FIG. 7 and the system configuration diagrams of FIGS. Since S200 and S210 are the same as S100 and S110 of the first embodiment, description thereof is omitted.

実施例1と同様にパノラマ画像Iの対応点によって構成されるフェイスをRとし、フェイスRがパノラマ画像I上に於いて対応するフェイスをRとする。従ってフェイスRを構成する対応点Xは、フェイスRを構成する対応点Xに対応付けられている。またフェイスR及びRが中間パノラマ画像Iに於いて対応するフェイスをR、透視投影画像Iに於いて対応するフェイスをRとする。従って、フェイスR、Rを構成する対応点X、Xは、フェイスRを構成する頂点X、フェイスRを構成する頂点Xに対応付けられる。従って、対応点算出手段8は、Rを構成する頂点Xを座標を算出すればよい。 As in the first embodiment, a face constituted by corresponding points of the panoramic image I 0 is R 0, and a face corresponding to the face R 0 on the panoramic image I 1 is R 1 . Accordingly, the corresponding point X 0 constituting the face R 0 is associated with the corresponding point X 1 constituting the face R 1 . Further, the faces corresponding to the faces R 0 and R 1 in the intermediate panorama image I s are R s , and the corresponding faces in the perspective projection image I v are R v . Therefore, the corresponding points X 0 and X 1 constituting the faces R 0 and R 1 are associated with the vertex X s constituting the face R s and the vertex X v constituting the face R v . Thus, the corresponding point calculation unit 8 may calculate the coordinates of the vertex X v constituting the R v.

ユーザにより入力された仮想3次元空間に於ける位置Pの情報を位置入力受付手段3で受け付けると(S210)、画像生成演算処理手段4の対応点算出手段8は、Pに於ける中間パノラマ画像Iの対応点Xを算出する演算処理を行う(S220)。 Information at position P s on the input virtual three-dimensional space is accepted by the position input receiving means 3 by the user (S210), the corresponding point calculation unit 8 of the image generation processing unit 4 is in the middle to P s performs arithmetic processing for calculating the corresponding point X s panoramic image I s (S220).

このようにした場合、実施例1と同様に上述の数4、数5を用いることによって、対応点算出手段8はX、Xに対応するXをまず算出する。そしてこの演算を、対応点算出手段8は、パノラマ画像I、Iの全てのフェイスに関して行う。そうすると、パノラマ画像I、Iの各フェイスを構成する各対応点の座標を、中間パノラマ画像I上の頂点の座標Xに変換することが出来る。 In such a case, the corresponding point calculation means 8 first calculates X s corresponding to X 0 and X 1 by using the above-described equations 4 and 5 as in the first embodiment. Then, the corresponding point calculation means 8 performs this calculation for all the faces of the panoramic images I 0 and I 1 . Then, the coordinates of the corresponding points constituting each face of the panoramic image I 0, I 1, can be converted into the coordinate X s of the vertex on the intermediate panorama image I s.

対応点算出手段8でX、Xに基づいてXを算出後、透視投影画像I上の頂点Xは、Xに対応しているので、次に、対応点算出手段8はこのXを算出する。ここでXの正規化球面座標を(θ,φ)、Xの透視投影画像を(x,y)とする。 After calculating X s based on X 0 and X 1 by the corresponding point calculating means 8, the vertex X v on the perspective projection image I v corresponds to X s . Next, the corresponding point calculating means 8 This Xv is calculated. Here, the normalized spherical coordinate of X s is (θ s , φ s ), and the perspective projection image of X v is (x v , y v ).

ここで正規化球面座標は実施例1と同じとし、透視投影画像は、視野の中心が正規化球面座標の(α、β)方向、ラジアン単位で表した透視投影画像Iのx、y方向の画角をfx、fyとするとき、

Figure 2006350852
に投影されるものである。この概念図を図19に示す。 Here, the normalized spherical coordinates are the same as those in the first embodiment, and the perspective projection image has the center of the field of view in the (α, β) direction of the normalized spherical coordinates and the x and y directions of the perspective projection image I v expressed in radians. When the angle of view is fx, fy
Figure 2006350852
Is projected onto the screen. This conceptual diagram is shown in FIG.

まず対応点算出手段8は、視線方向(α、β)が球面パノラマ画像の中心(0,0)になるように座標変換を行う。この座標に於けるXの対応点をX(θ,φ)とする。そうすると、

Figure 2006350852
となる。ここでRotx(β)、Roty(α)はそれぞれx軸、y軸周りに座標系をβ回転、α回転させたときの点の座標変換を表す行列とする。 First, the corresponding point calculation means 8 performs coordinate conversion so that the line-of-sight direction (α, β) is the center (0, 0) of the spherical panoramic image. Let X nn , φ n ) be the corresponding point of X s in these coordinates. Then
Figure 2006350852
It becomes. Here, Rotx (β) and Roty (α) are matrices representing coordinate transformation of points when the coordinate system is rotated β and α around the x and y axes, respectively.

そうすると対応点算出手段8は、透視投影画像Iに於ける頂点X(x,y)について、中間パノラマ画像Iの頂点X(θ,φ)により、数10を演算することで求められる。

Figure 2006350852
Then, the corresponding point calculation means 8 calculates Equation 10 for the vertex X v (x v , y v ) in the perspective projection image I v by the vertex X ss , φ s ) of the intermediate panorama image I s. Is required.
Figure 2006350852

これを透視投影画像Iの全てのフェイスに関して行う。そうすると、中間パノラマ画像Iの各フェイスRを構成する各頂点Xの座標を、透視投影画像Iの各フェイスRを構成する各頂点Xの座標に変換することが出来る。 This is carried out with respect to all of the face of the perspective projection image I v. Then, the coordinates of each vertex X s constituting each face R s of the intermediate panorama image I s can be converted to the coordinates of each vertex X v constituting each face R v of the perspective projection image I v .

このようにして算出したXに基づいて、透視投影画像Iの各フェイスについて、フェイスR、RをテクスチャとしてフェイスRへテクスチャマッピングすることにより透視投影画像生成手段7は、透視投影画像Iを生成する(S230)。 On the basis of the calculated X v and for each face of the perspective projection image I v, face R 0, R 1 perspective projection image generation means 7 by texture mapping to the face R v as texture, perspective projection generating an image I v (S230).

つまり、パノラマ画像I、Iに於けるフェイスR、Rを構成する対応点X、Xが、透視投影画像Iを構成するフェイスRの各頂点Xの座標に変換できているので、パノラマ画像I、IのフェイスR、Rが、透視投影画像I上のフェイスRに変換できることとなる。従って、フェイスR、Rのテクスチャを透視投影画像I上のフェイスRにテクスチャマッピングする。そしてこれを各フェイスについて行うことで、パノラマ画像I、Iから透視投影画像Iが生成できる。 That is, the corresponding points X 0 and X 1 constituting the faces R 0 and R 1 in the panoramic images I 0 and I 1 are converted into the coordinates of the vertices X v of the face R v constituting the perspective projection image I v. Thus, the faces R 0 and R 1 of the panoramic images I 0 and I 1 can be converted into the face R v on the perspective projection image I v . Therefore, the texture mapping of the faces R 0 and R 1 is performed on the face R v on the perspective projection image I v . Then, by performing this for each face, a perspective projection image I v can be generated from the panoramic images I 0 and I 1 .

このようにして生成した透視投影画像Iを表示処理手段5が表示装置14で表示させる(S240)。またネットワークを用いて本発明の画像生成システム1を機能させている場合には、画像生成演算処理手段4で生成した透視投影画像Iを表示処理手段5が通信装置13からネットワークを介して、ユーザが利用するコンピュータ端末に送信することで、当該ユーザが利用するコンピュータ端末でその透視投影画像Iを表示させる。図26に、パノラマ画像I及びIに基づく、位置Pからの透視投影画像Iの一例を示す。 Thus generated perspective projection image I v is display processing means 5 is displayed on the display device 14 (S240). Further, when the image generation system 1 of the present invention is functioned using a network, the display processing means 5 transmits the perspective projection image I v generated by the image generation calculation processing means 4 from the communication device 13 via the network. By transmitting to the computer terminal used by the user, the perspective projection image Iv is displayed on the computer terminal used by the user. FIG. 26 shows an example of a perspective projection image I v from the position P s based on the panoramic images I 0 and I 1 .

尚、実施例1の歪みの補正処理や、補間パラメータsに応じたテクスチャの貼り付けなどを同様に処理に加えることも出来る。   Note that the distortion correction processing according to the first embodiment and the pasting of the texture according to the interpolation parameter s can be similarly added to the processing.

実施例2の処理ではテクスチャマッピングが1回で済むため、ユーザが指定する位置が頻繁に変化する場合には、実施例1よりも高速に処理が可能である。またテクスチャマッピングが1回で済むことから、画質の劣化が少ない点も実施例1よりも更に効果的である。   Since the texture mapping is performed only once in the processing of the second embodiment, when the position designated by the user frequently changes, the processing can be performed at a higher speed than the first embodiment. In addition, since texture mapping only needs to be performed once, the fact that there is little deterioration in image quality is more effective than in the first embodiment.

次に実施例1の基本処理の変形例として、パノラマ画像I、Iに於けるフェイスR、Rの各頂点に対応する仮想3次元空間上の位置を算出することで、R、Rの撮影対象物の空間位置を近似的に算出し、透視投影画像Iを生成する場合を説明する。 Next, as a modification of the basic processing of the first embodiment, R 0 is calculated by calculating the position in the virtual three-dimensional space corresponding to each vertex of the faces R 0 and R 1 in the panoramic images I 0 and I 1. A case where the spatial position of the photographing object R 1 is approximately calculated to generate a perspective projection image I v will be described.

本実施例の画像生成演算処理手段4は、空間位置算出手段9と透視投影画像生成手段7を有している。本実施例の空間位置算出手段9は、パノラマ画像I、Iに於けるフェイスR、Rの撮影対象物の仮想3次元空間に於ける空間位置を近似的に算出する手段である。 The image generation calculation processing means 4 of this embodiment has a spatial position calculation means 9 and a perspective projection image generation means 7. The spatial position calculation means 9 of this embodiment is a means for approximately calculating the spatial position in the virtual three-dimensional space of the photographing object of the faces R 0 and R 1 in the panoramic images I 0 and I 1. .

また透視投影画像生成手段7は、空間位置算出手段9で算出した撮影対象物の空間位置に基づいて、以下のいずれかの方法により透視投影画像Iを生成する手段である。撮影対象物の空間位置から透視投影画像Iを生成する第1の方法としては、フェイスを2次元の透視投影画像I上に生成し、そのフェイスにテクスチャを貼り付ける方法、第2の方法としては、ユーザが指定した位置の球面上にフェイスを作成し、そこにテクスチャを貼り付け、実施例1と同様にテクスチャマッピングする方法、第3の方法としては、3次元ポリゴンを生成し、ポリゴンフェイス上にテクスチャを貼り付ける方法である。 The perspective projection image generation means 7, based on the spatial position of the imaging object calculated by the spatial position calculating means 9 is means for generating a perspective projection image I v by either of the following methods. As a first method for generating the perspective projection image I v from the spatial position of the object to be imaged, a method of generating a face on the two-dimensional perspective projection image I v and attaching a texture to the face, a second method Is a method in which a face is created on a spherical surface at a position specified by the user, a texture is pasted there, and texture mapping is performed in the same manner as in the first embodiment. As a third method, a three-dimensional polygon is generated, This is a method of pasting a texture on a face.

次の本実施例に於ける処理プロセスの一例を図8のフローチャート、図2及び図5のシステム構成図を用いて説明する。尚、S300及びS310は実施例1のS100及びS110と同様なので説明を省略する。   An example of the processing process in the next embodiment will be described with reference to the flowchart of FIG. 8 and the system configuration diagrams of FIGS. Since S300 and S310 are the same as S100 and S110 of the first embodiment, description thereof is omitted.

ユーザにより入力された仮想3次元空間に於ける位置Pの情報を位置入力受付手段3で受け付けると(S310)、画像生成演算処理手段4の空間位置算出手段9は、パノラマ画像I、Iに於けるフェイスR、Rの撮影対象物の仮想3次元空間に於ける空間位置を近似的に算出する(S320)。 When receiving the information at the position P s on the input virtual three-dimensional space by the user in the position input receiving means 3 (S310), the spatial position calculating means 9 of the image generation processing unit 4, the panoramic image I 0, I The spatial position in the virtual three-dimensional space of the imaging object of the faces R 0 and R 1 in 1 is approximately calculated (S320).

実施例2と同様に、フェイスRを構成する対応点をX、フェイスRを構成する対応点をX、フェイスRを構成する頂点をX、フェイスRを構成する頂点をXとする。そして撮影対象物のX、X、X、Xに対応する仮想3次元空間に於ける空間位置をXとする。 As in the second embodiment, the corresponding point constituting the face R 0 is X 0 , the corresponding point constituting the face R 1 is X 1 , the vertex constituting the face R s is X s , and the vertex constituting the face R v is represented Let Xv . Then, let X be the spatial position in the virtual three-dimensional space corresponding to X 0 , X 1 , X s , and X v of the object to be imaged.

図20に示すように、位置P、Pに於いて、対応点X、Xの位置によって決定されるPの存在範囲を表す半直線をl、lとする。そうするとl、lは理想的には交わり、その交点が仮想3次元空間上の点Xの位置である。従って仮想3次元空間に於ける点Xの位置は、lとlの交点として算出することが出来る。 As shown in FIG. 20, the half lines representing the existence range of P determined by the positions of the corresponding points X 0 and X 1 at the positions P 0 and P 1 are defined as l 0 and l 1 . Then, l 0 and l 1 ideally intersect, and the intersection is the position of the point X in the virtual three-dimensional space. Therefore, the position of the point X in the virtual three-dimensional space can be calculated as the intersection of l 0 and l 1 .

具体的には図20に示すように、位置P、Pを含む平面をxz平面とし、Pを原点、z軸上にP(0,0,−1)が位置するように空間の座標系を定める。X、Xの正規化球面座標系をそれぞれ(θ,φ)、(θ,φ)とすると、対応する半直線l、lの方向ベクトルはそれぞれ数11で与えられる。

Figure 2006350852
Specifically, as shown in FIG. 20, the plane including the positions P 0 and P 1 is the xz plane, P 0 is the origin, and P 1 (0, 0, −1) is positioned on the z axis. Define the coordinate system. Assuming that the normalized spherical coordinate systems of X 0 and X 1 are (θ 0 , φ 0 ) and (θ 1 , φ 1 ), respectively, the direction vectors of the corresponding half lines l 0 and l 1 are given by Equation 11, respectively. .
Figure 2006350852

空間位置算出手段9は、点X(x,y,z)の位置を、数11を用いて数12を演算することにより算出することが出来る。

Figure 2006350852
The spatial position calculation means 9 can calculate the position of the point X (x, y, z) by calculating Expression 12 using Expression 11.
Figure 2006350852

このようにフェイスR、Rの各対応点X、Xに対応する仮想3次元空間上の位置を上述のように、半直線l、lの交点から算出することでR、R内の撮影対象物の仮想3次元空間に於ける空間位置を近似的に算出することが出来る。これをパノラマ画像I、Iの全てのフェイスに関して行う。そうすると、パノラマ画像I、Iに於ける全てのフェイスR、Rを構成する対応点X、Xの仮想3次元空間上に於ける位置が算出できる。 As described above, R 0 is calculated by calculating the positions in the virtual three-dimensional space corresponding to the corresponding points X 0 and X 1 of the faces R 0 and R 1 from the intersections of the half lines l 0 and l 1 as described above. , The spatial position of the object to be imaged in R 1 in the virtual three-dimensional space can be approximately calculated. This is performed for all the faces of the panoramic images I 0 and I 1 . Then, the positions in the virtual three-dimensional space of the corresponding points X 0 and X 1 constituting all the faces R 0 and R 1 in the panoramic images I 0 and I 1 can be calculated.

空間位置算出手段9が仮想3次元空間に於ける点Xの位置を算出後、透視投影画像生成手段7は、この空間上の位置に基づいて、上述の3つのうちのいずれかの方法により透視投影画像Iを生成する(S330〜S350)。 After the spatial position calculation means 9 calculates the position of the point X in the virtual three-dimensional space, the perspective projection image generation means 7 performs the fluoroscopy according to any one of the three methods described above based on the position in the space. generating a projection image I v (S330~S350).

まず透視投影画像生成手段7が、上述の第1の方法により透視投影画像Iを生成する場合を説明する(S330)。この場合、仮想3次元空間上の点X(X,X,X)から、ユーザが指定した位置Pでの中間パノラマ画像Iの球面座標上で対応する位置X(θ,φ)への変換は、透視投影画像生成手段7が数13を算出することにより得られる。

Figure 2006350852
尚、ここでユーザが指定した位置Pをこの仮想3次元空間上で(Psx,Psy,Psz)とする。そうすると、中間パノラマ画像I上の頂点Xから透視投影画像I上の頂点Xの位置への変換を実施例2と同様の方法で行うことが出来る。 First perspective projection image generation unit 7, the case of generating a perspective projection image I v by the first method described above (S330). In this case, from the point X (X x , X y , X z ) in the virtual three-dimensional space, the corresponding position X ss) on the spherical coordinates of the intermediate panoramic image I s at the position P s specified by the user. , Φ s ) is obtained when the perspective projection image generation means 7 calculates Equation (13).
Figure 2006350852
Here, the position P s designated by the user is assumed to be (P sx , P sy , P sz ) in this virtual three-dimensional space. Then, you are possible to carry out an intermediate panoramic image I s on the vertex transformation Example 2 In the same manner as from X s to the position of the vertex X v on the perspective projection image I v.

このようにして算出したXに基づいて、実施例2と同様に、透視投影画像Iの各フェイスについて、フェイスR、RをテクスチャとしてフェイスRへテクスチャマッピングすることにより透視投影画像生成手段7は、透視投影画像Iを生成する。 On the basis of the calculated X v and, according to the same method as Example 2, for each face of the perspective projection image I v, face R 0, R 1 perspective projection image by texture mapping to the face R v as texture generation means 7 generates a perspective projection image I v.

つまり、パノラマ画像I、Iに於けるフェイスR、Rを構成する対応点X、Xが、透視投影画像Iを構成するフェイスRの各頂点Xの座標に変換できているので、パノラマ画像I、IのフェイスR、Rが、透視投影画像I上のフェイスRに変換できることとなる。従って、フェイスR、Rのテクスチャを透視投影画像I上のフェイスRにテクスチャマッピングする。そしてこれを各フェイスについて行うことで、パノラマ画像I、Iから透視投影画像Iが生成できる。 That is, the corresponding points X 0 and X 1 constituting the faces R 0 and R 1 in the panoramic images I 0 and I 1 are converted into the coordinates of the vertices X v of the face R v constituting the perspective projection image I v. Thus, the faces R 0 and R 1 of the panoramic images I 0 and I 1 can be converted into the face R v on the perspective projection image I v . Therefore, the texture mapping of the faces R 0 and R 1 is performed on the face R v on the perspective projection image I v . Then, by performing this for each face, a perspective projection image I v can be generated from the panoramic images I 0 and I 1 .

次に透視投影画像生成手段7が、上述の第2の方法により透視投影画像Iを生成する場合を説明する(S340)。 Then the perspective projection image generation means 7, the case of generating a perspective projection image I v by the second method described above (S340).

この方法では、点Xをユーザが指定した位置Pでの中間パノラマ画像Iの球面座標上の対応する頂点Psp(Xsp,Ysp,Zsp)に変換するので、透視投影画像生成手段7は数14を演算する。

Figure 2006350852
In this method, since the point X is converted into the corresponding vertex P sp (X sp , Y sp , Z sp ) on the spherical coordinate of the intermediate panoramic image I s at the position P s specified by the user, a perspective projection image generation is performed. The means 7 calculates the formula 14.
Figure 2006350852

これをパノラマ画像I、Iに於ける各フェイスを構成する対応点X、Xについて行うことで、中間パノラマ画像Iに於ける各フェイスを構成する頂点Xに変換できる。そうすると実施例1と同様に、そしてパノラマ画像I、Iに於けるフェイスR、Rのテクスチャを、中間パノラマ画像IのフェイスRにテクスチャマッピングすることで、中間パノラマ画像Iを生成することが出来る。 By performing this operation on the corresponding points X 0 and X 1 constituting the faces in the panoramic images I 0 and I 1 , the vertexes X s constituting the faces in the intermediate panorama image I s can be converted. Then in the same manner as in Example 1, and the panoramic image I 0, in the I 1 Face R 0, the texture of the R 1, by texture mapping on the face R s of the intermediate panoramic image I s, intermediate panoramic image I s Can be generated.

従って実施例1と同様に、透視投影画像Iに於けるフェイスRの各頂点が、中間パノラマ画像Iに於いてどの位置にあるかを算出し、透視投影画像IのフェイスRを中間パノラマ画像I上に変換する。そして、透視投影画像生成手段7は、中間パノラマ画像Iに於けるフェイスのテクスチャを透視投影画像IのフェイスRにテクスチャマッピングすることで、中間パノラマ画像Iから透視投影画像Iを生成する。 Thus in the same manner as in Example 1, the vertices of the at face R v in perspective projection image I v calculates whether in any position at the intermediate panoramic image I s, face R v of the perspective projection image I v converting the on intermediate panoramic image I s. The perspective projection image generation unit 7, by texture mapping texture in the face in the middle panoramic image I s to face R v of the perspective projection image I v, the perspective projection image I v from the intermediate panoramic image I s Generate.

ここでは実施例1と同様の処理方法を説明したが、実施例2と同様の処理方法を用いることも出来る。つまり、パノラマ画像I、Iに於ける各フェイスを構成する対応点X、Xについて、透視投影画像Iに於けるフェイスRの各頂点Xとの対応関係を算出することで、フェイスRを構成する頂点Xの座標を算出する。そしてこのように算出したXに基づいて、透視投影画像Iの各フェイスについて、フェイスR、RをテクスチャとしてフェイスRへテクスチャマッピングすることで、パノラマ画像I、Iから透視投影画像Iを生成する。 Although the processing method similar to that of the first embodiment has been described here, the same processing method as that of the second embodiment can also be used. That is, the correspondence between the corresponding points X 0 and X 1 constituting the faces in the panoramic images I 0 and I 1 and the vertices X v of the face R v in the perspective projection image I v is calculated. in, and calculates the coordinates of the vertex X v constituting the face R v. Then, based on thus calculated X v, for each face of the perspective projection image I v, face R 0, R 1 by texture mapping to the face R v as texture, projected from the panoramic image I 0, I 1 A projection image Iv is generated.

尚、仮想3次元空間上の点なので、4点以上は一般には同一平面上にないが、仮想3次元空間上の4点以上の面は、透視投影画像生成手段7が適宜分割してレンタリング処理を行うことで出来る。このレンタリング処理には、例えばOpenGLやDirectXなどのAPIを用いることが出来る。これによって自動的に分割してレンタリング処理を行うことが出来る。   It should be noted that since the points are in the virtual three-dimensional space, four or more points are generally not on the same plane, but the four or more points in the virtual three-dimensional space are appropriately divided by the perspective projection image generation means 7 for rental. It can be done by processing. For this rental process, APIs such as OpenGL and DirectX can be used, for example. This makes it possible to automatically divide and perform the rental process.

更に透視投影画像生成手段7が、上述の第3の方法により透視投影画像Iを生成する場合を説明する(S350)。 Further perspective projection image generation unit 7, the case of generating a perspective projection image I v by the third method described above (S350).

この方法では、S320の処理に於いて、パノラマ画像I、Iに於ける全てのフェイスR、Rを構成する対応点X、Xの仮想3次元空間上に於ける位置が算出されているので、そのフェイスを面とする3次元ポリゴンが構成出来る。そうすると、パノラマ画像I、IのフェイスR、Rのテクスチャを、3次元ポリゴンの当該フェイスに対応する面にテクスチャマッピングする。 In this method, in the process of S320, the positions on the virtual three-dimensional space of the corresponding points X 0 and X 1 constituting all the faces R 0 and R 1 in the panoramic images I 0 and I 1 are determined. Since it is calculated, a three-dimensional polygon having the face as a surface can be formed. Then, the textures of the faces R 0 and R 1 of the panoramic images I 0 and I 1 are texture-mapped to the surface corresponding to the face of the three-dimensional polygon.

そうすると透視投影画像生成手段7は、仮想3次元空間に於ける3次元ポリゴンが生成できるので、ユーザが指定した位置Pからの透視投影画像Iを生成する。3次元ポリゴンから透視投影画像Iを生成するのは、公知の3次元ポリゴンの処理方法を用いることが出来る。 Then the perspective projection image generation means 7, since the three-dimensional polygon in the virtual three-dimensional space can be generated, generating a perspective projection image I v from the position P s specified by the user. A known three-dimensional polygon processing method can be used to generate the perspective projection image I v from the three-dimensional polygon.

以上のように、透視投影画像生成手段7で生成した透視投影画像Iを表示処理手段5が表示装置14で表示させる(S360)。またネットワークを用いて本発明の画像生成システム1を機能させている場合には、画像生成演算処理手段4で生成した透視投影画像Iを表示処理手段5が通信装置13からネットワークを介して、ユーザが利用するコンピュータ端末に送信することで、当該ユーザが利用するコンピュータ端末でその透視投影画像Iを表示させる。図26に、パノラマ画像I及びIに基づく、位置Pからの透視投影画像Iの一例を示す。 As described above, the display processing unit 5 is displayed on the display device 14 a perspective projection image I v generated by the perspective projection image generation means 7 (S360). Further, when the image generation system 1 of the present invention is functioned using a network, the display processing means 5 transmits the perspective projection image I v generated by the image generation calculation processing means 4 from the communication device 13 via the network. By transmitting to the computer terminal used by the user, the perspective projection image Iv is displayed on the computer terminal used by the user. FIG. 26 shows an example of a perspective projection image I v from the position P s based on the panoramic images I 0 and I 1 .

尚、実施例1の歪みの補正処理や、補間パラメータsに応じたテクスチャの貼り付けなどを同様に処理に加えることも出来る。   Note that the distortion correction processing according to the first embodiment and the pasting of the texture according to the interpolation parameter s can be similarly added to the processing.

本実施例の前提となる撮影対象物の空間位置の点Xを算出する際には、図20に示すように、位置P、Pからの半直線l、lの交点を算出することによって処理している。しかし、実際にはパノラマ画像I、Iの歪みやステッチング時の誤差などにより、図21に示すように、半直線l、lが点Xで必ずしも交わらない。 When calculating the point X of the spatial position of the object to be photographed, which is the premise of the present embodiment, as shown in FIG. 20, the intersections of the half lines l 0 and l 1 from the positions P 0 and P 1 are calculated. It is processed by. However, actually, the half lines l 0 and l 1 do not necessarily intersect at the point X as shown in FIG. 21 due to distortion of the panoramic images I 0 and I 1 , errors during stitching, and the like.

この場合には、半直線l上で最も半直線lに近い地点をQ、l上で最も半直線lに近い地点をQとし、線分Qを所定の補間パラメータsによって、s:1−sに内分する点を点Xであるとする演算処理を空間位置算出手段9は行う。 In this case, a point close to the point closest to the half-line l 1 on half line l 0 on the Q 0, l 1 the most half-line l 0 on the Q 1, interpolating a line segment Q 0 Q 1 given The spatial position calculation means 9 performs a calculation process that determines that the point X is internally divided into s: 1-s by the parameter s.

,Qの位置をそれぞれQ(q0x,q0y,q0z),Q(q1x,q1y,q1z)とすると、これらは上述の数11を用いることによって、数15のように表される。従って、空間位置算出手段9は、数15を演算することによって、Q,Qの位置を算出する。

Figure 2006350852
Q 0, Q 1 position, respectively Q 0 (q 0x, q 0y , q 0z), Q 1 (q 1x, q 1y, q 1z) When, by these using the number 11 of the above, the number 15 It is expressed as Accordingly, the spatial position calculation means 9 calculates the positions of Q 0 and Q 1 by calculating the formula 15.
Figure 2006350852

以上のように、半直線l、lが点Xで必ずしも交わらない場合であっても、点Xを決定すると、s=0、s=1の時にそれぞれX=X、X=Xとなり、透視投影画像Iの歪みを押させることが出来る。また線分Qの長さは、この条件を満たす中で最小であり、実際の撮影対象物の位置に対する好ましい近似となる。またQ、Qは最初に一度演算しておけば良く、補間処理の都度に演算する必要もない。 As described above, even when the half lines l 0 and l 1 do not necessarily intersect at the point X, when the point X is determined, X s = X 0 and X s = when s = 0 and s = 1, respectively. X 1 becomes, it is possible to push the distortion of perspective projection image I v. Further, the length of the line segment Q 0 Q 1 is the smallest among these conditions, and is a preferable approximation to the actual position of the object to be photographed. Q 0 and Q 1 need only be calculated once at the beginning, and need not be calculated every time interpolation processing is performed.

尚、歪みが非常に大きいときや特に位置P、Pを結ぶ直線近傍に撮影対象物が存在する場合には、Xが正しく演算できない場合がある。或いは特殊な表現を行うために故意に透視投影画像Iを歪ませたい場合もある。このような場合には、Q及びQ、或いはXについて、ユーザからの入力を可能とする機能を備えておいても良い。この場合には、ユーザが入力装置10から入力したQ、Q、Xの情報を透視投影画像生成手段7が受け付け、それに基づいて演算処理を行うこととなる。また、Q、Q、Xの情報は所定のファイル形式で記憶装置12に予め記憶しておき、それが読み出されることで、演算装置11で演算処理されても良い。 It should be noted that X may not be calculated correctly when the distortion is very large, or when there is a subject to be photographed in the vicinity of the straight line connecting the positions P 0 and P 1 . Or in some cases you want to deliberately distort the perspective projection image I v in order to make a special representation. In such a case, a function for enabling input from the user may be provided for Q 0 and Q 1 or X. In this case, the perspective projection image generation means 7 receives information on Q 0 , Q 1 , and X input from the input device 10 by the user, and performs arithmetic processing based on the information. Further, the information of Q 0 , Q 1 , and X may be stored in advance in the storage device 12 in a predetermined file format and read out so as to be processed by the calculation device 11.

実施例1から実施例3に於ける、少なくとも2地点のパノラマ画像I、Iに基づいて、ユーザが連続的に位置Pを逐次入力し、位置Pからの透視投影画像Iを生成する処理を連続的に逐次行うことによって、透視投影画像Iを連続的に生成し、あたかも仮想3次元空間を移動しているかのようになる。 Based on the panoramic images I 0 and I 1 of at least two points in the first to third embodiments, the user sequentially inputs the position P s sequentially, and the perspective projection image I v from the position P s is obtained. By continuously performing the processing to be generated, the perspective projection image Iv is continuously generated as if moving in the virtual three-dimensional space.

この場合には、図22に示すように、仮想3次元空間に於けるパノラマ画像を複数用意しておき、そのパノラマ画像間の対応点情報を複数用意しておく。図22では仮想3次元空間の位置P、P、P、Pからのパノラマ画像I、I、I、Iを設けておき、IとI、IとI、IとIの間で各々対応点の情報を設定しておく。この対応点情報をT、T、Tとする。 In this case, as shown in FIG. 22, a plurality of panoramic images in a virtual three-dimensional space are prepared, and a plurality of corresponding point information between the panoramic images is prepared. In FIG. 22, panoramic images I 0 , I 1 , I 2 , and I 3 from positions P 0 , P 1 , P 2 , and P 3 in the virtual three-dimensional space are provided, and I 0 and I 1 , I 1 and I 2 , corresponding point information is set between I 2 and I 3 . This corresponding point information is assumed to be T 0 , T 1 , T 2 .

このT、T、Tの対応点情報に基づいて、上述した実施例1から実施例3のいずれかの方法により、画像生成演算処理手段4が連続的に透視投影画像Iを生成する。即ち、ユーザが入力装置10から逐次、仮想3次元空間に於ける位置を入力することによって、その位置を位置入力受付手段3で受け付け、画像生成演算処理手段4が透視投影画像Iを逐次生成し、表示処理手段5が表示装置14により表示する。 Based on the corresponding point information of T 0 , T 1 , and T 2 , the image generation calculation processing means 4 continuously generates the perspective projection image I v by any of the methods of the first to third embodiments described above. To do. That is, the user sequentially from the input device 10, by entering in position in the virtual three-dimensional space, accepts the position by the position input receiving means 3 sequentially generates the image generation processing unit 4 a perspective projection image I v Then, the display processing means 5 displays it on the display device 14.

また図23に示すように、位置PからPまでの仮想3次元空間に於ける透視投影画像Iを生成する場合には、まずモーフィング区間Mに対して実施例1から実施例3のいずれか方法で透視投影画像Iv0を生成し、位置がPに到達した場合にはモーフィング区間Mに対して実施例1から実施例3のいずれかの方法で透視投影画像Iv1を生成し、位置がPに到達した場合にはモーフィング区間Mに対して実施例1から実施例3のいずれかの方法で透視投影画像Iv2を生成する。位置の指定は、ユーザが入力装置10から逐次入力を行い、それを位置入力受付手段3で受け付けることであっても良いし、予め連続的な位置の移動の情報を位置入力受付手段3で受け付けておくことであっても良い。 As shown in FIG. 23, when generating a perspective projection image I v in a virtual three-dimensional space from positions P 0 to P 3 , first, the first to third embodiments are applied to the morphing section M 0 . The perspective projection image I v0 is generated by any one of the methods, and when the position reaches P 1 , the perspective projection image I v1 is generated by the method according to any one of the first to third embodiments for the morphing section M 1 . generated, the position to generate a perspective projection image I v2 in any of the method of example 3 from example 1 with respect to morphing section M 2 when it reaches the P 2. The designation of the position may be that the user inputs sequentially from the input device 10 and accepts it by the position input accepting means 3 or accepts information on continuous position movement in advance by the position input accepting means 3. It may be to keep.

尚、モーフィング区間とは、同一のパノラマ画像I、I、対応点情報Tなどによって実施例1から実施例3のいずれかの方法により連続的に透視投影画像Iを生成する区間を示す。 The morphing section is a section in which the perspective projection image I v is continuously generated by the method of any one of the first to third embodiments using the same panoramic images I 0 and I 1 , corresponding point information T 0 and the like. Show.

ここでモーフィング区間を切り替える際に、視点位置と視線方向が不連続に変化する可能性がある。そこで現在のモーフィング区間での補間パラメータから、新しいモーフィング区間での補間パラメータと視線方向に変換する処理を設ける。例えば図24に示すように、モーフィング区間M、M毎の空間座標をローカル座標(相対座標)とし、仮想3次元空間に於いてワールド座標(絶対座標)を設ける。ワールド座標系で見た位置Pの位置と位置Pから位置P方向への単位ベクトルなど、ワールド座標とローカル座標との変換パラメータを情報として予め与えておく。そしてモーフィング区間移行前のローカル座標での視点位置と視線方向をワールド座標に変換し、更にモーフィング区間移行後のローカル座標での視点位置と視線方向に変換する。このようにすることでモーフィング区間の切替が滑らかに変化する。 Here, when the morphing section is switched, the viewpoint position and the line-of-sight direction may change discontinuously. Therefore, a process is provided for converting the interpolation parameter in the current morphing section into the interpolation parameter and line-of-sight direction in the new morphing section. For example, as shown in FIG. 24, space coordinates for each of the morphing sections M 0 and M 1 are set as local coordinates (relative coordinates), and world coordinates (absolute coordinates) are provided in a virtual three-dimensional space. Conversion parameters between world coordinates and local coordinates, such as a position at the position P 0 viewed in the world coordinate system and a unit vector from the position P 0 to the position P 1 , are given in advance as information. Then, the viewpoint position and the line-of-sight direction in the local coordinates before the morphing section shift are converted into world coordinates, and further converted into the viewpoint position and the line-of-sight direction in the local coordinates after the morphing section shift. By doing so, switching of the morphing section changes smoothly.

例えば図25に示すように、モーフィング区間M内で連続的に透視投影画像を生成、表示し、モーフィング区間Mからモーフィング区間Mへ切り替える際には、モーフィング区間の連続具合やワールド座標とローカル座標との変換用パラメータをひとまとまりのシーンデータとして予め用意された情報を用いてパラメータ変換を行い、隣接区間M、Mに於いて連続的に透視投影画像を生成、表示する。そして次のモーフィング区間Mに位置した場合に、モーフィング区間M内で連続的に透視投影画像を生成、表示する処理を行う。 For example, as shown in FIG. 25, continuously generating a perspective projection image in the morphing section M 0, and displays, when switching from the morphing section M 0 to morphing section M 1 is a continuous condition and world coordinates of morphing section Parameter conversion is performed using information prepared in advance as a set of scene data for parameters for conversion with local coordinates, and perspective projection images are continuously generated and displayed in adjacent sections M 0 and M 1 . And when located next morphing section M 1, continuously generating a perspective projection image in the morphing section M 1, performs processing for displaying.

ワールド座標系を設け、各ローカル座標系との対応関係を設定すると、複数のモーフィング区間で共通の対応点が存在するときに、あるモーフィング区間で設定した対応点データを元に、他方のモーフィング区間での対応点を自動的に取得することが出来る。即ち、あるモーフィング区間で設定した対応点からそのモーフィング区間のローカル座標系での空間上の点の位置を算出し、それをワールド座標系に変換する演算を行い、他方のモーフィング区間のローカル座標系での空間上の点の位置に変換し、その空間上の点の位置に対応する各パノラマ画像上の位置に変換することによって、対応点を自動的に取得することが出来る。この処理を設けることによって、対応点の取得に対する作業量を大幅に削減することが出来る。   When the world coordinate system is provided and the correspondence relationship with each local coordinate system is set, when there is a common corresponding point in multiple morphing sections, the other morphing section is based on the corresponding point data set in one morphing section. Corresponding points at can be acquired automatically. That is, from the corresponding point set in one morphing section, the position of the point in the space in the local coordinate system of the morphing section is calculated, and the calculation is performed to convert it to the world coordinate system, and the local coordinate system of the other morphing section The corresponding point can be automatically acquired by converting to a position of a point on the space and converting to a position on each panoramic image corresponding to the position of the point on the space. By providing this process, the amount of work for acquiring corresponding points can be significantly reduced.

尚、実写画像、CG画像、或いは他の画像生成方法によって得られた画像を読み込むことで、本発明の画像生成システム1によって得られた透視投影画像Iを背景とし、読み込んだ画像を前景として画像合成の処理を行う手段を設けても良い。他の画像生成方法としては、例えば特開2002−324249号を用いることも出来る。 Note that real image, CG image, or by reading the images obtained by other imaging methods, the perspective projection image I v obtained by the image generation system 1 of the present invention as a background, the image read as the foreground Means for performing image composition processing may be provided. As another image generation method, for example, JP-A-2002-324249 can be used.

加えて、本発明の更なる応用例として、左目、右目のそれぞれの視点から見た透視投影画像Iを生成し、それを3次元対応表示装置14(例えばシャープ株式会社製液晶モニタ LL−151Dなど)で表示することによって、立体表示することも出来る。この場合、右目、左目双方について、パノラマ画像からの透視投影画像Ivl、Ivrを生成し、表示することで行える。尚、表示装置14としては液晶モニタのみならず、ゴーグル型の表示装置14であっても良いし、これに限定されない。 In addition, as a further application of the present invention, the left eye, and generates a perspective projection image I v seen from the respective viewpoints of the right eye, it three-dimensional correspondence display device 14 (e.g., manufactured by Sharp Corporation LCD monitor LL-151D Etc.) can also be displayed in 3D. In this case, it is possible to generate and display the perspective projection images I vl and I vr from the panoramic image for both the right eye and the left eye. The display device 14 may be a goggle type display device 14 as well as a liquid crystal monitor, and is not limited thereto.

パノラマ画像I、Iから左目用の透視投影画像Ivl、右目用の透視投影画像Ivrを生成して3次元表示を行うことで、従来の方法と異なり、左目、右目それぞれの視点での独自の画像が必要とはならない。また視点位置や視線方向を任意に調節できるため、視差を自由に調節することが出来、表示装置14やユーザの年齢、表示目的などに併せて視差を大きくしてより立体的に見える表示を行ったり、視差を小さくして目の疲れを軽減させるような調節も行える。
Unlike the conventional method, the panorama images I 0 , I 1 are used to generate a perspective projection image I vl for the left eye and a perspective projection image I vr for the right eye and perform three-dimensional display. No need for your own image. In addition, since the viewpoint position and line-of-sight direction can be adjusted arbitrarily, the parallax can be freely adjusted, and the display device 14 and the user's age, display purpose, etc. can be combined to increase the parallax and display more stereoscopically. You can also make adjustments to reduce parallax and reduce eye strain.

上述した本発明によって、一般のユーザが簡単に仮想3次元空間の任意位置からの透視投影画像を生成、表示することが可能となる。これによって、従来のような3次元形状モデルを作成したり、シーンデータを作成する必要がない。また位置を移動する場合にも、画像ベースの方法のように、不連続な移動ともならず、連続的且つ自由な移動を行うことを特別な機材等を用いずに出来る。   According to the present invention described above, a general user can easily generate and display a perspective projection image from an arbitrary position in a virtual three-dimensional space. This eliminates the need for creating a conventional three-dimensional shape model or creating scene data. Even when the position is moved, it is possible to perform continuous and free movement without using special equipment or the like as in the image-based method.

また元となる2つのパノラマ画像からその中間の画像を生成することによって透視投影画像を生成、表示するので、実写画像の表示品質であってもデータ量が極めて少なくて済む。
Further, since a perspective projection image is generated and displayed by generating an intermediate image from the two original panoramic images, the amount of data can be extremely small even with the display quality of the photographed image.

画像生成システムを機能させるコンピュータ端末のハードウェア構成の一例を示した図である。It is the figure which showed an example of the hardware constitutions of the computer terminal which functions an image generation system. 画像生成システムの機能を示したシステム構成図である。1 is a system configuration diagram illustrating functions of an image generation system. 実施例1の画像生成演算処理手段のシステムの機能を示したシステム構成図である。FIG. 2 is a system configuration diagram illustrating functions of a system of an image generation arithmetic processing unit according to the first exemplary embodiment. 実施例2の画像生成演算処理手段のシステムの機能を示したシステム構成図である。FIG. 10 is a system configuration diagram illustrating functions of a system of an image generation arithmetic processing unit according to a second embodiment. 実施例3の画像生成演算処理手段のシステムの機能を示したシステム構成図である。FIG. 10 is a system configuration diagram illustrating functions of a system of an image generation arithmetic processing unit according to a third embodiment. 実施例1の処理プロセスの一例を示したフローチャートである。3 is a flowchart illustrating an example of a processing process according to the first exemplary embodiment. 実施例2の処理プロセスの一例を示したフローチャートである。10 is a flowchart illustrating an example of a processing process according to the second embodiment. 実施例3の処理プロセスの一例を示したフローチャートである。10 is a flowchart illustrating an example of a processing process according to a third embodiment. パノラマ画像の概念図である。It is a conceptual diagram of a panoramic image. 2地点のパノラマ画像を設けた仮想3次元空間の概念図である。It is a conceptual diagram of the virtual three-dimensional space which provided the panoramic image of 2 points | pieces. パノラマ画像Iに於ける対応点の指定と、それによるフェイスへ分割した状態を示す図である。Designated corresponding points and that put in the panoramic image I 0, it is a diagram showing a state where divided into the face by it. パノラマ画像Iに於ける対応点の指定と、それによるフェイスへ分割した状態を示す図である。Designated corresponding points and that put in the panoramic image I 1, showing a state where divided into the face by it. 補正を行わない場合に読み込ませるパノラマ画像Iの一例の一部分である。Is an example portion of the panoramic image I 0 to read if not corrected. 補正を行う場合の読み込ませるパノラマ画像Iの一例の一部分である。Is an example portion of the panoramic image I 0 to load when performing correction. 中間パノラマ画像Iをフェイスに分割する際に、フェイスが中間パノラマ画像Iを跨ぐ場合の概念図である。When dividing the intermediate panoramic image I s to the face, it is a conceptual view when the face crosses the intermediate panoramic image I s. 対応点によるフェイスが一意に決定されないことを示した概念図である。It is the conceptual diagram which showed that the face by a corresponding point was not determined uniquely. 対応点にフラグを持たせた場合の概念図である。It is a conceptual diagram at the time of giving a flag to a corresponding point. 画像をx方向に4分割することで頂点の位置情報から自動的にフェイスを決定する場合の概念図である。It is a conceptual diagram in the case where a face is automatically determined from vertex position information by dividing an image into four in the x direction. 視線方向の変換を示す概念図である。It is a conceptual diagram which shows conversion of a gaze direction. 実施例3に於いて、点Xの仮想3次元空間に於ける点Xの位置を算出する処理の概念図である。In Example 3, it is a conceptual diagram of the process which calculates the position of the point X in the virtual three-dimensional space of the point X. 実施例3に於いて、パノラマ画像I、Iの歪みやステッチング時の誤差などにより点Xの位置を交点として算出することが出来ない場合の算出処理の概念図である。In Example 3, it is a conceptual diagram of the calculation process in the case where the position of the point X cannot be calculated as an intersection point due to the distortion of the panoramic images I 0 and I 1 or an error at the time of stitching. 実施例4に於いて、パノラマ画像と対応点情報の概念を示す図である。In Example 4, it is a figure which shows the concept of a panoramic image and corresponding point information. 実施例4に於いて、モーフィング区間と位置との関係の概念を示す図である。In Example 4, it is a figure which shows the concept of the relationship between a morphing area and a position. 実施例4に於いて、モーフィング区間M、M毎の空間座標をローカル座標とし、仮想3次元空間に於いてワールド座標を設けた場合の概念図である。In Example 4, the morphing section M 0, the spatial coordinates of each M 1 and the local coordinates, is a conceptual view of a case of providing world coordinates at the virtual three-dimensional space. 実施例4に於いて、モーフィング区間の連続具合やワールド座標とローカル座標との変換用パラメータをひとまとまりのシーンデータとして予め用意しておき、モーフィング区間の切替になったらそのシーンデータを再生し、シーンデータが終了後、新たなモーフィング区間で透視投影画像を生成する場合の概念図である。In Example 4, the conversion parameters between the morphing interval and the world coordinates and local coordinates are prepared in advance as a set of scene data, and when the morphing interval is switched, the scene data is reproduced. It is a conceptual diagram in the case of generating a perspective projection image in a new morphing section after the scene data ends. パノラマ画像I及びIに基づく、位置Pからの透視投影画像Iの一例を示す。Based on the panoramic image I 0 and I 1, an example of a perspective projection image I v from the position P s. 歪みの補正処理の概念図である。It is a conceptual diagram of the correction process of distortion.

符号の説明Explanation of symbols

1:画像生成システム
2:パノラマ画像受付手段
3:位置入力受付手段
4:画像生成演算処理手段
5:表示処理手段
6:中間パノラマ画像生成手段
7:透視投影画像生成手段
8:対応点算出手段
9:空間位置算出手段
10:入力装置
11:演算装置
12:記憶装置
13:通信装置
14:表示装置
1: Image generation system 2: Panoramic image receiving means 3: Position input receiving means 4: Image generation calculation processing means 5: Display processing means 6: Intermediate panorama image generating means 7: Perspective projection image generating means 8: Corresponding point calculating means 9 : Space position calculation means 10: input device 11: arithmetic device 12: storage device 13: communication device 14: display device

Claims (15)

少なくとも2つのパノラマ画像に基づいて、仮想3次元空間に於けるユーザが指定した位置からの透視投影画像を生成する画像生成システムであって、
前記画像生成システムは、
前記パノラマ画像を読み込むパノラマ画像受付手段と、
前記仮想3次元空間に於ける前記ユーザが指定した位置の情報を受け付ける位置入力受付手段と、
前記読み込んだ少なくとも2つのパノラマ画像から、前記受け付けた位置に於ける透視投影画像を生成する画像生成演算処理手段と、
前記生成した透視投影画像を出力する表示処理手段と、
を有することを特徴とする画像生成システム。
An image generation system for generating a perspective projection image from a position specified by a user in a virtual three-dimensional space based on at least two panoramic images,
The image generation system includes:
Panorama image receiving means for reading the panorama image;
Position input receiving means for receiving information of a position designated by the user in the virtual three-dimensional space;
Image generation calculation processing means for generating a perspective projection image at the received position from the read at least two panoramic images;
Display processing means for outputting the generated perspective projection image;
An image generation system comprising:
前記画像生成演算処理手段は、中間パノラマ画像生成手段と透視投影画像生成手段とを有しており、
前記中間パノラマ画像生成手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、三角測量法により前記パノラマ画像に於ける対応点が前記中間パノラマ画像に於いてどこに位置するかを算出し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記算出した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、
前記透視投影画像生成手段は、
前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means includes an intermediate panorama image generation means and a perspective projection image generation means,
The intermediate panorama image generating means
Based on the information of the designated corresponding points of the object to be photographed common to the panoramic image, calculating where the corresponding points in the panoramic image are located in the intermediate panoramic image by triangulation method, Texture mapping of a face constituted by corresponding points in the panoramic image is texture-mapped to a face constituted with the calculated position in the intermediate panoramic image corresponding to the face as a vertex, whereby the intermediate panoramic image is Generate and
The perspective projection image generation means includes:
The region of the perspective projection image is divided into a plurality of arbitrary faces, the position of the vertex constituting the face is calculated in the intermediate panorama image, and the calculated position in the intermediate panorama image is calculated. Generating the perspective projection image by texture-mapping the texture of the face constituted by vertices to the corresponding face divided in the perspective projection image,
The image generation system according to claim 1.
前記画像生成演算処理手段は、対応点算出手段と透視投影画像生成手段とを有しており、
前記対応点算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、三角測量法により前記パノラマ画像に於ける対応点が前記中間パノラマ画像に於いてどこに位置するかを算出し、前記算出した位置を前記透視投影画像上の位置に変換し、
前記透視投影画像生成手段は、
前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means includes corresponding point calculation means and perspective projection image generation means,
The corresponding point calculation means includes
Based on the information of the designated corresponding points of the object to be photographed common to the panoramic image, calculating where the corresponding points in the panoramic image are located in the intermediate panoramic image by triangulation method, Converting the calculated position into a position on the perspective projection image;
The perspective projection image generation means includes:
The position of the calculated corresponding point of the panoramic image on the perspective projection image is a vertex, and the perspective projection image is generated by texture mapping the texture corresponding to the panoramic image on the face constituted by the vertex.
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、
前記透視投影画像生成手段は、
前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、変換後の座標を前記透視投影画像上の位置に変換し、前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. Decide on the half line that is the range where the position can exist,
The perspective projection image generation means includes:
The position of the corresponding point in the determined panoramic image in the virtual three-dimensional space is converted into the coordinate of the intermediate panoramic image at the received position, and the converted coordinate is converted to the position on the perspective projection image. Converting the perspective projection image by converting the texture corresponding to the panoramic image to a face constituted by the position of the corresponding point of the calculated panoramic image on the perspective projection image as a vertex and a face constituted by the vertex. Generate,
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、
前記透視投影画像生成手段は、
前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記変換した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. Decide on the half line that is the range where the position can exist,
The perspective projection image generation means includes:
A face constituted by the corresponding point in the panoramic image by converting the position of the corresponding point in the determined panoramic image in the virtual three-dimensional space into the coordinates of the intermediate panoramic image at the received position. The texture is mapped to a face that has the converted position in the intermediate panorama image corresponding to the face as a vertex to generate the intermediate panorama image, and an area of the perspective projection image is arbitrarily set. A face that is divided into a plurality of faces, calculates the position of the vertex constituting the face in the intermediate panorama image, and includes the calculated position in the intermediate panorama image as a vertex. Texture mapping is performed on the corresponding face divided in the perspective projection image. And it allows to generate the perspective projection image,
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線上に決定し、
前記透視投影画像生成手段は、
前記決定した前記対応点の仮想3次元空間上に於ける位置により構成されるフェイスを面とする3次元ポリゴンを構成し、前記パノラマ画像のフェイスのテクスチャを、前記3次元ポリゴンの対応するフェイスにテクスチャマッピングすることで前記3次元ポリゴンを生成し、前記3次元ポリゴンを前記受け付けた位置からの透視投影画像に変換することで前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. Decide on the half line that is the range where the position can exist,
The perspective projection image generation means includes:
A three-dimensional polygon having a face constituted by the determined position of the corresponding point in the virtual three-dimensional space is formed, and the texture of the face of the panoramic image is used as the corresponding face of the three-dimensional polygon. Generating the three-dimensional polygon by texture mapping, and generating the perspective projection image by converting the three-dimensional polygon to a perspective projection image from the received position;
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、
前記透視投影画像生成手段は、
前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、変換後の座標を前記透視投影画像上の位置に変換し、前記算出したパノラマ画像の対応点の透視投影画像上の位置を頂点とし、その頂点により構成されるフェイスに、前記パノラマ画像の対応するテクスチャをテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. A position that internally divides half straight lines that are positions where the position can exist into predetermined interpolation parameters is determined as a position in the virtual three-dimensional space;
The perspective projection image generation means includes:
The position of the corresponding point in the determined panoramic image in the virtual three-dimensional space is converted into the coordinate of the intermediate panoramic image at the received position, and the converted coordinate is converted to the position on the perspective projection image. Converting the perspective projection image by converting the texture corresponding to the panoramic image to a face constituted by the position of the corresponding point of the calculated panoramic image on the perspective projection image as a vertex and a face constituted by the vertex. Generate,
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、
前記透視投影画像生成手段は、
前記決定した前記パノラマ画像に於ける対応点の仮想3次元空間上の位置を、前記受け付けた位置に於ける中間パノラマ画像の座標に変換し、前記パノラマ画像に於ける対応点によって構成されるフェイスのテクスチャを、このフェイスに対応する前記中間パノラマ画像に於ける前記変換した位置を頂点として構成するフェイスにテクスチャマッピングすることにより、前記中間パノラマ画像を生成し、前記透視投影画像の領域を任意の複数のフェイスに分割し、そのフェイスを構成する頂点が前記中間パノラマ画像に於いてどの位置にあるかを算出し、前記中間パノラマ画像に於ける前記算出した位置を頂点をして構成されるフェイスのテクスチャを、前記透視投影画像に於いて前記分割した対応するフェイスにテクスチャマッピングすることにより、前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. A position that internally divides half straight lines that are positions where the position can exist into predetermined interpolation parameters is determined as a position in the virtual three-dimensional space;
The perspective projection image generation means includes:
A face constituted by the corresponding point in the panoramic image by converting the position of the corresponding point in the determined panoramic image in the virtual three-dimensional space into the coordinates of the intermediate panoramic image at the received position. The texture is mapped to a face that has the converted position in the intermediate panorama image corresponding to the face as a vertex to generate the intermediate panorama image, and an area of the perspective projection image is arbitrarily set. A face that is divided into a plurality of faces, calculates the position of the vertex constituting the face in the intermediate panorama image, and includes the calculated position in the intermediate panorama image as a vertex. Texture mapping is performed on the corresponding face divided in the perspective projection image. And it allows to generate the perspective projection image,
The image generation system according to claim 1.
前記画像生成演算処理手段は、空間位置算出手段と透視投影画像生成手段とを有しており、
前記空間位置算出手段は、
前記パノラマ画像に共通な撮影対象物の指定された対応点の情報に基づいて、前記対応点の前記仮想3次元空間上の位置を、前記対応点に対応する撮影対象物の前記仮想3次元空間位置の存在可能範囲となる半直線同士を所定の補間パラメータに内分する位置を前記仮想3次元空間上の位置として決定し、
前記透視投影画像生成手段は、
前記決定した前記対応点の仮想3次元空間上に於ける位置により構成されるフェイスを面とする3次元ポリゴンを構成し、前記パノラマ画像のフェイスのテクスチャを、前記3次元ポリゴンの対応するフェイスにテクスチャマッピングすることで前記3次元ポリゴンを生成し、前記3次元ポリゴンを前記受け付けた位置からの透視投影画像に変換することで前記透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means has a spatial position calculation means and a perspective projection image generation means,
The spatial position calculation means includes
Based on the information of the designated corresponding point of the photographing object common to the panoramic image, the position of the corresponding point in the virtual three-dimensional space is determined as the virtual three-dimensional space of the photographing object corresponding to the corresponding point. A position that internally divides half straight lines that are positions where the position can exist into predetermined interpolation parameters is determined as a position in the virtual three-dimensional space;
The perspective projection image generation means includes:
A three-dimensional polygon having a face constituted by the determined position of the corresponding point in the virtual three-dimensional space is formed, and the texture of the face of the panoramic image is used as the corresponding face of the three-dimensional polygon. Generating the three-dimensional polygon by texture mapping, and generating the perspective projection image by converting the three-dimensional polygon to a perspective projection image from the received position;
The image generation system according to claim 1.
前記画像生成演算処理手段は、
前記読み込んだ少なくとも2つのパノラマ画像から、前記パノラマ画像における歪みを補正したパノラマ画像を生成し、前記補正した少なくとも2つのパノラマ画像に基づいて、前記受け付けた位置における透視投影画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The image generation calculation processing means includes:
Generating a panoramic image in which distortion in the panoramic image is corrected from the read at least two panoramic images, and generating a perspective projection image at the received position based on the corrected at least two panoramic images;
The image generation system according to claim 1.
前記画像生成システムは、
前記位置入力受付手段で受け付けた位置から各パノラマ画像の位置までの比率に応じて、テクスチャのテクスチャマッピングを行う、
ことを特徴とする請求項1から請求項10のいずれかに記載の画像生成システム。
The image generation system includes:
Depending on the ratio from the position received by the position input receiving means to the position of each panoramic image, texture mapping of the texture is performed.
The image generation system according to claim 1, wherein the image generation system is an image generation system.
前記位置入力受付手段は、前記位置の情報を逐次受け付け、
前記画像生成演算処理手段は、
前記受け付けた位置の情報に基づいて、各々の位置に於ける透視投影画像を逐次生成し、
前記表示処理手段は、
前記生成した透視投影画像を出力する、
ことを特徴とする請求項1に記載の画像生成システム。
The position input receiving means sequentially receives the position information,
The image generation calculation processing means includes:
Based on the received position information, sequentially generate perspective projection images at each position,
The display processing means includes
Outputting the generated perspective projection image;
The image generation system according to claim 1.
前記少なくとも2つのパノラマ画像によって構成されるモーフィング区間に於いて、前記位置入力受付手段が前記モーフィング区間内の位置を受け付けたときには、
前記画像生成演算処理手段は、
前記モーフィング区間に於ける透視投影画像を、前記モーフィング区間の両端点に位置するパノラマ画像に基づいて生成する、
ことを特徴とする請求項1に記載の画像生成システム。
In the morphing section constituted by the at least two panoramic images, when the position input receiving means receives a position in the morphing section,
The image generation calculation processing means includes:
Generating a perspective projection image in the morphing section based on panoramic images located at both end points of the morphing section;
The image generation system according to claim 1.
前記画像生成演算処理手段は、
前記モーフィング区間を切り替える際に、現在処理対象となるモーフィング区間での補間パラメータから、次に処理対象となるモーフィング区間の補間パラメータに変換した上で、前記パノラマ画像に基づいて前記透視投影画像を生成する、
ことを特徴とする請求項13に記載の画像生成システム。
The image generation calculation processing means includes:
When the morphing section is switched, the perspective projection image is generated based on the panoramic image after converting the interpolation parameter in the morphing section that is the current processing target into the interpolation parameter of the morphing section that is the next processing target. To
The image generation system according to claim 13.
前記画像生成システムは、
前記画像生成演算処理手段で生成した透視投影画像を、実写画像、CG画像、又は他の画像生成方法によって得られた画像と合成する処理を行い、合成した画像を前記表示処理手段で出力する、
ことを特徴とする請求項1から請求項14のいずれかに記載の画像生成システム。
The image generation system includes:
Performing a process of combining the perspective projection image generated by the image generation calculation processing unit with a real image, a CG image, or an image obtained by another image generation method, and outputting the combined image by the display processing unit;
The image generation system according to claim 1, wherein the image generation system is an image generation system.
JP2005178403A 2005-06-17 2005-06-17 Image generation system Withdrawn JP2006350852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005178403A JP2006350852A (en) 2005-06-17 2005-06-17 Image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005178403A JP2006350852A (en) 2005-06-17 2005-06-17 Image generation system

Publications (1)

Publication Number Publication Date
JP2006350852A true JP2006350852A (en) 2006-12-28

Family

ID=37646590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005178403A Withdrawn JP2006350852A (en) 2005-06-17 2005-06-17 Image generation system

Country Status (1)

Country Link
JP (1) JP2006350852A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104346A (en) * 2007-10-23 2009-05-14 Location View:Kk Image display processing program, image display processing system, and image display processing method
WO2010134502A1 (en) 2009-05-18 2010-11-25 小平アソシエイツ株式会社 Image information output method
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
JP2017097871A (en) * 2012-11-21 2017-06-01 タレス Method of 3d panoramic mosaicing of scene
JP2018522429A (en) * 2015-05-27 2018-08-09 グーグル エルエルシー Capture and render panoramic virtual reality content
US10375381B2 (en) 2015-05-27 2019-08-06 Google Llc Omnistereo capture and render of panoramic virtual reality content
JP2020024687A (en) * 2018-07-27 2020-02-13 大日本印刷株式会社 Information processing device, information processing system, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104346A (en) * 2007-10-23 2009-05-14 Location View:Kk Image display processing program, image display processing system, and image display processing method
WO2010134502A1 (en) 2009-05-18 2010-11-25 小平アソシエイツ株式会社 Image information output method
US8593486B2 (en) 2009-05-18 2013-11-26 Kodaira Associates Inc. Image information output method
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
JP2017097871A (en) * 2012-11-21 2017-06-01 タレス Method of 3d panoramic mosaicing of scene
JP2018522429A (en) * 2015-05-27 2018-08-09 グーグル エルエルシー Capture and render panoramic virtual reality content
US10375381B2 (en) 2015-05-27 2019-08-06 Google Llc Omnistereo capture and render of panoramic virtual reality content
JP2020024687A (en) * 2018-07-27 2020-02-13 大日本印刷株式会社 Information processing device, information processing system, information processing method, and program
JP7447403B2 (en) 2018-07-27 2024-03-12 大日本印刷株式会社 Information processing device, information processing system, information processing method and program

Similar Documents

Publication Publication Date Title
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US8224122B2 (en) Dynamic viewing of wide angle images
US8217956B1 (en) Method and apparatus for rendering spherical panoramas
JP4013989B2 (en) Video signal processing device, virtual reality generation system
US10321109B1 (en) Large volume video data transfer over limited capacity bus
JP4631918B2 (en) Video signal processing device
EP1453001A1 (en) IMAGE PROCESSING APPARATUS&amp;comma; IMAGE PROCESSING METHOD&amp;comma; STORAGE MEDIUM&amp;comma; AND COMPUTER PROGRAM
WO2001095608A2 (en) A method and apparatus for mapping images and video to create navigable, immersive video and images
JP2006350852A (en) Image generation system
CN113643414B (en) Three-dimensional image generation method and device, electronic equipment and storage medium
JP2020528619A (en) Equipment and methods for generating tiled 3D image representations of scenes
KR20080101998A (en) Method and device for rectifying image in synthesizing arbitary view image
JP7505481B2 (en) Image processing device and image processing method
CN114513646B (en) Method and device for generating panoramic video in three-dimensional virtual scene
JP2018109946A (en) Display device, program, and method for display
JP6719596B2 (en) Image generation device and image display control device
JP5249733B2 (en) Video signal processing device
WO2019026388A1 (en) Image generation device and image generation method
WO2019049457A1 (en) Image generation device and image generation method
JP2004072553A (en) Image distortion correction method, and program for the same
US20220358712A1 (en) Method and system for synthesizing novel view image on basis of multiple 360 images for 6-degrees of freedom virtual reality
JP4631878B2 (en) Video signal processing device, virtual reality generation system
JP4925112B2 (en) Free viewpoint image generation method
CN113763530B (en) Image processing method, device, computing equipment and storage medium
JP2019517688A (en) Method and apparatus for determining the transition between two display images, and a vehicle

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902