JP2006040053A - Image processing method and program - Google Patents
Image processing method and program Download PDFInfo
- Publication number
- JP2006040053A JP2006040053A JP2004220635A JP2004220635A JP2006040053A JP 2006040053 A JP2006040053 A JP 2006040053A JP 2004220635 A JP2004220635 A JP 2004220635A JP 2004220635 A JP2004220635 A JP 2004220635A JP 2006040053 A JP2006040053 A JP 2006040053A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- video
- real
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、住宅展示場等に展示されている建物の室内空間を仮想空間内で再現したVR画像をVR体験者に表示する画像処理方法及びプログラムに関する。 The present invention relates to an image processing method and a program for displaying a VR image obtained by reproducing an indoor space of a building displayed in a housing exhibition hall or the like in a virtual space to a VR experience person.
近年、コンピュータハードウェア技術の発達に伴って、よりリアリティのあるCG(Computer Graphics)画像の表現が盛んに行われている。そこで、高度に発達したCG技術を用いて仮想世界を構築して、その世界を現実のように知覚させる仮想現実感(Virtual Reality)が各種分野で用いられつつある。例えば、コンピュータ内で仮想的に新築住宅を3次元モデルを用いて構築しておき、住宅の購入希望者に対して購入する住宅の3次元室内空間モデルを任意の視点で投影したVR画像(映像)を提示させることができる。さらに、3次元モデルのパーツを交換・移動等することにより、室内の壁の色や家具等の装飾の種類を変更したり、配置の変更をすることができる。これによって、住宅メーカ等は、購入希望者に対して設計図や外観図等の平面的な情報提示だけでなく、購入する際の検討に資するために住宅等の立体的な映像を提供することが可能である。 In recent years, with the development of computer hardware technology, more realistic CG (Computer Graphics) images are being actively expressed. Therefore, virtual reality (virtual reality) that constructs a virtual world using highly developed CG technology and perceives the world like reality is being used in various fields. For example, a VR image (video) in which a newly constructed house is virtually constructed in a computer using a three-dimensional model, and a three-dimensional indoor space model of the house to be purchased for a person who wants to buy a house is projected from an arbitrary viewpoint. ) Can be presented. Furthermore, by exchanging and moving the parts of the three-dimensional model, the color of the indoor wall and the type of decoration such as furniture can be changed or the arrangement can be changed. As a result, housing manufacturers, etc. should provide not only two-dimensional information such as design drawings and external views to purchase applicants, but also provide three-dimensional images of houses, etc., in order to contribute to considerations when purchasing. Is possible.
しかし、CG技術が発達したとはいえ、CG映像によって実現される空間は実写映像の空間と比較すると、依然としてリアリティ性に乏しい。そこで、実写映像を用いて3次元空間を表現する方法として、360°パノラマ映像やQuickTimeVRというような方法も知られている。 However, even though CG technology has been developed, the space realized by the CG video is still poor in reality compared to the space of the live-action video. Therefore, methods such as 360 ° panoramic video and QuickTime VR are also known as methods for expressing a three-dimensional space using live-action video.
また、仮想空間内における視聴者ビューに対応させて、予め実写映像からカットして蓄積されていた複数の被写体映像のカット(小断片化された実写ビデオ映像)を再生することによって、視聴者に動きに合わせた映像を提示するような技術も知られている(例えば、特許文献1参照。)。
しかし、実写映像を用いて表現された3次元空間による表現や特許文献1に記載の小断片化した実写ビデオ映像を仮想空間内の視聴者の動きに合わせて再生するような表現は、任意の視点からの映像を購入希望者に提示するという点では、上述したようなVR映像に比べて制限されたものになってしまう。 However, an expression in a three-dimensional space expressed by using a live-action video or an expression for reproducing a small fragmented live-action video image described in Patent Document 1 in accordance with the movement of the viewer in the virtual space is arbitrary. In terms of presenting the video from the viewpoint to the purchase applicant, the video is limited as compared with the VR video as described above.
本発明は、このような事情を考慮してなされたものであり、仮想空間内にリアリティ性の高い室内空間モデルを簡易に構築することができ、住宅の購入希望者等に対してより現実感を持たせたVR映像を提示することができる画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of such circumstances, and can easily construct a highly realistic indoor space model in a virtual space, which is more realistic for those who want to purchase a house. An object of the present invention is to provide an image processing method and program capable of presenting a VR video provided with video.
上記課題を解決するために、本発明に係る画像処理方法は、
撮影装置を用いて撮影された室内空間の実映像を取得する取得工程と、
コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出工程と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定工程と、
前記面領域に対応する前記実映像内の部分領域を前記算出工程によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換工程と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング工程と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成工程と、
前記VR画像を表示装置に表示する表示工程と
を有することを特徴とする。
In order to solve the above problems, an image processing method according to the present invention includes:
An acquisition step of acquiring an actual image of the indoor space imaged using the imaging device;
A two-dimensional coordinate in the real image is obtained by comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in a computer from a virtual viewpoint corresponding to the viewpoint of the imaging device and the real image. And a calculation step of calculating a correspondence relationship between the virtual model and the three-dimensional coordinates of the virtual model;
A designating step of designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion step of converting a partial region in the real image corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation step;
A mapping step of mapping the partial area in the real image after shape conversion to the surface area;
An image generation step of generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display step of displaying the VR image on a display device.
また、本発明に係る画像処理方法は、
前記取得工程が、異なる複数の方向から前記室内空間を撮影可能な複数の撮影装置で撮影された実画像のうち、前記指定工程により指定された前記面領域にマッピングされる前記部分領域を有する実画像として、該面領域の向きとそれぞれの撮影装置の撮影方向との位置関係に基づいて決定される撮影装置から取得することを特徴とする。
The image processing method according to the present invention includes:
The acquisition step includes the partial region mapped to the surface region designated by the designation step among real images photographed by a plurality of photographing devices capable of photographing the indoor space from a plurality of different directions. The image is obtained from a photographing device determined based on a positional relationship between the orientation of the surface area and the photographing direction of each photographing device.
さらに、本発明に係る画像処理方法は、
前記取得工程は、ネットワークを介した前記撮影装置により所定時間単位に撮影され、配信された実映像を取得し、
前記表示工程が、前記所定時間単位で前記画像生成工程により生成された前記VR画像を前記表示装置に逐次表示する
ことを特徴とする。
Furthermore, an image processing method according to the present invention includes:
The acquisition step acquires a real image that is captured and distributed by the imaging device via a network in a predetermined time unit,
The display step sequentially displays the VR image generated by the image generation step in the predetermined time unit on the display device.
さらにまた、本発明に係るプログラムは、
コンピュータに、
撮影装置を用いて撮影された室内空間の実映像を取得する取得手順と、
前記コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出手順と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定手順と、
前記面領域に対応する前記実映像内の部分領域を前記算出手順によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換手順と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング手順と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成手順と、
前記VR画像を表示装置に表示する表示手順と
を実行させることを特徴とする。
Furthermore, the program according to the present invention is:
On the computer,
An acquisition procedure for acquiring a real image of the indoor space photographed using the photographing device;
By comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in the computer from a virtual viewpoint corresponding to the viewpoint of the imaging device with the actual image, a two-dimensional image in the actual image is obtained. A calculation procedure for calculating the correspondence between the coordinates and the three-dimensional coordinates of the virtual model;
A designation procedure for designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion procedure for converting a partial region in the actual video corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation procedure;
A mapping procedure for mapping the partial area in the real image after shape conversion to the surface area;
An image generation procedure for generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
And a display procedure for displaying the VR image on a display device.
本発明によれば、仮想空間内にリアリティ性の高い室内空間モデルを簡易に構築することができ、住宅の購入希望者等に対してより現実感を持たせたVR映像を提示することができる。 According to the present invention, it is possible to easily construct a highly realistic indoor space model in a virtual space, and it is possible to present a VR video with a more realistic feeling to those who want to purchase a house. .
以下、図面を参照して、本発明の一実施形態に係る画像処理方法について説明する。尚、本実施形態では、ある住宅展示場に展示されているモデルハウスの室内空間と同一の仮想モデル(室内空間モデル)をコンピュータの仮想空間内に構築し、その室内空間モデルに含まれる任意のオブジェクトのテクスチャを、実際のモデルハウスを撮影した映像から切り出してマッピングする方法について説明する。 Hereinafter, an image processing method according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the same virtual model (indoor space model) as the indoor space of the model house displayed in a certain house exhibition hall is constructed in the virtual space of the computer, and an arbitrary space included in the indoor space model is included. A description will be given of a method of mapping the texture of the object by cutting it out from the video image of the actual model house.
尚、本実施形態に係る画像処理を行う装置(デバイス)としては、3次元CAD、パーソナルコンピュータ、或いはワークステーション等の汎用のコンピュータを用いて実現することが可能である。 Note that an apparatus (device) for performing image processing according to the present embodiment can be realized using a general-purpose computer such as a three-dimensional CAD, a personal computer, or a workstation.
図1は、住宅展示場に展示されている実際のモデルハウスの映像を撮影し、その映像をコンピュータ内に構築された住宅モデルに貼り付けるための処理を行う画像処理システムの構成を示す概要図である。 FIG. 1 is a schematic diagram showing a configuration of an image processing system that takes a picture of an actual model house displayed in a house exhibition hall and performs processing for pasting the picture on a house model built in a computer. It is.
図1において、11は住宅展示場に実際に構築されたモデルハウスである。12a、12bはモデルハウス11の室内空間を各種視点から撮影するためのビデオカメラである。尚、ビデオカメラの設置台数は任意に定めることができる。例えば、ビデオカメラは、撮影された映像からテクスチャを切り出す対象の数等から必要最小限の台数を設置すればよく、1台でも2台以上であってもよい。また、13はビデオカメラ12a、12bで撮影された映像中の任意のオブジェクト(例えば、壁、床、テーブル等)のテクスチャを切り出し、3次元室内空間モデルにマッピングして記憶し、住宅の購入者等がマウス等で任意の視点からの映像を閲覧することができるコンピュータである。また、コンピュータ13は、実映像をLAN等のネットワーク16を介して他のコンピュータ14、15等に配信することができる。
In FIG. 1,
14、15は仮想空間内にモデルハウス11と同一の3次元室内空間モデルが構築され、コンピュータ13と同様に切り出したオブジェクトのテクスチャを当該3次元室内空間モデルにマッピングして記憶し、住宅の購入希望者等がマウス等で任意の視点からのVR映像を閲覧することができるコンピュータである。尚、コンピュータ14、15が使用する実映像は、撮影装置12a、12bから直接取得してもよいし、コンピュータ13で切り出されたテクスチャのみを取得するようにしてもよい。
14 and 15, the same three-dimensional indoor space model as the
すなわち、コンピュータ14、15は住宅展示場内に設置される必要はなく、住宅展示場と遠隔した任意の位置に設置することができる。また、任意の数のコンピュータを全国的にLAN16に接続することもできる。従って、住宅の購入希望者は、実際にモデルハウスが展示されている住宅展示場まで出向かずに、LAN16に接続されたコンピュータが設置されている近くの事務所等に行くだけで、仮想空間内で構築されたリアリティ性の高い3次元仮想モデルによるVR映像を見ることができる。また、ビデオカメラ12a、12bから撮影された映像から一定時間ごとに、或いはリアルタイムでテクスチャを切り出して3次元室内空間モデルにマッピングすることで、刻々と変化する外部環境に応じて見え方が変化する室内空間のその時刻に応じた雰囲気を有するVR映像として提供することも可能である。
That is, the
図2は、本実施形態に係る3次元室内空間モデルに基づくVR映像を提供するための画像処理を実行するコンピュータの構成を示すブロック図である。図2において、操作部120は、例えばマウス、キーボード、ボタン等から構成され、オペレータが操作データを入力して画像処理部110に対して各種指示を行うことができる。一時記憶部130は、RAM等のハードウェアから構成され、後述する画像処理プログラム等のアプリケーションプログラムが展開され、画像処理部110のワークエリアとなる。記憶部140は、固定式又は着脱可能なハードディスクやROM、或いはDVD、MO等の可搬可能な記憶媒体(記録媒体)から構成され、本実施形態に係る各種情報処理に関するプログラムやテクスチャをマッピングする仮想空間である3次元室内空間モデルを含む各種データ等を格納する。
FIG. 2 is a block diagram illustrating a configuration of a computer that executes image processing for providing VR video based on the three-dimensional indoor space model according to the present embodiment. In FIG. 2, the operation unit 120 includes, for example, a mouse, a keyboard, buttons, and the like, and an operator can input operation data and give various instructions to the
画像処理部110は、記憶部140に記憶されている画像処理プログラム等に基づいて3次元室内空間モデルの指定されたオブジェクトのテクスチャを通信部160から取得された実映像のテクスチャにマッピングし直すとともに、仮想視点から見たVR画像を生成する。尚、生成されたVR画像は時系列順に記憶部140に記憶され、リアルタイムに表示部150でVR映像として再生することが可能である。表示部150は、例えばCRTや液晶モニタ等で実現され、画像処理部110による処理によって生成されたVR画像(映像)を出力(再生)する。
The
また、通信部160は、他のコンピュータやCADシステム等と直接或いはインターネット、LAN等のネットワークを介して接続し、それらの外部装置との間で各種データ通信を行うためのものである。尚、本実施形態においては、仮想空間である3次元室内空間モデルは、前述したように記憶部140に記憶するようにしているが、当該3次元室内空間モデルは本コンピュータの画像処理部110によって構築されたものでも、通信部160を介して外部装置で構築されたものをダウンロードして、或いはデータ通信しながら使用するようにしてもよい。
The
画像処理部110には、ビデオカメラ12a、12bで撮影されたビデオ映像から実写映像のテクスチャをマッピングする対象となっているオブジェクトの領域を切り出す領域切り出し部111と、切り出された領域のテクスチャを3次元室内空間モデルの対応する面にマッピングするためにテクスチャ面を変換する形状変換部112と、形状が変換されたテクスチャ面をマッピングするマッピング部113と、仮想空間内における視点を認識する視点認識部114と、認識された視点から実写映像に基づくテクスチャがマッピングされた3次元室内空間モデルを投影面にレンダリングして2次元のVR映像を生成するレンダリング部115と、生成されて記憶部140に記憶されたVR画像を再生する再生部116が含まれる。
The
図3は、本実施形態に係る実写映像のテクスチャを3次元室内空間モデルにマッピングする画像処理を実行するコンピュータのハードウェア構成を示すブロック図である。図3において、CPU201は、図2の画像処理部101を実現するものであり、OSに基づいて各種アプリケーションを実行するための制御を行う。RAM202は、CPU201で実行されるアプリケーションプログラムが展開されるとともに、作業データを一時的に格納するものであり、図1の一時記憶部130を実現するものである。
FIG. 3 is a block diagram showing a hardware configuration of a computer that executes image processing for mapping a texture of a live-action image according to the present embodiment to a three-dimensional indoor space model. In FIG. 3, a
また、ROM203には、本コンピュータに接続されている各種デバイスを制御するためのプログラムである基本入出力システム(BIOS)等が格納されている。尚、格納されているBIOS等は電気的に書き換えが可能であって、アップグレードが可能である。ネットワークインタフェース204は本コンピュータをLANやインターネット等のネットワーク205上に接続された外部装置とアクセスを行うためのものであり、図1の通信部160を実現するものである。
The
さらに、206は操作部インタフェースであり、キーボードやマウス等の操作デバイス207を用いてオペレータが指示した情報をコンピュータ内部に取り込むためのものである。ディスプレイコントローラ208は、CPU201による画像描画命令を処理するためのコントローラであり、生成されたVR画像をディスプレイ209上に出力(再生)する。
さらにまた、記憶部インタフェース210は、ハードディスクドライブ(HDD)211やDVD、MO等の可搬可能な記憶媒体213用のメディアドライブ212といった外部記憶装置をコンピュータに接続するためのインタフェースである。尚、ハードディスクドライブ211には、CPU201が実行するOSのプログラム、各種アプリケーションプログラム、各種デバイスのデバイスドライバ等が格納されている。また、ハードディスクドライブ211、或いは記憶媒体213には、本実施形態によって生成されたCG画像が動画像として再生可能なように時系列的に格納される。尚、上述したCPU201、RAM202、ROM203、ネットワークインタフェース204、操作部インタフェース206、ディスプレイコントローラ208及び記憶部インタフェース210は、バス214を介して互いに接続されている。
Furthermore, the
図4は、本発明の一実施形態に係る実写映像のテクスチャを3次元室内空間モデルにマッピングするための画像処理手順を説明するためのフローチャートである。すなわち、以下では、図2及び図3を用いて説明したコンピュータを用いて、図4に示す画像処理手順に従って行われるVR画像の生成処理について詳細に説明する。 FIG. 4 is a flowchart for explaining an image processing procedure for mapping the texture of the live-action video according to the embodiment of the present invention to the three-dimensional indoor space model. That is, in the following, the VR image generation process performed in accordance with the image processing procedure shown in FIG. 4 will be described in detail using the computer described with reference to FIGS.
まず、モデルハウス内に設置されたビデオカメラ12a、12b等から撮影された実写映像をコンピュータ内に取り込む(ステップS11)。図5は、本実施形態においてモデルハウス内の映像を撮影するビデオカメラの設置状況とそれによって撮影された実写映像の一例を示す図である。本実施形態では、図5(a)に示すように矢印51〜55に示す方向を撮影するためのビデオカメラが設置されているものとする。また、図5(b)は矢印55に相当する方向からの視線でレンダリングされた室内空間モデルの表示例を示す。
First, a live-action picture taken from the
以下で説明する実施形態では、3次元室内空間モデルは図2及び図3に示すコンピュータ内に記憶されていることとするが、その構築は当該コンピュータを用いてモデリングしてもよいし、3次元CAD等の他装置で生成した3次元室内空間モデルをネットワーク等を介して取得して格納したもの、或いはネットワーク等を介して接続されたそれらの他装置に格納されているモデルを通信しながら用いるようにしてもよい。 In the embodiment described below, the three-dimensional indoor space model is stored in the computer shown in FIGS. 2 and 3, but the construction may be modeled using the computer, A model obtained by acquiring and storing a three-dimensional indoor space model generated by another device such as CAD via a network or the like, or a model stored in those other devices connected via a network or the like is used while communicating. You may do it.
コンピュータ内に取り込まれたビデオ映像をVR空間からの映像と一致させる(ステップS12)。具体的には、カメラ情報とVR空間内の仮想カメラ情報とを一致させ、ビデオ映像中の任意の部分領域と、VR空間内の部分とを対応付ける。そして、実写映像のテクスチャを貼り付ける対象物とそのエリア(面領域)を指定する(ステップS13)。 The video image captured in the computer is matched with the image from the VR space (step S12). Specifically, camera information and virtual camera information in the VR space are matched, and an arbitrary partial region in the video image is associated with a portion in the VR space. Then, an object to which the texture of the live-action video image is pasted and its area (surface area) are designated (step S13).
その後、指定された部分のテクスチャを実写映像から切り出した領域をVR空間内の面に貼り付けるために座標変換を行って形状を変換する(ステップS14)。この形状変換は、切り出された領域はカメラの視線方向と面の向きとの関係から、通常はある程度の角度をもって撮影され、ひずみが生じており、本来の形状ではないために行われる。そして、形状を変換したテクスチャをVR空間内の対応する面にマッピングする(ステップS15)。次いで、他にVR空間内で実写映像からのテクスチャのマッピングを行う面の有無を判定する(ステップS16)。 Thereafter, in order to paste a region obtained by cutting out the texture of the designated portion from the live-action video onto a surface in the VR space, the shape is converted by performing coordinate conversion (step S14). This shape conversion is performed because the cut-out area is usually photographed at a certain angle from the relationship between the viewing direction of the camera and the orientation of the surface, and is distorted and not the original shape. Then, the texture whose shape has been converted is mapped to a corresponding surface in the VR space (step S15). Next, the presence / absence of a surface on which a texture is mapped from a live-action video in the VR space is determined (step S16).
その結果、まだ他にテクスチャマッピングを行う面領域が存在する場合(Yes)はステップS13に戻って同様の処理を行う。一方、他にテクスチャマッピングを行う面が存在しない場合(No)は、VR体験者の視線から見た(すなわち、仮想視点から見た)仮想空間をレンダリングすることによってVR画像を生成してリアルタイムで再生する(ステップS17)。 As a result, if there is still another surface area for texture mapping (Yes), the process returns to step S13 and the same processing is performed. On the other hand, if there is no other texture mapping surface (No), a VR image is generated in real time by rendering the virtual space viewed from the VR user's line of sight (ie, viewed from the virtual viewpoint). Playback is performed (step S17).
図6は、ステップS11のビデオ映像取得処理の詳細を説明するための概要図である。図6では、物体Aと物体Bが存在する実空間内において、ビデオカメラを実空間の四隅やその他の部分に1台ずつ複数台設置して実映像を取得し、VR空間の仮想物体に取得した映像を貼り付けるものとする。 FIG. 6 is a schematic diagram for explaining details of the video image acquisition processing in step S11. In FIG. 6, in the real space where the object A and the object B exist, a plurality of video cameras are installed one by one at the four corners and other parts of the real space, and real images are acquired and acquired as virtual objects in the VR space. The pasted video shall be pasted.
図6において、カメラ視点1によるビデオ撮影の場合、カメラのレンズの種類にもよるが、例えば焦点軸を物体Bに合わせることによって取得されるビデオ映像は、実写映像投影面1に投影されたものとなる。尚、実写映像投影面1としては、物体Aと物体Bの投影像を含む映像が取得される。また、カメラ視点2によるビデオ撮影の場合も同様にして、物体Aと物体Bの投影像を含む映像が実写映像投影面2に投影され取得される。 In FIG. 6, in the case of video shooting from the camera viewpoint 1, depending on the type of the lens of the camera, for example, a video image acquired by aligning the focal axis with the object B is projected on the live-action image projection plane 1. It becomes. Note that an image including the projection images of the object A and the object B is acquired as the live-action image projection plane 1. Similarly, in the case of video shooting from the camera viewpoint 2, an image including the projection images of the object A and the object B is projected and acquired on the real image projection plane 2.
ここで、実空間中の物体の面とカメラ視線との関係はなるべく直交する関係になることが望ましい。これは、直交から外れた角度で撮影された面の映像にはひずみが発生するため、ひずみをより少ない面の映像を用いるためにである。従って、物体Aに関しては、面A1についてはカメラ視点1の映像を、面A2についてはカメラ視点2の映像をVR映像としてテクスチャに用いるようにする。一方、物体Bに関しては、面B1についてはカメラ視点1の映像を、面B2についてはカメラ視点B2の映像をVR映像としてテクスチャに用いるようにする。 Here, it is desirable that the relationship between the surface of the object in the real space and the camera line of sight is as orthogonal as possible. This is because an image of a surface taken at an angle deviating from orthogonality is distorted, so that an image of a surface with less distortion is used. Therefore, for the object A, the image of the camera viewpoint 1 is used as the texture for the surface A1 and the image of the camera viewpoint 2 is used as the texture for the surface A2. On the other hand, for the object B, the image of the camera viewpoint 1 is used for the texture as the VR image for the surface B2 and the image of the camera viewpoint B2 for the surface B2.
尚、本実施形態では、実映像を撮影するカメラ位置は基本的に固定とするために、モデルハウスの内装や家具等の配置に応じて死角が生じないように必要な台数を必要な場所に設置するとともに、3次元室内空間モデルのオブジェクト(例えば、家具や壁等)のそれぞれの面にマッピングされるテクスチャとして使用する映像を予めどのビデオカメラで撮影された映像であるのかを決定しておき、常に固定して使用するとよい。 In this embodiment, since the camera position for shooting the actual video is basically fixed, the necessary number of units is placed where necessary so that no blind spots are generated according to the interior of the model house or the arrangement of furniture. as well as installation, objects in the three-dimensional interior space model (e.g., furniture, walls, etc.) in advance to determine whether a video captured video to be used as a texture to be mapped on each side beforehand in which video cameras It is better to always use it fixed.
次に、ステップS11でビデオ映像を取得した後に、そこからテクスチャを切り取ってVR空間に貼り付ける処理の詳細について説明する。図7は、取得された映像をVR空間に貼り付ける処理の詳細を説明するための概要図である。図7(a)は、実空間に設置を想定しているカメラ1からの映像を用いて物体Aと物体Bにそれぞれ2面のテクスチャを貼り付ける状況を示している。すなわち、画像の変換時の原点をカメラ視点とし、実写映像投影面1の映像を平面に変換する。ここで、カメラのレンズの仕様と、実写空間とVR空間の物体の3次元位置が既知であることから、映像の変換を行うことが可能である。 Next, the details of the process of obtaining a video image in step S11 and then cutting out and pasting the texture from the video image will be described. FIG. 7 is a schematic diagram for explaining the details of the process of pasting the acquired video into the VR space. FIG. 7A shows a situation in which two textures are pasted on the object A and the object B, respectively, using an image from the camera 1 that is assumed to be installed in a real space. That is, the origin at the time of image conversion is set as the camera viewpoint, and the image on the live-action image projection plane 1 is converted into a plane. Here, since the specifications of the camera lens and the three-dimensional positions of the objects in the live-action space and the VR space are known, it is possible to perform video conversion.
また、図7(b)はカメラ視点の変換の様子を示す概要図である。図7(b)に示すように、物体Bに関して直交するため、物体Bに貼り付ける映像は1つとなるが歪みは最も少なくなる。また、物体Aに関しては、カメラ視点1、2でそれぞれ作成する面が異なり、歪の少ない方の画像(例えば、面に対してより直交するような焦点軸の映像)を採用するようにする。 FIG. 7B is a schematic diagram showing how camera viewpoints are converted. As shown in FIG. 7B, since the object B is orthogonal to the object B, only one video is pasted on the object B, but the distortion is minimized. In addition, with respect to the object A, the planes to be created are different for the camera viewpoints 1 and 2, and an image with less distortion (for example, an image of a focal axis that is more orthogonal to the plane) is adopted.
尚、同一面領域内で複数の撮影装置で撮影された実映像が重複する部分が存在する場合には、当該領域をいずれか一つの撮影装置によって撮影された実映像からテクスチャを切り出してもよいし、当該面領域をさらに複数の部分領域に分割して、それぞれのテクスチャとして最適な実映像をそれぞれの撮影装置からの実映像から用いるようにしてもよい。 If there are overlapping portions of real images taken by a plurality of photographing devices in the same plane area, the texture may be cut out from the real images taken by any one of the photographing devices. Then, the surface area may be further divided into a plurality of partial areas, and the actual video that is optimal as each texture may be used from the actual video from each imaging device.
また、3次元室内空間モデルも図5に示したものだけには限定されず、他の室内空間やオフィスや店舗等の室内空間であってもよい。また、住宅やビル等の外観であってもよい。 Further, the three-dimensional indoor space model is not limited to the one shown in FIG. 5, and may be another indoor space or an indoor space such as an office or a store. Moreover, the external appearance of a house, a building, etc. may be sufficient.
尚、本発明は、前述した実施形態の機能をコンピュータで実現するためのプログラムを、コンピュータ読み取り可能な記録媒体(記憶媒体)に記録して、当該記録媒体に記録されたプログラムを上記システム内のコンピュータ等が読み出して実行するようにしてもよい。また、コンピュータ読み取り可能な記録媒体には、フレキシブルディスク、CD−ROM、DVD−ROM等の可搬記録媒体、システム又はコンピュータに内蔵されているハードディスク、揮発性メモリ(RAM)等の記憶装置(記録装置)を含む。また、上記プログラムは、インターネット等のネットワークや電話回線等の通信回線を介して上記システムやコンピュータ等にダウンロードするようにしてもよい。そして、上記システムやコンピュータにおいて、読み出されたプログラムを実行することにより、前述した実施形態の機能が実現されることとなる。この場合、上記記録媒体等は、前述したフローチャートに対応するプログラムを格納している。 In the present invention, a program for realizing the functions of the above-described embodiments by a computer is recorded on a computer-readable recording medium (storage medium), and the program recorded on the recording medium is stored in the system. A computer or the like may read and execute. The computer-readable recording medium includes a portable recording medium such as a flexible disk, CD-ROM, and DVD-ROM, a hard disk built in the system or computer, a storage device such as a volatile memory (RAM) (recording). Device). The program may be downloaded to the system, computer, or the like via a network such as the Internet or a communication line such as a telephone line. Then, the functions of the above-described embodiments are realized by executing the read program in the system or the computer. In this case, the recording medium or the like stores a program corresponding to the flowchart described above.
Claims (4)
コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出工程と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定工程と、
前記面領域に対応する前記実映像内の部分領域を前記算出工程によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換工程と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング工程と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成工程と、
前記VR画像を表示装置に表示する表示工程と
を有することを特徴とする画像処理方法。 An acquisition step of acquiring an actual image of the indoor space imaged using the imaging device;
A two-dimensional coordinate in the real image is obtained by comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in a computer from a virtual viewpoint corresponding to the viewpoint of the imaging device and the real image. And a calculation step of calculating a correspondence relationship between the virtual model and the three-dimensional coordinates of the virtual model;
A designating step of designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion step of converting a partial region in the real image corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation step;
A mapping step of mapping the partial area in the real image after shape conversion to the surface area;
An image generation step of generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display step of displaying the VR image on a display device.
前記表示工程が、前記所定時間単位で前記画像生成工程により生成された前記VR画像を前記表示装置に逐次表示する
ことを特徴とする請求項1又は2に記載の画像処理方法。 The acquisition step acquires a real image that is captured and distributed by the imaging device via a network in a predetermined time unit,
The image processing method according to claim 1, wherein the display step sequentially displays the VR image generated by the image generation step on the display device in the predetermined time unit.
撮影装置を用いて撮影された室内空間の実映像を取得する取得手順と、
前記コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出手順と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定手順と、
前記面領域に対応する前記実映像内の部分領域を前記算出手順によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換手順と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング手順と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成手順と、
前記VR画像を表示装置に表示する表示手順と
を実行させるためのプログラム。 On the computer,
An acquisition procedure for acquiring a real image of the indoor space photographed using the photographing device;
By comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in the computer from a virtual viewpoint corresponding to the viewpoint of the imaging device with the actual image, a two-dimensional image in the actual image is obtained. A calculation procedure for calculating the correspondence between the coordinates and the three-dimensional coordinates of the virtual model;
A designation procedure for designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion procedure for converting a partial region in the actual video corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation procedure;
A mapping procedure for mapping the partial area in the real image after shape conversion to the surface area;
An image generation procedure for generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display procedure for displaying the VR image on a display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004220635A JP2006040053A (en) | 2004-07-28 | 2004-07-28 | Image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004220635A JP2006040053A (en) | 2004-07-28 | 2004-07-28 | Image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006040053A true JP2006040053A (en) | 2006-02-09 |
Family
ID=35904966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004220635A Pending JP2006040053A (en) | 2004-07-28 | 2004-07-28 | Image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006040053A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7508910B2 (en) | 2006-05-04 | 2009-03-24 | The Boeing Company | System and methods for x-ray backscatter reverse engineering of structures |
US7529343B2 (en) | 2006-05-04 | 2009-05-05 | The Boeing Company | System and method for improved field of view X-ray imaging using a non-stationary anode |
US7649976B2 (en) * | 2006-02-10 | 2010-01-19 | The Boeing Company | System and method for determining dimensions of structures/systems for designing modifications to the structures/systems |
JP2010197101A (en) * | 2009-02-23 | 2010-09-09 | Nagoya Institute Of Technology | Injury avoidance system during earthquake |
KR101384205B1 (en) | 2012-08-29 | 2014-04-10 | 김재광 | method for simulating virtual space |
JP6196416B1 (en) * | 2016-05-27 | 2017-09-13 | 楽天株式会社 | 3D model generation system, 3D model generation method, and program |
CN108062786A (en) * | 2016-11-08 | 2018-05-22 | 台湾国际物业管理顾问有限公司 | Synthesis perceptual positioning technology application system based on three-dimensional information model |
CN111563961A (en) * | 2020-05-11 | 2020-08-21 | 南方电网科学研究院有限责任公司 | Three-dimensional modeling method and related device for transformer substation |
WO2020241331A1 (en) * | 2019-05-31 | 2020-12-03 | Bpm株式会社 | Three-dimensional data management method for building and mobile terminal for implementing same |
CN112232899A (en) * | 2020-09-25 | 2021-01-15 | 北京五八信息技术有限公司 | Data processing method and device |
WO2022202036A1 (en) * | 2021-03-25 | 2022-09-29 | 株式会社日立ソリューションズ・クリエイト | Business assistance system and business assistance method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175745A (en) * | 1997-12-15 | 1999-07-02 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for integrating subject video and recording medium recorded with the method |
JP2000076488A (en) * | 1998-08-26 | 2000-03-14 | Mitsubishi Electric Corp | Three-dimensional virtual space display device and texture object setting information generating device |
JP2000242810A (en) * | 1999-02-25 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for texture mapping, and recording medium |
-
2004
- 2004-07-28 JP JP2004220635A patent/JP2006040053A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175745A (en) * | 1997-12-15 | 1999-07-02 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for integrating subject video and recording medium recorded with the method |
JP2000076488A (en) * | 1998-08-26 | 2000-03-14 | Mitsubishi Electric Corp | Three-dimensional virtual space display device and texture object setting information generating device |
JP2000242810A (en) * | 1999-02-25 | 2000-09-08 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for texture mapping, and recording medium |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7649976B2 (en) * | 2006-02-10 | 2010-01-19 | The Boeing Company | System and method for determining dimensions of structures/systems for designing modifications to the structures/systems |
US7508910B2 (en) | 2006-05-04 | 2009-03-24 | The Boeing Company | System and methods for x-ray backscatter reverse engineering of structures |
US7529343B2 (en) | 2006-05-04 | 2009-05-05 | The Boeing Company | System and method for improved field of view X-ray imaging using a non-stationary anode |
US7623626B2 (en) | 2006-05-04 | 2009-11-24 | The Boeing Company | System and methods for x-ray backscatter reverse engineering of structures |
JP2010197101A (en) * | 2009-02-23 | 2010-09-09 | Nagoya Institute Of Technology | Injury avoidance system during earthquake |
KR101384205B1 (en) | 2012-08-29 | 2014-04-10 | 김재광 | method for simulating virtual space |
JP6196416B1 (en) * | 2016-05-27 | 2017-09-13 | 楽天株式会社 | 3D model generation system, 3D model generation method, and program |
WO2017203710A1 (en) * | 2016-05-27 | 2017-11-30 | 楽天株式会社 | Three-dimensional model generation system, three-dimensional model generation method, and program |
CN108062786A (en) * | 2016-11-08 | 2018-05-22 | 台湾国际物业管理顾问有限公司 | Synthesis perceptual positioning technology application system based on three-dimensional information model |
WO2020241331A1 (en) * | 2019-05-31 | 2020-12-03 | Bpm株式会社 | Three-dimensional data management method for building and mobile terminal for implementing same |
CN111563961A (en) * | 2020-05-11 | 2020-08-21 | 南方电网科学研究院有限责任公司 | Three-dimensional modeling method and related device for transformer substation |
CN111563961B (en) * | 2020-05-11 | 2023-08-22 | 南方电网科学研究院有限责任公司 | Three-dimensional modeling method and related device for transformer substation |
CN112232899A (en) * | 2020-09-25 | 2021-01-15 | 北京五八信息技术有限公司 | Data processing method and device |
WO2022202036A1 (en) * | 2021-03-25 | 2022-09-29 | 株式会社日立ソリューションズ・クリエイト | Business assistance system and business assistance method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7187446B2 (en) | augmented virtual reality | |
CN107590771B (en) | 2D video with options for projection viewing in modeled 3D space | |
US9654734B1 (en) | Virtual conference room | |
WO2017152803A1 (en) | Image processing method and device | |
EP1883052A2 (en) | Generating images combining real and virtual images | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
JP2003141569A (en) | Method of processing information and image synthesis device | |
JP3104638B2 (en) | 3D image creation device | |
JP2020004325A (en) | Image processing device, image processing method, and program | |
JP2006040053A (en) | Image processing method and program | |
JP2020173529A (en) | Information processing device, information processing method, and program | |
JP2022077148A (en) | Image processing method, program, and image processing system | |
JP2015099545A (en) | Image generation system and image generation program | |
JP2014164003A (en) | Virtual indoor space display device | |
JP2004117579A (en) | Image display method and image display device | |
JP6679966B2 (en) | Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program | |
CA3155612A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
JP2006018444A (en) | Image processing system and additional information indicating device | |
JP2004310686A (en) | Image processing method and device | |
JP5326816B2 (en) | Remote conference system, information processing apparatus, and program | |
JP3309841B2 (en) | Synthetic moving image generating apparatus and synthetic moving image generating method | |
JP2012048529A (en) | Method for generating external appearance display image of planimetric feature and device therefor | |
KR20220083552A (en) | Method for estimating and correcting 6 DoF of multiple objects of wearable AR device and AR service method using the same | |
KR101860215B1 (en) | Content Display System and Method based on Projector Position | |
JP5200141B2 (en) | Video presentation system, video presentation method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070626 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100409 |