JP2006040053A - Image processing method and program - Google Patents

Image processing method and program Download PDF

Info

Publication number
JP2006040053A
JP2006040053A JP2004220635A JP2004220635A JP2006040053A JP 2006040053 A JP2006040053 A JP 2006040053A JP 2004220635 A JP2004220635 A JP 2004220635A JP 2004220635 A JP2004220635 A JP 2004220635A JP 2006040053 A JP2006040053 A JP 2006040053A
Authority
JP
Japan
Prior art keywords
image
virtual
video
real
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004220635A
Other languages
Japanese (ja)
Inventor
Hiroshi Ono
浩史 小野
Kotaro Hirate
小太郎 平手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taisei Corp
University of Tokyo NUC
Original Assignee
Taisei Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taisei Corp, University of Tokyo NUC filed Critical Taisei Corp
Priority to JP2004220635A priority Critical patent/JP2006040053A/en
Publication of JP2006040053A publication Critical patent/JP2006040053A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method which easily constructs an indoor space model of high reality in a virtual space and provides a person, who wants to buy a house, with more realistic VR pictures, and also provide a program therefor. <P>SOLUTION: Actual pictures of an indoor space photographed with a plurality of photographing devices are obtained, and the obtained actual pictures are compared with virtual pictures obtained by viewing the virtual model of the same indoor model from virtual viewpoints to compute a correlation between the actual pictures and the virtual model. Then, the surface area of the virtual model for mapping the textures of the actual pictures is designated, and the partial areas of the actual pictures after conversion of their forms are mapped to the surface area. Then, the VR images obtained by viewing the virtual model after the texture mapping from arbitrary viewpoints are generated and displayed on a display device. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、住宅展示場等に展示されている建物の室内空間を仮想空間内で再現したVR画像をVR体験者に表示する画像処理方法及びプログラムに関する。   The present invention relates to an image processing method and a program for displaying a VR image obtained by reproducing an indoor space of a building displayed in a housing exhibition hall or the like in a virtual space to a VR experience person.

近年、コンピュータハードウェア技術の発達に伴って、よりリアリティのあるCG(Computer Graphics)画像の表現が盛んに行われている。そこで、高度に発達したCG技術を用いて仮想世界を構築して、その世界を現実のように知覚させる仮想現実感(Virtual Reality)が各種分野で用いられつつある。例えば、コンピュータ内で仮想的に新築住宅を3次元モデルを用いて構築しておき、住宅の購入希望者に対して購入する住宅の3次元室内空間モデルを任意の視点で投影したVR画像(映像)を提示させることができる。さらに、3次元モデルのパーツを交換・移動等することにより、室内の壁の色や家具等の装飾の種類を変更したり、配置の変更をすることができる。これによって、住宅メーカ等は、購入希望者に対して設計図や外観図等の平面的な情報提示だけでなく、購入する際の検討に資するために住宅等の立体的な映像を提供することが可能である。   In recent years, with the development of computer hardware technology, more realistic CG (Computer Graphics) images are being actively expressed. Therefore, virtual reality (virtual reality) that constructs a virtual world using highly developed CG technology and perceives the world like reality is being used in various fields. For example, a VR image (video) in which a newly constructed house is virtually constructed in a computer using a three-dimensional model, and a three-dimensional indoor space model of the house to be purchased for a person who wants to buy a house is projected from an arbitrary viewpoint. ) Can be presented. Furthermore, by exchanging and moving the parts of the three-dimensional model, the color of the indoor wall and the type of decoration such as furniture can be changed or the arrangement can be changed. As a result, housing manufacturers, etc. should provide not only two-dimensional information such as design drawings and external views to purchase applicants, but also provide three-dimensional images of houses, etc., in order to contribute to considerations when purchasing. Is possible.

しかし、CG技術が発達したとはいえ、CG映像によって実現される空間は実写映像の空間と比較すると、依然としてリアリティ性に乏しい。そこで、実写映像を用いて3次元空間を表現する方法として、360°パノラマ映像やQuickTimeVRというような方法も知られている。   However, even though CG technology has been developed, the space realized by the CG video is still poor in reality compared to the space of the live-action video. Therefore, methods such as 360 ° panoramic video and QuickTime VR are also known as methods for expressing a three-dimensional space using live-action video.

また、仮想空間内における視聴者ビューに対応させて、予め実写映像からカットして蓄積されていた複数の被写体映像のカット(小断片化された実写ビデオ映像)を再生することによって、視聴者に動きに合わせた映像を提示するような技術も知られている(例えば、特許文献1参照。)。
特開平11−175745号公報
In addition, in response to the viewer view in the virtual space, a plurality of subject video cuts (small fragmented live-action video images) that have been previously cut and accumulated from the live-action video are played back to the viewer. There is also known a technique for presenting an image in accordance with movement (for example, see Patent Document 1).
Japanese Patent Laid-Open No. 11-175745

しかし、実写映像を用いて表現された3次元空間による表現や特許文献1に記載の小断片化した実写ビデオ映像を仮想空間内の視聴者の動きに合わせて再生するような表現は、任意の視点からの映像を購入希望者に提示するという点では、上述したようなVR映像に比べて制限されたものになってしまう。   However, an expression in a three-dimensional space expressed by using a live-action video or an expression for reproducing a small fragmented live-action video image described in Patent Document 1 in accordance with the movement of the viewer in the virtual space is arbitrary. In terms of presenting the video from the viewpoint to the purchase applicant, the video is limited as compared with the VR video as described above.

本発明は、このような事情を考慮してなされたものであり、仮想空間内にリアリティ性の高い室内空間モデルを簡易に構築することができ、住宅の購入希望者等に対してより現実感を持たせたVR映像を提示することができる画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made in consideration of such circumstances, and can easily construct a highly realistic indoor space model in a virtual space, which is more realistic for those who want to purchase a house. An object of the present invention is to provide an image processing method and program capable of presenting a VR video provided with video.

上記課題を解決するために、本発明に係る画像処理方法は、
撮影装置を用いて撮影された室内空間の実映像を取得する取得工程と、
コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出工程と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定工程と、
前記面領域に対応する前記実映像内の部分領域を前記算出工程によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換工程と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング工程と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成工程と、
前記VR画像を表示装置に表示する表示工程と
を有することを特徴とする。
In order to solve the above problems, an image processing method according to the present invention includes:
An acquisition step of acquiring an actual image of the indoor space imaged using the imaging device;
A two-dimensional coordinate in the real image is obtained by comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in a computer from a virtual viewpoint corresponding to the viewpoint of the imaging device and the real image. And a calculation step of calculating a correspondence relationship between the virtual model and the three-dimensional coordinates of the virtual model;
A designating step of designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion step of converting a partial region in the real image corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation step;
A mapping step of mapping the partial area in the real image after shape conversion to the surface area;
An image generation step of generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display step of displaying the VR image on a display device.

また、本発明に係る画像処理方法は、
前記取得工程が、異なる複数の方向から前記室内空間を撮影可能な複数の撮影装置で撮影された実画像のうち、前記指定工程により指定された前記面領域にマッピングされる前記部分領域を有する実画像として、該面領域の向きとそれぞれの撮影装置の撮影方向との位置関係に基づいて決定される撮影装置から取得することを特徴とする。
The image processing method according to the present invention includes:
The acquisition step includes the partial region mapped to the surface region designated by the designation step among real images photographed by a plurality of photographing devices capable of photographing the indoor space from a plurality of different directions. The image is obtained from a photographing device determined based on a positional relationship between the orientation of the surface area and the photographing direction of each photographing device.

さらに、本発明に係る画像処理方法は、
前記取得工程は、ネットワークを介した前記撮影装置により所定時間単位に撮影され、配信された実映像を取得し、
前記表示工程が、前記所定時間単位で前記画像生成工程により生成された前記VR画像を前記表示装置に逐次表示する
ことを特徴とする。
Furthermore, an image processing method according to the present invention includes:
The acquisition step acquires a real image that is captured and distributed by the imaging device via a network in a predetermined time unit,
The display step sequentially displays the VR image generated by the image generation step in the predetermined time unit on the display device.

さらにまた、本発明に係るプログラムは、
コンピュータに、
撮影装置を用いて撮影された室内空間の実映像を取得する取得手順と、
前記コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出手順と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定手順と、
前記面領域に対応する前記実映像内の部分領域を前記算出手順によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換手順と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング手順と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成手順と、
前記VR画像を表示装置に表示する表示手順と
を実行させることを特徴とする。
Furthermore, the program according to the present invention is:
On the computer,
An acquisition procedure for acquiring a real image of the indoor space photographed using the photographing device;
By comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in the computer from a virtual viewpoint corresponding to the viewpoint of the imaging device with the actual image, a two-dimensional image in the actual image is obtained. A calculation procedure for calculating the correspondence between the coordinates and the three-dimensional coordinates of the virtual model;
A designation procedure for designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion procedure for converting a partial region in the actual video corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation procedure;
A mapping procedure for mapping the partial area in the real image after shape conversion to the surface area;
An image generation procedure for generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
And a display procedure for displaying the VR image on a display device.

本発明によれば、仮想空間内にリアリティ性の高い室内空間モデルを簡易に構築することができ、住宅の購入希望者等に対してより現実感を持たせたVR映像を提示することができる。   According to the present invention, it is possible to easily construct a highly realistic indoor space model in a virtual space, and it is possible to present a VR video with a more realistic feeling to those who want to purchase a house. .

以下、図面を参照して、本発明の一実施形態に係る画像処理方法について説明する。尚、本実施形態では、ある住宅展示場に展示されているモデルハウスの室内空間と同一の仮想モデル(室内空間モデル)をコンピュータの仮想空間内に構築し、その室内空間モデルに含まれる任意のオブジェクトのテクスチャを、実際のモデルハウスを撮影した映像から切り出してマッピングする方法について説明する。   Hereinafter, an image processing method according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the same virtual model (indoor space model) as the indoor space of the model house displayed in a certain house exhibition hall is constructed in the virtual space of the computer, and an arbitrary space included in the indoor space model is included. A description will be given of a method of mapping the texture of the object by cutting it out from the video image of the actual model house.

尚、本実施形態に係る画像処理を行う装置(デバイス)としては、3次元CAD、パーソナルコンピュータ、或いはワークステーション等の汎用のコンピュータを用いて実現することが可能である。   Note that an apparatus (device) for performing image processing according to the present embodiment can be realized using a general-purpose computer such as a three-dimensional CAD, a personal computer, or a workstation.

図1は、住宅展示場に展示されている実際のモデルハウスの映像を撮影し、その映像をコンピュータ内に構築された住宅モデルに貼り付けるための処理を行う画像処理システムの構成を示す概要図である。   FIG. 1 is a schematic diagram showing a configuration of an image processing system that takes a picture of an actual model house displayed in a house exhibition hall and performs processing for pasting the picture on a house model built in a computer. It is.

図1において、11は住宅展示場に実際に構築されたモデルハウスである。12a、12bはモデルハウス11の室内空間を各種視点から撮影するためのビデオカメラである。尚、ビデオカメラの設置台数は任意に定めることができる。例えば、ビデオカメラは、撮影された映像からテクスチャを切り出す対象の数等から必要最小限の台数を設置すればよく、1台でも2台以上であってもよい。また、13はビデオカメラ12a、12bで撮影された映像中の任意のオブジェクト(例えば、壁、床、テーブル等)のテクスチャを切り出し、3次元室内空間モデルにマッピングして記憶し、住宅の購入者等がマウス等で任意の視点からの映像を閲覧することができるコンピュータである。また、コンピュータ13は、実映像をLAN等のネットワーク16を介して他のコンピュータ14、15等に配信することができる。   In FIG. 1, reference numeral 11 denotes a model house actually constructed in a residential exhibition hall. Reference numerals 12a and 12b denote video cameras for photographing the indoor space of the model house 11 from various viewpoints. The number of video cameras can be arbitrarily determined. For example, a minimum number of video cameras may be installed based on the number of objects to be cut out of textures from captured images, and may be one or two or more. Reference numeral 13 denotes a texture of an arbitrary object (for example, a wall, a floor, a table, etc.) in the video captured by the video cameras 12a and 12b, which is mapped and stored in a three-dimensional indoor space model. Is a computer that can view a video from an arbitrary viewpoint with a mouse or the like. In addition, the computer 13 can distribute the actual video to other computers 14, 15 and the like via a network 16 such as a LAN.

14、15は仮想空間内にモデルハウス11と同一の3次元室内空間モデルが構築され、コンピュータ13と同様に切り出したオブジェクトのテクスチャを当該3次元室内空間モデルにマッピングして記憶し、住宅の購入希望者等がマウス等で任意の視点からのVR映像を閲覧することができるコンピュータである。尚、コンピュータ14、15が使用する実映像は、撮影装置12a、12bから直接取得してもよいし、コンピュータ13で切り出されたテクスチャのみを取得するようにしてもよい。   14 and 15, the same three-dimensional indoor space model as the model house 11 is constructed in the virtual space, and the texture of the object cut out is mapped and stored in the three-dimensional indoor space model in the same manner as the computer 13 to purchase a house. This is a computer that allows a user or the like to view a VR video from an arbitrary viewpoint with a mouse or the like. The actual video used by the computers 14 and 15 may be acquired directly from the imaging devices 12a and 12b, or only the texture cut out by the computer 13 may be acquired.

すなわち、コンピュータ14、15は住宅展示場内に設置される必要はなく、住宅展示場と遠隔した任意の位置に設置することができる。また、任意の数のコンピュータを全国的にLAN16に接続することもできる。従って、住宅の購入希望者は、実際にモデルハウスが展示されている住宅展示場まで出向かずに、LAN16に接続されたコンピュータが設置されている近くの事務所等に行くだけで、仮想空間内で構築されたリアリティ性の高い3次元仮想モデルによるVR映像を見ることができる。また、ビデオカメラ12a、12bから撮影された映像から一定時間ごとに、或いはリアルタイムでテクスチャを切り出して3次元室内空間モデルにマッピングすることで、刻々と変化する外部環境に応じて見え方が変化する室内空間のその時刻に応じた雰囲気を有するVR映像として提供することも可能である。   That is, the computers 14 and 15 do not need to be installed in the housing exhibition hall, and can be installed at any position remote from the housing exhibition hall. In addition, any number of computers can be connected to the LAN 16 nationwide. Therefore, a person who wants to purchase a house does not go to the house exhibition hall where the model house is actually exhibited, but simply goes to a nearby office or the like where a computer connected to the LAN 16 is installed. The VR image by the highly realistic three-dimensional virtual model constructed in the above can be viewed. In addition, the appearance changes according to the external environment that changes every moment by cutting out textures from video captured by the video cameras 12a and 12b at regular intervals or in real time and mapping them to a three-dimensional indoor space model. It is also possible to provide a VR image having an atmosphere corresponding to the time of the indoor space.

図2は、本実施形態に係る3次元室内空間モデルに基づくVR映像を提供するための画像処理を実行するコンピュータの構成を示すブロック図である。図2において、操作部120は、例えばマウス、キーボード、ボタン等から構成され、オペレータが操作データを入力して画像処理部110に対して各種指示を行うことができる。一時記憶部130は、RAM等のハードウェアから構成され、後述する画像処理プログラム等のアプリケーションプログラムが展開され、画像処理部110のワークエリアとなる。記憶部140は、固定式又は着脱可能なハードディスクやROM、或いはDVD、MO等の可搬可能な記憶媒体(記録媒体)から構成され、本実施形態に係る各種情報処理に関するプログラムやテクスチャをマッピングする仮想空間である3次元室内空間モデルを含む各種データ等を格納する。   FIG. 2 is a block diagram illustrating a configuration of a computer that executes image processing for providing VR video based on the three-dimensional indoor space model according to the present embodiment. In FIG. 2, the operation unit 120 includes, for example, a mouse, a keyboard, buttons, and the like, and an operator can input operation data and give various instructions to the image processing unit 110. The temporary storage unit 130 is configured by hardware such as a RAM, and an application program such as an image processing program, which will be described later, is developed and becomes a work area of the image processing unit 110. The storage unit 140 is composed of a fixed or removable hard disk or ROM, or a portable storage medium (recording medium) such as a DVD or MO, and maps programs and textures related to various information processing according to the present embodiment. Various data including a three-dimensional indoor space model which is a virtual space is stored.

画像処理部110は、記憶部140に記憶されている画像処理プログラム等に基づいて3次元室内空間モデルの指定されたオブジェクトのテクスチャを通信部160から取得された実映像のテクスチャにマッピングし直すとともに、仮想視点から見たVR画像を生成する。尚、生成されたVR画像は時系列順に記憶部140に記憶され、リアルタイムに表示部150でVR映像として再生することが可能である。表示部150は、例えばCRTや液晶モニタ等で実現され、画像処理部110による処理によって生成されたVR画像(映像)を出力(再生)する。   The image processing unit 110 remaps the texture of the specified object of the 3D indoor space model to the texture of the actual video acquired from the communication unit 160 based on the image processing program stored in the storage unit 140 and the like. A VR image viewed from a virtual viewpoint is generated. The generated VR images are stored in the storage unit 140 in chronological order, and can be reproduced as a VR video on the display unit 150 in real time. The display unit 150 is realized by, for example, a CRT or a liquid crystal monitor, and outputs (reproduces) a VR image (video) generated by the processing by the image processing unit 110.

また、通信部160は、他のコンピュータやCADシステム等と直接或いはインターネット、LAN等のネットワークを介して接続し、それらの外部装置との間で各種データ通信を行うためのものである。尚、本実施形態においては、仮想空間である3次元室内空間モデルは、前述したように記憶部140に記憶するようにしているが、当該3次元室内空間モデルは本コンピュータの画像処理部110によって構築されたものでも、通信部160を介して外部装置で構築されたものをダウンロードして、或いはデータ通信しながら使用するようにしてもよい。   The communication unit 160 is connected to other computers, CAD systems, etc. directly or via a network such as the Internet or a LAN, and performs various data communications with these external devices. In the present embodiment, the three-dimensional indoor space model that is a virtual space is stored in the storage unit 140 as described above, but the three-dimensional indoor space model is stored by the image processing unit 110 of the computer. It is also possible to download the one constructed by an external device via the communication unit 160 or use it while performing data communication.

画像処理部110には、ビデオカメラ12a、12bで撮影されたビデオ映像から実写映像のテクスチャをマッピングする対象となっているオブジェクトの領域を切り出す領域切り出し部111と、切り出された領域のテクスチャを3次元室内空間モデルの対応する面にマッピングするためにテクスチャ面を変換する形状変換部112と、形状が変換されたテクスチャ面をマッピングするマッピング部113と、仮想空間内における視点を認識する視点認識部114と、認識された視点から実写映像に基づくテクスチャがマッピングされた3次元室内空間モデルを投影面にレンダリングして2次元のVR映像を生成するレンダリング部115と、生成されて記憶部140に記憶されたVR画像を再生する再生部116が含まれる。   The image processing unit 110 includes a region cutout unit 111 that cuts out a region of an object that is a target for mapping a texture of a live-action video from video images captured by the video cameras 12a and 12b, and three textures of the cut out regions. A shape conversion unit 112 that converts a texture surface to map to a corresponding surface of a three-dimensional indoor space model, a mapping unit 113 that maps a texture surface whose shape has been converted, and a viewpoint recognition unit that recognizes a viewpoint in a virtual space 114, a rendering unit 115 that generates a two-dimensional VR image by rendering a 3D indoor space model in which a texture based on a live-action image is mapped from a recognized viewpoint on a projection plane, and is generated and stored in the storage unit 140 A playback unit 116 for playing back the VR image thus recorded is included.

図3は、本実施形態に係る実写映像のテクスチャを3次元室内空間モデルにマッピングする画像処理を実行するコンピュータのハードウェア構成を示すブロック図である。図3において、CPU201は、図2の画像処理部101を実現するものであり、OSに基づいて各種アプリケーションを実行するための制御を行う。RAM202は、CPU201で実行されるアプリケーションプログラムが展開されるとともに、作業データを一時的に格納するものであり、図1の一時記憶部130を実現するものである。   FIG. 3 is a block diagram showing a hardware configuration of a computer that executes image processing for mapping a texture of a live-action image according to the present embodiment to a three-dimensional indoor space model. In FIG. 3, a CPU 201 implements the image processing unit 101 of FIG. 2, and performs control for executing various applications based on the OS. The RAM 202 expands application programs executed by the CPU 201 and temporarily stores work data, and implements the temporary storage unit 130 of FIG. 1.

また、ROM203には、本コンピュータに接続されている各種デバイスを制御するためのプログラムである基本入出力システム(BIOS)等が格納されている。尚、格納されているBIOS等は電気的に書き換えが可能であって、アップグレードが可能である。ネットワークインタフェース204は本コンピュータをLANやインターネット等のネットワーク205上に接続された外部装置とアクセスを行うためのものであり、図1の通信部160を実現するものである。   The ROM 203 stores a basic input / output system (BIOS) that is a program for controlling various devices connected to the computer. The stored BIOS or the like can be electrically rewritten and can be upgraded. The network interface 204 is for accessing the computer with an external device connected to the network 205 such as a LAN or the Internet, and implements the communication unit 160 of FIG.

さらに、206は操作部インタフェースであり、キーボードやマウス等の操作デバイス207を用いてオペレータが指示した情報をコンピュータ内部に取り込むためのものである。ディスプレイコントローラ208は、CPU201による画像描画命令を処理するためのコントローラであり、生成されたVR画像をディスプレイ209上に出力(再生)する。   Reference numeral 206 denotes an operation unit interface for taking in information instructed by the operator using an operation device 207 such as a keyboard and a mouse. The display controller 208 is a controller for processing an image drawing command from the CPU 201, and outputs (reproduces) the generated VR image on the display 209.

さらにまた、記憶部インタフェース210は、ハードディスクドライブ(HDD)211やDVD、MO等の可搬可能な記憶媒体213用のメディアドライブ212といった外部記憶装置をコンピュータに接続するためのインタフェースである。尚、ハードディスクドライブ211には、CPU201が実行するOSのプログラム、各種アプリケーションプログラム、各種デバイスのデバイスドライバ等が格納されている。また、ハードディスクドライブ211、或いは記憶媒体213には、本実施形態によって生成されたCG画像が動画像として再生可能なように時系列的に格納される。尚、上述したCPU201、RAM202、ROM203、ネットワークインタフェース204、操作部インタフェース206、ディスプレイコントローラ208及び記憶部インタフェース210は、バス214を介して互いに接続されている。   Furthermore, the storage unit interface 210 is an interface for connecting an external storage device such as a hard disk drive (HDD) 211 or a media drive 212 for a portable storage medium 213 such as a DVD or MO to a computer. The hard disk drive 211 stores an OS program executed by the CPU 201, various application programs, device drivers for various devices, and the like. The hard disk drive 211 or the storage medium 213 stores the CG image generated according to the present embodiment in time series so that it can be reproduced as a moving image. Note that the CPU 201, RAM 202, ROM 203, network interface 204, operation unit interface 206, display controller 208, and storage unit interface 210 described above are connected to each other via a bus 214.

図4は、本発明の一実施形態に係る実写映像のテクスチャを3次元室内空間モデルにマッピングするための画像処理手順を説明するためのフローチャートである。すなわち、以下では、図2及び図3を用いて説明したコンピュータを用いて、図4に示す画像処理手順に従って行われるVR画像の生成処理について詳細に説明する。   FIG. 4 is a flowchart for explaining an image processing procedure for mapping the texture of the live-action video according to the embodiment of the present invention to the three-dimensional indoor space model. That is, in the following, the VR image generation process performed in accordance with the image processing procedure shown in FIG. 4 will be described in detail using the computer described with reference to FIGS.

まず、モデルハウス内に設置されたビデオカメラ12a、12b等から撮影された実写映像をコンピュータ内に取り込む(ステップS11)。図5は、本実施形態においてモデルハウス内の映像を撮影するビデオカメラの設置状況とそれによって撮影された実写映像の一例を示す図である。本実施形態では、図5(a)に示すように矢印51〜55に示す方向を撮影するためのビデオカメラが設置されているものとする。また、図5(b)は矢印55に相当する方向からの視線でレンダリングされた室内空間モデルの表示例を示す。   First, a live-action picture taken from the video cameras 12a, 12b, etc. installed in the model house is taken into the computer (step S11). FIG. 5 is a diagram illustrating an example of an installation situation of a video camera that captures an image in a model house and an actual image captured by the video camera in the present embodiment. In the present embodiment, it is assumed that a video camera for photographing the directions indicated by arrows 51 to 55 is installed as shown in FIG. FIG. 5B shows a display example of the indoor space model rendered with a line of sight from the direction corresponding to the arrow 55.

以下で説明する実施形態では、3次元室内空間モデルは図2及び図3に示すコンピュータ内に記憶されていることとするが、その構築は当該コンピュータを用いてモデリングしてもよいし、3次元CAD等の他装置で生成した3次元室内空間モデルをネットワーク等を介して取得して格納したもの、或いはネットワーク等を介して接続されたそれらの他装置に格納されているモデルを通信しながら用いるようにしてもよい。   In the embodiment described below, the three-dimensional indoor space model is stored in the computer shown in FIGS. 2 and 3, but the construction may be modeled using the computer, A model obtained by acquiring and storing a three-dimensional indoor space model generated by another device such as CAD via a network or the like, or a model stored in those other devices connected via a network or the like is used while communicating. You may do it.

コンピュータ内に取り込まれたビデオ映像をVR空間からの映像と一致させる(ステップS12)。具体的には、カメラ情報とVR空間内の仮想カメラ情報とを一致させ、ビデオ映像中の任意の部分領域と、VR空間内の部分とを対応付ける。そして、実写映像のテクスチャを貼り付ける対象物とそのエリア(面領域)を指定する(ステップS13)。   The video image captured in the computer is matched with the image from the VR space (step S12). Specifically, camera information and virtual camera information in the VR space are matched, and an arbitrary partial region in the video image is associated with a portion in the VR space. Then, an object to which the texture of the live-action video image is pasted and its area (surface area) are designated (step S13).

その後、指定された部分のテクスチャを実写映像から切り出した領域をVR空間内の面に貼り付けるために座標変換を行って形状を変換する(ステップS14)。この形状変換は、切り出された領域はカメラの視線方向と面の向きとの関係から、通常はある程度の角度をもって撮影され、ひずみが生じており、本来の形状ではないために行われる。そして、形状を変換したテクスチャをVR空間内の対応する面にマッピングする(ステップS15)。次いで、他にVR空間内で実写映像からのテクスチャのマッピングを行う面の有無を判定する(ステップS16)。   Thereafter, in order to paste a region obtained by cutting out the texture of the designated portion from the live-action video onto a surface in the VR space, the shape is converted by performing coordinate conversion (step S14). This shape conversion is performed because the cut-out area is usually photographed at a certain angle from the relationship between the viewing direction of the camera and the orientation of the surface, and is distorted and not the original shape. Then, the texture whose shape has been converted is mapped to a corresponding surface in the VR space (step S15). Next, the presence / absence of a surface on which a texture is mapped from a live-action video in the VR space is determined (step S16).

その結果、まだ他にテクスチャマッピングを行う面領域が存在する場合(Yes)はステップS13に戻って同様の処理を行う。一方、他にテクスチャマッピングを行う面が存在しない場合(No)は、VR体験者の視線から見た(すなわち、仮想視点から見た)仮想空間をレンダリングすることによってVR画像を生成してリアルタイムで再生する(ステップS17)。   As a result, if there is still another surface area for texture mapping (Yes), the process returns to step S13 and the same processing is performed. On the other hand, if there is no other texture mapping surface (No), a VR image is generated in real time by rendering the virtual space viewed from the VR user's line of sight (ie, viewed from the virtual viewpoint). Playback is performed (step S17).

図6は、ステップS11のビデオ映像取得処理の詳細を説明するための概要図である。図6では、物体Aと物体Bが存在する実空間内において、ビデオカメラを実空間の四隅やその他の部分に1台ずつ複数台設置して実映像を取得し、VR空間の仮想物体に取得した映像を貼り付けるものとする。   FIG. 6 is a schematic diagram for explaining details of the video image acquisition processing in step S11. In FIG. 6, in the real space where the object A and the object B exist, a plurality of video cameras are installed one by one at the four corners and other parts of the real space, and real images are acquired and acquired as virtual objects in the VR space. The pasted video shall be pasted.

図6において、カメラ視点1によるビデオ撮影の場合、カメラのレンズの種類にもよるが、例えば焦点軸を物体Bに合わせることによって取得されるビデオ映像は、実写映像投影面1に投影されたものとなる。尚、実写映像投影面1としては、物体Aと物体Bの投影像を含む映像が取得される。また、カメラ視点2によるビデオ撮影の場合も同様にして、物体Aと物体Bの投影像を含む映像が実写映像投影面2に投影され取得される。   In FIG. 6, in the case of video shooting from the camera viewpoint 1, depending on the type of the lens of the camera, for example, a video image acquired by aligning the focal axis with the object B is projected on the live-action image projection plane 1. It becomes. Note that an image including the projection images of the object A and the object B is acquired as the live-action image projection plane 1. Similarly, in the case of video shooting from the camera viewpoint 2, an image including the projection images of the object A and the object B is projected and acquired on the real image projection plane 2.

ここで、実空間中の物体の面とカメラ視線との関係はなるべく直交する関係になることが望ましい。これは、直交から外れた角度で撮影された面の映像にはひずみが発生するため、ひずみをより少ない面の映像を用いるためにである。従って、物体Aに関しては、面A1についてはカメラ視点1の映像を、面A2についてはカメラ視点2の映像をVR映像としてテクスチャに用いるようにする。一方、物体Bに関しては、面B1についてはカメラ視点1の映像を、面B2についてはカメラ視点B2の映像をVR映像としてテクスチャに用いるようにする。   Here, it is desirable that the relationship between the surface of the object in the real space and the camera line of sight is as orthogonal as possible. This is because an image of a surface taken at an angle deviating from orthogonality is distorted, so that an image of a surface with less distortion is used. Therefore, for the object A, the image of the camera viewpoint 1 is used as the texture for the surface A1 and the image of the camera viewpoint 2 is used as the texture for the surface A2. On the other hand, for the object B, the image of the camera viewpoint 1 is used for the texture as the VR image for the surface B2 and the image of the camera viewpoint B2 for the surface B2.

尚、本実施形態では、実映像を撮影するカメラ位置は基本的に固定とするために、モデルハウスの内装や家具等の配置に応じて死角が生じないように必要な台数を必要な場所に設置するとともに、3次元室内空間モデルのオブジェクト(例えば、家具や壁等)のそれぞれの面にマッピングされるテクスチャとして使用する映像を予めどのビデオカメラで撮影された映像であるのかを決定しておき、常に固定して使用するとよい。   In this embodiment, since the camera position for shooting the actual video is basically fixed, the necessary number of units is placed where necessary so that no blind spots are generated according to the interior of the model house or the arrangement of furniture. as well as installation, objects in the three-dimensional interior space model (e.g., furniture, walls, etc.) in advance to determine whether a video captured video to be used as a texture to be mapped on each side beforehand in which video cameras It is better to always use it fixed.

次に、ステップS11でビデオ映像を取得した後に、そこからテクスチャを切り取ってVR空間に貼り付ける処理の詳細について説明する。図7は、取得された映像をVR空間に貼り付ける処理の詳細を説明するための概要図である。図7(a)は、実空間に設置を想定しているカメラ1からの映像を用いて物体Aと物体Bにそれぞれ2面のテクスチャを貼り付ける状況を示している。すなわち、画像の変換時の原点をカメラ視点とし、実写映像投影面1の映像を平面に変換する。ここで、カメラのレンズの仕様と、実写空間とVR空間の物体の3次元位置が既知であることから、映像の変換を行うことが可能である。   Next, the details of the process of obtaining a video image in step S11 and then cutting out and pasting the texture from the video image will be described. FIG. 7 is a schematic diagram for explaining the details of the process of pasting the acquired video into the VR space. FIG. 7A shows a situation in which two textures are pasted on the object A and the object B, respectively, using an image from the camera 1 that is assumed to be installed in a real space. That is, the origin at the time of image conversion is set as the camera viewpoint, and the image on the live-action image projection plane 1 is converted into a plane. Here, since the specifications of the camera lens and the three-dimensional positions of the objects in the live-action space and the VR space are known, it is possible to perform video conversion.

また、図7(b)はカメラ視点の変換の様子を示す概要図である。図7(b)に示すように、物体Bに関して直交するため、物体Bに貼り付ける映像は1つとなるが歪みは最も少なくなる。また、物体Aに関しては、カメラ視点1、2でそれぞれ作成する面が異なり、歪の少ない方の画像(例えば、面に対してより直交するような焦点軸の映像)を採用するようにする。   FIG. 7B is a schematic diagram showing how camera viewpoints are converted. As shown in FIG. 7B, since the object B is orthogonal to the object B, only one video is pasted on the object B, but the distortion is minimized. In addition, with respect to the object A, the planes to be created are different for the camera viewpoints 1 and 2, and an image with less distortion (for example, an image of a focal axis that is more orthogonal to the plane) is adopted.

尚、同一面領域内で複数の撮影装置で撮影された実映像が重複する部分が存在する場合には、当該領域をいずれか一つの撮影装置によって撮影された実映像からテクスチャを切り出してもよいし、当該面領域をさらに複数の部分領域に分割して、それぞれのテクスチャとして最適な実映像をそれぞれの撮影装置からの実映像から用いるようにしてもよい。   If there are overlapping portions of real images taken by a plurality of photographing devices in the same plane area, the texture may be cut out from the real images taken by any one of the photographing devices. Then, the surface area may be further divided into a plurality of partial areas, and the actual video that is optimal as each texture may be used from the actual video from each imaging device.

また、3次元室内空間モデルも図5に示したものだけには限定されず、他の室内空間やオフィスや店舗等の室内空間であってもよい。また、住宅やビル等の外観であってもよい。   Further, the three-dimensional indoor space model is not limited to the one shown in FIG. 5, and may be another indoor space or an indoor space such as an office or a store. Moreover, the external appearance of a house, a building, etc. may be sufficient.

尚、本発明は、前述した実施形態の機能をコンピュータで実現するためのプログラムを、コンピュータ読み取り可能な記録媒体(記憶媒体)に記録して、当該記録媒体に記録されたプログラムを上記システム内のコンピュータ等が読み出して実行するようにしてもよい。また、コンピュータ読み取り可能な記録媒体には、フレキシブルディスク、CD−ROM、DVD−ROM等の可搬記録媒体、システム又はコンピュータに内蔵されているハードディスク、揮発性メモリ(RAM)等の記憶装置(記録装置)を含む。また、上記プログラムは、インターネット等のネットワークや電話回線等の通信回線を介して上記システムやコンピュータ等にダウンロードするようにしてもよい。そして、上記システムやコンピュータにおいて、読み出されたプログラムを実行することにより、前述した実施形態の機能が実現されることとなる。この場合、上記記録媒体等は、前述したフローチャートに対応するプログラムを格納している。   In the present invention, a program for realizing the functions of the above-described embodiments by a computer is recorded on a computer-readable recording medium (storage medium), and the program recorded on the recording medium is stored in the system. A computer or the like may read and execute. The computer-readable recording medium includes a portable recording medium such as a flexible disk, CD-ROM, and DVD-ROM, a hard disk built in the system or computer, a storage device such as a volatile memory (RAM) (recording). Device). The program may be downloaded to the system, computer, or the like via a network such as the Internet or a communication line such as a telephone line. Then, the functions of the above-described embodiments are realized by executing the read program in the system or the computer. In this case, the recording medium or the like stores a program corresponding to the flowchart described above.

住宅展示場に展示されている実際のモデルハウスの映像を撮影し、その映像をコンピュータ内に構築された住宅モデルに貼り付けるための処理を行う画像処理システムの構成を示す概要図である。It is an outline figure showing composition of an image processing system which takes a picture for photographing a picture of an actual model house displayed in a house exhibition hall, and affixing the picture on a house model built in a computer. 本実施形態に係る3次元室内空間モデルに基づくVR映像を提供するための画像処理を実行するコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the computer which performs the image process for providing the VR image | video based on the three-dimensional room space model which concerns on this embodiment. 本実施形態に係る実写映像のテクスチャを3次元VRモデルにマッピングする画像処理を実行するコンピュータのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer which performs the image process which maps the texture of the captured image concerning this embodiment to a three-dimensional VR model. 本発明の一実施形態に係る実写映像のテクスチャを3次元室内空間モデルにマッピングするための画像処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image processing procedure for mapping the texture of the photographed image which concerns on one Embodiment of this invention to a three-dimensional indoor space model. 本実施形態においてモデルハウス内の映像を撮影するビデオカメラの設置状況とそれによって撮影された実写映像の一例を示す図である。It is a figure which shows an example of the installation condition of the video camera which image | photographs the image | video in a model house in this embodiment, and an actual image image | photographed by it. ステップS11のビデオ映像取得処理の詳細を説明するための概要図である。It is a schematic diagram for demonstrating the detail of the video image | video acquisition process of step S11. 取得された映像をVR空間に貼り付ける処理の詳細を説明するための概要図である。It is a schematic diagram for demonstrating the detail of the process which pastes the acquired image | video in VR space.

Claims (4)

撮影装置を用いて撮影された室内空間の実映像を取得する取得工程と、
コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出工程と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定工程と、
前記面領域に対応する前記実映像内の部分領域を前記算出工程によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換工程と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング工程と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成工程と、
前記VR画像を表示装置に表示する表示工程と
を有することを特徴とする画像処理方法。
An acquisition step of acquiring an actual image of the indoor space imaged using the imaging device;
A two-dimensional coordinate in the real image is obtained by comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in a computer from a virtual viewpoint corresponding to the viewpoint of the imaging device and the real image. And a calculation step of calculating a correspondence relationship between the virtual model and the three-dimensional coordinates of the virtual model;
A designating step of designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion step of converting a partial region in the real image corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation step;
A mapping step of mapping the partial area in the real image after shape conversion to the surface area;
An image generation step of generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display step of displaying the VR image on a display device.
前記取得工程が、異なる複数の方向から前記室内空間を撮影可能な複数の撮影装置で撮影された実画像のうち、前記指定工程により指定された前記面領域にマッピングされる前記部分領域を有する実画像として、該面領域の向きとそれぞれの撮影装置の撮影方向との位置関係に基づいて決定される撮影装置から取得することを特徴とする請求項1に記載の画像処理方法。   The acquisition step includes the partial region mapped to the surface region designated by the designation step among real images photographed by a plurality of photographing devices capable of photographing the indoor space from a plurality of different directions. The image processing method according to claim 1, wherein the image processing method is obtained from an imaging device that is determined based on a positional relationship between the orientation of the surface area and the imaging direction of each imaging device. 前記取得工程は、ネットワークを介した前記撮影装置により所定時間単位に撮影され、配信された実映像を取得し、
前記表示工程が、前記所定時間単位で前記画像生成工程により生成された前記VR画像を前記表示装置に逐次表示する
ことを特徴とする請求項1又は2に記載の画像処理方法。
The acquisition step acquires a real image that is captured and distributed by the imaging device via a network in a predetermined time unit,
The image processing method according to claim 1, wherein the display step sequentially displays the VR image generated by the image generation step on the display device in the predetermined time unit.
コンピュータに、
撮影装置を用いて撮影された室内空間の実映像を取得する取得手順と、
前記コンピュータ内で構築された前記室内空間に対応する仮想モデルを前記撮像装置の視点に対応する仮想視点から見た仮想映像と、前記実映像とを比較することにより、前記実映像内の2次元座標と前記仮想モデルの3次元座標との対応関係を算出する算出手順と、
前記実映像中のテクスチャをマッピングさせる前記仮想モデルの面領域を指定する指定手順と、
前記面領域に対応する前記実映像内の部分領域を前記算出手順によって算出された前記対応関係に基づいて前記面領域と同一の形状に変換する形状変換手順と、
形状変換後の前記実映像中の前記部分領域を前記面領域にマッピングするマッピング手順と、
前記実映像中のテクスチャをマッピングした後の前記仮想モデルを任意の視点から見たVR画像を生成する画像生成手順と、
前記VR画像を表示装置に表示する表示手順と
を実行させるためのプログラム。
On the computer,
An acquisition procedure for acquiring a real image of the indoor space photographed using the photographing device;
By comparing a virtual image obtained by viewing a virtual model corresponding to the indoor space constructed in the computer from a virtual viewpoint corresponding to the viewpoint of the imaging device with the actual image, a two-dimensional image in the actual image is obtained. A calculation procedure for calculating the correspondence between the coordinates and the three-dimensional coordinates of the virtual model;
A designation procedure for designating a surface area of the virtual model for mapping a texture in the real video;
A shape conversion procedure for converting a partial region in the actual video corresponding to the surface region into the same shape as the surface region based on the correspondence calculated by the calculation procedure;
A mapping procedure for mapping the partial area in the real image after shape conversion to the surface area;
An image generation procedure for generating a VR image when the virtual model after mapping the texture in the real video is viewed from an arbitrary viewpoint;
A display procedure for displaying the VR image on a display device.
JP2004220635A 2004-07-28 2004-07-28 Image processing method and program Pending JP2006040053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004220635A JP2006040053A (en) 2004-07-28 2004-07-28 Image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004220635A JP2006040053A (en) 2004-07-28 2004-07-28 Image processing method and program

Publications (1)

Publication Number Publication Date
JP2006040053A true JP2006040053A (en) 2006-02-09

Family

ID=35904966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004220635A Pending JP2006040053A (en) 2004-07-28 2004-07-28 Image processing method and program

Country Status (1)

Country Link
JP (1) JP2006040053A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7508910B2 (en) 2006-05-04 2009-03-24 The Boeing Company System and methods for x-ray backscatter reverse engineering of structures
US7529343B2 (en) 2006-05-04 2009-05-05 The Boeing Company System and method for improved field of view X-ray imaging using a non-stationary anode
US7649976B2 (en) * 2006-02-10 2010-01-19 The Boeing Company System and method for determining dimensions of structures/systems for designing modifications to the structures/systems
JP2010197101A (en) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology Injury avoidance system during earthquake
KR101384205B1 (en) 2012-08-29 2014-04-10 김재광 method for simulating virtual space
JP6196416B1 (en) * 2016-05-27 2017-09-13 楽天株式会社 3D model generation system, 3D model generation method, and program
CN108062786A (en) * 2016-11-08 2018-05-22 台湾国际物业管理顾问有限公司 Synthesis perceptual positioning technology application system based on three-dimensional information model
CN111563961A (en) * 2020-05-11 2020-08-21 南方电网科学研究院有限责任公司 Three-dimensional modeling method and related device for transformer substation
WO2020241331A1 (en) * 2019-05-31 2020-12-03 Bpm株式会社 Three-dimensional data management method for building and mobile terminal for implementing same
CN112232899A (en) * 2020-09-25 2021-01-15 北京五八信息技术有限公司 Data processing method and device
WO2022202036A1 (en) * 2021-03-25 2022-09-29 株式会社日立ソリューションズ・クリエイト Business assistance system and business assistance method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175745A (en) * 1997-12-15 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for integrating subject video and recording medium recorded with the method
JP2000076488A (en) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp Three-dimensional virtual space display device and texture object setting information generating device
JP2000242810A (en) * 1999-02-25 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> Method and device for texture mapping, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175745A (en) * 1997-12-15 1999-07-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for integrating subject video and recording medium recorded with the method
JP2000076488A (en) * 1998-08-26 2000-03-14 Mitsubishi Electric Corp Three-dimensional virtual space display device and texture object setting information generating device
JP2000242810A (en) * 1999-02-25 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> Method and device for texture mapping, and recording medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7649976B2 (en) * 2006-02-10 2010-01-19 The Boeing Company System and method for determining dimensions of structures/systems for designing modifications to the structures/systems
US7508910B2 (en) 2006-05-04 2009-03-24 The Boeing Company System and methods for x-ray backscatter reverse engineering of structures
US7529343B2 (en) 2006-05-04 2009-05-05 The Boeing Company System and method for improved field of view X-ray imaging using a non-stationary anode
US7623626B2 (en) 2006-05-04 2009-11-24 The Boeing Company System and methods for x-ray backscatter reverse engineering of structures
JP2010197101A (en) * 2009-02-23 2010-09-09 Nagoya Institute Of Technology Injury avoidance system during earthquake
KR101384205B1 (en) 2012-08-29 2014-04-10 김재광 method for simulating virtual space
JP6196416B1 (en) * 2016-05-27 2017-09-13 楽天株式会社 3D model generation system, 3D model generation method, and program
WO2017203710A1 (en) * 2016-05-27 2017-11-30 楽天株式会社 Three-dimensional model generation system, three-dimensional model generation method, and program
CN108062786A (en) * 2016-11-08 2018-05-22 台湾国际物业管理顾问有限公司 Synthesis perceptual positioning technology application system based on three-dimensional information model
WO2020241331A1 (en) * 2019-05-31 2020-12-03 Bpm株式会社 Three-dimensional data management method for building and mobile terminal for implementing same
CN111563961A (en) * 2020-05-11 2020-08-21 南方电网科学研究院有限责任公司 Three-dimensional modeling method and related device for transformer substation
CN111563961B (en) * 2020-05-11 2023-08-22 南方电网科学研究院有限责任公司 Three-dimensional modeling method and related device for transformer substation
CN112232899A (en) * 2020-09-25 2021-01-15 北京五八信息技术有限公司 Data processing method and device
WO2022202036A1 (en) * 2021-03-25 2022-09-29 株式会社日立ソリューションズ・クリエイト Business assistance system and business assistance method

Similar Documents

Publication Publication Date Title
JP7187446B2 (en) augmented virtual reality
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
US9654734B1 (en) Virtual conference room
WO2017152803A1 (en) Image processing method and device
EP1883052A2 (en) Generating images combining real and virtual images
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
JP2003141569A (en) Method of processing information and image synthesis device
JP3104638B2 (en) 3D image creation device
JP2020004325A (en) Image processing device, image processing method, and program
JP2006040053A (en) Image processing method and program
JP2020173529A (en) Information processing device, information processing method, and program
JP2022077148A (en) Image processing method, program, and image processing system
JP2015099545A (en) Image generation system and image generation program
JP2014164003A (en) Virtual indoor space display device
JP2004117579A (en) Image display method and image display device
JP6679966B2 (en) Three-dimensional virtual space presentation system, three-dimensional virtual space presentation method and program
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2006018444A (en) Image processing system and additional information indicating device
JP2004310686A (en) Image processing method and device
JP5326816B2 (en) Remote conference system, information processing apparatus, and program
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JP2012048529A (en) Method for generating external appearance display image of planimetric feature and device therefor
KR20220083552A (en) Method for estimating and correcting 6 DoF of multiple objects of wearable AR device and AR service method using the same
KR101860215B1 (en) Content Display System and Method based on Projector Position
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100409