JP2006323450A - Simulation image generator, simulation image generation method, computation program, and recording medium recorded with program - Google Patents

Simulation image generator, simulation image generation method, computation program, and recording medium recorded with program Download PDF

Info

Publication number
JP2006323450A
JP2006323450A JP2005143611A JP2005143611A JP2006323450A JP 2006323450 A JP2006323450 A JP 2006323450A JP 2005143611 A JP2005143611 A JP 2005143611A JP 2005143611 A JP2005143611 A JP 2005143611A JP 2006323450 A JP2006323450 A JP 2006323450A
Authority
JP
Japan
Prior art keywords
pixel
simulation
image
camera information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005143611A
Other languages
Japanese (ja)
Other versions
JP4857601B2 (en
Inventor
Hisashi Oguro
久史 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2005143611A priority Critical patent/JP4857601B2/en
Publication of JP2006323450A publication Critical patent/JP2006323450A/en
Application granted granted Critical
Publication of JP4857601B2 publication Critical patent/JP4857601B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow an interactive viewing of high real time property, without causing a speed reduction in use, even when using a large capacity of highly definition three-dimensional data to reproduce an object with high quality. <P>SOLUTION: This simulation image generator has an image data generated based on the three-dimensional data expressing an object surface within a three-dimensional scene, and based on camera information expressing a view point operation for photographing the object within the three-dimensional scene, and for indicating information as to the object surface in a corresponding point on the object surface corresponding to a position of each picture element in every of the picture elements, a function for inputting the camera information, a function for inputting a simulation condition, and a function for finding a picture element value when the object is brought into the simulation condition within the three-dimensional scene, in the every picture element, based on the image data and the camera information, and for displaying it. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、シミュレーション画像を生成する技術に関する。   The present invention relates to a technique for generating a simulation image.

美術工芸品などの立体物のデジタル化保存観察手段として、バーチャルリアリティ技術を用いることによって、任意の観察位置や照明条件の下での対象物の見えを対話的に再現することが出来る。   By using virtual reality technology as a means for digitizing and preserving three-dimensional objects such as arts and crafts, it is possible to interactively reproduce the appearance of an object under an arbitrary observation position and lighting conditions.

ここでのバーチャルリアリティ技術とは、美術工芸品などの実物の立体物を実写で計測して得た三次元データ(対象物の三次元形状データや対象物表面の性状を示すマテリアル情報とテクスチャ画像などからなり、三次元シーン内で対象物表面を表すもの)をもとに、観察位置や照明条件などに基づいたリアルタイム画像生成(レンダリング)処理を行うことによって自由な視点移動や対象物の操作などの仮想体験を実現しようというものである。   The virtual reality technology here means 3D data (material information and texture image showing the 3D shape data of the object and the surface of the object) obtained by measuring a real 3D object such as arts and crafts with a live action. Based on the observation position, illumination conditions, etc., based on the observation position and lighting conditions, etc. To achieve a virtual experience.

仮想体験のリアリティを向上させるには、映像の画質に加えて、視点移動などに追従した動きの滑らかさなどのリアルタイム性が重要である。しかしながら、対象物の細部までを正確に再現しようとすると、三次元形状データや、テクスチャ画像のデータ量が増大し、レンダリング処理速度の低下を招くことになる。   In order to improve the reality of the virtual experience, in addition to the image quality of the video, the real-time property such as the smoothness of the movement following the movement of the viewpoint is important. However, if it is attempted to accurately reproduce the details of the target object, the data amount of the three-dimensional shape data and the texture image increases, leading to a reduction in rendering processing speed.

また、表示品質を最優先する場合には、リアルタイムレンダリング(バーチャルリアリティ)技術を用いずに、長時間を要する高精度レンダリングによって静止画や動画を生成することになるが、この場合にはバーチャルリアリティの特徴である対話的機能は実現できない。   In addition, when display quality is given the highest priority, real-time rendering (virtual reality) technology is not used, and still images and videos are generated by high-precision rendering that takes a long time. In this case, virtual reality is used. The interactive function that is the feature of can not be realized.

このように、バーチャルリアリティ技術を用いる場合では、レンダリング処理の結果得られる画像(以後、結果画像とも云う)の正確さや詳細度を向上させるためには、三次元形状データの詳細化やテクスチャ画像の高精度化が必要であり、その結果として、レンダリング処理速度の低下を招き、他方、レンダリング処理のリアルタイム性を確保するためには、データ量の削減などによって詳細度を抑える結果として、対象物の細部や微妙な質感の十分な再現が困難である。   As described above, in the case of using the virtual reality technology, in order to improve the accuracy and detail of an image obtained as a result of the rendering process (hereinafter also referred to as a result image), the refinement of the three-dimensional shape data or the texture image As a result, the rendering process speed is reduced. On the other hand, in order to ensure the real-time performance of the rendering process, the detail level is reduced by reducing the amount of data. Full reproduction of details and subtle textures is difficult.

ところで、画面全体の色調変換のような結果画像の画素を対象とする処理の負荷は、当然ながら、三次元形状データの詳細度には無関係であり、一定時間で実行することができる。   By the way, the processing load for the pixels of the result image, such as color tone conversion of the entire screen, is naturally irrelevant to the level of detail of the three-dimensional shape data, and can be executed in a fixed time.

しかしながら、このようなレンダリング後の処理は、RGB画像などの画像データに基づいた色変換、輝度変換、フィルタ処理などに限定され、有用性の高い照明再現や質感再現などの三次元データに基づいた処理は実行できない。   However, such post-rendering processing is limited to color conversion, luminance conversion, filter processing, and the like based on image data such as RGB images, and is based on three-dimensional data such as highly useful illumination reproduction and texture reproduction. Processing cannot be executed.

本発明は斯かる背景技術に鑑みてなされたもので、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にすることを課題とする。   The present invention has been made in view of such background technology, and even when using high-definition and large-capacity three-dimensional data for high-quality reproduction of an object, real-time performance is not accompanied by a decrease in speed during use. The challenge is to enable highly interactive viewing.

本発明において上記課題を達成するために、まず請求項1の発明では、三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を撮影するための視点操作を表すカメラ情報とに基づいて生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す画像データと、カメラ情報とを入力する機能と、
シミュレーション条件を入力する機能と、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する機能とを有することを特徴とするシミュレーション画像生成装置としたものである。
In order to achieve the above object in the present invention, first, the invention of claim 1 represents three-dimensional data representing the surface of the object in the three-dimensional scene and a viewpoint operation for photographing the object in the three-dimensional scene. A function for inputting, for each pixel, image data indicating information on the object surface at a corresponding point of the object surface corresponding to the position of each pixel, and camera information, for each pixel;
The ability to enter simulation conditions;
A simulation characterized by having a function of obtaining and displaying a pixel value when an object is placed under a simulation condition in a three-dimensional scene for each pixel based on image data and camera information This is an image generation apparatus.

また請求項2の発明では、請求項1に記載のシミュレーション画像生成装置が実行する方法であって、
三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を撮影するための視点操作を表すカメラ情報とに基づいて生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す画像データと、カメラ情報とが入力される工程と、
シミュレーション条件が入力される工程と、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する工程とを含むことを特徴とするシミュレーション画像生成方法としたものである。
The invention according to claim 2 is a method executed by the simulation image generating apparatus according to claim 1,
Generated based on 3D data representing the surface of the object in the 3D scene and camera information representing the viewpoint operation for photographing the object in the 3D scene. For each pixel, the position of each pixel Image data indicating information on the object surface at corresponding points on the object surface corresponding to, and camera information is input,
A process for entering simulation conditions;
A simulation including a step of obtaining and displaying a pixel value when an object is placed under a simulation condition in a three-dimensional scene for each pixel based on image data and camera information This is an image generation method.

また請求項3の発明では、三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を各時点で撮影するための視点操作を表す各時点のカメラ情報とにより得られた動画の各フレーム毎に生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す各画像データと、各フレームを撮影した際に用いられた各カメラ情報とを入力する機能と、
シミュレーション条件を入力する機能と、
再生する動画シーケンスを指定する情報を入力する機能と、
動画シーケンスの各フレームを順次に取り上げ、取り上げたフレームの画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する機能とを有することを特徴とするシミュレーション画像生成装置としたものである。
According to a third aspect of the present invention, it is obtained from three-dimensional data representing the surface of an object in a three-dimensional scene and camera information at each time point representing a viewpoint operation for photographing the object at each time point in the three-dimensional scene. When each frame is shot, each image data is generated for each frame of the obtained moving image, and each pixel is imaged, and each image data indicating information on the object surface at the corresponding point on the object surface corresponding to the position of each pixel. A function to input information about each camera used;
The ability to enter simulation conditions;
A function for inputting information for specifying a video sequence to be played;
Each frame of the video sequence is picked up sequentially, and the pixel value when the target object is placed under simulation conditions in the three-dimensional scene for each pixel based on the image data and camera information of the picked up frame. The simulation image generating apparatus is characterized by having a function of obtaining and displaying.

また請求項4の発明では、請求項3に記載のシミュレーション画像生成装置が実行する方法であって、
三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を各時点で撮影するための視点操作を表す各時点のカメラ情報とにより得られた動画の各フレーム毎に生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す各画像データと、各フレームを撮影した際に用いられた各カメラ情報とが入力される工程と、
シミュレーション条件が入力される工程と、
再生する動画シーケンスを指定する情報が入力される工程と、
動画シーケンスの各フレームを順次に取り上げ、取り上げたフレームの画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する工程とを含むことを特徴とするシミュレーション画像生成方法としたものである。
The invention according to claim 4 is a method executed by the simulation image generating apparatus according to claim 3,
For each frame of the video obtained by 3D data representing the surface of the object in the 3D scene and camera information at each time point representing the viewpoint operation for photographing the object at each time point in the 3D scene For each pixel, each image data indicating information on the object surface at the corresponding point of the object surface corresponding to the position of each pixel, and each camera information used when each frame is captured Input process,
A process for entering simulation conditions;
A process for inputting information specifying a video sequence to be played;
Each frame of the video sequence is picked up sequentially, and the pixel value when the target object is placed under simulation conditions in the three-dimensional scene for each pixel based on the image data and camera information of the picked up frame. And a step of obtaining and displaying the simulation image generation method.

また請求項5の発明では、請求項1又は3に記載のシミュレーション画像生成装置で行われる、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求める演算を定義していることを特徴とする演算プログラムとしたものである。
Moreover, in invention of Claim 5, it is performed by the simulation image generation apparatus of Claim 1 or 3,
An arithmetic program that defines, for each pixel, a calculation for obtaining a pixel value when an object is placed under a simulation condition in a three-dimensional scene based on image data and camera information. It is what.

また請求項6の発明では、請求項5に記載の演算プログラムを記録した記録媒体としたものである。   According to a sixth aspect of the present invention, there is provided a recording medium on which the arithmetic program according to the fifth aspect is recorded.

請求項1及び2の発明では、静止画像について、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にするという効果がある。   According to the first and second aspects of the present invention, even when high-definition and large-capacity three-dimensional data is used for high-quality reproduction of an object with respect to a still image, interactive with high real-time characteristics is not accompanied by a decrease in speed during use. This has the effect of making it possible to enjoy the appreciation.

請求項3及び4の発明では、動画像について、対象物の高品質再現のために高精細大容量の三次元データを用いる場合でも、利用時の速度低下を伴うことなく、リアルタイム性の高いインタラクティブな鑑賞を可能にするという効果がある。   According to the third and fourth aspects of the present invention, even when high-definition and large-capacity three-dimensional data is used for high-quality reproduction of a target object for a moving image, the real-time interactive performance is not accompanied by a decrease in speed during use. This has the effect of making it possible to enjoy the appreciation.

請求項5及び6の発明では、請求項1又は3に記載のシミュレーション装置に、画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求める演算を実行させることができるという効果がある。   According to the fifth and sixth aspects of the present invention, in the simulation apparatus according to the first or third aspect, an object is placed in a simulation condition for each pixel in a three-dimensional scene based on image data and camera information. There is an effect that it is possible to execute an operation for obtaining a pixel value when it is set.

以下に、本発明の最良の一実施形態を説明する。   The best embodiment of the present invention will be described below.

本実施形態には、図1に示すように、コンピュータと、ブラウザ装置とディスプレイとを備えるシミュレーション画像生成装置とが係わる。   As shown in FIG. 1, this embodiment relates to a computer, a simulation image generation apparatus including a browser device and a display.

コンピュータは、このコンピュータの備える記憶装置に、三次元データと、カメラパスデータとを記憶し、また、プログラムを実行することにより、画像生成演算部と、画像出力部とを有する。   The computer stores three-dimensional data and camera path data in a storage device included in the computer, and includes an image generation calculation unit and an image output unit by executing a program.

ブラウザ装置は、このブラウザ装置の備える記憶装置に演算プログラムを記憶し、また、操作部と、制御部と、動画再生部と、画像演算部とを有し、さらに、画像演算部はディスプレイに接続している。   The browser device stores a calculation program in a storage device included in the browser device, and further includes an operation unit, a control unit, a moving image reproduction unit, and an image calculation unit, and the image calculation unit is connected to a display. is doing.

記憶媒体又はネットワークを介して、画像出力部から動画再生部へ、動画ファイルが入力される。動画ファイルは、色画像シーケンスと、デプス画像シーケンスと、法線画像シーケンスと、マテリアル画像シーケンスと、カメラ情報シーケンスと、マテリアルリストとを含む。   A moving image file is input from the image output unit to the moving image playback unit via a storage medium or a network. The moving image file includes a color image sequence, a depth image sequence, a normal image sequence, a material image sequence, a camera information sequence, and a material list.

まず、コンピュータについて説明する。   First, the computer will be described.

三次元データは、対象物の三次元形状データや対象物表面の性状を示すマテリアル情報とテクスチャ画像などから構成され、三次元シーン内で対象物表面を表す。三次元データは、美術工芸品などの実物の立体物を実写で計測して得たものであっても良いし、コンピュータを利用して架空の立体物を描いて得たものであっても良い。   The three-dimensional data is composed of three-dimensional shape data of the object, material information indicating the property of the object surface, a texture image, and the like, and represents the object surface in the three-dimensional scene. The three-dimensional data may be obtained by measuring a real three-dimensional object such as arts and crafts with a live-action photograph, or may be obtained by drawing a fictitious three-dimensional object using a computer. .

カメラパスデータは、三次元シーン内の視点位置、視線回転角(視線方向)、視野角からなるカメラ情報を、一つ一つ、時間的な順序に従って並べた情報から構成される。それぞれの時間のカメラ情報は、それぞれの時間における三次元シーン内の視点(カメラ)操
作を表しており、これらの視点(カメラ)操作によって、三次元データが表す対象物を、三次元シーン内で撮影することで、動画が得られる。この動画は、カメラによって撮影されたフレームと呼ばれる静止画を、撮影順に並べたものである。
The camera path data is composed of information in which camera information including a viewpoint position in a three-dimensional scene, a line-of-sight rotation angle (line-of-sight direction), and a viewing angle are arranged one by one in time order. The camera information at each time represents the viewpoint (camera) operation in the three-dimensional scene at each time, and by these viewpoint (camera) operations, the object represented by the three-dimensional data is displayed in the three-dimensional scene. A video can be obtained by shooting. This moving image is a sequence of still images called frames taken by a camera in the order of shooting.

画像生成演算部は、三次元データと、カメラパスデータとに基づいて、動画の各フレーム毎に、それぞれのフレームに対応する時間のカメラ情報に基づく周知の方法によるレンダリング処理を行い、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成する。   The image generation calculation unit performs rendering processing by a well-known method based on the camera information of the time corresponding to each frame for each frame of the moving image based on the three-dimensional data and the camera path data. Depth image data, normal image data, and material image data are sequentially generated.

色画像データは、図2に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における反射光の色(RGBそれぞれの反射率)を示す情報である。但し、照明条件やカメラ情報などの環境条件によって変化する陰影や表面反射などの成分を含まない。   As shown in FIG. 2, the color image data is information indicating the color of reflected light (reflectance of each RGB) at a corresponding point on the surface of the object corresponding to the position of each pixel for each pixel on the screen. is there. However, it does not include components such as shadows and surface reflections that change according to environmental conditions such as lighting conditions and camera information.

デプス画像データは、図3に示すように、スクリーン上の各画素毎に、視点から、各画素それぞれの位置に対応する対象物表面の対応点までの一次元的な距離情報(デプス値D)を示す情報である。このデプス値Dは、スクリーン座標系を用いて表される。   As shown in FIG. 3, the depth image data includes one-dimensional distance information (depth value D) from the viewpoint to the corresponding point on the surface of the object corresponding to the position of each pixel for each pixel on the screen. It is information which shows. The depth value D is expressed using a screen coordinate system.

法線画像データは、図4に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における法線ベクトルN(Nx,Ny,Nz)を示す情報である。この法線ベクトルN(Nx,Ny,Nz)は、三次元シーン座標系を用いて表される。   As shown in FIG. 4, the normal image data is information indicating a normal vector N (Nx, Ny, Nz) at a corresponding point on the surface of the object corresponding to the position of each pixel for each pixel on the screen. It is. This normal vector N (Nx, Ny, Nz) is represented using a three-dimensional scene coordinate system.

マテリアル画像データは、図5に示すように、スクリーン上の各画素毎に、各画素それぞれの位置に対応する対象物表面の光学的特性を表すマテリアル情報が格納されたマテリアルリストの参照番号を示す情報である。マテリアル情報は、RGB各色についての鏡面反射率、拡散反射率を含む。また、マテリアル情報は、レンダリング処理に用いられたものでもある。   As shown in FIG. 5, the material image data indicates, for each pixel on the screen, a reference number of a material list in which material information representing optical characteristics of the surface of the object corresponding to the position of each pixel is stored. Information. The material information includes specular reflectance and diffuse reflectance for each color of RGB. The material information is also used for the rendering process.

画像出力部は、色画像シーケンスと、デプス画像シーケンスと、法線画像シーケンスと、マテリアル画像シーケンスと、カメラ情報シーケンスと、マテリアルリストとを含む動画ファイルを出力する。ここで、色画像シーケンスとは、動画の各フレームに属する色画像データを、動画における各フレームの順序に従って並べた情報である。また、デプス画像シーケンスとは、動画の各フレームに属するデプス画像データを、動画における各フレームの順序に従って並べた情報である。また、法線画像シーケンスとは、動画の各フレームに属する法線画像データを、動画における各フレームの順序に従って並べた情報である。また、マテリアル画像シーケンスとは、動画の各フレームに属するマテリアル画像を、動画における各フレームの順序に従って並べた情報である。また、カメラ情報シーケンスとは、動画の各フレーム毎に、色画像データ、デプス画像データ、法線画像データ、マテリアル画像データを順次生成するために用いた、各フレームに対応する時間のカメラ情報を、動画における各フレームの順序に従って並べた情報である。また、マテリアルリストは、レンダリング処理に用いられたマテリアル情報を、格納したリストである。   The image output unit outputs a moving image file including a color image sequence, a depth image sequence, a normal image sequence, a material image sequence, a camera information sequence, and a material list. Here, the color image sequence is information in which color image data belonging to each frame of a moving image is arranged according to the order of each frame in the moving image. The depth image sequence is information in which depth image data belonging to each frame of a moving image is arranged according to the order of each frame in the moving image. The normal image sequence is information in which normal image data belonging to each frame of a moving image is arranged according to the order of each frame in the moving image. The material image sequence is information in which material images belonging to each frame of the moving image are arranged according to the order of the frames in the moving image. The camera information sequence is the camera information of the time corresponding to each frame used for sequentially generating color image data, depth image data, normal image data, and material image data for each frame of the moving image. The information is arranged according to the order of each frame in the moving image. The material list is a list in which material information used for the rendering process is stored.

ここで、図6を参照しながら、三次元データの記述に用いる三次元シーン座標系と、スクリーン座標系との関係について述べる。   Here, the relationship between the three-dimensional scene coordinate system used for describing the three-dimensional data and the screen coordinate system will be described with reference to FIG.

バーチャルリアリティ技術において、三次元シーンから画像を生成するには、透視投影として知られる座標変換によって三次元シーン内の各座標点をスクリーン座標に変換し、遠近感のある映像を生成する方法が一般的である。また、座標変換後の座標点のスクリーン奥行き方向に沿っての位置を示す値が、デプス値である。   In virtual reality technology, to generate an image from a 3D scene, a method of generating perspective images by converting each coordinate point in the 3D scene to screen coordinates by coordinate transformation known as perspective projection is common. Is. Further, the value indicating the position of the coordinate point after coordinate conversion along the screen depth direction is the depth value.

本実施形態では、視点Aを用いた画像生成の際に、三次元シーンの中の点P(X,Y,Z)を、スクリーン上の点S(Xs,Ys)およびデプス値Dに変換する関数を、
(Xs,Ys,D)=F(X,Y,Z)とする。
In the present embodiment, when generating an image using the viewpoint A, the point P (X, Y, Z) in the three-dimensional scene is converted into a point S (Xs, Ys) on the screen and a depth value D. Function
Assume that (Xs, Ys, D) = F (X, Y, Z).

また、この逆関数を、(X,Y,Z)=Finv(Xs,Ys,D)とする。   The inverse function is (X, Y, Z) = Finv (Xs, Ys, D).

これらの変換関数F()、Finv()は、視点位置、視線回転角(視線方向)、視野角などの視点操作によって定まるもので、視点操作によって変化する。   These conversion functions F () and Finv () are determined by viewpoint operations such as a viewpoint position, a line-of-sight rotation angle (line-of-sight direction), and a viewing angle, and change depending on the viewpoint operation.

次に、ブラウザ装置について説明する。   Next, the browser device will be described.

操作部は、再生する動画シーケンスを指定する情報を、ユーザに入力させ、また、照明条件を始め、演算プログラムの実行に必要なシミュレーション条件を、ユーザに入力させる。ここで、動画シーケンスは、フレームを再生する順に並べたものである。   The operation unit causes the user to input information specifying a moving image sequence to be reproduced, and causes the user to input simulation conditions necessary for execution of the arithmetic program, including lighting conditions. Here, the moving image sequence is arranged in the order in which frames are reproduced.

再生する動画シーケンスを指定する情報は、例えば、時間的に前に撮影された特定の一つのフレームから、時間的に後に撮影された特定の一つのフレームまでの間に撮影された各フレームを、撮影順に再生することを指定するものであっても良い。また、例えば、時間的に後に撮影された特定の一つのフレームから、時間的に前に撮影された特定の一つのフレームまでの間に撮影された各フレームを、撮影とは逆の順序で再生することを指定するものであっても良い。また、例えば、特定の一つのフレームだけを再生することを指定するものであっても良い。   Information specifying the video sequence to be reproduced includes, for example, each frame shot between a specific frame shot before in time and a specific frame shot after in time, It may be specified to reproduce in the shooting order. Also, for example, each frame shot between a specific frame shot after time and a specific frame shot before time is played back in the reverse order of shooting. You may specify what to do. Further, for example, it may be specified that only one specific frame is reproduced.

制御部は、操作部からの入力に基づいて、動画シーケンスの再生制御と、照明条件を始め演算プログラムの実行に必要な処理条件の設定と、動画再生部および画像演算部の制御とを行う。   Based on the input from the operation unit, the control unit performs reproduction control of the moving image sequence, setting of processing conditions necessary for execution of the operation program including the lighting conditions, and control of the moving image reproduction unit and the image calculation unit.

動画再生部は、動画ファイル内の各シーケンスから、動画シーケンスを構成する各フレーム毎の色画像データとデプス画像データと法線画像データとマテリアル画像データとカメラ情報とを順次再生し、また、動画ファイルからマテリアルリストを読み出して、各フレーム毎の各画像データとカメラ情報とを、マテリアルリストと共に画像演算部に渡す。   The video playback unit sequentially plays back color image data, depth image data, normal image data, material image data, and camera information for each frame constituting the video sequence from each sequence in the video file. The material list is read from the file, and each image data and camera information for each frame is passed to the image calculation unit together with the material list.

画像演算部は、動画再生部から渡された各フレーム毎のデータに対して、演算プログラムに基づく演算を行うことにより、各フレームを再生して、ディスプレイに表示する。演算ロジックの高速ハードウェア化によって、高精細動画のリアルタイム処理を行っても良い。   The image calculation unit reproduces each frame by displaying on the display by performing calculation based on the calculation program on the data for each frame passed from the moving image reproduction unit. Real-time processing of high-definition moving images may be performed by using high-speed hardware for arithmetic logic.

演算プログラムは、画像演算部における演算の内容を定義する。   The calculation program defines the content of calculation in the image calculation unit.

以下、照明シミュレーションのために、ブラウザ装置が実行する処理の流れの例を、図7を参照しながら、図8のフローチャートに従って、説明する。   Hereinafter, an example of the flow of processing executed by the browser device for lighting simulation will be described according to the flowchart of FIG. 8 with reference to FIG.

S(STEP)1;
制御部は、操作部から入力された照明条件に基づいて、三次元シーン内の座標(Xl,Yl,Zl)に、光度Iの無指向性の自然点光源を置く。これにより、光源から距離Lにおける照度は、E=I/L2として表されることとなる。
S (STEP) 1;
The control unit places an omnidirectional natural point light source having a luminous intensity I at coordinates (Xl, Yl, Zl) in the three-dimensional scene based on the illumination condition input from the operation unit. Thus, the illuminance at the distance L from the light source is expressed as E = I / L 2 .

S(STEP)2;
制御部は、操作部から入力された情報で指定される動画シーケンスの最初のフレームを
着目フレームとする。
S (STEP) 2;
The control unit sets the first frame of the moving image sequence specified by the information input from the operation unit as the frame of interest.

S(STEP)3;
動画再生部は、動画ファイル内の各シーケンスから、着目フレームの色画像データとデプス画像データと法線画像データとマテリアル画像データとカメラ情報とを再生し、また、動画ファイルからマテリアルリストを読み出して、着目フレームの各画像データとカメラ情報とを、マテリアルリストと共に画像演算部に渡す。
S (STEP) 3;
The video playback unit plays the color image data, depth image data, normal image data, material image data, and camera information of the frame of interest from each sequence in the video file, and reads the material list from the video file. Each image data and camera information of the frame of interest is passed to the image calculation unit together with the material list.

S(STEP)4;
画像演算部は、スクリーン上の最初の画素を、着目画素S(Xs,Ys)とする。
S (STEP) 4;
The image calculation unit sets the first pixel on the screen as the pixel of interest S (Xs, Ys).

S(STEP)5;
画像演算部は、着目フレームの色画像データから、着目画像S(Xs,Ys)における拡散反射光色(R,G,B)を読み出す。
S (STEP) 5;
The image calculation unit reads the diffuse reflection color (R, G, B) in the target image S (Xs, Ys) from the color image data of the target frame.

S(STEP)6;
画像演算部は、着目フレームのデプス画像データから、着目画素S(Xs,Ys)におけるデプス値Dを読み出す。
S (STEP) 6;
The image calculation unit reads the depth value D at the target pixel S (Xs, Ys) from the depth image data of the target frame.

S(STEP)7;
画像演算部は、着目フレームの法線画像データから、着目画素S(Xs,Ys)における法線ベクトルN(Nx,Ny,Nz)を読み出す。
S (STEP) 7;
The image calculation unit reads a normal vector N (Nx, Ny, Nz) at the target pixel S (Xs, Ys) from the normal image data of the target frame.

S(STEP)8;
画像演算部は、着目フレームのカメラ情報に基づき、スクリーン座標系から三次元シーン座標系への変換関数Finv()を決定する。
S (STEP) 8;
The image calculation unit determines a conversion function Finv () from the screen coordinate system to the three-dimensional scene coordinate system based on the camera information of the frame of interest.

S(STEP)9;
画像演算部は、着目画素S(Xs,Ys)に対応する対象物表面の三次元シーン座標点P(X,Y,Z)=Finv(Xs,Ys,D)を求める。
S (STEP) 9;
The image calculation unit obtains a three-dimensional scene coordinate point P (X, Y, Z) = Finv (Xs, Ys, D) on the surface of the object corresponding to the target pixel S (Xs, Ys).

S(STEP)10;
画像演算部は、P(X,Y,Z)に対する、光源(Xl,Yl,Zl)の位置ベクトルV(Vx,Vy,Vz)=(Xl,Yl,Zl)−(X,Y,Z)を求める。
S (STEP) 10;
The image calculation unit calculates the position vector V (Vx, Vy, Vz) of the light source (Xl, Yl, Zl) with respect to P (X, Y, Z) = (Xl, Yl, Zl)-(X, Y, Z). Ask for.

S(STEP)11;
画像演算部は、位置ベクトルVの長さ、すなわち、光源と座標点Pとの距離をL=|V|とし、光源から着目画素Sに対応する対象表面への光の入射角をθとして、Cosθ=(Vx・Nx+Vy・Ny+Vz・Nz)/Lを求める。
S (STEP) 11;
The image calculation unit sets the length of the position vector V, that is, the distance between the light source and the coordinate point P as L = | V |, and the incident angle of light from the light source to the target surface corresponding to the target pixel S as θ. Cos θ = (Vx · Nx + Vy · Ny + Vz · Nz) / L is obtained.

S(STEP)12;
画像演算部は、着目画素S(Xs,Ys)に表示されるべき、着目フレームの画素値をR’,G’,B’として、(R’,G’,B’)=E’(R,G,B)を求める。ここで、E’は、着目画素Sに対応する対象物表面の照度であって、周知の照度計算式により、E’=I・Cosθ/L2である。
S (STEP) 12;
The image calculation unit sets (R ′, G ′, B ′) = E ′ (R), where R ′, G ′, B ′ are the pixel values of the target frame to be displayed on the target pixel S (Xs, Ys). , G, B). Here, E ′ is the illuminance on the surface of the object corresponding to the target pixel S, and E ′ = I · Cos θ / L 2 according to a well-known illuminance calculation formula.

S(STEP)13;
画像演算部は、スクリーン上の全ての画素について、着目フレームの画素値を求めたか否かを確かめ、
スクリーン上の全ての画素について、着目フレームの画素値を求めてない場合、STE
P14に進み、
スクリーン上の全ての画素について、着目フレームの画素値を求めた場合、STEP15に進む。
S (STEP) 13;
The image calculation unit confirms whether or not the pixel value of the target frame has been obtained for all the pixels on the screen,
If the pixel value of the frame of interest has not been calculated for all the pixels on the screen, STE
Proceed to P14
When the pixel values of the target frame are obtained for all the pixels on the screen, the process proceeds to STEP15.

S(STEP)14;
画像演算部は、スクリーン上で着目画素S(Xs,Ys)の次の画素を、新たに、着目画素S(Xs,Ys)とし、その後、STEP5に戻る。
S (STEP) 14;
The image calculation unit newly sets the pixel next to the target pixel S (Xs, Ys) on the screen as the target pixel S (Xs, Ys), and then returns to STEP5.

S(STEP)15;
画像演算部は、スクリーン上の各画素における着目フレームの画素値に基づいて、着目フレームを、ディスプレイに表示する。
S (STEP) 15;
The image calculation unit displays the target frame on the display based on the pixel value of the target frame at each pixel on the screen.

S(STEP)16;
制御部は、操作部から入力された情報で指定される動画シーケンスの全てのフレームが、ディスプレイに表示されたか否かを確かめ、
全てのフレームがディスプレイに表示されてない場合、STEP17に進み、
全てのフレームがディスプレイに表示された場合、ENDに進む。
S (STEP) 16;
The control unit confirms whether all the frames of the moving image sequence specified by the information input from the operation unit are displayed on the display,
If not all frames are displayed on the display, go to STEP 17
If all frames are displayed on the display, go to END.

S(STEP)17;
制御部は、操作部から入力された情報で指定される動画シーケンスの中で、着目フレームの次のフレームを、新たに、着目フレームとし、その後、STEP3に戻る。
S (STEP) 17;
The control unit newly sets a frame next to the frame of interest in the moving image sequence specified by the information input from the operation unit, and then returns to STEP 3.

演算プログラムで、以下の(1)〜(4)に示す内容の演算を、画像演算装置に行わせるように、定義しても良い。   The calculation program may be defined so as to cause the image calculation apparatus to perform the calculations shown in the following (1) to (4).

(1)マテリアル画像に含まれる、鏡面反射率を用いることによって、前述の照明シミュレーションに鏡面反射成分を加えても良い。   (1) A specular reflection component may be added to the illumination simulation described above by using the specular reflectance included in the material image.

(2)デプス値の増加に伴って、表示画素値を減ずることにより、手前を明るく浮き上がらせる奥行き効果を加えても良い。   (2) By increasing the depth value, the display pixel value may be decreased to add a depth effect that makes the near side brightly rise.

(3)デプス値に応じて「ぼかし量」を変えたぼかしフィルタ処理を行うことによって、被写界深度効果を加えても良い。具体的には、焦点位置に対応するデプス値に対しては「ぼかし量」を0とし、デプス値が焦点位置から離れるに従って「ぼかし量」を増大させる。   (3) A depth-of-field effect may be added by performing a blur filter process in which the “blur amount” is changed according to the depth value. Specifically, the “blurring amount” is set to 0 for the depth value corresponding to the focal position, and the “blurring amount” is increased as the depth value moves away from the focal position.

(4)対象物の部位毎にマテリアルを変えておくことで、マテリアル単位の部分的な色や質感の変更処理を行っても良い。   (4) By changing the material for each part of the target, partial color or texture change processing may be performed for each material.

以上の説明から分かるように、本実施形態では、三次元データから得られる各種の情報を、三次元データの精細度には非依存な最終画像の解像度のみに依存した形式で記録再生することによって、静止画あるいは動画形式の高精細映像に対して、照明再現や質感再現を含めた、各種の対話的シミュレーションの実行を可能にするものである。   As can be seen from the above description, in this embodiment, various types of information obtained from three-dimensional data are recorded and reproduced in a format that depends only on the resolution of the final image that is independent of the definition of the three-dimensional data. In addition, various interactive simulations including illumination reproduction and texture reproduction can be performed on high-definition images in the form of still images or moving images.

本実施形態に係わる各装置の構成を説明する図。The figure explaining the structure of each apparatus concerning this embodiment. 色画像データを説明する図。The figure explaining color image data. デプス画像データを説明する図。The figure explaining depth image data. 法線画像データを説明する図。The figure explaining normal image data. マテリアル画像データを説明する図。The figure explaining material image data. 三次元シーン座標系とスクリーン座標系との関係を説明する図。The figure explaining the relationship between a three-dimensional scene coordinate system and a screen coordinate system. 照明シミュレーションの例を説明する図。The figure explaining the example of illumination simulation. 照明シミュレーションのために、ブラウザ装置が実行する処理の流れの例を示すフローチャート。The flowchart which shows the example of the flow of the process which a browser apparatus performs for lighting simulation.

Claims (6)

三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を撮影するための視点操作を表すカメラ情報とに基づいて生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す画像データと、カメラ情報とを入力する機能と、
シミュレーション条件を入力する機能と、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する機能とを有することを特徴とするシミュレーション画像生成装置。
Generated based on 3D data representing the surface of the object in the 3D scene and camera information representing the viewpoint operation for photographing the object in the 3D scene. For each pixel, the position of each pixel A function of inputting image data indicating information on the object surface at the corresponding point on the object surface corresponding to, and camera information;
The ability to enter simulation conditions;
A simulation characterized by having a function of obtaining and displaying a pixel value when an object is placed under a simulation condition in a three-dimensional scene for each pixel based on image data and camera information Image generation device.
請求項1に記載のシミュレーション画像生成装置が実行する方法であって、
三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を撮影するための視点操作を表すカメラ情報とに基づいて生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す画像データと、カメラ情報とが入力される工程と、
シミュレーション条件が入力される工程と、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する工程とを含むことを特徴とするシミュレーション画像生成方法。
A method executed by the simulation image generating apparatus according to claim 1,
Generated based on 3D data representing the surface of the object in the 3D scene and camera information representing the viewpoint operation for photographing the object in the 3D scene. For each pixel, the position of each pixel Image data indicating information on the object surface at corresponding points on the object surface corresponding to, and camera information is input,
A process for entering simulation conditions;
A simulation including a step of obtaining and displaying a pixel value when an object is placed under a simulation condition in a three-dimensional scene for each pixel based on image data and camera information Image generation method.
三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を各時点で撮影するための視点操作を表す各時点のカメラ情報とにより得られた動画の各フレーム毎に生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す各画像データと、各フレームを撮影した際に用いられた各カメラ情報とを入力する機能と、
シミュレーション条件を入力する機能と、
再生する動画シーケンスを指定する情報を入力する機能と、
動画シーケンスの各フレームを順次に取り上げ、取り上げたフレームの画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する機能とを有することを特徴とするシミュレーション画像生成装置。
For each frame of the video obtained by 3D data representing the surface of the object in the 3D scene and camera information at each time point representing the viewpoint operation for photographing the object at each time point in the 3D scene For each pixel, each image data indicating information on the object surface at the corresponding point on the object surface corresponding to the position of each pixel, and each camera information used when each frame is captured A function to input,
The ability to enter simulation conditions;
A function for inputting information for specifying a video sequence to be played;
Each frame of the video sequence is picked up sequentially, and the pixel value when the target object is placed under simulation conditions in the three-dimensional scene for each pixel based on the image data and camera information of the picked up frame. A simulation image generation device having a function of obtaining and displaying the simulation image.
請求項3に記載のシミュレーション画像生成装置が実行する方法であって、
三次元シーン内で対象物表面を表す三次元データと、三次元シーン内で対象物を各時点で撮影するための視点操作を表す各時点のカメラ情報とにより得られた動画の各フレーム毎に生成され、各画素毎に、各画素それぞれの位置に対応する対象物表面の対応点における対象物表面に関する情報を示す各画像データと、各フレームを撮影した際に用いられた各カメラ情報とが入力される工程と、
シミュレーション条件が入力される工程と、
再生する動画シーケンスを指定する情報が入力される工程と、
動画シーケンスの各フレームを順次に取り上げ、取り上げたフレームの画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求めて表示する工程とを含むことを特徴とするシミュレーション画像生成方法。
A method executed by the simulation image generation device according to claim 3,
For each frame of the video obtained by 3D data representing the surface of the object in the 3D scene and camera information at each time point representing the viewpoint operation for photographing the object at each time point in the 3D scene For each pixel, each image data indicating information on the object surface at the corresponding point of the object surface corresponding to the position of each pixel, and each camera information used when each frame is captured Input process,
A process for entering simulation conditions;
A process for inputting information specifying a video sequence to be played;
Each frame of the video sequence is picked up sequentially, and the pixel value when the target object is placed under simulation conditions in the three-dimensional scene for each pixel based on the image data and camera information of the picked up frame. And a step of obtaining and displaying the simulation image generation method.
請求項1又は3に記載のシミュレーション画像生成装置で行われる、
画像データとカメラ情報とに基づいて、各画素毎に、三次元シーン内で、対象物が、シミュレーション条件に置かれたときの画素値を求める演算を定義していることを特徴とする演算プログラム。
Performed by the simulation image generating device according to claim 1 or 3,
An arithmetic program that defines, for each pixel, a calculation for obtaining a pixel value when an object is placed under a simulation condition in a three-dimensional scene based on image data and camera information. .
請求項5に記載の演算プログラムを記録した記録媒体。   A recording medium on which the arithmetic program according to claim 5 is recorded.
JP2005143611A 2005-05-17 2005-05-17 SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP4857601B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005143611A JP4857601B2 (en) 2005-05-17 2005-05-17 SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005143611A JP4857601B2 (en) 2005-05-17 2005-05-17 SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2006323450A true JP2006323450A (en) 2006-11-30
JP4857601B2 JP4857601B2 (en) 2012-01-18

Family

ID=37543109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005143611A Expired - Fee Related JP4857601B2 (en) 2005-05-17 2005-05-17 SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP4857601B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998663A (en) * 2019-11-22 2020-04-10 驭势(上海)汽车科技有限公司 Image generation method of simulation scene, electronic device and storage medium
CN111861873A (en) * 2020-07-20 2020-10-30 北京航天飞行控制中心 Method and device for generating simulation image
KR102336156B1 (en) * 2021-03-03 2021-12-07 (주)디피어소시에이츠 Method and system for realizing ultra-high quality images
WO2022186417A1 (en) * 2021-03-03 2022-09-09 (주)디피어소시에이츠 Method and system for providing immersive content by using ultra-high-definition image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4829521B2 (en) 2005-04-14 2011-12-07 サンデン株式会社 Scroll type fluid machinery

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04107689A (en) * 1990-08-28 1992-04-09 Dainippon Printing Co Ltd Form factor calculating device for three-dimensional object
JPH06231274A (en) * 1993-02-04 1994-08-19 Toppan Printing Co Ltd Method and device for three-dimensional simulation
JPH1049706A (en) * 1996-07-31 1998-02-20 Matsushita Electric Ind Co Ltd Information editing device, information reproducing device and information editing and reproducing device
JP2000259859A (en) * 1999-03-10 2000-09-22 Dainippon Printing Co Ltd Device for displaying information on three-dimensional merchandise and recording medium
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04107689A (en) * 1990-08-28 1992-04-09 Dainippon Printing Co Ltd Form factor calculating device for three-dimensional object
JPH06231274A (en) * 1993-02-04 1994-08-19 Toppan Printing Co Ltd Method and device for three-dimensional simulation
JPH1049706A (en) * 1996-07-31 1998-02-20 Matsushita Electric Ind Co Ltd Information editing device, information reproducing device and information editing and reproducing device
JP2000259859A (en) * 1999-03-10 2000-09-22 Dainippon Printing Co Ltd Device for displaying information on three-dimensional merchandise and recording medium
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998663A (en) * 2019-11-22 2020-04-10 驭势(上海)汽车科技有限公司 Image generation method of simulation scene, electronic device and storage medium
CN110998663B (en) * 2019-11-22 2023-12-01 驭势(上海)汽车科技有限公司 Image generation method of simulation scene, electronic equipment and storage medium
CN111861873A (en) * 2020-07-20 2020-10-30 北京航天飞行控制中心 Method and device for generating simulation image
CN111861873B (en) * 2020-07-20 2023-12-29 北京航天飞行控制中心 Method and device for generating simulation image
KR102336156B1 (en) * 2021-03-03 2021-12-07 (주)디피어소시에이츠 Method and system for realizing ultra-high quality images
WO2022186417A1 (en) * 2021-03-03 2022-09-09 (주)디피어소시에이츠 Method and system for providing immersive content by using ultra-high-definition image

Also Published As

Publication number Publication date
JP4857601B2 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
US11721071B2 (en) Methods and systems for producing content in multiple reality environments
Alexander et al. The digital emily project: Achieving a photorealistic digital actor
JP3954211B2 (en) Method and apparatus for restoring shape and pattern in 3D scene
JP5025496B2 (en) Image processing apparatus and image processing method
JPWO2019031259A1 (en) Image processing equipment and methods
US11425283B1 (en) Blending real and virtual focus in a virtual display environment
US11227428B2 (en) Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region
KR101713875B1 (en) Method and system for generation user&#39;s vies specific VR space in a Projection Environment
JP7353782B2 (en) Information processing device, information processing method, and program
TWI238977B (en) Method and apparatus for generating new images by using image data that vary along time axis
US11676252B2 (en) Image processing for reducing artifacts caused by removal of scene elements from images
WO2023207452A1 (en) Virtual reality-based video generation method and apparatus, device, and medium
JP4857601B2 (en) SIMULATION IMAGE GENERATION DEVICE, METHOD, OPERATION PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2004234350A (en) Image processing device, image processing method, and image processing program
JP2008217593A (en) Subject area extraction device and subject area extraction program
JP6556680B2 (en) VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, AND PROGRAM
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
US6781583B2 (en) System for generating a synthetic scene
US11380048B2 (en) Method and system for determining a spectral representation of a color
CA3116076C (en) Method and system for rendering
US11677928B1 (en) Method for image processing of image data for varying image quality levels on a two-dimensional display wall
JP7410289B2 (en) Generating arbitrary views
Mandl et al. Neural Bokeh: Learning Lens Blur for Computational Videography and Out-of-Focus Mixed Reality
Gabarron Cortes Design of a photogrammetry pipeline: generating 3D models for real-time engines
Mihara et al. Photorealistic Reproduction with Anisotropic Reflection on Mobile Devices using Densely Sampled Images.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110830

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R150 Certificate of patent or registration of utility model

Ref document number: 4857601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees