JP2008536234A - 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 - Google Patents

三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 Download PDF

Info

Publication number
JP2008536234A
JP2008536234A JP2008506372A JP2008506372A JP2008536234A JP 2008536234 A JP2008536234 A JP 2008536234A JP 2008506372 A JP2008506372 A JP 2008506372A JP 2008506372 A JP2008506372 A JP 2008506372A JP 2008536234 A JP2008536234 A JP 2008536234A
Authority
JP
Japan
Prior art keywords
data
camera
information
dimensional object
changed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008506372A
Other languages
English (en)
Other versions
JP4777416B2 (ja
Inventor
ジャン,ギョン−ジャ
ハン,マン−ジン
キム,クン−ホ
リー,シン−ジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2006/001325 external-priority patent/WO2006109980A1/en
Publication of JP2008536234A publication Critical patent/JP2008536234A/ja
Application granted granted Critical
Publication of JP4777416B2 publication Critical patent/JP4777416B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

三次元客体のDIBR方法、及びこれを利用したモデリング及びレンダリング方法及び装置が開示される。該三次元客体のDIBR方法は、深さ情報または幾何情報、色相情報及びカメラパラメータにより表現される三次元客体のDIBR方法において、カメラパラメータは、位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択(orthographic)情報を含み、三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、カメラパラメータの値は、リアルタイム変更可能であり、そのフィールドタイプは、リアルタイム変更可能なフィールドであることを表すexposedFieldとすることを特徴とする。これにより、モデリングでは、動的物体の動き、変形されることによるカメラの自由な動作及び制御可能なview frustrumを付与して簡単な著作が可能であり、レンダリングでは、DepthImage node specification内のカメラをexposedField typeにセットし、画質低下なしに適応的にアニメーションをレンダリングできる。

Description

本発明は、三次元客体の深さ映像基盤表現に係り、特に三次元客体の動的機能向上のために、動的データのカメラパラメータをリアルタイムで変更できるようにする三次元客体の深さ映像基盤表現方法、及びこれを利用した三次元客体のモデリング及びレンダリング方法及び装置に関する。
図1は、深さ映像基盤表現(DIBR)客体を生成するモデリング段階と、モデラで生成されたDIBRフォーマットを使用してDIBR客体をレンダリングする段階とを図示したものである。図1を参照するに、DIBRモデリングは、次の通りになされる。まず、著作ツール(authoring tool)を利用して三次元(3D)客体を静的な3Dデータまたは動的な3Dデータにする。前記3DデータをDIBRモデラ(DIBR modeler)を使用し、固定されたカメラパラメータと、前記カメラパラメータでの深さ(depth)と色相(color)情報とで表現し、MPEG DIBRフォーマットに生成する。
また、DIBRレンダリングは、図1に図示されているように、DIBRレンダラ(DIBR renderer)を利用し、前記モデラで生成されたカメラパラメータと、depthとcolor情報とを使用し、view volumeとDIBR客体とを生成する。そして、カメラview frustrumを作り、view frustrum内のDIBR客体をスクリーンに投影する。
DIBRを使用して3Dデータを生成したりレンダリングするとき、必要なカメラパラメータと深さ(depth)情報と色相(color)情報は、MPEG規格(specification)のDepthImageノードとDepthImageV2ノードとに表現されている。MPEGのDepthImageノードとDepthImageV2ノードとについて述べれば、次の通りである。ここで、カメラパラメータは、DepthIamgeノードとDepthImageV2ノードとのフィールド(field)に含まれている。
DepthImage{#%NDT=SF3DNode
Field SFVec3f position 0010
Field SFRotation orientation 0010
Field SFVec2f fieldOfView 0.785398 0.785398
Field SFFloat nearPlane 10
Field SFFloat farPlane 100
Field SFBool orthographic TRUE
Field SFDepthTextureNode diTexture NULL
}
DepthImageV2{#%NDT=SF3DNode
Field SFVec3f position 0010
Field SFRotation orientation 0010
Field SFVec2f fieldOfView 0.785398 0.785398
Field SFFloat nearPlane 10
Field SFFloat farPlane 100
Field SFVec2f splatMinMax 0.1115 0.9875
Field SFBool orthographic FALSE
Field SFDepthTextureNode diTexture NULL
}
前記DepthImageノードとDepthImageV2ノードとの規格は、次の通りである。カメラパラメータ情報を表すフィールドは、カメラの位置(position)と回転(orientation)情報、カメラ視野の縦横範囲または視野の縦横角度情報(fieldOfView)、カメラボリュームの前面情報(nearPlane)、ボリュームの背面情報(farPlane)、及び客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択(orthographic)情報のためのフィールドと;depthとcolor情報を有するdiTextureフィールドとにより構成されている。そして、DepthImageV2ノードは、前記フィールド以外に、スクリーンに映される様子、すなわちスプラットベクトル長の最小値と最大値とを表すフィールド(splatMinMax)をさらに含んでいる。
前記DepthImageノードとDepthIamgeV2ノードとにいずれも含まれている、カメラパラメータ情報を表すフィールドは、カメラの位置と回転情報、カメラ視野の縦横範囲または視野の縦横角度情報、カメラボリュームの前面、背面情報、客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択情報(camera parameters:position,orientation,fieldOfView,nearPlane,farPlane,orthographic)であり、field typeとして定義されている。
ここで、カメラパラメータフィールドがfield typeとして定義されていれば、そのカメラパラメータ値が一度セットされれば、変更不可能である。従って、DepthImageノードまたはDepthImageV2ノードを使用して静的(still)または動的(animated/deformed)DIBRデータを生成するとき、カメラパラメータを一回しかセットできない。そして、DIBRデータをレンダリングするとき、モデラで設定したカメラパラメータをそのまま使用してview volumeを作り、その中にDIBR客体を表現しなければならない。
field typeを有する固定されたカメラパラメータ(カメラの位置と回転情報、カメラ視野の縦横範囲または視野の縦横角度情報、カメラボリュームの前面、背面情報、客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択情報)を使用し、静的DIBRデータまたは動的DIBRデータを生成し、レンダリングする過程は、図2の通りである。カメラパラメータ値がモデリング段階で一回設定されれば、その値を変更できないために、カメラアニメーションを考慮していない。そのため、レンダリング段階でも、モデリング段階で設定された固定されたカメラパラメータ値のみを使用しなければならなかった。
またモデリング段階で、field typeを有する固定されたカメラパラメータを使用するので、動的に変形された物体に対するアニメーションをモデリングするために、動的に変形される物体に適するように、カメラパラメータを変更できなかった。それにより、動的に変形される物体のアニメーションを生成するときは、図3のように、作ろうとするアニメーションの全体フレーム(frame)をいずれも観察した後、物体の最大バウンディングボックス(BB:Bounding Box)を計算しなければならなかった。これは、モデリング時にあらゆる物体に対して適切な解像度を維持するために、物体のバウンディングボックスを適切に設定するために必要な作業である。このため、view frustrumに該当するカメラパラメータが設定される。従って、モデリング過程で、バウンディングボックスを外れるアニメーションフレームが追加されるとき、最大バウンディングボックスの更新が必要であった。バウンディングボックスを更新し、最初のフレームから再びアニメーションを作らねばならなかった(2Pass)。従って、従来固定されたカメラパラメータに対して映像をモデリング及び/またはレンダリングする方法は付加的な操作であり、著作速度が低下し、かつ使用しにくいという短所があった。また、不要なメモリ使用量があった。それにより、カメラパラメータが反映されたリアルタイムアニメーションを作ることができなかった。
また、モデリングとレンダリングとを行うとき、復元映像の画質低下の可能性がある。さらに詳細に説明すれば、カメラパラメータ値を変更できない静的カメラは、経時的に変動する動的物体の追跡が不可能である。そして、静的カメラは、動的物体の隠された領域と変形された領域とで、データの損失が発生しうるという短所がある。
本発明がなそうとする技術的課題は、DIBRモデラで変形された動的物体をモデリングするのに適したカメラパラメータを有する三次元客体のDIBR方法を提供することである。
また、本発明がなそうとする技術的課題は、前記三次元客体のDIBR方法を利用し、DIBRアニメーションに適した三次元客体モデリング方法及び装置を提供することである。
また、本発明がなそうとする技術的課題は、前記三次元客体のDIBR方法を利用してモデリングされたデータをレンダリングする、カメラパラメータ値の変化をリアルタイム反映するDIBRアニメーションのレンダリング方法及び装置を提供することである。
前記技術的課題をなすための本発明による三次元客体のDIBR方法は、深さ情報、色相情報及びカメラパラメータまたは幾何情報、色相情報及びカメラパラメータにより表現される三次元客体のDIBR方法において、前記カメラパラメータは、位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択(orthographic)情報を含み、三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする。前記リアルタイム変更可能なカメラパラメータを表現するデータ構造のフィールドタイプは、リアルタイム変更可能なフィールドであることを表すexposedFieldとすることを特徴とする。
前記技術的課題をなすための本発明による三次元客体のDIBRを利用したDIBRモデリング装置は、入力される三次元客体の静的データ及び動的データのうち少なくとも一つのデータに対してカメラパラメータを付加し、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する3Dデータ処理部と、前記3Dデータ処理部で生成されたデータをDIBRデータフォーマットに変換するDIBRデータ生成部と、前記3Dデータ処理部で生成されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出するカメラアニメーションデータ生成部とを備えることを特徴とする。
前記技術的課題をなすための本発明による三次元客体のDIBRを利用したDIBRモデリング方法は、(a)入力される三次元客体の静的データ及び動的データのうち少なくとも一つに対してカメラパラメータを付加するが、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更する段階と、(b)前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する段階と、(c)前記(a)及び(b)段階で処理されたデータをDIBRデータフォーマットに変換する段階と、(d)前記(a)及び(b)段階で処理されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出する段階とを含むことを特徴とする。
前記技術的課題をなすための本発明による三次元客体のDIBRを利用したDIBRレンダリング装置は、三次元客体のDIBRデータを受け取るDIBRデータ入力部と、三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取るカメラアニメーションデータ入力部と、前記DIBRデータと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生するアニメーション再生部とを備える。
前記技術的課題をなすための本発明による三次元客体のDIBRを利用したDIBRレンダリング方法は、三次元客体のDIBRデータを受け取る段階と、三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取る段階と、前記DIBRデータと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生する段階とを含む。
前記技術的課題をなすための本発明による三次元客体のDIBRを利用したDIBRレンダリング方法は、三次元客体をモデリングして生成されたカメラ動き情報と、変形可能なview frustrum情報と、参照映像とを受け取る段階と、前記カメラ動き情報、view frustrum情報及び参照映像を使用してレンダリングでのview frustrum情報とDIBR客体とを生成する段階を含むことを特徴とする。
そして、前記記載された方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
本発明による三次元客体のDIBR方法、及びこれを利用したモデリング及びレンダリング方法及び装置によれば、DepthImageノードはカメラパラメータをexposedFieldに変形することにより、DIBR客体の動きまたは変形によってカメラ動きとview frustrumとを変化させることができる。また、前記DepthImageのカメラパラメータを使用することにより、モデリング段階でDIBRモデルの特徴に適した参照映像を得ることができる。そして、前記モデリングの結果として生成されたカメラ動きと変形可能なview frustrumと参照映像とを使用し、レンダリングでは、view frustrumとDIBR客体とを生成する。
すなわち、モデリング側面で動的物体に適したモデリング、すなわち動的物体の動き、変形されるにことによるカメラの自由な動作及び制御可能なview frustrumを付与して簡単な著作が可能である。
また、レンダリング側面では、DepthImage node specification内のカメラを、修正されたfield typeすなわちexposedField typeにセットし、画質低下なしに適応的にアニメーションをレンダリングできる。
前記exposedField typeに変更されたカメラパラメータを使用し、カメラアニメーションを行うとき、長所は次の通りである。カメラview volumeを物体のバウンディングボックスに合うように設定することができ、メモリを節約できる。また、モデリングするとき、図4に図示されているように、生成中であるアニメーションの各フレームの客体に適したバウンディングボックスを抽出するので、生成中であるアニメーションのあらゆるフレームの最大バウンディングボックス(BB)を含むカメラアニメーション情報の抽出が不要なので、モデリング速度低下なしに著作が容易である(1Pass)。また、各フレームに適した大きさのバウンディングボックスを抽出するので、レンダリング画質が向上する。
そして、モデリング段階では、カメラパラメータ変更機能があり、カメラの位置と回転、view frustrumの調節が可能である。また、物体のアニメーション経路(path)により、カメラの位置が変更可能である。またモデリングするとき、著作が容易である。レンダリング段階では、動的カメラパラメータを利用して画質調節機能がある。従って、適応的に解像度を調節するので、既存の方法より画質向上が可能である。
以下、添付された図面を参照しつつ、本発明による三次元客体のDIBR方法、及びこれを利用したモデリング及びレンダリング方法及び装置について詳細に説明する。
まず、本発明による三次元客体のDIBR方法を説明する。カメラパラメータがリアルタイム反映されたDIBRアニメーションを作るためには、MPEGのDepthImageノードとDepthImageV2ノードとで、カメラの位置と回転情報、カメラ視野の縦横範囲または視野の縦横角度情報、カメラボリュームの前面及び背面情報及び客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択情報を意味するposition、orientation、fieldOfview、nearPlane、farPlane、orthographicのカメラパラメータフィールドのtypeが変更されねばならない。次の通り、前記フィールドのtypeを、固定されたカメラパラメータを表すfield typeからリアルタイムで変更されるカメラパラメータ情報を反映するexposedFieldtypeに変更する。
DepthImage{#%NDT=SF3DNode
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
exposedField SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
DepthImageV2{#%NDT=SF3DNode
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
fieldSF Vec2f splatMinMax 0.1115 0.9875
exposedField SFBool orthographic FALSE
field SFDepthTextureNode diTexture NULL
}
前記exposedField typeに変更されたカメラパラメータを使用し、カメラアニメーションを行えば、カメラview volume(カメラview frustrum)を物体のバウンディングボックスに合うように設定することができる。そして、モデリングするとき、図4のように、生成中であるアニメーションの各フレームの客体に適したバウンディングボックスを抽出し、生成中であるアニメーションのあらゆるフレームの最大バウンディングボックス(BB)を含むカメラアニメーション情報の抽出が不要である。それにより、モデリング速度低下なしに著作が容易である(1Pass)。また、各フレームに適した大きさのバウンディングボックスを抽出するので、レンダリング画質が向上する。また、モデリング段階では、カメラパラメータ変更機能があり、カメラの位置と回転、view frustrumの調節が可能である。また、物体のアニメーション経路により、カメラの位置が変更可能である。レンダリング過程では、動的カメラパラメータを利用して画質調節が可能である。
MPEG標準化では、前記DepthImageノードとDepthImageV2ノードとのカメラパラメータ関連fieldsのtypeをexposedFieldに変更した。従って、モデリング過程でカメラパラメータの変更が可能であり、DIBR内の外部カメラパラメータ(extrinsic camera parameters)の修正案が採択された。
図5は、本発明によるカメラアニメーション支援機能が追加された、三次元客体のDIBRのモデリング装置の構成をブロック図で図示したものであり、該モデリング装置は、3Dデータ処理部500、DIBRデータ生成部520及びカメラアニメーションデータ生成部540を備えてなる。
3Dデータ処理部500は、入力される三次元客体の静的データ及び動的データのうち少なくとも一つのデータに対してカメラ情報を付加し、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記静的データまたは動的データから前記三次元客体を表現するPointまたはPoint cloudプリミティブを抽出する。
前記静的データまたは動的データは、一般的に著作ツール(図10)で生成される。また前記カメラ情報は、カメラ台数、カメラパラメータ情報を含む。
DIBRデータ生成部520は、前記3Dデータ処理部で生成されたデータをDIBRデータフォーマットに変換する。例えば、MPEGで提供されるノード(DepthImage、SimpleTexture、PointTexture、OctreeImage、DepthImageV2、SimpleTextureV2、PointTextureV2など)をDIBRデータで生成する。前記DIBRデータフォーマットは、参照映像を含む。
カメラアニメーションデータ生成部540は、前記3Dデータ処理部で生成されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出する。
前記カメラパラメータは、前述の本発明による三次元客体のDIBR方法と同一である。すなわち、位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能である。
図6は、本発明による三次元客体のDIBRモデリング方法をフローチャートで図示したものであり、図5及び図6を参照し、三次元客体のDIBRモデリング方法及びそのモデリング装置の動作を説明する。
三次元客体の静的データ及び動的データのうち少なくとも一つが3Dデータ処理部500に入力されれば、3Dデータ処理部500は、前記静的データまたは動的データにカメラ情報を付加する(600段階)。ここで、もし前記動的データがリアルタイムで変更されれば(610段階)、それに相応するカメラパラメータをリアルタイムで変更する(620段階)。また、3Dデータ処理部500は、前記静的データまたは動的データから前記三次元客体を表現するPointまたはPoint cloudプリミティブを抽出する(630段階)。
DIBRデータ生成部520によって前記600段階ないし630段階で処理されたデータは、DIBRデータフォーマットに変換される(640段階)。前記DIBRデータフォーマットは、参照映像を含む。
また、カメラアニメーションデータ生成部540は、前記600段階及び630段階で処理されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出する(650段階)。
図7は、本発明によるカメラアニメーション支援機能が追加された、三次元客体のDIBRのレンダリング装置の構成をブロック図で図示したものであり、該レンダリング装置は、DIBRデータ入力部700、カメラアニメーションデータ入力部720、アニメーション再生部740を備えてなる。
DIBRデータ入力部700は、三次元客体のDIBRデータを受け取る。カメラアニメーションデータ入力部720は、三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取る。アニメーション再生部740は、前記DIBRデータと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生する。
図8は、本発明による三次元客体のDIBRレンダリング方法をフローチャートで図示したものであり、図7及び図8を参照しつつ、三次元客体のDIBRモデリング方法及びそのレンダリング装置の動作を説明する。
DIBRデータ入力部700を介して三次元客体のDIBRデータを受け取る(800段階)。また、カメラアニメーションデータ入力部720を介して前記三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取る(820段階)。
前記DIBRデータと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とが受け取られれば、DIBRアニメーション再生部740は、前記DIBRデータと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生する(840段階)。その結果、カメラパラメータが反映されたリアルタイムDIBRアニメーションが可能である。
図9は、本発明によるカメラアニメーション支援機能が追加された、三次元客体のモデリング及びレンダリング装置の全体的な構成をブロック図で図示したものである。
一方、本発明は、静的または動的DIBRデータを生成及びレンダリングするのに使われうる。
本発明は、コンピュータで読み取り可能な記録媒体にコンピュータ(情報処理機能を有する装置をいずれも含む)で読み取り可能なコードとして具現しうる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録装置の例としては、ROM(リード−オンリ メモリ)、RAM(ランダム アクセス メモリ)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。
本発明は、図面に図示された実施形態を参考にして説明されたが、それらは例示的なものに過ぎず、本技術分野の当業者ならば、それらから多様な変形及び均等な他の実施形態が可能であるという点を理解することができるであろう。従って、本発明の真の技術的保護範囲は、特許請求の範囲の技術的思想によってのみ決まるのである。
DIBR客体を生成するモデリング段階と、モデラで生成されたDIBRフォーマットを使用してDIBR客体をレンダリングする段階とを示す図である。 従来の固定されたカメラパラメータで映像をモデリングし、かつレンダリングする過程を表す概念図である。 固定されたカメラパラメータを使用してDIBRアニメーションを具現するとき、物体のバウンディングボックスを求める方法を示す図である。 本発明によるDIBRアニメーションを具現するとき、物体のバウンディングボックスを求める方法を示す図である。 本発明によるカメラアニメーション支援機能が追加された、三次元客体のDIBRのモデリング装置の構成を示すブロック図である。 本発明による三次元客体のDIBRモデリング方法を示すフローチャートである。 本発明によるカメラアニメーション支援機能が追加された、三次元客体のDIBRのレンダリング装置の構成を示すブロック図である。 本発明による三次元客体のDIBRレンダリング方法を示すフローチャートである。 本発明によるカメラアニメーション支援機能が追加された、三次元客体のモデリング及びレンダリング装置の全体的な構成を示すブロック図である。 3Dグラフィックスデータを著作するツールであって、3DS MAX著作ツール画面を示す図である。

Claims (21)

  1. 深さ情報、色相情報、及びカメラパラメータまたは幾何情報、色相情報、及びカメラパラメータにより表現される三次元客体の深さ映像基盤表現方法において、
    前記カメラパラメータは、
    位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報、及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
    三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする三次元客体の深さ映像基盤表現方法。
  2. 前記リアルタイム変更可能なカメラパラメータを表現するデータ構造のフィールドタイプは、
    リアルタイム変更可能なフィールドであることを表すexposedFieldとすることを特徴とする請求項1に記載の三次元客体の深さ映像基盤表現方法。
  3. 前記リアルタイム変更可能なカメラパラメータは、
    DepthImageノードである場合、ノードの名称、フィールドのタイプ、フィールドのデータフォーマット、フィールドの名称、フィールドの初期値は、
    DepthImage{#%NDT=SF3DNode
    exposedField SFVec3f position 0010
    exposedField SFRotation orientation 0010
    exposedField SFVec2f fieldOfView π/4π/4
    exposedField SFFloat nearPlane 10
    exposedField SFFloat farPlane 100
    exposedField SFBool orthographic TRUE
    field SFDepthTextureNode diTexture NULL
    }
    前記データ構造で表現されることを特徴とする請求項2に記載の三次元客体の深さ映像基盤表現方法。
  4. 前記リアルタイム変更可能なカメラパラメータは、
    DepthImageV2である場合、ノードの名称、フィールドのタイプ、フィールドのデータフォーマット、フィールドの名称、フィールドの初期値は、
    DepthImageV2 {#%NDT=SF3DNode
    exposedField SFVec3f position 0010
    exposedField SFRotation orientation 0010
    exposedField SFVec2f fieldOfView π/4π/4
    exposedField SFFloat nearPlane 10
    exposedField SFFloat farPlane 100
    field SFVec2f splatMinMax 0.1115 0.9875
    exposedField SFBool orthographic FALSE
    field SFDepthTextureNode diTexture NULL
    }
    前記データ構造で表現されることを特徴とする請求項2に記載の三次元客体の深さ映像基盤表現方法。
  5. 入力される三次元客体の静的データ及び動的データのうち少なくとも一つのデータに対してカメラパラメータを付加し、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する3Dデータ処理部と、
    前記3Dデータ処理部で生成されたデータを深さ映像基盤表現データフォーマットに変換する深さ映像基盤表現データ生成部と、
    前記3Dデータ処理部で生成されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出するカメラアニメーションデータ生成部とを備えることを特徴とする三次元客体の深さ映像基盤表現モデリング装置。
  6. 前記カメラパラメータは、
    位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
    三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項5に記載の三次元客体の深さ映像基盤表現モデリング装置。
  7. 前記深さ映像基盤表現データ生成部の深さ映像基盤表現データフォーマットは、
    参照映像を含むことを特徴とする請求項5に記載の三次元客体の深さ映像基盤表現モデリング装置。
  8. (a)入力される三次元客体の静的データ及び動的データのうち少なくとも一つに対してカメラパラメータを付加するが、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更する段階と、
    (b)前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する段階と、
    (c)前記(a)及び(b)段階で処理されたデータを深さ映像基盤表現データフォーマットに変換する段階と、
    (d)前記(a)及び(b)段階で処理されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現モデリング方法。
  9. 前記(c)段階の深さ映像基盤表現データフォーマットは、
    参照映像を含むことを特徴とする請求項8に記載の三次元客体の深さ映像基盤表現モデリング方法。
  10. 前記カメラパラメータは、
    位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
    三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項8に記載の三次元客体の深さ映像基盤表現モデリング方法。
  11. 三次元客体の深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
    三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取るカメラアニメーションデータ入力部と、
    前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用し、三次元客体のアニメーションを再生するアニメーション再生部とを備える三次元客体の深さ映像基盤表現レンダリング装置。
  12. 前記カメラパラメータは、
    位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
    三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項11に記載の三次元客体の深さ映像基盤表現レンダリング装置。
  13. (a)三次元客体の深さ映像基盤表現データを受け取る段階と、
    (b)三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取る段階と、
    (c)前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用し、三次元客体のアニメーションを再生する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現レンダリング方法。
  14. 三次元客体をモデリングして生成されたカメラ動き情報と、変形可能なview frustrum情報と、参照映像とを受け取る段階と、
    前記カメラ動き情報、view frustrum情報及び参照映像を使用し、レンダリングでのview frustrum情報とカメラ動きとを利用して深さ映像基盤表現客体を生成する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現レンダリング方法。
  15. 請求項1に記載の方法ををコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  16. 請求項8に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  17. 請求項13に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  18. 請求項14に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
  19. カメラアニメーション支援機能が追加された、三次元客体の深さ映像基盤表現レンダリング装置において、
    三次元客体の深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
    リアルタイムで変更される三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取るカメラアニメーションデータ入力部と、
    前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生するアニメーション再生部とを備えることを特徴とする装置。
  20. 入力される三次元客体の映像データに対してカメラパラメータを付加するが、前記映像データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記映像データから前記三次元客体を表現するデータを抽出し、前記抽出されたデータを深さ映像基盤表現データに変換する3Dデータ処理部と、
    前記3Dデータ処理部により抽出されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出するカメラアニメーションデータ生成部と、
    深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
    前記時間情報と前記カメラパラメータ値とを受け取るカメラアニメーションデータ入力部と、
    前記深さ映像基盤表現データ、前記時間情報及び前記カメラパラメータ値を使用して三次元客体のアニメーションを再生するアニメーション再生部とを備えることを特徴とする三次元客体の深さ映像基盤表現モデリング及びレンダリング装置。
  21. 映像情報及びカメラパラメータで表現される三次元客体をモデリング及び/またはレンダリングする深さ映像基盤表現方法において、
    リアルタイムで変更されるカメラパラメータ値を使用して三次元客体をモデリング及び/またはレンダリングすることを特徴とする方法。
JP2008506372A 2005-04-11 2006-04-11 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 Expired - Fee Related JP4777416B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US66992605P 2005-04-11 2005-04-11
US60/669,926 2005-04-11
KR1020050100895A KR100707206B1 (ko) 2005-04-11 2005-10-25 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치
KR10-2005-0100895 2005-10-25
PCT/KR2006/001325 WO2006109980A1 (en) 2005-04-11 2006-04-11 Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same

Publications (2)

Publication Number Publication Date
JP2008536234A true JP2008536234A (ja) 2008-09-04
JP4777416B2 JP4777416B2 (ja) 2011-09-21

Family

ID=37627856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008506372A Expired - Fee Related JP4777416B2 (ja) 2005-04-11 2006-04-11 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置

Country Status (4)

Country Link
US (1) US8111254B2 (ja)
JP (1) JP4777416B2 (ja)
KR (1) KR100707206B1 (ja)
CN (1) CN101156175B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011149160A1 (ko) * 2010-05-25 2011-12-01 연세대학교 산학협력단 애니메이션 저작 시스템 및 애니메이션 저작 방법

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
US9641822B2 (en) 2008-02-25 2017-05-02 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) images
US8279222B2 (en) * 2008-03-14 2012-10-02 Seiko Epson Corporation Processing graphics data for a stereoscopic display
EP2308241B1 (en) * 2008-07-24 2017-04-12 Koninklijke Philips N.V. Versatile 3-d picture format
EP2328337A4 (en) * 2008-09-02 2011-08-10 Huawei Device Co Ltd 3D VIDEO COMMUNICATION, TRANSMISSION DEVICE, SYSTEM AND IMAGE RECONSTRUCTION, SYSTEM
EP2360930A4 (en) * 2008-12-18 2015-03-25 Lg Electronics Inc METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
WO2010088840A1 (en) 2009-02-06 2010-08-12 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
US8531473B2 (en) * 2009-07-28 2013-09-10 Technion R&D Foundation Ltd. Photogrammetric texture mapping using casual images
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
CN104050712B (zh) * 2013-03-15 2018-06-05 索尼公司 三维模型的建立方法和装置
CN103295255B (zh) * 2013-04-02 2016-05-18 深圳市瑞云科技有限公司 一种提供用户进行远程渲染的装置
CN103247067A (zh) * 2013-04-02 2013-08-14 深圳市瑞云科技有限公司 一种远程渲染方法及云渲染平台
CN106105192B (zh) * 2014-01-03 2021-05-18 英特尔公司 通过深度相机的实时3d重建
DE102014011821A1 (de) * 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
CN107077735A (zh) * 2014-10-28 2017-08-18 惠普发展公司,有限责任合伙企业 三维对象识别
CN105021124B (zh) * 2015-04-16 2018-02-16 华南农业大学 一种基于深度图的平面零件三维位置和法向量计算方法
CN105100707A (zh) * 2015-06-29 2015-11-25 遵义宏港机械有限公司 一种数控铣床实时建模监控系统
US10032307B2 (en) 2016-08-10 2018-07-24 Viacom International Inc. Systems and methods for a generating an interactive 3D environment using virtual depth
CN107958446B (zh) * 2016-10-17 2023-04-07 索尼公司 信息处理设备和信息处理方法
CN107238374B (zh) * 2017-05-04 2019-05-07 华南农业大学 一种不规则平面零件的分类和识别定位方法
CN108537163A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种基于可见光拍照的生物特征四维数据识别方法及系统
US11070706B2 (en) * 2018-11-15 2021-07-20 Sony Corporation Notifications for deviations in depiction of different objects in filmed shots of video content
CN109784145B (zh) * 2018-12-05 2021-03-16 北京华捷艾米科技有限公司 基于深度图的目标检测方法及存储介质
CN111640173B (zh) * 2020-05-09 2023-04-21 杭州群核信息技术有限公司 一种基于特定路径的家装漫游动画的云端渲染方法及系统
WO2021226862A1 (en) * 2020-05-13 2021-11-18 Shanghaitech University Neural opacity point cloud
KR20220064045A (ko) 2020-11-11 2022-05-18 삼성전자주식회사 영상을 생성하는 방법 및 장치와 영상 생성을 위한 신경망을 트레이닝하는 방법
CN115131527B (zh) * 2022-05-27 2023-06-02 北京五八信息技术有限公司 相机切换方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296755A (ja) * 2001-11-27 2003-10-17 Samsung Electronics Co Ltd 深さイメージに基づく3次元物体を表現するためのノード構造
JP2004334850A (ja) * 2003-04-30 2004-11-25 Nintendo Co Ltd ゲームプレイの状態に基づいてカメラのパラメータを動的に制御する方法および装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980010875A (ko) * 1996-07-23 1998-04-30 김광호 3차원 렌더링 방법
US5923330A (en) * 1996-08-12 1999-07-13 Ncr Corporation System and method for navigation and interaction in structured information spaces
JP3928229B2 (ja) * 1997-11-28 2007-06-13 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
KR100450823B1 (ko) * 2001-11-27 2004-10-01 삼성전자주식회사 깊이 이미지 기반 3차원 물체의 표현을 위한 노드 구조
JP2004005373A (ja) 2001-11-27 2004-01-08 Samsung Electronics Co Ltd 深さイメージに基づく3次元物体を表現するためのノード構造
KR200343637Y1 (ko) 2003-11-13 2004-03-04 신안전자 주식회사 줄긋기 홈을 갖는 골프공 케이스

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296755A (ja) * 2001-11-27 2003-10-17 Samsung Electronics Co Ltd 深さイメージに基づく3次元物体を表現するためのノード構造
JP2004334850A (ja) * 2003-04-30 2004-11-25 Nintendo Co Ltd ゲームプレイの状態に基づいてカメラのパラメータを動的に制御する方法および装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011149160A1 (ko) * 2010-05-25 2011-12-01 연세대학교 산학협력단 애니메이션 저작 시스템 및 애니메이션 저작 방법
JP2013530457A (ja) * 2010-05-25 2013-07-25 ウン ジョン、ジェ アニメーション著作システムおよびアニメーション著作方法

Also Published As

Publication number Publication date
US8111254B2 (en) 2012-02-07
KR100707206B1 (ko) 2007-04-13
CN101156175B (zh) 2011-05-25
US20060227132A1 (en) 2006-10-12
JP4777416B2 (ja) 2011-09-21
CN101156175A (zh) 2008-04-02
KR20060107899A (ko) 2006-10-16

Similar Documents

Publication Publication Date Title
JP4777416B2 (ja) 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置
EP1800267B1 (en) System and method for processing video images
US7184049B2 (en) Image processing method and system
JP2004005567A (ja) コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ
KR101757765B1 (ko) 모션 캡처 데이터 기반 3차원 애니메이션 제작 시스템 및 그 제어 방법
JPH11514479A (ja) 映画のコンピュータ化された自動オーディオビジュアルダビングのための方法
KR101244789B1 (ko) 3차원 재구성을 이용한 디지털 만화 콘텐츠 생성 방법
JP2011159329A (ja) 自動3dモデリングシステム及び方法
JP3538263B2 (ja) 画像生成方法
JP2002163678A (ja) 擬似三次元画像生成方法および装置
CN116524087A (zh) 融合神经辐射场的音频驱动的说话人视频合成方法及系统
KR20140090353A (ko) 얼굴의 형태 및 질감을 이용한 3차원 캐리커처 생성 장치 및 그 방법
Tian et al. Research on Visual Design of Computer 3D Simulation Special Effects Technology in the Shaping of Sci-Fi Animation Characters
KR20060040118A (ko) 맞춤형 3차원 애니메이션 제작 방법 및 장치와 그 배포시스템
WO2006109980A1 (en) Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same
KR20070098364A (ko) 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법
JP2005092782A (ja) 3次元モデルの生成方法および装置並びにコンピュータプログラム
JP3545935B2 (ja) 画像の生成・表示方法及びこの方法を記録した記録媒体
JP3765786B2 (ja) 映像生成装置及び記録媒体
Lieu Techniques for creating animations for technical presentation
JP3589657B2 (ja) 3次元ポリゴン表面模様処理方式
Zhou Application of 3D facial animation techniques for Chinese opera
Yang et al. Motion lenses: cinematography-based viewpoint selection for motion data
SVG Converting 3D Facial Animation with
JP2010267006A (ja) 動画化方法、動画化装置及び動画化プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110629

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees