JP2008536234A - 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 - Google Patents
三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 Download PDFInfo
- Publication number
- JP2008536234A JP2008536234A JP2008506372A JP2008506372A JP2008536234A JP 2008536234 A JP2008536234 A JP 2008536234A JP 2008506372 A JP2008506372 A JP 2008506372A JP 2008506372 A JP2008506372 A JP 2008506372A JP 2008536234 A JP2008536234 A JP 2008536234A
- Authority
- JP
- Japan
- Prior art keywords
- data
- camera
- information
- dimensional object
- changed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000009877 rendering Methods 0.000 title claims abstract description 52
- 230000003068 static effect Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 6
- 230000015556 catabolic process Effects 0.000 abstract description 2
- 238000006731 degradation reaction Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
Field SFVec3f position 0010
Field SFRotation orientation 0010
Field SFVec2f fieldOfView 0.785398 0.785398
Field SFFloat nearPlane 10
Field SFFloat farPlane 100
Field SFBool orthographic TRUE
Field SFDepthTextureNode diTexture NULL
}
DepthImageV2{#%NDT=SF3DNode
Field SFVec3f position 0010
Field SFRotation orientation 0010
Field SFVec2f fieldOfView 0.785398 0.785398
Field SFFloat nearPlane 10
Field SFFloat farPlane 100
Field SFVec2f splatMinMax 0.1115 0.9875
Field SFBool orthographic FALSE
Field SFDepthTextureNode diTexture NULL
}
前記DepthImageノードとDepthImageV2ノードとの規格は、次の通りである。カメラパラメータ情報を表すフィールドは、カメラの位置(position)と回転(orientation)情報、カメラ視野の縦横範囲または視野の縦横角度情報(fieldOfView)、カメラボリュームの前面情報(nearPlane)、ボリュームの背面情報(farPlane)、及び客体がカメラに直交投影されているか、または遠近投影されているかの投影方式選択(orthographic)情報のためのフィールドと;depthとcolor情報を有するdiTextureフィールドとにより構成されている。そして、DepthImageV2ノードは、前記フィールド以外に、スクリーンに映される様子、すなわちスプラットベクトル長の最小値と最大値とを表すフィールド(splatMinMax)をさらに含んでいる。
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
exposedField SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
DepthImageV2{#%NDT=SF3DNode
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
fieldSF Vec2f splatMinMax 0.1115 0.9875
exposedField SFBool orthographic FALSE
field SFDepthTextureNode diTexture NULL
}
前記exposedField typeに変更されたカメラパラメータを使用し、カメラアニメーションを行えば、カメラview volume(カメラview frustrum)を物体のバウンディングボックスに合うように設定することができる。そして、モデリングするとき、図4のように、生成中であるアニメーションの各フレームの客体に適したバウンディングボックスを抽出し、生成中であるアニメーションのあらゆるフレームの最大バウンディングボックス(BB)を含むカメラアニメーション情報の抽出が不要である。それにより、モデリング速度低下なしに著作が容易である(1Pass)。また、各フレームに適した大きさのバウンディングボックスを抽出するので、レンダリング画質が向上する。また、モデリング段階では、カメラパラメータ変更機能があり、カメラの位置と回転、view frustrumの調節が可能である。また、物体のアニメーション経路により、カメラの位置が変更可能である。レンダリング過程では、動的カメラパラメータを利用して画質調節が可能である。
Claims (21)
- 深さ情報、色相情報、及びカメラパラメータまたは幾何情報、色相情報、及びカメラパラメータにより表現される三次元客体の深さ映像基盤表現方法において、
前記カメラパラメータは、
位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報、及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする三次元客体の深さ映像基盤表現方法。 - 前記リアルタイム変更可能なカメラパラメータを表現するデータ構造のフィールドタイプは、
リアルタイム変更可能なフィールドであることを表すexposedFieldとすることを特徴とする請求項1に記載の三次元客体の深さ映像基盤表現方法。 - 前記リアルタイム変更可能なカメラパラメータは、
DepthImageノードである場合、ノードの名称、フィールドのタイプ、フィールドのデータフォーマット、フィールドの名称、フィールドの初期値は、
DepthImage{#%NDT=SF3DNode
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
exposedField SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
前記データ構造で表現されることを特徴とする請求項2に記載の三次元客体の深さ映像基盤表現方法。 - 前記リアルタイム変更可能なカメラパラメータは、
DepthImageV2である場合、ノードの名称、フィールドのタイプ、フィールドのデータフォーマット、フィールドの名称、フィールドの初期値は、
DepthImageV2 {#%NDT=SF3DNode
exposedField SFVec3f position 0010
exposedField SFRotation orientation 0010
exposedField SFVec2f fieldOfView π/4π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
field SFVec2f splatMinMax 0.1115 0.9875
exposedField SFBool orthographic FALSE
field SFDepthTextureNode diTexture NULL
}
前記データ構造で表現されることを特徴とする請求項2に記載の三次元客体の深さ映像基盤表現方法。 - 入力される三次元客体の静的データ及び動的データのうち少なくとも一つのデータに対してカメラパラメータを付加し、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する3Dデータ処理部と、
前記3Dデータ処理部で生成されたデータを深さ映像基盤表現データフォーマットに変換する深さ映像基盤表現データ生成部と、
前記3Dデータ処理部で生成されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出するカメラアニメーションデータ生成部とを備えることを特徴とする三次元客体の深さ映像基盤表現モデリング装置。 - 前記カメラパラメータは、
位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項5に記載の三次元客体の深さ映像基盤表現モデリング装置。 - 前記深さ映像基盤表現データ生成部の深さ映像基盤表現データフォーマットは、
参照映像を含むことを特徴とする請求項5に記載の三次元客体の深さ映像基盤表現モデリング装置。 - (a)入力される三次元客体の静的データ及び動的データのうち少なくとも一つに対してカメラパラメータを付加するが、前記動的データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更する段階と、
(b)前記静的データまたは動的データから前記三次元客体を表現するポイントまたはポイント集合プリミティブを抽出する段階と、
(c)前記(a)及び(b)段階で処理されたデータを深さ映像基盤表現データフォーマットに変換する段階と、
(d)前記(a)及び(b)段階で処理されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現モデリング方法。 - 前記(c)段階の深さ映像基盤表現データフォーマットは、
参照映像を含むことを特徴とする請求項8に記載の三次元客体の深さ映像基盤表現モデリング方法。 - 前記カメラパラメータは、
位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項8に記載の三次元客体の深さ映像基盤表現モデリング方法。 - 三次元客体の深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取るカメラアニメーションデータ入力部と、
前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用し、三次元客体のアニメーションを再生するアニメーション再生部とを備える三次元客体の深さ映像基盤表現レンダリング装置。 - 前記カメラパラメータは、
位置情報、回転情報、カメラ視野の縦横範囲または角度(fieldOfView)情報、カメラボリュームの前面(nearPlane)情報、カメラボリュームの背面(farPlane)情報及び客体がカメラに直交投影されているかまたは遠近投影されているかの投影方式選択(orthographic)情報を含み、
三次元客体に対してモデリング及びレンダリングのうち少なくとも一つを行うとき、前記カメラパラメータの値は、リアルタイム変更可能であることを特徴とする請求項11に記載の三次元客体の深さ映像基盤表現レンダリング装置。 - (a)三次元客体の深さ映像基盤表現データを受け取る段階と、
(b)三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取る段階と、
(c)前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用し、三次元客体のアニメーションを再生する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現レンダリング方法。 - 三次元客体をモデリングして生成されたカメラ動き情報と、変形可能なview frustrum情報と、参照映像とを受け取る段階と、
前記カメラ動き情報、view frustrum情報及び参照映像を使用し、レンダリングでのview frustrum情報とカメラ動きとを利用して深さ映像基盤表現客体を生成する段階とを含むことを特徴とする三次元客体の深さ映像基盤表現レンダリング方法。 - 請求項1に記載の方法ををコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
- 請求項8に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
- 請求項13に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
- 請求項14に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
- カメラアニメーション支援機能が追加された、三次元客体の深さ映像基盤表現レンダリング装置において、
三次元客体の深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
リアルタイムで変更される三次元客体のアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を受け取るカメラアニメーションデータ入力部と、
前記深さ映像基盤表現データと、アニメーションデータの時間情報と、それに相応するリアルタイムで変更されるカメラパラメータ値とを使用して三次元客体のアニメーションを再生するアニメーション再生部とを備えることを特徴とする装置。 - 入力される三次元客体の映像データに対してカメラパラメータを付加するが、前記映像データがリアルタイムで変更されれば、それに相応するカメラパラメータをリアルタイムで変更し、前記映像データから前記三次元客体を表現するデータを抽出し、前記抽出されたデータを深さ映像基盤表現データに変換する3Dデータ処理部と、
前記3Dデータ処理部により抽出されたデータからアニメーションデータの時間情報及びそれに相応するリアルタイムで変更されるカメラパラメータ値を抽出するカメラアニメーションデータ生成部と、
深さ映像基盤表現データを受け取る深さ映像基盤表現データ入力部と、
前記時間情報と前記カメラパラメータ値とを受け取るカメラアニメーションデータ入力部と、
前記深さ映像基盤表現データ、前記時間情報及び前記カメラパラメータ値を使用して三次元客体のアニメーションを再生するアニメーション再生部とを備えることを特徴とする三次元客体の深さ映像基盤表現モデリング及びレンダリング装置。 - 映像情報及びカメラパラメータで表現される三次元客体をモデリング及び/またはレンダリングする深さ映像基盤表現方法において、
リアルタイムで変更されるカメラパラメータ値を使用して三次元客体をモデリング及び/またはレンダリングすることを特徴とする方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US66992605P | 2005-04-11 | 2005-04-11 | |
US60/669,926 | 2005-04-11 | ||
KR1020050100895A KR100707206B1 (ko) | 2005-04-11 | 2005-10-25 | 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 |
KR10-2005-0100895 | 2005-10-25 | ||
PCT/KR2006/001325 WO2006109980A1 (en) | 2005-04-11 | 2006-04-11 | Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008536234A true JP2008536234A (ja) | 2008-09-04 |
JP4777416B2 JP4777416B2 (ja) | 2011-09-21 |
Family
ID=37627856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008506372A Expired - Fee Related JP4777416B2 (ja) | 2005-04-11 | 2006-04-11 | 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8111254B2 (ja) |
JP (1) | JP4777416B2 (ja) |
KR (1) | KR100707206B1 (ja) |
CN (1) | CN101156175B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011149160A1 (ko) * | 2010-05-25 | 2011-12-01 | 연세대학교 산학협력단 | 애니메이션 저작 시스템 및 애니메이션 저작 방법 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100918862B1 (ko) * | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
US9641822B2 (en) | 2008-02-25 | 2017-05-02 | Samsung Electronics Co., Ltd. | Method and apparatus for processing three-dimensional (3D) images |
US8279222B2 (en) * | 2008-03-14 | 2012-10-02 | Seiko Epson Corporation | Processing graphics data for a stereoscopic display |
EP2308241B1 (en) * | 2008-07-24 | 2017-04-12 | Koninklijke Philips N.V. | Versatile 3-d picture format |
EP2328337A4 (en) * | 2008-09-02 | 2011-08-10 | Huawei Device Co Ltd | 3D VIDEO COMMUNICATION, TRANSMISSION DEVICE, SYSTEM AND IMAGE RECONSTRUCTION, SYSTEM |
EP2360930A4 (en) * | 2008-12-18 | 2015-03-25 | Lg Electronics Inc | METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION |
US9098926B2 (en) * | 2009-02-06 | 2015-08-04 | The Hong Kong University Of Science And Technology | Generating three-dimensional façade models from images |
WO2010088840A1 (en) | 2009-02-06 | 2010-08-12 | The Hong Kong University Of Science And Technology | Generating three-dimensional models from images |
US8531473B2 (en) * | 2009-07-28 | 2013-09-10 | Technion R&D Foundation Ltd. | Photogrammetric texture mapping using casual images |
US8619122B2 (en) * | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8687044B2 (en) * | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
WO2013085513A1 (en) * | 2011-12-07 | 2013-06-13 | Intel Corporation | Graphics rendering technique for autostereoscopic three dimensional display |
CN104050712B (zh) * | 2013-03-15 | 2018-06-05 | 索尼公司 | 三维模型的建立方法和装置 |
CN103295255B (zh) * | 2013-04-02 | 2016-05-18 | 深圳市瑞云科技有限公司 | 一种提供用户进行远程渲染的装置 |
CN103247067A (zh) * | 2013-04-02 | 2013-08-14 | 深圳市瑞云科技有限公司 | 一种远程渲染方法及云渲染平台 |
CN106105192B (zh) * | 2014-01-03 | 2021-05-18 | 英特尔公司 | 通过深度相机的实时3d重建 |
DE102014011821A1 (de) * | 2014-08-08 | 2016-02-11 | Cargometer Gmbh | Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts |
CN107077735A (zh) * | 2014-10-28 | 2017-08-18 | 惠普发展公司,有限责任合伙企业 | 三维对象识别 |
CN105021124B (zh) * | 2015-04-16 | 2018-02-16 | 华南农业大学 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
CN105100707A (zh) * | 2015-06-29 | 2015-11-25 | 遵义宏港机械有限公司 | 一种数控铣床实时建模监控系统 |
US10032307B2 (en) | 2016-08-10 | 2018-07-24 | Viacom International Inc. | Systems and methods for a generating an interactive 3D environment using virtual depth |
CN107958446B (zh) * | 2016-10-17 | 2023-04-07 | 索尼公司 | 信息处理设备和信息处理方法 |
CN107238374B (zh) * | 2017-05-04 | 2019-05-07 | 华南农业大学 | 一种不规则平面零件的分类和识别定位方法 |
CN108537163A (zh) * | 2018-04-04 | 2018-09-14 | 天目爱视(北京)科技有限公司 | 一种基于可见光拍照的生物特征四维数据识别方法及系统 |
US11070706B2 (en) * | 2018-11-15 | 2021-07-20 | Sony Corporation | Notifications for deviations in depiction of different objects in filmed shots of video content |
CN109784145B (zh) * | 2018-12-05 | 2021-03-16 | 北京华捷艾米科技有限公司 | 基于深度图的目标检测方法及存储介质 |
CN111640173B (zh) * | 2020-05-09 | 2023-04-21 | 杭州群核信息技术有限公司 | 一种基于特定路径的家装漫游动画的云端渲染方法及系统 |
WO2021226862A1 (en) * | 2020-05-13 | 2021-11-18 | Shanghaitech University | Neural opacity point cloud |
KR20220064045A (ko) | 2020-11-11 | 2022-05-18 | 삼성전자주식회사 | 영상을 생성하는 방법 및 장치와 영상 생성을 위한 신경망을 트레이닝하는 방법 |
CN115131527B (zh) * | 2022-05-27 | 2023-06-02 | 北京五八信息技术有限公司 | 相机切换方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296755A (ja) * | 2001-11-27 | 2003-10-17 | Samsung Electronics Co Ltd | 深さイメージに基づく3次元物体を表現するためのノード構造 |
JP2004334850A (ja) * | 2003-04-30 | 2004-11-25 | Nintendo Co Ltd | ゲームプレイの状態に基づいてカメラのパラメータを動的に制御する方法および装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR980010875A (ko) * | 1996-07-23 | 1998-04-30 | 김광호 | 3차원 렌더링 방법 |
US5923330A (en) * | 1996-08-12 | 1999-07-13 | Ncr Corporation | System and method for navigation and interaction in structured information spaces |
JP3928229B2 (ja) * | 1997-11-28 | 2007-06-13 | ソニー株式会社 | 表示制御装置および表示制御方法、並びに記録媒体 |
KR100450823B1 (ko) * | 2001-11-27 | 2004-10-01 | 삼성전자주식회사 | 깊이 이미지 기반 3차원 물체의 표현을 위한 노드 구조 |
JP2004005373A (ja) | 2001-11-27 | 2004-01-08 | Samsung Electronics Co Ltd | 深さイメージに基づく3次元物体を表現するためのノード構造 |
KR200343637Y1 (ko) | 2003-11-13 | 2004-03-04 | 신안전자 주식회사 | 줄긋기 홈을 갖는 골프공 케이스 |
-
2005
- 2005-10-25 KR KR1020050100895A patent/KR100707206B1/ko not_active IP Right Cessation
-
2006
- 2006-04-11 CN CN2006800115812A patent/CN101156175B/zh not_active Expired - Fee Related
- 2006-04-11 JP JP2008506372A patent/JP4777416B2/ja not_active Expired - Fee Related
- 2006-04-11 US US11/401,223 patent/US8111254B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003296755A (ja) * | 2001-11-27 | 2003-10-17 | Samsung Electronics Co Ltd | 深さイメージに基づく3次元物体を表現するためのノード構造 |
JP2004334850A (ja) * | 2003-04-30 | 2004-11-25 | Nintendo Co Ltd | ゲームプレイの状態に基づいてカメラのパラメータを動的に制御する方法および装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011149160A1 (ko) * | 2010-05-25 | 2011-12-01 | 연세대학교 산학협력단 | 애니메이션 저작 시스템 및 애니메이션 저작 방법 |
JP2013530457A (ja) * | 2010-05-25 | 2013-07-25 | ウン ジョン、ジェ | アニメーション著作システムおよびアニメーション著作方法 |
Also Published As
Publication number | Publication date |
---|---|
US8111254B2 (en) | 2012-02-07 |
KR100707206B1 (ko) | 2007-04-13 |
CN101156175B (zh) | 2011-05-25 |
US20060227132A1 (en) | 2006-10-12 |
JP4777416B2 (ja) | 2011-09-21 |
CN101156175A (zh) | 2008-04-02 |
KR20060107899A (ko) | 2006-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4777416B2 (ja) | 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置 | |
EP1800267B1 (en) | System and method for processing video images | |
US7184049B2 (en) | Image processing method and system | |
JP2004005567A (ja) | コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ | |
KR101757765B1 (ko) | 모션 캡처 데이터 기반 3차원 애니메이션 제작 시스템 및 그 제어 방법 | |
JPH11514479A (ja) | 映画のコンピュータ化された自動オーディオビジュアルダビングのための方法 | |
KR101244789B1 (ko) | 3차원 재구성을 이용한 디지털 만화 콘텐츠 생성 방법 | |
JP2011159329A (ja) | 自動3dモデリングシステム及び方法 | |
JP3538263B2 (ja) | 画像生成方法 | |
JP2002163678A (ja) | 擬似三次元画像生成方法および装置 | |
CN116524087A (zh) | 融合神经辐射场的音频驱动的说话人视频合成方法及系统 | |
KR20140090353A (ko) | 얼굴의 형태 및 질감을 이용한 3차원 캐리커처 생성 장치 및 그 방법 | |
Tian et al. | Research on Visual Design of Computer 3D Simulation Special Effects Technology in the Shaping of Sci-Fi Animation Characters | |
KR20060040118A (ko) | 맞춤형 3차원 애니메이션 제작 방법 및 장치와 그 배포시스템 | |
WO2006109980A1 (en) | Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same | |
KR20070098364A (ko) | 3차원 영상 데이터를 코드화하여 저장하는 장치 및 방법 | |
JP2005092782A (ja) | 3次元モデルの生成方法および装置並びにコンピュータプログラム | |
JP3545935B2 (ja) | 画像の生成・表示方法及びこの方法を記録した記録媒体 | |
JP3765786B2 (ja) | 映像生成装置及び記録媒体 | |
Lieu | Techniques for creating animations for technical presentation | |
JP3589657B2 (ja) | 3次元ポリゴン表面模様処理方式 | |
Zhou | Application of 3D facial animation techniques for Chinese opera | |
Yang et al. | Motion lenses: cinematography-based viewpoint selection for motion data | |
SVG | Converting 3D Facial Animation with | |
JP2010267006A (ja) | 動画化方法、動画化装置及び動画化プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100507 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101108 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20101118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110629 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |