KR100707206B1 - 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 - Google Patents

3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 Download PDF

Info

Publication number
KR100707206B1
KR100707206B1 KR1020050100895A KR20050100895A KR100707206B1 KR 100707206 B1 KR100707206 B1 KR 100707206B1 KR 1020050100895 A KR1020050100895 A KR 1020050100895A KR 20050100895 A KR20050100895 A KR 20050100895A KR 100707206 B1 KR100707206 B1 KR 100707206B1
Authority
KR
South Korea
Prior art keywords
information
camera
data
field
dibr
Prior art date
Application number
KR1020050100895A
Other languages
English (en)
Other versions
KR20060107899A (ko
Inventor
장경자
한만진
김근호
이신준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2006/001325 priority Critical patent/WO2006109980A1/en
Priority to US11/401,223 priority patent/US8111254B2/en
Priority to CN2006800115812A priority patent/CN101156175B/zh
Priority to JP2008506372A priority patent/JP4777416B2/ja
Publication of KR20060107899A publication Critical patent/KR20060107899A/ko
Application granted granted Critical
Publication of KR100707206B1 publication Critical patent/KR100707206B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한 모델링 및 렌더링 방법 및 장치가 개시된다. 그 3차원 객체의 깊이영상 기반 표현 방법은, 깊이(depth)정보 또는 기하(geometry)정보, 색상(color)정보 및 카메라 정보(camera parameter)에 의해 표현되는 3차원 객체의 깊이영상 기반 표현방법에 있어서, 카메라 정보는 위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고, 3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 카메라 정보의 값은 실시간 변경 가능하며, 그 필드 타입은 실시간 변경 가능한 필드임을 나타내는 exposedField 로 함을 특징으로 한다.
본 발명에 의하면, 모델링에서는 동적 물체의 움직임 또는 변형됨에 따라 카메라의 자유로운 동작 및 제어 가능한 뷰 프러스텀을 부여하여 쉬운 저작이 가능하고, 렌더링에서는 DepthImage node specification 내의 카메라를 exposedField type으로 화질 저하 없이 적응적으로 애니메이션을 렌더링할 수 있게 한다.

Description

3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한 모델링 및 렌더링 방법 및 장치{Depth Image-based Representation method for 3D objects, Modeling method and apparatus using it, and Rendering method and apparatus using the same}
도 1은 깊이영상 기반 표현(DIBR) 객체를 생성하는 모델링 단계와 모델러에서 생성된 DIBR 포맷을 사용해 DIBR 객체를 렌더링하는 과정을 도시한 것이다.
도 2는 종래의 고정된 카메라 파라미터로 영상을 모델링 및 렌더링하는 과정을 나타내는 개념도이다.
도 3은 고정된 카메라 파라미터를 사용한, DIBR 애니메이션을 구현할 때, 물체의 바운딩 박스를 구하는 방법을 도시한 것이다.
도 4는 본 발명에 의한 DIBR 애니메이션을 구현할 때, 물체의 바운딩 박스를 구하는 방법을 도시한 것이다.
도 5는 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 깊이영상 기반 표현의 모델링 장치의 구성을 블록도로 도시한 것이다.
도 6은 본 발명에 의한 3차원 객체의 깊이영상기반 표현 모델링 방법을 흐름도로 도시한 것이다.
도 7은 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 깊이영상 기반 표현의 렌더링 장치의 구성을 블록도로 도시한 것이다.
도 8은 본 발명에 의한 3차원 객체의 깊이영상기반 표현 렌더링 방법을 흐름도로 도시한 것이다.
도 9는 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 모델링 및 렌더링 장치의 전체적인 구성을 블록도로 도시한 것이다.
도 10은 3D 그래픽스 데이터를 저작하는 도구로써 3DS MAX 저작 도구 화면을 도시한 것이다.
본 발명은 3차원 객체의 깊이영상 기반 표현에 관한 것으로서, 특히 3차원 객체의 동적 기능 향상을 위해 동적 데이터의 카메라 파라미터를 실시간으로 변경할 수 있게 하는 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한 3차원 객체의 모델링 및 렌더링 방법 및 장치에 관한 것이다.
도 1은 깊이영상 기반 표현(DIBR) 객체를 생성하는 모델링 단계와 모델러에서 생성된 DIBR 포맷을 사용해 DIBR 객체를 렌더링하는 과정을 도시한 것이다. 도 1을 참조하면, 깊이영상 기반 표현(DIBR) 모델링은 다음과 같이 이루어진다. 먼저, 저작 툴(authoring tool)을 이용하여 3차원 객체를 정적인 3D 데이터 또는 동적인 3D 데이터로 만든다. 상기 3D 데이터를 깊이영상 기반 표현 모델러(DIBR modeler)를 사용해서, 고정된 카메라 정보(camera parameters)와 상기 카메라 정보에서의 depth와 color 정보로 표현하여, MPEG DIBR 포맷으로 생성한다.
또한 깊이영상 기반 표현 렌더링은 도 1에 도시된 바와 같이 깊이영상 기반 표현 렌더러(DIBR renderer)를 이용하여, 상기 모델러에서 생성된 카메라 정보와 depth와 color 정보를 사용하여, view volume과 DIBR 객체를 생성한다. 그리고 카메라 뷰 프러스텀(view frustum)을 만들고, 뷰 프러스텀 안의 DIBR 객체를 스크린에 투영한다.
깊이영상 기반 표현을 사용하여 3D 데이터를 생성하거나 렌더링할 때, 필요한 카메라 정보(camera parameter)와 깊이(depth)정보와 색상(color)정보는 MPEG 규격(specification)의 DepthImage 노드와 DepthImageV2 노드에 표현되어 있다. MPEG의 DepthImage 노드와 DepthImageV2 노드를 살펴보면 다음과 같다. 여기서, 카메라 정보는 DepthIamge 노드와 DepthImageV2 노드의 필드(field)에 포함되어 있다.
DepthImage { #%NDT=SF3DNode
field SFVec3f position 0 0 10
field SFRotation orientation 0 0 1 0
field SFVec2f fieldOfView 0.785398 0.785398
field SFFloat nearPlane 10
field SFFloat farPlane 100
field SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
DepthImageV2 { #%NDT=SF3DNode
field SFVec3f position 0 0 10
field SFRotation orientation 0 0 1 0
field SFVec2f fieldOfView 0.785398 0.785398
field SFFloat nearPlane 10
field SFFloat farPlane 100
field SFVec2f splatMinMax 0.1115 0.9875
field SFBool orthographic FALSE
field SFDepthTextureNode diTexture NULL
}
상기 DepthImage 노드와 DepthImageV2 노드의 규격(specification)은 다음과 같다. 카메라 파라미터 정보를 나타내는 필드는 카메라의 위치(position)와 회전(orientation) 정보, 카메라 시야의 가로, 세로 범위 또는 시야의 가로, 세로 각도 정보(fieldOfView), 카메라 볼륨의 전면 정보(nearPlane), 볼륨의 후면정보(farPlane) 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영 방식 선택(orthographic) 정보를 위한 필드들과 depth와 color 정보를 갖는 diTexture 필드로 구성되어 있다. 그리고 DepthImageV2 노드는 상기 필드들 외에 스크린에 그려지는 모양, 즉 스플랫 벡터 길이의 최소값과 최대값을 나타내는 필드(splatMinMax)를 더 포함하고 있다.
상기 DepthImage 노드와 DepthIamgeV2 노드에 모두 포함되어 있는, 카메라 파라미터 정보를 나타내는 필드들은 카메라의 위치와 회전 정보, 카메라 시야의 가로, 세로 범위 또는 시야의 가로, 세로 각도 정보, 카메라 볼륨의 앞면, 뒷면 정보, 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영 방식 선택 정보(camera parameters: position, orientation, fieldOfView, nearPlane, farPlane, orthographic)이고, field type으로 정의되어 있다.
여기서, 카메라 파라미터 필드가 field type으로 정의되어 있으면, 그 카메라 파라미터 값이 한 번 셋팅되면, 변경할 수 없다. 따라서, DepthImage 노드 또는 DepthIamgeV2 노드를 사용해 정적(still) 또는 동적(animated/deformed) DIBR 데이터를 생성할 때 카메라 파라미터를 한 번만 셋팅할 수 있다. 그리고 DIBR 데이터를 렌더링할 때, 모델러에서 설정한 카메라 파라미터 정보를 그대로 사용해서 view volume을 만들고, 그 안에 DIBR 객체를 표현해야 한다.
field type을 갖는 고정된 카메라 파라미터(카메라의 위치와 회전 정보, 카메라 시야의 가로, 세로 범위 또는 시야의 가로, 세로 각도 정보, 카메라 볼륨의 앞면, 뒷면 정보, 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영 방식 선택 정보)를 사용해, 정적 DIBR 데이터 또는 동적 DIBR 데이터를 생성하고, 렌더링하는 과정은 도 2와 같다. 카메라 파라미터 값이 모델링 단계에서 한 번 설정되면, 그 값을 변경할 수 없기 때문에, 카메라 애니메이션을 고려하지 않았다. 그래서 렌더링 단계에서도 모델링 단계에서 설정된 고정된 카메라 파라미터 값만을 사용해야 했다.
또한 모델링 단계에서, field type을 갖는 고정된 카메라 파라미터를 사용하므로, 동적으로 변형된 물체에 대한 애니메이션을 모델링하기 위해서, 동적으로 변형되는 물체에 적합하도록 카메라 파라미터를 변경할 수 없었다. 그래서, 동적으로 변형되는 물체의 애니메이션을 생성할 때는 도 3과 같이, 만들고자 하는 애니메이션의 전체 프레임(frame)을 모두 관찰한 후, 물체의 최대 바운딩 박스(Bounding Box, BB)를 계산해야 했다. 이것은 모델링 시 모든 물체를 적절한 해상도를 유지하기 위해 물체의 바운딩 박스를 맞게 설정하기 위해서 필요한 작업이다. 이에 뷰 프러스텀에 해당하는 카메라 파라미터가 설정된다. 그러므로 모델링 과정에서 바운딩 박스를 벗어나는 애니메이션 프레임이 추가될 때, 최대 바운딩 박스의 갱신이 필요했다. 바운딩 박스를 갱신하고, 처음 프레임부터 다시, 애니메이션을 만들어야했다(2Pass). 따라서, 종래 고정된 카메라 파라미터를 영상을 모델링 및/또는 렌더링하는 방법은 부가적인 조작으로 저작 속도 감소 및 사용하기에 불편하다는 단점이 있었다. 또한, 불필요한 메모리 사용량이 있었다. 그래서 카메라 정보가 반영된 실시간 애니메이션을 만들 수가 없었다.
또한 모델링과 렌더링 할 때, 복원 영상의 화질 저하 가능성이 있다. 조금 더 자세히 설명하면, 카메라 파라미터 값을 변경할 수 없는 정적 카메라는 시간의 흐름에 따라 변동하는 동적 물체의 추적이 불가능하다. 그리고 정적 카메라는 동적 물체의 숨겨진 영역과 변형된 영역에서 데이터의 손실이 발생할 수 있다는 단점이 있다.
본 발명이 이루고자 하는 기술적 과제는 DIBR(Depth Image Based Representation) 모델러(modeler)에서 변형된 동적 물체를 모델링하는데 적합한 카메라 파라미터를 갖는 3차원 객체의 깊이영상 기반 표현 방법을 제공하는 것이다.
또한 본 발명이 이루고자 하는 다른 기술적 과제는 상기 3차원 객체의 깊이영상 기반 표현 방법을 이용하여 DIBR 애니메이션에 적합한 3차원 객체 모델링 방법 및 장치를 제공하는 것이다.
또한 본 발명이 이루고자 하는 또 다른 기술적 과제는 상기 3차원 객체의 깊이영상 기반 표현 방법을 이용하여 모델링된 데이터를 렌더링하는, 카메라 파라미터 값의 변화를 실시간 반영하는 DIBR 애니메이션의 렌더링 방법 및 장치를 제공하는 것이다.
상기 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현 방법은, 깊이(depth)정보, 색상(color)정보 및 카메라 정보(camera parameter) 또는 기하(geometry)정보, 색상(color)정보 및 카메라 정보(camera parameter)에 의해 표현되는 3차원 객체의 깊이영상 기반 표현방법에 있어서, 상기 카메라 정보는 위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고, 3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 실시간 변경 가능함을 특징으로 한다. 상기 실시간 변경가능한 카메라 정보를 표현하는 데이터 구조의 필드 타입은 실시간 변경 가능한 필드임을 나타내는 exposedField 로 함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현을 이용한 DIBR 모델링 장치는, 입력되는 3차원 객체의 정적 데이터 및 동적 데이터 중 적어도 하나의 데이터에 대해 카메라 정보를 부가하고, 상기 동적 데이터가 실시간으로 변경되면 그에 상응하는 카메라 정보(camera parameter)를 실시간으로 변경하며, 상기 정적데이터 또는 동적데이터로부터 상기 3차원 객체를 표현하는 Point 또는 Point cloud 프리미티브를 추출하는 3D 데이터 처리부; 상기 3D 데이터 처리부에서 생성된 데이터를 DIBR 데이터 포맷으로 변환하는 DIBR 데이터 생성부; 및 상기 3D 데이터 처리부에서 생성된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 추출하는 카메라 애니메이션 데이터 생성부를 포함함을 특징으로 한다.
상기 다른 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현을 이용한 DIBR 모델링 방법은, (a) 입력되는 3차원 객체의 정적 데이터 및 동적데이터 중 적어도 하나에 대해 카메라 정보를 부가하되, 상기 동적 데이터가 실시간으로 변경되면 그에 상응하는 카메라 정보(camera parameter)를 실시간으로 변경하는 단계; (b) 상기 정적 데이터 또는 동적데이터로부터 상기 3차원 객체를 표현하는 Point 또는 Point cloud 프리미티브를 추출하는 단계; (c) 상기 (a) 및 (b)단계에서 처리된 데이터를 DIBR 데이터 포맷으로 변환하는 단계; 및 (d) 상 기 (a) 및 (b)단계에서 처리된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 추출하는 단계를 포함함을 특징으로 한다.
상기 또 다른 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현을 이용한 DIBR 렌더링 장치는, 3차원 객체의 DIBR 데이터를 받아들이는 DIBR 데이터 입력부; 3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 받아들이는 카메라 애니메이션 데이터 입력부; 상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생하는 애니메이션 재생부를 포함한다.
상기 또 다른 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현을 이용한 DIBR 렌더링 방법은, 3차원 객체의 DIBR 데이터를 받아들이는 단계; 3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 받아들이는 단계; 상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생하는 단계를 포함한다.
상기 또 다른 기술적 과제를 이루기 위한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현을 이용한 DIBR 렌더링 방법은, 3차원 객체를 모델링하여 생성된 카메라 움직임 정보와 변형 가능한 뷰 프러스텀, 정보 및 참조영상들을 받아들이는 단계; 및 상기 카메라 움직임 정보, 뷰 프러스텀 정보 및 참조영상을 사용하여 렌더링에서의 뷰 프러스텀과 DIBR 객체를 생성하는 단계를 포함함을 특징으로 한다.
그리고 상기 기재된 발명을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. 또한 상기 기재된 발명을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한 모델링 및 렌더링 방법 및 장치에 대해 상세히 설명한다.
먼저, 본 발명에 따른 3차원 객체의 깊이영상 기반 표현 방법을 설명하기로 한다. 카메라 정보가 실시간 반영된 DIBR 애니메이션을 만들기 위해서는, MPEG의 DepthImage 노드와 DepthImageV2 노드에서 카메라의 위치와 회전 정보, 카메라 시야의 가로, 세로 범위 또는 시야의 가로, 세로 각도 정보, 카메라 볼륨의 전면 및 후면 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택 정보를 의미하는 position, orientation, fieldOfview, nearPlane, farPlane, orthographic 카메라 파라미터 필드의 type이 변경되어야 한다. 다음과 같이, 상기 필드의 type을 고정된 카메라 정보를 나타내는 field type에서 실시간으로 변경되는 카메라 파라미터 정보를 반영하는 exposedField type으로 변경한다.
DepthImage { #%NDT=SF3DNode
exposedField SFVec3f position 0 0 10
exposedField SFRotation orientation 0 0 1 0
exposedField SFVec2f fieldOfView π/4 π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
exposedField SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
DepthImageV2 { #%NDT=SF3DNode
exposedField SFVec3f position 0 0 10
exposedField SFRotation orientation 0 0 1 0
exposedField SFVec2f fieldOfView π/4 π/4
exposedField SFFloat nearPlane 10
exposedField SFFloat farPlane 100
field SFVec2f splatMinMax 0.1115 0.9875
exposedField SFBool orthographic TRUE
field SFDepthTextureNode diTexture NULL
}
상기 exposedField type으로 변경된 카메라 파라미터를 사용해서, 카메라 애니메이션을 하면 카메라 view volume(카메라 뷰 프러스텀)을 물체의 바운딩 박스(Bounding Box)에 맞게 설정할 수가 있다. 그리고, 모델링 할 때, 도 4와 같이, 생성 중인 애니메이션의 각 프레임의 객체에 적합한 바운딩 박스를 추출하여 생성 중인 애니메이션의 모든 프레임의 최대 바운딩 박스(BB)를 포함하는 카메라 애니메이션 정보의 추출이 불필요하다. 그리하여 모델링 속도 저하 없이 저작이 용이하다(1Pass). 또한, 각 프레임에 적합한 크기의 바운딩 박스를 추출하므로, 렌더링 화질이 향상된다. 또한, 모델링 단계에서는, 카메라 파라미터 변경 기능이 있어, 카메라의 위치와 회전, 뷰 프러스텀의 조절이 가능하다. 또한 물체의 애니메이션 경로(path)에 따라, 카메라의 위치를 변경 가능하다. 렌더링 과정에서는, 동적 카메라 파라미터를 이용해 화질 조절이 가능하다.
MPEG 표준화에서는 상기 DepthImage 노드와 DepthImageV2 노드의 카메라 파라미터 관련 fields의 type을 exposedField로 변경하였다. 그러므로, 모델링 과정에서 카메라 파라미터의 변경이 가능하고, DIBR 내 외부 카메라 파라미터(extrinsic camera parameters)의 수정안이 채택되었다.
도 5는 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 깊이영상 기반 표현의 모델링 장치의 구성을 블록도로 도시한 것으로서, 그 모델링 장치는 3D 데이터 처리부(500), DIBR 데이터 생성부(520) 및 카메라 애니메이션 데이터 생성부(540)를 포함하여 이루어진다.
상기 3D 데이터 처리부(500)는 입력되는 3차원 객체의 정적 데이터 및 동적 데이터 중 적어도 하나의 데이터에 대해 카메라 정보를 부가하고, 상기 동적 데이터가 실시간으로 변경되면 그에 상응하는 카메라 정보(camera parameter)를 실시간으로 변경하며, 상기 정적데이터 또는 동적데이터로부터 상기 3차원 객체를 표현하는 Point 또는 Point cloud 프리미티브를 추출한다. 상기 정적데이터 또는 동적데 이터는 일반적으로 저작도구(Authoring Tool, 도 10)에서 생성된다. 또한 상기 카메라 정보는 카메라 개수, 카메라 파라미터 정보를 포함한다.
상기 DIBR 데이터 생성부(520)는 상기 3D 데이터 처리부에서 생성된 데이터를 DIBR 데이터 포맷으로 변환한다. 예를 들어 MPEG에서 제공되는 노드(DepthImage, SimpleTexture, PointTexture, OctreeImage, DepthImageV2, SimpleTextureV2, PointTextureV2 등)들을 DIBR 데이터로 생성한다. 상기 DIBR 데이터 포맷은 참조영상을 포함한다.
상기 카메라 애니메이션 데이터 생성부(540)는 상기 3D 데이터 처리부에서 생성된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 추출한다.
상기 카메라 정보는 상술한 본 발명에 의한 3차원 객체의 깊이영상 기반 표현 방법과 동일하다. 즉, 위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고, 3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 실시간 변경가능하다.
도 6은 본 발명에 의한 3차원 객체의 깊이영상기반 표현 모델링 방법을 흐름도로 도시한 것으로서, 도 5 및 도 6을 참조하여 3차원 객체의 깊이영상기반 표현 모델링 방법 및 그 모델링 장치의 동작을 설명하기로 한다.
3차원 객체의 정적 데이터 및 동적데이터 중 적어도 하나가 상기 3D 데이터 처리부(500)로 입력되면, 상기 3D 데이터 처리부(500)는 상기 정적데이터 또는 동적데이터에 카메라 정보를 부가한다.(600단계) 여기서, 만일 상기 동적 데이터가 실시간으로 변경되면(610단계), 그에 상응하는 카메라 정보(camera parameter)를 실시간으로 변경한다.(620단계) 또한 상기 3D 데이터 처리부(500)는 상기 정적 데이터 또는 동적 데이터로부터 상기 3차원 객체를 표현하는 Point 또는 Point cloud 프리미티브를 추출한다.(630단계)
상기 DIBR데이터 생성부(520)에 의해 상기 600단계 내지 630단계에서 처리된 데이터는 DIBR 데이터 포맷으로 변환된다.(640단계) 상기 DIBR 데이터 포맷은 참조영상을 포함한다.
또한 상기 카메라 애니메이션 데이터 생성부(540)는 상기 600단계 및 630단계에서 처리된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 추출한다.(650단계)
도 7은 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 깊이영상 기반 표현의 렌더링 장치의 구성을 블록도로 도시한 것으로서, 그 렌더링 장치는 DIBR 데이터 입력부(700), 카메라 애니메이션 데이터 입력부(720),애니메이션 재생부(740)를 포함하여 이루어진다.
상기 DIBR 데이터 입력부(700)는 3차원 객체의 DIBR 데이터를 받아들인다. 상기 카메라 애니메이션 데이터 입력부(720)는 3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 받아들인 다. 상기 애니메이션 재생부(740)는 상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생한다.
도 8은 본 발명에 의한 3차원 객체의 깊이영상기반 표현 렌더링 방법을 흐름도로 도시한 것으로서, 도 7 및 도 8을 참조하여 3차원 객체의 깊이영상기반 표현 모델링 방법 및 그 렌더링 장치의 동작을 설명하기로 한다.
상기 DIBR데이터 입력부(700)를 통해 3차원 객체의 DIBR 데이터를 받아들인다.(800단계) 또한 상기 카메라 애니메이션 데이터 입력부(720)를 통해 상기 3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 받아들인다.(820단계)
상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값이 들어오면 상기 DIBR 애니메이션 재생부(740)는 상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하는 실시간으로 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생한다.(840단계) 그 결과 카메라 정보가 반영된 실시간 DIBR 애니메이션이 가능하다.
도 9는 본 발명에 의한 카메라 애니메이션 지원기능이 추가된, 3차원 객체의 모델링 및 렌더링 장치의 전체적인 구성을 블록도로 도시한 것이다.
한편, 본 발명은 정적 또는 동적 DIBR 데이터를 생성 및 렌더링하는데 사용될 수 있다.
본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터(정보 처리 기능을 갖 는 장치를 모두 포함한다)가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명에 의한 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한 모델링 및 렌더링 방법 및 장치에 의하면, DepthImage 노드는 카메라 파라미터를 exposedField로 변형하므로써, DIBR 객체의 움직임 또는 변형에 따라 카메라 움직임과 뷰 프러스텀을 변화시킬 수 있다. 또한 상기 DepthIamge의 카메라 파라미터를 사용하므로써, 모델링 단계에서 DIBR 모델의 특징에 적합한 참조 영상을 얻을 수 있다. 그리고 상기 모델링 결과 생성된 카메라 움직임과 변형 가능한 뷰 프러스텀, 참조영상들을 사용해, 렌더링에서는 뷰 프러스텀과 DIBR 객체를 생성한다.
즉 모델링 측면에서 동적 물체에 적합한 모델링 즉, 동적 물체의 움직임 또는 변형됨에 따라 카메라의 자유로운 동작 및 제어 가능한 뷰 프러스텀을 부여하여 쉬운 저작이 가능하다.
또한, 렌더링 측면에서는 DepthImage node specification 내의 카메라를 수정된 field type 즉 exposedField type으로 화질 저하 없이 적응적으로 애니메이션을 렌더링할 수 있게 한다.
상기 exposedField type으로 변경된 카메라 파라미터를 사용해서, 카메라 애니메이션을 할 때, 장점은 다음과 같다. 카메라 view volume(카메라 뷰 프러스텀)을 물체의 바운딩 박스(Bounding Box)에 맞게 설정할 수가 있어, 메모리를 절약할 수 있다. 또한, 모델링 할 때, 도 4에 도시된 바와 같이 생성 중인 애니메이션의 각 프레임의 객체에 적합한 바운딩 박스를 추출하므로, 생성 중인 애니메이션의 모든 프레임의 최대 바운딩 박스(BB)를 포함하는 카메라 애니메이션 정보의 추출이 불필요하므로, 모델링 속도 저하 없이 저작이 용이하다(1Pass). 또한, 각 프레임에 적합한 크기의 바운딩 박스를 추출하므로, 렌더링 화질이 향상된다.
그리고, 모델링 단계에서는, 카메라 파라미터 변경 기능이 있어, 카메라의 위치와 회전, 뷰 프러스텀의 조절이 가능하다. 또한 물체의 애니메이션 경로(path)에 따라, 카메라의 위치를 변경 가능하다. 또한 모델링 할 때, 저작이 용이하다. 렌더링 단계에서는, 동적 카메라 파라미터를 이용해 화질 조절 기능이 있다. 따라서, 적응적으로 해상도를 조절함으로 기존 방법보다 화질 향상이 있다.

Claims (16)

  1. 깊이(depth)정보, 색상(color)정보 및 카메라 정보(camera parameter) 또는 기하(geometry)정보, 색상(color)정보 및 카메라 정보(camera parameter)에 의해 표현되는 3차원 객체의 깊이영상 기반 표현방법에 있어서,
    상기 카메라 정보는
    위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고,
    3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 상기 3차원 객체의 변경에 따라 변경 가능함을 특징으로 하는 3차원 객체의 깊이영상 기반 표현방법.
  2. 제1항에 있어서, 상기 변경가능한 카메라 정보를 표현하는 데이터 구조의 필드 타입은
    상기 변경 가능한 필드임을 나타내는 exposedField 로 함을 특징으로 하는 3차원 객체의 깊이영상 기반 표현방법.
  3. 제2항에 있어서, 상기 변경가능한 카메라 정보는
    DepthImage 노드일 경우, 노드의 이름, 필드의 타입, 필드의 데이터 포맷, 필드의 이름, 필드의 초기값은
    DepthImage { #%NDT=SF3DNode
    exposedField SFVec3f position 0 0 10
    exposedField SFRotation orientation 0 0 1 0
    exposedField SFVec2f fieldOfView π/4 π/4
    exposedField SFFloat nearPlane 10
    exposedField SFFloat farPlane 100
    exposedField SFBool orthographic TRUE
    field SFDepthTextureNode diTexture NULL
    }
    상기 데이터 구조로 표현됨을 특징으로 하는 3차원 객체의 깊이영상 기반 표현방법.
  4. 제2항에 있어서, 상기 변경가능한 카메라 정보는
    DepthImageV2 일 경우, 노드의 이름, 필드의 타입, 필드의 데이터 포맷, 필드의 이름, 필드의 초기값은
    DepthImageV2 { #%NDT=SF3DNode
    exposedField SFVec3f position 0 0 10
    exposedField SFRotation orientation 0 0 1 0
    exposedField SFVec2f fieldOfView π/4 π/4
    exposedField SFFloat nearPlane 10
    exposedField SFFloat farPlane 100
    field SFVec2f splatMinMax 0.1115 0.9875
    exposedField SFBool orthographic FALSE
    field SFDepthTextureNode diTexture NULL
    }
    상기 데이터 구조로 표현됨을 특징으로 하는 3차원 객체의 깊이영상 기반 표현방법.
  5. 입력되는 3차원 객체의 정적 데이터 및 동적 데이터 중 적어도 하나의 데이터에 대해 카메라 정보를 부가하고, 상기 동적 데이터가 변경되면 그에 상응하는 카메라 정보(camera parameter)를 변경하며, 상기 정적데이터 또는 동적데이터로부터 상기 3차원 객체를 표현하는 포인트(Point) 또는 포인트집합(Point cloud) 프리미티브를 추출하는 3D 데이터 처리부;
    상기 3D 데이터 처리부에서 생성된 데이터를 DIBR 데이터 포맷으로 변환하는 DIBR 데이터 생성부; 및
    상기 3D 데이터 처리부에서 생성된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 추출하는 카메라 애니메이션 데이터 생성부를 포함함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 장치.
  6. 제5항에 있어서, 상기 카메라 정보는
    위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고,
    3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 변경가능함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 장치.
  7. 제5항에 있어서, 상기 DIBR 데이터 생성부의 DIBR 데이터 포맷은
    참조영상을 포함함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 장치.
  8. (a) 입력되는 3차원 객체의 정적 데이터 및 동적데이터 중 적어도 하나에 대해 카메라 정보를 부가하되, 상기 동적 데이터가 변경되면 그에 상응하는 카메라 정보(camera parameter)를 변경하는 단계;
    (b) 상기 정적 데이터 또는 동적데이터로부터 상기 3차원 객체를 표현하는 Point 또는 Point cloud 프리미티브를 추출하는 단계;
    (c) 상기 (a) 및 (b)단계에서 처리된 데이터를 DIBR 데이터 포맷으로 변환하는 단계; 및
    (d) 상기 (a) 및 (b)단계에서 처리된 데이터로부터 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 추출하는 단계를 포함함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 방법.
  9. 제8항에 있어서, 상기 (c)단계의 DIBR 데이터 포맷은
    참조영상을 포함함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 방법.
  10. 제8항에 있어서, 상기 카메라 정보는
    위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택(orthographic) 정보를 포함하고,
    3차원 객체를 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 변경 가능함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 모델링 방법.
  11. 3차원 객체의 DIBR 데이터를 받아들이는 DIBR 데이터 입력부;
    3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 받아들이는 카메라 애니메이션 데이터 입력부;
    상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생하는 애니메이션 재생부를 포함하는 3차원 객체의 깊이영상기반 표현 렌더링 장치.
  12. 제11항에 있어서, 상기 카메라 정보는
    위치(position)정보, 회전(orientation)정보, 카메라 시야의 가로와 세로 범위 또는 각도(fieldOfView) 정보, 카메라 볼륨의 전면(nearPlane) 정보, 카메라 볼륨의 후면(farPlane) 정보 및 객체가 카메라에 직교 투영되는지 또는 원근 투영되는지 투영방식 선택 (orthographic) 정보를 포함하고,
    3차원 객체에 대해 모델링 및 렌더링 중 적어도 하나를 수행할 때 상기 카메라 정보의 값은 변경 가능함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 렌더링 장치.
  13. (a) 3차원 객체의 DIBR 데이터를 받아들이는 단계;
    (b) 3차원 객체의 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 받아들이는 단계; 및
    (c) 상기 DIBR 데이터와 애니메이션 데이터의 시간정보 및 그에 상응하여 변경되는 카메라 파라미터 값을 사용하여 3차원 객체의 애니메이션을 재생하는 단계를 포함하는 3차원 객체의 깊이영상기반 표현 렌더링 방법.
  14. 3차원 객체를 모델링하여 생성된 카메라 움직임 정보와 변형 가능한 뷰 프러스텀 정보 및 참조영상들을 받아들이는 단계; 및
    상기 카메라 움직임 정보, 뷰 프러스텀 정보 및 참조영상을 사용하여 렌더링에서의 뷰 프러스텀과 카메라 움직임을 이용하여 DIBR 객체를 생성하는 단계를 포함함을 특징으로 하는 3차원 객체의 깊이영상기반 표현 렌더링 방법.
  15. 제1항 내지 제4항 중 어느 한 항에 기재된 발명을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  16. 제8항 내지 제10항, 제13항 및 제14항 중 어느 한 항에 기재된 발명을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체로서 컴퓨터로 읽을 수 있는 기록매체.
KR1020050100895A 2005-04-11 2005-10-25 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 KR100707206B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2006/001325 WO2006109980A1 (en) 2005-04-11 2006-04-11 Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same
US11/401,223 US8111254B2 (en) 2005-04-11 2006-04-11 Depth image-based representation method for 3D object, modeling method and apparatus, and rendering method and apparatus using the same
CN2006800115812A CN101156175B (zh) 2005-04-11 2006-04-11 3d对象的基于深度图像呈现方法和使用该方法的建模方法和设备以及渲染方法和设备
JP2008506372A JP4777416B2 (ja) 2005-04-11 2006-04-11 三次元客体の深さ映像基盤表現方法及びこれを利用したモデリング及びレンダリング方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US66992605P 2005-04-11 2005-04-11
US60/669,926 2005-04-11

Publications (2)

Publication Number Publication Date
KR20060107899A KR20060107899A (ko) 2006-10-16
KR100707206B1 true KR100707206B1 (ko) 2007-04-13

Family

ID=37627856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050100895A KR100707206B1 (ko) 2005-04-11 2005-10-25 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치

Country Status (4)

Country Link
US (1) US8111254B2 (ko)
JP (1) JP4777416B2 (ko)
KR (1) KR100707206B1 (ko)
CN (1) CN101156175B (ko)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
US9641822B2 (en) 2008-02-25 2017-05-02 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) images
US8279222B2 (en) * 2008-03-14 2012-10-02 Seiko Epson Corporation Processing graphics data for a stereoscopic display
MY155378A (en) 2008-07-24 2015-10-15 Koninkl Philips Electronics Nv Versatile 3-d picture format
EP2328337A4 (en) * 2008-09-02 2011-08-10 Huawei Device Co Ltd 3D VIDEO COMMUNICATION, TRANSMISSION DEVICE, SYSTEM AND IMAGE RECONSTRUCTION, SYSTEM
CA2745392C (en) 2008-12-18 2016-07-12 Lg Electronics Inc. Method for 3d image signal processing and image display for implementing the same
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
CN102308320B (zh) 2009-02-06 2013-05-29 香港科技大学 从图像生成三维模型
US8531473B2 (en) * 2009-07-28 2013-09-10 Technion R&D Foundation Ltd. Photogrammetric texture mapping using casual images
US8619122B2 (en) * 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) * 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
JP5689953B2 (ja) * 2010-05-25 2015-03-25 ジョン、ジェ ウンJEON, Jae Woong アニメーション著作システムおよびアニメーション著作方法
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
CN104050712B (zh) * 2013-03-15 2018-06-05 索尼公司 三维模型的建立方法和装置
CN103295255B (zh) * 2013-04-02 2016-05-18 深圳市瑞云科技有限公司 一种提供用户进行远程渲染的装置
CN103247067A (zh) * 2013-04-02 2013-08-14 深圳市瑞云科技有限公司 一种远程渲染方法及云渲染平台
CN106105192B (zh) * 2014-01-03 2021-05-18 英特尔公司 通过深度相机的实时3d重建
DE102014011821A1 (de) * 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
CN107077735A (zh) * 2014-10-28 2017-08-18 惠普发展公司,有限责任合伙企业 三维对象识别
CN105021124B (zh) * 2015-04-16 2018-02-16 华南农业大学 一种基于深度图的平面零件三维位置和法向量计算方法
CN105100707A (zh) * 2015-06-29 2015-11-25 遵义宏港机械有限公司 一种数控铣床实时建模监控系统
US10032307B2 (en) 2016-08-10 2018-07-24 Viacom International Inc. Systems and methods for a generating an interactive 3D environment using virtual depth
CN107958446B (zh) * 2016-10-17 2023-04-07 索尼公司 信息处理设备和信息处理方法
CN107238374B (zh) * 2017-05-04 2019-05-07 华南农业大学 一种不规则平面零件的分类和识别定位方法
CN108537163A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种基于可见光拍照的生物特征四维数据识别方法及系统
US11070706B2 (en) * 2018-11-15 2021-07-20 Sony Corporation Notifications for deviations in depiction of different objects in filmed shots of video content
CN109784145B (zh) * 2018-12-05 2021-03-16 北京华捷艾米科技有限公司 基于深度图的目标检测方法及存储介质
CN111640173B (zh) * 2020-05-09 2023-04-21 杭州群核信息技术有限公司 一种基于特定路径的家装漫游动画的云端渲染方法及系统
CN115428027A (zh) 2020-05-13 2022-12-02 上海科技大学 神经不透明点云
KR20220064045A (ko) 2020-11-11 2022-05-18 삼성전자주식회사 영상을 생성하는 방법 및 장치와 영상 생성을 위한 신경망을 트레이닝하는 방법
CN115131527B (zh) * 2022-05-27 2023-06-02 北京五八信息技术有限公司 相机切换方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980010875A (ko) * 1996-07-23 1998-04-30 김광호 3차원 렌더링 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5923330A (en) * 1996-08-12 1999-07-13 Ncr Corporation System and method for navigation and interaction in structured information spaces
JP3928229B2 (ja) * 1997-11-28 2007-06-13 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
EP1321893B1 (en) 2001-11-27 2011-11-09 Samsung Electronics Co., Ltd. Node structure for representing 3-dimensional objects using depth image
CN1261912C (zh) * 2001-11-27 2006-06-28 三星电子株式会社 基于深度图像表示三维物体的装置和方法
KR100446635B1 (ko) * 2001-11-27 2004-09-04 삼성전자주식회사 깊이 이미지 기반 3차원 객체 표현 장치 및 방법
US20040219980A1 (en) 2003-04-30 2004-11-04 Nintendo Co., Ltd. Method and apparatus for dynamically controlling camera parameters based on game play events
KR200343637Y1 (ko) 2003-11-13 2004-03-04 신안전자 주식회사 줄긋기 홈을 갖는 골프공 케이스

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR980010875A (ko) * 1996-07-23 1998-04-30 김광호 3차원 렌더링 방법

Also Published As

Publication number Publication date
US8111254B2 (en) 2012-02-07
JP2008536234A (ja) 2008-09-04
CN101156175B (zh) 2011-05-25
CN101156175A (zh) 2008-04-02
US20060227132A1 (en) 2006-10-12
JP4777416B2 (ja) 2011-09-21
KR20060107899A (ko) 2006-10-16

Similar Documents

Publication Publication Date Title
KR100707206B1 (ko) 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치
KR101145260B1 (ko) 3d 객체 모델에 텍스쳐를 매핑하는 방법 및 장치
US8289317B2 (en) Automatic 3D modeling
KR100624457B1 (ko) 깊이-영상 기반의 모델링 방법 및 장치
US20130127827A1 (en) Multiview Face Content Creation
JPH0749964A (ja) 3次元動画像生成装置
JP2008102972A (ja) 自動3dモデリングシステム及び方法
JP3964749B2 (ja) 三次元シーンでイメージベースのレンダリング情報を表現するための方法
KR101757765B1 (ko) 모션 캡처 데이터 기반 3차원 애니메이션 제작 시스템 및 그 제어 방법
JP3538263B2 (ja) 画像生成方法
CN112868052A (zh) 用于提供具有六个自由度的至少部分内容的方法和系统
KR20060133671A (ko) 컴퓨터그래픽 캐릭터와의 상호 작용을 위한 실사 배경이미지 내의 오브젝트의 변형 기법
JP3635037B2 (ja) 画像の描画方法及びそれに用いるプログラム
JP2021051537A (ja) 画像表示システム、方法、およびプログラム
WO2023207504A1 (zh) 一种视频生成方法及装置
Tian et al. Research on Visual Design of Computer 3D Simulation Special Effects Technology in the Shaping of Sci-Fi Animation Characters
Jones et al. Real-time geometric motion blur for a deforming polygonal mesh
WO2006109980A1 (en) Depth image-based representation method for 3d object, modeling method and apparatus, and rendering method and apparatus using the same
JP2005092782A (ja) 3次元モデルの生成方法および装置並びにコンピュータプログラム
KR19980050467A (ko) 삼차원구조 데이터와 그래픽스 오브젝트의 합성장치 및 그 방법
JP3545935B2 (ja) 画像の生成・表示方法及びこの方法を記録した記録媒体
JP2511771B2 (ja) 画像メモリ式画像生成装置
JP2002024847A (ja) 画像生成装置、画像生成方法及び記録媒体
JP2000339491A (ja) 情報処理装置および方法、並びに媒体
JP2002230579A (ja) 画像作成方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130318

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150313

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160322

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee