KR101420818B1 - 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체 - Google Patents

애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체 Download PDF

Info

Publication number
KR101420818B1
KR101420818B1 KR1020130014137A KR20130014137A KR101420818B1 KR 101420818 B1 KR101420818 B1 KR 101420818B1 KR 1020130014137 A KR1020130014137 A KR 1020130014137A KR 20130014137 A KR20130014137 A KR 20130014137A KR 101420818 B1 KR101420818 B1 KR 101420818B1
Authority
KR
South Korea
Prior art keywords
joint
animation
point
points
animation object
Prior art date
Application number
KR1020130014137A
Other languages
English (en)
Inventor
홍성호
Original Assignee
주식회사 로커스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 로커스 filed Critical 주식회사 로커스
Priority to KR1020130014137A priority Critical patent/KR101420818B1/ko
Application granted granted Critical
Publication of KR101420818B1 publication Critical patent/KR101420818B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법은 3차원 애니메이션 구현 장치에서 수행된다. 상기 3차원 애니메이션 구현 방법은 애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 단계, 상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계 및 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계를 포함한다.

Description

애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체{METHOD OF EMBODYING THREE-DIMENSIONAL OBJECT ANIMATION, APPARATUS PERFORMING THE SAME AND STORAGE MEDIA STORING THE SAME}
본 발명은 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 기술에 관한 것으로, 보다 구체적으로, 임포팅된 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하여 화면으로 출력하고, 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받아 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력함으로써, 3차원 애니메이션을 구현하는 과정에서 애니메이션 오브젝트에 포함된 복수의 관절 점 중에서 사용자가 자신이 조작하고자 하는 관절 점을 용이하게 선택하도록 할 수 있는 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치에 관한 것이다.
CG(Computer Graphic)의 발달로 인하여 다양한 컨텐츠에 3차원 애니메이션 기술이 활용되고 있다. 예를 들어, 3D MAX 및 MAYA 등 3차원 애니메이션을 제작할 수 있는 통합 개발 환경이 제공되고 있으며, 이러한 3차원 애니메이션 제작 소프트웨어를 통하여 실제 사람과 같이 동작할 수 있는 애니메이션 오브젝트(예: 만화 캐릭터)를 생성하고 이에 대한 움직임을 제어할 수 있다.
일반적으로, 3차원 애니메이션의 제작 과정은 애니메이션 오브젝트를 가상의 3차원 공간에 모델링(Modeling)하는 제1과정, 모델링된 애니메이션 오브젝트의 표면을 셰이딩(Shading)하는 제2과정, 모델링된 애니메이션 오브젝트에 관절 점(joint point)를 포함하는 뼈대를 설치하고, 각 관절 점에 대한 컨트롤러를 적용하여 리깅(Rigging)하는 제3과정, 리깅된 애니메이션 오브젝트에 모션 데이터를 적용하는 제4과정 및 주변 환경을 고려한 빛과 사물의 움직임을 계산하여 렌더링(Rendering)하는 제5과정으로 진행된다.
여기에서, 3차원 애니메이션을 제작하는 다양한 기술이 제공되고 있다. 하기의 선행 문헌들은 이와 관련된 기술들을 제공한다.
한국공개특허 제10-2000-0037456호는 캐릭터 애니메이션을 구현하는 방법에 관한 것으로, 사용자측이 컴퓨터 등의 단말기를 통해 컴퓨터 네트워크를 거쳐 캐릭터 애니메이션 서비스 제공자측의 애니메이션 서버에 접속하는 단계와, 상기 애니메이션 서버로부터 컴퓨터 네트워크를 통해 소정의 캐릭터에 대한 기하학적 모양 데이터를 사용자측 단말기에 전송하는 단계와, 상기 애니메이션 서버로부터 컴퓨터 네트워크를 통해 소정의 캐릭터의 각 관절들에 대한 위치 데이터를 사용자측 단말기로 계속적으로 전송하면서 상기 위치 데이터의 변화값에 따라 캐릭터의 동작을 사용자측 단말기에 애니메이션하는 단계를 구비하는 컴퓨터 네트워크를 통해 캐릭터 애니메이션을 구현하는 방법에 관한 것이다.
한국공개특허 제10-2006-0091361호는 3차원 오브젝트 애니메이션을 구현하는 기술에 관한 것으로, 보다 구체적으로, 3차원 오브젝트를 기반으로 추출된 오브젝트 데이터, 애니메이션 데이터 및 텍스쳐 데이터를 포맷 변환하여 이동 단말기로 업로드시키고, 이동 단말기는 오브젝트 데이터 및 텍스쳐 데이터를 이용하여 원래의 3차원 오브젝트를 생성하여 애니메이션 데이터에 따라 애니메이션 동작을 수행하는 이동 단말기에 사용하기 위한 3차원 오브젝트 애니메이션을 구현하는 기술에 관한 것이다.
즉, 상기 선행 기술들은 네트워크를 통하여 애니메이션을 구현하거나, 하드웨어 사양이 낮은 이동 단말기에 적합한 오브젝트 애니메이션을 구현할 수 있는 기술을 제공하고 있다.
한국공개특허 제10-2000-0037456호 한국공개특허 제10-2006-0091361호
본 발명은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하여 화면으로 출력하고, 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받아 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력함으로써, 3차원 애니메이션을 구현하는 과정에서 애니메이션 오브젝트에 포함된 복수의 관절 점 중에서 사용자가 자신이 조작하고자 하는 관절 점을 용이하게 선택하도록 할 수 있는 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다.
본 발명은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성함으로써, 애니메이션 오브젝트에 포함된 복수의 관절 점 중 적어도 하나를 그룹화하여 사용자가 제어하도록 할 수 있는 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다.
본 발명은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점들에 대한 관절 컨트롤러(Controller)들을 수집하고, 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하여 사용자가 출력된 리스트 중 적어도 하나를 선택하도록 함으로써, 사용자가 복수의 관절 점들과 연관된 컨트롤러를 통하여 용이하게 관점 점을 선택하도록 할 수 있는 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이를 수행하는 3차원 애니메이션 구현 장치를 제공하고자 한다.
실시예들 중에서, 3차원 애니메이션 구현 방법은 3차원 애니메이션 구현 장치에서 수행된다. 상기 3차원 애니메이션 구현 방법은 애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 단계, 상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계 및 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계를 포함한다.
일 실시예에서, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계는 상기 수집된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는 상기 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 복수의 관절 점들을 수집하는 단계는 상기 관절 점들 각각의 동작을 제어하는 복수의 관절 컨트롤러(Controller)들을 수집하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 관절 컨트롤러는 상기 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어할 수 있다.
일 실시예에서, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계는 상기 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 컨트롤러와 연관된 적어도 하나의 관절 점을 결정하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는 상기 선택된 적어도 하나의 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 3차원 애니메이션 구현 방법은 상기 관절 컨트롤러 그룹과 연관된 관절 그룹을 결정하고, 상기 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 상기 동작 제어 정보에 따라 제어하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는 상기 애니메이션 오브젝트 상에 상기 선택된 적어도 하나의 관절 점 각각을 특정 면적을 가지는 이미지로서 디스플레이하는 단계를 더 포함할 수 있다.
실시예들 중에서, 3차원 애니메이션 구현 장치는 애니메이션 오브젝트에 대한 데이터 소스가 임포팅되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 관절 수집부, 상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 관절 선택부 및 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 관절 출력부를 포함한다.
일 실시예에서, 상기 관절 선택부는 상기 수집된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정할 수 있다.
일 실시예에서, 상기 관절 출력부는 상기 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성할 수 있다.
일 실시예에서, 상기 관절 수집부는 상기 관절 점들 각각의 동작을 제어하는 복수의 관절 컨트롤러(Controller)들을 수집할 수 있다.
일 실시예에서, 상기 관절 컨트롤러는 상기 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어할 수 있다.
일 실시예에서, 상기 관절 선택부는 상기 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 컨트롤러와 연관된 적어도 하나의 관절 점을 결정할 수 있다.
일 실시예에서, 상기 관절 출력부는 상기 선택된 적어도 하나의 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성할 수 있다.
일 실시예에서, 상기 3차원 애니메이션 구현 장치는 상기 관절 컨트롤러 그룹과 연관된 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 상기 동작 제어 정보에 따라 제어하는 관절 동작 제어부를 더 포함할 수 있다.
일 실시예에서, 상기 관절 출력부는 기 애니메이션 오브젝트 상에 상기 선택된 적어도 하나의 관절 점 각각을 특정 면적을 가지는 이미지로서 디스플레이할 수 있다.
실시예들 중에서, 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체는 애니메이션 오브젝트에 대한 데이터 소스가 임포팅되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 단계, 상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계 및 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계를 포함하는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한다.
본 발명의 일 실시 예에 따른 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하여 화면으로 출력하고, 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받아 상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력함으로써, 3차원 애니메이션을 구현하는 과정에서 애니메이션 오브젝트에 포함된 복수의 관절 점 중에서 사용자가 자신이 조작하고자 하는 관절 점을 용이하게 선택하도록 할 수 있다.
본 발명의 일 실시 예에 따른 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성함으로써, 애니메이션 오브젝트에 포함된 복수의 관절 점 중 적어도 하나를 그룹화하여 사용자가 제어하도록 할 수 있다.
본 발명의 일 실시 예에 따른 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법 및 이와 관련된 기술들은 임포팅된 애니메이션 오브젝트에 포함된 복수의 관절 점들에 대한 관절 컨트롤러(Controller)들을 수집하고, 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하여 사용자가 출력된 리스트 중 적어도 하나를 선택하도록 함으로써, 사용자가 복수의 관절 점들과 연관된 컨트롤러를 통하여 용이하게 관점 점을 선택하도록 할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 시스템을 설명하는 블록도이다.
도 2는 도 1에 있는 3차원 애니메이션 구현 장치를 설명하는 블록도이다.
도 3은 본 발명에 따른 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 3차원 애니메이션 구현 과정을 설명하기 위한 3차원 애니메이션 구현 장치의 출력 화면을 나타내는 예시이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시 예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시 예에 따른 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 시스템을 설명하는 블록도이다.
도 1을 참조하면, 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 시스템(100)은 3차원 애니메이션 구현 장치(110), 입력 장치(120) 및 디스플레이 장치(130)를 포함한다.
3차원 애니메이션 구현 장치(110)는 특정 OS(Operating System)에 의해 동작하며 CPU, 하드디스크, 램를 포함하여 본 발명에 따른 3차원 애니메이션 구현 방법에 관한 프로그램을 기록한 기록매체를 실행할 수 있는 컴퓨팅 장치에 해당할 수 있다. 예를 들어, 3차원 애니메이션 구현 장치(110)는 데스크톱(Desktop), 노트북(Laptop), 스마트 폰(Smart phone) 또는 태블릿 PC(Tablet Personal Computer)에 해당할 수 있다.
3차원 애니메이션 구현 장치(110)는 입력 장치(120) 및 디스플레이 장치(130) 각각과 네트워크를 통하여 연결될 수 있다.
입력 장치(120)는 사용자에 의한 입력 신호를 생성할 수 있는 수단으로서, 예를 들어, 마우스 및 키보드 중 적어도 하나를 포함할 수 있다.
디스플레이 장치(130)는 3차원 애니메이션 구현 장치(110)와 연결되어, 본 발명에 따른 3차원 애니메이션 구현 과정에서 생성되는 애니메이션 오브젝트에 대한 동작을 그래픽으로서 출력할 수 있는 수단에 해당하고, 예를 들어, 모니터에 해당할 수 있다.
도 2는 도 1에 있는 3차원 애니메이션 구현 장치를 설명하는 블록도이다.
도 2를 참조하면, 3차원 애니메이션 구현 장치(110)는 관절 수집부(210), 관절 선택부(220), 관절 출력부(230). 관절 동작 제어부(240) 및 제어부(250)를 포함한다.
관절 수집부(210)는 애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 임포팅된 데이터 소스에서 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집한다.
우선, 애니메이션 오브젝트는 사전에 모델링(Modeling)된 애니메이션 객체(예: 둘리 캐릭터)를 의미하고, 본 발명에 따른 3차원 애니메이션 구현 과정에서의 애니메이션 오브젝트는 복수의 관절 점(Joint Point)을 포함하는 뼈대(Skeleton) 구조가 리깅(Rigging)되어 있는 상태를 가정한다. 여기에서, 뼈대 구조에 포함된 복수의 관절 점들 각각은 회전 각도 및 회전 방향 중 적어도 하나에 대한 범위가 설정되어, 애니메이션 오브젝트는 사용자에 의한 조작을 통하여 설정된 각각의 범위 내에서 동작할 수 있다.
관절 수집부(210)는 사용자에 의하여 임폴팅된 특정 애니메이션 오브젝트에 대한 데이터 소스에서, 해당 애니메이션 오브젝트의 뼈대 구조에 포함된 복수의 관절 점들을 수집할 수 있다.
예를 들어, 관절 수집부(210)는 [{R_어깨, R_팔꿈치, R_손목, R_손가락}]에 해당하는 오른쪽 팔과 연관된 관절 점들을 수집할 수 있다. 즉, 관절 수집부(210)는 애니메이션 오브젝트에 리깅된 복수의 관절 점에 대한 리스트를 수집할 수 있다.
일 실시예에서, 관절 수집부(210)는 애니메이션 오브젝트에 리깅된 관절 점의 위치 식별자를 수집할 수 있다. 여기에서, 위치 식별자는 관절 점이 애니메이션 오브젝트 상에서 위치하는 좌표 데이터(예를 들어, 3차원 좌표 값)에 해당할 수 있다.
일 실시예에서, 관절 수집부(210)는 임포팅된 데이터 소스에서 관절 점의 동작을 제어하는 관절 컨트롤러(Controller)를 수집할 수 있다. 여기에서, 관절 컨트롤러는 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어하는 모듈에 해당할 수 있다. 예를 들어, 관절 컨트롤러는 3D MAYA 소프트웨어에서 조인트 각각에 설정된 컨트롤러에 해당할 수 있다.
관절 선택부(220)는 수집된 복수의 관절 점들을 화면으로 출력하고, 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는다.
우선, 관절 선택부(220)는 관절 수집부(210)에 의하여 수집된 복수의 관절 점들을 화면으로 출력할 수 있다. 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각에 대한 리스트를 화면에 출력할 수 있다. 다른 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각의 위치 식별자를 기초로 애니메이션 오브젝트 상에 이미지로서 출력할 수 있다.
예를 들어, 도 5a에서, 관절 선택부(220)는 애니메이션 오브젝트를 시뮬레이션할 수 있는 시뮬레이션 창(510)에서 애니메이션 오브젝트 상에 복수의 관절 점들을 표시할 수 있다. 다른 예를 들어, 관절 선택부(220)는 복수의 관절 점들을 관절 점 리스트 창(520)에 리스트로서 표시할 수 있다.
다음으로, 관절 선택부(220)는 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는다. 보다 구체적으로, 관절 선택부(220)는 출력된 복수의 관절 점들 중 적어도 하나에 대하여 사용자에 의한 선택 신호를 입력 장치(120)로부터 수신할 수 있다.
일 실시예에서, 관절 선택부(220)는 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정할 수 있다. 예를 들어, 도 5a에서, 사용자는 관절 점 리스트 창(520)에 출력된 관절 점들 중 자신이 제어하고자 하는 관절 점을 드래그하여 선택할 수 있다.
일 실시예에서, 관절 선택부(220)는 관절 수집부(210)에 의하여 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력할 수 있다. 여기에서, 관절 선택부(220)는 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 컨트롤러와 연관된 적어도 하나의 관절 점을 결정할 수 있다.
예를 들어, 도 5a에서, 관절 선택부(220)는 관절 점 리스트 창(520)을 통하여 수집된 관절 점들 각각에 대한 관절 컨트롤러들을 리스트로서 출력할 수 있다. 여기에서, 사용자에 의하여 적어도 하나의 관절 컨트롤러들이 선택되면, 관절 선택부(220)는 선택된 관절 컨트롤러와 연관된 관절 점을 결정할 수 있다.
관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트에 연관시켜 화면으로 출력할 수 있다. 여기에서, 관절 출력부(230)는 선택된 관절 점을 애니메이션 오브젝트 상에서의 위치와 대응시켜 화면으로 출력할 수 있다.
일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 리스트로서 출력할 수 있다. 예를 들어, 도 5a에서, 관절 출력부(230)는 선택 리스트 창(530)을 통하여, 선택된 관절 점들에 대한 리스트를 출력할 수 있다.
다른 일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트 상에 디스플레이할 수 있다. 여기에서, 관절 출력부(230)는 관절 점의 위치 식별자를 기초로 애니메이션 오브젝트 상에 특정 면적을 가지는 이미지를 디스플레이할 수 있다.
예를 들어, 도 5b에서, 관절 출력부(230)는 선택 이미지 창(540)을 통하여 선택된 관절 점의 위치 식별자를 기초로 관절 점을 애니메이션 오브젝트 상에 디스플레이할 수 있다. 여기에서, 각 관절 점에 디스플레이된 이미지들은 관절 점과 연관되어, 사용자에 의하여 해당 이미지에 대한 클릭 이벤트가 수신되면, 관절 선택부(220)는 해당 관절 점에 대한 선택으로 결정할 수 있다.
일 실시예에서, 관절 출력부(230)는 선택된 관절 점을 포함하는 관절 그룹을 생성할 수 있다. 예를 들어, 관절 선택부(220)에 의하여 [{R_어깨, R_팔꿈치, R_손목, R_손가락}]에 해당하는 오른쪽 팔과 연관된 관절 점들이 선택되는 경우, 관절 출력부(230)는 선택된 관절 점들을 모두 포함하는 관절 그룹을 생성할 수 있다. 여기에서, 생성된 관절 그룹에 대한 명칭(예 : 오른쪽 팔)을 사용자에 의하여 입력받을 수 있다.
일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성할 수 있다.
관절 동작 제어부(240)는 관절 점에 대한 움직임을 제어한다.
일 실시에에서, 관절 동작 제어부(240)는 관절 점에 대한 관절 컨트롤러에 정의된 동작 제어 정보를 기초로 관절 점의 움직임을 제어할 수 있다. 예를 들어, 사용자에 의한
일 실시예에서, 관절 동작 제어부(240)는 사용자에 의하여 선택된 관절 점에 대한 움직임을 제어할 수 있다. 여기에서, 관절 선택부(220)는 사용자에 의하여 선택된 관절 점을 결정할 수 있다.
예를 들어, 도 5c에서, 사용자는 자신이 선택한 관절 점들을 선택 이미지 창(540)을 통하여 확인할 수 있으며, 여기에서, 사용자는 특정 관절 점(오른 팔 손목)을 선택(해당 이미지를 클릭)하고 동작 제어 창(550)을 통하여 해당 관절 점의 동작을 제어할 수 있다.
일 실시예에서, 관절 동작 제어부(240)는 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 동시에 제어할 수 있다. 예를 들어, 사용자에 의하여 [오른쪽 팔]에 해당하는 관절 그룹에 대한 선택을 입력받으면, 관절 동작 제어부(240)는 관절 그룹에 포함된 [{R_어깨, R_팔꿈치, R_손목, R_손가락}]의 동작을 동시에 제어할 수 있다.
일 실시예에서, 관절 동작 제어부(240)는 관절 컨트롤러 그룹과 연관된 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 제어할 수 있다. 즉, 사용자는 관절 컨트롤러 그룹의 선택을 통하여 관절 그룹을 선택할 수 있다.
제어부(250)는 관절 수집부(210), 관절 선택부(220), 관절 출력부(230) 및 관절 동작 제어부(240)의 동작 및 데이터의 흐름을 제어한다.
도 3은 본 발명에 따른 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
관절 수집부(210)는 애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 임포팅된 데이터 소스에서 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집한다(단계 S310). 즉, 관절 수집부(210)는 애니메이션 오브젝트에 리깅된 복수의 관절 점에 대한 리스트를 수집할 수 있다.
일 실시예에서, 관절 수집부(210)는 애니메이션 오브젝트에 리깅된 관절 점의 위치 식별자를 수집할 수 있다.
일 실시예에서, 관절 수집부(210)는 임포팅된 데이터 소스에서 관절 점의 동작을 제어하는 관절 컨트롤러(Controller)를 수집할 수 있다.
관절 선택부(220)는 관절 수집부(210)에 의하여 수집된 복수의 관절 점들을 화면으로 출력할 수 있다(단계 S320). 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각에 대한 리스트를 화면에 출력할 수 있다. 다른 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각의 위치 식별자를 기초로 애니메이션 오브젝트 상에 이미지로서 출력할 수 있다.
관절 선택부(220)는 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는다(단계 S330).
관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트에 연관시켜 화면으로 출력할 수 있다(단계 S340). 여기에서, 관절 출력부(230)는 선택된 관절 점을 애니메이션 오브젝트 상에서의 위치와 대응시켜 화면으로 출력할 수 있다.
일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 리스트로서 출력할 수 있다. 다른 일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트 상에 디스플레이할 수 있다. 여기에서, 관절 출력부(230)는 관절 점의 위치 식별자를 기초로 애니메이션 오브젝트 상에 특정 면적을 가지는 이미지를 디스플레이할 수 있다.
도 4는 본 발명의 일 실시예에 따른 3차원 애니메이션 구현 과정을 설명하는 흐름도이다.
관절 수집부(210)는 애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 임포팅된 데이터 소스에서 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집한다(단계 S410).
관절 수집부(210)는 임포팅된 데이터 소스에서 관절 점의 동작을 제어하는 관절 컨트롤러(Controller)를 수집할 수 있다(단계 S420). 여기에서, 관절 컨트롤러는 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어하는 모듈에 해당할 수 있다.
관절 선택부(220)는 관절 수집부(210)에 의하여 수집된 복수의 관절 점들을 화면으로 출력할 수 있다. 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각에 대한 리스트를 화면에 출력할 수 있다. 다른 일 실시예에서, 관절 선택부(220)는 복수의 관절 점들 각각의 위치 식별자를 기초로 애니메이션 오브젝트 상에 이미지로서 출력할 수 있다.
관절 선택부(220)는 관절 수집부(210)에 의하여 수집된 복수의 관절 컨트롤러를 화면에 출력할 수 있다(단계 S430).
관절 선택부(220)는 복수의 관절 컨트롤러들 중 적어도 하나에 대한 선택을 입력받는다(단계 S440).
여기에서, 관절 선택부(220)는 선택된 적어도 하나의 관절 컨트롤러와 연관된 관절 점을 결정할 수 있다(단계 S450). 즉, 사용자는 관절 컨트롤러의 선택을 통하여 자신이 원하는 관절 점을 선택할 수 있다.
관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트에 연관시켜 화면으로 출력할 수 있다(단계 S460). 여기에서, 관절 출력부(230)는 선택된 관절 점을 애니메이션 오브젝트 상에서의 위치와 대응시켜 화면으로 출력할 수 있다.
일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 리스트로서 출력할 수 있다. 다른 일 실시예에서, 관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 적어도 하나의 관절 점을 애니메이션 오브젝트 상에 디스플레이할 수 있다.
관절 출력부(230)는 관절 선택부(220)에 의하여 선택된 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성할 수 있다(단계 S470).
관절 출력부(230)는 관절 컨트롤러 그룹에 포함된 적어도 하나의 관점 컨트롤러와 연관된 적어도 하나의 관절 점들을 포함하는 관절 그룹을 생성할 수 있다(단계 S480).
관절 동작 제어부(240)는 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 동작 제어 정보에 따라 제어할 수 있다(단계 S490). 예를 들어, 사용자에 의하여 [오른쪽 팔]에 해당하는 관절 그룹에 대한 선택을 입력받으면, 관절 동작 제어부(240)는 관절 그룹에 포함된 [{R_어깨, R_팔꿈치, R_손목, R_손가락}]의 동작을 동시에 제어할 수 있다.
상기에서는 본 출원의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 3차원 애니메이션 구현 시스템
110: 3차원 애니메이션 구현 장치 120: 입력 장치
130: 디스플레이 장치
210: 관절 수집부 220: 관절 선택부
230: 관절 출력부 240: 관절 동작 제어부
250: 제어부
510: 시뮬레이션 창 520: 관절 점 리스트 창
530: 선택 리스트 창 540: 선택 이미지 창
550: 동작 제어 창

Claims (19)

  1. 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 있어서,
    애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 단계;
    상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계; 및
    상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계를 포함하고,
    상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계는 상기 수집된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정하며,
    상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는 상기 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 복수의 관절 점들을 수집하는 단계는
    상기 관절 점들 각각의 동작을 제어하는 복수의 관절 컨트롤러(Controller)들을 수집하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  5. 제4항에 있어서, 상기 관절 컨트롤러는
    상기 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  6. 제4항에 있어서, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계는
    상기 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 컨트롤러와 연관된 적어도 하나의 관절 점을 결정하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  7. 제6항에 있어서, 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는
    상기 선택된 적어도 하나의 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  8. 제7항에 있어서,
    상기 관절 컨트롤러 그룹과 연관된 관절 그룹을 결정하고, 상기 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 상기 동작 제어 정보에 따라 제어하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  9. 제1항에 있어서, 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는
    상기 애니메이션 오브젝트 상에 상기 선택된 적어도 하나의 관절 점 각각을 특정 면적을 가지는 이미지로서 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 방법.
  10. 3차원 애니메이션 구현 장치에 있어서,
    애니메이션 오브젝트에 대한 데이터 소스가 임포팅되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 관절 수집부;
    상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 관절 선택부; 및
    상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 관절 출력부를 포함하고,
    상기 관절 선택부는 상기 수집된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정하고,
    상기 관절 출력부는 상기 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  11. 삭제
  12. 삭제
  13. 제10항에 있어서, 상기 관절 수집부는
    상기 관절 점들 각각의 동작을 제어하는 복수의 관절 컨트롤러(Controller)들을 수집하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  14. 제13항에 있어서, 상기 관절 컨트롤러는
    상기 애니메이션 오브젝트의 관절 점에 대한 회전 가능 각도 및 회전 가능 방향 중 적어도 하나와 연관된 동작 제어 정보를 정의하고, 3차원 상에서 상기 동작 제어 정보에 따라 상기 관절 점의 움직임을 제어하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  15. 제13항에 있어서, 상기 관절 선택부는
    상기 수집된 복수의 관절 컨트롤러에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 컨트롤러와 연관된 적어도 하나의 관절 점을 결정하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  16. 제15항에 있어서, 상기 관절 출력부는
    상기 선택된 적어도 하나의 관절 컨트롤러를 포함하는 관절 컨트롤러 그룹을 생성하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  17. 제16항에 있어서,
    상기 관절 컨트롤러 그룹과 연관된 관절 그룹에 포함된 적어도 하나의 관절 점의 움직임을 상기 동작 제어 정보에 따라 제어하는 관절 동작 제어부를 더 포함하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  18. 제10항에 있어서, 상기 관절 출력부는
    상기 애니메이션 오브젝트 상에 상기 선택된 적어도 하나의 관절 점 각각을 특정 면적을 가지는 이미지로서 디스플레이하는 것을 특징으로 하는 3차원 애니메이션 구현 장치.
  19. 3차원 애니메이션 구현 장치에서 수행되는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체에 있어서,
    애니메이션 오브젝트에 대한 데이터 소스가 임포팅(Importing)되면, 상기 데이터 소스에서 상기 애니메이션 오브젝트에 포함된 복수의 관절 점(joint point)들을 수집하는 단계;
    상기 수집된 복수의 관절 점들을 화면으로 출력하고, 상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계; 및
    상기 선택된 적어도 하나의 관절 점을 상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계를 포함하고,
    상기 출력된 복수의 관절 점들 중 적어도 하나에 대한 선택을 입력받는 단계는 상기 수집된 복수의 관절 점들에 대한 리스트를 화면에 출력하고, 상기 출력된 리스트 중에서 사용자에 의하여 선택된 적어도 하나의 관절 점을 결정하며,
    상기 애니메이션 오브젝트에 연관시켜 화면으로 출력하는 단계는 상기 선택된 적어도 하나의 관절 점을 포함하는 관절 그룹을 생성하는 것을 특징으로 하는 3차원 애니메이션 구현 방법에 관한 컴퓨터 프로그램을 기록한 기록매체.
KR1020130014137A 2013-02-07 2013-02-07 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체 KR101420818B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130014137A KR101420818B1 (ko) 2013-02-07 2013-02-07 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130014137A KR101420818B1 (ko) 2013-02-07 2013-02-07 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체

Publications (1)

Publication Number Publication Date
KR101420818B1 true KR101420818B1 (ko) 2014-07-17

Family

ID=51742476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130014137A KR101420818B1 (ko) 2013-02-07 2013-02-07 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체

Country Status (1)

Country Link
KR (1) KR101420818B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009659A (ko) * 2016-07-19 2018-01-29 주식회사 넥슨코리아 3d 캐릭터 움직임 처리 장치 및 3d 캐릭터 움직임 처리 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980081989A (ko) * 1998-08-05 1998-11-25 박지헌 쿼터니언을 이용한 제약을 가진 관절의 설계
KR100610756B1 (ko) * 2003-05-21 2006-08-21 양지윤 수치 데이터에 의해 조인트의 상태가 표시되는 컴퓨터를이용한 해석 및 설계용 그래픽 표시장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980081989A (ko) * 1998-08-05 1998-11-25 박지헌 쿼터니언을 이용한 제약을 가진 관절의 설계
KR100610756B1 (ko) * 2003-05-21 2006-08-21 양지윤 수치 데이터에 의해 조인트의 상태가 표시되는 컴퓨터를이용한 해석 및 설계용 그래픽 표시장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009659A (ko) * 2016-07-19 2018-01-29 주식회사 넥슨코리아 3d 캐릭터 움직임 처리 장치 및 3d 캐릭터 움직임 처리 방법
KR102560423B1 (ko) * 2016-07-19 2023-07-26 주식회사 넥슨코리아 3d 캐릭터 움직임 처리 장치 및 3d 캐릭터 움직임 처리 방법

Similar Documents

Publication Publication Date Title
CN109939440B (zh) 三维游戏地图的生成方法、装置、处理器及终端
Chi et al. Research trends and opportunities of augmented reality applications in architecture, engineering, and construction
Wang Augmented reality in architecture and design: potentials and challenges for application
CN110163942B (zh) 一种图像数据处理方法和装置
AU2017213540B2 (en) 3d sculpting
US20100194778A1 (en) Projecting data dimensions on a visualization data set
Fiorentino et al. Design review of CAD assemblies using bimanual natural interface
Wang et al. A user-centered taxonomy for specifying mixed reality systems for aec industry
US11475617B2 (en) Path-constrained drawing with visual properties based on drawing tool
Eiriksson et al. Augmented reality interfaces for additive manufacturing
CN114138106B (zh) 混合虚拟现实桌面计算环境中的状态之间的转换
KR101523328B1 (ko) 3차원 애니메이션 캐릭터에 대한 포즈 라이브러리 제공 방법, 이를 수행하는 포즈 라이브러리 제공 장치 및 이를 저장한 기록매체
Caldas et al. Design immersion and virtual presence
Rodriguez-Conde et al. Towards customer-centric additive manufacturing: making human-centered 3D design tools through a handheld-based multi-touch user interface
US11062523B2 (en) Creation authoring point tool utility to recreate equipment
KR20180058895A (ko) 스마트 기기와 연동하는 증강현실 시스템 및 이를 이용한 증간현실 구현 방법
KR101420818B1 (ko) 애니메이션 오브젝트의 관절 제어를 통한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체
Belkacem et al. Interactive Visualization on Large High‐Resolution Displays: A Survey
Yu et al. Geometry-aware Interactive AR Authoring using a Smartphone in a wearable AR Environment
Schubert et al. From physical to virtual: Real-time immersive visualisations from an architect's working model
US9472024B2 (en) Computer-implemented method for designing a three-dimensional modeled object
GB2555521A (en) Improved object painting through use of perspectives or transfers in a digital medium environment
KR101420820B1 (ko) 처리 속도 개선을 위한 3차원 애니메이션 구현 방법, 이를 수행하는 3차원 애니메이션 구현 장치 및 이를 저장한 기록매체
Zou et al. Stylus and Gesture Asymmetric Interaction for Fast and Precise Sketching in Virtual Reality
Psarras et al. SandBOX-an intuitive conceptual design system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180710

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190710

Year of fee payment: 6