KR102488877B1 - 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치 - Google Patents

모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치 Download PDF

Info

Publication number
KR102488877B1
KR102488877B1 KR1020210173817A KR20210173817A KR102488877B1 KR 102488877 B1 KR102488877 B1 KR 102488877B1 KR 1020210173817 A KR1020210173817 A KR 1020210173817A KR 20210173817 A KR20210173817 A KR 20210173817A KR 102488877 B1 KR102488877 B1 KR 102488877B1
Authority
KR
South Korea
Prior art keywords
model
joint
joints
facial
vertices
Prior art date
Application number
KR1020210173817A
Other languages
English (en)
Inventor
박재욱
Original Assignee
(주)이브이알스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이브이알스튜디오 filed Critical (주)이브이알스튜디오
Priority to KR1020210173817A priority Critical patent/KR102488877B1/ko
Application granted granted Critical
Publication of KR102488877B1 publication Critical patent/KR102488877B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 실시예에 따른 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치가 제공된다. 제어부에 의해서 수행되는 모델 기반 3차원 그래픽 인터페이스 방법은, 모델을 구성하는 복수의 얼굴 영역 각각에 대응하여 조인트(Joint)를 생성하는 단계; 상기 생성된 조인트와 상기 복수의 얼굴 영역 각각을 연결하는 단계; 및 얼굴 표정을 나타내기 위해 복수의 얼굴 영역 중 적어도 일부를 움직이고, 적어도 일부의 얼굴 영역의 움직임에 따라 함께 움직이는 조인트의 움직임 변화 값을 기록하는 단계를 포함한다.

Description

모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치{METHOD FOR THREE DIMENSIONAL GRAPHIC INTERFACE BASED MODEL AND THREE DIMENSIONAL GRAPHIC INTERFACE DEVICE THEREFOR}
본 발명은 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치에 관한 것이다.
일반적으로 3차원 그래픽 기술은 현실감 있는 모델을 생성하여 이를 시각화하는 기술로, 방송, 게임, 영화, 및 의료 등 다양한 분야에서 이용된다. 이러한 모델은 3차원 모델링 소프트웨어 또는 애플리케이션 등과 같은 3차원 그래픽 툴을 이용하여 사용자에 의해 디자인된다. 최근 그래픽 분야에서는 사람을 사실적이고, 현실감 있게 모델로 표현하면서 모델 기반 애니메이션을 제작하는데 소요되는 시간 및 리소스를 줄이기 위한 다양한 방법을 개발하고 있다.
특히, 사용자는 모델에 사람의 얼굴 표정 각각에 대응하는 몰프 타겟(Morph Target, Blend Shape Target)을 단독으로 이용하거나, 시뮬레이션으로 사람을 모델링한 모델의 다양한 얼굴 표정을 나타내는 애니메이션을 생성할 수 있다.
본 발명의 발명자들은 자연스러운 얼굴 표정을 구현하기 위해 다수개의 몰프 타켓을 이용하거나, 시뮬레이션으로 생성되는 경우, 생성된 얼굴 애니메이션은 데이터 용량이 매우 커지게 된다는 사실을 인식하였다.
또한, 본 발명의 발명자들은 데이터 용량이 큰 애니메이션을 실행하는데 있어서 리소스가 많이 소요되고, 애니메이션을 실시간으로 실행해야 하는 환경에서는 이용하기 어렵다는 문제점이 있다는 사실을 인식하였다.
이에, 본 발명이 해결하고자 하는 과제는 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치를 제공하는 것이다.
구체적으로, 본 발명이 해결하고자 하는 과제는 최소화된 데이터 용량의 애니메이션을 생성할 수 있는 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치를 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 과제는 생성된 애니메이션이 실시간 환경에서도 용이하게 실행될 수 있는 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치를 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위하여 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치가 제공된다.
본 발명의 실시예에 따라 제어부에 의해서 수행되는 모델 기반 모델 기반 3차원 그래픽 인터페이스 방법은, 모델을 구성하는 복수의 얼굴 영역 각각에 대응하여 조인트(Joint)를 생성하는 단계; 생성된 조인트와 복수의 얼굴 영역 각각을 연결하는 단계; 및 얼굴 표정을 나타내기 위해 복수의 얼굴 영역 중 적어도 일부를 움직이고, 적어도 일부의 얼굴 영역의 움직임에 따라 함께 움직이는 조인트의 움직임 변화 값을 기록하는 단계를 포함한다.
본 발명의 실시예에 따른 모델 기반 3차원 그래픽 인터페이스 방법은, 모델에 대응하여 서로 연결된 조인트와 복수의 얼굴 영역 각각을 연결 해제하는 단계; 및 기록된 움직임 변화값에 기반하여 모델과 연결 해제된 조인트를 바인드 스킨(bind skin)하는 단계를 더 포함한다.
본 발명의 실시예에 따른 모델 기반 3차원 그래픽 인터페이스 방법은, 복수의 얼굴 영역 각각에 대응하여 새로운 조인트를 생성하는 단계; 모델과 생성된 새로운 조인트를 바인드 스킨하는 단계; 및 기록된 움직임 변화 값을 새로운 조인트에 적용하는 단계를 더 포함한다.
본 발명의 실시예에 따른 모델 기반 3차원 그래픽 인터페이스 방법은, 상기 얼굴 표정을 나타내기 위해 복수의 몰프 타겟이 이용될 수 있다.
본 발명의 실시예에 따라 모델 기반 3차원 그래픽 인터페이스 방법은, 바인드 스킨 이후에 상기 복수의 몰프 타겟이 삭제되는 단계를 더 포함한다.
본 발명의 실시예에 따른 조인트와 얼굴 영역을 연결하는 단계는, 얼굴 영역을 구성하는 복수의 버텍스(vertex) 중 조인트에 의해 움직일 수 있는 적어도 얼굴 영역을 설정하는 단계를 의미한다.
본 발명의 실시예에 따른 3차원 그래픽 인터페이스 장치는, 복수의 얼굴 표정 각각에 대응하는 조인트 움직임 값들을 저장하도록 구성되는 저장부; 및 저장부와 연결되어 애니메이션을 생성하도록 구성되는 제어부를 포함한다. 이러한 제어부는, 모델을 구성하는 복수의 얼굴 영역 각각에 대응하여 조인트(Joint)를 생성하고, 생성된 조인트와 복수의 얼굴 영역 각각을 연결하고, 얼굴 표정을 나타내기 위해 상기 복수의 얼굴 영역 중 적어도 일부를 움직이고, 적어도 일부의 얼굴 영역의 움직임에 따라 함께 움직이는 조인트의 움직임 변화 값을 기록하도록 구성된다.
본 발명의 실시예에 따른 제어부는, 모델에 대응하여 서로 연결된 조인트와 복수의 얼굴 영역 각각을 연결 해제하고, 모델과 연결 해제된 조인트를 바인드 스킨하도록 구성된다.
본 발명의 실시예에 따른 제어부는, 복수의 얼굴 영역 각각에 대응하여 새로운 조인트를 생성하고, 모델과 상기 생성된 새로운 조인트를 바인드 스킨하고, 새로운 조인트에 상기 기록된 움직임 변화 값을 적용하도록 구성된다.
본 발명의 실시예에 따른 제어부는, 복수의 몰프 타겟을 이용하여 얼굴 표정을 생성하도록 구성된다.
본 발명의 실시예에 따른 제어부는, 바인드 스킨 이후에 복수의 몰프 타겟을 삭제하도록 구성된다.
본 발명의 실시예에 따른 제어부는, 조인트와 얼굴 영역을 연결하기 위해 얼굴 영역을 구성하는 복수의 버텍스 중 조인트에 의해 움직일 수 있는 적어도 얼굴 영역을 설정하도록 구성된다.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명은 얼굴 표정을 나타내도록 움직이는 복수의 얼굴 영역 각각에 연결되어 함께 움직이는 적어도 하나의 조인트의 움직임 변화값을 저장하고, 저장된 조인트 움직임 변화값을 이용함으로써, 생성된 애니메이션의 데이터 용량을 최소화하고, 애니메이션 실행을 위해 소요되는 리소스 및 계산량을 최소화할 수 있다.
또한 본 발명은 자연스러운 얼굴 표정을 표현하기 위해 다수개의 몰프 타겟을 이용하지 않더라도 기 저장된 조인트 움직임 값을 이용하여 얼굴 표정을 세심하게 표현할 수 있으므로, 제작되는 애니메이션 데이터의 용량을 최소화할 수 있다.
또한 본 발명은 데이터 처리 속도가 빨라지므로 실시간 환경에서 애니메이션을 용이하게 실행할 수 있다.
본 발명에 따른 효과는 이상에서 예시한 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1은 본 발명의 실시예에 따른 모델 기반 애니메이션을 생성하기 위한 3차원 그래픽 인터페이스 장치를 설명하기 위한 개략도이다.
도 2는 본 발명의 실시예에 따른 모델에 조인트를 생성하는 동작을 설명하기 위한 예시도이다.
도 3은 본 발명의 실시예에 따라 조인트의 움직임 변화값을 저장하는 동작을 설명하기 위한 예시도이다.
도 4는 본 발명의 실시예에 따라 기록된 움직임 변화값을 적용하는 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 실시예에 따라 기록된 움직임 변화값을 적용하는 또 다른 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 실시예에 따른 애니메이션을 생성하기 위한 방법을 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이하, 본 명세서에서 제시되는 개시들의 이해를 돕고자, 본 명세서에서 사용되는 용어들에 대하여 간략하게 정리하기로 한다.
본 명세서에서 FACTS(Facial Action Coding System)는 사람의 해부학적 얼굴 근육을 기반으로 사람의 얼굴 표정을 분석하는 방법으로서, 단위 표정(Action Unit) 및 얼굴 행동 설명자(facial action descriptors)로 구성된다.
본 명세서에서 단위 표정(Action Unit)은 개별 얼굴 근육 또는 복수의 얼굴 근육의 조합에 의해 형성되는 표정의 기본 단위를 의미한다. 얼굴 표정은 단위 표정 단독으로 또는 둘 이상의 단위 표정의 조합에 의해 이루어질 수 있다.
본 명세서에서 몰핑(Morphing, Blend Shape)은 기본 표정 모델(예: 무표정)과 다른 표정의 모델 간의 선형 보간 등을 통해 새로운 표정의 형상을 생성할 수 있는 기술을 의미한다.
본 명세서에서 지오메트리(Geometry)는 점(버텍스(vertex)), 선, 및 면(폴리곤(polygon))을 이용하여 3차원 모델링을 통해 만들어진 3차원 면인 메쉬(Mesh)로 표현된 3차원 모델을 의미한다.
본 명세서에서 모델은 지오메트리로 이루어진 머리 객체를 의미한다. 이 모델은 기본 표정, 혹은 FACS 상의 각 얼굴 표정 모습을 하고 있다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 모델 기반 애니메이션을 생성하기 위한 3차원 그래픽 인터페이스 장치를 설명하기 위한 개략도이다.
도 1을 참조하면, 3차원 그래픽 인터페이스 장치(100)는 모델을 기반으로 하여 애니메이션을 생성하기 위한 3차원 그래픽 인터페이스를 제공하는 장치로서, PC(Personal Computer), 태블릿 PC(Tablet PC), 및/또는 노트북 등 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서 3차원 그래픽 인터페이스는 프로그램뿐만 아니라, 3차원 그래픽 툴(즉, DCC 툴)에 적용 가능한 플러그인(plug-in) 및 애드온(add-on), 애플리케이션, 웹 브라우저 또는 위젯 등으로 제공될 수 있으나, 이에 한정되지 않는다.
3차원 그래픽 인터페이스 장치(100)는 모델을 기반으로 애니메이션을 생성하기 위한 다양한 인터페이스 화면을 제공할 수 있으며, 다양한 인터페이스 화면은 DCC 툴에 관련된 인터페이스 화면일 수 있다. 예를 들어, 애니메이션을 생성하기 위한 인터페이스 화면은 DCC 툴에 적용된 플러그인 및 애드온에 관련된 인터페이스 화면일 수 있다.
구체적으로, 3차원 그래픽 인터페이스 장치(100)는 통신부(110), 입력부(120), 표시부(130), 저장부(140) 및 제어부(150)를 포함한다.
통신부(110)는 3차원 그래픽 인터페이스 장치(100)가 유/무선 통신을 이용하여 외부 장치와 통신이 가능하도록 연결한다.
입력부(120)는 3차원 그래픽 인터페이스 장치(100)의 구성요소(예: 제어부(150))에 사용될 명령 또는 데이터를 3차원 그래픽 인터페이스 장치(100)의 외부(예: 사용자)로부터 수신할 수 있는 마우스 또는 키보드를 포함할 수 있다.
표시부(130)는 사용자에게 각종 콘텐츠를 표시할 수 있다. 예를 들어, 표시부(130)는 모델을 기반으로 애니메이션을 생성하기 위한 다양한 인터페이스 화면을 표시할 수 있다.
저장부(140)는 애니메이션을 생성하기 위해 사용되는 다양한 데이터를 저장할 수 있다. 구체적으로, 제어부(140)는 얼굴 표정을 나타내는 적어도 하나의 얼굴 영역의 움직임에 따라 함께 움직이는 조인트의 움직임 변화값을 저장한다. 여기서, 조인트의 움직임 변화값은 적어도 하나의 얼굴 표정을 나타내는 복수의 얼굴 영역의 움직임 변화에 기반하여 복수의 얼굴 영역 각각에 연결된 적어도 하나의 조인트가 움직이는 위치의 변화값을 의미할 수 있다.
다양한 실시예에서 저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 3차원 그래픽 인터페이스 장치(100)는 인터넷(internet)상에서 상기 저장부(140)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
제어부(150)는 통신부(110), 입력부(120), 저장부(130), 및 표시부(140)와 동작 가능하게 연결되며, 모델을 기반으로 얼굴 표정을 나타내는 애니메이션을 생성하기 위한 다양한 명령들을 수행할 수 있다.
일반적으로, 모델을 기반으로 하는 애니메이션은 사용자가 DCC 툴을 이용하여 제작할 수 있다. 이와 같이 제작된 애니메이션은 모델을 이루는 점, 선 및 면 등이 제작자가 원하는 얼굴 표정을 나타내기 위해 움직이도록 구현될 수 있다. 이러한 애니메이션은 게임 엔진에서 실행 가능한 포맷으로 변환되어 게임 엔진으로 전달되고, 게임 엔진에서 애니메이션이 실행될 수 있다.
이와 같이 얼굴 표정에 관한 애니메이션은 자연스러운 얼굴 표정을 구현하기 위해 다수개의 몰프 타겟들을 이용하여 생성되거나, 시뮬레이션으로 생성되므로, 생성된 얼굴 애니메이션은 데이터 용량이 매우 커지게 된다.
이에, 데이터 용량이 큰 애니메이션을 실행하는데 있어서 리소스가 많이 소요되고, 게임 등과 같이 애니메이션을 실시간으로 실행해야 하는 환경에서는 데이터 용량이 큰 애니메이션을 실행하기 어렵다는 문제점이 있다.
이에, 제작된 애니메이션 데이터의 용량을 최소화하기 위해 본 발명의 실시예에 따른 3차원 그래픽 인터페이스 장치(100)의 제어부(150)는 얼굴 표정을 나타내도록 움직이는 복수의 얼굴 영역(즉, 메쉬 영역) 각각에 연결되어 함께 움직이는 적어도 하나의 조인트의 움직임 변화값을 저장하고, 저장된 조인트 움직임 변화값을 이용할 수 있다.
하기에서는 상술한 제어부(150)의 동작에 대해서 도 2 내지 도 5를 참조하여 구체적으로 설명하도록 한다.
도 2 내지 도 5는 본 발명의 실시예에 따른 조인트 움직임 변화값을 저장하는 동작을 설명하기 위한 예시도들이다. 제시된 실시예에서 하기의 동작들은 사용자의 요청에 따라 DCC 툴(200)에 의해서 이루어질 수 있다.
제어부(150)는 DCC 툴(200)에 대한 인터페이스 화면을 표시부(130)를 통해 표시하고, 인터페이스 화면을 통해 모델을 생성하기 위한 동작을 수행할 수 있다.
제어부(150)는 사용자의 조작에 의해 모델링 및 텍스처링을 수행하여 모델(300)을 생성한다. 여기서, 생성된 모델(300)은 실제 사람의 얼굴 근육의 구조에 따라 점(버텍스), 선 및 면으로 이루어진 복수의 메쉬의 세트로서 표현될 수 있다. 다양한 실시예에서 모델은 실제 사람이 아닌 사용자에 의해서 가상적으로 만들어진 대상의 얼굴일 수 있으나, 이에 한정되지 않는다.
도 2는 본 발명의 실시예에 따른 모델에 조인트를 생성하는 동작을 설명하기 위한 예시도이다.
도 2를 참조하면, 제어부(150)는 생성된 모델의 복수의 얼굴 영역 각각에 대응하여 적어도 하나의 조인트(202)를 생성하고, 각 얼굴 영역과 해당 얼굴 영역에 의해 움직일 수 있는 조인트(202)를 연결한다. 여기서, 얼굴 영역은 적어도 하나의 메쉬로 구성될 수 있으나, 이에 한정되지 않는다.
구체적으로, 제어부(150)는 복수의 얼굴 영역 각각을 구성하는 복수의 버텍스 중 적어도 하나에 대하여 조인트를 생성할 수 있다.
예를 들어, 하나의 얼굴 영역이 3개의 버텍스를 포함하면 3개의 버텍스 각각에 대응하여 조인트가 생성되거나, 3개의 버텍스 중 2개의 버텍스 각각에 조인트가 생성되거나, 3개의 버텍스 중 1개의 버텍스에 조인트가 생성될 수 있다. 다만, 복수의 얼굴 영역 중 인접하는 얼굴 영역에 의해 중첩되는 버텍스는 하나의 조인트가 생성될 수 있으며, 이에 한정되지 않는다.
제어부(150)는 각 버텍스와, 해당 버텍스의 움직임 변화에 따라 움직임이 함께 변화될 수 있는 조인트를 서로 연결할 수 있다. 다시 말해서, 제어부(150)는 각 버텍스의 위치가 변경됨에 따라 함께 움직일 수 있는 조인트를 연결할 수 있다. 예를 들어, 제어부(150)는 도면부호 204와 같이 Vertex 1과 Vertex 1에 대응하여 생성된 Joint 1을 서로 연결하고, Vertex 2와 Vertex 2에 대응하여 생성된 Joint 2를 서로 연결할 수 있다.
도 3은 본 발명의 실시예에 따라 조인트의 움직임 변화값을 저장하는 동작을 설명하기 위한 예시도이다.
도 3을 참조하면, 제어부(150)는 얼굴 표정을 나타내도록 복수의 얼굴 영역 중 적어도 일부를 움직이고, 움직이는 적어도 일부의 얼굴 영역에 따라 함께 움직이는 조인트의 움직임 변화값을 기록한다. 이러한 동작은 모델을 이루는 복수의 얼굴 영역 전체에 대해서 수행될 수 있다. 각 조인트의 움직임 변화값은 저장부(140)에 저장된다.
얼굴 표정은 복수의 몰프 타겟을 이용하여 표현될 수 있으나, 이에 한정되지 않으며, 얼굴 표정을 나타내기 위한 다양한 방식이 이용될 수 있다. 제시된 실시예에서는 얼굴 표정이 복수의 몰프 타겟을 이용한 것으로 가정한다.
예를 들어, 얼굴 표정을 나타내도록 복수의 얼굴 영역 중 적어도 일부가 움직이면 도 3과 같이 Vertex 1은 좌표 (0, 0, 0)에서 좌표 (3, 5, 1)로 움직이고, Vertex 1에 대응하여 연결된 Joint 1 또한 좌표 (0, 0, 0)에서 좌표 (3, 5, 1)로 움직일 수 있다. 제어부(150)는 이와 같이 Vertex 1의 움직임에 따라 함께 움직인 Joint 1의 움직임 변화값((0, 0, 0)에서 (3, 5, 1)로의 변화)를 기록한다.
구체적으로, 제어부(150)는 Vertex 1의 움직임에 따라 Joint 1의 변경된 위치 좌표(3, 5, 1)을 조인트의 움직임 변화값으로써 저장할 수 있다. 제시된 실시예에서는 이해가 쉽도록 조인트의 움직임 변화값을 위치 좌표로 저장하는 것으로 설명하였으나, 이에 한정되지 않으며, 조인트의 움직임 변화값은 다양한 포맷 형식으로 저장될 수 있다.
이러한 제어부(150)의 저장 동작은 모델을 이루는 Vertex 1 ~ Vertex n에 대응하여 연결된 Joint 1 ~ Joint n에 대해서 수행될 수 있다(n은 모델을 이루는 전체 버텍스에 대응하여 연결된 전체 조인트의 수이다.).
도 4는 본 발명의 실시예에 따라 기록된 움직임 변화값을 적용하는 방법을 설명하기 위한 예시도이다.
도 4를 참조하면, 제어부(150)는 조인트(402)가 연결된 모델(400)에서 해당 조인트(402)와의 연결을 해제한다(410). 예를 들어, 모델(400)에 대하여 Vertex 1과 Joint 1이 연결된 경우 제어부(150)는 Vertex 1과 Joint 1 간의 연결을 해제할 수 있다. 이러한 동작은 모델에 관련하여 연결된 조인트 전체에 대해서 수행된다.
이어서, 제어부(150)는 기록된 조인트 움직임 변화값에 기반하여 모델과 기존의 조인트(즉, 연결 해제된 조인트)를 바인드 스킨(bind skin)한다(420). 여기서, 바인드 스킨은 조인트의 움직임에 따라 모델의 형태가 움직이도록 설정하는 동작을 의미한다. 다시 말해서, 제어부(150)는 모델을 구성하는 복수의 얼굴 영역 각각에 대응하는 조인트가 기록된 움직임 변화값에 따라 움직이도록 설정할 수 있다. 예를 들어, 제어부(150)는 Joint 1 ~ Joint n 각각의 움직임 변화값에 따라 모델을 이루는 Vertex 1 ~ Vertex n 각각이 움직이도록 설정할 수 있다.
도 5는 본 발명의 실시예에 따라 기록된 움직임 변화값을 적용하는 또 다른 방법을 설명하기 위한 예시도이다.
도 5를 참조하면, 제어부(150)는 기존의 모델(500)에 각 얼굴 영역에 대응하는 새로운 조인트(502)를 생성한다. 구체적으로, 제어부(150)는 각 얼굴 영역에 대응하여 도 2에서 설명한 바와 같은 조인트와 동일한 위치에 새로운 조인트를 생성할 수 있다.
이어서, 제어부(150)는 모델과 새로 생성된 조인트를 바인드 스킨하고(510), 기록된 움직임 변화값을 새로 생성된 조인트에 적용한다(520). 다시 말해서, 제어부(150)는 모델을 이루는 각 얼굴 영역이 새로 생성된 조인트의 움직임에 따라 움직이도록 설정하고, 새로 생성된 조인트가 (해당 위치에 있었던 조인트(즉, 도 2의 조인트(202))의) 기록된 조인트 움직임 변화값을 갖도록 설정할 수 있다.
이를 이용하여 생성된 얼굴 애니메이션은 복수의 몰프 타겟을 이용하여 만들어진 얼굴 애니메이션이나 시뮬레이션으로 만들어진 얼굴 애니메이션에 비해 데이터 용량이 매우 작기 때문에, 애니메이션 실행을 위해 소요되는 리소스 및 계산량이 줄어들고, 실시간 환경에서도 얼굴 애니메이션을 용이하게 실행할 수 있다.
다양한 실시예에서 복수의 몰프 타겟을 이용하여 만들어진 애니메이션의 경우 제어부(150)는 이를 위해 저장된 복수의 몰프 타겟을 삭제함으로써, 애니메이션의 데이터 용량을 최소화하면서 계산량 또한 줄일 수 있다.
예를 들어, 기존 몰핑 기반으로 만들어진 페이셜 리그에서 얼굴 모델 하나에 1만개의 버텍스를 사용하고 100개의 몰프 타겟을 가지고 있다고 하였을 때 각 프레임당 100만개의 버텍스 위치를 연산해야 하나, 이를 100개의 조인트 애니메이션으로 베이크 할 경우에는 프레임당 100개의 조인트 위치에 대한 연산만 필요하다. 사실적인 페이셜 리그에서는 얼굴 모델 하나에 수만개의 버텍스를 사용하고, 몰프 타겟 또한 수백개에서 수천개를 사용하므로 본 발명에 의해 줄일 수 있는 계산양과 데이터 용량은 매우 크다 할 수 있다.
도 6은 본 발명의 실시예에 따른 애니메이션을 생성하기 위한 방법을 설명하기 위한 흐름도이다.
도 6을 참조하면, 제어부(150)는 모델을 구성하는 복수의 얼굴 영역 각각에 대응하여 조인트를 생성하고(S600), 생성된 조인트와 복수의 얼굴 영역 각각을 연결한다(S610). 구체적으로, 제어부(150)는 모델링 및 텍스쳐링을 통해 모델을 생성하고, 생성된 모델의 복수의 얼굴 영역 각각을 이루는 버텍스 중 적어도 하나에 대응하여 조인트를 생성한다. 제어부(150)는 각 버텍스와, 해당 버텍스가 이동할 때 함께 이동 가능하도록 조인트를 연결한다.
이어서, 제어부(150)는 얼굴 표정을 나타내기 위해 복수의 얼굴 영역 중 적어도 일부를 움직이고, 적어도 일부의 얼굴 영역의 움직임에 따라 함께 움직이는 조인트의 움직임 변화값을 기록한다(S620). 구체적으로, 제어부(150)는 복수의 얼굴 영역 각각을 구성하는 복수의 버텍스 중 적어도 일부를 움직여 해당 적어도 일부의 버텍스에 연결된 조인트가 움직이는 변화값을 기록한다. 이러한 동작은 모델에 생성된 조인트 전체에 대해서 수행될 수 있다.
이를 통해, 본 발명은 생성된 애니메이션의 용량을 최소화하여 애니메이션 실행에 소요되는 리소스 및 계산량을 줄이면서 애니메이션이 실시간 환경에서 용이하게 실행되도록 할 수 있다.
본 발명의 실시예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 3차원 그래픽 인터페이스 장치
110: 통신부
120: 입력부
130: 표시부
140: 저장부
150: 제어부

Claims (12)

  1. 제어부에 의해서 수행되는 모델 기반 3차원 그래픽 인터페이스 방법에 있어서,
    모델을 구성하는 복수의 얼굴 영역 각각에서, 얼굴 영역 별로 얼굴 근육에 대응하여 표현된 복수의 버텍스(vertex) 중 적어도 하나의 버텍스에 대응하여 조인트(Joint)를 생성하되, 상기 복수의 얼굴 영역 중 인접하는 얼굴 영역에 의해 중첩되는 버텍스는 하나의 조인트만을 생성하는 단계;
    상기 복수의 얼굴 영역에 대응하여 생성된 복수의 조인트와, 상기 복수의 얼굴 영역을 구성하는 상기 복수의 버텍스 중 상기 복수의 조인트에 의해 움직일 수 있는 버텍스 각각을 연결하는 단계;
    복수의 몰프 타겟을 이용하여 표현된 어느 하나의 얼굴 표정에서 다른 얼굴 표정으로의 변화에 따른 얼굴 표정을 나타내기 위해 상기 복수의 얼굴 영역 중 적어도 일부에 해당하는 얼굴 근육을 움직여 일부 버텍스들의 위치를 변경하고, 상기 적어도 일부의 얼굴 근육의 움직임에 따라 함께 움직이는 조인트의 움직임 변화 값을, 상기 일부 버텍스들의 위치 변화 값에 대응하도록 기록하는 단계;
    상기 모델에 대응하여 서로 연결된 복수의 조인트가 상기 모델을 구성하는 상기 복수의 버텍스에 의해 움직이지 않도록, 상기 복수의 조인트와 상기 복수의 얼굴 영역 각각과의 연결 해제하는 단계;
    상기 기록된 움직임 변화 값에 기반하여, 상기 복수의 조인트의 움직임에 따라 상기 모델의 형태가 움직이도록 상기 모델과 상기 연결 해제된 조인트를 바인드 스킨(bind skin)하는 단계;
    상기 모델을 구성하는 상기 복수의 몰프 타겟을 삭제하는 단계;
    상기 복수의 조인트 각각에 기록된 조인트 움직임 변화 값을 기초로 하여 상기 모델을 새로운 얼굴 표정으로 변화시키기 위한 새로운 조인트 움직임 변화 값을 실시간으로 생성하고, 생성된 조인트 움직임 변화 값을 기초로 실시간으로 새로운 얼굴 표정을 생성하는 단계; 를 포함하는, 모델 기반 3차원 그래픽 인터페이스 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 복수의 얼굴 영역 각각에 대응하여 새로운 조인트를 생성하는 단계;
    상기 모델과 상기 생성된 새로운 조인트를 바인드 스킨하는 단계; 및
    상기 기록된 움직임 변화 값을 상기 새로운 조인트에 적용하는 단계를 더 포함하는, 모델 기반 3차원 그래픽 인터페이스 방법.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 복수의 얼굴 표정 각각에 대응하는 조인트 움직임 값들을 저장하도록 구성되는 저장부; 및
    상기 저장부와 연결되어 애니메이션을 생성하도록 구성되는 제어부를 포함하고,
    상기 제어부는,
    모델을 구성하는 복수의 얼굴 영역 각각에서, 얼굴 영역 별로 얼굴 근육에 대응하여 표현된 복수의 버텍스(vertex) 중 적어도 하나의 버텍스에 대응하여 조인트(Joint)를 생성하되, 상기 복수의 얼굴 영역 중 인접하는 얼굴 영역에 의해 중첩되는 버텍스는 하나의 조인트만을 생성하고,
    상기 복수의 얼굴 영역에 대응하여 생성된 복수의 조인트와, 상기 복수의 얼굴 영역을 구성하는 상기 복수의 버텍스 중 상기 복수의 조인트에 의해 움직일 수 있는 버텍스 각각을 연결하고,
    복수의 몰프 타겟을 이용하여 표현된 어느 하나의 얼굴 표정에서 다른 얼굴 표정으로의 변화에 따른 얼굴 표정을 나타내기 위해 상기 복수의 얼굴 영역 중 적어도 일부에 해당하는 얼굴 근육을 움직여 일부 버텍스들의 위치를 변경하고, 상기 적어도 일부의 얼굴 근육의 움직임에 따라 함께 움직이는 조인트의 움직임 변화 값을, 상기 일부 버텍스들의 위치 변화 값에 대응하도록 기록하고,
    상기 모델에 대응하여 서로 연결된 복수의 조인트가 상기 모델을 구성하는 상기 복수의 버텍스에 의해 움직이지 않도록, 상기 복수의 조인트와 상기 복수의 얼굴 영역 각각과의 연결 해제하고,
    상기 기록된 움직임 변화 값에 기반하여, 상기 복수의 조인트의 움직임에 따라 상기 모델의 형태가 움직이도록 상기 모델과 상기 연결 해제된 조인트를 바인드 스킨(bind skin)하고,
    상기 모델을 구성하는 상기 복수의 몰프 타겟을 삭제하고,
    상기 복수의 조인트 각각에 기록된 조인트 움직임 변화 값을 기초로 하여 상기 모델을 새로운 얼굴 표정으로 변화시키기 위한 새로운 조인트 움직임 변화 값을 실시간으로 생성하고, 생성된 조인트 움직임 변화 값을 기초로 실시간으로 새로운 얼굴 표정을 생성하도록 구성되는, 3차원 그래픽 인터페이스 장치.
  8. 삭제
  9. 제7항에 있어서, 상기 제어부는,
    상기 복수의 얼굴 영역 각각에 대응하여 새로운 조인트를 생성하고, 상기 모델과 상기 생성된 새로운 조인트를 바인드 스킨하고, 상기 새로운 조인트에 상기 기록된 움직임 변화 값을 적용하도록 구성되는, 3차원 그래픽 인터페이스 장치.
  10. 삭제
  11. 삭제
  12. 삭제
KR1020210173817A 2021-12-07 2021-12-07 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치 KR102488877B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210173817A KR102488877B1 (ko) 2021-12-07 2021-12-07 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210173817A KR102488877B1 (ko) 2021-12-07 2021-12-07 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치

Publications (1)

Publication Number Publication Date
KR102488877B1 true KR102488877B1 (ko) 2023-01-18

Family

ID=85106606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210173817A KR102488877B1 (ko) 2021-12-07 2021-12-07 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치

Country Status (1)

Country Link
KR (1) KR102488877B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
KR20200056764A (ko) * 2018-11-15 2020-05-25 주식회사 스튜디오매크로그래프 3d얼굴 모델의 얼굴 애니메이션을 생성하기 위한 조인트 자동 셋업 방법과 컴퓨터 프로그램
KR20210052380A (ko) * 2020-11-17 2021-05-10 넷마블 주식회사 애니메이션 생성 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
KR20200056764A (ko) * 2018-11-15 2020-05-25 주식회사 스튜디오매크로그래프 3d얼굴 모델의 얼굴 애니메이션을 생성하기 위한 조인트 자동 셋업 방법과 컴퓨터 프로그램
KR20210052380A (ko) * 2020-11-17 2021-05-10 넷마블 주식회사 애니메이션 생성 방법

Similar Documents

Publication Publication Date Title
US8749588B2 (en) Positioning labels in an engineering drawing
Wang et al. VR‐embedded BIM immersive system for QS engineering education
Lau et al. Precomputed search trees: Planning for interactive goal-driven animation
US20070130212A1 (en) Haptic authoring
US10803647B1 (en) Generating animation rigs using scriptable reference modules
KR102027594B1 (ko) 컴퓨터 지원 설계 시스템의 3차원 장면에서 오브젝트들의 어셈블리를 동적으로 조작하기 위한 방법 및 시스템
Jin et al. Interactive control of large-crowd navigation in virtual environments using vector fields
CN102682150B (zh) 设计导航场景
Lee et al. Modeling virtual object behavior within virtual environment
EP2911072B1 (en) Designing a physical system constrained by equations
Dörner et al. Content creation and authoring challenges for virtual environments: from user interfaces to autonomous virtual characters
US8358311B1 (en) Interpolation between model poses using inverse kinematics
Victoria et al. liteITD a MATLAB Graphical User Interface (GUI) program for topology design of continuum structures
El Nimr et al. Application of gaming engines in simulation driven visualization of construction operations
Roach et al. Computer aided drafting virtual reality interface
KR102488877B1 (ko) 모델 기반 3차원 그래픽 인터페이스 방법 및 이를 위한 3차원 그래픽 인터페이스 장치
Zhang et al. Shadow-driven 4d haptic visualization
EP4181072A1 (en) Method of generating facial expression and threee-dimensional (3d) graphic interface device using the same
Kamarianakis et al. Deform, cut and tear a skinned model using conformal geometric algebra
Savov et al. Constructing Building Layouts and Mass Models with Hand Gestures in Multiple Mixed Reality Modes
Miyahara et al. Collada-based file format for various attributes of realistic objects in networked VR applications supporting various peripherals
Sobota et al. On building an object-oriented parallel virtual reality system
KR102506506B1 (ko) 얼굴 표정을 생성하기 위한 방법 및 이를 이용하는 3차원 그래픽 인터페이스 장치
KR102587198B1 (ko) 조인트 기반 페이셜 리그를 생성하기 위한 방법 및 이를 위한 장치
Conesa et al. An agent-based paradigm for virtual modeling

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant