KR101837294B1 - 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치 - Google Patents

생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치 Download PDF

Info

Publication number
KR101837294B1
KR101837294B1 KR1020160116770A KR20160116770A KR101837294B1 KR 101837294 B1 KR101837294 B1 KR 101837294B1 KR 1020160116770 A KR1020160116770 A KR 1020160116770A KR 20160116770 A KR20160116770 A KR 20160116770A KR 101837294 B1 KR101837294 B1 KR 101837294B1
Authority
KR
South Korea
Prior art keywords
motion
observation
biomechanical
initial
root
Prior art date
Application number
KR1020160116770A
Other languages
English (en)
Inventor
노준용
한다성
홍석표
신성용
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160116770A priority Critical patent/KR101837294B1/ko
Application granted granted Critical
Publication of KR101837294B1 publication Critical patent/KR101837294B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 실시 예에 따른 동적 모션 제공 장치는, 요청된 동적 모션에 대응되는 초기 모션 정보를 획득하는 초기 모션 합성부; 상기 초기 모션 정보에 기초하여, 생체역학적 관찰 기반의 변환 처리를 수행하는 관찰기반 모션 변환부; 및 상기 변환 처리된 모션을 출력하는 출력부를 포함한다.

Description

생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치{A METHOD FOR PROVIDING LOCOMOTIVE MOTION IN REAL TIME BASED ON BIOMECHANICAL OBSERVATIONS}
본 발명은 동적 모션 제공 장치 및 그 방법에 관한 것이다. 보다 구체적으로, 본 발명은 생체역학적 관찰 기반의 실시간 동적 모션 변환 처리를 통한 모션 제공 방법 및 그 장치에 관한 것이다.
인간의 보행 동작을 자동으로 생성하는 연구는 그동안 활발히 수행되어 왔다. 특히, 최근 데이터 처리 기술의 발달로, 인체의 움직임을 데이터화하여 합성하는 데이터 기반 모션 재생방식이 대두되고 있다. 현재 이러한 방식은 행동 타입에 따른 인체 각 부위의 속도 및 회전각을 정확히 측정하고, 재생가능하게 변환할 것을 전제로 향후 온라인 방식으로 실시간에 합성된 인체 모션을 제공하는 인터페이스로 구현하는 것을 목표로 하고 있다.
이를 위해, 현재까지 모션 그래프를 이용한 데이터 기반 동작 생성 방법, 효과적인 모션 제어를 위한 강화 학습, 저차원 모션 공간 학습 기반의 복수의 모션 클립을 이용하여 생성하는 방법 등이 Levine 등에 의해 제안되고는 있으나 이는 데이터의 전처리를 필요로 하거나, 다수의 모션 클립을 요구하여, 실시간으로 처리하기에는 무리가 있는 문제점이 있다.
또한, 보다 자연스러운 모션 데이터화를 위해, 생체역학적 휴리스틱에 기반한 모션 궤적을 수정하는 방법이 Lockwood 와 Singh에 의해 제안되고는 있으나, 대화형 모션 편집에 특화되어 온라인 실시간 모션 제어를 다루기에는 적합하지 않은 문제점이 있다. 이에 따라, 사용자로부터 요청된 기본 모션을 자연스럽게 변환 수정하기 위해서는 현재까지 애니메이터와 같은 사람에 의해 직접(manually) 이루어지고 있는 실정이며 완전한 실시간 자동화를 구현하지는 못하고 있는 실정이다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 실시간으로 처리 가능하면서도, 자연스러운 모션 데이터를 생성할 수 있으며, 이에 따라 인체 동작의 온라인 실시간 생성 및 보다 풍부하고 자연스러운 퀄리티의 모션 제공이 자동적으로 처리 가능한 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치를 제공하는데 목적이 있다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 동적 모션 제공 장치에 있어서, 요청된 동적 모션에 대응되는 초기 모션 정보를 획득하는 초기 모션 합성부; 상기 초기 모션 정보에 기초하여, 생체역학적 관찰 기반의 변환 처리를 수행하는 관찰기반 모션 변환부; 및 상기 변환 처리된 모션을 출력하는 출력부를 포함한다.
또한, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 동적 모션 제공 방법에 있어서, 요청된 동적 모션에 대응되는 초기 모션 정보를 획득하는 단계; 상기 초기 모션 정보에 기초하여, 생체역학적 관찰 기반의 변환 처리를 수행하는 단계; 및 상기 변환 처리된 모션을 출력하는 단계를 포함한다.
본 발명의 실시 예에 따르면, 실시간 모션 합성 및 관찰기반 모션 변환을 통해 실시간으로 처리 가능하면서도, 자연스러운 모션 데이터를 생성할 수 있으며, 이에 따라 인체 동작의 온라인 실시간 생성 및 보다 풍부하고 자연스러운 퀄리티의 모션을 자동적으로 처리하여 제공할 수 있게 된다.
도 1은 본 발명의 실시 예에 따른 전체 시스템과 모션 제공 장치를 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 기본 동작 모션을 설명하기 위한 도면이다.
도 3 내지 도 15는 각각 본 발명의 실시 예에 따른 모션 변환의 테스트 결과를 설명하기 위한 도면들이다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 통상의 기술자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 따른 하드웨어도 포함될 수 있다.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시 예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 시스템은 모션 제공 장치(100)를 구성할 수 있으며, 온라인으로 요청된 동작 데이터에 기반하여, 실시간으로 생성되는 모션 정보를 출력할 수 있다. 이를 위해, 모션 변환 장치(100)는 기본 데이터 입력부(110), 초기 모션 합성부(120), 관찰기반 모션 변환부(130) 및 출력부(140)를 포함한다.
기본적으로, 본 발명의 실시 예에 따른 모션 제공 장치(100)는 기본적인 동적 모션을 생체역학 기반으로 실시간 변환하여, 같은 타입의 자연스러운 모션으로 출력할 수 있다.
예를 들어, 모션 제공 장치(100)는 기본 데이터 입력부(110)를 통해 특정 타입의 이동 속력(speed) 및 회전각을 포함하는 온라인 요청을 수신하고, 초기 모션 합성부(120)를 통해 온라인 요청으로부터 모션 그래프 기반의 기본 모션을 합성 추출하며, 관찰기반 모션 변환부(130)를 통해 생체역학적 관찰 기반의 동작 변형 방법에 기초하여 기본 모션을 적절한 이동 속력 및 회전각으로 변환하여, 출력부(140)를 통해 외부 모션 구현 장치 또는 디스플레이로 출력할 수 있다.
이를 위한 생체역학 관찰에 있어서, 기본적으로 인체의 모션의 질량중심(center of mass, COM)은 발과 지면 사이의 접지에 의해서 제어될 수 있다. 그리고, 질량중심의 움직임 속력 및 방향 변화에 따라 전방향(forward) 또는 횡방향(lateral)의 신체 기울기가 결정될 수 있다. 그리고, 신체의 회전은 속력이 감소하는 도중의 머리부터 골반까지의 상체 세그먼트들의 순차적 좌표 변화에 따라 결정될 수 있다.
그리고, 관찰기반 모션 변환부(130)는 이와 같은 생체역학적 관찰에 따른 적절한 변환처리를 수행함으로써 별도의 데이터 전처리 없이도 실시간으로 효과적인 모션을 생성할 수 있다. 또한, 최소한의 기본 모션 데이터를 기반으로 자연스러운 동적 모션이 적용되는 캐릭터의 워킹(walking), 조깅(jogging) 또는 러닝(running) 동작을 사용자 입력 등에 의해 실시간으로 제어하게 할 수 있다.
또한, 관찰기반 모션 변환부(130)는 질량중심(COM)의 이동방향과, 이에 대응하는 평행 및 수직 방향에 대한 가속도 변화에 기초하여, 모션 이동 속력 및 회전각을 산출하고 이에 따른 지면과의 발 접촉에 의한 신체 전방향 또는 횡방향 기울기를 산출할 수 있다. 전술한 바와 같이 신체 회전은 이동 속력의 감소와 함께 상체의 방향전환 등과 같이 추가적인 행동을 유발하므로, 합성된 기본 모션에 대한 조정이 필요하다. 전술한 바와 같이 이와 같은 조정은 현실적으로 애니메이터와 같은 사람에 의해 직접 이루어지고 있는 실정이며, 기존 방식으로는 완전한 자동화를 구현할 수 없다.
이에 따라, 본 발명의 실시 예에 따른 관찰기반 모션 변환부(130)는 최소화된 모션 라이브러리만을 이용하여 적절한 상체 기울기 행동을 산출함으로써, 자동화된 모션 변환을 제공할 수 있다.
이하에서는 이를 구현하기 위한 모션 제공 장치(100)의 전반적인 동작을 보다 구체적으로 설명하도록 한다.
기본적으로 모션 제공 장치(100)는 하나 또는 그 이상의 걸음(footsteps)으로 구성되는 시간축 기반의 타임 윈도우별 모션을 반복적으로 생성할 수 있다. 모션을 부드럽게 하기 위해 연속된 윈도우는 부분적으로 오버랩 될 수 있다. 그리고, 모션 제공 장치(100)는 기본 데이터 입력부(110)를 통해 온라인 요청이 수신되면, 초기 모션 합성부(120)를 통해 직선이동 및 기본 속력에 따른 기본 동적 모션을 라이브러리로부터 합성한다. 그리고, 관찰기반 모션 변환부(130)를 통해 같은 타입의 모션을 보다 자연스러운 형태로 자동적으로 변환한다.
특히, 관찰기반 모션 변환부(130)는 최종적 모션을 휴리스틱 모션으로 효과적으로 변환하기 위해 생체역학적 관찰 변환을 수행할 수 있으며, 이를 위해 루트 궤적 변환부(131), 예측 방향 변환부(132), 움직임 속력 조정부(133) 및 전신 기울기 변환부(134)를 포함할 수 있다. 이에 따라 관찰기반 모션 변환부(130)는 질량중심(COM) 제어, 전횡 기울기, 상체 방향전환 예상 및 이동속력의 제어를 처리할 수 있다.
먼저, 초기 모션 합성부(120)는 사용자 또는 실시간 어플리케이션으로부터 기본 데이터 입력부(110)를 통해 입력되는 입력 데이터(모션 타입)에 기초하여, 모션 라이브러리 기반의 기본 동적 모션(예를 들어, 워킹, 조깅, 러닝 등)을 생성하며, 각 기본 동적 모션은 직선 라인을 따라 기본 속력으로 이동하는 모션을 나타낼 수 있다. 그리고, 본 발명의 실시 예에 따른 기본 동적 모션 처리에 필요한 연산 코스트가 실시간 처리에 영향을 미치지 않도록 최적화할 수 있다.
초기 모션 합성부(120)로 기본 데이터 입력부(110)를 통해 입력되는 사용자 입력 Γ는 본 발명의 실시 예에 따라 도 2에 도시된 바와 같은 형태의 기본 동작을 나타낼 수 있으며, 하기 수학식 1과 같이 수식화될 수 있다.
Figure 112016088514489-pat00001
Cd는 모션의 타입(워킹, 조깅, 러닝, 스탠딩 등)을 나타낼 수 있으며, θd는 y축에 대해 지면(x-y 평면)에 투사된 캐릭터의 목표 회전각(또는 지면에 투사된 루트의 회전각)을 나타낼 수 있고, αd는 초기 기본 모션의 움직임 속력에 대한 목표 스케일링 변수를 나타낼 수 있고, Td는 목표 회전각과 목표 스케일링 변수에 도달 하기 위한 요구 시간을 나타낼 수 있다.
이에 따라, 유저 또는 어플리케이션은 사용자 입력 Γ의 각 파라미터 값을 조정하는 방식으로 모션 합성을 지시할 수 있다.
그리고, 초기 모션 합성부(120)는 제공된 Γ로부터 다음 윈도우
Figure 112016088514489-pat00002
까지 하기 3단계 처리를 수행하여, 기본 모션 정보인
Figure 112016088514489-pat00003
를 합성할 수 있다. 여기서,
Figure 112016088514489-pat00004
이며,
Figure 112016088514489-pat00005
일 수 있고, 이는 샘플링 타임
Figure 112016088514489-pat00006
에서의 공간 좌표 프레임 내 루트의 위치와 방향을 나타낼 수 있으며,
Figure 112016088514489-pat00007
는 부모 링크의 로컬 좌표 프레임 내 링크 j의 방향을 나타낼 수 있고, tc는 시뮬레이션상의 현재 시간을 나타낼 수 있다. N은 타임 윈도우 내 프레임의 개수를 나타낼 수 있으며, h는 두 연속적 프레임 사이의 시간 간격을 나타낼 수 있다.
상기 3단계 처리는 하기와 같이 구성될 수 있다. 먼저, 1단계에서 초기 모션 합성부(120)는 모션 그래프로부터 타입 Cd에 대응되는 초기 모션 정보를 모션 라이브러리로부터 추출한다.
그리고, 2단계에서, 관찰기반 모션 변환부(130)는 초기 모션 정보로부터 Cd를 제외한
Figure 112016088514489-pat00008
의 나머지 파라미터를 이용하여 초기 모션의 자동 변환을 처리한다.
이후, 3단계에서, 관찰기반 모션 변환부(130)는 2단계의 초기 모션 변환에 따라 이후 생성되는 부자연스러운 발 스케이팅 모션을 제거한다.
이에 따라, 모션 제공 장치(100)는 요청된 사용자 입력 Γ로부터 자동적인 모션을 생성할 수 있으며, 생성된 모션은 출력부(140)를 통해 요청한 어플리케이션으로 출력될 수 있다. 특히, 본 발명의 실시 예에 따른 관찰기반 모션 변환부(130)에 대하여 보다 구체적으로 설명하도록 한다.
도 2의 수식에서 도시된 바와 같이, 캐릭터 루트의 속력은 회전각 θ와 스케일링 변수 α에 의해, 초기 속력 v에 대한 변환으로 산출될 수 있다. 이와 같이 회전각과 스케일링 변수에 따라 초기 모션 v의 방향과 크기(속력)가 가변될 수 있다. 여기서 R(θ)는 수직 좌표축(z 축)에 대한 회전 매트릭스를 나타낼 수 있다.
그리고, 전술한 바와 같이, 초기 모션 합성부(120)에서 출력된
Figure 112016088514489-pat00009
는, 입력 파라미터 θd, αd 및 Td에 따른 관찰기반 모션 변환부(130)의 루트 위치 및 방향의 자동적 조정에 의해 적절한 값으로 변환될 수 있다.
예를 들어, θ(.)과 α(.)을 시간 t에서의 θ, α 값에 따른 보간 함수라 하면, 변환을 위한 프로토타입 함수는 하기 수학식 2의 형태를 가질 수 있다.
Figure 112016088514489-pat00010
여기서, ξc와 ξd는 ξ(.)함수의 초기값 및 최종값을 나타낼 수 있다. 그리고, tξ과 tξ+Td는 보간의 시작 및 종료시간을 나타낼 수 있다. 이에 따라, Td는 전술한 사용자 입력 파라미터로서, ξd로부터 ξc까지의 소요시간을 나타낼 수 있다. 그리고,
Figure 112016088514489-pat00011
함수는 ξ(.)를 t=tξ 과 t=tξ+Td근방 에서 완화(smooth)하기 위한 블렌딩 함수일 수 있다.
특히, 본 발명의 실시 예에 따르면, 관찰기반 모션 변환부(130)는 상기 프로토타입 함수 ξ(.)를 θ(.)과 α(.)에 대한 보간 함수로 이용하여, 자동적 모션 변환을 처리할 수 있다.
예를 들어, 함수 θ(.)에 있어서, 입력 요청 Γ에 의해 제공되는 신규 θd 값에 따라, ξc와 ξd를 θc 및 θd로 설정할 수 있다. 그리고 사용자 입력 Γ에 따른 tξ를 빠르게 결정하기 위해, 현재 프레임에서 최초로 지면과 닿은 발을 축으로 결정할 수 있다. 따라서, tθ는 상기 발이 지면에 닿는 시간 tp 로 설정될 수 있다. 그리고, 함수 α(.)에 있어서 ξc와 ξd와 tξ는 θ(.)와 동일한 방법으로 결정될 수 있다. 이에 따라, ξc=αc, 와 ξd=αd, tξ=tp 로 결정될 수 있다.
이와 같이 모션 라이브러리로부터 결정된 초기 변수와 프로토타임 함수에 기반하여, 관찰기반 모션 변환부(130)는 후술할 각각의 변환부 및 조정부들에 의해 생체역학적 관찰 기반의 자연스러운 동적 모션을 변환할 수 있다.
루트 궤적 변환(Root Trajectory Transformation)
루트 궤적 변환부(131)는 모션 그래프의 루트 궤적을 생체역학적 관찰 기반으로 변환할 수 있다.
보다 구체적으로, 신체 동작에 의한 질량중심(COM)의 움직임은 지면과 발의 접촉에 의해 발생될 수 있다. 따라서, 질량중심의 이동을 제어하기 위해서는 적어도 하나의 발이 지면에 접촉되어야 한다. 그리고, 본 발명의 실시 예에 따른 루트 궤적 변환부(131)는 근사적으로 캐릭터 루트를 질량중심으로 보고, 발이 지면에 닿은 접촉 페이즈에서만 초기 모션의 루트 궤적 변환을 처리할 수 있다.
따라서, 루트 궤적 변환부(131)는 상기 θ(.)와 α(.)함수를 조정하여, 새로운 버전의
Figure 112016088514489-pat00012
Figure 112016088514489-pat00013
를 획득할 수 있다. 이에 따라,
Figure 112016088514489-pat00014
는 하기와 같은 수학식 3으로 정의될 수 있다.
Figure 112016088514489-pat00015
상기 식에서,
Figure 112016088514489-pat00016
Figure 112016088514489-pat00017
로부터
Figure 112016088514489-pat00018
까지의 목표시간을 나타낼 수 있으며,
Figure 112016088514489-pat00019
Figure 112016088514489-pat00020
는 걷는 페이즈
Figure 112016088514489-pat00021
에 대한 초기 및 최종 회전각, 시작 시간 및 블렌딩 함수를 의미할 수 있으며, 각각 하기 수학식 4와 같이 정의될 수 있다.
Figure 112016088514489-pat00022
여기서, C와 F는
Figure 112016088514489-pat00023
Figure 112016088514489-pat00024
와 같이, 접촉(contact) 및 비행(flight) 페이즈에 대응되는 인덱스 집합을 각각 나타낼 수 있다. 이에 따라
Figure 112016088514489-pat00025
는 접촉 페이즈 동안 경과된 시간의 합으로 정의될 수 있다.
그리고, 상기 수식들로부터, 시간 Td에서의 θc로부터 θd까지의 값을 획득하기 위한
Figure 112016088514489-pat00026
는 접촉 페이즈에서만 변화되며, 비행 페이즈에서는 변화되지 않음을 알 수 있다. 그리고, 조정된 스케일링 함수
Figure 112016088514489-pat00027
또한 동일한 방식으로 정의될 수 있다.
이와 같이, 루트 궤적 변환부(131)는 상기 조정된 함수들에 따라, 모션 라이브러리로부터 추출된 초기 기본 동적 모션의 루트 궤적을 변환할 수 있다. 변환시 높이는 불변한다는 가정에 의해, 사용자 입력 Γ에는 루트의 높이를 변환하기 위한 파라미터가 포함되어 있지 않으므로, 루트 궤적 변환부(131)는
Figure 112016088514489-pat00028
와 같이 설정되는 지평면(ground plane)상에 투사된(projected) 루트 궤적을 출력할 수 있다.
이에 따라, 루트 궤적 변환부(131)는 프로젝션된 루트 궤적 변환을 위해 하기와 같은 수학식 5를 이용할 수 있다.
Figure 112016088514489-pat00029
여기서,
Figure 112016088514489-pat00030
는 어플리케이션으로부터 제공된 현재 프레임의 루트 위치일 수 있으며,
Figure 112016088514489-pat00031
는 하기 수학식 6에 따라 변환된 루트의 속도(velocity)를 의미할 수 있다.
Figure 112016088514489-pat00032
여기서,
Figure 112016088514489-pat00033
는 레페런스 모션으로부터 추출된 루트 속도(velocity)를 의미할 수 있다.
예측 방향 변환(Anticipatory Reorientation)
예측 방향 변환부(132)는 모션의 방향을 생체역학적 관찰 기반으로 예측하여 변환할 수 있다.
질량중심의 변화에 따라, 이후 전신 신체 좌표의 회전과 머리 및 몸통의 방향전환이 이루어질 수 있다. 이에 따라, 예측 방향 변환부(132)는 진행 방향에 대한 머리의 방향전환과, 이에 따른 어깨 및 골반의 위에서부터 아래까지 순차적인 방향 전환을 이동 속력과 회전각과 관계없이 처리할 수 있다.
생체역학적 관찰 기반에 따라, 예측 방향 변환부(132)는 목표 회전각이 처리되는 동안 머리(head)와 몸체(trunk) 및 골반(pelvis)까지의 연속적인 방향 전환을 완료할 수 있다. 이는 하기의 수학식 7을 이용하여 처리될 수 있다.
Figure 112016088514489-pat00034
여기서,
Figure 112016088514489-pat00035
는 초기 모션
Figure 112016088514489-pat00036
으로부터 추출되는 상체 세그먼트 j의 시간 ti에서의 전역 방향을 나타낸다. 그리고,
Figure 112016088514489-pat00037
는 세그먼트 j의 전역 방향을 부모 세그먼트 내 로컬 방향으로 변환하기 위한 함수를 의미할 수 있다.
Figure 112016088514489-pat00038
는 세그먼트 j에 대한 예측 타임 인터벌인 시간 오프셋을 의미할 수 있으며, 이는 시간 ti로부터
Figure 112016088514489-pat00039
이후의 회전각
Figure 112016088514489-pat00040
을 산출하는데 이용될 수 있다. 그리고, 예측 방향 변환부(132)는
Figure 112016088514489-pat00041
,
Figure 112016088514489-pat00042
가 하기 조건을 만족하게 함으로써 상단에서 하단까지 순서에 따른 예측 변환을 수행할 수 있다.
Figure 112016088514489-pat00043
여기서, 각 오프셋 값들은 하기 표 1에 도시된 일반적 정규 분포에 의해 샘플링될 수 있다. 몸체와 골반의 평균 오프셋 시간은 알려진 Wen-Chieh Yang, Wei-Li Hsu, Ruey-Meei Wu, Tung-Wu Lu, and Kwan-Hwa Lin. Motion analysis of axial rotation and gait stability during turning in people with parkinson's disease. Gait & Posture의 데이터로부터 산출하였으며, 나머지 파라미터는 실험적으로 산출하였다. 익스포넨셜 맵
Figure 112016088514489-pat00044
Figure 112016088514489-pat00045
에서의 θ값에 따른 로테이션을 나타낼 수 있다.
Figure 112016088514489-pat00046
상기와 같은 음이 아닌 조건에 의해, 표 1의
Figure 112016088514489-pat00047
의 분포는 절단 정규 분포로 변경될 수 있다. 이에 따라, 상기 분포에서 샘플링된
Figure 112016088514489-pat00048
값은
Figure 112016088514489-pat00049
분포의 상한선에 인접할 수 있으며, 그 값은
Figure 112016088514489-pat00050
분포의 새로운 상한선을 산출하는데 이용될 수 있다. 동일한 이유로 샘플링된
Figure 112016088514489-pat00051
의 값은
Figure 112016088514489-pat00052
분포의 상한선에 인접할 수 있다. 예측 방향 변환부(132)는
Figure 112016088514489-pat00053
,
Figure 112016088514489-pat00054
의 샘플링된 값들로부터 세그먼트 j에 대한 머리부터 골반에 따른 운동학적 체인(kinematic chain)을 형성하여 예측 방향 전환을 처리할 수 있다.
움직임 속력 조정(Moving Speed Adjustment)
움직임 속력 조정부(133)는 움직임 속력(speed)을 생체역학적 관찰 기반으로 조정할 수 있다.
생체역학적 관찰 연구에 따르면, 움직임 속력은 회전각이 증가함에 따라 일정하게 감소함을 알 수 있다. 그리고, 움직임 속력 조정부(133)는 전술한 스케일링 값에 적용되는 신규의 함수
Figure 112016088514489-pat00055
를 이용하여 회전 각 차이
Figure 112016088514489-pat00056
에 따른 속도 감소를 조정할 수 있다. 이에 따른
Figure 112016088514489-pat00057
는 하기 수학식 9와 같이 정의될 수 있다.
Figure 112016088514489-pat00058
상기 수학식 9에서, 상수
Figure 112016088514489-pat00059
는 실험적으로 결정될 수 있다. 전술한 바와 같이,
Figure 112016088514489-pat00060
는 회전각 변화의 시작 시간을 의미할 수 있으며, L은 초기 모션의 걷기(gait) 페이즈 개수를 의미할 수 있다.
Figure 112016088514489-pat00061
Figure 112016088514489-pat00062
구간에서의 각 접촉 페이즈 i에 대한
Figure 112016088514489-pat00063
가 부드럽게 변화되도록 하는 커널 함수를 나타내며, 하기 수학식 10과 같이 표현될 수 있다.
Figure 112016088514489-pat00064
여기서, 전술한 바와 같이 C와 F는 각각 발의 접촉(contact) 및 비행(flight) 페이즈에 대한 인덱스 집합을 나타낼 수 있다.
이와 같이, 움직임 속력 조정부(133)는 움직임 속력(speed)에 대한
Figure 112016088514489-pat00065
스케일링 변수 변환을 통해, 움직임 속력과 회전각 변화에 따른 보다 자연스러운 속도 변화를 생체역학적 관찰 기반으로 산출할 수 있다.
전신 기울기 변환(Whole-body Leaning)
전신 기울기 변환부(134)는 전신 모션의 기울기를 생체역학적 관찰 기반으로 변환할 수 있다.
생체역학적 관찰에 기반하면, 발이 지면에 접촉하는 접촉 페이즈에서, 인체는 지면 반발력 작용선과 일치하도록 전신의 각운동량 변화를 최적화하여, 질량중심(COM)을 이동시킨다. 그리고, 이미 이루어진 연구들과 같이, 전신의 기울기는 질량중심의 이동 및 회전을 위한 선형 운동량 변화를 반영할 수 있다. 예를 들어, 움직임 속력이 증가하면, 골반 및 몸체는 밸런스를 유지한 상태에서 가속도를 촉진하는 방향으로 더욱 틀어질 수 있다.
이와 같은 관찰에 기초하여, 본 발명의 실시 예에 따른 전신 기울기 변환부(134)는, 루트 방향을 그 횡축(lateral axis)에 대한 루트의 전방 가속도에 비례하는 오프셋 각도를 이용하여 회전시킬 수 있다.
전방 가속도는 루트 궤적 변환부(131)로부터 바로 산출될 수 있으나, 이에 기반한 진동 특성은 부자연스러운 전방 기울기를 초래할 수 있다. 따라서, 본 발명의 실시 예에 따른 전신 기울기 변환부(134)는 전방 기울기 각도
Figure 112016088514489-pat00066
를 루트 가속도의 완화된(smoothed) 값을 이용하여 하기 수학식 11과 같이 산출할 수 있다.
Figure 112016088514489-pat00067
여기서,
Figure 112016088514489-pat00068
는 실험적으로 결정되는 양의 상수일 수 있다. 그리고,
Figure 112016088514489-pat00069
는 초기 루트 궤적의 평균 움직임 속력을 나타낼 수 있다. 그리고, 전신 기울기 변환부(134)는 보다 자연스러운 결과 획득을 위해, 앞서 조정된
Figure 112016088514489-pat00070
함수가 아닌
Figure 112016088514489-pat00071
함수를 이용할 수 있다.
전신의 횡방향 기울기에 의해 신체 회전이 이루어질 수 있으며, 횡방향 기울기는 회전하는 동안의 구심력에 의해 제어될 수 있다. 따라서, 전신 기울기 변환부(134)는 기울기 각도를 궤적에 따라
Figure 112016088514489-pat00072
에 의해 작용하는 힘 f의 크기에 비례하여 결정할 수 있다. 여기서 m은 신체 질량일 수 있으며, v는 이동 속도, 그리고, r은 궤적의 곡률반지름을 의미할 수 있다.
전방 기울기와 관련하여 전술한 바와 같이, 루트 궤적을 바로 이용하는 경우, 부자연스러운 횡방향 기울기를 산출할 수 있다. 따라서, 알려진 바와 같이 세부 진동은 상기 궤적으로부터 필터링된 결과를 이용할 필요성이 있다. 소정의 필터링 결과 궤적으로부터 움직임 속력과 곡률반지름은 하기와 같이 산출될 수 있다.
Figure 112016088514489-pat00073
여기서,
Figure 112016088514489-pat00074
Figure 112016088514489-pat00075
는 시간에 따른 궤적의 제1 및 제2 미분값을 나타낼 수 있다. 횡방향 또는 횡적 기울기 산출을 위해, 루트의 방향은 이동 방향에 대한 하기의 오프셋 각도에 따라 회전될 수 있다.
Figure 112016088514489-pat00076
여기서, ti 시점에서의 궤적이 시계 반대방향인 경우, sign(ti)는 -1로 설정될 수 있다. 반대의 경우, sign(ti)은 +1로 설정될 수 있다.
Figure 112016088514489-pat00077
은 실험적으로 결정되는 상수 값을 가질 수 있다.
다만, 상기와 같은 루트 방향에 대한 함수
Figure 112016088514489-pat00078
와 함수
Figure 112016088514489-pat00079
의 적용에 따라, 발의 높이가 변화하여 관통하는 경우가 발생될 수 있다. 이 경우 전신 기울기 변환부(134)는 Hyun Joon Shin, Jehee Lee, Sung Yong Shin, and Michael Gleicher. Computer puppetry: An importance-based approach. ACM Transactions on Graphics (TOG), 20(2)에서 알려진 닫힌 형식의 역 운동학 해결방법에 따라 발 높이와 관절각을 조정할 수 있다.
그리고, 출력부(140)는 관찰기반 모션 변환부(130)로부터 변환된 모션 그래프 기반의 모션 정보를 다양한 목적을 위한 모션 구현 장치, 디스플레이 장치 또는 인터페이스 장치로 출력하여 실시간으로 생성된 보다 자연스러운 인체 모션을 제공할 수 있게 된다.
도 3 내지 도 15는 각각 본 발명의 실시 예에 따른 모션 변환의 테스트 결과를 설명하기 위한 도면들이다.
테스트를 위해, 모션 라이브러리에는 y축에 따른 직선적 워킹, 조깅, 러닝 및 앞구르기(foward roll) 운동이 포함되었다.
도 3 에서는 접촉 기반 질량중심 제어 결과의 변화를 도시하고 있다. 캐릭터는 2초동안 180도 방향 전환되었으며, (
Figure 112016088514489-pat00080
) 워킹 모션이 지평면에 투사된 것을 도시하고 있다. 좌측은 기본 모션에 따른 제어를 도시하고 있으며, 우측은 생체역학적 관찰에 의해 변환된 모션을 도시하고 있다. 도 3에서는 접촉 페이즈만이 존재하고 있어 기존과의 차이가 거의 발생되지 않는다.
도 4 에서는 러닝 모션이 지평면에 투사된 것을 도시하고 있다. 좌측은 기본 모션에 따른 제어를 도시하고 있으며, 우측은 생체역학적 관찰에 의해 변환된 모션을 도시하고 있다. 도 4에서 적색 부분이 접촉 페이즈, 청색 부분이 비행 페이즈를 나타내며, 일정하게 움직이는 기본 모션과 달리, 좌측의 변환 모션이 생체역학적으로 보다 자연스러운 움직임을 나타내는 것을 확인할 수 있다.
도 5 및 도 6은 예측 방향 변환 처리에 따른 기본 모션과의 비교 결과를 도시하고 있다. 이는 도 3 및 4에서와 동일한 워킹 및 러닝 모션에 대해 각각 적용된 것으로 상단열은 기본 모션이며, 하단열은 변환된 모션을 도시하고 있다. 노란 화살표는 이동 방향을 나타내고 있다. 도 5 및 도 6에 도시된 바와 같이, 하단열의 변환된 모션에서는 상체 세그먼트가 향후 움직임 방향을 향하도록 재조정되어 일정하게 고정되는 상단열의 기본 모션보다 더욱 자연스러운 것을 확인할 수 있다.
도 7 및 도 8은 이동 속도 조정에 따른 기본 모션과의 비교 결과를 도시하고 있다. 이는 도 3 및 4에서와 동일한 워킹 및 러닝 모션에 대해 각각 적용된 것으로 좌측은 기본 모션이며, 우측은 변환된 모션을 도시하고 있다. 도 7 및 도 8에서 회전 각 차이는 180도로 설정될 수 있다. 도 7 및 도 8에 도시된 바와 같이, 회전에 따른 속력 감소 변환결과에 따라 아크 길이가 감소하여, 궤적이 높은 곡률을 나타냄을 확인할 수 있다.
도 9 및 도 10은 전방 기울기 변환에 따른 기본 모션과의 비교 결과를 도시하고 있다. 마찬가지로 이는 도 3 및 4에서와 동일한 워킹 및 러닝 모션에 대해 각각 적용된 것으로 상단열은 기본 모션이며, 하단열은 변환된 모션을 도시하고 있다. 노란 화살표는 이동 방향을 나타내고 있다. 도 9 및 도 10에 도시된 바와 같이, 하단열의 변환된 모션에서는 상체 세그먼트가 움직임 속도의 증감에 따라 전방 또는 후방으로 기울어지므로 일정하게 고정되는 상단열의 기본 모션보다 더욱 자연스러운 것을 확인할 수 있다.
도 11 및 도 12는 횡방향 기울기 변환에 따른 기본 모션과의 비교 결과를 도시하고 있다. 마찬가지로 이는 도 11 및 12에서와 동일한 워킹 및 러닝 모션에 대해 각각 적용된 것으로 상단열은 기본 모션이며, 하단열은 변환된 모션을 도시하고 있다. 노란 화살표는 이동 방향을 나타내고 있다. 도 5 및 도 6에 도시된 바와 같이, 하단열의 변환된 모션에서는 회전시 캐릭터가 곡률 중심 방향으로 기울어지므로 일정하게 고정되는 상단열의 기본 모션보다 더욱 자연스러운 것을 확인할 수 있다.
도 13 및 도 14는 관찰기반 모션 변환부(130)의 모든 변환 및 조정 처리를 복합적으로 수행한 경우의 기본 모션과의 비교 결과를 도시하고 있다. 도 13 및 도 14에 도시된 바와 같이, 전체적인 각 변환 효과의 결합에 따라, 하단열의 변환된 모션이 상단열의 기본 모션보다 그리고 각각의 변환 결과보다도 훨씬 자연스럽게 변화된 것을 확인할 수 있다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.

Claims (13)

  1. 동적 모션 제공 장치에 있어서,
    모션타입(Cd), 목표 회전각(θd), 목표 스케일링 변수(αd), 목표 회전각과 목표 스케일링 변수으로의 도달 시간(Td)이 입력되면, 상기 모션타입에 대응되는 초기 모션 정보를 모션 라이브러리로부터 추출하여 초기 모션 정보를 획득하는 초기 모션 합성부;
    상기 목표 회전각, 상기 목표 스케일링 변수 및 상기 도달 시간에 기반하여 상기 초기 모션 정보에 대한 질량 중심 이동 제어, 전횡 기울기, 상체 방향 전환 예상 및 이동 속력 제어를 순차 수행하여, 생체역학적 관찰 기반으로 변환 처리된 모션을 획득하는 관찰기반 모션 변환부; 및
    상기 변환 처리된 모션을 출력하는 출력부를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 관찰기반 모션 변환부는
    상기 초기 모션에 기초하여, 질량중심에 기반한 캐릭터의 루트를 추정하기 위해, 상기 캐릭터의 발이 지면에 닿은 접촉 페이즈에서의 초기 모션으로부터 궤적 변환을 처리하는 루트 궤적 변환부를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  4. 제1항에 있어서,
    상기 관찰기반 모션 변환부는
    상기 초기 모션에 기초하여, 회전에 의한 질량중심의 변화로부터, 진행 방향에 대한 상체 세그먼트의 머리(head)와 몸체(trunk) 및 골반(pelvis)까지의 연속적인 방향 전환을 순차적으로 처리하는 예측 방향 변환부를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  5. 제1항에 있어서,
    상기 관찰기반 모션 변환부는
    상기 초기 모션에 기초하여, 회전 각 증가에 따른 속도 감소를 조정하는 움직임 속력 조정부를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  6. 제1항에 있어서,
    상기 관찰기반 모션 변환부는
    상기 초기 모션에 기초하여, 초기 루트 궤적의 평균 움직임 속력에 기초하여 산출되는 루트 가속도의 완화된 값을 이용하여 전방 기울기 각도를 변환하는 전신 기울기 변환부를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  7. 제6항에 있어서,
    상기 전신 기울기 변환부는
    상기 초기 모션에 기초하여, 상기 루트 궤적의 움직임 속력 및 곡률반지름에 따른 횡방향 기울기를 산출하여 횡방향 기울기 각도를 변환하는
    생체역학적 관찰 기반의 동적 모션 제공 장치.
  8. 동적 모션 제공 방법에 있어서,
    모션타입(Cd), 목표 회전각(θd), 목표 스케일링 변수(αd), 목표 회전각과 목표 스케일링 변수으로의 도달 시간(Td)이 입력되면, 상기 모션타입에 대응되는 초기 모션 정보를 모션 라이브러리로부터 추출하여 초기 모션 정보를 획득하는 단계; 및
    상기 목표 회전각, 상기 목표 스케일링 변수 및 상기 도달 시간에 기반하여 상기 초기 모션 정보에 대한 질량 중심 이동 제어, 전횡 기울기, 상체 방향 전환 예상 및 이동 속력 제어를 순차 수행하여, 생체역학적 관찰 기반으로 변환 처리된 모션을 획득 및 출력하는 단계; 를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 방법.
  9. 삭제
  10. 제8항에 있어서,
    상기 변환 처리를 수행하는 단계는,
    상기 초기 모션에 기초하여, 질량중심에 기반한 캐릭터의 루트를 추정하기 위해, 상기 캐릭터의 발이 지면에 닿은 접촉 페이즈에서의 초기 모션으로부터 궤적 변환을 처리하는 단계를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 방법.
  11. 제8항에 있어서,
    상기 변환 처리를 수행하는 단계는,
    상기 초기 모션에 기초하여, 회전에 의한 질량중심의 변화로부터, 진행 방향에 대한 상체 세그먼트의 머리(head)와 몸체(trunk) 및 골반(pelvis)까지의 연속적인 방향 전환을 순차적으로 처리하는 단계를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 방법.
  12. 제8항에 있어서,
    상기 변환 처리를 수행하는 단계는,
    상기 초기 모션에 기초하여, 회전 각 증가에 따른 속도 감소를 조정하는 단계를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 방법.
  13. 제8항에 있어서,
    상기 변환 처리를 수행하는 단계는,
    상기 초기 모션에 기초하여, 초기 루트 궤적의 평균 움직임 속력에 기초하여 산출되는 루트 가속도의 완화된 값을 이용하여 전방 기울기 각도를 변환하는 단계; 및
    상기 초기 모션에 기초하여, 상기 루트 궤적의 움직임 속력 및 곡률반지름에 따른 횡방향 기울기를 산출하여 횡방향 기울기 각도를 변환하는 단계를 포함하는
    생체역학적 관찰 기반의 동적 모션 제공 방법.
KR1020160116770A 2016-09-09 2016-09-09 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치 KR101837294B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160116770A KR101837294B1 (ko) 2016-09-09 2016-09-09 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160116770A KR101837294B1 (ko) 2016-09-09 2016-09-09 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR101837294B1 true KR101837294B1 (ko) 2018-03-12

Family

ID=61728898

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160116770A KR101837294B1 (ko) 2016-09-09 2016-09-09 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101837294B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254290B1 (ko) * 2020-11-18 2021-05-21 한국과학기술원 모션 처리 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060274A (ja) * 1999-08-23 2001-03-06 Hideki Araki アニメーション作成方法及び装置及びその方法を記録した記録媒体及びアニメーションブロックを記録した記録媒体
JP2004030502A (ja) * 2002-06-28 2004-01-29 Sangaku Renkei Kiko Kyushu:Kk シミュレーション方法、シミュレーション装置およびシミュレーションプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001060274A (ja) * 1999-08-23 2001-03-06 Hideki Araki アニメーション作成方法及び装置及びその方法を記録した記録媒体及びアニメーションブロックを記録した記録媒体
JP2004030502A (ja) * 2002-06-28 2004-01-29 Sangaku Renkei Kiko Kyushu:Kk シミュレーション方法、シミュレーション装置およびシミュレーションプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254290B1 (ko) * 2020-11-18 2021-05-21 한국과학기술원 모션 처리 방법 및 장치
US11947727B2 (en) 2020-11-18 2024-04-02 Korea Advanced Institute Of Science And Technology Motion processing method and apparatus

Similar Documents

Publication Publication Date Title
Shin et al. Computer puppetry: An importance-based approach
Kennaway Synthetic animation of deaf signing gestures
Carlson et al. Simulation levels of detail for real-time animation
KR100207131B1 (ko) 다관절 물체의 동작 표현방법, 동작 표현장치, 컴퓨터그래픽 장치 및 로보트 제어장치
Bruder et al. Arch-explore: A natural user interface for immersive architectural walkthroughs
Park et al. On‐line motion blending for real‐time locomotion generation
Steinicke et al. Taxonomy and implementation of redirection techniques for ubiquitous passive haptic feedback
US20110128292A1 (en) Dynamics-based motion generation apparatus and method
US20230334744A1 (en) Method and apparatus for generating walk animation of virtual role, device and storage medium
KR20220025023A (ko) 애니메이션 처리 방법 및 장치, 컴퓨터 저장 매체 그리고 전자 디바이스
JPH09153146A (ja) 仮想空間表示方法
US7983882B1 (en) Joint wrinkle and muscle movement simulating software
KR20130003170A (ko) 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치
Mousas Performance-driven dance motion control of a virtual partner character
JP2007334443A (ja) アバター動作制御システム、そのプログラム及び方法
Boulic et al. Versatile walk engine.
KR101837294B1 (ko) 생체역학적 관찰 기반의 실시간 동적 모션 제공 방법 및 그 장치
Yasumuro et al. Three-dimensional modeling of the human hand with motion constraints
Beacco et al. Footstep parameterized motion blending using barycentric coordinates
Nunnari et al. Animating azee descriptions using off-the-shelf ik solvers
Mousas et al. Performance-driven hybrid full-body character control for navigation and interaction in virtual environments
JP2009037572A (ja) 動作合成システム及びその方法
KR100408428B1 (ko) 동작 포착 데이터를 이용한 이동 동작 계획에 대한 확률적접근 방법
Oshita Multi-touch interface for character motion control using model-based approach
JP3973995B2 (ja) アニメーション作成システム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant