KR100507780B1 - 고속 마커프리 모션 캡쳐 장치 및 방법 - Google Patents

고속 마커프리 모션 캡쳐 장치 및 방법 Download PDF

Info

Publication number
KR100507780B1
KR100507780B1 KR10-2002-0081954A KR20020081954A KR100507780B1 KR 100507780 B1 KR100507780 B1 KR 100507780B1 KR 20020081954 A KR20020081954 A KR 20020081954A KR 100507780 B1 KR100507780 B1 KR 100507780B1
Authority
KR
South Korea
Prior art keywords
color
dimensional
extraction module
motion capture
feature point
Prior art date
Application number
KR10-2002-0081954A
Other languages
English (en)
Other versions
KR20040055310A (ko
Inventor
박창준
이지형
김도형
남승우
백성민
이인호
김성은
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-2002-0081954A priority Critical patent/KR100507780B1/ko
Priority to US10/445,825 priority patent/US7239718B2/en
Publication of KR20040055310A publication Critical patent/KR20040055310A/ko
Application granted granted Critical
Publication of KR100507780B1 publication Critical patent/KR100507780B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

본 발명은 고속 마커프리 모션 캡쳐 장치 및 방법에 관한 것이다.
본 발명은 조명 변화나 배경 또는 카메라의 잡음, 동작자의 여러 동작에 대해 강건하게 머리, 손, 발, 몸통, 팔, 다리 등과 같은 신체의 특정 끝 부분(End-effector)에 대응하는 신체 특징점을 고속 검출(detection)할 수 있고, 추출된 신체 특징점을 3차원 공간상에서 안정적으로 직접 추적(tracking)할 수 있으며, 조명 조건의 변화나 그림자로 인한 특징점의 위치 오차를 자동으로 보정하고, 특징들간의 겹침이나 특징의 사라짐에 대해서도 안정적으로 특징점을 추적할 수 있으며, 추출된 신체 특징점의 3차원 좌표를 이용하여 중간 관절 좌표를 추정할 때에, 모션 데이터베이스의 활용 없이도 동작자의 중간 관절 위치를 사실성 높게 추정하여 인체 모델로 복원(restoration)하도록 되어 있으며,
이에 따라서, 모션 캡쳐에서 필요로 하는 3D 모션 데이터의 안정성과 사실성을 확보할 수 있다.

Description

고속 마커프리 모션 캡쳐 장치 및 방법 {Apparatus and method for high-speed marker-free motion capture}
본 발명은 애니메이션, 영화, 방송물, 게임 등과 같은 3D 영상컨텐츠 제작 분야에서 사용되는 모션 캡쳐 장치 및 방법에 관한 것이며, 보다 상세히는 고속 마커프리 모션 캡쳐 장치 및 방법에 관한 것이다.
공지된 바와 같이, 모션 캡쳐 기술은 애니메이션, 영화, 방송물, 게임 등과 같은 3D 영상컨텐츠 제작 분야에서 캐릭터의 자연스럽고 사실성 높은 애니메이션을 생성하기 위해 폭 넓게 사용되고 있다.
이와 같은 종래의 모션 캡쳐 기술은 연기자의 관절에 부착하는 센서의 종류에 따라, 자기장의 변화량을 이용하여 위치를 측정하는 자기식, 관절의 구부러짐을 기계적인 방법으로 직접 측정하는 기계식, 카메라로 획득한 수동(적외선) 또는 능동(LED, 컬러) 마커들의 영상을 이용하는 광학식, 관절의 구부러짐의 정도에 따른 빛의 전달량 변화를 이용하는 광섬유 방식 등으로 구분된다.
그러나, 이러한 종래의 모션 캡쳐 기술은 동작자의 옷이나 몸에 센서 혹은 마커를 붙이고, 제한된 공간과 조명 조건에서 동작하여야 하는 단점이 있다.
한편, 상기와 같은 종래의 모션 캡쳐 기술에서는 머리, 손, 발과 같은 인체 특정 부위를 검출하기 위하여 해당되는 화소들을 덩어리(blob) 모델로 만들어 영상에서 유사한 속성을 가지는 인접 화소들을 모델과 비교하는 방법을 사용하거나 윤곽선에 기반하여 윤곽선의 형태와 세기 등을 이용하여 검출하는 방법들을 사용하였는데, 화소들의 덩어리 모델을 만드는 경우에는 유사한 속성을 가지는 화소들을 덩어리로 만드는 과정이 복잡하고, 잡음이 많은 경우에는 덩어리로 만들기가 어렵고, 3차원적인 동작에 따라 덩어리의 형태가 많이 변하기 때문에 여러 각도에 대한 덩어리 모델을 모두 만들지 못하여 안정적으로 고속 검출하는 데에 어려운 점이 있다.
실제로, 종래의 모션 캡쳐 기술에서 윤곽선에 기반하여 신체 끝 부분을 검출하는 경우에는 검출하지 못하는 동작 유형이 있다.
예컨대, 손을 머리 위로 들어 손이 머리를 가리게 되는 경우에는 머리에 형성되던 윤곽선이 생기지 않게 되어 머리를 검출할 수 없거나, 윤곽선이 형성되더라도 일반적인 머리의 윤곽선과 모양이 많이 다르게 되므로 안정적으로 머리를 검출하기가 어려웠다. 또한, 손이 몸통 앞으로 위치하게 되면 손 부분에서의 윤곽선이 사라져서 손 검출이 불가능하게 되고, 발을 검출하는 경우에는 지면에 발이 붙어 있으면 윤곽선의 형태나 강도와 같은 속성의 변화 없이 안정적으로 검출되지만, 발을 드는 경우에는 조명 조건 변화, 촬상 소자에 맺히는 상의 크기 변화 등으로 인해 발의 실제 위치를 정확히 찾기가 어렵게 된다.
상기와 같은 모션 캡쳐 기술에서 신체 특정 부위를 3차원 공간상에서 추적하는 방법은 3차원 공간 정보를 획득한 카메라의 영상을 2차원 평면상에서 추적을 시도하므로 깊이 정보와 같은 3차원 공간상의 많은 정보를 취급하지 못하는 단점을 내포하거나, 또는 동작자의 윤곽선 모델을 사용하여 신체 특징을 구별함으로 인해 머리, 손, 발과 같은 특징점의 정확한 위치를 추출하기 힘들고, 특징점간의 겹침이나 사라짐에 대한 현상을 처리하지 못하는 단점이 있었다.
특히, 종래의 모션 캡쳐 기술에서 머리, 손, 발과 같은 신체 끝 부분 특징점을 이용하여 동작자의 중간 관절 위치를 추정하기 위한 방법으로서, 4개의 마그네틱 센서를 동작자의 양손과 허리, 머리에 부착하여 위치정보를 캡쳐한 후, 이 정보를 이용하여 신체 상체의 중간관절의 위치를 생성하도록 된 N.Badler, M.Hollick 와 J.Granieri의 논문(Real-time Control of a Virtual Human Using Minimal Sensors., Presence, 2(1):82-86, 1993)과, 6대 카메라로부터 동작자의 움직임 영상을 캡쳐하여 영상으로부터 추출되는 실루엣 정보를 이용하여 신체 특징점의 위치를 추출하고, 이들을 이용하여 중간 관절의 3차원 좌표를 계산하여 구한 중간 관절 좌표와 캡쳐된 특징점 위치를 이용하여 미리 제공되는 데이터베이스에서 유사한 움직임을 선택하여 적용하도록 된 Ryuya Hoshino, Satoshi Yonemoto, Daisaku Arita와 Rin-ichiro Taniguchi의 논문(Real-time Motion Capture System Based on Silhouette Contour Analysis and Inverse Kinematics, FCV2001, 2001, p157-163)이 발표된 바 있으나, 전자의 논문에 개시된 방법은 상체의 움직임만으로 제한되어 있으며, 주변 환경 변화에 민감한 센서로 인해 캡쳐되는 위치 정보에 노이즈가 포함되고, 마그네틱 센서의 부착으로 인하여 동작에 많은 제한을 받게 되는 단점이 있으며, 후자의 논문에 개시된 방법은 많은 상황에 대한 별도의 데이터베이스를 구축하여야 하며, 또한 데이터베이스에서 어떤 움직임을 선택하여야 하는지에 대한 수많은 고려가 필요하다는 문제점이 있다.
따라서, 본 발명은 상술한 종래의 문제점을 극복하기 위한 것으로서, 본 발명의 목적은 조명 변화나 배경 또는 카메라의 잡음, 동작자의 여러 동작에 대해 강건하게 머리, 손, 발, 몸통, 팔, 다리 등과 같은 신체의 특정 끝 부분(End-effector)에 대응하는 신체 특징점을 고속 검출(detection)할 수 있고, 추출된 신체 특징점을 3차원 공간상에서 안정적으로 직접 추적(tracking)할 수 있으며, 조명 조건의 변화나 그림자로 인한 특징점의 위치 오차를 자동으로 보정하고, 특징들간의 겹침이나 특징의 사라짐에 대해서도 안정적으로 특징점을 추적할 수 있으며, 추출된 신체 특징점의 3차원 좌표를 이용하여 중간 관절 좌표를 추정할 때에, 모션 데이터베이스의 활용 없이도 동작자의 중간 관절 위치를 사실성 높게 추정하여 인체 모델로 복원(restoration)하도록 된 고속 마커프리(Marker-free) 모션 캡쳐 장치 및 방법을 제공하는데 있다.
상기 본 발명의 목적을 달성하기 위한 고속 마커프리 모션 캡쳐 장치는, 시야각이 다른 복수의 카메라를 이용하여 동작자가 없는 배경에 대해 영상을 먼저 취득하여 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간과 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간으로 저장한 다음, 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장한 후, 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출하고, 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만든 다음, 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점으로 판별하는 2차원 특징점 추출 모듈과; 상기 2차원 특징점 추출 모듈에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적하는 3차원 특징점 추적 모듈; 및 상기 3차원 특징점 추적 모듈에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원하는 3차원 모션 복원 모듈로 구성된다.
상기 본 발명의 목적을 달성하기 위한 고속 마커프리 모션 캡쳐 방법은, 2차원 특징점 추출 모듈이 시야각이 다른 복수의 카메라를 이용하여 동작자가 없는 배경에 대해 영상을 취득하여 특성이 다른 두 가지 컬러 공간으로 저장하는 단계와; 상기 2차원 특징점 추출 모듈이 카메라를 이용하여 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장하는 단계; 상기 2차원 특징점 추출 모듈이 카메라로 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출한 후, 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만드는 단계; 상기 2차원 특징점 추출 모듈이 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점으로 판별하는 단계; 3차원 특징점 추적 모듈이 상기 2차원 특징점 추출 모듈에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하여 3차원 특징점을 추적하는 단계; 및 3차원 모션 복원 모듈이 상기 3차원 특징점 추적 모듈에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원하는 단계로 이루어진다.
이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다.
도 1을 참조하면, 2차원 특징점 추출 모듈(10)은 시야각이 다른 복수의 카메라(11,12)를 이용하여 동작자가 없는 배경에 대해 영상을 먼저 취득하여 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간과 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간으로 저장한 다음, 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장한다.
상기 2차원 특징점 추출 모듈(10)은 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간에서의 색 요소 정보와 신체의 각 부위에 대한 크기와 형태 정보로 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 구성한다.
상기 2차원 특징점 추출 모듈(10)은 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출하고, 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만든 다음, 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점(13)으로 판별한다.
상기 2차원 특징점 추출 모듈(10)은 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출할 때, 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간에서의 색 요소 비교를 통해 배경 영상과 색 차이가 있는 입력 영상의 후보 화소들을 추출한다.
상기 2차원 특징점 추출 모듈(10)은 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간을 사용하여 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만든다.
상기 2차원 특징점 추출 모듈(10)은 화소 색의 비교 순서를 색의 차이를 용이하게 강조할 수 있는 RGB컬러 공간에 대해 먼저 시행하여 후보 화소를 선별한 후, 이들을 색의 유사도를 용이하게 강조할 수 있는 HSI컬러 공간으로 변환하여 신체 부위별 모델과 유사한 색의 화소를 찾음으로써, 연산량이 적은 과정을 선처리로 하여 후보 화소를 검출한 후에 연산량이 많은 과정을 한정된 후보 화소에 대해서만 적용하게 되어 색 화소를 찾는 작업이 고속으로 처리될 수 있다.
상기 2차원 특징점 추출 모듈(10)은 색의 차이가 있는 화소들을 선별하여 동작자를 배경으로부터 분리한 후, 신체 각 부위별 모델과 유사한 화소들을 검색함으로써 그림자를 효율적으로 제거할 수 있게 된다.
상기 2차원 특징점 추출 모듈(10)은 손과 팔은 항상 인접하고, 발과 다리는 항상 인접하며, 머리는 몸통에 필히 붙어 있으나 동작에 따라서는 팔이나 다리, 손이나 발에도 붙을 수 있다는 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점(13)으로 판별한다.
3차원 특징점 추적 모듈(20)은 상기 2차원 특징점 추출 모듈(10)에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점(13)들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적한다.
상기 3차원 특징점 추적 모듈(20)은 형상 변형 예측 필터(21)를 이용하여 3차원 정합된 특징점 영역을 둘러싸는 최소외접사각형의 길이, 너비, 회전각 변화를 연속된 프레임에 대한 정보를 이용해 다음 프레임에 입력될 형상정보로 예상하여 3차원 좌표를 복원한다.
상기 3차원 특징점 추적 모듈(20)은 이전 프레임까지의 움직임에서 무게 중심의 이동을 예측, 계산하고, 무게 중심이 실린 쪽의 발의 움직임을 제한하는 몸의 무게 중심 예측 기법을 사용하여 정확하게 발을 추적함으로써 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적한다.
3차원 모션 복원 모듈(30)은 상기 3차원 특징점 추적 모듈에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원한다.
삭제
상기와 같이 구성되는 본 발명에 따른 고속 마커프리 모션 캡쳐 장치는 다음과 같이 작동한다.
도 2를 참조하면, 초기에 상기 2차원 특징점 추출 모듈(10)은 시야각이 다른 최소 2대 이상의 카메라(11,12)를 이용하여 동작자가 없는 배경에 대해 영상을 취득하여 특성이 다른 두 가지 컬러 공간으로 저장한다(S10).
이때, 상기 두 가지 컬러 공간은 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간과 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간으로 정의된다.
다음으로, 상기 2차원 특징점 추출 모듈(10)은 카메라(11,12)를 이용하여 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장한다(S20).
이때, 상기 2차원 특징점 추출 모듈(10)은 동작자의 초기 자세에서 머리, 손, 발, 몸통, 팔, 다리를 컬러에 기반하여 분할한 후 그들 각각의 HSI 컬러와 형태 정보로 덩어리 모델을 만들고, 각 신체 부위에 대한 덩어리 모델들의 인접 연결 관계를 추출하여 저장한다.
이어서, 상기 2차원 특징점 추출 모듈(10)은 카메라(11,12)로 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출한 후(S30), 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만든 다음(S40), 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점(13)으로 판별한다(S50).
이때, 상기 2차원 특징점 추출 모듈(10)은 동작자를 카메라(11,12)로 캡쳐하여 신체 특정 부위를 검출하게 되는데, 먼저,RGB 컬러의 배경과 입력된 영상의 RGB 값을 비교하여 색상 요소 값의 차이가 있는 부분, 즉 후보 화소를 검출하여 HSI 공간으로 컬러 변환을 한 다음, 변환된 컬러에 대해 각 덩어리 모델들의 HSI 컬러 값과 유사한 화소들을 검색하여 저장하고, 저장된 화소들에 대해 배경의 HSI 값과 비교하여 유사한 화소들은 삭제한다. 이렇게 하게 되면, 조명의 변화나 동작자의 움직임에 따라 형성되는 그림자를 제거할 수 있으며 인체 부위에 해당되는 덩어리 영상만을 배경으로부터 검출할 수 있다.
실제로, 상기 RGB 컬러 공간은 색의 차이를 용이하게 강조할 수 있는 공간이며, HSI 컬러 공간은 색의 유사도를 용이하게 강조할 수 있는 공간이므로, 상기 2차원 특징점 추출 모듈(10)이 동작자의 캡쳐 영상으로부터 특정 신체 부위를 검출하기 위하여 상기 후보 화소를 RGB 컬러 공간에서 HSI 컬러 공간으로 변환하는 과정은 시간을 많이 요구하는 과정이다. 따라서, 상기 2차원 특징점 추출 모듈(10)은 RGB 공간에서 배경과 차이나는 부분을 먼저 검색하여 배경과 다른 부분, 즉, 인체 부분일 가능성이 높은 화소들을 가려내고, 이 부분 화소들만을 RGB 컬러 공간에서 HSI 컬러 공간으로 변환한 후 배경과 유사한 컬러는 삭제하고, 모델과 유사한 컬러만을 가려냄으로써 각각의 신체 부위에 해당되는 덩어리를 그림자의 영향을 거의 받지 않으며 고속으로 검출할 수 있다.
이러한 과정 중에서 동작자에 의해 쉽게 형성되는 바닥의 그림자도 자연스럽게 제거되어 발을 정확하게 검출할 수 있게 될 뿐만 아니라, 추출된 덩어리들의 위치 상관 관계를 통해 배경이나 카메라의 잡음의 영향을 받지 않으며 높은 신뢰도로 신체 부위를 구분하며 검출할 수 있게 된다.
즉, 초기에 동작자의 신체 부위별로 덩어리 모델을 만들 때에 각 덩어리 모델들간의 인접 정보도 저장하였으므로, 이러한 인접 정보로 손은 팔에 필히 붙어 있으며, 발은 다리에 필히 붙어 있으며, 머리는 몸통에 필히 붙어 있으나 동작에 따라서는 팔이나 다리, 발에도 붙을 수 있다는 상관 관계를 적용하여 배경이나 카메라(11,12)에 의해 생기는 잡음으로 인한 색 변조로 만들어지는 유사 덩어리를 삭제할 수 있다. 따라서, 본 발명은 잡음에 대해서도 강건하며 기존 단순 덩어리 모델만을 적용할 때보다 더욱 더 안정적이며, 윤곽선에 기반한 방법을 적용할 때 보다 더 다양한 동작에서 신체 특정 부위들을 검출할 수 있게 된다.
상기와 같이 2차원 특징점 추출 모듈(10)이 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점(13)으로 판별함으로써 2차원 특징점(13)을 추출하고 나면, 상기 3차원 특징점 추적 모듈(20)은 2차원 특징점 추출 모듈(10)에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점(13)들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후(S60), 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적한다(S70).
이때, 상기 3차원 특징점 추적 모듈(20)은 3차원 공간상에서의 특징점을 추적하기 위하여, 먼저 카메라 캘리브레이션 과정을 통해 얻어지는 카메라(11,12)의 내/외부인자를 이용해 2차원 특징점(13)들을 3차원 공간상의 점으로 변환시키며, 이에 따라서 추적하고자 하는 올바른 특징점(13)과 잘못된 정보를 가진 많은 특징점(고스트)들이 발생한다.
이어서, 상기 3차원 특징점 추적 모듈(20)은 프레임간의 시간적 조건과 특징점들이 위치할 수 있는 공간적 조건에 대해 확률적 계산을 통해 많은 수의 특징점(13) 후보들 중에서 올바른 특징점(13)을 추적하여 구한다.
상기 시간적 조건은 연속된 시간의 흐름에 대해 특징점(13)들의 움직임을 동시에 예측할 수 있는 알고리즘을 적용하는 것으로서, 움직임의 예측은 확률적인 접근으로 가능하며, 이전 프레임까지의 이동 패턴을 알면 다음 프레임의 이동 정보를 예측할 수 있다. 일반적으로, 특징점(13)들의 짝을 맺어줄 경우 입력 특징점(13)들 중에서 예측된 위치와 가장 가까이 존재하는 특징점(13)을 선택하면 된다. 그러나, 신체 특징은 3차원 공간을 자유롭게 움직이기 때문에 특징점(13)들 간의 겹침이나 사라짐, 배경 속에 신체 특징과 흡사한 영역의 예상치 못했던 출현에 대한 처리도 같이 이루어져야 하므로, 이러한 처리는 시간적 조건 내에 공간적 조건을 추가함으로써 해결이 가능하다.
상기 공간적 조건은 현재 프레임에서 얻어진 특징점(13)들의 공간적 위치 정보를 검사하는 조건이다. 특징의 형상은 동작에 따라 쉽게 변하기 때문에 특징의 올바른 위치와 크기를 계산하기 위해 상기 3차원 특징점 추적 모듈(20)은 형상 변형 예측 필터(21)에 의한 자동 오차 보정 기법을 적용해 조명 조건이나 형상 변형에 따른 위치 정보 오차를 보정해준다. 그리고, 신체의 구조를 바탕으로 각 특징점(13)이 움직일 수 있는 조건을 구성한다. 팔이 뒤로 굽어질 수 없듯이 신체 관절은 회전이나 이동에 제약을 가진다. 몸의 중심으로부터 신체 특징이 위치할 수 있는 최대 거리 내에 특징점(13)은 존재해야 한다. 또한, 동작 시 무게 중심이 실리는 부분과 그렇지 않은 부분의 움직임 정도에는 차이가 있기 때문에 이러한 조건을 고려한 몸의 무게 중심 예측 기법을 통해 특징점(13)들의 올바른 매칭이 가능해진다.
도 3을 참조하면, 상기 3차원 특징점 추적 모듈(20)의 형상 변형 예측 필터(21)에 의한 자동 오차 보정 기법은 영상에서 특징점 영역을 추출할 때 조명에 의한 반사나 그림자, 노이즈로 인해 정보를 읽고 올바르게 추출되지 않는 특징점 영역(23)을 보정하는 기술이다. 이것은 특징점 영역을 둘러싸는 최소외접사각형의 길이, 너비, 회전각 변화를 연속된 프레임에 대한 정보(22)를 이용해 다음 프레임에 입력될 형상정보(24)로 예상하여 3차원 좌표를 복원하는 기법이다.
예컨대, 손과 같은 특징점은 형상의 변화가 매우 자유롭기 때문에, 다음 시간에 입력될 최소외접사각형의 예측된 정보와 실제 입력될 정보의 오차가 크게 발생할 수 있다. 그러나, 손의 형상 정보는 어떠한 형태를 가지더라도, 근사화된 타원의 형태로 모델링이 가능하기 때문에, 이 모델링 정보를 추가적으로 이용해 형상의 변형을 작은 오차 범위 안에서 예측할 수 있다.
또한, 몸의 무게 중심 예측 기법은 두 발로 서있는 인간은 몸의 이동 시 먼저 무게 중심의 축을 한쪽 발로 이동시킨다는 사실을 바탕으로 하고 있다. 발은 좁은 영역 안에서 두 발이 근접해서 움직이기 때문에, 겹침과 사라짐의 현상이 아주 빈번히 발생한다. 또한, 한번 겹쳐지거나 사라진 발은 오랜 시간이 지난 후 분리되거나 다시 나타나는 경우도 빈번히 발생하기 때문에 발의 이동 방향과 속도를 고려한 추적기법만으로는 추적에 한계가 있다. 따라서, 본 발명에서는 도 4에 도시된 바와 같이, 이전 프레임까지의 움직임에서 무게 중심의 이동(42)을 예측, 계산하고, 무게 중심이 실린 쪽(41)의 발의 움직임을 제한함으로써 발의 추적을 강인하게 한다.
상기와 같이 3차원 특징점 추적 모듈(20)이 2차원 특징점(13)들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적하고 나면, 마지막으로 상기 3차원 모션 복원 모듈(30)은 3차원 특징점 추적 모듈(20)에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원한다(S80).
삭제
상기와 같은 모든 과정을 거쳐 입력된 영상으로부터 인체의 모든 관절의 위치 정보가 복원되면 상기 3차원 모션 복원 모듈(30)은 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원한다.
상술한 바와 같이 본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 동작자의 동작에 따라 필연적으로 형성되어 추출 대상이 되는 신체 부위의 색 변화를 일으키는 그림자의 영향을 받지 않고, 동작에 따른 조명 변화로 인한 색조 변화에도 영향을 적게 받으면서 신체 부위들을 안정적으로 검출할 수 있다는 장점이 있으며, 두 가지 컬러 공간(RGB, HSI)의 장점을 계산량이 적은 순으로 이용함으로써 고속으로 그림자 영향을 제거할 수 있다.
본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 덩어리 모델들의 인접 연결 정보를 이용함으로써 배경 또는 카메라에 의해 형성되는 잡음에 대해서도 영향을 받지 않으면서 신체 부위를 검출할 수 있다.
본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 형상 변형 예측에 의한 자동 오차 보정 기법을 사용하여 조명에 의한 반사나 그림자, 잡음에 대한 특징점의 변화를 예측하고 특징점의 형상정보를 보정함으로써 3차원 공간상의 특징점의 위치 오차를 최대한 줄이는 효과를 얻을 수 있다.
본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 몸의 무게 중심 예측 기법을 이용하여 동작자의 움직임의 축이 되는 발의 운동을 제한함으로써 3차원 공간상에서 추적이 어려운 발의 추적을 좀 더 정확하고 안정적으로 할 수 있게 된다.
본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 신체 형상 정보와 이전 프레임까지의 중간 관절 위치의 변화 추이를 중간 관절 좌표 추정에 동시에 이용함으로써 모션 데이터베이스의 활용 없이도 동작자의 중간 관절 위치를 사실성 높게 추정할 수 있다.
본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법은 각 단계별로 잡음의 영향을 억제하고 안정적으로 처리함으로써 모션 캡쳐에서 필요로 하는 3D 모션 데이터의 안정성과 사실성을 확보할 수 있다.
이상에서 설명한 것은 본 발명에 따른 고속 마커프리 모션 캡쳐 장치 및 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구의 범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.
도 1은 본 발명에 따른 고속 마커프리 모션 캡쳐 장치를 도시한 구성도,
도 2는 본 발명에 따른 고속 마커프리 모션 캡쳐 방법을 도시한 흐름도,
도 3은 자동 오차 보정 방법을 실행하는 형상 변형 예측 필터의 작동 상태를 도시한 구성도,
도 4는 몸의 무게 중심 예측 기법을 적용하기 위한 움직이는 인간 모델을 도시한 실시예,
도 5는 신체에 대한 경계치를 도시한 실시예이다.
<도면의 주요부분에 대한 부호의 설명>
10: 2차원 특징점 추출 모듈
20: 3차원 특징점 추적 모듈
30: 3차원 모션 복원 모듈

Claims (11)

  1. 시야각이 다른 복수의 카메라를 이용하여 동작자가 없는 배경에 대해 영상을 먼저 취득하여 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간과 색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간으로 저장한 다음, 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장한 후, 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출하고, 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만든 다음, 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점으로 판별하는 2차원 특징점 추출 모듈과;
    상기 2차원 특징점 추출 모듈에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적하는 3차원 특징점 추적 모듈; 및
    상기 3차원 특징점 추적 모듈에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원하는 3차원 모션 복원 모듈
    로 구성되는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  2. 제 1 항에 있어서, 상기 2차원 특징점 추출 모듈은
    색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간에서의 색 요소 정보와 신체의 각 부위에 대한 크기와 형태 정보로 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 구성하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  3. 제 1 항에 있어서, 상기 2차원 특징점 추출 모듈은
    동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출할 때, 색의 차이를 용이하게 강조할 수 있는 특성을 가진 RGB컬러 공간에서의 색 요소 비교를 통해 배경 영상과 색 차이가 있는 입력 영상의 후보 화소들을 추출하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  4. 제 1 항에 있어서, 상기 2차원 특징점 추출 모듈은
    색의 유사도를 용이하게 강조할 수 있는 특성을 가진 HSI 컬러 공간을 사용하여 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만드는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  5. 제 3 항 또는 제 4 항에 있어서, 상기 2차원 특징점 추출 모듈은
    화소 색의 비교 순서를 색의 차이를 용이하게 강조할 수 있는 RGB컬러 공간에 대해 먼저 시행하여 후보 화소를 선별한 후, 이들을 색의 유사도를 용이하게 강조할 수 있는 HSI컬러 공간으로 변환하여 신체 부위별 모델과 유사한 색의 화소를 찾는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  6. 제 5 항에 있어서, 상기 2차원 특징점 추출 모듈은
    색의 차이가 있는 화소들을 선별하여 동작자를 배경으로부터 분리한 후, 신체 각 부위별 모델과 유사한 화소들을 검색하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  7. 제 1 항에 있어서, 상기 2차원 특징점 추출 모듈은
    손과 팔은 항상 인접하고, 발과 다리는 항상 인정하며, 머리는 몸통에 필히 붙어 있으나 동작에 따라서는 팔이나 다리, 손이나 발에도 붙을 수 있다는 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점으로 판별하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  8. 제 1 항에 있어서, 상기 3차원 특징점 추적 모듈은
    형상 변형 예측 필터를 이용하여 3차원 정합된 특징점 영역을 둘러싸는 최소외접사각형의 길이, 너비, 회전각 변화를 연속된 프레임에 대한 정보를 이용해 다음 프레임에 입력될 형상정보로 예상하여 3차원 좌표를 복원하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  9. 제 1 항에 있어서, 상기 3차원 특징점 추적 모듈은
    이전 프레임까지의 움직임에서 무게 중심의 이동을 예측, 계산하고, 무게 중심이 실린 쪽의 발의 움직임을 제한하는 몸의 무게 중심 예측 기법을 사용하여 정확하게 발을 추적함으로써 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적하는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 장치.
  10. 삭제
  11. 2차원 특징점 추출 모듈이 시야각이 다른 복수의 카메라를 이용하여 동작자가 없는 배경에 대해 영상을 취득하여 특성이 다른 두 가지 컬러 공간으로 저장하는 단계와;
    상기 2차원 특징점 추출 모듈이 카메라를 이용하여 동작자의 초기 자세에 대해 영상을 취득하여 머리, 손, 발, 몸통, 팔, 다리에 대한 덩어리 모델을 만들고 그들 간의 인접 연결 관계를 추출하여 저장하는 단계;
    상기 2차원 특징점 추출 모듈이 카메라로 동작자의 움직임을 촬영한 영상을 입력받아 배경 영상과 색 차이가 있는 화소들을 추출한 후, 저장된 신체 각 부위에 대한 덩어리 모델과 유사한 컬러와 형태를 가지는 화소들을 검출하여 덩어리로 만드는 단계;
    상기 2차원 특징점 추출 모듈이 검출된 덩어리들에 대해 인접한 덩어리들의 상관 관계로부터 신체 부위에 해당되는 덩어리를 구별하여 2차원 신체 특징점으로 판별하는 단계;
    3차원 특징점 추적 모듈이 상기 2차원 특징점 추출 모듈에 의해 추출된 신체 끝 부위에 해당되는 2차원 특징점들에 대해 3차원 정합을 하여 3차원 좌표를 복원한 후, 특징점 형상 변형을 예측하고 몸의 무게 중심을 예측하며 추적하는 단계; 및
    3차원 모션 복원 모듈이 상기 3차원 특징점 추적 모듈에 의해 추적된 2차원 특징점의 3차원 좌표를 이용하여 중간관절 위치를 추정하여 3차원 모션 데이터를 생성하고 이 3차원 모션 데이터를 인체모델로 복원하는 단계
    로 이루어지는 것을 특징으로 하는 고속 마커프리 모션 캡쳐 방법.
KR10-2002-0081954A 2002-12-20 2002-12-20 고속 마커프리 모션 캡쳐 장치 및 방법 KR100507780B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR10-2002-0081954A KR100507780B1 (ko) 2002-12-20 2002-12-20 고속 마커프리 모션 캡쳐 장치 및 방법
US10/445,825 US7239718B2 (en) 2002-12-20 2003-05-28 Apparatus and method for high-speed marker-free motion capture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0081954A KR100507780B1 (ko) 2002-12-20 2002-12-20 고속 마커프리 모션 캡쳐 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20040055310A KR20040055310A (ko) 2004-06-26
KR100507780B1 true KR100507780B1 (ko) 2005-08-17

Family

ID=32588855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0081954A KR100507780B1 (ko) 2002-12-20 2002-12-20 고속 마커프리 모션 캡쳐 장치 및 방법

Country Status (2)

Country Link
US (1) US7239718B2 (ko)
KR (1) KR100507780B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100721536B1 (ko) 2005-12-09 2007-05-23 한국전자통신연구원 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법
KR101010904B1 (ko) 2009-02-26 2011-01-25 인천대학교 산학협력단 마커를 사용하지 않는 증강공간 제공 장치

Families Citing this family (141)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590261B1 (en) * 2003-07-31 2009-09-15 Videomining Corporation Method and system for event detection by analysis of linear feature occlusion
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
US10277290B2 (en) 2004-04-02 2019-04-30 Rearden, Llc Systems and methods to exploit areas of coherence in wireless systems
US9819403B2 (en) 2004-04-02 2017-11-14 Rearden, Llc System and method for managing handoff of a client between different distributed-input-distributed-output (DIDO) networks based on detected velocity of the client
US8654815B1 (en) 2004-04-02 2014-02-18 Rearden, Llc System and method for distributed antenna wireless communications
US10425134B2 (en) 2004-04-02 2019-09-24 Rearden, Llc System and methods for planned evolution and obsolescence of multiuser spectrum
US9826537B2 (en) 2004-04-02 2017-11-21 Rearden, Llc System and method for managing inter-cluster handoff of clients which traverse multiple DIDO clusters
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
KR100542370B1 (ko) * 2004-07-30 2006-01-11 한양대학교 산학협력단 보이지 않는 마커를 이용하는 비전기반 증강현실 시스템
EP1789928A4 (en) * 2004-07-30 2011-03-16 Extreme Reality Ltd SYSTEM AND METHOD FOR PICTURE PROCESSING BASED ON THE 3D ROOM DIMENSION
KR20060021566A (ko) * 2004-09-03 2006-03-08 (주)제니텀 엔터테인먼트 컴퓨팅 전경체 사영영상과 가상외피에 기반한 가상시점 3차원 장면 재구성 방법 및 시스템
US20060055706A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the motion of a performer
WO2006050198A2 (en) * 2004-10-28 2006-05-11 Accelerated Pictures, Llc Client/server-based animation software, systems and methods
CN100361070C (zh) * 2004-10-29 2008-01-09 中国科学院计算技术研究所 一种基于光学的运动捕获数据的骨骼运动提取方法
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
US7580546B2 (en) 2004-12-09 2009-08-25 Electronics And Telecommunications Research Institute Marker-free motion capture apparatus and method for correcting tracking error
WO2006069491A1 (en) * 2004-12-31 2006-07-06 Intel Corporation Remote logging mechanism
US7356425B2 (en) * 2005-03-14 2008-04-08 Ge Security, Inc. Method and system for camera autocalibration
NZ581496A (en) 2005-03-16 2010-02-26 Lucasfilm Entertainment Compan Three-dimensional motion capture using orientation of virtual structures
WO2006106465A2 (en) * 2005-04-07 2006-10-12 Nxp B.V. Method and device for three-dimentional reconstruction and rendering
US20060235809A1 (en) * 2005-04-18 2006-10-19 John Pearson Digital caricature
CN100369064C (zh) * 2005-07-14 2008-02-13 中国科学院计算技术研究所 一种基于视频内容的人体姿态变形方法
US20070142177A1 (en) * 2005-09-26 2007-06-21 Crucial Innovation, Inc. Computerized method and system for fitting a bicycle to a cyclist
US8659668B2 (en) 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
KR100763578B1 (ko) * 2005-12-01 2007-10-04 한국전자통신연구원 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 방법
US7869646B2 (en) 2005-12-01 2011-01-11 Electronics And Telecommunications Research Institute Method for estimating three-dimensional position of human joint using sphere projecting technique
WO2007066953A1 (en) * 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Apparatus for recognizing three-dimensional motion using linear discriminant analysis
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US20080028312A1 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Scene organization in computer-assisted filmmaking
WO2008014486A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Improved camera control
WO2008016645A2 (en) * 2006-07-31 2008-02-07 Onlive, Inc. System and method for performing motion capture and image reconstruction
US8888592B1 (en) 2009-06-01 2014-11-18 Sony Computer Entertainment America Llc Voice overlay
WO2008032376A1 (fr) * 2006-09-13 2008-03-20 Pioneer Corporation Dispositif et procédé de mesure de distance, et programme informatique
KR100808543B1 (ko) * 2006-09-15 2008-02-29 한국과학기술연구원 스테레오 비전 센서를 이용한 사람 동작 정보의 획득 장치및 방법
KR100822459B1 (ko) * 2006-10-10 2008-04-16 엠텍비젼 주식회사 움직임 인식 방법 및 그 장치
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
WO2008070701A2 (en) * 2006-12-06 2008-06-12 Honda Motor Co., Ltd. Fast human pose estimation using appearance and motion via multi-dimensional boosting regression
US8199152B2 (en) 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
US8130225B2 (en) 2007-01-16 2012-03-06 Lucasfilm Entertainment Company Ltd. Using animation libraries for object identification
US8542236B2 (en) * 2007-01-16 2013-09-24 Lucasfilm Entertainment Company Ltd. Generating animation libraries
KR100860940B1 (ko) * 2007-01-22 2008-09-29 광주과학기술원 컬러 마커를 이용한 컨텐츠 제공 방법 및 이를 수행하기 위한 시스템
US8144148B2 (en) 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
EP2135197A4 (en) * 2007-03-02 2012-11-14 Organic Motion SYSTEM AND METHOD FOR TRACKING THREE-DIMENSIONAL OBJECTS
KR100856824B1 (ko) * 2007-07-23 2008-09-05 재단법인서울대학교산학협력재단 캐릭터 시뮬레이션 방법 및 시스템
JP2010541035A (ja) * 2007-09-04 2010-12-24 ソニー株式会社 統合モーションキャプチャ
KR100885122B1 (ko) * 2007-09-12 2009-02-20 전자부품연구원 마커프리 모션 캡쳐 방법
US9418470B2 (en) * 2007-10-26 2016-08-16 Koninklijke Philips N.V. Method and system for selecting the viewing configuration of a rendered figure
US8144153B1 (en) 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
US8968087B1 (en) 2009-06-01 2015-03-03 Sony Computer Entertainment America Llc Video game overlay
US8613673B2 (en) 2008-12-15 2013-12-24 Sony Computer Entertainment America Llc Intelligent game loading
US8147339B1 (en) 2007-12-15 2012-04-03 Gaikai Inc. Systems and methods of serving game video
KR100940860B1 (ko) * 2007-12-18 2010-02-09 한국전자통신연구원 디지털 크리쳐의 이동 동작 생성 방법 및 장치
US8175326B2 (en) * 2008-02-29 2012-05-08 Fred Siegel Automated scoring system for athletics
US20090270193A1 (en) * 2008-04-24 2009-10-29 United States Bowling Congress Analyzing a motion of a bowler
TWI423786B (zh) * 2008-05-28 2014-01-21 Nat Univ Chung Hsing 人體姿勢重心定位裝置
TW201001338A (en) * 2008-06-16 2010-01-01 Huper Lab Co Ltd Method of detecting moving objects
WO2010050895A1 (en) * 2008-11-03 2010-05-06 Nanyang Polytechnic System and method for providing command signals from a captured image
KR101021470B1 (ko) * 2008-12-02 2011-03-15 주식회사 케이엠씨로보틱스 영상 데이터를 이용한 로봇 움직임 데이터 생성 방법 및 생성 장치
US8926435B2 (en) 2008-12-15 2015-01-06 Sony Computer Entertainment America Llc Dual-mode program execution
US8442267B2 (en) 2008-12-24 2013-05-14 Electronics And Telecommunications Research Institute Apparatus and method for detecting upper body posture and hand posture
KR101158016B1 (ko) * 2008-12-24 2012-06-25 한국전자통신연구원 상체자세 및 손모양 검출 장치 및 그 방법
US9142024B2 (en) 2008-12-31 2015-09-22 Lucasfilm Entertainment Company Ltd. Visual and physical motion sensing for three-dimensional motion capture
KR101221449B1 (ko) 2009-03-27 2013-01-11 한국전자통신연구원 카메라간 영상 보정 장치 및 방법
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8890937B2 (en) * 2009-06-01 2014-11-18 The Curators Of The University Of Missouri Anonymized video analysis methods and systems
US8506402B2 (en) 2009-06-01 2013-08-13 Sony Computer Entertainment America Llc Game execution environments
CN101957655B (zh) * 2009-07-17 2013-06-05 深圳泰山在线科技有限公司 一种基于标志点的动作识别方法及终端设备
KR101616926B1 (ko) * 2009-09-22 2016-05-02 삼성전자주식회사 영상 처리 장치 및 방법
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
KR101626065B1 (ko) 2009-10-13 2016-05-31 삼성전자주식회사 마커리스 모션 캡쳐링 장치 및 방법
KR101039298B1 (ko) * 2009-12-22 2011-06-07 (주)포스트미디어 다수의 특징점 기반 마커를 인식하기 위한 순차 검색 방법 및 이를 이용한 증강현실 구현 방법
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP5845253B2 (ja) * 2010-06-16 2016-01-20 エーツー・サージカル 骨の変形を特徴付ける幾何学的要素を3d画像から自動的に決定する方法およびシステム
US8560331B1 (en) 2010-08-02 2013-10-15 Sony Computer Entertainment America Llc Audio acceleration
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
KR20170129967A (ko) 2010-09-13 2017-11-27 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 게임 서버를 포함하는 컴퓨터 게임 시스템에서 통신 네트워크를 통해 클라이언트들 간에 게임 세션을 이송하는 방법
KR102126910B1 (ko) 2010-09-13 2020-06-25 소니 인터랙티브 엔터테인먼트 아메리카 엘엘씨 부가기능의 관리
CN102456092B (zh) * 2010-10-22 2015-05-13 深圳泰山在线科技有限公司 一种基于计算机的虚拟滑雪实现方法及系统
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
KR101276158B1 (ko) * 2011-03-02 2013-06-18 한남대학교 산학협력단 얼굴 특징점 추적을 이용한 실시간 3디 영상 처리 방법
US8948447B2 (en) 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9508176B2 (en) 2011-11-18 2016-11-29 Lucasfilm Entertainment Company Ltd. Path and speed based character control
WO2013085525A1 (en) * 2011-12-08 2013-06-13 Intel Corporation Techniques for efficient stereo block matching for gesture recognition
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
WO2013116810A1 (en) 2012-02-03 2013-08-08 H4 Engineering, Inc. Apparatus and method for securing a portable electronic device
CA2866102A1 (en) 2012-03-01 2013-09-06 H4 Engineering, Inc. Apparatus and method for automatic video recording
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
WO2013131100A1 (en) 2012-03-02 2013-09-06 H4 Engineering, Inc. Multifunction automatic video recording device
CN102651072A (zh) * 2012-04-06 2012-08-29 浙江大学 一种面向三维人体运动数据的分类方法
US9408561B2 (en) 2012-04-27 2016-08-09 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
US9597016B2 (en) 2012-04-27 2017-03-21 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods
CN102800103B (zh) * 2012-06-18 2015-02-18 清华大学 基于多视角的深度相机的无标记动作捕捉方法及装置
AU2013286547B2 (en) 2012-07-06 2017-03-09 H4 Engineering, Inc. A remotely controlled automatic camera tracking system
CN102819863B (zh) * 2012-07-31 2015-01-21 中国科学院计算技术研究所 一种三维人体运动的实时在线获取方法及其系统
US9536338B2 (en) * 2012-07-31 2017-01-03 Microsoft Technology Licensing, Llc Animating objects using the human body
US11189917B2 (en) 2014-04-16 2021-11-30 Rearden, Llc Systems and methods for distributing radioheads
TWI499879B (zh) 2012-12-21 2015-09-11 Ind Tech Res Inst 工序分析監控系統及其方法
CN103116895A (zh) * 2013-03-06 2013-05-22 清华大学 基于三维模型的手势跟踪计算方法和装置
US9973246B2 (en) 2013-03-12 2018-05-15 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US10488535B2 (en) 2013-03-12 2019-11-26 Rearden, Llc Apparatus and method for capturing still images and video using diffraction coded imaging techniques
US9923657B2 (en) 2013-03-12 2018-03-20 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
RU2767777C2 (ru) 2013-03-15 2022-03-21 Риарден, Ллк Системы и способы радиочастотной калибровки с использованием принципа взаимности каналов в беспроводной связи с распределенным входом - распределенным выходом
CN103336953B (zh) * 2013-07-05 2016-06-01 深圳市中视典数字科技有限公司 一种基于体感设备动作评判的方法
JP6049882B2 (ja) * 2013-07-18 2016-12-21 三菱電機株式会社 目標類識別装置
CN104346608B (zh) * 2013-07-26 2017-09-08 株式会社理光 稀疏深度图稠密化方法和装置
JP6537332B2 (ja) * 2014-04-28 2019-07-03 キヤノン株式会社 画像処理方法および撮影装置
KR101515847B1 (ko) * 2014-08-06 2015-05-04 스타십벤딩머신 주식회사 Nui 장치에 의해 수집된 동작정보의 보정 방법 및 장치
KR101515845B1 (ko) 2014-08-07 2015-05-04 스타십벤딩머신 주식회사 동작 인식 방법 및 동작 인식 장치
KR102238794B1 (ko) 2015-03-25 2021-04-09 한국전자통신연구원 영상 촬영 장치의 촬영 속도 증가 방법
US9836118B2 (en) 2015-06-16 2017-12-05 Wilson Steele Method and system for analyzing a movement of a person
KR102410300B1 (ko) 2015-06-26 2022-06-20 한국전자통신연구원 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US10681325B2 (en) * 2016-05-16 2020-06-09 Google Llc Continuous depth-ordered image compositing
WO2018005513A1 (en) 2016-06-28 2018-01-04 Foresite Healthcare, Llc Systems and methods for use in detecting falls utilizing thermal sensing
CN106503682B (zh) * 2016-10-31 2020-02-04 北京小米移动软件有限公司 视频数据中的关键点定位方法及装置
CN106780601B (zh) * 2016-12-01 2020-03-27 北京未动科技有限公司 一种空间位置追踪方法、装置及智能设备
CN106780561B (zh) * 2016-12-30 2020-04-17 南京理工大学 一种用于视觉跟踪的具有光照鲁棒性的色空间构建方法
EP3619683A1 (en) * 2017-05-04 2020-03-11 MIM Software, Inc. System and method for predictive fusion
CN110998669B (zh) * 2017-08-08 2023-12-08 索尼公司 图像处理装置和方法
CN108701348A (zh) * 2017-08-31 2018-10-23 深圳市大疆创新科技有限公司 处理图像的方法、集成电路、处理器、系统和可移动设备
CN109934881B (zh) 2017-12-19 2022-02-18 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
CN108122200A (zh) * 2017-12-20 2018-06-05 宁波视睿迪光电有限公司 图像拼接方法以及装置
US10937173B2 (en) * 2018-11-15 2021-03-02 Qualcomm Incorporated Predicting subject body poses and subject movement intent using probabilistic generative models
KR102118937B1 (ko) * 2018-12-05 2020-06-04 주식회사 스탠스 3d 데이터서비스장치, 3d 데이터서비스장치의 구동방법 및 컴퓨터 판독가능 기록매체
US11373331B2 (en) * 2019-12-18 2022-06-28 Agt International Gmbh System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera
WO2021199177A1 (ja) * 2020-03-30 2021-10-07 株式会社ソニー・インタラクティブエンタテインメント モーション決定装置、学習装置、モーション決定方法、学習方法及びプログラム
US11794107B2 (en) * 2020-12-30 2023-10-24 Activision Publishing, Inc. Systems and methods for improved collision detection in video games
KR102531977B1 (ko) * 2022-05-17 2023-05-15 한국전자기술연구원 3차원 스켈레톤 추정 시스템 및 3차원 스켈레톤 추정 방법
CN116152122B (zh) * 2023-04-21 2023-08-25 荣耀终端有限公司 图像处理方法和电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0592079A2 (en) * 1992-09-20 1994-04-13 Sun Microsystems, Inc. Automated software installation and operating environment configuration on a computer system
JPH10222668A (ja) 1997-02-04 1998-08-21 Syst Sakomu:Kk モーションキャプチャ方法およびシステム
US6191798B1 (en) * 1997-03-31 2001-02-20 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters
US6057859A (en) * 1997-03-31 2000-05-02 Katrix, Inc. Limb coordination system for interactive computer animation of articulated characters with blended motion data
JP3607059B2 (ja) * 1997-09-19 2005-01-05 コニカミノルタビジネステクノロジーズ株式会社 色特徴抽出装置および色特徴の抽出方法およびプログラム記憶媒体
US6301707B1 (en) * 1997-09-30 2001-10-09 Pitney Bowes Inc. Installing software based on a profile
US6117187A (en) * 1997-09-30 2000-09-12 Hewlett-Packard Company Automatic generation of a software installation package
KR100301962B1 (ko) 1999-05-24 2001-09-26 박권상 실시간 가상캐릭터 시스템
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
KR20010107478A (ko) 2000-05-31 2001-12-07 송우진 모션 게임 장치
US6937744B1 (en) * 2000-06-13 2005-08-30 Microsoft Corporation System and process for bootstrap initialization of nonparametric color models
KR100370369B1 (ko) 2000-08-21 2003-01-30 한국과학기술원 가상 캐릭터의 실시간 동작변환방법
KR20020017576A (ko) 2000-08-31 2002-03-07 이준서 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법
KR100415884B1 (ko) 2000-11-06 2004-01-24 (주)모션테크놀로지 모션 캡쳐를 통하여 모션 데이터 파일을 생성하는 방법 및장치
KR20020011851A (ko) 2001-01-15 2002-02-09 정영균 인공시각과 패턴인식을 이용한 체감형 게임 장치 및 방법.
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
KR100452917B1 (ko) 2001-10-09 2004-10-14 주식회사 제노프릭스 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템
JP3739693B2 (ja) * 2001-11-09 2006-01-25 本田技研工業株式会社 画像認識装置
KR100426313B1 (ko) * 2001-12-28 2004-04-06 한국전자통신연구원 영상 제작에서 관절형 객체 자세 변경 방법
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
KR100483806B1 (ko) * 2002-07-18 2005-04-20 한국과학기술원 예제동작을 이용한 영상기반 동작복원방법
US7218320B2 (en) * 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US7573480B2 (en) * 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100721536B1 (ko) 2005-12-09 2007-05-23 한국전자통신연구원 2차원 평면상에서 실루엣 정보를 이용한 3차원 구조 복원방법
US7760932B2 (en) 2005-12-09 2010-07-20 Electronics And Telecommunications Research Institute Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image
KR101010904B1 (ko) 2009-02-26 2011-01-25 인천대학교 산학협력단 마커를 사용하지 않는 증강공간 제공 장치

Also Published As

Publication number Publication date
KR20040055310A (ko) 2004-06-26
US20040119716A1 (en) 2004-06-24
US7239718B2 (en) 2007-07-03

Similar Documents

Publication Publication Date Title
KR100507780B1 (ko) 고속 마커프리 모션 캡쳐 장치 및 방법
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US9330470B2 (en) Method and system for modeling subjects from a depth map
US9330307B2 (en) Learning based estimation of hand and finger pose
Pekelny et al. Articulated object reconstruction and markerless motion capture from depth video
JP5243529B2 (ja) 拡張リアリティイメージのためのカメラポーズ推定装置および方法
US8565479B2 (en) Extraction of skeletons from 3D maps
KR101469398B1 (ko) 텍스트 기반 3d 증강 현실
JP6125188B2 (ja) 映像処理方法及び装置
WO2017000466A1 (zh) 一种基于光流法的运动目标跟踪方法及系统
CN110555908B (zh) 基于室内移动目标背景修复的三维重建方法
JP2009536731A (ja) 深度マップによるヒューマノイド形状のモデル化
JP5290865B2 (ja) 位置姿勢推定方法および装置
Puwein et al. Joint camera pose estimation and 3d human pose estimation in a multi-camera setup
KR101130963B1 (ko) 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법
KR100939294B1 (ko) 3차원 공간에서의 사람 움직임 추적 방법 및 장치
CN111382613A (zh) 图像处理方法、装置、设备和介质
CN111832386A (zh) 一种估计人体姿态的方法、装置及计算机可读介质
KR20100025048A (ko) 모션 캡쳐를 위한 영상 분석 방법 및 장치
KR100940860B1 (ko) 디지털 크리쳐의 이동 동작 생성 방법 및 장치
Slossberg et al. Freehand Laser Scanning Using Mobile Phone.
Muhlbauer et al. A model-based algorithm to estimate body poses using stereo vision
Madaras et al. Position estimation and calibration of inertial motion capture systems using single camera
Kumar et al. Robust object tracking under cluttered environment
RU2189628C2 (ru) Способ дистанционного управления

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100802

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee