KR20070120443A - 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램 - Google Patents

모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램 Download PDF

Info

Publication number
KR20070120443A
KR20070120443A KR1020070059441A KR20070059441A KR20070120443A KR 20070120443 A KR20070120443 A KR 20070120443A KR 1020070059441 A KR1020070059441 A KR 1020070059441A KR 20070059441 A KR20070059441 A KR 20070059441A KR 20070120443 A KR20070120443 A KR 20070120443A
Authority
KR
South Korea
Prior art keywords
joint
image
posture
dimensional
target person
Prior art date
Application number
KR1020070059441A
Other languages
English (en)
Inventor
웨이꾸오 우
케이스케 야마오카
위위 리우
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20070120443A publication Critical patent/KR20070120443A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Rheumatology (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

사람의 움직임의 속도나 복잡한 배경 등에 의하지 않고, 실환경에서 이용 가능한 로버스트(robust)한 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램을 제공한다.
키네마틱스(kinematics) 모델의 관절사이의 연결성 구속에 따른 순서로, 관절의 예측위치를 자세·위치 예측부(5)에서 예측하고, 자세·위치 투영부(6)에서 예측위치를 2차원 화상상에 투영하고, 신뢰성 평가부(7)에서 2차원 화상상에 투영된 예측위치의 신뢰성을 평가하고, 평가결과에 근거하여 자세·위치 추정부(8)에서 추정위치를 추정한다. 그리고, 자세·위치 추정부(8)에서 추정된 추정위치는, 다음에 예측하는 계층의 관절의 예측위치 연산에 이용된다.

Description

모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램{Motion capture apparatus and method, and motion capture program}
도 1은, 본 발명의 일실시의 형태에 있어서의 모션 캡쳐 장치의 구성을 나타내는 블록도이다.
도 2는, 본 발명의 일실시의 형태에 있어서의 모션 캡쳐 처리의 개요를 설명하기 위한 모식도이다.
도 3은, 대상인물의 키네마틱스 모델 생성처리의 개요를 설명하기 위한 모식도이다.
도 4는, 키네마틱스 모델을 생성하기 위한 초기화부의 구성을 나타내는 블록도이다.
도 5는, 초기화부에 있어서의 초기화 처리를 나타내는 플로차트이다.
도 6은, 초기화 처리를 설명하기 위한 도면이다.
도 7은, 본 실시의 형태에 있어서의 계층적 예측방법을 설명하기 위한 도면이다.
도 8은, 키네마틱스 모델의 각 관절위치의 예측을 위한 구성을 나타내는 블록도이다.
도 9는, 키네마틱스 모델의 각 관절위치의 예측을 위한 구성을 나타내는 블 록도이다.
도 10은, 전(前)의 관절점(Sk-1)의 추적결과의 신뢰성을 평가하고, Sk의 예측 모델을 동적으로 변화시키는 처리예를 설명하기 위한 모식도이다.
도 11은, 자세·위치 투영부, 신뢰성 평가부 및 자세·위치 추정부의 처리를 설명하기 위한 모식도이다.
*도면의 주요부분에 대한 부호의 설명
1L,1R. 카메라 2. 카메라 파라미터 취득부
3. 화상·거리정보 관측부 4. 초기화부
5. 자세·위치 예측부 6. 자세·위치 투영부
7. 신뢰성 평가부 8. 자세·위치 추정부
41. 거리계측부 42. 얼굴 검출부
43. 마스크 생성부 44. 색분포 산출부
45. 손검출 윈도우 생성부 46. 손검출부
47. 관절위치 산출부
본 발명은, 카메라로 촬상된 화상에 근거하여 대상인물의 자세 또는 동작을 인식하는 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램에 관한 것이다.
사람과 기기와의 자연스러운 인터페이스를 실현하는데에는, 사람의 손짓·몸짓을 포함하고, 조작자의 여러 가지 행동이나 음성 등의 정보를 통합적으로 해석하고, 사람의 존재나 의도 등을 검출하여 인식하는 것이 불가결하다. 그 때문에, 사람의 움직임이나 행동 패턴의 해석에 관한 여러 가지 기술이 검토되어 왔다. 움직임 해석 기술로서는, 특수한 마커(marker) 등을 이용하여 움직임 정보를 취득하는 것과, 마커 없이 화상 해석에 의하는 것으로 대별할 수 있다.
특수한 마커 등을 이용하는 시스템은, 자기식, 기계식, 광학식 등이 있지만, 최근의 움직임 추적·캡쳐 시스템으로서는, 특히 광학식의 모션 캡쳐 시스템이 자주 이용되고 있다. 예를 들면, Vicon Peaks사의 MX카메라 시스템(상표), Natural Point사의 OptiTrack(상표), Motion Analysis사의 Hawk Digital System(상표) 등의 모션 캡쳐·해석 시스템이 이미 CG(Computer Graphics), 영화 제작 등의 분야에서 이용되고 있다. 마커가 붙은 움직임 해석 시스템의 메리트로서는, 인물 등의 움직임 정보를 정확하게 계측할 수 있으므로, CG나 영화제작 등의 고정밀도의 움직임 해석이 필요하다는 점에서 자주 이용된다.
그러나, 이 방식은, 대규모의 시스템 구성이 필요하거나, 마커의 설치에 의한 인체로의 부담이 있기도 하기 때문에, 자연스러운 HMI(Human Machine Interface)라고 부를 수 없다.
그래서, 본 발명자들은, 일반 환경에서의 자연스러운 HMI를 실현하기 위해, 마커 없이 화상해석에 의한 움직임 해석 기술을 이용하고 있다. 마커 없이 화상 해석에 의한 움직임 해석 수법은, 몇 개인가 검토되고 있지만, 대표적으로는, 인물 의 3차원 모델과 스테레오 화상에 의한 움직임과 자세추적수법(예를 들면, 비특허 문헌 1 참조.), 다수 카메라를 이용하는 인물의 3차원 모델에 근거하는 인물 움직임 추적수법(예를 들면, 비특허 문헌 2 참조.), 인물영역과 운동모델에 의한 움직임 해석수법(예를 들면, 비특허 문헌 3 참조.) 등을 들 수 있다.
[비특허 문헌 1] D.Demirdjian, T. Ko, T.Darrell, Constraining Human Body Tracking, Proceedings of the International Conference on Computer Vision, 2003.
[비특허 문헌 2] K.M. Cheung, S.Baker, J.K.Hodgins, and T.Kanade, Markerless Human Motion Transfer, Proceedings of the 2nd International Symposium on 3D Data Processing, Visualization and Transmission, September, 2004.
[비특허 문헌 3] Ramanan, D., Forsyth, DA, Zisserman, A. "Strike a Pose: Tracking People by Finding Stylized Poses. " Computer Vision and Pattern Recognition(CVPR), San Diego, CA, June 2005.
[비특허 문헌 4] D. Demirdjian, T.Darrell, 3-D Articulated Pose Tracking for Untethered Diectic Reference, Proceedings of the International Conference on Multimodal Interfaces, 2002.
비특허 문헌 1에 기재된 수법은, 시스템 구성이 간단하고, 한정된 환경에 있어서 리얼타임으로 인물의 움직임·자세 추정이 가능하지만, 거리화상의 정밀도에 의존하는 것이나, 전후(前後) 프레임간의 움직임량이 작은 일이라고 하는 조건이 필요했다.
또, 비특허 문헌 2에 기재된 수법은, 3차원 모델의 추정이 잘 이루어지면, 인물 움직임의 위치·자세의 추정 정밀도가 높다고 생각되지만, 시스템 구성이 대대적으로, 3차원 모델을 정밀도 좋게 구축하기 위해서, 인물 이외의 배경을 제거할 필요가 있었다.
또, 비특허 문헌 3에 기재된 수법은, 알고리즘이 간단하고, 일반 배경에서의 이용도 가능하지만, 인물의 움직임·자세를 정밀도 좋게 추정하기 위해서, 인물의 각 지체 영역을 정확하게 검출할 필요가 있었다.
또, 이들 기술을 이용하는 경우, 인간의 신체 모델을 얼마나 적용하는가 라고 하는 것이 큰 문제로 되고 있었다. 예를 들면 비특허 문헌 4에는, 시차 화상의 Depth 정보를 이용하여 대상인물을 전경으로서 추출하고, 거기에 3D의 실린더 모델을 적용한 것이 기재되어 있지만, 머리나 팔의 위치를 동정(同定)하는 것은 곤란했다.
이와 같이, 이들 종래의 수법에서는, 일반 환경에서 인물의 자연스러운 움직임·자세를 추정 /추적하는 것이 곤란하고, 자연스러운 HMI를 실현할 수 없었다.
본 발명은, 이와 같은 종래의 실정을 감안하여 제안된 것이며, 인물 움직임의 속도나 복잡한 배경 등에 의하지 않고, 실환경에서 이용 가능한 로버스트(robust)한 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램을 제공하는 것을 목적으로 한다.
본 발명에 관계되는 모션 캡쳐 장치는, 대상인물의 각 관절 및 지체(肢體)의 3차원 위치와 자세를 추적하는 모션 캡쳐 장치에 있어서, 상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하는 생성수단과, 상기 키네마틱스 모델의 관절 사이의 연결구속 및 전(前) 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측수단과, 상기 예측수단으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하는 투영수단과, 상기 투영수단으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가수단과, 상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정수단을 갖춤으로써, 상술의 과제를 해결한다.
또, 본 발명에 관계되는 모션 캡쳐 방법은, 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추적하는 모션 캡쳐 방법에 있어서, 상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하는 생성공정과, 상기 키네마틱스 모델의 관절 사이의 연결구속 및 전 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측공정과, 상기 예측공정으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하는 투영공정과, 상기 투영공정으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가공정과, 상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정공정을 가짐으로써, 상술의 과제를 해결한다.
또, 본 발명에 관계되는 모션 캡쳐 프로그램은, 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추적하는 처리를 실행시키는 모션 캡쳐 프로그램에 있어서, 상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하는 생성공정과, 상기 키네마틱스 모델의 관절 사이의 연결구속 및 전 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측공정과, 상기 예측공정으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하는 투영공정과, 상기 투영공정으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가공정과, 상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정공정을 가짐으로써, 상술의 과제를 해결한다.
이하, 본 발명을 적용한 구체적인 실시의 형태에 대하여, 도면을 참조하면서 상세하게 설명한다.
도 1은, 본 발명의 일실시의 형태에 있어서의 모션 캡쳐 장치의 구성을 나타내는 블록도이다. 이 모션 캡쳐 장치는, 소정의 위치에 배치된 카메라(1L, 1R)와, 카메라 캘리브레이션(calibration)에 의해 카메라 파라미터를 취득하는 카메라 파라미터 취득부(2)와, 카메라(1L, 1R)로 촬상된 화상·거리 정보를 관측하는 화상· 거리 정보 관측부(3)와, 각 관절을 연결한 키네마틱스 모델을 생성하는 동시에 화상정보를 보존하는 초기화부(4)와, 현시각에 있어서의 대상인물의 자세·위치를 예측하는 자세·위치 예측부(5)와, 예측된 자세·위치를 2차원 화상상에 투영하는 자세·위치 투영부(6)와 투영된 2차원 화상을 평가하는 신뢰성 평가부(7)와, 평가치에 근거하여 현시각에 있어서의 대상인물의 자세·위치를 추정하는 자세·위치 추정부(8)를 갖추어 구성되어 있다.
카메라(1L, 1R)는, 동일한 대상인물을 촬영할 수 있도록 소정의 위치에 배치되어 있다. 또한, 본 실시의 형태에서는, 2대의 카메라의 시차로부터 대상물의 거리를 산출하는 「스테레오 비전」을 이용하는 것으로서 설명하지만, 레이저를 조사하여 그 반사광을 검출할 때까지의 시간을 측정함으로써 거리를 산출하는 「레이저 레인지 파인더」등을 이용하는 것으로 해도 좋다.
카메라 파라미터 취득부(2)는, 카메라 캘리브레이션에 의해, 실세계 좌표와 카메라 화상 좌표를 관계지어 카메라 파라미터를 취득한다. 이 카메라 파라미터는, 화상·거리 정보 관측부(3) 및 자세·위치 투영부(6)에 출력된다.
화상·거리 정보 관측부(3)는, 카메라(1L, 1R)로 촬상된 화상을 초기화부(4) 및 신뢰성 평가부(7)에 출력한다. 또, 카메라 파라미터 취득부(2)로 취득된 카메라 파라미터에 근거하여 거리정보를 생성하고, 거리 정보를 초기화부(4) 및 신뢰성 평가부(7)에 출력한다.
초기화부(4)는, 키네마틱스 모델을 생성하기 위해 대상인물의 각 관절점(Sk) 의 3차원 좌표(x,y,z)를 구하는 동시에, 예측된 자세·위치를 평가하기 위해서 관절점, 관절점간의 지체(Limbs) 및 얼굴 등의 특징점의 화상정보(초기 화상 모델)를 보존한다. 이 키네마틱스 모델은, 각 관절이 연결된 관절 모델이다. 또한, 본 실시예에서는, 15의 관절점{Sk:k=0,1,···, 14}으로 표현한 키네마틱스 모델을 이용하는 것으로서 설명한다. 또, 화상정보로서는, 예를 들면, 표면의 질감을 표현하는 텍스처, 색정보, 시차 정보, 윤곽 등의 신뢰도 평가치 등을 이용할 수 있다.
자세·위치 예측부(5)는, 전 시각의 각 관절 및 지체의 예측위치와 키네마틱스 모델의 간접간의 연결성 구속을 이용하고, 현시각의 각 관절 및 지체의 위치를 확률 모델에 의하여 계층적으로 예측하고, 몸의 구조(자세)를 예측한다. 구체적으로는, 후술하는 바와 같이, 관절 모델의 전(前) 계층의 관절의 추정위치에 확률 분포를 가지게 하고, 다음의 계층 관절의 예측위치를 연산한다.
자세·위치 투영부(6)는, 자세·위치 예측부(5)에 의하여 예측된 현시각에 있어서의 대상인물의 3차원 공간의 각 관절 및 지체의 예측위치 및 자세를, 카메라 캘리브레이션으로 얻어진 투영 행렬(P)에 의하여 2차원 화상상에 투영하고, 3차원 좌표(x,y,z)에 대응하는 2차원 화상상의 투영위치(u,v)를 구한다.
신뢰성 평가부(7)은, 자세·위치 투영부(6)에 의하여 얻어진 2차원 화상(관측 화상)상의 투영위치(u, v)의 화상정보(예를 들면, 거리정보·색정보·텍스처 정보 등)와 미리 보존된 화상정보(초기 화상 모델)와의 상사성(相似性)을 계산함으로써, 투영위치의 올바름을 평가한다.
자세·위치 추정부(8)는, 신뢰성 평가부(7)에서 평가된 2차원 화상상의 투영 위치의 평가치에 의하여, 현시각에 있어서의 대상인물의 3차원 공간상의 위치 및 자세를 추정한다. 이 현시각에 있어서의 대상인물의 3차원 공간상의 위치 및 자세의 추정정보는, 자세·위치 예측부(5)에 전 시각의 대상인물의 각 관절 및 지체의 위치로서 출력된다.
여기서, 상술한 모션 캡쳐 처리의 개요를, 도 2에 나타내는 모식도를 이용하여 설명한다.
우선, 미리 적어도 2대 이상의 카메라(1L, 1R)를, 동일한 대상인물을 촬영할 수 있도록 배치하고, 그들의 위치 관계나 카메라 파라미터 등을 카메라 캘리브레이션에 의하여 취득한다. 이 카메라 파라미터 등은, 카메라 파라미터 취득부(2)로부터 화상·거리 정보 관측부(3) 및 자세·위치 투영부(6)에 출력된다.
초기화부(4)에서는, 예를 들면, 도 2a와 같은 화상·거리 정보 관측부(3)로부터 출력된 대상인물의 관측 화상으로부터 시차 화상(u, v, depth)을 예측하고, 그 시차 화상(u, v, depth)을 3차원 공간상에 역투영함으로써, 대상인물의 3차원 형상 및 각 관절의 3차원 위치·좌표 모델(x,y,z)을 산출하고, 키네마틱스 모델을 생성한다. 또, 관측 화상에 근거하여 각 관절의 화상정보(초기 화상 모델)를 보존한다.
다음으로, 자세·위치 예측부(5)에 있어서, 예를 들면, 도 2b와 같은 전 시각(t-1)의 각 관절위치·자세(Pt -1)의 추정결과에 근거하여, 도 2c와 같은 현시각의 각 관절의 위치·자세(Pt)를, 키네마틱스 모델의 관절 사이의 연결성 구속을 이용하 여, 확률 모델에 의하여 계층적으로 예측한다.
자세·위치 투영부(6)는, 예측된 현시각의 대상인물의 각 관절위치·자세(Pt)를, 카메라 캘리브레이션으로 얻어진 투영 행렬(P)에 의하여, 예를 들면, 도 2d와 같이 2차원 화상상에 투영하고, 3차원 좌표(x,y,z)에 대응하는 2차원 화상상의 투영위치 및 시차(u, v, depth)를 구한다.
그리고, 신뢰성 평가부(7)에 있어서, 2차원 화상(관측 화상)상에 투영된 투영위치의 시차(u,v,depth), 색정보, 텍스처 정보 등의 화상정보와, 미리 보존된 화상정보(초기 화상 모델)와의 상사성을 계산하고, 2차원 화상상에 투영된 대상인물의 각 관절의 투영위치·자세의 올바름을 평가한다.
자세·위치 추정부(8)는, 신뢰성 평가부(7)에서 산출된 평가치에 근거하여, 최종적으로, 도 2e와 같이 현시각에 있어서의 대상인물의 3차원 공간상의 예측위치·자세(Pt)를 구한다.
이와 같이 대상인물의 위치·자세·움직임 추적을 행함으로써, 대상인물에게 부담을 주지 않고, 자연스러운 HMI(Human Machine Interface)를 실현할 수 있다.
계속하여, 상술한 모션 캡쳐 장치에 있어서의 각 처리에 대하여 상세하게 설명한다. 우선, 대상인물의 키네마틱스 모델의 생성에 대하여 설명한다. 도 3에 나타내는 바와 같이, 미리 캘리브레이션 된 좌우 카메라(1L, 1R)에 의하여 3차원 공간의 대상인물(30)의 화상을 관측하고, 이들의 관측 화상(u, v, depth)(31L, 31R)을 이용하여 시차 화상(32)을 추정한다. 그리고, 시차 화상(u,v,depth)(32)을 카메라 캘리브레이션으로 구해진 투영 행렬에 의하여, 3차원 공간에 투영하고, 그 3차원 공간에 있어서의 인물의 각 관절의 좌표 위치(x,y,z)를 구함으로써, 대상인물의 키네마틱스 모델(33)을 생성할 수 있다.
도 4는, 키네마틱스 모델을 초기화하기 위한 초기화부(4)의 구성을 나타내는 블록도이다. 초기화부(4)는, 거리화상을 생성하는 거리계측부(41)와, 입력 화상으로부터 얼굴영역의 위치 및 거리를 검출하는 얼굴 검출부(42)와, 거리화상 및 얼굴의 거리에 근거하여 대상인물을 전경(前景)으로 하는 마스크 화상을 생성하는 마스크 생성부(43)와, 얼굴영역의 색히스토그램을 산출하는 색분포 산출부(44)와 얼굴영역의 위치 및 거리에 근거하여 손이 있어야 할 위치를 나타내는 윈도우 위치를 산출하는 손검출 윈도우 생성부(45)와, 얼굴영역의 색상, 채도 및 색상, 채도 각각의 분산치와, 손검출 윈도우의 위치와, 마스크 화상에 근거하여 손을 검출하는 손검출부(46)와, 얼굴 위치 및 거리와, 손의 위치 및 거리에 근거하여 각 관절위치를 산출하는 관절위치 산출부(47)를 갖추어 구성되어 있다.
계속하여, 초기화부(4)에 있어서의 초기화 처리를 도 5에 나타내는 플로차트 및 도 6에 나타내는 모식도를 참조하여 설명한다.
스텝(S1)에 있어서, 거리계측부(41)는, 화상·거리 정보 관측부(3)로부터 출력된 화상·거리 정보에 근거하여 거리화상을 생성한다. 여기서, 거리화상을 생성하는 동시에 그 거리의 신뢰도를 나타내는 화상을 생성하는 것이 바람직하다. 이것에 의해, 후술하는 마스크 화상 생성의 정밀도 향상을 도모할 수 있다. 또한, 신뢰도는, 예를 들면 스테레오법으로 거리를 산출하고, 정규화 상관(相關)을 이용 한 매칭을 행했을 경우, 그 매칭 코스트(matching cost)를 지수화한 것을 이용할 수 있다.
스텝(S2)에 있어서, 얼굴 검출부(42)는, 도 6a에 나타내는 바와 같이, 대상인물의 입력 화상으로부터 얼굴(F)을 검출하고, 얼굴을 검출했다고 판단했을 경우는, 스텝(S3)으로 진행되며, 얼굴을 검출하고 있지 않다고 판단했을 경우는, 스텝 (S1)으로 되돌아간다.
얼굴 인식 기술로서는, 예를 들면, 특재 WO2003/019475(「로봇장치, 얼굴 인식방법 및 얼굴 인식장치」소니(주))에 기재되어 있는 바와 같이, 가보아·필터(Gabor filter)로 얼굴 특징량을 추출하고, 서포트·벡터·머신(support vector machine)으로 얼굴 식별을 행하는 수법을 이용할 수 있다.
스텝(S3)에 있어서, 색분포 산출부(44)는, 도 6b에 나타내는 바와 같이, 얼굴 검출부(42)에서 검출된 얼굴영역의 색히스토그램을 산출한다. 여기서, 히스토그램은, HSI표색계의 H(Hue, 색상) 및 S(Saturation, 채도)에 관하여, 그 도수가 가장 큰 H 및 S를 구하고, 각각 적당한 분산치를 갖게 한 것을 출력한다.
스텝(S4)에 있어서, 얼굴 검출부(42)는, 도 6c에 나타내는 바와 같이, 검출한 얼굴(F) 및 거리계측부(41)에서 계측된 거리화상에 근거하여 얼굴의 거리를 산출한다. 여기서, 노이즈의 영향을 제거하기 위해서, 평균치가 아니라, 얼굴영역내의 중앙 거리의 값인 중앙치(Median)를 이용하는 것이 바람직하다.
스텝(S5)에 있어서, 손검출 윈도우 생성부(45)는, 얼굴 검출부(42)에서 검출한 얼굴영역의 위치 및 거리에 근거하여, 예를 들면, 도 6d에 나타내는 바와 같이, 대상인물이 양손을 수평하게 펼쳤을 때의 손이 있어야 할 위치를 나타내는 윈도우(W)의 위치를 산출한다. 이 손검출 윈도우의 생성방법은, 우선, 화상중의 얼굴 위치 및 거리를 카메라 파라미터 취득부(2)에서 취득한 카메라 파라미터 등에 따라 월드 좌표계로 변환한다. 그리고, 얼굴 위치로부터 목과 팔의 길이를 가산하고, 윈도우 위치를 결정한다. 또한, 개인차를 고려하고, 목의 길이를 270mm±150mm, 팔의 길이를 900mm±350mm로서 규정했다. 또, 대상인물은, 모션 캡쳐 장치에 거의 정면으로 맞서 있다고 가정하고, 손의 거리를 얼굴의 거리와 거의 같다고 했다. 이와 같이 하여 구해진 손검출 윈도우의 월드 좌표치를 카메라 좌표계로 역변환하고, 화상중의 손검출 윈도우의 위치를 산출한다.
스텝(S6)에 있어서, 마스크 생성부(43)는, 거리계측부(41)에서 생성된 거리화상 및 얼굴 검출부(42)에서 산출한 얼굴 거리에 근거하여 도 6e에 나타내는 대상인물을 전경으로 하는 마스크 화상을 생성한다. 여기서, 거리계측부(41)에 있어서, 거리의 신뢰도를 나타내는 화상이 생성되고 있었을 경우, 마스크 생성부(43)는, 거리의 신뢰도를 이용하여, 얼굴 거리로부터 일정한 거리만 시프트 한 값을 임계치로서 2치화한 화상을 마스크 화상으로서 생성한다. 이것에 의해, 마스크 화상 생성의 정밀도를 향상시킬 수 있다. 또한, 화상에 라벨링(labeling)을 설치하여 히스토그램을 취하고, 도수가 큰 영역만 남김으로써 노이즈 제거를 행할 수 있다.
스텝(S7)에 있어서, 손검출부(46)는, 색분포 산출부(44)에서 산출된 색상, 채도 및 색상, 채도 각각의 분산치와 손검출 윈도우 생성부(45)에서 생성한 윈도우 위치와, 마스크 생성부(43)에서 생성한 마스크 화상에 근거하여 손을 검출한다. 구체적으로는, 손검출 윈도우 내에서, 마스크 화상에서 전경으로 되어 있는 영역중에서, 얼굴과 같은 색상 및 채도의 범위에 들어가는 영역을 손으로서 검출한다. 여기서, 손의 영역중에서, 오른손이면 우단에, 왼손이면 좌단에 원을 맞추어 그 중심 위치를 손의 좌표로서 출력한다. 또, 손영역내의 중앙의 좌표에 있어서의 거리의 값을 손의 거리로서 출력한다.
스텝(S8)에 있어서, 손검출부(46)는, 양손이 검출되었는지를 판단하고, 검출되었을 경우는 초기화 성공으로 하고, 스텝(S9)으로 진행된다. 또, 양손이 검출되어 있지 않다고 판단했을 경우, 스텝(S1)으로 되돌아온다.
스텝(S9)에 있어서, 관절위치 산출부(47)는, 얼굴 검출부(42)에서 검출한 얼굴 위치 및 거리와 손검출부(46)에서 검출한 손의 위치 및 거리에 근거하여 각 관절위치의 산출을 행한다. 도 6f는, 각 관절위치(S1~S8)를 나타내는 화상이다. 여기서는, 손이 수평인 상태로 산출되고 있다고 하는 전제이므로, 양손의 위치와 미리 준비해 둔 어깨, 상완(上腕) 및 하완(下脘)의 길이 비율을 이용함으로써, 어깨와 팔꿈치의 위치를 결정할 수가 있다. 게다가, 마스크 생성부(43)에서 생성한 거리의 신뢰도를 나타내는 마스크 화상을 이용함으로써, 노이즈를 제거하고, 팔꿈치와 어깨 위치의 정밀도 향상을 도모할 수 있다. 구체적으로는, 우선, 팔꿈치의 X좌표에 있어서의 마스크 전경 부분의 Y좌표를 구하고, 그 중앙치를 팔꿈치의 Y좌표로서 채용한다. 또, 상완부의 X좌표에서 몇 점인가를 샘플링하여, 각각에 있어서의 마스크 전경 부분의 Y좌표의 중앙치를 그 점의 Y좌표로서 채용하고, 그들 점을 이용하여 상완부의 근사 직선을 구한다. 그리고, 어깨의 X좌표에 있어서의 그 근사 직선상의 점을, 어깨 위치로서 채용한다. 이들 처리에 의해, 대폭으로 관절위치 정밀도를 향상시킬 수 있다.
이와 같이 3차원 공간의 각 관절위치를 구함으로써, 키네마틱스 모델을 고정밀도로 초기화할 수 있다. 또, 키네마틱스 모델의 초기화 할 때, 그 모델의 각 관절점에 대응하는 화상정보(텍스처, 색, 시차, 신뢰도 평가치 등)를 보존하고, 초기 화상 모델로 한다. 이 초기 모델은, 후술하는 추적처리에 있어서, 관측 화상과 비교되며, 예측의 올바름의 평가, 추적결과의 산출에 이용된다.
다음으로, 키네마틱스 모델의 각 관절위치의 예측방법에 대하여 설명한다. 도 7a는, 본 실시형태에 있어서의 계층적 예측방법의 개념도를 나타낸다. 이 계층적 예측법은, 우선, 가장 관측하기 쉬운 인물의 머리 부분(얼굴)의 정보를 이용하여, 목관절(S0) 및 머리 부분 중심(S1)의 위치를 추정한다. 그리고, 관절(S0)의 추정결과를 바탕으로, 어깨관절(S2, S3) 및 등의 관절(S8)의 위치를 추정한다. 그 후, 각각의 관절(S2, S3, S8)의 추정결과를 이용하여, 양팔꿈치 관절(S4, S5) 및 허리부관절(S9, S10)의 위치를 추정한다. 또한, 양팔꿈치 관절(S4, S5)을 베이스로, 양팔의 관절(S6, S7)의 위치를 추정한다. 또, 허리부관절(S9, S10)을 베이스로 양 무릎관절(S11, S12)의 위치를 추정한다. 마지막으로, 양(兩) 무릎관절(S11, S12)에 근거하여 양 다리관절(S13, S14)의 위치를 추정한다. 즉, 이 계층적 예측법은, 키네 마틱스 모델의 관절 사이의 연결성 구속 및 전 시각의 관절위치에 근거하여, 현시각의 각 관절위치를 차례차례 산출하는 것이다.
도 7b는, 각 관절점의 예측방법을 설명하기 위한 모식도이다. 현시각(t)에 있어서의 각 관절(S1~S0)의 예측위치는, 전 시각(t-1)의 예측결과에 근거하여 구해진다. 또, 현시각(t)에 있어서의 각 관절의 예측위치는, 정규분포로 표현되며, 신뢰성(확률)의 평가가 행해진다. 또, 신뢰성의 평가치에 의해, 각 관절의 추정결과를 어떤 범위 내로 변동시킨다. 이것에 의해, 정밀도가 나쁜 추정결과를 그대로 이용했을 경우, 각각 연접하는 관절으로의 추정 정밀도에 큰 영향이 생기는 것을 방지한다.
도 8 및 도 9는, 키네마틱스 모델의 각 관절위치의 예측을 위한 구성을 나타내는 블록도이다. 여기서, 관절(S0~S8)의 위치·자세 예측부(51~58)는, 자세·위치 예측부(5)에 대응하는 것이며, 관절(S0~S8)의 위치·자세 추정부(81~88)는, 자세·위치 추정부(8)에 대응하는 것이다. 즉, 도 1에 있어서, 키네마틱스 모델의 관절 사이의 연결성 구속에 따른 순서로, 관절의 예측위치를 자세·위치 예측부(5)에서 예측하고, 자세·위치 투영부(6)에서 예측위치를 2차원 화상상에 투영하고, 신뢰성 평가부(7)에서 2차원 화상상에 투영된 예측위치의 신뢰성을 평가하고, 평가결과에 근거하여 자세·위치 추정부(8)에서 추정위치를 추정한다. 그리고, 자세·위치 추정부(8)에서 추정된 추정위치는, 다음에 예측하는 계층의 관절의 예측위치 연산에 이용된다.
현시각(t)에 있어서의 각 관절의 예측치(위치·자세)는, 전 시각(t-1)에 있어서의 각 관절Sm(m=0,···, 14)의 각 가설{k=1,2,···, K}에 근거하는 자세의 예측 함수ωm(t,k) 및 위치의 예측함수ξm(t,k)를 이용하여 계산된다(m=0,···, 14). ωm(t,k) 및ξm(t,k)는, 각각 시각(t)의 제 m번째의 관절에 관하여 하기와 같이 계산된다.
Figure 112007043870092-PAT00001
여기서, φ는, 평균치(μ), 표준분산(σ)의 정규 난수를 얻기 위한 함수이며, ν는, 시각(t-1)에서의 각 관절점의 움직임 속도를 나타내고, κ는, 기여도를 조정하는 정수를 나타낸다.
도 8에 나타내는 상반신의 각 관절의 예측을 위한 구성은, 목관절(S0)과 머리부분 중심(S1)의 위치·자세를 예측하는 S0와 S1의 위치·자세 예측부(51)와 S0와 S1의 위치·자세 추정부(81)와, 목관절(S0)의 추정결과에 근거하여 어깨관절(S2, S3)의 위치·자세를 예측하는 S2와 S3의 위치·자세 예측부(52)와, S2와 S3의 위치·자세 추정부(82)와, 어깨관절(S2, S3)의 추정결과에 근거하여 양팔꿈치 관절(S4, S5)을 위치·자세를 예측하는 S4와 S5의 위치·자세 예측부(53)와, S4와 S5의 위치·자세 추정부(83)와, 양팔꿈치 관절(S4, S5)에 근거하여 양팔의 관절(S6, S7)의 위치·자세를 예측하는 위치·자세 예측부(54)와, S6와 S7의 위치·자세 추정부(84)를 갖추고 있다.
S0과 S1의 위치·자세 예측부(51)는, 전 시각(t-1)의 목관절위치(S0 (t-1,k)) 및 머리 부분 중심 위치(S1 (t-1,k))를 입력정보로서 받고, 현시각(t)의 목관절위치(S0 (t,k)) 및 머리 부분 중심 위치(S1 (t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00002
S0과 S1의 위치·자세 추정부(81)는, 후술하는 바와 같이 현시각(t)의 목관절위치(S0 (t,k)) 및 머리 부분 중심 위치(S1 (t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 목관절위치의 가설(S0 (t))을 S2와 S3의 위치·자세 예측부(52)에 출력한다.
S2와 S3의 위치·자세 예측부(52)는, 전 시각(t-1)의 어깨관절위치(S2 (t-1,k), S3(t-1,k)) 및 현시각(t)의 목관절의 추정위치(S0 (t))를 입력정보로서 받고, 현시각(t) 의 어깨관절위치(S2(t,k), S3(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00003
S2와 S3의 위치·자세 추정부(82)는, 후술하는 바와 같이 현시각(t)의 어깨관절위치(S2(t,k), S3(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S2(t), S3(t))를 S4와 S5의 위치·자세 예측부(53)에 출력한다.
S4와 S5의 위치·자세 추정부(83)는, 전 시각(t-1)의 양팔꿈치 관절위치 (S4(t-1,k), S5 (t-1,k)) 및 현시각(t)의 어깨관절의 추정위치(S2 (t), S3 (t))를 입력정보로서 받고, 현재시각(t)의 양팔꿈치 관절위치(S4(t,k), S5(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00004
S4와 S5의 위치·자세 추정부(83)는, 후술하는 바와 같이 현시각(t)의 양팔꿈치 관절위치(S4(t,k), S5(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예 를 들면, 가장 신뢰성이 높은 가설(S4 (t), S5 (t))을 S6와 S7의 위치·자세 예측부(54)에 출력한다.
S6과 S7의 위치·자세 예측부(54)는, 전 시각(t-1)의 양팔의 관절위치(S6 (t-1,k), S7 (t-1,k)) 및 현시각(t)의 양팔꿈치 관절위치(S4(t), S5(t))를 입력정보로서 받고, 현시각(t)의 양팔꿈치 관절위치(S6(t,k), S7(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00005
S6과 S7의 위치·자세 추정부(84)는, 후술하는 바와 같이 현시각(t)의 양팔의 관절위치(S6(t,k), S7(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S6 (t), S7 (t))을 양팔의 관절위치로서 출력한다.
또, 도 9에 나타내는 하반신의 각 관절을 예측하기 위한 구성은, 등의 관절(S8)의 위치·자세를 예측하는 S8의 위치·자세 예측부(55)와, S8의 위치·자세 추정부(85)와, 등의 관절(S8)의 추정결과에 근거하여 허리부관절(S9, S10)의 위치·자세를 예측하는 S9와 S10의 위치·자세 예측부(56)와, S9와 S10의 위치·자세 추정부(86)와, 허리부관절(S9, S10)의 추정결과에 근거하여 양 무릎관절(S11, S12)의 위치 ·자세를 예측하는 S11과 S12의 위치·자세 예측부(57)와, S11과 S12의 위치·자세 추정부(87)와 양 무릎관절(S11, S12)에 근거하여 양 다리관절(S13, S14)의 위치·자세를 예측하는 위치·자세 예측부(58)와, S13와 S14의 위치·자세 추정부(88)를 갖춘다.
S8의 위치·자세 예측부(55)는, 전 시각(t-1)의 등의 관절위치(S8 (t-1,k)) 및 현시각(t)의 목관절위치(S0(t))를 입력정보로서 받고, 현시각(t)의 등의 관절위치(S8 (t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00006
S8의 위치·자세 추정부(85)는, 후술하는 바와 같이 현시각(t)의 등의 관절위치(S8 (t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S8 (t))을 S9와 S10의 위치·자세 예측부(56)에 출력한다.
S9와 S10의 위치·자세 예측부(56)는, 전 시각(t-1)의 허리부 관절위치(S9 (t-1,k), S10 (t-1,k)) 및 현시각(t)의 등의 관절위치(S8(t))를 입력정보로서 받고, 현시각(t)의 어깨관절위치(S9(t,k), S10(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00007
S9와 S10의 위치·자세 추정부(86)는, 후술하는 바와 같이 현시각(t)의 허리부 관절위치(S9(t,k), S10(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S9 (t), S10 (t))을 S11과 S12의 위치·자세 예측부(57)에 출력한다.
S11와 S12의 위치·자세 예측부(57)는, 전 시각(t-1)의 양 무릎관절위치(S11 (t-1,k), S12 (t-1,k)) 및 현시각(t)의 허리부의 관절위치(S9(t), S10(t))를 입력정보로서 받고, 현시각(t)의 양 무릎관절위치(S11(t,k), S12(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00008
S4와 S5의 위치·자세 추정부(87)는, 후술하는 바와 같이 현시각(t)의 양 무릎관절위치(S11(t,k), S12(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S11 (t), S12 (t))을 S12와 S13의 위치·자세 예측부(58)에 출력한다.
S13과 S14의 위치·자세 예측부(58)는, 전 시각(t-1)의 양 다리관절위치 (S13(t-1,k), S14 (t-1,k)) 및 현시각(t)의 양 무릎관절위치(S11(t), S12(t))를 입력정보로서 받고, 현시각(t)의 양 다리관절위치(S13(t,k), S14(t,k))의 예측치를 산출한다.
Figure 112007043870092-PAT00009
S13와 S14의 위치·자세 추정부(88)는, 현시각(t)의 양 다리관절위치(S13 (t,k), S14(t,k))의 가설{k=1,2,···, K}의 신뢰성을 평가하고, 예를 들면, 가장 신뢰성이 높은 가설(S13 (t), S14 (t))을 양 다리관절위치로서 출력한다.
이와 같이 인접 관절점을 추적 정밀도(확률)에 근거하여 예측함으로써, 적은 가설로 전신(全身)의 움직임을 예측할 수 있다. 예를 들면, 각 관절점의 가설(k)(예측 필터수)을 10으로 하고, 15관절의 움직임을 동시에 예측했을 경우, 1015 가설수가 필요하지만, 인접 관절점을 계층적으로 예측했을 경우, 10×15=150 가설수만으로 좋다.
또, 본 수법은, 앞의 관절점(Sk-1)의 추적결과의 신뢰성을 평가하고, Sk의 예측 모델(파라미터)을 동적으로 변화시킴으로써, 예를 들면, S0의 추정결과가 좋지 않은 경우, 모든 관절점에 영향을 주는, 각 계층의 오차누적에 의한 추적 정밀도의 저하를 막을 수 있다. 예를 들면, 관절점(S4)의 추적결과의 신뢰성의 평가치가 낮은 경우, 관절점(S6)의 움직임을 예측·추적할 때, 도 10에 나타내는 바와 같이 S4를 중심으로 하는 예측위치(x,y,z)를 확률적으로 변화시키면서, 그것을 팔(S4-S6)의 회전 중심으로서 S6의 움직임 예측과 추적을 행하고, 최종적으로 팔(S4 -S6)의 움직임을 추정함으로써, 새로운 팔꿈치의 관절점(S4')을 추정할 수 있다. 이 예에서는, 팔(S4 -S6)의 추정결과가 보다 올바른 팔꿈치 관절위치로서 얻을 수 있으므로, 팔꿈치 관절점(S4 )의 결과를 상완(S2-S4)의 추정결과에 피드백하는 것도 가능하다.
도 11은, 자세·위치 투영부(6), 신뢰성 평가부(7) 및 자세·위치 추정부(8)의 처리를 설명하기 위한 모식도이다.
자세·위치 투영부(6)는, 각 관절의 가설(k)의 예측위치((x,y,z)k)를 2D화상((u,v,depth)k)에 투영한다. 즉, 도 8 및 도 9에 나타내는 각 위치·자세 예측부(51~58)에서 예측된 각 가설을 카메라 캘리브레이션으로 얻어진 투영 행렬에 의하여 2차원 화상에 투영한다. 구체적인 예로서, 예를 들면, 도 11a에 나타내는 오른팔 관절(S7)의 각 가설의 예측위치(x,y,z)에 대하여, 도 11b에 나타내는 바와 같이, 그들 좌표치를 관측화상상에 투영하고, 2차원 화상상의 투영위치·시 차(u,v,depth)를 구한다.
신뢰성 평가부(7)는, 각 가설에 의한 관측 화상상의 투영위치의 화상정보와 미리 보존된 모델 화상의 화상정보와의 상사성을 평가하고, 예측된 각 가설의 신뢰성(확률)을 계산한다. 여기서, 모델 화상의 화상정보로서, 초기화시에 보존된 화상정보(예를 들면, 어떤 윈도우내의 화상 텍스처, 색분포, 시차 등)를 이용할 수 있다. 또, 상사성 평가방법으로서는, 예를 들면, 그들의 화상 패턴을 이용하는 정규화 상관이나, 그들의 화상 패턴의 색분포 특성의 매칭을 이용할 수 있다.
매칭 평가는, 계층적인 움직임 예측수단에 의하여 예측된 현시각(t)의 각 관절점(Sm(t,k))의 가설(m:관절점 번호, k:가설 번호)의 3차원 위치를, 현시각(t)의 2차원 화상 평면에 투영할 때, 가설의 움직임 예측 파라미터(R,T)를 이용하고, 초기화 할 때에 얻어진 화상 영역에 대응하는 3차원 영역 위치에 회전(R), 이동(T)처리를 행하고, 2차원 모델 화상 패턴을 구하고, 이 모델 화상 패턴과, 가설의 투영위치의 화상 패턴과의 상사성 평가를 행하고, 매칭 스코아를 계산함으로써 행해진다.
자세·위치 추정부(8)는, 상사성 평가치(확률)에 의한 각 관절(Sm)의 위치·자세를 추정한다. 즉, 각 가설의 예측위치에서의 확률을 기여도로 한 평균상태의 통계 처리에 의하여, 관절의 위치·자세를 결정한다. 구체적으로는, 예를 들면, 도 11b에 나타내는 바와 같이 오른팔의 관절(S7)의 각 가설의 2차원 화상상의 투영위치를, 신뢰성 평가부(7)의 매칭 처리에 의해 평가된 신뢰성(확률)에 근거하여 통계 처리함으로써, 도 11c에 나타내는 바와 같이 오른팔 관절(S7)의 위치를 추정한 다.
이상과 같이, 대상인물의 키네마틱스 모델을 이용하여 계층적으로 현시각의 관절위치를 예측함으로써, 일반 환경에서의 대상인물의 3차원 공간의 위치·자세를 로버스트에 추정할 수 있다. 또, 2대 이상의 복수 카메라를 이용함으로써, 대상인물의 키네마틱스 모델을 용이하게 생성할 수 있는 동시에, 대상인물의 위치·자세의 추정 정밀도를 향상시킬 수 있다. 또, 배경 차분이나 시간 차분을 이용하지 않기 때문에, 환경 변화에 로버스트 한다. 또, 마커를 이용하지 않고, 대상인물의 위치·자세·움직임 추적을 행할 수 있기 때문에, 대상인물에게 부담을 주지 않고, 자연스러운 HMI를 실현할 수 있다.
본 발명에 의하면, 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하고, 키네마틱스 모델의 각 관절의 연결구속 및 전(前) 시각의 예측위치에 근거하여 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하고, 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하고, 투영위치의 신뢰성을 대상인물의 관측 화상에 근거하여 평가하고, 그 평가결과에 근거하여 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정함으로써, 특수한 마커·센서가 불필요하고, 또한, 자연스러운 휴먼 머신 인터액션을 실현할 수 있다.

Claims (10)

  1. 대상인물의 각 관절 및 지체(肢體)의 3차원 위치와 자세를 추적하는 모션 캡쳐 장치에 있어서,
    상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스(kinematics) 모델을 생성하는 생성수단과,
    상기 키네마틱스 모델의 관절 사이의 연결구속 및 전(前) 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현(現)시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측수단과,
    상기 예측수단으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상(畵像上)에 투영하는 투영수단과,
    상기 투영수단으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가수단과,
    상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정수단을 갖추는 것을 특징으로 하는 모션 캡쳐 장치.
  2. 제 1항에 있어서,
    상기 관측 화상으로부터 거리화상을 생성하는 거리화상 생성수단과,
    상기 관측 화상으로부터 얼굴영역의 위치 및 거리를 검출하는 얼굴검출수단 과,
    상기 거리화상 및 얼굴의 거리에 근거하여 대상인물을 전경(前景)으로 하는 마스크 화상을 생성하는 마스크 생성수단과,
    상기 얼굴영역의 색히스토그램을 산출하는 색분포 산출수단과,
    상기 얼굴영역의 위치 및 거리에 근거하여 소정 위치에 손검출 윈도우를 생성하는 손검출 윈도우 생성수단과,
    상기 얼굴영역의 색히스토그램, 상기 손검출 윈도우의 위치 및 상기 마스크 화상에 근거하여 손의 위치 및 거리를 검출하는 손검출수단과,
    상기 얼굴 위치 및 거리와, 상기 손의 위치 및 거리에 근거하여 상기 키네마틱스 모델의 각 관절위치를 산출하는 관절위치 산출수단을 또한 갖추는 것을 특징으로 하는 모션 캡쳐 장치.
  3. 제 2항에 있어서,
    상기 관절위치 산출수단은, 상기 마스크 화상의 전경(前景) 영역의 팔꿈치 관절의 Y축상의 중앙치를 팔꿈치 관절을 Y좌표로 하고, 상기 마스크 화상의 전경 영역의 상완부(上腕部)의 Y축상의 중앙치를 상완부의 Y좌표로서 상완부의 근사 직선을 구하고, 어깨관절의 X축상과 상기 근사 직선상과의 교점을, 어깨관절의 위치로서 산출하는 것을 특징으로 하는 모션 캡쳐 장치.
  4. 제 1항에 있어서,
    상기 생성수단은, 상기 관측 화상으로부터 대상인물의 시차 화상을 추정하고, 이 시차 화상을 3차원 공간에 역투영함으로써, 상기 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 산출하고, 키네마틱스 모델을 생성하는 것을 특징으로 하는 모션 캡쳐 장치.
  5. 제 1항에 있어서,
    상기 투영수단은, 상기 예측수단에 의하여 예측된 현시각의 각 관절 및 지체의 3차원 위치와 자세를, 카메라 캘리브레이션(calibration)으로 얻어진 투영 행렬에 의하여 3차원 공간의 위치에 대응하는 2차원 화상상의 투영위치를 구함으로써, 상기 2차원 화상상에 투영하는 것을 특징으로 하는 모션 캡쳐 장치.
  6. 제 1항에 있어서,
    상기 평가수단은, 상기 투영위치에 대응하는 관측 화상의 화상정보와, 미리 보존된 각 관절 및 지체의 화상정보와의 상사성(相似性)을 계산하고, 상기 신뢰성을 평가하는 것을 특징으로 하는 모션 캡쳐 장치.
  7. 제 1항에 있어서,
    상기 추정수단은, 상기 투영수단으로 투영된 투영위치에 대한 평가치에 근거하여, 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 것을 특징으로 하는 모션 캡쳐 장치.
  8. 제 1항에 있어서,
    동일한 대상인물을 촬영할 수 있도록 적어도 2대 이상의 카메라를 배치하는 동시에, 이들의 위치 관계 및 카메라 파라미터를 미리 가지는 화상관측수단을 더 갖추는 것을 특징으로 하는 모션 캡쳐 장치.
  9. 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추적하는 모션 캡쳐 방법에 있어서,
    상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하는 생성공정과,
    상기 키네마틱스 모델의 관절 사이의 연결구속 및 전 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측공정과,
    상기 예측공정으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하는 투영공정과,
    상기 투영공정으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가공정과,
    상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정공정을 가지는 것을 특징으로 하는 모션 캡쳐 방법.
  10. 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추적하는 처리를 실행시키는 모션 캡쳐 프로그램에 있어서,
    상기 대상인물의 관측 화상으로부터 각 관절이 연결된 키네마틱스 모델을 생성하는 생성공정과,
    상기 키네마틱스 모델의 관절 사이의 연결구속 및 전(前) 시각의 예측위치에 근거하여 상기 대상인물의 각 관절의 현시각의 예측위치를 계층적으로 산출하고, 현시각의 각 관절 및 지체의 3차원 위치와 자세를 예측하는 예측공정과,
    상기 예측공정으로 예측된 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 2차원 화상상에 투영하는 투영공정과,
    상기 투영공정으로 투영된 투영위치의 신뢰성을 상기 대상인물의 관측 화상에 근거하여 평가하는 평가공정과,
    상기 신뢰성의 평가결과에 근거하여 상기 현시각의 대상인물의 각 관절 및 지체의 3차원 위치와 자세를 추정하는 추정공정을 가지는 것을 특징으로 하는 모션 캡쳐 프로그램.
KR1020070059441A 2006-06-19 2007-06-18 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램 KR20070120443A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00169070 2006-06-19
JP2006169070A JP4148281B2 (ja) 2006-06-19 2006-06-19 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム

Publications (1)

Publication Number Publication Date
KR20070120443A true KR20070120443A (ko) 2007-12-24

Family

ID=38353959

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070059441A KR20070120443A (ko) 2006-06-19 2007-06-18 모션 캡쳐 장치 및 모션 캡쳐 방법과 모션 캡쳐 프로그램

Country Status (6)

Country Link
US (1) US8355529B2 (ko)
EP (1) EP1870038B1 (ko)
JP (1) JP4148281B2 (ko)
KR (1) KR20070120443A (ko)
CN (1) CN101093582B (ko)
DE (1) DE602007001104D1 (ko)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940860B1 (ko) * 2007-12-18 2010-02-09 한국전자통신연구원 디지털 크리쳐의 이동 동작 생성 방법 및 장치
WO2013163656A1 (en) * 2012-04-27 2013-10-31 Blast Motion, Inc. Calibration system for simultaneous calibration of multiple
US8613676B2 (en) 2010-08-26 2013-12-24 Blast Motion, Inc. Handle integrated motion capture element mount
US8644552B2 (en) 2009-10-13 2014-02-04 Samsung Electronics Co., Ltd. Markerless motion capturing apparatus and method
US8700354B1 (en) 2013-06-10 2014-04-15 Blast Motion Inc. Wireless motion capture test head system
KR101394276B1 (ko) * 2013-12-31 2014-05-13 (주) 골프존 뎁스 영상 분석을 통한 사용자의 골프 스윙 자세 분석을 위한 영상 생성 방법과 이를 이용한 골프 스윙 자세 분석 방법 및 장치
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR20140142037A (ko) * 2013-06-03 2014-12-11 삼성전자주식회사 포즈 추정 방법 및 장치
US8988438B2 (en) 2008-06-30 2015-03-24 Samsung Electronics Co., Ltd. Motion capture apparatus and method
US9028337B2 (en) 2010-08-26 2015-05-12 Blast Motion Inc. Motion capture element mount
US9033810B2 (en) 2010-08-26 2015-05-19 Blast Motion Inc. Motion capture element mount
US9047676B2 (en) 2009-06-25 2015-06-02 Samsung Electronis Co., Ltd. Data processing apparatus generating motion of 3D model and method
US9052201B2 (en) 2010-08-26 2015-06-09 Blast Motion Inc. Calibration system for simultaneous calibration of multiple motion capture elements
CN105832342A (zh) * 2016-03-14 2016-08-10 深圳清华大学研究院 基于光学运动捕捉系统可视空间扩展的运动学参数捕捉方法
US9622361B2 (en) 2010-08-26 2017-04-11 Blast Motion Inc. Enclosure and mount for motion capture element
US9643049B2 (en) 2010-08-26 2017-05-09 Blast Motion Inc. Shatter proof enclosure and mount for a motion capture element
US9746354B2 (en) 2010-08-26 2017-08-29 Blast Motion Inc. Elastomer encased motion sensor package
CN107847187A (zh) * 2015-07-07 2018-03-27 皇家飞利浦有限公司 用于对肢体的至少部分进行运动跟踪的装置和方法
US10254139B2 (en) 2010-08-26 2019-04-09 Blast Motion Inc. Method of coupling a motion sensor to a piece of equipment
CN113358383A (zh) * 2021-05-08 2021-09-07 中国标准化研究院 一种空调室外机工效学实验系统及工效学测试方法
KR20220136050A (ko) * 2021-03-30 2022-10-07 와이폴라리스 주식회사 사람의 3d좌표를 생성하고 3d좌표의 타당성을 검토하는 장치 및 방법

Families Citing this family (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US20140035805A1 (en) * 2009-04-02 2014-02-06 David MINNEN Spatial operating environment (soe) with markerless gestural control
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8407725B2 (en) 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
US8437549B2 (en) 2008-03-14 2013-05-07 Panasonic Corporation Image processing method and image processing apparatus
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
JP4613994B2 (ja) * 2008-09-16 2011-01-19 ソニー株式会社 動態推定装置、動態推定方法、プログラム
JP5066047B2 (ja) * 2008-10-01 2012-11-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
EP2343685B1 (en) * 2008-10-01 2020-07-29 Sony Interactive Entertainment Inc. Information processing device, information processing method, program, and information storage medium
KR101221451B1 (ko) 2008-12-22 2013-01-11 한국전자통신연구원 다시점 영상기반 동적 개체의 디지털 클론 생성 방법
JP2010176380A (ja) 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US20150309581A1 (en) * 2009-04-02 2015-10-29 David MINNEN Cross-user hand tracking and shape recognition user interface
CN101872476A (zh) * 2009-04-24 2010-10-27 索尼株式会社 估计图像中对象姿势视角的方法、设备
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
CN102103457B (zh) * 2009-12-18 2013-11-20 深圳富泰宏精密工业有限公司 简报操作系统及方法
WO2011080923A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 関節状領域検出装置およびその方法
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
JP5387856B2 (ja) * 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5757063B2 (ja) 2010-03-29 2015-07-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
RU2534892C2 (ru) * 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Устройство и способ для захвата безмаркерных движений человека
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP2012053606A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP5820366B2 (ja) * 2010-10-08 2015-11-24 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2012098988A (ja) 2010-11-04 2012-05-24 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012113460A (ja) * 2010-11-24 2012-06-14 Sony Corp 情報処理装置および方法、並びにプログラム
CN103221977B (zh) * 2010-12-09 2015-10-14 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
CN103003846B (zh) * 2011-01-26 2016-07-06 松下知识产权经营株式会社 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
CN106964150B (zh) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
EP2689413A4 (en) * 2011-03-25 2015-07-22 Oblong Ind Inc QUICK FINGER FINGER DETECTION TO INITIALIZE A VISION BASED HAND TRACER
CN102156994B (zh) * 2011-04-19 2013-03-20 上海摩比源软件技术有限公司 一种单视角无标记人体运动跟踪的关节定位方法
WO2012156141A1 (en) * 2011-05-16 2012-11-22 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking
JP5786463B2 (ja) * 2011-06-01 2015-09-30 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
US9412010B2 (en) * 2011-07-15 2016-08-09 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
TWI437467B (zh) * 2011-10-11 2014-05-11 Ind Tech Res Inst 顯示控制裝置及顯示控制方法
KR101305694B1 (ko) * 2011-10-20 2013-09-09 엘지이노텍 주식회사 목표물을 검출하기 위한 영상 처리 방법, 장치, 사용자 인터페이스를 위한 방법 및 장치
US8457357B2 (en) * 2011-11-09 2013-06-04 Disney Enterprises, Inc. Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view
CN102779347B (zh) * 2012-06-14 2014-08-06 清华大学 一种用于飞行器的目标跟踪与定位方法和装置
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
CN103908293B (zh) * 2012-12-28 2018-03-27 通用电气公司 用于测量医学图像的医学成像系统和方法
JP6181373B2 (ja) * 2013-01-18 2017-08-16 東芝メディカルシステムズ株式会社 医用情報処理装置及びプログラム
US9141852B1 (en) * 2013-03-14 2015-09-22 Toyota Jidosha Kabushiki Kaisha Person detection and pose estimation system
US20140276095A1 (en) * 2013-03-15 2014-09-18 Miriam Griggs System and method for enhanced goniometry
US10032273B2 (en) * 2013-03-15 2018-07-24 Cognex Corporation Machine vision system calibration using inaccurate calibration targets
JP2015061579A (ja) * 2013-07-01 2015-04-02 株式会社東芝 動作情報処理装置
JP6162517B2 (ja) * 2013-07-18 2017-07-12 東芝メディカルシステムズ株式会社 体位決定支援装置及び医用画像診断装置
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
US9091561B1 (en) 2013-10-28 2015-07-28 Toyota Jidosha Kabushiki Kaisha Navigation system for estimating routes for users
CN103559708B (zh) * 2013-10-30 2016-08-17 同济大学 基于方靶模型的工业定焦相机参数标定装置
CN104635917B (zh) * 2013-11-08 2018-09-11 中国电信股份有限公司 动作捕捉方法和装置、用于非接触输入的方法和装置
US10181193B2 (en) * 2014-03-10 2019-01-15 Microsoft Technology Licensing, Llc Latency reduction in camera-projection systems
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US11013451B2 (en) 2014-09-19 2021-05-25 Brigham Young University Marker-less monitoring of movement disorders
US9552070B2 (en) 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
US9613505B2 (en) 2015-03-13 2017-04-04 Toyota Jidosha Kabushiki Kaisha Object detection and localized extremity guidance
KR101654156B1 (ko) 2015-06-12 2016-09-05 ㈜리커시브소프트 센서 모듈의 데이터 송수신을 이용한 모션 캡쳐 시스템 및 이를 이용한 모션 캡쳐 방법
CN108292437B (zh) 2015-11-20 2022-04-26 索尼公司 图像处理装置和方法
JP2017102808A (ja) * 2015-12-04 2017-06-08 ソニー株式会社 画像処理装置および方法
JP2017144490A (ja) * 2016-02-15 2017-08-24 オムロン株式会社 制御装置、制御システム、制御方法およびプログラム
WO2017163928A1 (ja) * 2016-03-24 2017-09-28 ソニー株式会社 画像処理装置および方法
CN105912982B (zh) * 2016-04-01 2020-07-14 北京明泰朗繁精密设备有限公司 一种基于肢体动作识别的控制方法及装置
US11006856B2 (en) * 2016-05-17 2021-05-18 Harshavardhana Narayana Kikkeri Method and program product for multi-joint tracking combining embedded sensors and an external sensor
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
WO2018087933A1 (ja) * 2016-11-14 2018-05-17 富士通株式会社 情報処理装置、情報処理方法、およびプログラム
CN107832713B (zh) * 2017-11-13 2021-11-16 南京邮电大学 一种基于OptiTrack的人体姿态识别方法
CN107920229A (zh) * 2017-11-14 2018-04-17 国网黑龙江省电力有限公司信息通信公司 机房监控记录生成系统及方法
JP6760656B2 (ja) * 2017-11-24 2020-09-23 国立大学法人 岡山大学 物体識別方法
JP6933110B2 (ja) * 2017-11-29 2021-09-08 富士通株式会社 カメラの外部パラメータの推定方法、推定装置および推定プログラム
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
CN109008993A (zh) * 2018-07-13 2018-12-18 武汉久乐科技有限公司 一种生命体征数据采集控制方法和装置
JP7209333B2 (ja) 2018-09-10 2023-01-20 国立大学法人 東京大学 関節位置の取得方法及び装置、動作の取得方法及び装置
WO2020096403A1 (en) * 2018-11-09 2020-05-14 Samsung Electronics Co., Ltd. Textured neural avatars
CN109800645A (zh) * 2018-12-18 2019-05-24 武汉西山艺创文化有限公司 一种动作捕捉系统及其方法
CN111460871B (zh) * 2019-01-18 2023-12-22 北京市商汤科技开发有限公司 图像处理方法及装置、存储介质
KR102198920B1 (ko) * 2019-02-28 2021-01-06 네이버 주식회사 온라인 학습을 이용한 객체 트래킹을 위한 방법 및 시스템
CN110287764B (zh) 2019-05-06 2022-01-11 深圳大学 姿势预测方法、装置、计算机设备和存储介质
AU2020275846A1 (en) * 2019-05-13 2022-01-06 Hole-In-One Media, Inc. Autonomous activity monitoring system and method
CN110442153B (zh) * 2019-07-10 2022-03-25 佛山科学技术学院 一种被动式光学动捕系统摄像机校正控制方法及系统
CN110349180B (zh) * 2019-07-17 2022-04-08 达闼机器人有限公司 人体关节点预测方法及装置、动作类型识别方法及装置
CN110445982B (zh) * 2019-08-16 2021-01-12 深圳特蓝图科技有限公司 一种基于六自由度设备的追踪拍摄方法
KR20210087680A (ko) * 2020-01-03 2021-07-13 네이버 주식회사 입력 영상에 포함된 객체의 3차원 포즈를 추정하기 위한 데이터를 생성하는 방법 및 장치와 3차원 포즈 추정을 위한 추론 모델
US20230355117A9 (en) * 2020-01-10 2023-11-09 Yur Inc. Energy expense determination using probabilistic inference
CN111524183A (zh) * 2020-04-07 2020-08-11 上海交通大学 一种基于透视投影变换的目标行列定位方法
CN111598995B (zh) * 2020-04-23 2023-04-28 浙江工商大学 一种基于原型分析的自监督多目三维人体姿态估计方法
CN111738220B (zh) * 2020-07-27 2023-09-15 腾讯科技(深圳)有限公司 三维人体姿态估计方法、装置、设备及介质
CN111938658B (zh) * 2020-08-10 2023-09-01 陈雪丽 一种用于手部、腕部与前臂的关节活动度监测系统及方法
WO2022149190A1 (ja) 2021-01-05 2022-07-14 富士通株式会社 骨格推定装置、骨格推定方法および体操採点支援システム
JP7468871B2 (ja) * 2021-03-08 2024-04-16 国立大学法人 東京大学 3d位置取得方法及び装置
JPWO2023007858A1 (ko) 2021-07-30 2023-02-02
WO2023008087A1 (ja) 2021-07-30 2023-02-02 日東電工株式会社 赤外線セキュリティシステム、赤外線発光制御システムおよび意匠ユニット
WO2023195099A1 (ja) * 2022-04-06 2023-10-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム
EP4360547A1 (en) * 2022-10-27 2024-05-01 Koninklijke Philips N.V. Patient pose detection apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6324296B1 (en) * 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
US6269172B1 (en) * 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP4351808B2 (ja) * 1998-09-22 2009-10-28 モーテック・ビー.ブイ. 人間の機能的行動をダイナミックに登録・評価・修正するためのシステム
US6774885B1 (en) * 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
KR100426313B1 (ko) * 2001-12-28 2004-04-06 한국전자통신연구원 영상 제작에서 관절형 객체 자세 변경 방법
JP2003214182A (ja) * 2002-01-24 2003-07-30 Mitsubishi Heavy Ind Ltd ガスタービンコンバインドプラント、およびその運転方法
US20030215130A1 (en) 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
KR100507780B1 (ko) * 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
JP2005040556A (ja) 2003-07-25 2005-02-17 Yoshihito Ono モーション・キャプチャーを用いた運動機能並びに運動能力の分析
WO2005125210A1 (en) 2004-06-14 2005-12-29 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods and apparatus for motion capture
CN1271574C (zh) * 2004-12-09 2006-08-23 上海交通大学 基于标记点的人肢体三维建模方法
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940860B1 (ko) * 2007-12-18 2010-02-09 한국전자통신연구원 디지털 크리쳐의 이동 동작 생성 방법 및 장치
US8988438B2 (en) 2008-06-30 2015-03-24 Samsung Electronics Co., Ltd. Motion capture apparatus and method
US9047676B2 (en) 2009-06-25 2015-06-02 Samsung Electronis Co., Ltd. Data processing apparatus generating motion of 3D model and method
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8644552B2 (en) 2009-10-13 2014-02-04 Samsung Electronics Co., Ltd. Markerless motion capturing apparatus and method
US9622361B2 (en) 2010-08-26 2017-04-11 Blast Motion Inc. Enclosure and mount for motion capture element
US9028337B2 (en) 2010-08-26 2015-05-12 Blast Motion Inc. Motion capture element mount
US9033810B2 (en) 2010-08-26 2015-05-19 Blast Motion Inc. Motion capture element mount
US8613676B2 (en) 2010-08-26 2013-12-24 Blast Motion, Inc. Handle integrated motion capture element mount
US9052201B2 (en) 2010-08-26 2015-06-09 Blast Motion Inc. Calibration system for simultaneous calibration of multiple motion capture elements
US10254139B2 (en) 2010-08-26 2019-04-09 Blast Motion Inc. Method of coupling a motion sensor to a piece of equipment
US9643049B2 (en) 2010-08-26 2017-05-09 Blast Motion Inc. Shatter proof enclosure and mount for a motion capture element
US9746354B2 (en) 2010-08-26 2017-08-29 Blast Motion Inc. Elastomer encased motion sensor package
WO2013163656A1 (en) * 2012-04-27 2013-10-31 Blast Motion, Inc. Calibration system for simultaneous calibration of multiple
KR20140142037A (ko) * 2013-06-03 2014-12-11 삼성전자주식회사 포즈 추정 방법 및 장치
US8700354B1 (en) 2013-06-10 2014-04-15 Blast Motion Inc. Wireless motion capture test head system
KR101394276B1 (ko) * 2013-12-31 2014-05-13 (주) 골프존 뎁스 영상 분석을 통한 사용자의 골프 스윙 자세 분석을 위한 영상 생성 방법과 이를 이용한 골프 스윙 자세 분석 방법 및 장치
WO2015102391A1 (ko) * 2013-12-31 2015-07-09 (주)골프존 뎁스 영상 분석을 통한 사용자의 골프 스윙 자세 분석을 위한 영상 생성 방법과 이를 이용한 골프 스윙 자세 분석 방법 및 장치
CN107847187A (zh) * 2015-07-07 2018-03-27 皇家飞利浦有限公司 用于对肢体的至少部分进行运动跟踪的装置和方法
CN105832342B (zh) * 2016-03-14 2018-08-21 深圳市第二人民医院 基于光学运动捕捉系统可视空间扩展的运动学参数捕捉方法
CN105832342A (zh) * 2016-03-14 2016-08-10 深圳清华大学研究院 基于光学运动捕捉系统可视空间扩展的运动学参数捕捉方法
KR20220136050A (ko) * 2021-03-30 2022-10-07 와이폴라리스 주식회사 사람의 3d좌표를 생성하고 3d좌표의 타당성을 검토하는 장치 및 방법
CN113358383A (zh) * 2021-05-08 2021-09-07 中国标准化研究院 一种空调室外机工效学实验系统及工效学测试方法

Also Published As

Publication number Publication date
DE602007001104D1 (de) 2009-06-25
US8355529B2 (en) 2013-01-15
CN101093582B (zh) 2010-06-02
CN101093582A (zh) 2007-12-26
US20080112592A1 (en) 2008-05-15
EP1870038B1 (en) 2009-05-13
EP1870038A1 (en) 2007-12-26
JP4148281B2 (ja) 2008-09-10
JP2007333690A (ja) 2007-12-27

Similar Documents

Publication Publication Date Title
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US9330470B2 (en) Method and system for modeling subjects from a depth map
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
Iwasawa et al. Real-time estimation of human body posture from monocular thermal images
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
JP5931215B2 (ja) 姿勢を推定する方法及び装置
JP2009536731A5 (ko)
KR100763578B1 (ko) 구 투영기법을 이용한 인체 관절의 3차원 위치 추정 방법
JP2008140101A (ja) 無制約、リアルタイム、かつマーカ不使用の手トラッキング装置
Zou et al. Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking
Jatesiktat et al. Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units
Michoud et al. Real-time marker-free motion capture from multiple cameras
Yamauchi et al. Recognition of walking humans in 3D: Initial results
CN113487674B (zh) 一种人体位姿估计系统和方法
Lee et al. Human body tracking with auxiliary measurements
Canton-Ferrer et al. Marker-based human motion capture in multiview sequences
JP3520050B2 (ja) 移動物体追跡装置
Haker et al. Self-organizing maps for pose estimation with a time-of-flight camera
Iwasawa et al. Real-time human posture estimation using monocular thermal images
JP3401512B2 (ja) 移動物体追跡装置
Senior Real-time articulated human body tracking using silhouette information
Huang et al. A real-time model-based human motion tracking and analysis for human-computer interface systems
Gong et al. Modeling vs. learning approaches for monocular 3D human pose estimation
Liu et al. Cascaded particle filter for real-time tracking using RGB-D sensor
CN112215928B (zh) 基于视觉图像的动作捕捉方法及数字动画制作方法

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application