KR101148234B1 - 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법 - Google Patents

신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법 Download PDF

Info

Publication number
KR101148234B1
KR101148234B1 KR1020100094900A KR20100094900A KR101148234B1 KR 101148234 B1 KR101148234 B1 KR 101148234B1 KR 1020100094900 A KR1020100094900 A KR 1020100094900A KR 20100094900 A KR20100094900 A KR 20100094900A KR 101148234 B1 KR101148234 B1 KR 101148234B1
Authority
KR
South Korea
Prior art keywords
gait
tracking
image
human
model
Prior art date
Application number
KR1020100094900A
Other languages
English (en)
Other versions
KR20120033404A (ko
Inventor
윤광진
김태용
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020100094900A priority Critical patent/KR101148234B1/ko
Publication of KR20120033404A publication Critical patent/KR20120033404A/ko
Application granted granted Critical
Publication of KR101148234B1 publication Critical patent/KR101148234B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)

Abstract

걸음걸이 추적 장치가 제공된다. 상기 걸음걸이 추적 장치는 인간의 걸음걸이를 정면에서 촬영한 영상을 분석하여, 상기 영상 중에서 인체의 각 부분을 다른 부분과 구분함으로써, 걸음걸이를 추적할 수 있다. 걸음걸이 추적 장치는 정면에서 촬영한 걸음걸이의 특징을 이용하여 걸음걸이를 추적하기 위한 상태 변수 중에서 일부 상태 변수만을 고려하여 효율적으로 걸음걸이를 추적할 수 있다.

Description

신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법{APPARATUS AND METHOD FOR TRACKING FRONT VIEW OF WALKING USING BELIEF PROPAGATION}
아래의 실시예들은 영상 처리에 관한 것으로, 보다 구체적으로는 영상 중에서 특정 객체의 움직임을 추정하는 시스템에 관한 것이다.
다관절체 추적기술은 비디오 감시, 비디오 주석, 휴먼-컴퓨터 상호작용 인터페이스 등 많은 응용분야를 가지고 있다. 하지만 사람의 움직임은 높은 자유도를 가지고 있고, 움직이는 동안 몸의 일부분(body part)이 그늘이 지는 등의 이유로 색이 바뀌기도 한다. 또한, 팔과 다리의 빠른 움직임과 겹침 현상(occlusion), 추적하고자 하는 몸의 상태공간의 사후분포가 멀티 모달 한 분포를 가지게 되기 때문에 영상 내에서 사람의 걸음걸이를 추적하는 것은 어려운 과제이다.
예시적 실시예들의 일측은 사람의 정면 걸음걸이의 특성을 이용하여 영상 중에서 사람의 걸음걸이를 추적한다.
예시적 실시예들의 일측은 영상에 포함된 사람의 걸음걸이를 실시간으로 추적한다.
예시적 실시예들의 일측에 따르면, 정면에서 촬영한 인간의 걸음걸이를 포함하는 영상을 수신하는 영상 수신부, 인간의 신체를 다관절체의 모델로 모델링하는 모델링부 및 상기 모델 및 상기 정면에서 촬영한 걸음걸이의 특성에 기반하여 상기 영상에서의 걸음걸이를 추적하는 추적부를 포함하는 걸음걸이 추적 장치가 제공된다.
여기서, 상기 모델은 인간의 몸통, 수족을 노드로 하고, 인간의 관절을 간선으로 표시한 마르코브 네트워크 모델(Markov Network Model)일 수 있다.
또한, 상기 걸음걸이의 특성은 상기 영상에서 상기 인체의 각 부분이 회전하지 않고 각 부분의 크기 및 위치만이 변경되는 것일 수 있다.
또한, 상기 추적부는 신뢰 전달(belief propagation) 알고리즘을 이용하여 상기 걸음걸이를 추적할 수 있다.
또한, 상기 추적부는 상기 영상 중에서 신체 각 부분의 위치 및 영역을 구분하여 상기 걸음 걸이를 추적할 수 있다.
예시적 실시예들의 다른 측면에 따르면, 정면에서 촬영한 인간의 걸음걸이를 포함하는 영상을 수신하는 단계, 인간의 신체를 다관절체의 모델로 모델링하는 단계, 상기 모델 및 상기 정면에서 촬영한 걸음걸이의 특성에 기반하여 상기 영상에서의 걸음걸이를 추적하는 단계를 포함하는 걸음걸이 추적 방법이 제공된다.
여기서, 상기 모델은 인간의 몸통, 수족을 노드로 하고, 인간의 관절을 간선으로 표시한 마르코브 네트워크 모델(Markov Network Model)일 수 있다.
또한, 상기 걸음걸이의 특성은 상기 영상에서 상기 인체의 각 부분이 회전하지 않고 각 부분의 크기 및 위치만이 변경되는 것일 수 있다.
또한, 상기 추적하는 단계는 신뢰 전달(belief propagation) 알고리즘을 이용하여 상기 걸음걸이를 추적할 수 있다.
또한, 상기 추적하는 단계는 상기 영상 중에서 신체 각 부분의 위치 및 영역을 구분하여 상기 걸음걸이를 추적할 수 있다.
예시적 실시예들의 일측에 따르면, 사람의 정면 걸음걸이의 특성을 이용하여 영상 중에서 사람의 걸음걸이를 추적할 수 있다.
예시적 실시예들의 일측에 따르면, 영상에 포함된 사람의 걸음걸이를 실시간으로 추적할 수 있다.
도 1은 사람의 정면 걸음걸이가 포함된 영상의 일예를 나타낸 것이다.
도 2는 걸음걸이를 추적하기 위한 마르코브 네트워크 모델(Markov Network Model)의 일예를 나타낸 것이다.
도 3은 예시적 실시예에 따른 걸음걸이 추적 장치의 구조를 도시한 것이다.
도 4는 또 다른 예시적 실시예에 따른 걸음걸이 추적 방법을 단계별로 설명한 순서도 이다.
도 1은 사람의 정면 걸음걸이가 포함된 영상의 일예를 나타낸 것이다.
도 1에는 사람(110)이 먼 곳으로부터 관찰자의 방향으로 걸어오고 있다. 따라서 관찰자는 사람(110)의 걸음걸이를 정면에서 관찰한다. 이하 본 명세서에서 설명하는 영상은 사람(110)의 걸음걸이를 정면에서 관찰한 영상이다. 또한, 본 명세서에서 설명하는 예시적 실시예들에 따르면 영상 중에서 사람의 걸음걸이에 따라서 신체 각 부위(120, 131, 132, 141, 142, 151, 152, 161, 162)가 움직이거나 이동하는 것을 추적할 수 있다.
사람의 걸음걸이를 측면에서 관찰할 경우에, 사람의 팔, 다리는 관절을 중심으로 회전한다. 따라서 팔, 다리의 움직임을 추적하기 위해서는 팔, 다리의 각도 변화를 고려해야 한다.
그러나, 사람의 걸음걸이를 정면에서 관찰할 경우에, 관절을 중심으로 한 팔, 다리의 회전은 관찰되지 않는다. 이 경우에, 사람의 팔, 다리는 걸음걸이에 따라서 크기가 줄거나 위치가 다소 변경되는 것으로 관찰된다.
즉, 사람의 정면 걸음걸이를 추적하는 경우에는 팔, 다리의 각도를 고려하지 않아도 된다. 따라서, 본 명세서에서는 정면 걸음걸이의 상기 특징을 이용하여 팔, 다리의 회전각을 제외한 상태공간만을 이용하여 사람(110)의 걸음걸이를 추적한다.
도 2는 걸음걸이를 추적하기 위한 마르코브 네트워크 모델(Markov Network Model)의 일예를 나타낸 것이다.
사람의 몸을 여러 개의 관절들과 그에 연결되는 몸의 일부들로 본다면, 사람의 몸을 다관절체로 모델링할 수 있다. 이 경우에, 각 몸의 일부들은 연결이 고정되어 있지 않고 어느 정도 범위 내에서 자유롭게 이동, 변경될 수 있다.
몸의 일부를 노드로 표현하고 관절을 간선으로 표현하면 모델링된 인체를 마르코브 네트워크 모델(Markov Network Model)로 표현할 수 있다. 도 2에 도시된 마르코브 네트워크 모델에서, X0(210)는 몸통, X1(220)은 오른쪽 윗 팔, X2(230)는 오른쪽 아래 팔, X3(240)은 왼쪽 윗 팔, X4(250)는 왼쪽 아래 팔, X5(260)는 오른쪽 허벅지, X6(270)은 오른쪽 종아리, X7(280)은 왼쪽 허벅지, X8(290)은 왼쪽 종아리를 나타낸다. 또한, Y노드(211, 221, 231, 241, 251, 261, 271, 281, 291)들은 몸의 일부분을 나타내는 X노드(210, 220, 230, 240, 250, 260, 270, 280, 290)들에 대한 관측 노드이다.
몸의 일부분을 나타내는 X 노드(210, 220, 230, 240, 250, 260, 270, 280, 290)들은 (x,y,θ)의 3차원 벡터 상태 공간을 가지는 것이 일반적이다, 여기서, x는 영상 내에서 각 부분의 수평 위치, y는 영상 내에서 각 부분의 수직 위치를 나타내고, θ는 영상 내에서 각 부분의 회전각을 나타낸다.
사람의 정면 걸음걸이를 추적하는 경우에는 팔, 다리의 각도를 고려하지 않아도 되므로, X 노드(210, 220, 230, 240, 250, 260, 270, 280, 290)들은 (x,y)의 2차원 벡터 상태 공간을 가진다. 예시적 실시예들에 따르면, 각 부분의 회전각을 고려하지 않으므로, 사람의 정면 걸음걸이를 좀더 간단히 추적할 수 있다.
도 3은 예시적 실시예에 따른 걸음걸이 추적 장치의 구조를 도시한 것이다.
걸음걸이 추적 장치(300)는 영상 수신부(310), 모델링부(320) 및 추적부(330)를 포함할 수 있다.
영상 수신부(310)는 정면에서 촬영한 인간의 걸음걸이를 포함하는 영상을 수신한다. 영상 수신부(310)가 수신하는 영상은 동영상으로서, 동영상에서 인간은 관찰자를 향해 걸어올 수 있다.
모델링부(320)는 인간의 신체를 다관절체의 모델로 모델링 한다. 일예로서, 모델링부(320)는 인간의 신체를 도 2에 도시된 마르코브 네트워크 모델로 모델링할 수 있다. 마르코브 네트워크 모델에서 인간의 몸통, 수족은 노드로 표시되고, 인간의 관절은 간선으로 표시된다. 마르코브 네트워크 모델에서 각 노드는 인체 각 부분의 위치를 나타내는 x,y의 상태 변수와 각 부분의 회전각을 나타내는 θ 상태 변수를 포함할 수 있다. 인체의 걸음걸이를 추적한다는 것은 영상 중에서 인체의 각 부분에 대한 상태 변수 (x,y,θ)의 값을 추정하는 것이라 할 수 있다.
추적부(330)는 모델링부(320)가 모델링한 모델 및 정면에서 촬영한 걸음걸이의 특성에 기반하여 영상 수신부(310)가 수신한 영상에서 걸음걸이를 추적한다. 추적부(330)는 동영상 중에서 신체의 각 부분을 인식하고, 걸음걸이에 따라 변형되는 신체 각 부분을 다른 부분과 위치 및 그 영역에서 구분함으로써, 걸음걸이를 추적할 수 있다.
만약, 영상에 포함된 인간의 걸음걸이가, 정면에서 관찰된 정면 걸음걸이라면, 영상에서 인체의 각 부분은 회전하지 않고, 각 부분의 크기 및 위치만이 변경된다. 일측에 따르면 추적부는 이러한 특성을 이용하여 마르코브 네트워크 모델로 모델링된 인체의 각 부분의 상태 변수들 중에서 회전각을 나타내는 변수 θ를 제외한 (x,y)에 대해서만 추적을 수행할 수 있다.
일측에 따르면 추적부(330)는 신뢰 전달(belief propagation) 알고리즘을 이용하여 영상에서의 인간의 정면 걸음걸이를 추적할 수 있다. 신뢰 전달 알고리즘은 마르코브 네트워크 모델 등과 같이 복수의 노드로 구성된 모델에서, 각 노드간에 메시지를 주고 받음으로서 최적의 해를 구하는 알고리즘이다.
마르코브 네트워크에서 은닉 변수 X와 관측 변수 Y의 결합 확률은 하기 수학식 1과 같다.
[수학식 1]
Figure 112010063035248-pat00001

여기서, i,j는 노드 i와 노드 j가 마르코브 네트워크 모델에서 서로 이웃한 노드임을 나타낸다. n은 노드의 개수이고,
Figure 112010063035248-pat00002
이다.
마르코브 네드워크의 결합 호가률은 호환성 함수의 곱으로 나타낼 수 있다. 어떤 몸의 일부-즉,
Figure 112010063035248-pat00003
의 최대사후확률(MAP)추정은 하기 수학식 2와 같이 다른 변수들의 최대사후확률 값을 취하면서 구할 수 있다.
[수학식 2]
Figure 112010063035248-pat00004

도 2에서 모델링된 것과 같이 순환이 없는 구조의 마르코브 네트워크 모델에서 최대사후확률 값의 추정은 하기 수학식 3과 같이 신뢰 전달 알고리즘과 같은 메시지 전송 알고리즘을 이용하여 수행될 수 있다.
[수학식 3]
Figure 112010063035248-pat00005

여기서, k는 j노드의 이웃 노드의 집합이고,
Figure 112010063035248-pat00006
는 k번째 노드에서 k번째 노드로의 메시지이다. 여기서,
Figure 112010063035248-pat00007
는 하기 수학식 4와 같이 나타낼 수 있다.
[수학식 4]
Figure 112010063035248-pat00008

Figure 112010063035248-pat00009
Figure 112010063035248-pat00010
의 이전 반복에서 생성된 메시지이다. 따라서 높은 차원과 많은 수의 확률 변수를 가지는 노드의 상태 공간에서 신뢰 전달 알고리즘을 이용하여 효율적으로 최대사후확률을 추정할 수 있다.
마르코브 네트워크 모델에서 은닉변수 X와 관측변수 Y의 결합확률은 훈련 데이터로부터 만들어진 호환성 함수
Figure 112010063035248-pat00011
Figure 112010063035248-pat00012
으로부터 계산된다. 일측에 따르면, 호환성 함수
Figure 112010063035248-pat00013
Figure 112010063035248-pat00014
는 몸의 일부가 겹치지 않아 걸음걸이의 추적이 용이한 프레임을 훈련 데이터로 하여 얻어질 수 있다.
일측에 따르면,
Figure 112010063035248-pat00015
는 하기 수학식 5와 같이
Figure 112010063035248-pat00016
에 따른 추적 대상 영상의 이미지 패치와 추적 대상 영상에서의 인체의 각 부위의 템플릿의 차이(SSD: Sum of Squared Difference)로서 정의될 수 있다.
[수학식 5]
Figure 112010063035248-pat00017

여기서,
Figure 112010063035248-pat00018
는 추적 대상 영상에서의 프레임에서
Figure 112010063035248-pat00019
에 따른 이미지 패치이다. 또한,
Figure 112010063035248-pat00020
Figure 112010063035248-pat00021
에 따른 변형된 템플릿이고,
Figure 112010063035248-pat00022
는 정규화 상수이다.
Figure 112010063035248-pat00023
는 이웃 노드와의 상관관계를 나타내는 함수이다. 즉, 도2와 같은 다관절체 모델에서 서로 이웃한 몸의 일부들이 적절한 관절에 연결되도록 한다.
Figure 112010063035248-pat00024
는 하기 수학식 6과 같이 서로 이웃한 몸의 일부의 연결 부분들간의 유클리디안 거리를 이용하여 정의될 수 있다.
[수학식 6]
Figure 112010063035248-pat00025

도 1을 참고하면, 정면에서 걸어오는 사람의 신체에는 회전이 일어나는 신체부위가 없다. 또한, 팔, 다리 등이 걸음걸이에 따라서 그 크기와 위치만이 변경된다. 인체의 팔, 다리 등이 최초 추적 이후로 좌우측의 좌표가 변하지 않기 때문에, j번째 노드에 대한 최대사후확률은 하기 수학식 7과 같이 나타낼 수 있다.
[수학식 7]
Figure 112010063035248-pat00026

여기서,
Figure 112010063035248-pat00027
은 신체의 j번째 일부분과 t-1번째 위치의 이웃 3개의 상태 공간을 의미한다. 일측에 따르면, 추정부(330)는 신체의 각 부분을 나타내는 각 노드들에 대하여 상기 수학식 7을 만족하는 최대사후확률을 구하여 걸음걸이를 추적할 수 있다.
도 4는 또 다른 예시적 실시예에 따른 걸음걸이 추적 방법을 단계별로 설명한 순서도 이다.
단계(410)에서 걸음걸이 추적 장치는 동영상을 수신한다. 동영상은 정면에서 촬영한 인간의 걸음걸이를 포함할 수 있다.
단계(420)에서 걸음걸이 추적 장치는 인간의 신체를 다관절체의 모델로 모델링한다. 일측에 따르면 단계(420)에서 걸음걸이 추적 장치는 동영상에 포함된 인간의 신체를 마르코브 네트워크 모델로 모델링 할 수 있다.
단계(430)에서 걸음걸이 추적 장치는 다관절체의 모델 및 정면에서 촬영한 걸음걸이의 특성에 기반하여 단계(410)에서 수신한 영상에서 걸음걸이를 추적한다.
일측에 따르면, 걸음걸이 추적 장치는 동영상 중에서 신체의 각 부분을 인식하고, 걸음걸이에 따라 변형되는 신체 각 부분을 다른 부분과 위치 및 그 영역에서 구분함으로써, 걸음걸이를 추적할 수 있다.
마르코브 네트워크 모델에서 각 노드는 인체 각 부분의 위치를 나타내는 x,y의 상태 변수와 각 부분의 회전각을 나타내는 θ 상태 변수를 포함할 수 있다. 인체의 걸음걸이를 정면에서 촬영했다면, 영상에서 인체의 각 부분은 회전하지 않고, 각 부분의 크기 및 위치만이 변경된다. 따라서, 걸음걸이 추적 장치는 인체 각 부분의 위치를 나타내는 x,y의 상태 변수만을 고려하고, 각 부분의 회전각을 나타내는 θ 상태 변수를 고려하지 않을 수 있다. 일부 상태 변수를 고려하지 않으므로, 걸음걸이 추적 장치는 간단히 걸음걸이를 추적할 수 있다.
일측에 따르면 단계(430)에서 걸음걸이 추적 장치는 수학식 7과 같이 신뢰 전달 알고리즘을 이용하여 걸음걸이를 추적할 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 정면을 향해 걸어오는 사람(영상에 포함됨)
120: 몸통
131: 왼쪽 윗팔
132: 왼쪽 아랫팔
141: 오른쪽 윗팔
142: 오른쪽 아랫팔
151: 오른쪽 허벅지
152: 오른쪽 종아리
161: 왼쪽 허벅지
162: 왼쪽 종아리

Claims (11)

  1. 정면에서 촬영한 인간의 걸음걸이를 포함하는 영상을 수신하는 영상 수신부;
    인간의 신체를 다관절체의 모델로 모델링하는 모델링부;
    상기 모델 및 상기 정면에서 촬영한 걸음걸이의 특성에 기반하여 상기 영상에서의 걸음걸이를 추적하는 추적부
    를 포함하고,
    상기 정면에서 촬영한 걸음걸이의 특성은 상기 영상에서 상기 신체의 각부분이 최초 추적 이후로 좌우측 좌표가 고정되는 특성인 걸음걸이 추적 장치.
  2. 제1항에 있어서,
    상기 모델은 인간의 몸통, 수족을 노드로 하고, 인간의 관절을 간선으로 표시한 마르코브 네트워크 모델(Markov Network Model)인 걸음걸이 추적 장치.
  3. 삭제
  4. 제1항에 있어서,
    상기 추적부는 신뢰 전달(belief propagation) 알고리즘을 이용하여 상기 걸음걸이를 추적하는 걸음걸이 추적 장치.
  5. 제1항에 있어서,
    상기 추적부는 상기 영상 중에서 상기 신체의 각 부분의 위치 및 영역을 구분하여 상기 걸음 걸이를 추적하는 걸음걸이 추적 장치.
  6. 정면에서 촬영한 인간의 걸음걸이를 포함하는 영상을 수신하는 단계;
    인간의 신체를 다관절체의 모델로 모델링하는 단계;
    상기 모델 및 상기 정면에서 촬영한 걸음걸이의 특성에 기반하여 상기 영상에서의 걸음걸이를 추적하는 단계
    를 포함하고,
    상기 정면에서 촬영한 걸음걸이의 특성은 상기 영상에서 상기 신체의 각 부분이 최초 추적 이후로 좌우측 좌표가 고정되는 특성인 걸음걸이 추적 방법.
  7. 제6항에 있어서,
    상기 모델은 인간의 몸통, 수족을 노드로 하고, 인간의 관절을 간선으로 표시한 마르코브 네트워크 모델(Markov Network Model)인 걸음걸이 추적방법.
  8. 삭제
  9. 제6항에 있어서,
    상기 추적하는 단계는 신뢰 전달(belief propagation) 알고리즘을 이용하여 상기 걸음걸이를 추적하는 걸음걸이 추적 방법.
  10. 제6항에 있어서,
    상기 추적하는 단계는 상기 영상 중에서 상기 신체의 각 부분의 위치 및 영역을 구분하여 상기 걸음 걸이를 추적하는 걸음걸이 추적 방법.
  11. 제6항 내지 제7항 및 제9항 내지 제10항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
KR1020100094900A 2010-09-30 2010-09-30 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법 KR101148234B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100094900A KR101148234B1 (ko) 2010-09-30 2010-09-30 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100094900A KR101148234B1 (ko) 2010-09-30 2010-09-30 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120033404A KR20120033404A (ko) 2012-04-09
KR101148234B1 true KR101148234B1 (ko) 2012-06-01

Family

ID=46136165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100094900A KR101148234B1 (ko) 2010-09-30 2010-09-30 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101148234B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075713A (ja) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd 感情判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075713A (ja) * 2007-09-19 2009-04-09 Toppan Printing Co Ltd 感情判定方法

Also Published As

Publication number Publication date
KR20120033404A (ko) 2012-04-09

Similar Documents

Publication Publication Date Title
Zhao et al. RF-based 3D skeletons
US11967101B2 (en) Method and system for obtaining joint positions, and method and system for motion capture
WO2019157925A1 (zh) 视觉惯性里程计的实现方法及系统
JP5525407B2 (ja) 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
US8786680B2 (en) Motion capture from body mounted cameras
Aristidou et al. Motion capture with constrained inverse kinematics for real-time hand tracking
Chang et al. 3D human motion tracking based on a progressive particle filter
Ohashi et al. Video motion capture from the part confidence maps of multi-camera images by spatiotemporal filtering using the human skeletal model
CN111402290A (zh) 一种基于骨骼关键点的动作还原方法以及装置
JP2018013999A (ja) 姿勢推定装置、方法、及びプログラム
CN111583386B (zh) 基于标签传播算法的多视角人体姿态重建方法
JP5494427B2 (ja) 画像処理プログラムおよび画像処理装置
CN103942829A (zh) 单幅图像的人体三维姿态重构方法
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
Kwolek et al. Real-time multi-view human motion tracking using particle swarm optimization with resampling
JP3411889B2 (ja) カメラの自動校正方法
Jia et al. Mobile robot simultaneous localization and mapping based on a monocular camera
JP2003279315A (ja) カメラの自動校正方法
JP3520050B2 (ja) 移動物体追跡装置
KR101148234B1 (ko) 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법
JP3401512B2 (ja) 移動物体追跡装置
JP2022516466A (ja) 情報処理装置、情報処理方法、並びにプログラム
Paulus et al. Surgical augmented reality with topological changes
US20230245340A1 (en) Information processing device, information processing method, and program
CN111435535B (zh) 一种关节点信息的获取方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee