KR20230081395A - human motion analysis system - Google Patents

human motion analysis system Download PDF

Info

Publication number
KR20230081395A
KR20230081395A KR1020210169419A KR20210169419A KR20230081395A KR 20230081395 A KR20230081395 A KR 20230081395A KR 1020210169419 A KR1020210169419 A KR 1020210169419A KR 20210169419 A KR20210169419 A KR 20210169419A KR 20230081395 A KR20230081395 A KR 20230081395A
Authority
KR
South Korea
Prior art keywords
motion
unit
momentum
joint
information
Prior art date
Application number
KR1020210169419A
Other languages
Korean (ko)
Inventor
황형재
장재원
황대원
서경진
Original Assignee
주식회사 인공지능연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인공지능연구원 filed Critical 주식회사 인공지능연구원
Priority to KR1020210169419A priority Critical patent/KR20230081395A/en
Publication of KR20230081395A publication Critical patent/KR20230081395A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Image Analysis (AREA)

Abstract

다시점 영상들에서 사람의 동작을 인식하는 컴퓨터 비전 기술이 개시된다. 다시점영상들에서 관절점위치들을 결정하고, 이를 시간축 상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산한다. 관절별 운동량을 합산하여 전체 신체의 운동량을 계산할 수 있다. 모델링신체에 적용된 각운동량의 관절별 분포를 분석하여 운동 위험도를 산출하여 제공할 수 있다. A computer vision technique for recognizing human motion in multi-view images is disclosed. Positions of joint points are determined in the multi-view images, and the momentum is calculated for each joint by sequentially applying them to the modeling body on the time axis. The total amount of exercise of the entire body can be calculated by summing up the amount of exercise for each joint. The exercise risk can be calculated and provided by analyzing the distribution of each joint of the angular momentum applied to the modeling body.

Description

사람의 동작분석시스템{human motion analysis system}Human motion analysis system {human motion analysis system}

영상처리 기술, 특히 다시점 영상들에서 사람의 동작을 인식하는 컴퓨터 비전 기술이 개시된다.An image processing technology, in particular, a computer vision technology for recognizing a human motion in multi-view images is disclosed.

'안무 평가 장치 및 방법'라는 명칭을 가진 특허 제1,962,045호는 깊이 영상(Depth Image) 데이터로부터 안무자와 학습자의 관절들의 위치를 검출하고 추적하여 관절 위치에 기초하여 안무자와 학습자의 안무 동작을 비교 평가하는 기술을 개시하고 있다. 이와 같이 사람의 자세나 동작을 인식하는 기술이 발전하고 있지만 대부분의 응용들은 자세나 동작의 기록이나 분석에 그치고 있다. Patent No. 1,962,045 titled 'choreography evaluation apparatus and method' detects and tracks the positions of the choreographer and learner's joints from depth image data, and compares and evaluates the choreography movements of the choreographer and learner based on the joint positions. technology is disclosed. As such, although technology for recognizing human postures or motions is developing, most applications are limited to recording or analyzing postures or motions.

제안된 발명은 행위자의 동작을 인식하여 해당 동작을 수행할 때 운동량 정보를 제공하는 것을 목적으로 한다. The proposed invention aims to provide momentum information when performing a corresponding motion by recognizing an actor's motion.

나아가 제안된 발명은 행위자의 동작을 인식하여 단위 동작별 운동량 정보를 제공하는 것을 하는 것을 목적으로 한다.Furthermore, the proposed invention aims to provide momentum information for each unit motion by recognizing an actor's motion.

나아가 제안된 발명은 제공하는 것을 목적으로 한다.Furthermore, the proposed invention aims to provide.

제안된 발명의 일 양상에 따르면,복수의 카메라에서 획득되는 다시점영상들로부터 관절점위치들을 결정하고, 이를 시간축 상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산한다. 관절별 운동량을 합산하여 전체 신체의 운동량을 계산할 수 있다. According to one aspect of the proposed invention, joint point positions are determined from multi-view images obtained from a plurality of cameras, and the motion amount for each joint is calculated by sequentially applying them to the modeling body on the time axis. The total amount of exercise of the entire body can be calculated by summing up the amount of exercise for each joint.

추가적인 양상에 따르면, 관절점위치들을 시간축상에서 분석하여 단위동작이 구분될 수 있다. According to an additional aspect, unit motions may be distinguished by analyzing joint point positions on a time axis.

추가적인 양상에 따르면, 추정된 관절점들의 시간축상에서 움직임을 분석하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산할 수 있다.According to an additional aspect, the movement of the estimated joint points on the time axis may be analyzed to calculate the amount of momentum for each joint, and the amount of momentum may be calculated by summing them.

추가적인 양상에 따르면, 모델링신체에 적용된 각운동량의 관절별 분포를 분석하여 운동 위험도를 산출하여 제공할 수 있다.According to an additional aspect, the exercise risk may be calculated and provided by analyzing the distribution of each joint of the angular momentum applied to the modeling body.

추가적인 양상에 따르면, 행위자와 비교행위자의 동작을 비교하여 일치도를 평가할 수 있다. According to an additional aspect, the degree of agreement may be evaluated by comparing the actions of the actor and the comparison actor.

제안된 발명에 따라, 스포츠나 무용과 같은 사람의 동작을 자동화 시스템에 의해 분석하여 관절별로 동작 범위나 운동량을 분석함으로써 잘못된 동작으로 인한 특정한 관절의 무리한 운동이나 부하집중에 따른 부상을 미연에 방비할 수 있다. According to the proposed invention, by analyzing human motions such as sports or dance by an automated system and analyzing the range of motion or momentum for each joint, it is possible to prevent injury due to excessive exercise or load concentration of a specific joint due to wrong motion. can

도 1은 일 실시예에 따른 동작분석시스템의 전체적인 구성을 도시한다.
도 2는 일 실시예에 따른 동작분석시스템의 구성을 도시한 블록도이다.
도 3은 이러한 모델링신체에서 팔 부분을 예시한다.
도 4는 자세정보캡쳐부의 일 실시예를 도시한 블록도이다.
도 5는 등극선기하(Epipolar geometry)를 예시적으로 설명하는 도면이다.
도 6은 도 2의 운동량계산부의 일 실시예의 구성을 도시한 블록도이다.
도 7은 도 2의 운동정보분석부의 일 실시예의 구성을 도시한 블록도이다.
도 8은 일 실시예에 따른 동작분석방법의 구성을 도시한 흐름도이다.
1 shows the overall configuration of a motion analysis system according to an embodiment.
2 is a block diagram showing the configuration of a motion analysis system according to an embodiment.
Figure 3 illustrates the arm part in such a modeling body.
4 is a block diagram illustrating an embodiment of a posture information capture unit.
5 is a diagram illustrating epipolar geometry by way of example.
6 is a block diagram showing the configuration of an embodiment of the momentum calculation unit of FIG. 2 .
7 is a block diagram showing the configuration of an embodiment of the motion information analysis unit of FIG. 2 .
8 is a flowchart illustrating the configuration of a motion analysis method according to an embodiment.

전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 실시예 내에서 또는 타 실시예의 구성 요소들과 다양한 조합이 가능한 것으로 이해된다. 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 명세서 및 청구범위에 사용된 용어는 기재 내용 혹은 제안된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.The foregoing and additional aspects are embodied through embodiments described with reference to the accompanying drawings. It is understood that the elements of each embodiment can be combined in various ways within one embodiment or with elements of another embodiment without contradiction with each other or other references. Based on the principle that the inventor can properly define the concept of terms in order to explain his/her invention in the best way, the terms used in this specification and claims have meanings consistent with the description or proposed technical idea. and should be interpreted as a concept. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<도 1의 설명><Description of Figure 1>

도 1은 일 실시예에 따른 동작분석시스템의 전체적인 구성을 도시한다. 도시된 바와 같이, 일 실시예에 따른 동작분석시스템은 행위자(20)를 서로 다른 시점에서 촬영하는 복수의 카메라들(30-1 ~ 30-5)과 또 이 카메라들과 네트워크를 통해 연결되는 서버 컴퓨터(50)를 포함한다. 복수의 카메라들은 다시점 영상을 생성하기 적합하도록 흔히 구면을 따라 배치되며, 정면,좌,우,상면,후면의 5개로 구성되거나 더 많은 수로 구성될 수도 있다. 복수의 카메라들(30-1 ~ 30-5)에서 출력되는 영상 신호들은 원거리의 서버 컴퓨터(50)로 전송하기에 적합하도록 촬영의 동기화를 제어하고 출력되는 영상들을 캡쳐하여 전송 포맷으로 구성하는 카메라제어부(10)를 포함할 수 있다. 카메라제어부(100는 컴퓨터 형태일 수도 있으며, 복수의 카메라들(30-1 ~ 30-5)이 설치되는 스튜디오 내에 설치될 수 있다. 또 카메라제어부(100)는 각각의 카메라에서 획득되는 2차원 영상들을 처리하여 관절점들을 추정하고 각 2차원 영상들에서 추정된 관절점들을 융합하여 3차원 관절점을 추정하는 과정까지 처리하여 최종적으로 추정된 관절점 정보만 서버 컴퓨터(50)로 전송할 수도 있다. 1 shows the overall configuration of a motion analysis system according to an embodiment. As shown, the motion analysis system according to an embodiment includes a plurality of cameras 30-1 to 30-5 that photograph the actor 20 at different points of view and a server connected to the cameras through a network. It includes a computer 50. A plurality of cameras are often arranged along a spherical surface to be suitable for generating a multi-viewpoint image, and may consist of five cameras, front, left, right, top, and rear, or a larger number. The video signals output from the plurality of cameras 30-1 to 30-5 control the synchronization of shooting and capture the output images to be suitable for transmission to the remote server computer 50 and configure the transmission format. A control unit 10 may be included. The camera controller 100 may be in the form of a computer and may be installed in a studio in which a plurality of cameras 30-1 to 30-5 are installed. In addition, the camera controller 100 may be configured to obtain 2D images from each camera. , process the joint points, estimate the joint points from each of the 2-dimensional images, fuse the joint points estimated from each of the 2-dimensional images, and estimate the 3-dimensional joint points.

스튜디오에서 이러한 과정을 관리하는 관리자들은 개인용컴퓨터(71)로 네트워크를 통해 서버 컴퓨터(50)로 접속하여 필요한 정보를 입력하거나 출력을 모니터링하거나 결과값을 확인할 수 있다. 또 동작에 대한 분석 결과는 무선인터넷 망을 통해 예를 들면 스마트폰(73)으로 확인할 수 있다. Managers who manage this process in the studio can connect to the server computer 50 through a network with a personal computer 71 to input necessary information, monitor output, or check result values. In addition, the analysis result for the operation can be confirmed by, for example, a smart phone 73 through a wireless Internet network.

<청구항 1 발명의 설명><Description of Claim 1 Invention>

도 2는 일 실시예에 따른 동작분석시스템의 구성을 도시한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 동작분석시스템은 복수의 카메라들(30-1 ~ 30-5)과, 자세정보캡쳐부(210)와, 운동정보분석부(230)를 포함한다. 일 실시예에서, 운동정보분석부(230)는 운동량계산부(600)를 포함한다. 2 is a block diagram showing the configuration of a motion analysis system according to an embodiment. As shown, the motion analysis system according to an embodiment includes a plurality of cameras 30-1 to 30-5, a posture information capture unit 210, and a motion information analysis unit 230. In one embodiment, the exercise information analysis unit 230 includes a momentum calculator 600.

자세정보캡쳐부(210)는 복수의 카메라들(30-1 ~ 30-5)에서 획득되는 다시점 영상들(Multiview images)로부터 행위자의 관절점(joint) 위치를 3차원 좌표로 출력한다. 다시점 영상들(Multiview images)로부터 사람의 자세(pose)를 추정하는 것은 각 영상에서 관절점을 찾아내고 그 관절점의 위치들로부터 3차원 관절점의 위치를 추정하는 것으로, 최근 발전하고 있는 기술이다. Z. Zhang, C. Wang, W. Qiu, W. Qin, and W. Zeng, “Adafuse: Adaptive multiview fusion for accurate human pose estimation in the wild,” IJCV, 2020 에는 다시점 2차원 영상들 각각에서 각 관절점의 위치를 추정하고 이들을 확률 히트맵(probability heatmap)에 의해 융합하여 3차원 관절점을 추정하는 기술을 개시하고 있다. 자세정보캡쳐부(210)는 이러한 알려진 기술 중의 하나를 이용하여 각각의 다시점 이미지 프레임들에서 행위자의 관절점을 추정하고 그 3차원 좌표를 출력한다. The posture information capture unit 210 outputs the joint position of the actor in 3D coordinates from the multiview images obtained from the plurality of cameras 30-1 to 30-5. Estimating a person's pose from multiview images is to find joint points in each image and estimate the positions of 3-dimensional joint points from the locations of the joint points, which is a technology that has been recently developed. am. Z. Zhang, C. Wang, W. Qiu, W. Qin, and W. Zeng, “Adafuse: Adaptive multiview fusion for accurate human pose estimation in the wild,” IJCV, 2020 A technique for estimating a 3-dimensional joint point by estimating the positions of joint points and fusing them by a probability heatmap is disclosed. The posture information capture unit 210 estimates joint points of an actor in each multi-view image frame using one of these known techniques and outputs the three-dimensional coordinates.

운동량계산부(600)는 자세정보캡쳐부(210)에서 출력되는 관절점 위치들을 시간축상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산한다. 모델링신체 정보는 데이터베이스(640)에 저장되어 관리될 수 있다. 도 3은 이러한 모델링신체에서 팔 부분을 예시한다. 모델링신체는 인체를 근사적으로 몇 개의 부분으로 나누고 각 부분의 질량을 부피가 0이고 무게만 있는 무게추(320, 340, 360)로 모델링한다. 관절 사이의 신체 부분은 질량이 무게추에 집중되어 있는 와이어(313, 335, 359)로 단순화된다. 신체 부분의 형상에 따라 와이어 모델에서 무게추들(320, 340, 360)의 위치는 결정될 수 있다. 소멸된 특허제915,606호는 특정한 사람과 운동역학적으로 근사한 모델링신체를 구성하는 기술을 개시하고 있다. 제안된 발명은 예를 들면 이 개시된 모델링신체를 제안된 발명에 의해 추정되는 관절점만을 포함하는 모델로 조금 더 단순화하여 적용할 수 있다. 관절을 중심으로 관절별로 운동량을 계산하는 것은 단순하지 않다. 신체를 구성하는 관절들은 모두 연결되어 있으므로 예를 들어 팔의 운동량은 손목 관절(350)의 운동량과 팔꿈치 관절(330)의 운동량과 어깨 관절(310)의 운동량의 합이지만 팔꿈치 관절(330)의 운동량은 하박 뿐 아니라 손까지 감안해야 하고 손목관절(350)의 움직임에 따라 모멘텀이 달라진다. 제안된 발명에서는 이러한 연결된 관절들의 운동량 계산을 단순화하기 위해 관절의 형태가 크게 변하지 않는 미소 변위(ΔФ) 단위로 운동량을 계산하여 이를 누적함으로써 특정한 시간 간격 동안의 운동량을 계산한다. 운동량을 계산하는 관점에서 미소 변위 동안은 신체의 형상이 변하지 않는 것으로 가정할 수 있다. 이에 따르면 팔꿈치 관절(330)의 미소 변위 동안 운동량을 계산할 때 손목 관절(350)은 움직이지 않는 것으로 가정된다. The momentum calculation unit 600 applies the joint point positions output from the posture information capture unit 210 sequentially to the modeling body on the time axis to calculate the momentum for each joint and sums them up to calculate the momentum. Modeling body information may be stored and managed in the database 640 . Figure 3 illustrates the arm part in such a modeling body. The modeling body roughly divides the human body into several parts and models the mass of each part with weights 320, 340, and 360 having only weight and zero volume. The body parts between the joints are simplified to wires 313, 335, 359 where the mass is concentrated in the weights. Positions of the weights 320, 340, and 360 in the wire model may be determined according to the shape of the body part. Defunct Patent No. 915,606 discloses a technique for constructing a modeling body that is kinematically close to a specific person. The proposed invention can be applied by simplifying the disclosed modeling body to a model including only joint points estimated by the proposed invention, for example. It is not simple to calculate the momentum for each joint centered on the joint. Since all the joints constituting the body are connected, for example, the momentum of the arm is the sum of the momentum of the wrist joint 350, the momentum of the elbow joint 330, and the momentum of the shoulder joint 310, but the momentum of the elbow joint 330 In addition to the lower beat, the hand should be considered, and the momentum varies according to the movement of the wrist joint 350. In the proposed invention, in order to simplify the calculation of the momentum of these connected joints, the momentum for a specific time interval is calculated by calculating the momentum in units of minute displacements (ΔФ) in which the shape of the joint does not change significantly and accumulating them. From the point of view of calculating the momentum, it can be assumed that the shape of the body does not change during the minute displacement. According to this, it is assumed that the wrist joint 350 does not move when calculating the amount of motion during the minute displacement of the elbow joint 330 .

사용자 인터페이스부(250)는 분석된 결과를 제공하고 필요한 지시나 정보를 입력 받는다. 도시된 실시예에서, 사용자 인터페이스부(250)는 키보드(251)와 디스플레이(253)를 포함한다. 사용자 인터페이스부(250)는 이러한 디바이스는 물론 디바이스를 제어하는 프로그램과, 결과를 그래픽으로 표시하거나 사용자의 입력을 받아들이는 그래픽 사용자 인터페이스(Graphic User Interface)를 생성하는 컴퓨터 프로그램 명령어를 포함할 수 있다. The user interface unit 250 provides analyzed results and receives necessary instructions or information. In the illustrated embodiment, the user interface unit 250 includes a keyboard 251 and a display 253. The user interface unit 250 may include such a device as well as a program for controlling the device, and computer program instructions for generating a graphical user interface (GUI) that displays results graphically or accepts a user's input.

<청구항 2 발명의 설명><Description of Claim 2 Invention>

도 4는 자세정보캡쳐부의 일 실시예를 도시한 블록도이다. 일 실시예에 따른 자세정보캡쳐부는 복수의 2차원자세추정부(340-1, 340-2, … , 340-N)와, 복수의 매치확률분포생성부(350-1, 350-2, … , 350-N)와, 다시점히트맵융합부(390)를 포함할 수 있다. 복수의 2차원자세추정부(340-1, 340-2, … , 340-N)각각은 대응되는 카메라에서 출력되는 2차원 영상에서 행위자의 각 관절점의 위치를 추정하여 출력한다. 2차원 영상에서 정해진 개수의 신체의 관절점을 추정하는 방식은 알려진 기술이므로 상세한 설명은 생략한다. 2차원자세추정부(340-1, 340-2, … , 340-N))에서 추정하는 관절점은 실제 공간상의 관절점 위치가 아니라 그 2차원 카메라 영상에서의 위치이므로 2차원 이미지 좌표계에서의 좌표값이다. 4 is a block diagram illustrating an embodiment of a posture information capture unit. According to an embodiment, the posture information capture unit includes a plurality of two-dimensional posture estimation units 340-1, 340-2, ..., 340-N, and a plurality of match probability distribution generators 350-1, 350-2, ... , 350-N), and a multi-view heat map fusion unit 390. Each of the plurality of 2D posture estimation units 340-1, 340-2, ..., 340-N estimates and outputs the position of each joint point of the actor in the 2D image output from the corresponding camera. Since a method of estimating a predetermined number of body joint points in a 2D image is a known technique, a detailed description thereof will be omitted. Since the joint points estimated by the 2D posture estimator (340-1, 340-2, ..., 340-N) are not the positions of the joint points in the real space but the positions in the 2D camera image, is the coordinate value.

매치확률분포생성부(350-1, 350-2, … , 350-N)는 대응하는 2차원자세추정부에서 출력된 2차원 영상 상의 관절점들을 카메라 파라메터를 반영하여 배치하고, 각 등극선(epipolar line) 주변에서 픽셀별로 참 관절점의 확률을 표현하는 히트맵정보를 생성한다. 도 5는 등극선기하(Epipolar geometry)를 예시적으로 설명하는 도면이다. 등극선기하에 따르면, 카메라들의 정렬각을 반영하여 두 카메라 위치에 촬영된 2D 이미지 평면들을 배치하고, 카메라 렌즈의 광중심(optical center)(C1, C2)을 서로 연결한다. 상이한 두 2D 이미지 평면 상의 대응하는 관절점들(x,x')을 각각의 광중심점으로부터 연장한 직선인 두 등극선들(epipolar lines)의 교차점으로부터 참 관절점(true joint)(X)을 구할 수 있다. 실제로는 2차원자세추정부(340-1, 340-2, … , 340-N)에서 추정된 2D 이미지 평면 상의 관절점 위치가 정확하지 않기 때문에 등극선 주변에서 참 관절점의 존재 확률로 표현할 수 있다. 보다 구체적인 설명은 전술한 Adafuse 논문에서 찾아볼 수 있다. 이에 따르면, 등극선 주변에서 참 관절점의 존재 확률은 2차원 가우스분포(Gaussian distribution)로 표현된다. The match probability distribution generating unit (350-1, 350-2, ..., 350-N) arranges the joint points on the 2-dimensional image output from the corresponding 2-dimensional posture estimation unit by reflecting the camera parameters, and each isopolar line ( heat map information that expresses the probability of the true joint point for each pixel in the vicinity of the epipolar line is generated. 5 is a diagram illustrating epipolar geometry by way of example. According to the epipolar geometry, 2D image planes photographed at two camera positions are arranged by reflecting the alignment angles of the cameras, and the optical centers (C 1 , C 2 ) of the camera lenses are connected to each other. The true joint (X) can be obtained from the intersection of two epipolar lines, which are straight lines extending from the respective optical center points of the corresponding joint points (x,x') on two different 2D image planes. there is. In reality, since the location of the joint points on the 2D image plane estimated by the 2D posture estimators (340-1, 340-2, ..., 340-N) is not accurate, it can be expressed as the existence probability of the true joint points around the epipolar line. there is. A more detailed description can be found in the aforementioned Adafuse paper. According to this, the existence probability of a true joint point around the epipolar line is expressed as a two-dimensional Gaussian distribution.

다시점히트맵융합부(390)는 각 2차원 영상의 히트맵정보를 융합하여 확률이 높은 매치점을 관절점으로 결정하여 출력한다. 각 2D 이미지 평면의 2D 관절점의 등극선으로부터 생성된 히트맵들을 융합하여 가장 확률이 높은 픽셀을 선택하는 방식으로 참 관절점이 결정될 수 있다. The multi-view heat map convergence unit 390 fuses the heat map information of each 2D image, determines a match point having a high probability as a joint point, and outputs the result. A true joint point may be determined by fusing heat maps generated from epipolar lines of 2D joint points of each 2D image plane and selecting a pixel with the highest probability.

<청구항 3 발명의 설명><Description of Claim 3 Invention>

일 양상에 따르면, 자세정보캡쳐부는 복수의 사람검출부(330-1, 330-2, … , 330-N)를 더 포함할 수 있다. 사람검출부(330-1, 330-2, … , 330-N)는 각각의 카메라에서 출력되는 2차원 영상에서 사람 영역을 추출하여 대응하는 2차원자세추정부(340-1, 340-2, … , 340-N)로 출력한다. 이미지에서 사람 영역을 추출하는 것은 잘 알려진 기술이므로 설명은 생략한다. 사전에 사람 영역을 추출하여 2차원자세를 추정함으로써 2차원 영상에서 관절점 추정의 신뢰도를 높일 수 있다. According to one aspect, the posture information capture unit may further include a plurality of person detection units 330-1, 330-2, ..., 330-N. The person detectors 330-1, 330-2, ..., 330-N extract the human region from the 2D images output from the respective cameras, and the corresponding 2D posture estimators 340-1, 340-2, ... , 340-N). Since extracting a human region from an image is a well-known technique, a description thereof will be omitted. By extracting the human region in advance and estimating the 2D posture, the reliability of joint point estimation in the 2D image can be increased.

<청구항 4 발명의 설명><Description of Claim 4 Invention>

추가적인 양상에 따르면, 운동량계산부는 추정된 관절점들을 시간축상에서 분석하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산할 수 있다. 도 6은 도 2의 운동량계산부의 일 실시예의 구성을 도시한 블록도이다. 일 실시예에 따른 운동량계산부(600)는 단위동작구분처리부(610)와, 단위동작별 운동량분석부(631)를 포함할 수 있다. 단위동작구분처리부(610)는 관절점들을 시간축상에서 분석하여 생성되는 동작정보로부터 단위동작을 식별하여 구분한다. 이러한 단위동작은 발레에 있어서는 표준적인 단위 동작들이 정의되어 있고 축구나 배구 등 스포츠에서도 사람들은 나름의 기준에 따라 구분할 수 있다. 시간축상에서 연이어 공급되는 3차원 관절점 프레임들을 추적(tracking)하여 움직임이 잠시 멈추는 구간을 검출하여 구분 후보점들을 제시하고, 사람의 도움을 받아 그 중 최종 구분점을 결정하는 방식으로 수작업을 병행하여 처리할 수 있다. 이러한 데이터가 쌓이면 각각의 단위동작별로 학습된 예를 들면 순환신경망회로(RNN : Recurrent Neural Network)를 이용하여 움직임 속도가 정규화된 3차원 프레임들의 모든 구간을 처리하여 가장 높은 확률값을 출력하는 구간을 단위동작으로 결정할 수 있다. 단위동작의 개수가 수백개인 발레와 같은 동작에 있어서 이러한 처리는 매우 높은 처리부하를 초래할 수 있으나, 비교적 적은 수의 단위 동작을 가진 스포츠에 있어서는 적용 가능하다. 행위자의 동작에서 단위동작을 식별함으로써 직선으로 표시된 시간축 상에서 단위동작을 기초로 시연시간의 구간을 구분하여 각 구간의 단위동작을 텍스트로 표시하는 그래픽 사용자인터페이스로 시각화하여 출력할 수 있다. 또 구간별로 재생을 선택하는 선택버튼을 두어 선택될 경우 해당 구간의 3차원 관절점 프레임을 모델링 신체를 통해 재생하거나 동영상의 해당 구간을 재생하도록 구성할 수 있다. According to an additional aspect, the momentum calculation unit may calculate the momentum by analyzing the estimated joint points on the time axis, calculating the momentum for each joint, and summing them up. 6 is a block diagram showing the configuration of an embodiment of the momentum calculation unit of FIG. 2 . The momentum calculation unit 600 according to an embodiment may include a unit motion classification processing unit 610 and a momentum analysis unit 631 for each unit motion. The unit motion classification processing unit 610 identifies and classifies unit motions from motion information generated by analyzing joint points on the time axis. These unit movements are defined as standard unit movements in ballet, and people can classify them according to their own criteria in sports such as soccer and volleyball. By tracking the three-dimensional joint point frames supplied consecutively on the time axis, detecting the section where the movement stops for a while, presenting candidate points for division, and determining the final division point among them with the help of a person. can be dealt with When these data are accumulated, for example, using a Recurrent Neural Network (RNN) learned for each unit motion, all sections of 3D frames in which the movement speed is normalized are processed, and the section outputting the highest probability value is a unit. action can be determined. In movements such as ballet in which the number of unit movements is in the hundreds, this processing may result in a very high processing load, but it is applicable in sports with a relatively small number of unit movements. By identifying the unit motion in the action of the actor, it is possible to visualize and output the unit motion of each section as a graphic user interface that divides the sections of the demonstration time based on the unit motion on the time axis indicated by a straight line and displays the unit motion of each section as text. In addition, there is a selection button for selecting playback for each section, and when selected, the 3D joint point frame of the corresponding section can be played through the modeling body or the corresponding section of the video can be played.

단위동작별 운동량분석부(631)는 구분된 단위동작에 대해 각 관절별로 운동량을 계산하고 이를 모델링신체에 걸쳐 합산하여 단위동작별 운동량을 계산한다. 모델링 신체를 기준으로 운동량을 계산하는 방법에 대해서는 전술한 바 있다. 모델링신체에 포함된 모든 관절에 대해 미소 변위별로 운동량을 계산하여 누적하는 과정을 단위동작 구간에 대해 반복하여 단위동작구간별 운동량을 계산할 수 있다. 이에 의해 행위자가 시연 중에 동일한 단위동작을 몇 번 반복했는지, 그 몇 차례의 단위동작 시연에 있어서 운동량의 차이를 시각화할 수 있다. 또 안무의 평가에 있어서 창작된 특정한 단위동작이 어느 관절의 움직임이 과도한지 부족한지를 평가할 수 있다. 예를 들어 단위동작별 관절별 움직임의 정도를 모델링 신체의 각 관절에 색상을 부여하는 컬러맵으로 표시할 수 있다. The momentum analysis unit 631 for each unit motion calculates the amount of momentum for each joint for the divided unit motion and sums it up over the modeling body to calculate the amount of momentum for each unit motion. The method for calculating the amount of exercise based on the modeling body has been described above. The process of calculating and accumulating the momentum for each minute displacement of all joints included in the modeling body may be repeated for the unit motion section to calculate the momentum for each unit motion section. In this way, it is possible to visualize how many times the performer repeated the same unit motion during the demonstration and to visualize the difference in momentum in the demonstration of the number of unit motions. In addition, in the evaluation of choreography, it is possible to evaluate whether the movement of a specific joint created is excessive or insufficient. For example, the degree of movement of each joint for each unit motion may be displayed as a color map that assigns a color to each joint of the modeling body.

<청구항 5 발명의 설명><Description of Claim 5 Invention>

추가적으로, 운동량계산부(600)는 총운동량분석부(633)를 더 포함할 수 있다. 총운동량분석부(633)는 단위동작별 운동량을 합산하여 시연 전체에 걸친 운동량을 계산하여 출력한다. 예를 들어 발레에 있어서 특정한 안무의 전체 시연에 있어서 관절별 운동량의 누적치를 정량화할 수 있다. 나아가 특정한 안무가 어느 관절에 무리를 초래하는지 파악할 수 있고, 스포츠에 있어서 무리가 초래되는 관절을 식별하여 부상을 예방할 수도 있다. Additionally, the momentum calculation unit 600 may further include a total momentum analysis unit 633 . The total momentum analysis unit 633 calculates and outputs the total momentum over the entire demonstration by adding up the momentum for each unit motion. For example, in ballet, it is possible to quantify the cumulative value of the amount of motion for each joint in the entire demonstration of a specific choreography. Furthermore, it is possible to determine which joints are strained by a specific choreography, and injuries can be prevented by identifying joints that cause strain in sports.

<청구항 6,7 발명의 설명><Description of Claims 6 and 7 Invention>

운동정보분석부(230)는 추가적으로 소모칼로리계산부(650)를 더 포함할 수 있다. 일 실시예에서, 소모칼로리계산부(650)는 단위동작별 소모칼로리계산부(651)를 포함할 수 있다. 단위동작별 소모칼로리계산부(651)는 단위동작별 운동량으로부터 모델링신체를 기준으로 단위동작별 소모칼로리를 계산하여 출력한다. 운동량 정보는 바로 칼로리로 환산될 수 있다. 추가적으로, 소모칼로리계산부(650)는 총 소모칼로리계산부(653)를 포함할 수 있다. 총 소모칼로리계산부(653)는 단위동작별 소모칼로리를 합산하여 전체 소모 칼로리를 계산하여 출력할 수 있다. The exercise information analysis unit 230 may additionally include a calorie consumption calculation unit 650 . In one embodiment, the calorie consumption calculation unit 650 may include a calorie consumption calculation unit 651 for each unit operation. The calorie consumption calculation unit 651 for each unit motion calculates and outputs the calorie consumption for each unit motion based on the modeling body from the amount of exercise for each unit motion. The exercise amount information can be directly converted into calories. Additionally, the calorie consumption calculation unit 650 may include a total calorie consumption calculation unit 653 . The total calorie consumption calculation unit 653 may calculate and output the total calorie consumption by summing the calorie consumption for each unit operation.

<청구항 8 발명의 설명><Description of the invention of claim 8>

도 7은 도 2의 운동정보분석부의 일 실시예의 구성을 도시한 블록도이다. 추가적인 양상에 따르면, 운동정보분석부는 관절별로 운동 위험도를 산출하여 제공할 수 있다. 일 실시예에 따른 운동정보분석부(230)는 운동위험도분석부(231)를 더 포함할 수 있다. 운동위험도분석부(231)는 운동량계산부(600)에서 출력되는 각 관절별 운동량 정보 중 관절별 운동 각도범위와 각속도를 시간축에서 분석하여 위험도를 산출하고 관절별운동위험도정보로 출력한다. 위험도는 하나 혹은 복수의 위험도 함수로 산출할 수 있다. 예를 들어 위험도 함수는 관절의 운동 각도범위와 각속도 및 무게를 반영한 각운동량의 크기일 수 있다. 또 다른 예로, 위험도 함수는 관절점들의 위치로부터 산출되는 신체균형도, 즉 무게배치의 균일도를 정량화한 값일 수 있다. 위험도는 관절별 운동량의 집중도를 반영한다. 즉 운동량이 전체 관절에 대해 균등하게 배분되지 않고 특정한 몇 개의 관절에 집중되는 경우, 특히 신체에서 약한 관절에 집중되는 경우 위험도가 높아질 수 있다. 7 is a block diagram showing the configuration of an embodiment of the motion information analysis unit of FIG. 2 . According to an additional aspect, the exercise information analysis unit may calculate and provide a motion risk for each joint. The exercise information analysis unit 230 according to an embodiment may further include an exercise risk analysis unit 231 . The motion risk analysis unit 231 analyzes the motion angular range and angular velocity for each joint among the momentum information for each joint output from the momentum calculation unit 600 on the time axis to calculate the risk and outputs the motion risk information for each joint. Risk can be calculated with one or more risk functions. For example, the risk function may be an angular motion range of a joint, an angular velocity, and an angular momentum size reflecting weight. As another example, the risk function may be a value obtained by quantifying body balance, that is, uniformity of weight distribution, calculated from locations of joint points. The risk level reflects the concentration of exercise for each joint. In other words, if the amount of exercise is not evenly distributed to all joints and is concentrated on a few specific joints, the risk may increase especially if the exercise is concentrated on weak joints in the body.

<청구항 9 발명의 설명><Description of the invention of claim 9>

추가적인 양상에 따르면, 행위자와 비교행위자의 동작을 비교하여 일치도를 평가할 수 있다. 운동정보분석부(230)는 동작비교평가부(233)를 더 포함할 수 있다. 동작비교평가부(233)는 자세정보캡쳐부에서 출력되는 좌표들을 저장된 비교행위자의 캡쳐된 동작정보(motion information)와 비교하여 일치도를 평가한다. 비교행위자의 동작정보도 관절점들의 위치좌표가 해당 타임스탬프와 함께 저장된 형태일 수 있다. 일 양상에 따라, 동작 일치도의 평가는 동적시간와핑(Dynamic Time Warping)을 적용하여 처리될 수 있다. 행위자의 3차원 관절점 프레임과 대응되는 비교행위자의 동작 프레임을 결정하고 대응되는 동작 프레임의 관절점들의 좌표의 일치도를 누적차분거리개념으로 정량화할 수 있다. 동적시간와핑을 적용한 동작 유사도의 정량화와 관련하여서는 임준석 and 김진헌. 2020, "동영상에서 추출한 키포인트 정보의 동적 시간워핑(DTW)을이용한 인체 동작 유사도의 정량화 기법", 전기전자학회논문지, vol.24, no.4 pp.1109-1116. 에 개시된 기술을 예로 들 수 있다.According to an additional aspect, the degree of agreement may be evaluated by comparing the actions of the actor and the comparison actor. The motion information analysis unit 230 may further include a motion comparison evaluation unit 233 . The motion comparison evaluation unit 233 evaluates the degree of agreement by comparing the coordinates output from the posture information capture unit with the captured motion information of the stored comparing agent. The motion information of the comparing actor may also be in the form of storing the positional coordinates of joint points together with corresponding timestamps. According to one aspect, the evaluation of motion consistency may be processed by applying dynamic time warping. The motion frame of the comparison actor corresponding to the 3D joint point frame of the actor can be determined, and the degree of coincidence of the coordinates of the joint points of the corresponding motion frame can be quantified using the concept of accumulated difference distance. Regarding the quantification of motion similarity using dynamic time warping, Jun-seok Lim and Jin-heon Kim. 2020, "Method for quantifying human body motion similarity using dynamic time warping (DTW) of keypoint information extracted from video", Journal of the Institute of Electrical and Electronics Engineers, vol.24, no.4 pp.1109-1116. For example, the technique disclosed in

<청구항 11 발명의 설명><Description of Claim 11 Invention>

도 8은 일 실시예에 따른 동작분석방법의 구성을 도시한 흐름도이다. 일 실시예에 따른 행위자의 동작분석방법은 컴퓨터에서 실행되는 컴퓨터 프로그램 명령어로 구현될 수 있다. 도시된 바와 같이, 일 실시예에 따른 행위자의 동작분석방법은 자세(pose)정보캡쳐 단계(810)와, 운동정보분석 단계(830)를 포함한다. 자세(pose)정보캡쳐 단계(810)에서 컴퓨터는 행위자(actor)를 서로 다른 시점에서 촬영하는 복수의 카메라들에서 획득되는 다시점 영상들(Multiview images)로부터 행위자의 관절점(joint) 위치를 3차원 좌표로 출력한다. 운동정보분석 단계(830)는 운동량계산단계(850)를 포함한다. 운동량계산단계(850)에서 컴퓨터는 자세정보캡쳐 단계(810)에서 출력되는 관절점위치들을 시간축상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산한다. 이들에 대해서는 도 2를 참조하여 설명한 바 있다.8 is a flowchart illustrating the configuration of a motion analysis method according to an embodiment. A method for analyzing an actor's motion according to an embodiment may be implemented as computer program instructions executed on a computer. As shown, the motion analysis method of an actor according to an embodiment includes a pose information capture step 810 and a motion information analysis step 830 . In the pose information capture step 810, the computer calculates the location of the actor's joint point from multiview images obtained from a plurality of cameras photographing the actor from different viewpoints. Output in dimensional coordinates. The motion information analysis step 830 includes a momentum calculation step 850 . In the momentum calculation step 850, the computer sequentially applies the joint point positions output in the posture information capture step 810 to the modeling body on the time axis to calculate the momentum for each joint and sums them up to calculate the momentum. These have been described with reference to FIG. 2 .

일 양상에 따라, 자세정보캡쳐 단계(810)는 2차원 영상별 2차원자세추정 단계(810)와, 매치확률분포생성단계(815)와, 다시점히트맵융합단계(817)를 포함할 수 있다. 2차원 영상별 2차원자세추정 단계(810)에서 컴퓨터는 각각의 카메라에서 출력되는 2차원 영상에서 행위자의 각 관절점의 위치를 추정하여 출력한다. 매치확률분포생성단계(815)에서 컴퓨터는 대응하는 2차원자세추정 단계에서 각각 출력되는 2차원 영상 상의 관절점들을 카메라 파라메터를 반영하여 배치하고, 각 등극선(epipolar line) 주변에서 픽셀별로 참 관절점의 확률을 표현하는 히트맵정보를 생성한다. 다시점히트맵융합단계(817)에서 컴퓨터는 각 2차원 영상의 히트맵정보를 융합하여 확률이 높은 매치점을 관절점으로 결정하여 출력한다. 추가적인 양상에 따라, 자세정보캡쳐 단계(810)는 2차원자세추정 단계 이전에 사람검출단계(811)를 더 포함할 수 있다. 사람검출단계(811)에서 컴퓨터는 각각의 카메라에서 출력되는 2차원 영상에서 사람 영역을 추출하여 출력한다. 이에 따라 2차원 자세추정 단계(813)는 2차원 영상이 아니라 이에서 추출된 사람 영역들에 대해 수행될 수 있다. 이에에 대해서는 도 3과 도 4 및 도 5를 참조하여 상세히 설명한 바 있다. According to one aspect, the posture information capture step 810 may include a 2D posture estimation step 810 for each 2D image, a match probability distribution generating step 815, and a multi-view heat map fusion step 817. there is. In the 2D posture estimation step 810 for each 2D image, the computer estimates and outputs the position of each joint point of the actor in the 2D image output from each camera. In the match probability distribution generation step 815, the computer arranges the joint points on the 2D image output in the corresponding 2D posture estimation step by reflecting the camera parameters, and the true joint for each pixel around each epipolar line. Create heat map information that expresses the probability of points. In the multi-view heat map fusion step 817, the computer fuses the heat map information of each 2D image, determines a match point having a high probability as a joint point, and outputs the result. According to a further aspect, the posture information capture step 810 may further include a person detection step 811 before the 2D posture estimation step. In the human detection step 811, the computer extracts and outputs the human region from the 2D images output from each camera. Accordingly, the 2D posture estimation step 813 may be performed not on the 2D image but on human regions extracted from the 2D image. This has been described in detail with reference to FIGS. 3, 4 and 5.

추가적인 양상에 따라, 운동량계산단계(850)는 단위동작구분처리단계(851)와, 단위동작구간별 운동량분석단계(853)를 포함할 수 있다. 단위동작구분처리단계(851)에서 컴퓨터는 관절점들을 시간축상에서 분석하여 생성되는 동작정보로부터 단위동작을 식별하여 구분한다. 단위동작구간별 운동량분석단계(853)에서 컴퓨터는 구분된 단위동작에 대해 각 관절별로 운동량을 계산하고 이를 모델링 신체에 걸쳐 합산하여 단위동작별 운동량을 계산한다. 추가적으로 운동량계산단계(850)는 총운동량분석단계(855)를 더 포함할 수 있다. 총운동량분석단계(855)에서 컴퓨터는 단위동작별 운동량을 합산하여 전체 운동량을 계산하여 출력한다. According to an additional aspect, the momentum calculation step 850 may include a unit motion classification processing step 851 and a momentum analysis step 853 for each unit motion section. In the unit motion classification processing step 851, the computer identifies and classifies the unit motion from motion information generated by analyzing the joint points on the time axis. In the momentum analysis step for each unit motion section (853), the computer calculates the amount of momentum for each joint for the divided unit motion and sums it up over the modeling body to calculate the amount of momentum for each unit motion. Additionally, the momentum calculation step 850 may further include a total momentum analysis step 855 . In the total momentum analysis step 855, the computer calculates and outputs the total momentum by adding up the momentum for each unit motion.

추가적인 양상에 따라, 운동정보분석 단계(830)는 운동위험도분석 단계(833)를 더 포함할 수 있다. 운동위험도분석 단계(833)에서 컴퓨터는 운동량계산 단계(850)에서 출력되는 각 관절별 운동량 정보 중 관절별 운동 각도범위와 각속도를 시간축에서 분석하여 위험도를 산출하고 관절별운동위험도정보로 출력한다. 이에 대해서는 도 6과 도 7을 참조하여 설명한 바 있다. According to an additional aspect, the exercise information analysis step 830 may further include an exercise risk analysis step 833 . In the motion risk analysis step 833, the computer analyzes the motion angular range and angular velocity for each joint among the momentum information for each joint output in the momentum calculation step 850 on the time axis to calculate the risk and outputs the motion risk information for each joint. This has been described with reference to FIGS. 6 and 7 .

이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다. In the above, the present invention has been described through embodiments with reference to the accompanying drawings, but is not limited thereto, and should be interpreted to cover various modifications that can be obviously derived by those skilled in the art. The claims are intended to cover these variations.

10 : 카메라제어부 20 : 행위자
30-1 ~ 30-5 : 다시점 카메라들
50 : 서버컴퓨터
71 : 개인용 컴퓨터 73 : 스마트폰
210 : 자세정보 캡쳐부 230 : 운동정보분석부
231 : 운동량계산부 233 : 동작비교평가부
250 : 사용자 인터페이스부
251 : 키코드 253 : 디스플레이
310, 330, 350 : 관절 320, 340, 360 : 무게추
313, 335, 359 : 와이어
600 : 운동량계산부
610 : 단위동작구분처리부 631 ; 단위동작별운동량분석부
640 : 모델링신체
633 : 총 운동량분석부
650 : 소모칼로리계산부
651 : 단위동작별 소모칼로리계산부
653 : 총 소모칼로리계산부
10: camera control unit 20: actor
30-1 to 30-5: multi-view cameras
50: server computer
71: personal computer 73: smartphone
210: posture information capture unit 230: exercise information analysis unit
231: momentum calculation unit 233: motion comparison evaluation unit
250: user interface unit
251: key code 253: display
310, 330, 350: joint 320, 340, 360: weight
313, 335, 359: wire
600: momentum calculation unit
610: unit motion classification processing unit 631; Momentum analysis unit for each unit motion
640: modeling body
633: total momentum analysis unit
650: Calorie consumption calculation unit
651: Calorie consumption calculation unit for each unit operation
653: Total Calorie Calculation Unit

Claims (16)

행위자(actor)를 서로 다른 시점에서 촬영하는 복수의 카메라들과;
복수의 카메라들에서 획득되는 다시점 영상들(Multiview images)로부터 행위자의 관절점(joint) 위치를 3차원 좌표로 출력하는 자세(pose)정보캡쳐부와;
자세정보캡쳐부에서 출력되는 관절점위치들을 시간축상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산하는 운동량계산부를 포함하는 운동정보분석부;
분석된 결과를 제공하고 필요한 지시나 정보를 입력 받는 사용자 인터페이스부;
를 포함하는 동작분석시스템.
a plurality of cameras that take pictures of an actor from different viewpoints;
a pose information capture unit that outputs the position of an actor's joint point in 3D coordinates from multiview images obtained from a plurality of cameras;
A motion information analysis unit including a momentum calculation unit that calculates a momentum for each joint by sequentially applying the joint point positions output from the posture information capture unit to the modeling body on the time axis and sums them up to calculate the momentum;
a user interface unit that provides analyzed results and receives necessary instructions or information;
Motion analysis system comprising a.
청구항 1에 있어서, 자세정보캡쳐부는 :
각각의 카메라에서 출력되는 2차원 영상에서 행위자의 각 관절점의 위치를 추정하여 출력하는 복수의 2차원자세추정부와;
각각이 대응하는 2차원자세추정부에서 출력된 2차원 영상 상의 관절점들을 카메라 파라메터를 반영하여 배치하고, 각 등극선(epipolar line) 주변에서 픽셀별로 참 관절점의 확률을 표현하는 히트맵정보를 생성하는 복수의 매치확률분포생성부와;
각 2차원 영상의 히트맵정보를 융합하여 확률이 높은 매치점을 관절점으로 결정하여 출력하는 다시점히트맵융합부;
를 포함하는 동작분석시스템.
The method according to claim 1, the attitude information capture unit:
a plurality of 2D posture estimators for estimating and outputting the position of each joint point of the actor in the 2D image output from each camera;
The joint points on the 2D image output from the corresponding 2D posture estimation unit are arranged by reflecting the camera parameters, and heat map information expressing the probability of the true joint point for each pixel around each epipolar line is generated. a plurality of match probability distribution generating units for generating;
a multi-view heat map convergence unit that fuses heat map information of each 2D image, determines a match point with a high probability as a joint point, and outputs the result;
Motion analysis system comprising a.
청구항 2에 있어서, 자세정보캡쳐부는
각각의 카메라에서 출력되는 2차원 영상에서 사람 영역을 추출하여 대응하는 2차원자세추정부로 출력하는 복수의 사람검출부(human detecting part);
를 더 포함하는 동작분석시스템.
The method according to claim 2, the posture information capture unit
A plurality of human detecting parts for extracting a human area from a 2D image output from each camera and outputting the extracted human region to a corresponding 2D posture estimator (human detecting part);
Motion analysis system further comprising a.
청구항 1에 있어서, 운동량계산부는 :
관절점들을 시간축상에서 분석하여 생성되는 동작정보로부터 단위동작을 식별하여 구분하는 단위동작구분처리부와;
구분된 단위동작에 대해 각 관절별로 운동량을 계산하고 이를 모델링 신체에 걸쳐 합산하여 단위동작별 운동량을 계산하는 단위동작구간별 운동량분석부;
를 포함하는 동작분석시스템.
The method according to claim 1, the momentum calculation unit:
a unit motion classification processing unit that identifies and classifies unit motions from motion information generated by analyzing joint points on a time axis;
a momentum analysis unit for each unit motion section that calculates the amount of momentum for each joint for the divided unit motion and sums it up over the modeling body to calculate the amount of momentum for each unit motion;
Motion analysis system comprising a.
청구항 4에 있어서, 운동량계산부는 :
단위동작별 운동량을 합산하여 전체 운동량을 계산하여 출력하는 총운동량분석부;
를 더 포함하는 동작분석시스템.
The method according to claim 4, the momentum calculation unit:
A total momentum analysis unit that calculates and outputs the total momentum by summing the momentum for each unit motion;
Motion analysis system further comprising a.
청구항 4에 있어서, 운동정보분석부는 :
단위동작별 운동량으로부터 모델링신체를 기준으로 단위동작별 소모칼로리를 계산하여 출력하는 단위동작별 소모칼로리계산부;
를 더 포함하는 동작분석시스템.
The method according to claim 4, exercise information analysis unit:
a calorie consumption calculation unit for each unit movement that calculates and outputs the calorie consumption for each unit movement based on the modeling body from the amount of exercise for each unit movement;
Motion analysis system further comprising a.
청구항 4에 있어서, 운동량계산부는 :
단위동작별 소모칼로리를 합산하여 전체 소모 칼로리를 계산하여 출력하는 총 소모칼로리계산부;
를 더 포함하는 동작분석시스템.
The method according to claim 4, the momentum calculation unit:
a total calorie consumption calculation unit that calculates and outputs a total calorie consumption by summing calorie consumption for each unit operation;
Motion analysis system further comprising a.
청구항 1에 있어서, 운동정보분석부는 :
운동량계산부에서 출력되는 각 관절별 운동량 정보 중 관절별 운동 각도범위와 각속도를 시간축에서 분석하여 위험도를 산출하고 관절별운동위험도정보로 출력하는 운동위험도분석부;
를 더 포함하는 동작분석시스템.
The method according to claim 1, exercise information analysis unit:
A motion risk analysis unit that analyzes the angular motion range and angular velocity for each joint among the momentum information for each joint output from the momentum calculation unit on the time axis to calculate a risk and outputs it as motion risk information for each joint;
Motion analysis system further comprising a.
청구항 1에 있어서, 운동정보분석부는 :
자세정보캡쳐부에서 출력되는 좌표들을 저장된 비교행위자의 캡쳐된 동작정보(motion information)와 비교하여 일치도를 평가하여 평가결과를 출력하되, 동적시간와핑(Dynamic Time Warping)을 적용하여 동작을 비교하는 동작비교평가부;
를 더 포함하는 동작분석시스템.
The method according to claim 1, exercise information analysis unit:
An operation of comparing the coordinates output from the posture information capture unit with the captured motion information of the stored comparing agent to evaluate the degree of agreement and output the evaluation result, but to compare motions by applying dynamic time warping. comparative evaluation department;
Motion analysis system further comprising a.
청구항 1에 있어서, 상기 시스템이 :
새로운 모델링신체 정보를 사용자 인터페이스부를 통해 입력받아 모델링신체정보 데이터베이스에 저장하는 모델링등록부;
를 더 포함하는 동작분석시스템.
The system of claim 1 , wherein the system:
a modeling register for receiving new modeling body information through the user interface and storing it in a modeling body information database;
Motion analysis system further comprising a.
컴퓨터에서 실행되는 컴퓨터 프로그램 명령어로 구현되는 행위자의 동작 분석 방법에 있어서,
행위자(actor)를 서로 다른 시점에서 촬영하는 복수의 카메라들에서 획득되는 다시점 영상들(Multiview images)로부터 행위자의 관절점(joint) 위치를 3차원 좌표로 출력하는 자세(pose)정보캡쳐 단계와;
자세정보캡쳐 단계에서 출력되는 관절점위치들을 시간축상에서 순차적으로 모델링신체에 적용하여 각 관절별로 운동량을 계산하고 이를 합산하여 운동량을 계산하는 운동량계산 단계를 포함하는 운동정보분석 단계;
를 포함하는 동작분석방법.
A method for analyzing the motion of an actor implemented as computer program instructions executed on a computer,
A pose information capture step of outputting the joint position of the actor in 3D coordinates from multiview images obtained from a plurality of cameras photographing the actor from different viewpoints; and ;
A motion information analysis step including a momentum calculation step of sequentially applying the joint point positions output in the posture information capture step to the modeling body on the time axis to calculate a momentum for each joint and summing them to calculate the momentum;
Motion analysis method comprising a.
청구항 11에 있어서, 자세정보캡쳐 단계는 :
각각의 카메라에서 출력되는 2차원 영상에서 행위자의 각 관절점의 위치를 추정하여 출력하는 2차원자세추정 단계와;
대응하는 2차원자세추정 단계에서 각각 출력되는 2차원 영상 상의 관절점들을 카메라 파라메터를 반영하여 배치하고, 각 등극선(epipolar line) 주변에서 픽셀별로 참 관절점의 확률을 표현하는 히트맵정보를 생성하는 매치확률분포생성단계와;
각 2차원 영상의 히트맵정보를 융합하여 확률이 높은 매치점을 관절점으로 결정하여 출력하는 다시점히트맵융합단계;
를 포함하는 동작분석방법.
The method according to claim 11, wherein the posture information capture step is:
a 2D posture estimation step of estimating and outputting the location of each joint point of the actor in the 2D image output from each camera;
The joint points on the 2D image output in the corresponding 2D posture estimation step are arranged by reflecting the camera parameters, and heat map information expressing the probability of the true joint point for each pixel around each epipolar line is generated. a match probability distribution generating step;
a multi-view heat map fusion step of fusing heat map information of each two-dimensional image, determining a match point having a high probability as a joint point, and outputting the result;
Motion analysis method comprising a.
청구항 12에 있어서, 자세정보캡쳐단계는 2차원자세추정 단계 이전에
각각의 카메라에서 출력되는 2차원 영상에서 사람 영역을 추출하여 출력하는 사람검출단계;
를 더 포함하는 동작분석방법.
The method according to claim 12, wherein the posture information capture step is prior to the two-dimensional posture estimation step
a person detection step of extracting and outputting a human region from a 2D image output from each camera;
Motion analysis method further comprising a.
청구항 11에 있어서, 운동량계산단계는 :
관절점들을 시간축상에서 분석하여 생성되는 동작정보로부터 단위동작을 식별하여 구분하는 단위동작구분처리단계와;
구분된 단위동작에 대해 각 관절별로 운동량을 계산하고 이를 모델링 신체에 걸쳐 합산하여 단위동작별 운동량을 계산하는 단위동작구간별 운동량분석단계;
를 포함하는 동작분석방법.
The method according to claim 11, wherein the momentum calculation step is:
a unit motion classification processing step of identifying and classifying unit motions from motion information generated by analyzing joint points on a time axis;
A momentum analysis step for each unit motion section of calculating the amount of momentum for each joint for the divided unit motion and summing it over the modeling body to calculate the amount of momentum for each unit motion;
Motion analysis method comprising a.
청구항 14에 있어서, 운동량계산단계는 :
단위동작별 운동량을 합산하여 전체 운동량을 계산하여 출력하는 총운동량분석단계;
를 더 포함하는 동작분석방법.
The method according to claim 14, wherein the momentum calculation step is:
A total momentum analysis step of calculating and outputting a total momentum by summing up the momentum for each unit motion;
Motion analysis method further comprising a.
청구항 11에 있어서, 운동정보분석 단계는 :
운동량계산 단계에서 출력되는 각 관절별 운동량 정보 중 관절별 운동 각도범위와 각속도를 시간축에서 분석하여 위험도를 산출하고 관절별운동위험도정보로 출력하는 운동위험도분석 단계;
를 더 포함하는 동작분석방법.

The method according to claim 11, wherein the motion information analysis step is:
A motion risk analysis step of calculating a risk by analyzing the motion angular range and angular velocity for each joint among the motion information for each joint output in the momentum calculation step on the time axis, and outputting the motion risk information for each joint;
Motion analysis method further comprising a.

KR1020210169419A 2021-11-30 2021-11-30 human motion analysis system KR20230081395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210169419A KR20230081395A (en) 2021-11-30 2021-11-30 human motion analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210169419A KR20230081395A (en) 2021-11-30 2021-11-30 human motion analysis system

Publications (1)

Publication Number Publication Date
KR20230081395A true KR20230081395A (en) 2023-06-07

Family

ID=86760809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210169419A KR20230081395A (en) 2021-11-30 2021-11-30 human motion analysis system

Country Status (1)

Country Link
KR (1) KR20230081395A (en)

Similar Documents

Publication Publication Date Title
EP4002198A1 (en) Posture acquisition method and device, and key point coordinate positioning model training method and device
Jiang et al. Seeing invisible poses: Estimating 3d body pose from egocentric video
US6072903A (en) Image processing apparatus and image processing method
JP4148281B2 (en) Motion capture device, motion capture method, and motion capture program
JP6295645B2 (en) Object detection method and object detection apparatus
CN109891189B (en) Planned photogrammetry
Wang et al. Geometric pose affordance: 3d human pose with scene constraints
CN104599287B (en) Method for tracing object and device, object identifying method and device
CN110544301A (en) Three-dimensional human body action reconstruction system, method and action training system
CN108369742A (en) The optimized object scan merged using sensor
CN102317977A (en) Method and system for gesture recognition
CN105740839A (en) Analysis of three-dimensional scenes
WO2021052208A1 (en) Auxiliary photographing device for movement disorder disease analysis, control method and apparatus
CN110544302A (en) Human body action reconstruction system and method based on multi-view vision and action training system
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
WO2020145224A1 (en) Video processing device, video processing method and video processing program
KR20200134502A (en) 3D human body joint angle prediction method and system through the image recognition
JP2021060868A (en) Information processing apparatus, information processing method, and program
Leroy et al. SMPLy benchmarking 3D human pose estimation in the wild
CN114120168A (en) Target running distance measuring and calculating method, system, equipment and storage medium
Vo et al. Spatiotemporal bundle adjustment for dynamic 3d human reconstruction in the wild
CN111881807A (en) VR conference control system and method based on face modeling and expression tracking
Gritai et al. Matching trajectories of anatomical landmarks under viewpoint, anthropometric and temporal transforms
KR20230081395A (en) human motion analysis system
Almasi Human movement analysis from the egocentric camera view

Legal Events

Date Code Title Description
E902 Notification of reason for refusal