KR102568538B1 - Apparatus and Method for Estimating Human Motion using Mobile Robot - Google Patents

Apparatus and Method for Estimating Human Motion using Mobile Robot Download PDF

Info

Publication number
KR102568538B1
KR102568538B1 KR1020200141426A KR20200141426A KR102568538B1 KR 102568538 B1 KR102568538 B1 KR 102568538B1 KR 1020200141426 A KR1020200141426 A KR 1020200141426A KR 20200141426 A KR20200141426 A KR 20200141426A KR 102568538 B1 KR102568538 B1 KR 102568538B1
Authority
KR
South Korea
Prior art keywords
posture
segment
human
evaluating
motion
Prior art date
Application number
KR1020200141426A
Other languages
Korean (ko)
Other versions
KR20210158291A (en
Inventor
김도형
김재홍
윤영우
이재연
장민수
최정단
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/106,465 priority Critical patent/US20210394021A1/en
Publication of KR20210158291A publication Critical patent/KR20210158291A/en
Application granted granted Critical
Publication of KR102568538B1 publication Critical patent/KR102568538B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Abstract

이동 로봇을 이용한 휴먼 동작 평가 장치 및 방법이 개시된다. 본 발명의 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 방법은, 이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하는 단계, 식별된 운동 동작에 상응하는 표준 자세와 이동 로봇의 카메라에 의해 적어도 둘 이상의 목표 위치에서 촬영한 휴먼 전신 영상들을 비교하여 휴먼의 자세를 평가하는 단계 및 적어도 둘 이상의 목표 위치들 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 포함할 수 있다. An apparatus and method for evaluating human motion using a mobile robot are disclosed. A method for evaluating human motion using a mobile robot according to an embodiment of the present invention includes the steps of identifying a motion motion of the human by analyzing a full-body image of a human captured by a camera mounted on the mobile robot, and a standard posture corresponding to the identified motion motion. Evaluating the posture of the human by comparing the whole body images of the human photographed at at least two or more target positions by the camera of the mobile robot and the movement motion of the human based on the evaluation information of the human posture at each of the at least two or more target positions may include a comprehensive evaluation of

Description

이동 로봇을 이용한 휴먼 자세 평가 장치 및 방법{Apparatus and Method for Estimating Human Motion using Mobile Robot} Apparatus and Method for Estimating Human Motion using Mobile Robot}

기재된 실시예는 휴먼과 함께 생활하는 로봇이 피트니스, 요가, 스트레칭 등과 같은 휴먼의 운동 동작을 영상 분석 기반으로 평가하는 기술에 관한 것이다.The described embodiment relates to a technology in which a robot living with a human evaluates a human's exercise motion, such as fitness, yoga, and stretching, based on image analysis.

TV나 스마트폰으로 영상물을 보면서 집에서 혼자 하는 운동인 홈트(홈 트레이닝)가 큰 인기를 끌고 있으며 하나의 트랜드로 자리 잡아가고 있다. 최근에는 인공지능 기술을 활용하여 카메라가 학습자의 운동 자세를 인식해서 실시간으로 자세를 평가하고 교정해주는 상용 제품들이 속속 등장하고 있다. 이러한 동작 평가를 기반으로 하는 AI 코칭 서비스는 피트니스, 다이어트뿐만 아니라 전문 스포츠, 의료 재활 등 다양한 영역으로 파급될 것으로 예상되며 관련 시장이 급격하게 성장할 것으로 예상된다.Homet (home training), which is an exercise to do alone at home while watching videos on TV or a smartphone, is gaining great popularity and is becoming a trend. Recently, commercial products that use artificial intelligence technology to evaluate and correct posture in real time by recognizing the learner's movement posture are emerging one after another. AI coaching services based on these motion evaluations are expected to spread to various areas such as fitness and diet as well as professional sports and medical rehabilitation, and related markets are expected to grow rapidly.

영상 분석 기반의 AI 코칭 서비스의 핵심 기술은 학습자가 어떤 자세를 취하고 있는지를 파악하는 자세 정보 추출 기술이다. 대부분의 종래 기술들은 휴먼의 관절(joint) 위치를 검출하고 검출된 관절들로 구성된 골격(skeleton) 정보를 학습자의 자세 정보로 활용한다. 따라서, 정확한 관절 위치의 검출이 매우 중요하며 관절 위치 검출의 정확도가 전체 동작 평가 시스템의 성능을 크게 좌우한다.The core technology of the video analysis-based AI coaching service is the posture information extraction technology that identifies the posture the learner is taking. Most conventional technologies detect the position of a human joint and utilize skeleton information composed of the detected joints as posture information of a learner. Therefore, accurate joint position detection is very important, and the accuracy of joint position detection greatly influences the performance of the entire motion evaluation system.

그런데, TV 또는 스마트폰에 부착된 카메라로 휴먼의 동작을 평가하는 기존의 기술들은 동작 평가에 중요한 관절 모두를 정확하게 검출하지 못한다. 따라서 사용자에게 신뢰성 있는 평가 결과를 제공하지 못하는 문제가 있다. 즉, 동작에 따라 각 관절의 위치를 검출하기에 용이한 최적의 카메라 방향이 있는데, 고정된 카메라 위치로는 모든 관절을 정확하게 검출하기에는 한계가 있다. 또한, 특정 관절이 신체의 다른 부분이나 도구에 의해서 가려지는 경우에도 관절 위치를 정확하게 검출하기가 어렵다. 따라서 종래의 기술들은 위치 검출이 가능한 몇몇의 관절에 대해서만 비교 평가를 수행해서 부분적인 평가 결과만을 제공하고 있는 수준이다.However, existing techniques for evaluating human motion using a camera attached to a TV or smartphone cannot accurately detect all joints important for motion evaluation. Therefore, there is a problem in that reliable evaluation results cannot be provided to the user. That is, there is an optimal camera direction that is easy to detect the position of each joint according to motion, but there is a limit to accurately detecting all joints with a fixed camera position. In addition, even when a specific joint is covered by another part of the body or a tool, it is difficult to accurately detect the location of the joint. Therefore, the conventional techniques are at a level of providing only partial evaluation results by performing comparative evaluation on only a few joints capable of position detection.

이러한 단일 카메라의 한계를 극복하기 위해서 다중 카메라(2~4대)를 사용하여 문제를 해결하려는 시도도 있다. 하지만 설치 비용의 증가와 다중 카메라로 구성된 별도의 시스템을 구성해야 한다는 또 다른 문제들이 발생한다. 또한, 다중 카메라가 관절 위치 검출에 유리하기는 하지만 카메라가 고정되어 있기 때문에 각 관절의 검출에 용이한 최적의 방향에 능동적으로 대처하지 못하는 근본적인 문제는 여전히 남아있다.In order to overcome the limitations of a single camera, there are attempts to solve the problem by using multiple cameras (2 to 4 cameras). However, other problems arise such as an increase in installation cost and the need to configure a separate system composed of multiple cameras. In addition, although multiple cameras are advantageous in detecting joint positions, since the cameras are fixed, a fundamental problem of not actively coping with an optimal direction for easy detection of each joint still remains.

한국공개특허 10-2020-0022788호Korean Patent Publication No. 10-2020-0022788

기재된 실시예는 휴먼이 동작을 수행할 때 로봇이 위치를 변경해가면서 최적의 위치에서 휴먼의 동작을 관찰함으로써 자세나 동작의 평가 성능을 향상시키도록 하는데 그 목적이 있다.An object of the disclosed embodiments is to improve evaluation performance of a posture or motion by observing a human motion in an optimal position while a robot changes its position when a human performs an motion.

실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 방법은, 이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하는 단계, 식별된 운동 동작에 상응하는 표준 자세와 이동 로봇의 카메라에 의해 적어도 둘 이상의 목표 위치에서 촬영한 휴먼 전신 영상들을 비교하여 휴먼의 자세를 평가하는 단계 및 적어도 둘 이상의 목표 위치들 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 포함할 수 있다. A method for evaluating human motion using a mobile robot according to an embodiment includes the steps of analyzing a human whole body image captured by a camera mounted on the mobile robot to identify a motion motion of the human, a standard posture corresponding to the identified motion motion, and a mobile robot Evaluating the posture of the human by comparing whole-body images of the human captured at at least two or more target positions by the camera of the camera, and comprehensively evaluating the motion of the human based on the evaluation information of the human posture at each of the at least two or more target positions. steps may be included.

이때, 휴먼의 자세를 평가하는 단계는, 휴먼 전신 영상에서 관절을 검출하는 단계 및 검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 산출하는 단계를 포함할 수 있다.In this case, the step of evaluating the posture of the human may include detecting a joint in the human whole body image and calculating a posture accuracy score for a segment composed of joints having detection accuracy greater than or equal to a reference value.

이때, 휴먼의 자세를 평가하는 단계는, 관절의 검출 정확도 및 분절에 대한 자세 정확도 점수를 자세 평가도에 기록하는 단계를 더 포함하되, 자세 평가도는, 휴먼의 전체 분절들 및 관절들이 표시된 것일 수 있다.At this time, the step of evaluating the posture of the human further includes the step of recording the detection accuracy of the joint and the posture accuracy score for the segment in the posture evaluation diagram, wherein the posture evaluation diagram indicates all segments and joints of the human. can

이때, 휴먼의 자세를 평가하는 단계는, 분절 별로 반복 평가되고, 자세 평가도에 기록하는 단계는, 분절의 평가 횟수를 색상 또는 명도에 따라 구별되도록 자세 평가도에 기록될 수 있다.At this time, the step of evaluating the posture of the human is repeatedly evaluated for each segment, and the step of recording in the posture evaluation diagram may record the number of evaluations of the segment in the posture evaluation diagram so as to be distinguished according to color or brightness.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치 및 2차원 방향 벡터를 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정할 수 있다. At this time, in the step of evaluating the posture of the human, the target position is set based on the posture profile, but if the posture profile includes a weight and a 2D direction vector for each segment, the next target segment to be observed is selected in the order of weight. A target position, which is an optimal observation position for the selected segment, may be set based on the 2D direction vector of the selected segment.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치만을 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 최적 관찰 위치인 목표 위치를 실시간 계산하되, 목표 위치는, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정될 수 있다.At this time, in the step of evaluating the posture of the human, a target position is set based on the posture profile, but when the posture profile includes only weights for each segment, the next observation target segment is selected in order of weight, and the optimal observation is performed. A target position, which is a position, is calculated in real time, and the target position may be set to a point where two joints constituting the selected segment are observed, extend vertically from the center of the segment, and have the same distance from each of the two joints.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일이 제공되지 않을 경우, 휴먼을 중심으로 일정 거리의 지점을 일정 각도만큼 이동하면서 목표 위치를 설정할 수 있다. At this time, in the step of evaluating the posture of the human, when the posture profile is not provided, a target position may be set while moving a point at a predetermined distance from the human by a predetermined angle.

이때, 휴먼의 운동 동작을 평가하는 단계는, 분절을 구성하는 관절들의 검출 정확도의 평균으로 분절 검출 정확도를 산출하는 단계, 분절 검출 정확도 점수 및 분절 검출 정확도의 평균으로 분절의 최종 자세 정확도 점수를 산출하는 단계 및 분절 각각의 최종 자세 정확도 점수 및 가중치를 기반으로 최종 동작 정확도를 산출하는 단계를 포함할 수 있다. At this time, the step of evaluating the motion of the human includes calculating the segment detection accuracy as the average of the detection accuracies of the joints constituting the segment, and calculating the final posture accuracy score of the segment as the average of the segment detection accuracy score and the segment detection accuracy. and calculating a final motion accuracy based on a final posture accuracy score and a weight for each segment.

실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 장치는, 적어도 하나의 프로그램이 기록된 메모리 및 프로그램을 실행하는 프로세서를 포함하며, 프로그램은, 이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하는 단계, 식별된 운동 동작에 상응하는 표준 자세와 이동 로봇의 카메라에 의해 적어도 둘 이상의 목표 위치에서 촬영한 휴먼 전신 영상들을 비교하여 휴먼의 자세를 평가하는 단계 및 적어도 둘 이상의 목표 위치들 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 수행할 수 있다. An apparatus for evaluating human motion using a mobile robot according to an embodiment includes a memory in which at least one program is recorded and a processor that executes the program, and the program analyzes a human body image captured by a camera mounted on the mobile robot, Identifying the motion of the human; Evaluating the posture of the human by comparing the standard posture corresponding to the identified motion and the whole body images of the human taken at at least two or more target positions by the camera of the mobile robot; and A step of comprehensively evaluating the motion motion of the human based on the posture evaluation information of the human at each of the target positions may be performed.

이때, 휴먼의 자세를 평가하는 단계는, 휴먼 전신 영상에서 관절을 검출하는 단계 및 검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 산출하는 단계를 포함할 수 있다.In this case, the step of evaluating the posture of the human may include detecting a joint in the human whole body image and calculating a posture accuracy score for a segment composed of joints having detection accuracy greater than or equal to a reference value.

이때, 휴먼의 자세를 평가하는 단계는, 관절의 검출 정확도 및 분절에 대한 자세 정확도 점수를 자세 평가도에 기록하는 단계를 더 포함하되, 자세 평가도는, 휴먼의 전체 분절들 및 관절들이 표시된 것일 수 있다.At this time, the step of evaluating the posture of the human further includes the step of recording the detection accuracy of the joint and the posture accuracy score for the segment in the posture evaluation diagram, wherein the posture evaluation diagram indicates all segments and joints of the human. can

이때, 휴먼의 자세를 평가하는 단계는, 분절 별로 반복 평가되고, 자세 평가도에 기록하는 단계는, 분절의 평가 횟수를 색상 또는 명도에 따라 구별되도록 자세 평가도에 기록할 수 있다.At this time, the step of evaluating the posture of the human is repeatedly evaluated for each segment, and the step of recording in the posture evaluation diagram may record the number of evaluations of the segment in the posture evaluation diagram so as to be distinguished according to color or brightness.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치 및 2차원 방향 벡터를 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정할 수 있다. At this time, in the step of evaluating the posture of the human, the target position is set based on the posture profile, but if the posture profile includes a weight and a 2D direction vector for each segment, the next target segment to be observed is selected in the order of weight. A target position, which is an optimal observation position for the selected segment, may be set based on the 2D direction vector of the selected segment.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치만을 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 최적 관찰 위치인 목표 위치를 실시간 계산하되, 목표 위치는, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정될 수 있다. At this time, in the step of evaluating the posture of the human, a target position is set based on the posture profile, but when the posture profile includes only weights for each segment, the next observation target segment is selected in order of weight, and the optimal observation is performed. A target position, which is a position, is calculated in real time, and the target position may be set to a point where two joints constituting the selected segment are observed, extend vertically from the center of the segment, and have the same distance from each of the two joints.

이때, 휴먼의 자세를 평가하는 단계는, 자세 프로파일이 제공되지 않을 경우, 휴먼을 중심으로 일정 거리의 지점을 일정 각도만큼 이동하면서 목표 위치를 설정할 수 있다. At this time, in the step of evaluating the posture of the human, when the posture profile is not provided, a target position may be set while moving a point at a predetermined distance from the human by a predetermined angle.

이때, 휴먼의 운동 동작을 평가하는 단계는, 분절을 구성하는 관절들의 검출 정확도의 평균으로 분절 검출 정확도를 산출하는 단계, 분절 검출 정확도 점수 및 분절 검출 정확도의 평균으로 분절의 최종 자세 정확도 점수를 산출하는 단계 및 분절 각각의 최종 자세 정확도 점수 및 가중치를 기반으로 최종 동작 정확도를 산출하는 단계를 포함할 수 있다. At this time, the step of evaluating the motion of the human includes calculating the segment detection accuracy as the average of the detection accuracies of the joints constituting the segment, and calculating the final posture accuracy score of the segment as the average of the segment detection accuracy score and the segment detection accuracy. and calculating a final motion accuracy based on a final posture accuracy score and a weight for each segment.

실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 방법은, 이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하는 단계, 식별된 운동 동작에 상응하는 표준 자세와 자세 프로파일을 검출하는 단계, 자세 프로파일을 기반으로 목표 위치를 설정하는 단계, 이동 로봇이 설정된 목표 위치로 이동하여 카메라에 의해 촬영한 휴먼 전신 영상과 표준 자세를 비교하여 휴먼의 자세를 평가하는 단계 및 목표 위치 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 포함하되, 목표 위치를 설정하는 단계 및 휴먼의 자세를 평가하는 단계는 반복 수행될 수 있다. A method for evaluating human motion using a mobile robot according to an embodiment includes the steps of identifying a motion motion of a human by analyzing a whole body image of a human captured by a camera mounted on the mobile robot, and a standard posture and posture profile corresponding to the identified motion motion. Detecting, setting a target position based on the posture profile, moving the mobile robot to the set target position, evaluating the human posture by comparing the human whole body image captured by the camera and the standard posture, and the target position Comprehensive evaluation of the human's exercise motion based on the evaluation information of the human's posture in each case may be performed, but the steps of setting a target position and evaluating the human's posture may be repeatedly performed.

이때, 휴먼의 자세를 평가하는 단계는, 휴먼 전신 영상에서 관절을 검출하는 단계 및 검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 소정 평가 횟수만큼 반복적으로 산출하는 단계를 포함할 수 있다. At this time, the step of evaluating the human posture may include detecting joints in the human body image and repeatedly calculating posture accuracy scores for segments composed of joints having detection accuracy equal to or greater than a reference value for a predetermined number of evaluations. there is.

이때, 목표 위치를 설정하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치 및 2차원 방향 벡터를 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정할 수 있다.At this time, in the step of setting the target position, the target position is set based on the posture profile, but when the posture profile includes weights and 2D direction vectors for each segment, the next segment to be observed is selected in the order of weight. And, based on the 2D direction vector of the selected segment, a target position, which is an optimal viewing position for the corresponding segment, can be set.

이때, 목표 위치를 설정하는 단계는, 자세 프로파일을 기반으로 목표 위치를 설정하되, 자세 프로파일이, 분절들 각각에 대한 가중치만을 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 최적 관찰 위치인 목표 위치를 실시간 계산하되, 목표 위치는, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정될 수 있다.At this time, the step of setting the target position is to set the target position based on the posture profile, but when the posture profile includes only weights for each segment, select the next observation target segment in order of weight, and select the optimal observation position. The target position may be calculated in real time, and the target position may be set to a point where two joints constituting the selected segment are observed, extend vertically from the center of the segment, and have the same distance from each of the two joints.

실시예에 따라, 이동 로봇은 휴먼이 특정 동작을 수행할 때 관절의 위치 검출에 유리한 최적의 위치로 스스로 이동하여, 다양한 방향에서 휴먼의 동작을 관찰함으로써 자세나 동작 평가의 신뢰도를 현저히 향상시킬 수 있는 이점이 있다.Depending on the embodiment, the mobile robot moves by itself to an optimal position that is advantageous for detecting the position of a joint when a human performs a specific motion, and observes the motion of the human in various directions, thereby significantly improving the reliability of posture or motion evaluation. There is an advantage to being

도 1은 고정 카메라를 이용하여 휴먼 자세를 평가하는 장치에 대한 개념도이다.
도 2는 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 장치의 개략적인 개념도이다.
도 3은 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 방법을 설명하기 위한 순서도이다.
도 4는 실시예에 따른 자세 평가 단계를 설명하기 위한 순서도이다.
도 5는 실시예에 따른 자세 평가도의 예시도이다.
도 6은 실시예에 따른 로봇 위치 이동 단계를 설명하기 위한 순서도이다.
도 7은 실시예에 따른 목표 위치 설정을 위한 자세 프로파일의 예시도이다.
도 8은 실시예에 따른 목표 위치 설정 단계를 설명하기 위한 순서도이다.
도 9는 실시예에 따른 분절의 최적 관찰 방향 검색 방법을 설명하기 위한 예시도이다.
도 10은 실시예에 따른 자세 프로파일이 제공되지 않은 경우의 이동 로봇의 목표 위치 결정 예시도이다.
도 11은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.
1 is a conceptual diagram of a device for evaluating a human posture using a fixed camera.
2 is a schematic conceptual diagram of a human motion evaluation apparatus using a mobile robot according to an embodiment.
3 is a flowchart illustrating a method for evaluating a human motion using a mobile robot according to an embodiment.
4 is a flowchart illustrating a posture evaluation step according to an embodiment.
5 is an exemplary view of a posture evaluation diagram according to an embodiment.
6 is a flowchart illustrating a step of moving a robot position according to an embodiment.
7 is an exemplary view of a posture profile for setting a target position according to an embodiment.
8 is a flowchart illustrating a step of setting a target location according to an embodiment.
9 is an exemplary diagram for explaining a method for searching for an optimal viewing direction of a segment according to an embodiment.
10 is an exemplary view of determining a target position of a mobile robot when a posture profile is not provided according to an embodiment.
11 is a diagram showing a configuration of a computer system according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있다.Although "first" or "second" is used to describe various elements, these elements are not limited by the above terms. Such terms may only be used to distinguish one component from another. Therefore, the first component mentioned below may also be the second component within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.Terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" or "comprising" implies that a stated component or step does not preclude the presence or addition of one or more other components or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used herein may be interpreted as meanings commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하에서는, 도 1 내지 도 11을 참조하여 실시예에 따른 이동 로봇을 이용한 휴먼 자세 평가 장치 및 방법이 상세히 설명된다.Hereinafter, a human posture evaluation apparatus and method using a mobile robot according to an embodiment will be described in detail with reference to FIGS. 1 to 11 .

도 1은 고정 카메라를 이용하여 휴먼 자세를 평가하는 장치에 대한 개념도이다.1 is a conceptual diagram of a device for evaluating a human posture using a fixed camera.

도 1을 참조하면, 종래의 휴먼 자세를 평가하는 장치는 TV 또는 스마트폰에 부착된 카메라로 고정된 단일 카메라(10) 또는 다중 카메라(21, 22)를 사용한다. Referring to FIG. 1 , a conventional device for evaluating a human posture uses a fixed single camera 10 or multiple cameras 21 and 22 attached to a TV or smart phone.

이러한 종래의 휴먼 자세를 평가하는 장치는 동작 평가에 중요한 관절 모두를 정확하게 검출하지 못한다. 즉, 동작에 따라 각 관절의 위치를 검출하기에 용이한 최적의 카메라 방향이 있는데, 고정된 카메라 위치로는 모든 관절을 정확하게 검출하기에는 한계가 있다. 또한, 특정 관절이 신체의 다른 부분이나 도구에 의해서 가려지는 경우에도 관절 위치를 정확하게 검출하기가 어렵다. 따라서 종래의 기술들은 위치 검출이 가능한 몇몇의 관절에 대해서만 비교 평가를 수행해서 부분적인 평가 결과만을 제공하고 있는 수준으로 그 신뢰성이 낮다. Such a conventional device for evaluating human posture cannot accurately detect all joints important for motion evaluation. That is, there is an optimal camera direction that is easy to detect the position of each joint according to motion, but there is a limit to accurately detecting all joints with a fixed camera position. In addition, even when a specific joint is covered by another part of the body or a tool, it is difficult to accurately detect the location of the joint. Therefore, the reliability of conventional technologies is low to the level of providing only partial evaluation results by performing comparative evaluation on only a few joints capable of position detection.

도 2는 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 장치의 개략적인 개념도이다. 2 is a schematic conceptual diagram of a human motion evaluation apparatus using a mobile robot according to an embodiment.

도 2를 참조하면, 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 장치(100)는 카메라가 장착된 이동 로봇을 이용하여 구현될 수 있다.Referring to FIG. 2 , the human motion evaluation apparatus 100 using a mobile robot according to an embodiment may be implemented using a mobile robot equipped with a camera.

이러한 휴먼 동작 평가 장치(100)는 관절을 정확하게 추출할 수 있는 최적의 위치를 스스로 찾아서 이동함으로써 관절 검출의 정확도를 향상시키고, 궁극적으로 동작 평가의 성능을 향상시킨다. 실시예는 마치 전문 트레이너가 관찰이 용이한 위치로 이동하면서 학습자의 자세를 정확하게 지도하는 것과 같은 상황을 효과적으로 연출함으로써 고수준의 코칭 서비스를 제공해 줄 수 있다.The human motion evaluation apparatus 100 improves the accuracy of joint detection and ultimately improves motion evaluation performance by finding and moving the optimal position from which a joint can be accurately extracted. The embodiment can provide a high-level coaching service by effectively creating a situation in which a professional trainer accurately guides a learner's posture while moving to a position where observation is easy.

이때, 휴먼 동작 평가 장치(100)는, 이동 로봇에 일체형으로 구현될 수도 있고, 이동 로봇과 무선 통신을 통해 이동 로봇의 이동을 제어하고, 이동 로봇이 촬영한 영상을 수신할 수 있는 별도의 분리된 장치로 구현될 수도 있다. At this time, the human motion evaluation apparatus 100 may be implemented integrally with the mobile robot, or a separate unit capable of controlling the movement of the mobile robot through wireless communication with the mobile robot and receiving an image captured by the mobile robot. may be implemented as a device.

이하 실시예에서는 설명의 편의를 위해 휴먼 동작 평가 장치(100)가 이동 로봇에 장착되어 일체형으로 구현된 형태를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다. In the following embodiments, for convenience of description, the human motion evaluation apparatus 100 is mounted on a mobile robot and implemented as an integrated unit, but the present invention is not limited thereto.

도 3은 실시예에 따른 이동 로봇을 이용한 휴먼 동작 평가 방법을 설명하기 위한 순서도이다. 3 is a flowchart illustrating a method for evaluating a human motion using a mobile robot according to an embodiment.

도 3을 참조하면, 이동 로봇(100)은 장착된 카메라를 통해 획득된 영상을 기반으로 휴먼의 운동 동작을 식별한다(S110). Referring to FIG. 3 , the mobile robot 100 identifies a human motion based on an image obtained through an installed camera (S110).

이때, 운동 동작은, 휴먼이 건강 증진을 위해 의식적으로 수행하는 동작일 수 있다. In this case, the exercise operation may be an operation that a human consciously performs to improve health.

이동 로봇(100)은, 카메라를 통해 획득된 동영상에서 캡쳐된 영상 시퀀스를 분석하여 휴먼이 현재 어떤 행동을 취하고 있는지를 판별한다. The mobile robot 100 determines what action the human is currently taking by analyzing an image sequence captured from a video obtained through a camera.

이때, 휴먼은 일상적인 행동을 취할 수도 있고, 실시예에 따른 평가 대상인 운동 동작을 수행할 수도 있다At this time, the human may take a daily action or may perform an exercise motion that is an evaluation target according to the embodiment.

이동 로봇(100)은, 휴먼이 일상 행동이 아닌 운동 동작을 수행하고 있을 경우, 해당 운동 동작의 종류를 식별한다. The mobile robot 100, when a human is performing an exercise action other than a daily action, identifies the type of the exercise action.

이때, 동작을 식별하는 구체적인 방법은 특허 "로봇의 사용자 적응형 행동 인식 방법 및 이를 위한 장치" (출원번호: 10-2019-0109364)에 기술된 방법을 따를 수 있다. In this case, a specific method for identifying the motion may follow the method described in the patent “User Adaptive Behavior Recognition Method of Robot and Apparatus therefor” (Application No. 10-2019-0109364).

이때, 이동 로봇(100)은 운동 동작 종류 별로 상응하는 표준 자세와 자세 프로파일이 구축된 데이터베이스로부터 식별된 운동 동작에 상응하는 정보를 검색한다. At this time, the mobile robot 100 searches for information corresponding to the identified exercise motion from a database in which standard postures and posture profiles corresponding to each exercise motion type are constructed.

이때, 표준 자세는, 운동 동작에 대한 올바른 자세 정보일 수 있다. At this time, the standard posture may be correct posture information for the exercise motion.

이때, 자세 프로파일은, 분절 가중치 정보 및 분절별 최적 관찰 방향 정보를 포함하는 메타 정보일 수 있다. 이때, 분절 가중치 정보는, 표준 자세를 수행하는 데 있어 중요하게 평가되어야 할 분절들 정보일 수 있고, 분절별 최적 관찰 방향 정보는 분절들 각각에 대해 정확하게 평가하기 위한 최적 관찰 방향 정보일 수 있다.In this case, the posture profile may be meta information including segment weight information and optimal viewing direction information for each segment. In this case, the segment weight information may be segment information to be evaluated as important in performing a standard posture, and the optimal viewing direction information for each segment may be optimal viewing direction information for accurately evaluating each segment.

이러한, 운동 동작 종류별 표준 자세 및 자세 프로파일은 해당 운동의 전문가로부터 획득된 정보로 구축될 수 있다. These standard postures and posture profiles for each type of exercise may be constructed with information obtained from a corresponding exercise expert.

이동 로봇(100)은, 일 위치에서 촬영된 영상에서의 휴먼의 자세를 운동 동작에 상응하는 표준 자세와의 비교를 통해 그 자세 정확도를 평가한다(S120). The mobile robot 100 evaluates the accuracy of the posture by comparing the posture of the human in the image captured at one position with the standard posture corresponding to the exercise motion (S120).

이때, 휴먼 동작 평가 장치(200)는, 자세 프로파일을 기반으로 휴먼의 자세에서 평가 대상 분절을 추출하여, 그 평가 대상 분절과 표준 자세에서의 해당 분절의 비교를 통해 자세 정확도를 평가하고, 평가된 자세 정확도를 자세 평가도에 저장한다. 이에 대한 상세한 설명은 도 4 및 도 5를 참조하여 후술하기로 한다. At this time, the human motion evaluation apparatus 200 extracts an evaluation target segment from the human posture based on the posture profile, evaluates posture accuracy through comparison of the evaluation target segment and the corresponding segment in the standard posture, and evaluates the evaluation target segment. The posture accuracy is stored in the posture evaluation diagram. A detailed description thereof will be described later with reference to FIGS. 4 and 5 .

그런 후, 이동 로봇(100)은, 다른 위치 이동할 필요가 있는지 판단한다(S130). 즉, 일 위치에서 자세 평가가 충분히 이루어졌는지를 판단하는 것이다. Then, the mobile robot 100 determines whether it needs to move to another location (S130). That is, it is determined whether the posture evaluation has been sufficiently performed at one position.

S130의 판단 결과 이동할 필요가 있는 것으로 판단된 경우, 이동 로봇(100)은 다음 목표 위치로 이동한다(S140). When it is determined that it needs to move as a result of the determination in S130, the mobile robot 100 moves to the next target position (S140).

이때, 다음 목표 위치는 자세 평가에 유리한 위치일 수 있다. S140의 상세한 설명은 도 6 내지 도 10을 참조하여 후술하기로 한다. In this case, the next target position may be an advantageous position for posture evaluation. A detailed description of S140 will be described later with reference to FIGS. 6 to 10 .

S120 내지 S140을 통해 이동 로봇(100)은, 위치 이동과 자세 평가를 반복 수행하고, 각각의 위치에서 검출된 관절과 평가된 분절들에 대한 정보들은 자세 평가도에 계속해서 저장된다. Through S120 to S140, the mobile robot 100 repeatedly performs position movement and posture evaluation, and information on the joints detected at each position and the evaluated segments is continuously stored in the posture evaluation diagram.

반면, S130의 판단 결과 이동이 필요하지 않은 것으로 판단된 경우, 이동 로봇(100)은, 자세 평가 결과를 종합하여 최종적으로 휴먼 동작에 대한 평가 결과를 제공한다(S150). 즉, 자세 평가도에 도시된 모든 분절에 대하여 자세 평가 정보가 확보되면, 이동 로봇(100)은, 그 동안 확보한 자세 평가 정보를 종합하여 최종적으로 휴먼 동작을 평가한다. On the other hand, when it is determined that movement is not necessary as a result of the determination in S130, the mobile robot 100 integrates the posture evaluation results and finally provides an evaluation result for human motion (S150). That is, when the posture evaluation information is secured for all segments shown in the posture evaluation diagram, the mobile robot 100 finally evaluates the human motion by integrating the posture evaluation information obtained so far.

이때, 최종 동작 평가는 자세 프로파일에서 제공되는 각 분절들의 가중치 w와, S120에서 산출된 각 관절들의 검출 정확도 j, 각 분절들의 자세 정확도 점수 s, 각 분절들의 평가 횟수 n를 기반으로 모든 분절의 최종 자세 정확도 점수 M을 다음과 같은 <수학식 1>로 결정된다.At this time, the final motion evaluation is based on the weight w of each segment provided in the posture profile, the detection accuracy j of each joint calculated in S120, the posture accuracy score s of each segment, and the number of evaluations n of each segment. The posture accuracy score M is determined by the following <Equation 1>.

<수학식 1><Equation 1>

<수학식 1>에서 m 은 모든 분절의 개수로, 예컨대 15일 수 있고, Bi는 i번째 분절이 n회 평가되었을 때의 자세 정확도 점수를 종합한 i번째 분절의 최종 자세 정확도 점수로, 다음의 <수학식 2>에 의해 산출될 수 있다.In <Equation 1>, m may be the number of all segments, for example, 15, and Bi is the final posture accuracy score of the i-th segment, which is a summation of posture accuracy scores when the i-th segment is evaluated n times. It can be calculated by <Equation 2>.

<수학식 2><Equation 2>

<수학식 2>에서 Ei는 i번째 분절을 구성하는 양끝 관절들 ja, jb의 검출 정확도로 산출된 분절 검출 정확도 값으로, 다음의 <수학식 3>에 의해 산출될 수 있다. In <Equation 2>, Ei is a segment detection accuracy value calculated by the detection accuracy of both end joints ja and jb constituting the i-th segment, and may be calculated by the following <Equation 3>.

<수학식 3><Equation 3>

그러면, 도 3에 도시된 자세 평가 단계(S120)에 대해 상세히 설명하기로 한다. Then, the posture evaluation step (S120) shown in FIG. 3 will be described in detail.

도 4는 실시예에 따른 자세 평가 단계를 설명하기 위한 순서도이고, 도 5는 실시예에 따른 자세 평가도의 예시도이다. 4 is a flowchart illustrating a posture evaluation step according to an embodiment, and FIG. 5 is an exemplary view of a posture evaluation diagram according to an embodiment.

도 4를 참조하면, 이동 로봇(100)은 현재 위치한 지점에서 휴먼의 전신이 포함된 영상을 촬영한다(S210). Referring to FIG. 4 , the mobile robot 100 captures an image including a human's entire body at a current location (S210).

그런 후, 이동 로봇(100)은 촬영된 휴먼의 전신 영상에서 관절들의 위치를 검출한다(S220). Then, the mobile robot 100 detects the positions of the joints in the captured human's whole body image (S220).

도 5에 도시된 자세 평가도를 참조하면, 휴먼의 전신 영상에서 검출될 수 있는 관절들은 j1 내지 j16까지의 총 16개의 관절들일 수 있다. 그리고, 총 16개의 관절들 사이에는 s1 내지 s15까지의 총 15개의 분절들이 구성될 수 있다. Referring to the posture evaluation diagram shown in FIG. 5 , a total of 16 joints from j1 to j16 that can be detected in the whole body image of a human may be included. Also, a total of 15 segments from s1 to s15 may be configured between the total of 16 joints.

이때, 이동 로봇(100)이 현재 위치에서 휴먼을 바라보는 방향의 뷰에서 가려짐이 없이 잘 보이는 관절들은 촬영한 전신 영상으로부터 검출이 가능하므로 검출 정확도(certainty)가 높다. 그러나, 로봇 뷰에서 보이지 않는 관절들은 전신 영상으로부터 검출할 수 없으므로, 이동 로봇(100)은 해당 관절의 위치는 추정해야 한다. 그런데, 이러한 추정 관절 위치는 검출된 관절 위치에 비해 상대적으로 그 정확도가 낮을 수 밖에 없다. At this time, joints that are clearly visible without occluding in the view of the direction in which the mobile robot 100 looks at the human from the current position can be detected from the captured whole body image, so the detection accuracy is high. However, since joints invisible in the robot view cannot be detected from the whole body image, the mobile robot 100 must estimate the location of the corresponding joint. However, these estimated joint positions are inevitably less accurate than the detected joint positions.

예컨대, 이동 로봇(100)이 휴먼의 오른쪽 방향에 위치하고 있다면, 로봇 뷰에서 보여지는 오른쪽 팔과 오른쪽 다리의 관절들은 검출 정확도가 높지만, 로봇 뷰에서 가려짐에 의해 보이지 않는 왼쪽 팔과 왼쪽 다리의 관절들은 검출 정확도가 낮다.For example, if the mobile robot 100 is located in the right direction of the human, the detection accuracy of the joints of the right arm and the right leg shown in the robot view is high, but the joints of the left arm and the left leg are invisible due to being hidden from the robot view. have low detection accuracy.

따라서, 실시예에 따라, 이동 로봇(100)은 로봇 뷰에서 검출 정확도가 기준치 이상인 관절에 대해서만 자세 평가 프로세스를 진행한다. Therefore, according to an embodiment, the mobile robot 100 performs a posture evaluation process only for joints whose detection accuracy is greater than or equal to a reference value in the robot view.

즉, 이동 로봇(100)은 검출된 관절들 각각에 대해 그 관절 검출 정확도를 산출하고, 산출된 관절 검출 정확도가 기준치 이상인 관절이 존재하는지를 판단한다(S230). That is, the mobile robot 100 calculates the joint detection accuracy for each of the detected joints, and determines whether a joint having a calculated joint detection accuracy equal to or higher than a reference value exists (S230).

S230의 판단 결과 관절 검출 정확도가 기준치 이상인 관절이 존재할 경우, 이동 로봇(100)은 해당 관절들로 구성된 분절(body segment)에 대해서만 자세 정확도 점수를 산출한다(S250). As a result of the determination in S230, if there is a joint with a joint detection accuracy equal to or greater than the reference value, the mobile robot 100 calculates a posture accuracy score only for a body segment composed of the corresponding joints (S250).

이때, 하나의 분절은 적어도 한번 이상 평가될 수 있다. In this case, one segment may be evaluated at least once.

따라서, 이동 로봇(100)은 검출된 관절 검출 정확도가 기준치 이상인 관절들로 구성된 분절의 반복 평가 필요 여부를 판단(S240)하는 단계를 더 수행한다. 즉, 해당 분절에 대해 충분한 반복 평가가 이루어졌는지를 판단하는 것이다. Accordingly, the mobile robot 100 further performs a step of determining whether it is necessary to repeatedly evaluate segments composed of joints having detected joint detection accuracy greater than or equal to a reference value (S240). That is, it is determined whether sufficient repeated evaluation has been performed for the corresponding segment.

따라서, S240의 판단 결과 해당 관절로 구성된 분절의 반복 평가가 필요할 경우, 이동 로봇(100)은 해당 분절의 자세 정확도 점수를 산출(S250)하고, 자세 정확도 점수가 산출되면 그 평가 결과를 갱신한다(S260). Therefore, as a result of the determination in S240, if repeated evaluation of the segment composed of the corresponding joint is required, the mobile robot 100 calculates the posture accuracy score of the corresponding segment (S250), and updates the evaluation result when the posture accuracy score is calculated (S250). S260).

그런 후, 이동 로봇(100)은 분절의 자세 정확도 점수가 산출되면 그 평가 결과를 갱신한다(S260). Then, when the posture accuracy score of the segment is calculated, the mobile robot 100 updates the evaluation result (S260).

이때, 자세 정확도 점수는 도 5에 도시된 바와 같은 자세 평가도에 기록/갱신될 수 있다. At this time, the posture accuracy score may be recorded/updated in the posture evaluation diagram as shown in FIG. 5 .

이때, 자세 평가도에는 전술한 자세 평가에 의해 산출되는 정보들인 관절의 검출 정확도, 분절의 자세 정확도 점수 및 분절의 평가 횟수가 기록될 수 있다. At this time, in the posture evaluation diagram, information calculated by the above-described posture evaluation, such as joint detection accuracy, segment posture accuracy score, and segment evaluation count, may be recorded.

이때, 동일 관절 및 분절에 대해서 복수 회 평가될 수 있으므로, 각 평가 시에 산출되는 정보가 모두 기록될 수 있다. In this case, since the same joint and segment can be evaluated multiple times, all information calculated during each evaluation can be recorded.

이때, 평가 횟수는 명도 또는 색상 차이로 구별하여 표시되도록 할 수 있다.In this case, the number of evaluations may be displayed by distinguishing them by brightness or color difference.

예컨대, 도 5를 참조하면, 관절 또는 분절에 표시된 명도는 평가 횟수와 비례할 수 있다. 즉, 분절 s4가 평가 횟수가 0 회 이고, 분절 s14는 평가 횟수가 1회이고, 분절 s5는 평가 횟수가 2회이고, 분절 s8은 평가 횟수가 3회일 수 있다. For example, referring to FIG. 5 , brightness displayed on a joint or segment may be proportional to the number of evaluations. That is, segment s4 may be evaluated 0 times, segment s14 may be evaluated once, segment s5 may be evaluated twice, and segment s8 may be evaluated three times.

이러한 자세 평가도는 사용자에게 현재의 평가 진행 상태에 대한 정보를 제공하기 위한 인터페이스로도 활용될 수 있다.This posture evaluation diagram can also be used as an interface for providing information on the current evaluation progress state to the user.

한편, 다시 도 4를 참조하면, S230 및 S240의 판단 결과 현재 위치에서 관절 검출 정확도가 기준치 이상인 관절이 존재하지 않거나, 기준치 이상의 관절이 존재한다 하더라도 해당 관절로 구성된 분절이 설정된 횟수 이상으로 충분히 평가가 되었다면 이동 로봇(100)은 다음 위치로 이동하게 된다(S130).On the other hand, referring to FIG. 4 again, as a result of the determination of S230 and S240, even if there is no joint with a joint detection accuracy of the reference value or more at the current position, or even if there is a joint with a reference value or more, the segment composed of the corresponding joint is sufficiently evaluated more than the set number of times. If so, the mobile robot 100 moves to the next position (S130).

다음으로 도 3에 도시된 로봇 위치 이동 단계(S140)에 대해 상세히 설명하기로 한다. Next, the robot position movement step (S140) shown in FIG. 3 will be described in detail.

도 6은 실시예에 따른 로봇 위치 이동 단계를 설명하기 위한 순서도이고, 도 7은 실시예에 따른 목표 위치 설정을 위한 자세 프로파일의 예시도이고, 도 8은 실시예에 따른 목표 위치 설정 단계를 설명하기 위한 순서도이고, 도 9는 실시예에 따른 분절의 최적 관찰 방향 검색 방법을 설명하기 위한 예시도이고, 도 10은 실시예에 따른 자세 프로파일이 제공되지 않은 경우의 이동 로봇의 목표 위치 결정 예시도이다. 6 is a flowchart for explaining a step of moving a robot position according to an embodiment, FIG. 7 is an exemplary view of a posture profile for setting a target position according to an embodiment, and FIG. 8 describes a step of setting a target position according to an embodiment. 9 is an exemplary diagram for explaining a method for searching for an optimal viewing direction for a segment according to an embodiment, and FIG. 10 is an exemplary diagram for determining a target position of a mobile robot when a posture profile is not provided according to an embodiment. am.

도 6을 참조하면, 이동 로봇(100)은 다음으로 이동할 목표 위치를 설정한다(S310). Referring to FIG. 6 , the mobile robot 100 sets a target position to move to next (S310).

이때, 목표 위치는 자세 평가에 유리한 위치일 수 있다. At this time, the target position may be an advantageous position for posture evaluation.

이때, 목표 위치 설정은 자세 프로파일 존재 여부에 따라 다양한 방식으로 이루어질 수 있다. At this time, setting the target position may be performed in various ways depending on whether or not the posture profile exists.

이때, 자세 프로파일은, 특정 자세를 평가함에 있어서 각 분절들의 중요도를 나타내는 가중치 값과 각 분절들의 평가에 용이한 방향을 나타내는 2차원 방향 벡터를 포함할 수 있다. 예컨대, 도 7을 참조하면, 자세 프로파일의 각 분절들에는 가중치 w1, w2,..., w15 및 2차원 방향 벡터가 표시될 수 있다. In this case, the posture profile may include a weight value indicating importance of each segment in evaluating a specific posture and a 2D direction vector indicating an easy direction for evaluating each segment. For example, referring to FIG. 7 , weights w1, w2, ..., w15 and a 2-dimensional direction vector may be displayed on each segment of the posture profile.

이러한 자세 프로파일은, 해당 운동 동작의 전문가로부터 획득될 수 있는데, 도메인 전문가는 해당 자세를 취함에 있어서 어떤 분절이 가장 중요하며 그 분절의 평가를 위한 최적의 관찰 방향 정보를 경험에 의해 쉽게 알 수 있기 때문이다.Such a posture profile may be obtained from an expert in the corresponding exercise motion, and a domain expert may easily know which segment is most important in taking a corresponding posture and information on the optimal observation direction for evaluating that segment through experience. Because.

예컨대, 스쿼트(Squat) 자세의 경우, 도메인 전문가들이 종아리와 허벅지 분절이 가장 중요하고 다음으로 척추 자세가 중요하다고 판단한다면 이러한 중요도에 따라 해당 분절의 가중치를 높게 설정할 수 있다. 반면, 상대적으로 팔 자세는 중요도가 떨어지기 때문에 해당 분절들의 가중치는 낮게 설정할 수 있으며 전혀 중요하지 않는 분절의 경우 0으로 설정할 수도 있다. 또한, 스쿼트 자세에서의 중요한 평가 요소인 다리 사이의 간격은 정면에서 확인이 가장 용이하며, 무릎의 굽힘 정도와 척추가 제대로 펴져 있는지 여부는 측면에서 관찰할 때 가장 정확하게 평가할 수 있다.For example, in the case of a squat posture, if domain experts determine that the calf and thigh segments are the most important and the spine posture is next important, weights of the corresponding segments may be set high according to the degree of importance. On the other hand, since arm posture is relatively less important, the weights of corresponding segments can be set low, and in the case of segments that are not important at all, they can be set to 0. In addition, the distance between the legs, which is an important evaluation factor in the squat posture, is easiest to check from the front, and the degree of knee flexion and whether or not the spine is properly straightened can be most accurately evaluated when observed from the side.

이러한 도메인 전문가들이 가지고 있는 도메인 지식들은 자세 프로파일 사용자 인터페이스를 통해서 비용 부담없이 간단하게 편집이 가능하기 때문에 쉽게 제공될 수 있다.The domain knowledge possessed by these domain experts can be easily provided because it can be easily edited at no cost through the posture profile user interface.

하지만 자세 프로파일 정보가 제공되지 않는 상황도 고려하여, 실시예에서는 자세 프로파일에서 제공되는 정보의 유무 또는 자세 프로파일에 최적 관찰 방향의 포함 여부에 따라 목표 이동 위치가 설정될 수 있다.However, in consideration of a situation in which posture profile information is not provided, in an embodiment, a target movement position may be set depending on whether or not information provided from a posture profile or whether an optimal viewing direction is included in the posture profile is present.

구체적으로, 도 8을 참조하면, 이동 로봇(100)은 자세 프로파일이 존재하는지를 판단한다(S311). Specifically, referring to FIG. 8 , the mobile robot 100 determines whether a posture profile exists (S311).

S311의 판단 결과 자세 프로파일이 존재하는 경우, 이동 로봇(100)은 자세 프로파일에 최적 관찰 방향의 제공 여부를 판단한다(S312).As a result of the determination in S311, if the posture profile exists, the mobile robot 100 determines whether to provide the optimal observation direction to the posture profile (S312).

S311 및 S312의 판단 결과 자세 프로파일에서 분절 중요도와 최적 관찰 방향 정보가 제공되는 경우, 이동 로봇(100)은 로봇의 목표 이동 위치를 결정함에 있어 가장 중요한 정보인 분절 중요도가 높은 순서대로 평가를 수행(S313)하되, 자세 프로파일에 제공된 각 분절의 최적 관찰 방향 정보를 기준으로 목표 이동 위치를 설정한다(314). As a result of the determination of S311 and S312, when segment importance and optimal observation direction information are provided in the posture profile, the mobile robot 100 performs evaluation in order of high segment importance, which is the most important information in determining the target movement position of the robot ( S313) However, the target movement position is set based on the optimal viewing direction information of each segment provided in the posture profile (314).

반면, S311 및 S312의 판단 결과 자세 프로파일에서 분절 중요도만 제공되는 경우, 이동 로봇(100)은 분절 중요도가 높은 순서대로 평가를 수행(S315)하되, 최적 관찰 방향 정보가 제공되지 않기 때문에 해당 분절을 가장 잘 관찰할 수 있는 위치, 즉 최적 관찰 위치를 검출해내야 한다(S316).On the other hand, as a result of the determination in S311 and S312, when only the importance of the segment is provided in the posture profile, the mobile robot 100 performs evaluation in the order of highest segment importance (S315), but since optimal observation direction information is not provided, the corresponding segment The best observable position, that is, the optimal observation position should be detected (S316).

도 9에 도시된 바와 같이 특정 자세를 평가함에 있어서 관절 A와 관절 B로 구성된 좌측 허벅지 분절 AB를 평가한다고 가정하자. 이때 로봇이 분절 AB를 평가하기 위한 최적의 위치는 다음 두 가지 상황을 모두 만족하는 위치이다.As shown in FIG. 9 , assume that a left thigh segment AB composed of joints A and B is evaluated in evaluating a specific posture. At this time, the optimal position for the robot to evaluate the segment AB is a position that satisfies both of the following situations.

첫 번째로 최적 관찰 위치는 관절 A와 관절 B를 가장 정확하게 검출할 수 있는 위치이어야 한다. 전술한 바와 같이 관절 검출 정확도는 자세 평가에 있어서 매우 중요하다. 따라서 관절 A와 관절 B가 가려짐 없이 잘 관찰되어 높은 정확도로 검출이 가능해야 한다.First, the optimal observation position should be the position where joint A and joint B can be most accurately detected. As described above, joint detection accuracy is very important in posture evaluation. Therefore, joint A and joint B must be well observed without occlusion and detection with high accuracy.

두 번째로 분절 AB가 형성하는 각도를 로봇이 가장 잘 관찰할 수 있는 위치이어야 한다. 자세 평가는 사용자가 특정 자세를 취할 때의 사용자의 해당 분절들과 표준자세의 해당 분절들이 이루는 각도들의 집합으로 평가된다. 따라서 분절이 이루는 각도를 정확히 측정할 수 있는 위치의 선정은 정확한 관절 검출만큼 중요하다.Second, the angle formed by segment AB should be the position where the robot can best observe. The posture evaluation is evaluated as a set of angles between corresponding segments of the user when the user assumes a specific posture and corresponding segments of the standard posture. Therefore, selection of a position where the angle formed by the segment can be accurately measured is as important as accurate joint detection.

전술한 두 가지 상황을 모두 만족하는 로봇의 위치는 아래 세 가지 조건을 동시에 만족하는 지점이다.A position of a robot that satisfies both of the above two conditions is a point that simultaneously satisfies the following three conditions.

① 로봇이 캡쳐한 영상에서 두 점 A, B 모두가 관찰되는 지점① The point where both points A and B are observed in the image captured by the robot

② 3차원 상의 두 점 A, B로 이루어진 선분 AB가 로봇(정확히는 로봇 카메라)을 중점으로 하는 3차원 좌표계의 z 축과 수직을 이루는 지점② The point where line segment AB composed of two points A and B on 3D is perpendicular to the z-axis of the 3D coordinate system centered on the robot (more precisely, the robot camera)

③ 로봇에서 점 A까지의 z 방향으로의 실측 거리 d1과 로봇에서 점 B까지의 z 방향으로의 실측 거리인 d2가 동일한 지점③ The point where d1, the measured distance in the z direction from the robot to point A, and d2, the measured distance in the z direction from the robot to point B, are the same

도 9에서 전술한 세 가지 조건들을 모두 만족하는 이동 로봇의 위치는 R1일 수 있다. 위치 R1에서 이동 로봇이 캡쳐한 xy 평면으로 이루어진 2차원 영상에서 관절 A, B 모두가 관찰될 수 있다. 동시에 분절 AB는 이동 로봇의 z축과 수직을 이루며, 이동 로봇에서 관절 A까지의 거리와 관절 B까지의 거리가 동일한 지점이다.In FIG. 9 , the position of the mobile robot satisfying all of the above three conditions may be R1. Both joints A and B can be observed in the 2D image consisting of the xy plane captured by the mobile robot at position R1. At the same time, segment AB is perpendicular to the z-axis of the mobile robot, and is a point where the distance from the mobile robot to joint A and joint B are the same.

따라서, 전술한 세 가지 조건들을 모두 만족하는 위치 R1은 관절이 가장 잘 검출될 수 있고, 분절이 형성하는 각도를 가장 잘 관찰할 수 있는 최적 관찰 지점으로 설정될 수 있다. Therefore, the position R1 that satisfies all of the above three conditions can be set as an optimal observation point where the joint can be best detected and the angle formed by the segment can be best observed.

반면, 위치 R2는 조건 ②, ③은 만족하지만, 사용자의 오른쪽 허벅지에 의해 분절 AB가 가려지는 상황이므로 조건 ①이 만족되지 않기에 최적의 이동 위치가 아니다.On the other hand, position R2 satisfies conditions ② and ③, but since the segment AB is covered by the user's right thigh, it is not an optimal movement position because condition ① is not satisfied.

그런데, 이동 로봇이 운용되는 상황에서 전술한 조건들 ②, ③을 정확하게 만족하는 지점을 찾기란 쉽지 않다. 따라서, 실시예에서는 조건 ②의 경우에는 선분 AB와 z축이 이루는 각도가 수직이 되어야 된다는 조건을 완화하여 지정된 구간 설정치(90도±α)를 사용할 수 있다. 또한, 조건 ③의 경우도 d1, d2가 동일해야 된다는 조건을 완화하여 지정된 거리차 설정치(|d1-d1|<α)를 사용할 수 있다.However, it is not easy to find a point that accurately satisfies the above conditions ② and ③ in a situation where a mobile robot is operated. Therefore, in the embodiment, in the case of condition ②, the condition that the angle formed by the line segment AB and the z-axis must be perpendicular can be relaxed and the designated section setting value (90 degrees ± α) can be used. Also, in the case of condition ③, the condition that d1 and d2 must be the same can be relaxed and the specified distance difference setting value (|d1-d1|<α) can be used.

한편, 특정 자세를 수행할 경우, 각 분절들은 경우에 따라서 최적의 위치가 여러 개 나올 수도 있다. 이러한 경우는 현재의 로봇 위치에서 가장 가까운 거리에 있는 목표 위치를 다음 로봇 위치로 설정할 수 있다.On the other hand, when performing a specific posture, each segment may have several optimal positions depending on the case. In this case, the target position closest to the current robot position can be set as the next robot position.

다시 도 8을 참조하면, S311의 판단 결과 자세 프로파일이 제공되지 않을 경우, 이동 로봇(100)은 모든 분절이 동일한 중요도를 갖는다고 판단한다. 따라서, 이동 로봇(100)은 휴먼의 전신을 캡쳐할 수 있도록 휴먼을 중심으로 일정 거리 상의 동심원을 일정 각도로 분할한 위치를 목표 위치로 설정한다(S317). 예컨대, 도 10을 참조하면, 이동 로봇(100)은 휴먼과 일정 거리를 유지하면서 8개의 방향을 순서대로 이동하면서 해당 위치에서 자세 평가를 반복해서 수행할 수 있다. Referring back to FIG. 8 , when the posture profile is not provided as a result of the determination in step S311, the mobile robot 100 determines that all segments have the same importance. Accordingly, the mobile robot 100 sets a position obtained by dividing a concentric circle at a predetermined distance from the human at a predetermined angle as a target position so as to capture the human body (S317). For example, referring to FIG. 10 , the mobile robot 100 may repeatedly perform posture evaluation at a corresponding position while moving sequentially in eight directions while maintaining a certain distance from a human.

다시 도 6을 참조하면, 이동 로봇(100)은 로봇의 하드웨어 구동부 제어를 통해 로봇의 목표 위치를 향해 이동한다(S320). 이때, 휴먼의 전신이 영상 내에 존재할 수 있도록 사용자와의 적정 거리를 유지하면서 이동할 수 있다. Referring back to FIG. 6 , the mobile robot 100 moves toward the target position of the robot through the control of the hardware driving unit of the robot (S320). At this time, the human may move while maintaining an appropriate distance from the user so that the whole body of the human may be present in the image.

이동 로봇(100)은 이동 중에 현재 위치를 계속해서 파악하면서 목표 위치에 도착 여부를 파악한다(S330). 이동 로봇(100)은 목표 위치에 도착한 것으로 판단(S340)될 때까지 S320 및 S330을 반복적으로 수행한다. The mobile robot 100 determines whether or not it has arrived at the target position while continuously determining the current position while moving (S330). The mobile robot 100 repeatedly performs S320 and S330 until it is determined that it has arrived at the target location (S340).

반면, 로봇은 목표 위치에 도착한 것으로 판단(S340)되면 S120(도 4 참조)의 자세 평가 프로세스를 수행한다.On the other hand, if it is determined that the robot has arrived at the target position (S340), it performs the posture evaluation process of S120 (see FIG. 4).

도 11은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.11 is a diagram showing a configuration of a computer system according to an embodiment.

실시예에 따른 이동 로봇을 이용한 휴먼 자세 평가 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1000)에서 구현될 수 있다.The human posture evaluation apparatus using the mobile robot according to the embodiment may be implemented in the computer system 1000 such as a computer-readable recording medium.

컴퓨터 시스템(1000)은 버스(1020)를 통하여 서로 통신하는 하나 이상의 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1040), 사용자 인터페이스 출력 장치(1050) 및 스토리지(1060)를 포함할 수 있다. 또한, 컴퓨터 시스템(1000)은 네트워크(1080)에 연결되는 네트워크 인터페이스(1070)를 더 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치 또는 메모리(1030)나 스토리지(1060)에 저장된 프로그램 또는 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 스토리지(1060)는 휘발성 매체, 비휘발성 매체, 분리형 매체, 비분리형 매체, 통신 매체, 또는 정보 전달 매체 중에서 적어도 하나 이상을 포함하는 저장 매체일 수 있다. 예를 들어, 메모리(1030)는 ROM(1031)이나 RAM(1032)을 포함할 수 있다.Computer system 1000 may include one or more processors 1010, memory 1030, user interface input devices 1040, user interface output devices 1050, and storage 1060 that communicate with each other over a bus 1020. can In addition, computer system 1000 may further include a network interface 1070 coupled to network 1080 . The processor 1010 may be a central processing unit or a semiconductor device that executes programs or processing instructions stored in the memory 1030 or the storage 1060 . The memory 1030 and the storage 1060 may be storage media including at least one of volatile media, nonvolatile media, removable media, non-removable media, communication media, and information delivery media. For example, memory 1030 may include ROM 1031 or RAM 1032 .

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art can implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting.

Claims (20)

이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하고, 운동 동작에 상응하는 표준 자세와 자세 프로파일을 검출하는 단계;
식별된 운동 동작에 상응하는 표준 자세와 이동 로봇의 카메라에 의해 적어도 둘 이상의 목표 위치에서 촬영한 휴먼 전신 영상들을 비교하여 휴먼의 자세를 평가하는 단계; 및
적어도 둘 이상의 목표 위치들 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 포함하되,
자세 프로파일은,
표준 자세를 수행하는 데 있어 중요하게 평가되어야 할 분절들 정보인 분절 가중치 정보를 포함하고,
목표 위치는,
표준 자세 수행시 평가 대상으로 분절 가중치 정보를 기반으로 선택된 적어도 하나의 분절의 최적 관찰 방향을 기반으로 설정되되, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정되고,
일 위치에서 촬영된 영상을 기반으로 하는 휴먼의 자세를 평가한 결과에 따라, 이동 로봇이 이동해야 할 다음 목표 위치가 설정되고,
휴먼의 자세를 평가하는 단계에서,
휴먼 전신 영상에서 검출된 관절들로 구성된 분절에 대한 자세 정확도를 분절 별로 반복 평가하되,
자세 평가에 의해 산출되는 관절의 검출 정확도, 분절의 자세 정확도 점수 및 분절의 평가 횟수를 자세 평가도에 기록하고,
휴먼의 운동 동작을 종합 평가하는 단계는,
자세 평가도 및 식별된 운동 동작에 상응하는 자세 프로파일을 기반으로 종합 평가하되,
분절을 구성하는 관절들의 검출 정확도의 평균으로 분절 검출 정확도를 산출하는 단계;
분절 검출 정확도 및 분절의 자세 정확도 점수를 곱한 값을 분절의 평가 횟수에 따라 종합한 최종 자세 정확도 점수를 산출하는 단계; 및
분절 각각의 최종 자세 정확도 점수 및 자세 프로파일에 포함된 분절 각각의 가중치를 기반으로 최종 동작 정확도를 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
Analyzing a whole body image of a human captured by a camera mounted on a mobile robot to identify an exercise motion of the human, and detecting a standard posture and posture profile corresponding to the motion motion;
Evaluating a posture of the human by comparing a standard posture corresponding to the identified exercise motion with whole body images of the human captured at at least two or more target positions by a camera of the mobile robot; and
Comprehensive evaluation of the human's exercise motion based on the human's posture evaluation information in each of at least two or more target positions,
The posture profile is
It includes segment weight information, which is segment information to be evaluated as important in performing a standard posture,
target position,
It is set based on the optimal observation direction of at least one segment selected based on segment weight information as an evaluation target when performing a standard posture, and two joints constituting the selected segment are observed, extending vertically from the center of the segment, and two joints The distance from each is set to the same point,
According to the result of evaluating the human posture based on the image taken at one position, the next target position to which the mobile robot should move is set,
At the stage of evaluating the human posture,
The postural accuracy of the segments composed of the joints detected in the human whole body image is repeatedly evaluated for each segment,
The detection accuracy of the joint calculated by the posture evaluation, the posture accuracy score of the segment, and the number of evaluations of the segment are recorded in the posture evaluation diagram,
The step of comprehensively evaluating the human's motor motion,
Comprehensive evaluation based on the posture evaluation diagram and the posture profile corresponding to the identified exercise motion,
calculating segment detection accuracy as an average of detection accuracies of joints constituting the segment;
calculating a final posture accuracy score obtained by synthesizing a value obtained by multiplying the segment detection accuracy and the posture accuracy score of the segment according to the number of evaluations of the segment; and
A method for evaluating human motion using a mobile robot, comprising calculating a final motion accuracy based on a final posture accuracy score of each segment and a weight of each segment included in a posture profile.
제1 항에 있어서, 휴먼의 자세를 평가하는 단계는,
휴먼 전신 영상에서 관절을 검출하는 단계; 및
검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 1, wherein the step of evaluating the human posture,
Detecting a joint in a human body image; and
A method for evaluating human motion using a mobile robot, comprising calculating a posture accuracy score for a segment composed of joints having a detection accuracy equal to or greater than a reference value.
제2 항에 있어서, 휴먼의 자세를 평가하는 단계는,
관절의 검출 정확도 및 분절에 대한 자세 정확도 점수를 자세 평가도에 기록하는 단계를 더 포함하되,
자세 평가도는,
휴먼의 전체 분절들 및 관절들이 표시된 것인, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 2, wherein the step of evaluating the human posture,
Further comprising recording the detection accuracy of the joint and the posture accuracy score for the segment in the posture evaluation diagram,
posture evaluation,
A method for evaluating human motion using a mobile robot, in which all segments and joints of a human are displayed.
제3 항에 있어서, 휴먼의 자세를 평가하는 단계는,
분절 별로 반복 평가되고,
자세 평가도에 기록하는 단계는,
분절의 평가 횟수를 색상 또는 명도에 따라 구별되도록 자세 평가도에 기록하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 3, wherein the step of evaluating the human posture,
Segment-by-segment evaluation is repeated,
The step of recording in the posture evaluation diagram is,
A method for evaluating human motion using a mobile robot, wherein the number of evaluations of segments is recorded in a posture evaluation diagram so as to be distinguished according to color or brightness.
제2 항에 있어서, 휴먼의 자세를 평가하는 단계는,
자세 프로파일을 기반으로 목표 위치를 설정하되,
자세 프로파일이,
분절들 각각에 대한 2차원 방향 벡터를 더 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 2, wherein the step of evaluating the human posture,
Set the target position based on the posture profile,
posture profile,
When the 2D direction vector for each of the segments is further included, the next segment to be observed is selected in the order of weight, and the target position, which is the optimal observation position of the segment, is set based on the 2D direction vector of the selected segment. Human motion evaluation method using robot.
삭제delete 제2 항에 있어서, 휴먼의 자세를 평가하는 단계는,
자세 프로파일이 제공되지 않을 경우,
휴먼을 중심으로 일정 거리의 지점을 일정 각도만큼 이동하면서 목표 위치를 설정하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 2, wherein the step of evaluating the human posture,
If no posture profile is provided,
A method for evaluating human motion using a mobile robot, in which a target position is set while moving a point at a predetermined distance from the human by a predetermined angle.
삭제delete 적어도 하나의 프로그램이 기록된 메모리; 및
프로그램을 실행하는 프로세서를 포함하며,
프로그램은,
이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하고, 운동 동작에 상응하는 표준 자세와 자세 프로파일을 검출하는 단계;
식별된 운동 동작에 상응하는 표준 자세와 이동 로봇의 카메라에 의해 적어도 둘 이상의 목표 위치에서 촬영한 휴먼 전신 영상들을 비교하여 휴먼의 자세를 평가하는 단계; 및
적어도 둘 이상의 목표 위치들 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 수행하되,
자세 프로파일은,
표준 자세를 수행하는 데 있어 중요하게 평가되어야 할 분절들 정보인 분절 가중치 정보를 포함하고,
목표 위치는, 표준 자세 수행시 평가 대상으로 분절 가중치 정보를 기반으로 선택된 적어도 하나의 분절의 최적 관찰 방향을 기반으로 설정되되, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정되고,
일 위치에서 촬영된 영상을 기반으로 하는 휴먼의 자세를 평가한 결과에 따라, 이동 로봇이 이동해야 할 다음 목표 위치가 설정되고,
휴먼의 자세를 평가하는 단계에서,
휴먼 전신 영상에서 검출된 관절들로 구성된 분절에 대한 자세 정확도를 분절 별로 반복 평가하되,
자세 평가에 의해 산출되는 관절의 검출 정확도, 분절의 자세 정확도 점수 및 분절의 평가 횟수를 자세 평가도에 기록하고,
휴먼의 운동 동작을 종합 평가하는 단계는,
자세 평가도 및 식별된 운동 동작에 상응하는 자세 프로파일을 기반으로 종합 평가하되,
분절을 구성하는 관절들의 검출 정확도의 평균으로 분절 검출 정확도를 산출하는 단계;
분절 검출 정확도 및 분절의 자세 정확도 점수를 곱한 값을 분절의 평가 횟수에 따라 종합한 최종 자세 정확도 점수를 산출하는 단계; 및
분절 각각의 최종 자세 정확도 점수 및 자세 프로파일에 포함된 분절 각각의 가중치를 기반으로 최종 동작 정확도를 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 장치.
a memory in which at least one program is recorded; and
A processor that executes a program;
program,
Analyzing a whole body image of a human captured by a camera mounted on a mobile robot to identify an exercise motion of the human, and detecting a standard posture and posture profile corresponding to the motion motion;
Evaluating a posture of the human by comparing a standard posture corresponding to the identified exercise motion with whole body images of the human captured at at least two or more target positions by a camera of the mobile robot; and
Performing a comprehensive evaluation of the human's exercise motion based on the human's posture evaluation information in each of at least two or more target positions;
The posture profile is
It includes segment weight information, which is segment information to be evaluated as important in performing a standard posture,
The target position is set based on the optimal observation direction of at least one segment selected based on segment weight information as an evaluation target when performing a standard posture, two joints constituting the selected segment are observed, and vertically extended from the center of the segment. , the distance from each of the two joints is set to the same point,
According to the result of evaluating the human posture based on the image taken at one position, the next target position to which the mobile robot should move is set,
At the stage of evaluating the human posture,
The postural accuracy of the segments composed of the joints detected in the human whole body image is repeatedly evaluated for each segment,
The detection accuracy of the joint calculated by the posture evaluation, the posture accuracy score of the segment, and the number of evaluations of the segment are recorded in the posture evaluation diagram,
The step of comprehensively evaluating the human's motor motion,
Comprehensive evaluation based on the posture evaluation diagram and the posture profile corresponding to the identified exercise motion,
calculating segment detection accuracy as an average of detection accuracies of joints constituting the segment;
calculating a final posture accuracy score obtained by synthesizing a value obtained by multiplying the segment detection accuracy and the posture accuracy score of the segment according to the number of evaluations of the segment; and
A human motion evaluation apparatus using a mobile robot, comprising: calculating a final motion accuracy based on a final posture accuracy score of each segment and a weight of each segment included in a posture profile.
제9 항에 있어서, 휴먼의 자세를 평가하는 단계는,
휴먼 전신 영상에서 관절을 검출하는 단계; 및
검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 장치.
The method of claim 9, wherein the step of evaluating the human posture,
Detecting a joint in a human body image; and
An apparatus for evaluating human motion using a mobile robot, comprising calculating a posture accuracy score for a segment composed of joints having a detection accuracy equal to or greater than a reference value.
제10 항에 있어서, 휴먼의 자세를 평가하는 단계는,
관절의 검출 정확도 및 분절에 대한 자세 정확도 점수를 자세 평가도에 기록하는 단계를 더 포함하되,
자세 평가도는,
휴먼의 전체 분절들 및 관절들이 표시된 것인, 이동 로봇을 이용한 휴먼 동작 평가 장치.
The method of claim 10, wherein the step of evaluating the human posture,
Further comprising recording the detection accuracy of the joint and the posture accuracy score for the segment in the posture evaluation diagram,
posture evaluation,
An apparatus for evaluating human motion using a mobile robot, in which all segments and joints of a human are displayed.
제11 항에 있어서, 휴먼의 자세를 평가하는 단계는,
분절 별로 반복 평가되고,
자세 평가도에 기록하는 단계는,
분절의 평가 횟수를 색상 또는 명도에 따라 구별되도록 자세 평가도에 기록하는, 이동 로봇을 이용한 휴먼 동작 평가 장치.
The method of claim 11, wherein the step of evaluating the human posture,
Segment-by-segment evaluation is repeated,
The step of recording in the posture evaluation diagram is,
A human motion evaluation device using a mobile robot, which records the number of evaluations of segments in a posture evaluation diagram so as to be distinguished according to color or brightness.
제10 항에 있어서, 휴먼의 자세를 평가하는 단계는,
자세 프로파일을 기반으로 목표 위치를 설정하되,
자세 프로파일이, 2차원 방향 벡터를 더 포함할 경우,
가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정하는, 이동 로봇을 이용한 휴먼 동작 평가 장치.
The method of claim 10, wherein the step of evaluating the human posture,
Set the target position based on the posture profile,
If the posture profile further includes a two-dimensional direction vector,
An apparatus for evaluating human motion using a mobile robot, which selects the next segment to be observed in order of weight and sets a target position, which is an optimal observation position for the segment, based on a 2-dimensional direction vector of the selected segment.
삭제delete 제9 항에 있어서, 휴먼의 자세를 평가하는 단계는,
자세 프로파일이 제공되지 않을 경우, 휴먼을 중심으로 일정 거리의 지점을 일정 각도만큼 이동하면서 목표 위치를 설정하는, 이동 로봇을 이용한 휴먼 동작 평가 장치.
The method of claim 9, wherein the step of evaluating the human posture,
An apparatus for evaluating human motion using a mobile robot, which sets a target position while moving a point at a predetermined distance from a human by a predetermined angle when a posture profile is not provided.
삭제delete 이동 로봇에 장착된 카메라로 촬영된 휴먼 전신 영상을 분석하여 휴먼의 운동 동작을 식별하는 단계;
식별된 운동 동작에 상응하는 표준 자세와 자세 프로파일을 검출하는 단계;
자세 프로파일을 기반으로 목표 위치를 설정하는 단계;
이동 로봇이 설정된 목표 위치로 이동하여 카메라에 의해 촬영한 휴먼 전신 영상과 표준 자세를 비교하여 휴먼의 자세를 평가하는 단계;
목표 위치 각각에서의 휴먼의 자세 평가 정보를 기반으로 휴먼의 운동 동작을 종합 평가하는 단계를 포함하되,
목표 위치를 설정하는 단계 및 휴먼의 자세를 평가하는 단계는 반복 수행되되,
자세 프로파일은,
표준 자세를 수행하는 데 있어 중요하게 평가되어야 할 분절들 정보인 분절 가중치 정보를 포함하고,
목표 위치는, 표준 자세 수행시 평가 대상으로 분절 가중치 정보를 기반으로 선택된 적어도 하나의 분절의 최적 관찰 방향을 기반으로 설정되되, 선택된 분절을 구성하는 두 관절들이 관찰되고, 분절의 중심으로부터 수직 연장되고, 두 관절들 각각으로부터의 거리가 동일한 지점으로 설정되고,
일 위치에서 촬영된 영상을 기반으로 하는 휴먼의 자세를 평가한 결과에 따라, 이동 로봇이 이동해야 할 다음 목표 위치가 설정되고,
휴먼의 자세를 평가하는 단계에서,
휴먼 전신 영상에서 검출된 관절들로 구성된 분절에 대한 자세 정확도를 분절 별로 반복 평가하되,
자세 평가에 의해 산출되는 관절의 검출 정확도, 분절의 자세 정확도 점수 및 분절의 평가 횟수를 자세 평가도에 기록하고,
휴먼의 운동 동작을 종합 평가하는 단계는,
자세 평가도 및 식별된 운동 동작에 상응하는 자세 프로파일을 기반으로 종합 평가하되,
분절을 구성하는 관절들의 검출 정확도의 평균으로 분절 검출 정확도를 산출하는 단계;
분절 검출 정확도 및 분절의 자세 정확도 점수를 곱한 값을 분절의 평가 횟수에 따라 종합한 최종 자세 정확도 점수를 산출하는 단계; 및
분절 각각의 최종 자세 정확도 점수 및 자세 프로파일에 포함된 분절 각각의 가중치를 기반으로 최종 동작 정확도를 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
Analyzing a human body image captured by a camera mounted on a mobile robot to identify a movement motion of the human;
detecting a standard posture and posture profile corresponding to the identified exercise motion;
setting a target position based on the posture profile;
Evaluating a posture of a human by comparing a full-body image of a human photographed by a camera with a standard posture after the mobile robot moves to a set target position;
Comprehensive evaluation of the human's exercise motion based on the human's posture evaluation information at each target position,
The step of setting the target position and the step of evaluating the human posture are repeatedly performed,
The posture profile is
It includes segment weight information, which is segment information to be evaluated as important in performing a standard posture,
The target position is set based on the optimal observation direction of at least one segment selected based on segment weight information as an evaluation target when performing a standard posture, two joints constituting the selected segment are observed, and vertically extended from the center of the segment. , the distance from each of the two joints is set to the same point,
According to the result of evaluating the human posture based on the image taken at one position, the next target position to which the mobile robot should move is set,
At the stage of evaluating the human posture,
The postural accuracy of the segments composed of the joints detected in the human whole body image is repeatedly evaluated for each segment,
The detection accuracy of the joint calculated by the posture evaluation, the posture accuracy score of the segment, and the number of evaluations of the segment are recorded in the posture evaluation diagram,
The step of comprehensively evaluating the human's motor motion,
Comprehensive evaluation based on the posture evaluation diagram and the posture profile corresponding to the identified exercise motion,
calculating segment detection accuracy as an average of detection accuracies of joints constituting the segment;
calculating a final posture accuracy score obtained by synthesizing a value obtained by multiplying the segment detection accuracy and the posture accuracy score of the segment according to the number of evaluations of the segment; and
A method for evaluating human motion using a mobile robot, comprising calculating a final motion accuracy based on a final posture accuracy score of each segment and a weight of each segment included in a posture profile.
제17 항에 있어서, 휴먼의 자세를 평가하는 단계는,
휴먼 전신 영상에서 관절을 검출하는 단계; 및
검출 정확도가 기준치 이상인 관절들로 구성된 분절에 대한 자세 정확도 점수를 소정 평가 횟수만큼 반복적으로 산출하는 단계를 포함하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 17, wherein the step of evaluating the human posture,
Detecting a joint in a human body image; and
A method for evaluating human motion using a mobile robot, comprising repeatedly calculating a posture accuracy score for a segment composed of joints having a detection accuracy equal to or greater than a reference value by a predetermined number of evaluations.
제17 항에 있어서, 목표 위치를 설정하는 단계는,
자세 프로파일을 기반으로 목표 위치를 설정하되,
자세 프로파일이,
2차원 방향 벡터를 더 포함할 경우, 가중치 순으로 다음 관찰 대상인 분절을 선택하고, 선택된 분절의 2차원 방향 벡터를 기반으로 해당 분절의 최적 관찰 위치인 목표 위치를 설정하는, 이동 로봇을 이용한 휴먼 동작 평가 방법.
The method of claim 17, wherein setting the target location comprises:
Set the target position based on the posture profile,
posture profile,
When a 2D direction vector is further included, a human operation using a mobile robot selects the next segment to be observed in the order of weight and sets a target position, which is the optimal observation position of the segment, based on the 2D direction vector of the selected segment. Assessment Methods.
삭제delete
KR1020200141426A 2020-06-23 2020-10-28 Apparatus and Method for Estimating Human Motion using Mobile Robot KR102568538B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/106,465 US20210394021A1 (en) 2020-06-23 2020-11-30 Apparatus and method for evaluating human motion using mobile robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200076499 2020-06-23
KR1020200076499 2020-06-23

Publications (2)

Publication Number Publication Date
KR20210158291A KR20210158291A (en) 2021-12-30
KR102568538B1 true KR102568538B1 (en) 2023-08-23

Family

ID=79178851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200141426A KR102568538B1 (en) 2020-06-23 2020-10-28 Apparatus and Method for Estimating Human Motion using Mobile Robot

Country Status (1)

Country Link
KR (1) KR102568538B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080671A (en) * 2014-10-20 2016-05-16 純一 水澤 Robot measuring apparatus measuring human motions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102226927B1 (en) * 2017-12-29 2021-03-12 남부대학교 산학협력단 Using the gesture and EMG sensing data, motion analysis system of free weight exercise by hybrid detection method
KR102238085B1 (en) 2018-08-23 2021-04-08 한국전자기술연구원 Device and method for analyzing motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080671A (en) * 2014-10-20 2016-05-16 純一 水澤 Robot measuring apparatus measuring human motions

Also Published As

Publication number Publication date
KR20210158291A (en) 2021-12-30

Similar Documents

Publication Publication Date Title
CN111368810B (en) Sit-up detection system and method based on human body and skeleton key point identification
US20230338778A1 (en) Method and system for monitoring and feed-backing on execution of physical exercise routines
KR20200056233A (en) A motion accuracy judgment system using artificial intelligence posture analysis technology based on single camera
KR101980378B1 (en) Exercise motion guidance system using dynamic motion and body balance
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
CN113762133A (en) Self-weight fitness auxiliary coaching system, method and terminal based on human body posture recognition
CN113856186B (en) Pull-up action judging and counting method, system and device
KR102369359B1 (en) Image-based intelligent push-up discrimination method and system
KR102568538B1 (en) Apparatus and Method for Estimating Human Motion using Mobile Robot
JP7012631B2 (en) Object identification device, identification system and identification method
KR20170119337A (en) Apparatus and Method for Processing of Exercise Information
CN116189301A (en) Standing long jump motion standardability assessment method based on attitude estimation
US20210394021A1 (en) Apparatus and method for evaluating human motion using mobile robot
KR20170119335A (en) Apparatus and Method for Processing of Exercise Information
KR20170119338A (en) Apparatus and Method for Processing of Exercise Information
CN112287840B (en) Method and system for intelligently acquiring exercise capacity analysis data
Hung et al. A HRNet-based Rehabilitation Monitoring System
KR102591325B1 (en) Apparatus and Method for Estimating Human Pose
US20230145451A1 (en) Monitoring exercise activity in a gym environment
Zaidi et al. Mae Mai Muay Thai Layered Classification Using CNN and LSTM Models
WO2024024055A1 (en) Information processing method, device, and program
Mishima et al. Development of stance correction system for billiard beginner player
Tanaka AN AUTOMATIC EVALUATION SYSTEM FOR STUDENTS’EXERCISE ON E-LEARNING FOR PHYSICAL EDUCATION
KR20170119340A (en) Apparatus and Method for Processing of Exercise Information

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)