KR20230097298A - 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치 - Google Patents

이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR20230097298A
KR20230097298A KR1020210186664A KR20210186664A KR20230097298A KR 20230097298 A KR20230097298 A KR 20230097298A KR 1020210186664 A KR1020210186664 A KR 1020210186664A KR 20210186664 A KR20210186664 A KR 20210186664A KR 20230097298 A KR20230097298 A KR 20230097298A
Authority
KR
South Korea
Prior art keywords
image
person
posture
information
clinical evaluation
Prior art date
Application number
KR1020210186664A
Other languages
English (en)
Inventor
김기원
정선근
유리
김선형
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Priority to KR1020210186664A priority Critical patent/KR20230097298A/ko
Priority to PCT/KR2022/021146 priority patent/WO2023121376A1/ko
Publication of KR20230097298A publication Critical patent/KR20230097298A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치가 제공된다. 이미지를 이용하여 임상 평가 정보를 제공하는 방법은 촬영 이미지를 획득하는 단계, 촬영 이미지를 기초로 획득된 사람의 2차원 신체 좌표 정보 및 깊이 정보를 통합하여 사람의 3차원 자세를 추정하는 단계, 3차원 자세를 기초로 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 사람의 동작을 분석하는 단계, 및 임상 판단 기준 지표를 기초로 사람의 임상 평가 정보를 생성 및 제공하는 단계를 포함한다.

Description

이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치{METHOD AND DEVICE FOR PROVIDING CLINICAL EVALUATION INFORMATION USING IMAGE}
본 발명은 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치에 관한 것이다.
고령화 사회에 접어들면서 고령 인구가 증가함에 따라 재가 노인들을 위한 헬스케어 서비스의 수요가 크게 증가하고 있다. 특히, 고령에서 신체 기능(physical performance)의 감소로 독립적인 일상 생활이 어려워지는 경우, 노인들이 집에서 더 이상 거주하지 못하고 요양병원에 의존하게 되거나, 가족들의 부양 부담이 크게 증가하게 된다. 신체 기능은 몸의 움직임과 관련되어 객관적으로 측정되는 기능적 지표를 일컫는 말로, 보행 속도, 균형 능력, 근력 등을 말한다. 신체 기능 저하는 근감소증(sarcopenia)에 직접적으로 영향을 받게 되고, 기능 저하는 노쇠(frailty)의 진행으로 직결되게 된다. 노쇠의 악화는 만성 질환의 악화와 악순환으로 연결되어, 큰 의료 비용 및 사회적 비용을 초래한다. 고령에 의한 기능의 저하 및 노쇠로 직결되는 가장 흔한 요인 중 하나인 낙상(fall down)은 운동 기능, 인지 기능, 균형 등의 요인이 복합적으로 작용하여 발생하게 되며, 고령자에게서 입원 및 사망에 이르는 가장 중요한 외상의 원인이다. 낙상 위험도의 평가 및 낙상의 예측/예방은 고령자의 건강 노화를 위해 필수적이라 할 수 있다. 만일 이러한 신체기능 및 낙상 위험도 평가와 노쇠/근감소증 선별검사가 보다 이르고 적절한 시점에 이루어진다면, 재가 노인의 의료비 감소와 서비스 제공자 중심의 의료에 대한 개선을 기대할 수 있을 것이다.
사람의 동작을 정량적으로 분석하면 신체 기능 지표를 직접적으로 추출할 수 있고, 낙상 위험도를 평가할 수 있다. 더불어, 근감소증의 선별 검사에 신체 기능이 직접적으로 적용될 수 있으며, 다양한 지표를 종합하여 노쇠의 발생, 진행 등을 선별/추적할 수 있다. 임상에서는 신체 기능 평가를 위해, 흔히 간편 신체 수행 평가(Short Physical Performance Battery)를 시행하고, 균형 능력 평가를 위해 버그 균형 검사(Berg balance scale)을 사용하고 있다. 낙상 위험도의 평가를 위해, 보행 안정성을 함께 평가할 수 있으나, 이는 고가의 동작 분석 설비(motion capture system)를 필요로 하여 흔히 사용되기 어렵다. 근감소증의 진단 검사로는 흔히 보행 속도, 의자에서 일어나기, 등의 운동 평가가 포함된다. 노쇠의 평가에는 신체 기능 지표가 중요하게 고려된다. 이러한 모든 검사들은, 검사실에서 의료진에 의해 수행되고, 객관적이고 정량적인 신뢰도를 확보하기 위해, 동작의 질적 평가는 배제하고 단순한 시간, 거리 지표(예를 들어, 5회 의자에서 앉았다 일어나는데 걸리는 시간만 평가되며 자세의 차이는 고려되지 않는다)만을 평가에 고려하게 된다. 의료진의 목측에 의존하여 검사실에서 수행되기 때문에, 검사의 예약, 결과 기록, 보고 및 확인을 위해서는 많은 수고와 시간이 추가로 필요하게 된다. 또한, 이러한 평가들은 일회성 측정이므로 실생활에서의 신체기능과의 상관성이 낮고, 연속적인 평가가 어렵다. 이 때문에 현 시점에서는 대부분의 검사가 선별/예방 목적의 이른 시점(문제가 커지기 전)에 이루어지는 것은 현실적으로 불가능한 상황이다.
공개특허공보 제10-2021-0115450호, 2021.09.27
본 발명이 해결하고자 하는 과제는 사용자의 노력이나 인지 없이 집안에 설치된 카메라가 대상의 움직임을 인식하고 분석하여 무구속적, 비침습적, 연속적 신체기능 및 낙상 위험도 평가와 노쇠/근감소증 선별검사를 가능하게 하는 것이다.
본 발명이 해결하고자 하는 과제는 이미지로부터 임상 평가 정보(신체기능 지표, 낙상 위험도, 노쇠 및 근감소증 여부)를 도출함으로써 낙상을 사전에 방지하고 노쇠 및 근감소증을 조기에 발견할 수 있는 임상 평가 정보 제공 방법 및 장치를 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 과제는 인공지능 기술을 이용하여 동작 영상으로부터 자동으로 임상 평가 정보를 도출함으로써 검사 시간을 단축하고 보다 정밀하고 정확한 분석을 가능하게 하는 임상 평가 정보 제공 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 이미지를 이용하여 임상 평가 정보를 제공하는 방법은, 적어도 하나의 이미지 센서로부터 사람을 나타내는 촬영 이미지를 획득하는 단계, 촬영 이미지를 기초로 RGB 영상 정보 및 사람의 신체 부위 각각에 대한 깊이 정보 중 적어도 하나의 정보를 획득하고, 적어도 하나의 정보를 기초로 사람의 3차원 신체 좌표 정보를 획득하여 사람의 3차원 자세를 추정하는 단계, 3차원 자세를 기초로 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 사람의 동작을 분석하는 단계, 및 임상 판단 기준 지표를 기초로 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부 중 적어도 하나를 포함하는 임상 평가 정보를 생성 및 제공하는 단계를 포함한다.
본 발명의 다른 면에 따른 이미지를 이용하여 임상 평가 정보를 제공하는 장치는, 적어도 하나의 이미지 센서로부터 사람을 나타내는 촬영 이미지를 획득하는 이미지 획득부, 촬영 이미지를 기초로 RGB 영상 정보 및 사람의 신체 부위 각각에 대한 깊이 정보 중 적어도 하나의 정보를 획득하고, 적어도 하나의 정보를 기초로 사람의 3차원 신체 좌표 정보를 획득하여 사람의 3차원 자세를 추정하는 자세 추정부, 3차원 자세를 기초로 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 사람의 동작을 분석하는 동작 분석부, 및 임상 판단 기준 지표를 기초로 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부 중 적어도 하나를 포함하는 임상 평가 정보를 생성 및 제공하는 임상 평가 정보 제공부를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
전술한 바에 의하면, 이미지로부터 임상 평가 정보(신체기능 지표, 낙상 위험도, 노쇠 및 근감소증 여부)를 도출함으로써 낙상을 사전에 방지하여 안전을 도모하는 효과가 있다.
또한, 전술한 바에 의하면, 인공지능 기술을 이용하여 동작 영상으로부터 자동으로 임상 평가 정보를 도출하므로, 임상 평가 정보를 보다 빠르고 정확하게 제공함으로써 검사 시간을 단축하고 보다 정밀하고 정확한 분석을 가능하게 하는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 임상 평가 정보 제공 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 임상 평가 정보 제공 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 동작 분류 방법 및 임상 판단 기준 지표 방법의 예시를 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 임상 평가 정보 제공 방법을 설명하기 위한 흐름도이다.
도 5는 도 4에 도시된 촬영 이미지를 획득하는 단계 및 사람의 3차원 자세를 추정하는 단계의 일 실시예를 설명하기 위한 흐름도이다.
도 6은 도 4에 도시된 촬영 이미지를 획득하는 단계 및 사람의 3차원 자세를 추정하는 단계의 다른 실시예를 설명하기 위한 흐름도이다.
도 7은 임상 판단 기준 지표의 일 실시예를 나타낸 그래프이다.
도 8은 도 4에 도시된 임상 평가 정보 제공 방법의 변형 실시예를 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 임상 평가 정보 제공 시스템(1)을 설명하기 위한 도면이다.
도 1을 참조하면, 임상 평가 정보 제공 시스템(1)은 대상을 촬영함으로써 획득한 이미지를 이용하여 대상에 대한 임상 정보를 제공할 수 있다. 여기서, 대상은 예를 들어 사람일 수 있으나, 이에 한정되는 것은 아니다. 이하에서 대상은 사람인 것으로 가정한다. 임상 평가 정보 제공 시스템(1)은 본 발명은 일상 생활 속에서 사람이 수행하는 동작을 이미지 센서(예를 들면, 설치된 카메라)로 수집하여 이로부터 신체 기능(physical performance)에 대한 정보와 낙상 위험도를 무구속으로 상시 감시할 수 있다. 임상 평가 정보 제공 시스템(1)은 특별한 목적 없이 일상생활 중에 수행하는 동작을 영상으로 수집하고, 특정한 사람을 인식하고, 이를 비식별화 정보로 치환한 뒤, 원하는 특정 동작을 추출해내어, 이를 자세 추정 알고리즘을 통해 인식하고 재구성하여 수치화하며, 사람의 건강 관리에 활용하기 위한 임상 평가 정보를 제공할 수 있다. 구체적으로, 임상 평가 정보 제공 시스템(1)은 평가의 대상이 되는 사람을 인식하여 개인을 식별하고, 평가에 유용한 동작을 감지한 후 이로부터 신체 기능 및 낙상 위험도의 정량적 지표를 추출하며, 신체 기능 지표를 바탕으로 근감소증의 선별 및 노쇠의 추적 관찰에 활용하여 개인 맞춤형 건강 관리를 사람에게 제안할 수 있다. 임상 평가 정보 제공 시스템(1)은 보건 의료 관련 의공학 기술에 적용될 수 있고, 사용자의 신체 기능을 모니터링하고 이를 기반으로 적절한 중재를 시행할 수 있게 하는 리모트 헬스 케어 및 스마트 헬스 케어 분야에 적용될 수 있다. 하지만, 이에 한정되는 것은 아니다.
임상 평가 정보 제공 시스템(1)은, 이미지 센서(10) 및 임상 평가 정보 제공 장치(100)를 포함할 수 있다.
이미지 센서(10)는 사람, 사물, 주변 환경 등을 촬영할 수 있다. 이미지 센서(10)는 사람, 사물, 주변 환경 등을 촬영한 촬영 이미지를 생성할 수 있다. 이미지 센서(10)는 촬영 이미지를 임상 평가 정보 제공 장치(100)에 제공할 수 있다. 예를 들면, 이미지 센서(10)는 뎁스(depth) 센서를 포함하는 카메라 또는 적외선 조사 뎁스 카메라일 수 있다. 뎁스 센서는, 사물의 깊이 정보를 센싱(sensing)할 수 있다. 다른 예를 들면, 이미지 센서(10)는 라이다(LiDAR; Light Detection And Ranging)일 수 있다. 이때, 라이다도 뎁스 센서와 동일하게 깊이 정보를 센싱할 수 있다. 또 다른 예를 들면, 이미지 센서(10)는 RGB 영상 정보를 제공하는 RGB 카메라일 수 있다. 이미지 센서(10)는 촬영 대상이 되는 사람이 소유하는 모바일 기기에 내장될 수 있다. 또는, 이미지 센서(10)는 촬영 대상이 되는 사람 외에 측정자가 소유하는 촬영 기기(예를 들어, 키넥트 등)에 내장될 수 있다. 촬영 이미지는 정지 이미지(또는 사진, 스냅샷 이미지, 정적 이미지 등) 및 동영상 이미지 중 적어도 하나를 포함할 수 있다. 예를 들면, 촬영 이미지는 동영상 이미지일 수 있다. 하지만, 이에 한정되는 것은 아니다.
임상 평가 정보 제공 장치(100)는 이미지 센서(10)로부터 촬영 이미지를 수신하고, 촬영 대상인 사람에 대한 임상 평가 정보를 제공할 수 있다. 임상 평가 정보는, 예를 들면, 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부를 포함할 수 있으나, 이에 한정되는 것은 아니다.
임상 평가 정보 제공 장치(100)는 이미지 획득부(110), 자세 추정부(120), 동작 분석부(130), 임상 평가 정보 제공부(140), 및 비식별 처리부(150)를 포함할 수 있다.
이미지 획득부(110)는, 이미지 센서(10)로부터 사람을 나타내는 촬영 이미지를 획득할 수 있다. 일 실시예에서, 촬영 이미지는, 임상 평가 정보를 제공하기 위해(또는 임상 판단 기준 지표를 생성하기 위해) 미리 설정된 자세들 수행하는 사람을 촬영한 이미지일 수 있다. 이러한 촬영 이미지의 경우, 촬영 대상인 사람이 전술한 자세들을 취하고, 촬영 대상인 사람이 소유한 이미지 센서(10)를 이용하여 자신을 촬영함으로써, 촬영 이미지가 생성될 수 있다. 또는, 병원 등 외부 기관에서 소유하는 이미지 센서(10)가 전술한 자세들을 취한 사람을 촬영함으로써 촬영 이미지가 생성될 수 있다. 다른 실시예에서, 촬영 이미지는 이미지 센서(10)에 의해 실시간으로 촬영되는 이미지일 수 있다. 이러한 촬영 이미지의 경우, 병원 등 외부 기관에서 소유하는 이미지 센서(10)가 촬영 영역에 존재하는 사람을 실시간으로 촬영함으로써 촬영 이미지가 생성될 수 있다. 본 명세서의 "자세"는 정지 상태 또는 움직이는 상태일 수 있다. 전술한 자세들은, 예를 들면, 걷는 자세(gait), 앉았다가 일어나는 자세(stand-up), 선 자세, 방향 전환하는 자세(turning around), 손 뻗는 자세 등 정지 또는 움직임을 나타내는 상태를 의미할 수 있다. 본 명세서의 자세는 정지 또는 움직임을 나타내는 동작, 모션, 거동 등으로 지칭될 수도 있다.
일 실시예에서, 이미지 센서(10)는 RGB 카메라인 경우, 자세 추정부(120)는 촬영 이미지로부터 RGB 영상 정보를 획득할 수 있다. 그리고, 자세 추정부(120)는 3차원 좌표 추출 알고리즘을 이용해 RGB 영상 정보로부터 3차원 신체 좌표 정보를 획득할 수 있다. 3차원 좌표 추출 알고리즘은, 예를 들어 시상면(Sagittall plane), 관상면(Frontal plane), 수평면(Transvers plane)을 이용하는 알고리즘 또는 사람의 해부학적 정보를 이용하는 알고리즘 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
다른 실시예에서, 이미지 센서(10)는 뎁스 센서 또는 라이다인 경우, 자세 추정부(120)는 촬영 이미지로부터 깊이 정보를 획득할 수 있다. 그리고, 자세 추정부(120)는 깊이 정보를 기초로 3차원 신체 좌표 정보를 획득할 수 있다.또 다른 실시예에서, 자세 추정부(120)는 촬영 이미지를 기초로 사람의 2차원 신체 좌표 정보 및 사람의 신체 부위 각각에 대한 깊이 정보를 획득할 수 있다. 그리고, 자세 추정부(120)는 2차원 신체 좌표 정보 및 깊이 정보를 통합(또는 융합(Fusion))하여 사람의 3차원 자세를 추정할 수 있다. 일 실시예에서, 자세 추정부(120)는 2차원 자세 추정 알고리즘을 사용하여 촬영 이미지로부터 복수의 2차원 신체 좌표들을 2차원 신체 좌표 정보로서 획득할 수 있다. 여기서, 2차원 자세 추정 알고리즘은 오픈포즈(OpenPose) 또는 포즈넷(PoseNet)일 수 있으나, 이에 한정되는 것은 아니다.
동작 분석부(130)는 3차원 자세를 기초로 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 사람의 동작을 분석할 수 있다. 여기서, 임상 판단 기준 지표는 보행 속도(velocity), 보행 안정성(gait steadiness), 시간적 안정성(cadence variability), 공간적 안정성(stride variability), 일어나는 속도, 상체 기울기, 슬관절 신전근 근력, 및 상지 보조 여부, 무게 중심 흔들림(center of mass sway) 및 시상면 균형, 무게 중심 편위(center of mass excursion) 및 보행 안정성 변화, 무게 중심 흔들림, 무게 중심 편위, 및 상지 가동 범위를 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다. 임상 판단 기준 지표는 촬영 이미지에 나타난 사람의 자세에 따라서 결정될 수 있다. 예를 들면, 걷는 자세에서, 임상 판단 기준 지표는 보행 속도, 보행 안정성, 시간적 안정성, 및 공간적 안정성을 포함할 수 있다. 다른 예를 들면, 앉았다가 일어나는 자세에서, 임상 판단 기준 지표는 일어나는 속도, 상체 기울기, 슬관절 신전근 근력, 및 상지 보조 여부를 포함할 수 있다. 다른 예를 들면, 선 자세에서, 임상 판단 기준 지표는 무게 중심 흔들림 및 시상면 균형을 포함할 수 있다. 다른 예를 들면, 방향 전환하는 자세에서, 임상 판단 기준 지표는 무게 중심 편위 및 보행 안정성 변화를 포함할 수 있다. 다른 예를 들면, 손 뻗는 자세에서, 임상 판단 기준 지표는 무게 중심 흔들림, 무게 중심 편위, 및 상지 가동 범위를 포함할 수 있다.
임상 평가 정보 제공부(140)는 임상 판단 기준 지표를 기초로 임상 평가 정보를 생성 및 제공할 수 있다. 여기서, 임상 평가 정보는 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 임상 평가 정보는 헬스케어 등에 이용될 수 있다.
비식별 처리부(150)는, 촬영 대상이 되는 사람이 비식별되도록, 촬영 이미지에서 사람의 신체 부위들 중 사람을 식별할 수 있는 신체 부위를 인공지능에 기반하여 비식별 처리할 수 있다. 구체적으로 예를 들면, 비식별 처리부(150)는, 개인정보 보호법에 저촉되지 않도록, 사람의 눈이나 해당 사람이 예민하게 생각하는 부위(얼굴 또는 신체 흉터 등)에 대해 인공지능 기반의 블러링(Blurring) 기법 또는 마스킹 (masking) 기법을 적용할 수 있다. 이에 따르면, 촬영 대상이 되는 사람의 개인 정보를 보호할 수 있는 효과가 있다.
임상 평가 정보 제공 시스템(1)의 임상 평가 정보를 제공하는 방법을 수행하는 컴퓨터 프로그램이 비일시적 컴퓨터 판독 가능 기록 매체에 저장될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 임상 평가 정보 제공 장치를 설명하기 위한 블록도이다.
도 1 및 도 2를 참조하면, 임상 평가 정보 제공 장치(200)는 영상을 입력받을 수 있다(Input video, 210). 여기서, 영상은 전술한 촬영 이미지일 수 있다. 도 1 및 도 2를 참조하여 구체적으로 예를 들면, 이미지 획득부(110)는 이미지 센서(10, 도 1 참조)로부터 영상(예를 들어, 촬영 이미지)를 입력받을 수 있다.
임상 평가 정보 제공 장치(200)는 촬영 이미지에 포함된 사람을 식별할 수 있다(Person Identification, 220). 여기서, 촬영 이미지에 포함된 사람을 식별한다는 것(220)은 촬영 이미지에 포함된 사물, 주변 환경, 및 사람 중 대상이되는 사람을 검출하는 것일 수 있다. 도 1 및 도 2를 참조하여 구체적으로 예를 들면, 이미지 획득부(110)는 촬영 이미지에서 촬영 대상이 되는 사람을 검출함으롸써 사람을 식별할 수 있다.
임상 평가 정보 제공 장치(200)는 촬영 이미지에서 식별된 사람을 비식별 처리할 수 있다(De-identification, 230). 도 1 및 도 2를 참조하여 구체적으로 예를 들면, 비식별 처리부(150)는 촬영 이미지에서 사람의 특정 신체 부위(예를 들어, 눈 및 눈 주위)을 블러처리할 수 있다.
임상 평가 정보 제공 장치(200)는 비식별 처리된 사람이 수행하는 행동(또는 자세)을 분류할 수 있다(Activity classification, 240). 도 1 및 도 2를 참조하여 구체적으로 예를 들면, 자세 추정부(120)는 촬영 이미지를 기초로 사람의 3차원 자세를 추정하고, 동작 분석부(130)는 추정된 3차원 자세를 기초로 사람의 동작을 인공지능에 기반하여 분류할 수 있다.
임상 평가 정보 제공 장치(200)는 분류된 행동에 따른 임상 판단 기준 지표를 출력할 수 있다(Output Parameters, 250). 도 1 및 도 2를 참조하여 구체적으로 예를 들면, 동작 분석부(130)는 분류된 동작에 따른 임상 판단 기준 지표를 추출할 수 있다.
도 3은 본 발명의 일 실시예에 따른 동작 분류 방법 및 임상 판단 기준 지표 방법의 예시를 설명하기 위한 블록도이다.
도 2 및 도 3을 참조하면, 본 명세서에서의 행동(또는 자세)은 걷기(Walking, 2410), 의자에서 일어나기(Standing up from a chair, 2421), 바닥에서 일어나기(Standing up from the floor, 2422), 코너 돌기(Turning a corner, 2431), 뒤로 돌기(Turn to look behind, 2432), 및 서기(Standing, 2440) 등을 포함할 수 있다. 하지만, 이에 한정되는 것은 아니다. 행동(또는 자세)은 바닥에서 손 안 짚고 일어나기, 제자리에서 돌기, 걷다가 방향 전환하기, 바닥의 물건 줍기. 멀리 손 뻗기 등을 더 포함할 수 있다. 여기서, 서기(Standing, 2440)는 양발 서기, 한발로 서기, 및 일렬 서기(tandem standing) 등을 포함할 수 있다. 이러한 행동(또는 자세)은 일정한 거리 또는 일정한 유지 시간이 조건으로서 반영될 수도 있다. 본 명세서에서 걷기(Walking, 2410)는 걷는 자세로 지칭되고, 의자에서 일어나기(Standing up from a chair, 2421) 및 바닥에서 일어나기(Standing up from the floor, 2422)는 앉았다가 일어나는 자세로 지칭되고, 코너 돌기(Turning a corner, 2431) 및 뒤로 돌기(Turn to look behind, 2432)는 방향 전환하는 자세로 지칭될 수 있고, 서기(Standing, 2440)는 선 자세로 지칭될 수 있다. 선 자세는, 예를 들어 한 발로 선 자세, 두 발로 선 자세 등을 포함할 수 있다. 두 발로 선 자세는, 예를 들어 두 발이 걷는 방향과 나란히 일렬로 배치된 자세 또는 두 발이 걷는 방향과 수직하게 일렬로 배치된 자세 등 발 간격과 발 위치 등이 자유롭게 바닥에 배치된 자세를 모두 포함할 수 있다.
촬영 이미지에 나타난 사람의 행동이 걷기(Walking, 2410)인 경우, 동작 분석부(130)는 보행 속도(gait speed), 보행 안정성(gait steadiness), 및 질량 중심(CoM; Center of Mass)(또는 무게 중심이라고 함.) 움직임(CoM motion) 및 보행 양상(gait pattern)을 포함하는 제1 임상 판단 기준 지표(2510)를 추출할 수 있다. 한편, 보행 안정성은 공간적 변동성(Spatial variability) 및 시간적 변동성(Temporal variability)을 포함할 수 있다.
촬영 이미지에 나타난 사람의 행동이 의자에서 일어나기(Standing up from a chair, 2421) 또는 바닥에서 일어나기(Standing up from the floor, 2422)인 경우, 동작 분석부(130)는 동작 변화 소요 시간(예컨대, 일어나는 속도), 반복 횟수, 상체 기울기(trunk inclination), 신체 부위의 지지(Support of body parts), 및 질량 중심 흔들림(CoM sway)을 포함하는 제2 임상 판단 기준 지표(2520)를 추출할 수 있다.
촬영 이미지에 나타난 사람의 행동이 코너 돌기(Turning a corner, 2431) 또는 뒤로 돌기(Turn to look behind, 2432)인 경우, 동작 분석부(130)는 질량 중심 흔들림(CoM sway/excursion), 보행 안정성 변화(change of gait steadinesS)를 포함하는 제3 임상 판단 기준 지표(2530)를 추출할 수 있다.
촬영 이미지에 나타난 사람의 행동이 서기(Standing, 2440)인 경우, 동작 분석부(130)는 질량 중심 흔들림(CoM sway) 및 시상면 균형(sagittal alignment/balance)을 포함하는 제4 임상 판단 기준 지표(2540)를 추출할 수 있다.
전술한 실시예는 예시일 뿐, 도 3에 한정되는 것은 아니다. 전술한 실시예와 다른 실시예는 후술한다.
도 4는 본 발명의 일 실시예에 따른 임상 평가 정보 제공 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 임상 평가 정보 제공 방법은 촬영 이미지를 획득하는 단계(S10), 사람의 3차원 자세를 추정하는 단계(S20), 사람의 동작을 분석하는 단계(S30), 및 임상 평가 정보를 생성 및 제공하는 단계(S40)를 포함할 수 있다.
단계 S10는 도 1을 참조하여 전술한 이미지 획득부(110)에 의해 수행되는 단계일 수 있다.
단계 S20은 도 1을 참조하여 전술한 자세 추정부(120)에 의해 수행되는 단계일 수 있다.
단계 S30은 도 1을 참조하여 전술한 동작 분석부(130)에 의해 수행되는 단계일 수 있다.
일 실시예에서 사람의 자세는 걷는 자세, 앉았다가 일어나는 자세, 선 자세, 방향 전환하는 자세, 및 손 뻗는 자세 중 적어도 하나를 포함할 수 있다. 이때, 사람의 동작을 분석하는 단계(S30)는, 걷는 자세의 경우, 보행 속도(gait speed), 보행 안정성(gait steadiness), 보행 양상(gait pattern)을 임상 판단 기준 지표로서 분석할 수 있다. 한편, 보행 안정성은 시간적 변동성(cadence variability) 및 공간적 변동성(stride length variability, step length variability)을 포함할 수 있다. 또한, 보행 양상은 파행성 보행(limping gait), 족하수 보행(steppage gait), 편마비 보행(hemiplegic gait), 파킨슨 보행(parkinsonian gait), 동요성 보행(waddling gait), 웅크림 보행(crouch gait)을 포함할 수 있다.
또는, 사람의 동작을 분석하는 단계(S30)는, 앉았다가 일어나는 자세의 경우, 동작 변화 소요 시간(예컨대, 일어나고 앉는 속도), 반복 횟수 , 슬관절 신전근 근력(quadriceps strength), 상체의 기울기(trunk inclination), 상지 보조 여부(hand support)를 임상 판단 기준 지표로서 분석할 수 있다.
또는, 사람의 동작을 분석하는 단계(S30)는, 선 자세의 경우, 무게 중심 흔들림(center of mass sway) 및 시상면 균형(sagittal balance)을 임상 판단 기준 지표로서 분석할 수 있다.
또는, 사람의 동작을 분석하는 단계(S30)는, 방향 전환하는 자세의 경우, 무게 중심 편위(center of mass excursion) 및 보행 안정성 변화(change of gait variability/steadiness)를 임상 판단 기준 지표로서 분석할 수 있다. 또는, 사람의 동작을 분석하는 단계(S30)는, 손 뻗는 자세의 경우, 상지 가동 범위(range of motion of the upper extremity), 무게 중심 흔들림, 무게 중심 편위 를 임상 판단 기준 지표로서 분석할 수 있다.
단계 S40은 도 1을 참조하여 전술한 임상 평가 정보 제공부(140)에 의해 수행되는 단계일 수 있다. 일 실시예에서, 임상 평가 정보를 생성 및 제공하는 단계(S40)는, 보행 속도를 기초로, 신체 능력 점수를 측정하고 근감소증 여부에 대해 판단하며 보행 안정성을 통해 낙상 위험도를 도출할 수 있다. 일 실시예에서, 임상 평가 정보를 생성 및 제공하는 단계(S40)는, 일어나는 속도를 기초로 신체 능력 점수를 측정하고, 상체 기울기, 슬관절 신전근 근력, 상지 보조 여부를 기초로 사람의 하체의 근력을 계산하여 근감소증 여부에 대해 판단할 수 있다. 일 실시예에서, 임상 평가 정보를 생성 및 제공하는 단계(S40)는, 무게 중심 흔들림 및 시상면 균형을 기초로 균형 능력, 낙상 위험도를 평가하고 퇴행성 척추질환의 진행을 측정할 수 있다. 일 실시예에서, 임상 평가 정보를 생성 및 제공하는 단계(S40)는, 관절 가동 범위를 측정하고, 관절 질환을 평가할 수 있다. 다른 실시예에서, 임상 평가 정보를 생성 및 제공하는 단계(S40)는, 설계자, 실험가, 의사 등에 의해 도출된 임상 평가 정보와 인공지능 기반으로 도출된 임상 평가 정보를 상관 관계(correlation) 연산하여, 보정된 임상 평가 정보를 생성할 수 있다. 이에 의하면, 더욱 정확한 분석이 가능하므로, 보다 정확한 정보를 전달하는 효과가 있다.
도 5는 도 4에 도시된 촬영 이미지를 획득하는 단계 및 사람의 3차원 자세를 추정하는 단계의 일 실시예를 설명하기 위한 흐름도이다.
도 5를 참조하면, 촬영 이미지는 사람(301)이 임상 판단 기준 지표를 추출하기 위해 사전에 지시된 동작을 수행한 상태를 나타내는 이미지(300)일 수 있다. 임상 판단 기준 지표를 추출하기 위해 사전에 지시된 동작은, 예를 들어, 사람(301) 이외 측정자가 사람(301)에게 지시하는 동작일 수 있다. 이미지(300)는 사람(301)이 직접 촬영한 이미지일 수 있고, 사람(301) 이외 측정자(또는 측정자가 소유한 촬영 장치)가 사람(301)을 촬영한 이미지일 수 있다. 도 5를 참조하여 예를 들면, 원본 영상에서, 이미지(300)에 포함된 사람(301)이 선 자세를 취할 수 있다. 이 경우, 이미지 획득부(110)는 이미지(300)를 촬영 이미지로서 획득할 수 있다.
자세 추정부(120)는, 이미지(300)를 입력으로 2차원 자세 추정 알고리즘을 수행할 수 있다. 2차원 자세 추정 결과, 자세 추정부(120)는 이미지(300)로부터 복수의 2차원 신체 좌표들을 2차원 신체 좌표 정보(302)로서 획득할 수 있다. 2차원 신체 좌표 정보(302)에 포함되는 복수의 2차원 신체 좌표들은 사람(301)의 머리, 가슴, 어깨, 팔, 몸통, 다리 등에 위치하는 좌표들일 수 있다. 이러한 복수의 2차원 신체 좌표들의 개수는 예를 들어 25개일 수 있으나, 이에 한정되는 것은 아니다.
자세 추정부(120)는, 이미지(300)로부터 깊이 정보(310)를 획득할 수 있다. 도 1 및 도 5를 참조하여 예를 들어, 이미지 센서(10)가 라이다 센서를 포함하는 경우, 깊이 정보(310)는 라이다 센서에 의해 처리된 뎁스 맵(depth map)을 입력받음으로써 깊이 정보(310)를 획득할 수 있다.
자세 추정부(120)는 2차원 신체 좌표 정보(302) 및 깊이 정보(310)를 통합하여 3차원 좌표들을 포함하는 3차원 좌표 정보(321)를 생성할 수 있다. 그리고, 자세 추정부(120)는 3차원 좌표 정보(321)를 이용하여 사람(301)의 3차원 자세를 추정할 수 있다.
도 6은 도 4에 도시된 촬영 이미지를 획득하는 단계 및 사람의 3차원 자세를 추정하는 단계의 다른 실시예를 설명하기 위한 흐름도이다.
도 6을 참조하면, 촬영 이미지는 사람(401a, 401b, 401c 또는 401d)이 이미지 센서(10)에 의해 실시간으로 촬영된 실시간 이미지(400a, 400b, 400c 또는 400d)일 수 있다. 실시간 이미지(400a, 400b, 400c 또는 400d)는 측정 장치가 사람(401a, 401b, 401c 또는 401d)을 촬영한 이미지일 수 있다.
도 6에 도시된 도면들은 순차적으로 시간을 흐름을 나타내는 것으로 가정한다. 이 경우, 도 6에 도시된 도면들 중 가장 왼쪽에 도시된 도면부터 가장 오른쪽에 도시된 도면까지, 사람(401a, 401b, 401c 또는 401d)이 걷는 자세를 취하는 것으로 가정한다. 이미지 획득부(110)는 실시간 이미지(400a, 400b, 400c 또는 400d)에서 사전에 지시된 동작을 나타내는 이미지(예를 들어, 도 5에 도시된 이미지(300))를 촬영 이미지로서 획득할 수 있다. 그리고, 자세 추정부(120)는 실시간 이미지(400a, 400b, 400c 또는 400d)에서 획득된 촬영 이미지를 기초로, 도 5를 참조하여 전술한 바와 유사하게, 사람(401a, 401b, 401c 또는 401d)의 2차원 신체 좌표 정보(402a, 402b, 402c 또는 402d)를 획득할 수 있다. 그리고, 도 5를 참조하여 전술한 바와 유사하게, 자세 추정부(120)는 실시간 이미지(400a, 400b, 400c 또는 400d)에서 획득된 촬영 이미지를 기초로 깊이 정보를 획득하고, 2차원 신체 좌표 정보(402a, 402b, 402c 또는 402d)와 깊이 정보를 통합하여 사람(401a, 401b, 401c 또는 401d)의 3차원 자세를 추정할 수 있다.
도 6에 도시된 실시예는 신체 기능 앰비언트 모니터링으로 지칭될 수 있다. 신체 기능 앰비언트 모니터링은 임상적 신체기능 평가에 대한 지식에 기반하여, 일상생활 속 동작을 분석하여 비침습적, 비구속적 방법으로 신체기능 및 낙상 위험도 연속적 평가, 노쇠 및 근감소증의 지속적 추적 관찰을 할 수 있게 해주는 방법론을 말한다.
이에 의하면, 비침습적, 비구속적 방식으로 일상생활 동작을 인식 및 분석하여 임상적으로 중요한 신체기능 평가를 가능하게 함으로써, 사용에 특별한 지식과 의지 없이도 쉽게 사용할 수 있어 친화적이고, 사용자의 신체기능을 연속적으로 모니터링하는 효과가 있다.
또한, 이에 의하면, 기존의 병원 환경에서의 평가나 웨어러블 디바이스를 이용한 평가에 비하여 쉽고 효율적으로 임상적으로 필요한 정보를 제공하는 효과가 있다.
도 7은 임상 판단 기준 지표의 일 실시예를 나타낸 그래프이다.
도 7을 참조하면, 임상 판단 기준 지표는 촬영 이미지에 나타난 사람의 자세에 따라서 결정될 수 있다. 예를 들면, 걷는 자세에서, 임상 판단 기준 지표는 보행 속도, 보행 안정성, 시간적 안정성, 및 공간적 안정성을 포함할 수 있다. 다른 예를 들면, 앉았다가 일어나는 자세에서, 임상 판단 기준 지표는 일어나는 속도, 상체 기울기, 슬관절 신전근 근력, 및 상지 보조 여부를 포함할 수 있다. 다른 예를 들면, 선 자세에서, 임상 판단 기준 지표는 무게 중심 흔들림 및 시상면 균형을 포함할 수 있다. 다른 예를 들면, 방향 전환하는 자세에서, 임상 판단 기준 지표는 무게 중심 편위 및 보행 안정성 변화를 포함할 수 있다. 다른 예를 들면, 손 뻗는 자세에서, 임상 판단 기준 지표는 무게 중심 흔들림, 무게 중심 편위, 및 상지 가동 범위를 포함할 수 있다.
도 7의 (a)를 참조하여 예를 들면, 사람의 자세가 걷는 자세인 경우, 동작 분석부(130)는 사람의 오른쪽 발목(RIGHT ANKLE) 및 왼쪽 발목(LEFT ANKLE) 각각의 3차원 좌표를 획득할 수 있다. 동작 분석부(130)는 오른쪽 발목(RIGHT ANKLE) 및 왼쪽 발목(LEFT ANKLE) 각각의 3차원 좌표의 거리를 시간에 따라 측정할 수 있다. 시간에 따른 양 발목(RIGHT ANKLE, LEFT ANKLE)의 3차원 좌표의 거리는 도 7의 (a)에 도시된 그래프와 같이 표현될 수 있다.
도 7의 (b)를 참조하여 예를 들면, 사람의 자세가 걷는 자세인 경우, 동작 분석부(130)는 3차원 좌표를 기초로 사람의 오른쪽 발목 속도(RIGHT ANKLE SPEED), 왼쪽 발목 속도(LEFT ANKLE SPEED), 및 고관절 속도(HIP SPEED)를 측정할 수 있다. 하지만, 이에 한정되는 것은 아니며, 동작 분석부(130)는 왼쪽 무릎속도, 오른쪽 무릎 속도, 오른쪽 발목 변위, 왼쪽 고관절 각속도 등 사람의 관절별 운동 지표(KINEMATIC PARAMETER)를 필요에 따라 측정할 수 있다. 시간에 따른 오른쪽 발목 운동 지표(RIGHT ANKLE KINEMATIC PARAMETER), 왼쪽 발목 운동 지표(LEFT KINEMATIC PARAMETER), 및 고관절 운동 지표(HIP KINEMATIC PARAMETER)는 도 7의 (b)에 도시된 그래프와 같이 표현될 수 있다. 여기서, 운동 지표(KINEMATIC PARAMETER)는, 예를 들어 관절별 변위(또는 이동 거리), 관절별 선속도(또는 선속력)일 수 있고, 관절별 각속도일 수 있으며, 관절별 선속도 및 각속도, 관절별 각변위를 포함할 수 있다. 하지만, 이에 한정되는 것은 아니며 운동 지표(KINEMATIC PARAMETER)는 다양한 운동형상학적 변수를 포함할 수 있다.
실시예에 따라, 동작 분석부(130)는 비틀림(torsion), 회전력(torque)등을 측정할 수도 있다.
도 8은 도 4에 도시된 임상 평가 정보 제공 방법의 변형 실시예를 설명하기 위한 흐름도이다.
도 8을 참조하면, 도 8에 도시된 임상 평가 정보 제공 방법은 촬영 이미지를 획득하는 단계(S100), 식별 가능한 신체 부위를 인공지능에 기반하여 비식별 처리하는 단계(S200), 사람의 3차원 자세를 추정하는 단계(S300), 사람의 동작을 분석하는 단계(S400), 및 임상 평가 정보를 생성 및 제공하는 단계(S500)를 포함할 수 있다. 도 8에 도시된 단계 S100, S300, S400, 및 S500은 각각 도 4에 도시된 단계 S10, S20, S30, 및 S40에 대응되므로, 이에 대한 설명은 생략된다.
단계 S200은 도 1을 참조하여 전술한 비식별 처리부(150)에 의해 수행되는 단계일 수 있다. 구체적으로, 촬영 이미지를 획득하는 단계(S100) 이후, 촬영 이미지에서 사람의 신체 부위들 중 사람을 식별할 수 있는 신체 부위를 인공지능에 기반하여 비식별 처리하는 단계(S200)가 수행된다.
전술한 바에 의하면, 촬영 이미지로부터 임상 평가 정보(신체기능 지표, 낙상 위험도, 노쇠 및 근감소증)를 도출함으로써 낙상을 사전에 방지하여 안전을 도모하는 효과가 있다.
또한, 전술한 바에 의하면, 인공지능 기술을 이용하여 동작 영상으로부터 자동으로 임상 평가 정보를 도출하므로, 임상 평가 정보를 보다 빠르고 정확하게 제공함으로써 검사 시간을 단축하고 보다 정밀하고 정확한 분석을 가능하게 하는 효과가 있다.
본 발명에 의하면, 특정 동작을 모바일 폰 또는 휴대 가능한 기기(타블렛 PC, 키넥트 등)으로 촬영하는 것만으로 실시간으로 임상적으로 유용한 지표를 객관적으로 제시하는 효과가 있다. 또한, 3차원 동작 분석을 통해 동작의 특징을 정량적으로 평가할 수 있어 낙상 위험도 등의 유의한 임상 정보를 정량적인 지표로 제공하는 효과가 있다. 또한, 모바일 어플리케이션 형태로 개발하여, 사용자가 간편하게 근감소증을 진단하거나 노쇠를 선별하는 데 활용할 수 있는 도구가 될 수 있다. 또한, 스마트 폰, 태블릿 PC를 소지한 누구나 영상을 촬영하고 본 발명이 적용된 모바일 어플리케이션을 통하여 접근함으로써 검사 비용을 절감시키는 효과가 있다. 또한, 환자나 노인들이 내원하지 않고도 자가에서 편하게 신체 능력을 평가함으로써 사람에게 편의성을 제공하는 효과가 있다. 또한, 코로나-19(COVID-19)로 인해 내원이 어려운 노인 환자들이나, 거동이 불편한 환자들을, 산간벽지의 환자들을 대상으로 원격진료 시 활용함으로써 사람에게 편의성을 제공하는 효과가 있다. 또한, 본 발명이 적용된 평가 도구를 주기적으로 사용하여 본인의 신체 건강 상태에 대해 지속적으로 모니터링함으로써 건강 증진을 도모하는 효과가 있다. 노쇠, 근감소증이 의심되는 경우, 환자를 대상으로 임상의들이 기존의 임상 평가 도구를 대체하여 환자의 신체 능력을 평가함으로써 임상의들에게 편의성을 제공하는 효과가 있다. 또한, 본 발명을 통해 의료서비스 제공자는 신체기능 평가 시 소모되는 인적, 시간적 자원을 줄일 수 있으며, 사용자는 보다 손쉽게, 정기적으로 본인의 신체기능에 대한 모니터링이 가능하다. 또한, 중재가 필요한 신체기능 저하자를 보다 이른 시점에 선별하는 효과가 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
1: 임상 평가 정보 제공 시스템
10 : 이미지 센서
100: 임상 평가 정보 제공 장치
110: 이미지 획득부
120: 자세 추정부
130: 동작 분석부
140: 임상 평가 정보 제공부
150: 비식별 처리부

Claims (12)

  1. 이미지를 이용하여 임상 평가 정보를 제공하는 장치에 의해 수행되는 방법에 있어서,
    적어도 하나의 이미지 센서로부터 사람을 나타내는 촬영 이미지를 획득하는 단계;
    상기 촬영 이미지를 기초로 RGB 영상 정보 및 상기 사람의 신체 부위 각각에 대한 깊이 정보 중 적어도 하나의 정보를 획득하고, 상기 적어도 하나의 정보를 기초로 상기 사람의 3차원 신체 좌표 정보를 획득하여 상기 사람의 3차원 자세를 추정하는 단계;
    상기 3차원 자세를 기초로 상기 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 상기 사람의 동작을 분석하는 단계; 및
    상기 임상 판단 기준 지표를 기초로 상기 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부 중 적어도 하나를 포함하는 임상 평가 정보를 생성 및 제공하는 단계를 포함하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  2. 제1 항에 있어서,
    상기 사람의 3차원 자세를 추정하는 단계는,
    상기 촬영 이미지를 기초로 RGB 영상 정보 및 상기 깊이 정보를 획득하고, 2차원 자세 추정 알고리즘을 사용하여 상기 RGB 영상 정보로부터 복수의 2차원 신체 좌표들을 2차원 신체 좌표 정보로서 획득하고, 상기 2차원 신체 좌표 정보와 상기 깊이 정보를 통합하여 상기 3차원 신체 좌표 정보를 획득하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  3. 제2 항에 있어서,
    상기 사람의 자세는,
    걷는 자세, 앉았다가 일어나는 자세, 선 자세, 방향 전환하는 자세, 및 손 뻗는 자세 중 적어도 하나를 포함하고,
    상기 사람의 동작을 분석하는 단계는,
    상기 걷는 자세의 경우, 보행 속도, 보행 안정성, 및 질량 중심 움직임 및 보행 양상을 분석하고,
    상기 앉았다가 일어나는 자세의 경우, 일어나는 속도, 상체 기울기, 신체 부위의 지지, 및 질량 중심 흔들림을 분석하고,
    상기 선 자세의 경우, 질량 중심 흔들림 및 시상면 균형을 분석하고,
    상기 방향 전환하는 자세의 경우, 질량 중심 흔들림, 보행 안정성 변화를 분석하고,
    상기 손 뻗는 자세의 경우, 질량 중심 흔들림 및 상지의 가동 범위를 분석하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  4. 제3 항에 있어서,
    상기 임상 평가 정보를 생성 및 제공하는 단계는,
    상기 보행 속도를 기초로 상기 신체 능력 점수를 측정 및 상기 근감소증 여부에 대해 판단하고, 상기 보행 안정성을 통해 상기 낙상 위험도를 도출하고,
    상기 일어나는 속도를 기초로 상기 신체 능력 점수를 측정하고, 상기 상체 기울기, 상기 신체 부위의 지지를 기초로 상기 사람의 하지의 근력을 계산하여 상기 근감소증 여부에 대해 판단하고,
    상기 질량 중심 흔들림 및 상기 시상면 균형을 기초로 상기 신체 능력 점수를 측정하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  5. 제4 항에 있어서,
    상기 촬영 이미지는,
    상기 사람이 상기 임상 판단 기준 지표를 추출하기 위해 사전에 지시된 동작을 수행한 상태를 나타내는 이미지이고,
    상기 촬영 이미지를 획득하는 단계는,
    상기 이미지를 상기 촬영 이미지로서 획득하고,
    상기 사람의 3차원 자세를 추정하는 단계는,
    상기 이미지를 기초로 상기 2차원 신체 좌표 정보 및 상기 깊이 정보를 획득하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  6. 제4 항에 있어서,
    상기 촬영 이미지는,
    상기 사람이 상기 적어도 하나의 이미지 센서에 의해 실시간으로 촬영된 실시간 이미지이고,
    상기 촬영 이미지를 획득하는 단계는,
    상기 실시간 이미지에서 상기 임상 판단 기준 지표를 추출하기 위해 사전에 지시된 동작을 나타내는 이미지를 상기 촬영 이미지로서 획득하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  7. 제1 항에 있어서,
    상기 촬영 이미지를 획득하는 단계 이후, 상기 촬영 이미지에서 상기 사람의 신체 부위들 중 상기 사람을 식별할 수 있는 신체 부위를 인공지능에 기반하여 비식별 처리하는 단계를 더 포함하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  8. 제1 항에 있어서,
    상기 적어도 하나의 이미지 센서는,
    RGB 카메라, 뎁스(depth) 센서 및 라이다(LiDAR) 중 적어도 하나를 포함하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  9. 제1 항에 있어서,
    상기 사람의 3차원 자세를 추정하는 단계는,
    상기 촬영 이미지로부터 상기 RGB 영상 정보를 획득하고, 3차원 좌표 추출 알고리즘을 이용하여 상기 RGB 영상 정보로부터 상기 3차원 신체 좌표 정보를 획득하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  10. 제1 항에 있어서,
    상기 사람의 3차원 자세를 추정하는 단계는,
    상기 촬영 이미지로부터 상기 깊이 정보를 획득하고, 상기 깊이 정보를 기초로 상기 3차원 신체 좌표 정보를 획득하는 것을 특징으로 하는, 이미지를 이용하여 임상 평가 정보를 제공하는 방법.
  11. 적어도 하나의 이미지 센서로부터 사람을 나타내는 촬영 이미지를 획득하는 이미지 획득부;
    상기 촬영 이미지를 기초로 RGB 영상 정보 및 상기 사람의 신체 부위 각각에 대한 깊이 정보 중 적어도 하나의 정보를 획득하고, 상기 적어도 하나의 정보를 기초로 상기 사람의 3차원 신체 좌표 정보를 획득하여 상기 사람의 3차원 자세를 추정하는 자세 추정부;
    상기 3차원 자세를 기초로 상기 사람의 자세에 따른 임상 판단 기준 지표를 분석함으로써 상기 사람의 동작을 분석하는 동작 분석부; 및
    상기 임상 판단 기준 지표를 기초로 상기 사람의 신체 능력 점수, 근감소증 여부, 낙상 위험도, 및 노쇠 여부 중 적어도 하나를 포함하는 임상 평가 정보를 생성 및 제공하는 임상 평가 정보 제공부를 포함하는, 이미지를 이용하여 임상 평가 정보를 제공하는 장치.
  12. 제1 항에 따른 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 비일시적 컴퓨터 판독 가능 기록 매체.
KR1020210186664A 2021-12-24 2021-12-24 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치 KR20230097298A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210186664A KR20230097298A (ko) 2021-12-24 2021-12-24 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치
PCT/KR2022/021146 WO2023121376A1 (ko) 2021-12-24 2022-12-23 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210186664A KR20230097298A (ko) 2021-12-24 2021-12-24 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20230097298A true KR20230097298A (ko) 2023-07-03

Family

ID=86903162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210186664A KR20230097298A (ko) 2021-12-24 2021-12-24 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230097298A (ko)
WO (1) WO2023121376A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210115450A (ko) 2020-03-13 2021-09-27 (주)옵토닉스 낙상 예방을 위한 하이브리드 보행 분석장치 및 그를 포함하는 낙상 예방 관리시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200088562A (ko) * 2019-01-15 2020-07-23 주식회사 케이티 심층 신경망을 이용한 동작 및 근력 분석 방법 및 시스템
KR20200095195A (ko) * 2019-01-31 2020-08-10 (주)유인케어 Rgb-d 카메라를 이용한 재활훈련 시스템 및 방법
KR102060761B1 (ko) * 2019-04-09 2019-12-30 주식회사 에이치랩 기계 학습을 활용한 rf 기반의 낙상 판단 시스템 및 그의 낙상 판단 방법
KR102536425B1 (ko) * 2020-03-30 2023-05-25 주식회사 라온잇 헬스 케어 장치, 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210115450A (ko) 2020-03-13 2021-09-27 (주)옵토닉스 낙상 예방을 위한 하이브리드 보행 분석장치 및 그를 포함하는 낙상 예방 관리시스템

Also Published As

Publication number Publication date
WO2023121376A1 (ko) 2023-06-29

Similar Documents

Publication Publication Date Title
US9996739B2 (en) System and method for automatic gait cycle segmentation
CN109815858B (zh) 一种日常环境中的目标用户步态识别系统及方法
JP6433805B2 (ja) 運動機能診断装置及び方法、並びにプログラム
Similä et al. Accelerometry-based berg balance scale score estimation
Orange et al. Validity of various portable devices to measure sit-to-stand velocity and power in older adults
JP2021030051A (ja) 転倒リスク評価方法、転倒リスク評価装置及び転倒リスク評価プログラム
Baroudi et al. Estimating walking speed in the wild
Lee et al. Analysis of gait sub-movements to estimate ataxia severity using ankle inertial data
Ilg et al. Quantitative gait and balance outcomes for ataxia trials: consensus recommendations by the ataxia global initiative working group on digital-motor biomarkers
Jovanov et al. A mobile system for assessment of physiological response to posture transitions
EP3808268B1 (en) System and method for shoulder proprioceptive analysis
CN112438723A (zh) 认知功能评估方法、认知功能评估装置以及存储介质
Pogorelc et al. Medically driven data mining application: Recognition of health problems from gait patterns of elderly
Dolatabadi et al. A markerless motion tracking approach to understand changes in gait and balance: A case study
Ripic et al. Prediction of gait kinetics using Markerless-driven musculoskeletal modeling
KR20230097298A (ko) 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치
Blasco-García et al. A computer vision-based system to help health professionals to apply tests for fall risk assessment
Hellmers et al. Validation of a motion capture suit for clinical gait analysis
Abe et al. Relationship Between the Results of Arm Swing Data From the OpenPose-Based Gait Analysis System and MDS-UPDRS Scores
CN113271848A (zh) 身体健康状态影像分析装置、方法以及系统
Lau et al. Kinect-based knee osteoarthritis gait analysis system
Clarke Validation of a novel 2D motion analysis system to the gold standard in 3D motion analysis for calculation of sagittal plane kinematics
Pochappan et al. Mobile clinical gait analysis using orient specks
Madhana et al. System for classification of human gaits using markerless motion capture sensor
Qin et al. A smart phone based gait monitor system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal