KR102411765B1 - 신경망을 이용한 바른 자세 추정 시스템 및 그 방법 - Google Patents

신경망을 이용한 바른 자세 추정 시스템 및 그 방법 Download PDF

Info

Publication number
KR102411765B1
KR102411765B1 KR1020210169770A KR20210169770A KR102411765B1 KR 102411765 B1 KR102411765 B1 KR 102411765B1 KR 1020210169770 A KR1020210169770 A KR 1020210169770A KR 20210169770 A KR20210169770 A KR 20210169770A KR 102411765 B1 KR102411765 B1 KR 102411765B1
Authority
KR
South Korea
Prior art keywords
user
neural network
data
interest
posture
Prior art date
Application number
KR1020210169770A
Other languages
English (en)
Inventor
안수현
이주연
한지수
Original Assignee
안수현
이주연
한지수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안수현, 이주연, 한지수 filed Critical 안수현
Priority to KR1020210169770A priority Critical patent/KR102411765B1/ko
Application granted granted Critical
Publication of KR102411765B1 publication Critical patent/KR102411765B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4561Evaluating static posture, e.g. undesirable back curvature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Evolutionary Computation (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시예에 따른 바른 자세 추정 시스템은, 사용자의 일면을 촬상하여, 촬상된 데이터를 적절히 변환한 뒤, 변환된 출력물에 대해, 관심영역의 추출 및 추출된 영역의 연산과 신경망 학습을 통해, 바른 자세와 바르지 못한 자세를 빠르고 정확하게 추정할 수 있는 것을 특징으로 한다.

Description

신경망을 이용한 바른 자세 추정 시스템 및 그 방법{Correct posture estimation system and method using neural network}
본 발명은 자세 추정에 대한 기술 중, 바른 자세 추정 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 신경망을 이용하여 바른 자세 여부를 추정할 수 있는 시스템 및 방법에 관한 것이다.
현대인의 높은 수준의 스마트폰 사용률과 더불어 코로나19로 인해 재택근무, 온라인 수업이 확대됨에 따라 여러 전자기기 사용률이 증가하고 있다. 이러한 전자기기 사용시 기기의 특성상 주로 앉은 자세로 사용하게 되며 또한, 현 상황에서 업무와 학습으로 인해 앉아있는 시간이 길어지고 있다. 장시간 앉아있으면 바른 자세를 유지하기 어렵고, 바른 자세가 무너지면 여러 질환을 유발할 수 있다는 문제점이 있다.
이렇듯, 정상 범위를 넘어가는 잘못된 체형과 그러한 체형을 유도하는 그른 자세를 교정하는 대표적인 방법은 전문가의 도움을 받거나 관련 전문 의학 기기를 활용하는 방식이 유일하다고 볼 수 있다. 이러한 기존의 방식은 상황에 따라 상당량의 경제적인 손실과 시간의 소모를 요구한다. 따라서 경제적, 시간적 여유가 부족한 경우 원활한 교정에 어려움을 겪을 수 있다.
그러므로, 이러한 바른 자세와 바르지 못한 자세를 인식하여, 사용자에게 바른 자세에 대해 알려줄 수 있는 여러 기술의 필요성이 높아지고 있다.
종래 기술로는 사람의 관절을 인식하는 Openpose 등과 같은 소프트웨어를 이용하여, 자세를 구분하는 기술들이 있었다, 하지만, 이러한 기술은 사용자가 팔을 벌리거나, 걷거나 하는 등의 큰 동작들에 대해서는, 머리, 팔, 손, 다리 등의 관절을 잘 인식하는 반면 팔과 몸통이 거의 붙어 있는 앉아있거나 누워있는 자세 등에 대해서는 인식률이 높지 못하다는 문제점이 있었다.
따라서, 전술한 문제를 해결하기 위하여 인식률을 높이면서, 빠르게 바른 자세인지 여부를 추정할 수 있는 시스템과 방법에 대한 연구가 필요하게 되었다.
대한민국 등록 특허 제10-1851099호(2018년04월20일 공고)
영상인식 기반 자세교정 시스템, 한국정보과학회 학술발표논문집 2020, p1333-1335
본 발명의 목적은 인공지능을 이용하여 무인화/자동화된 자세 인식 및 교정 시스템 및 그 방법을 제공하여, 또한 사용자들에게 바른 자세에 대한 경각심을 같게 하고, 더 나아가 바르지 못한 자세로 인해 발생하는 사용자들의 여러 질병을 예방하려고 한다.
또한 본 발명은 손과 발과 같은 신체의 일 부위를 인식하여, 자세를 추정하는 종래 방식의 경우, 해당 신체 부위가 숨겨지거나 겹쳐있을 수 있는 앉아있는 자세에서의 인식률이 높지 않은 문제를 다른 방식의 관심이 있는 영역을 분리하고, 이후 빠른 연산이 가능한 이미지 데이터 연산 방법을 신경망 이론에 접목하여, 빠르면서도 트레이닝을 거쳐 인식률을 높일 수 있는 바른 자세 추정 시스템 및 방법을 제공하는데 다른 목적이 있다.
본 발명의 일 실시예에 따른 바른 자세 추정 시스템은, 사용자의 일면을 촬상하는 센서부, 상기 센서부로부터 촬상된 데이터를 이미지 파일로 변환하여 저장하는 저장부, 상기 저장부에 저장된 이미지 파일로부터 사용자 영역과 주변 영역을 포함하는 복수의 관심영역을 추출하고, 상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 판단부를 포함한다.
또한 본 발명은 상기 판단부에서 사용하는 상기 특정한 데이터값은 RGB 데이터인 것을 특징으로 한다.
또한 본 발명은 상기 판단부에서 상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역에 대한 상기 복수의 RGB 데이터의 평균값을 획득하고, 상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력하는 것을 특징으로 한다.
또한 본 발명은 상기 신경망 모델은 퍼셉트론 모델인 것을 특징으로 한다.
또한 본 발명의 바른 자세 추정방법은 사용자의 일면을 촬상하는 단계, 촬상된 데이터를 이미지 파일로 변환하는 단계, 상기 변환된 이미지 파일에서 사용자를 포함하는 사용자 영역과 상기 사용자 영역이 아닌 주변 영역을 포함하는 복수의 관심영역(ROI, Region Of Interest)을 추출하는 단계, 상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 단계를 포함하는 것을 특징으로 한다.
또한 본 발명의 바른 자세 추정방법은 상기 특정한 데이터값은 RGB 데이터인 것을 특징으로 한다.
또한 상기 바른자세 여부를 판단하는 단계는, 상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역에 대한 상기 복수의 RGB 데이터의 평균값을 획득하는 단계, 상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력하는 단계를 더 포함하는 것을 특징으로 한다.
또한 상기 신경망 모델을 입력하는 단계 이후,상기 입력에 따른 상기 신경망 모델의 활성화 함수의 출력값과 상기 트레이닝된 임계값을 비교하는 단계, 상기 활성화 함수의 출력값이 상기 임계값보다 크거나 같은 경우, 상기 사용자의 자세가 바른 자세라고 추정하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 상기 신경망 모델은 퍼셉트론 모델인 것을 특징으로 한다.
또한, 상기 상기 사용자 영역과 상기 주변 영역의 구분을 위해, 상기 사용자를 객체로 인식하는 객체인식 알고리즘을 사용하는 것을 특징으로 한다.
본 발명의 바른 자세 추정 시스템 및 방법은 바른 자세를 추정함에 있어서, 신체 각 일부의 인식이 어려운 앉은 자세에 대해서도 다른 방식에 비해 상대적으로, 연산량이 많지 않으면서도 정확하게 바른 자세를 추정할 수 있다는 효과를 제공한다.
또한, 본 발명은 이미지 데이터의 연산에 의해서만 자세를 추정하는 경우, 다른 이미지 환경에서 인식률이 급격하게 떨어지는 문제점을 신경망 학습을 통해 다양한 이미지 배경 환경에서도 자세 인식 및 추정에 유리한 효과가 있다.
또한, 본 발명은 촬상된 이미지에 대해서 관심영역을 분리하고, 분리된 영역별로 데이터를 연산하고 이를 선택적으로 학습시켜, 신경망 학습량을 줄이면서도 동시에 높은 정확도를 제공할 수 있는 효과가 있다.
도 1은 바른 자세 추정 시스템의 주요 구성을 도시한 블록선도이다.
도 2는 바른 자세 추정 방법의 주요 단계를 설명한 흐름선도이다.
도 3은 바른 자세 추정 방법 중, 바른 자세 여부 판단단계의 세부 단계들을 설명한 흐름선도이다.
도 4는 바른 자세 추정 방법을 위해, 촬상된 이미지로부터 복수의 관심영역(ROI)을 구분한 예시도이다.
이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 바른 자세 추정 시스템의 전체 구성을 도시한 블록선도이다.
상기 바른 자세 추정 시스템(10000)은 사용자로부터 특정한 정보를 획득하고, 획득된 정보에 기반하여 사용자의 자세가 바른지 여부를 판단하는 시스템으로, 특히 앉아 있는 자세가 바른지 여부를 판단하는 것을 목적으로 하고 있다.
상기 바른 자세 추정 시스템(1000)는 프로세서(1200)에 의해 수행되며, 세부 구성으로는 사용자의 일면을 촬상하는 센서부(1100), 상기 센서부(1100)로부터 촬상된 데이터를 이미지 파일로 변환하여 저장하는 저장부(1300), 상기 저장부(1300)에 저장된 이미지 파일로부터 사용자 영역과 주변 영역을 포함하는 복수의 관심영역을 추출하는 기능을 수행하는 판단부(1400)를 포함한다.
상기 판단부(1400)의 경우, 또한 상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 기능을 수행한다.
보다 구체적으로 상기 판단부(1400)에서 사용하는 상기 특정한 데이터값은 RGB 데이터일 수 있다. 즉, 픽셀의 Red, Green, Blue의 정도를 디지털화한 값을 픽셀값으로 정의하고, 이후 다양한 연산에 사용할 수 있다.
또한, 상기 판단부(1400)에서는 상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역(ROI)에 대한 상기 복수의 RGB 데이터의 평균값을 획득할 수 있다. 그 이후, 상기 판단부(1400)는 상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력한다.
이 때, 상기 신경망 모델은 일 실시예로 퍼셉트론 모델일 수 있다.
이후, 바른 자세를 추정하기 위해서, 상기 판단부(1400)에서는 상기 입력에 따른 상기 신경망 모델의 활성화 함수의 출력값과 상기 트레이닝된 신경망으로부터 획득한 임계값을 비교한다. 그 이후, 상기 활성화 함수의 출력값이 상기 임계값보다 크거나 같은 경우, 상기 사용자의 자세가 바른 자세라고 추정할 수 있다.
상기 저장부(1300)의 경우, 데이터들의 저장을 위한 기능을 수행하면, 메모리, SSD 등의 형태로 구현될 수 있다.
또한, 상기 바른 자세 추정 시스템(10000)은 상기 판단부(1400)에서 판단한 바른 자세 여부의 결과를 사용자에게 피드백할 수 있는 디스플레이부(1500)를 더 포함할 수 있다. 상기 디스플레이부(1500)는 시각적인 정보를 사용자에게 전달하여 바른 자세가 아닌 경우, 사용자가 경각심을 가지고 자세를 수정할 수 있도록 하는 기능을 제공하며, 추가적으로 음성 출력 장치 등을 더 포함할 수도 있다.
또한 상기 바른 자세 추정 시스템(10000)은 외부의 서버(도면부호 미도시)와 상술한 여러 종류의 데이터들을 송신 또는 수신할 수 있는 통신부(1600)를 더 포함할 수 있다. 상기 통신부(1600)을 통해 후술되는 서버에 다양한 데이터들을 전송함으로써, 많은 연산량을 필요로 하는 신경망 학습 등을 필요에 따라 외부의 서버에서 수행하도록 할 수도 있고, 더 나아가 다양한 사용자들의 자세 이미지를 획득하고, 이를 신경망 학습에 사용함으로써, 점점 더 학습이 정확하게 수행될 수 있도록 할 수 있다.
상기 외부의 서버는 상술한 것과 같이 다양한 사용자들의 자세 이미지들에 대해서 상기 바른 자세 추정 시스템(1000)에서 수행한 것과 유사하게 퍼셉트론 신경망과 관심영역 구분과 관련된 객체인식 알고리즘을 수행할 수 있다.
이 경우, 상기 외부의 서버는 복수의 바른 자세 추정 시스템(10000)의 통신부(1600)와 사용자와 관련된 데이터들을 송신 또는 수신하게 되며, 특히 상기 데이터들은 사용자의 개인 정보와도 밀접한 연관이 있으므로, 보안이 적용된 데이터 암호화 방식이 적용되는 것이 바람직하다.
구체적으로, 상기 데이터 암호화 방식은 상기 외부의 서버와 상기 복수의 바른 자세 추정 시스템(10000)과의 전체 송수신 데이터 사이즈를 고려하여, 데이터의 암/복호화와 관련된 컴퓨팅 파워가 종래의 단방향 해쉬함수(예를 들어 AES)에 비해, 상대적으로 낮게 소요되며, 연산 속도도 상대적으로 빠른 라이트웨이트(lightweight) 해쉬함수가 사용될 수도 있다.
보다 구체적으로, 상기 라이트웨이트 해쉬함수의 경우, 연산 속도를 높이기 위해, 상대적으로 낮은 비트(예를 들어, 8 bit)의 XOR 연산을 이용하여 라운드 함수를 구현하고, 이러한 라운드 함수를 반복적으로 사용하도록 구현할 수 있다.
또한, 상기 라이트웨이트 해쉬함수의 경우, 상술한 라운드 함수 내에서 적절히 비트 치환(Bitwise Permutaion)을 활용하여, 라운드 함수를 구현하는 것이다. 이러한 비트 치환 연산의 부가로 연산속도는 크게 떨어트리지 않으면서도 암호화의 복잡도를 증대시킬 수 있다.
결과적으로, 위의 낮은 비트 수의 XOR 연산과 비트 치환을 이용한 라운드 함수를 통한 라이트웨이트 해쉬함수를 구현함으로써, 낮은 비트 수의 연산의 경우, 복호화가 상대적으로 쉬워 해킹의 위험도가 증가되는 데, 이러한 두가지 방식의 적용을 통해 암호화의 복잡도를 증가시킬 수 있다.
바람직하게는 상기 라이트웨이트 해쉬함수의 일 실시예로, 경량 블록암호 PRENSENT를 사용할 수도 있다.
결과적으로, 본원 발명은 손, 다리 등 특정 객체에 대해서 인식할 필요성이 낮고, 상대적으로 연산량이나 신경망의 학습량이 적은 픽셀들로부터 도출되는 정량적인 데이터값(픽실들이 표현하는 RGB 값)에 기반하여, 바른 자세와 바르지 못한(그른) 자세를 빠르고 정확하게 구분할 수 있다는 장점이 있다.
또한, 본 발명에서 정의하고 있는, 바른 자세와 바르지 못한(그른) 자세의 기준은 사용자의 측면 사진을 촬상하고, 촬상된 사진에서 복수개의 영역을 구분한 뒤, 구분된 영역 픽셀들의 RGB 값을 획득한다. 이후 획득한 RGB 값들에 대해서 퍼셉트론을 통해, 활성화 함수로 전달되고, 이후 학습을 통해, 바른 자세 및 그른 자세를 구분하도록 기 획득된 임계값과 비교하여, 해당 임계값보다 작은 경우, 그른 자세로 분류한다.
특히, 사용자에 대해서 측면 사진을 촬상하게 되면, 바른 자세의 경우, 목과 허리가 몸통에 연결되는 각도가 바닥면을 기준으로 수직에 가깝게 된다. 즉, 이 경우, 바닥면에 대해서 특정한 넓이로 결정되는 영역 내에 목, 허리, 몸통이 모두 위치하게 된다. 반면, 책상 등의 특정한 구조에 엎드리거나 후면 방향으로 눕게 되면, 바르지 못한 자세로 인식할 수 있는데, 이 경우, 상기 특정한 넓이로 결정되는 영역 내에 목, 허리, 몸통이 모두 위치되지 못하고 분산하여 위치하게 된다.
또한, 특정 영역에 이러한 몸의 구성들이 모여있는지 여부는 해당 영역에서의 복수의 픽셀들이 표현하는 RGB 값(픽셀값)들을 더한 값을 다른 영역의 RGB 값들과 비교하는 방식을 통해 추정할 수 있다.
특히 바른 자세, 혹은 바르지 못한 자세들에 대해서, 이러한 영역내 복수의 픽셀들의 RGB 값들의 평균값들을 신경망 알고리즘인 퍼셉트론에 적용하여 학습(training)시키고, 이 때 생성된 평가모델에 추후 특정 영역의 픽셀들의 RGB 평균값을 입력하여, 바른 자세와 바르지 못한 자세를 구분할 수도 있다.
또한, 상기 사용자의 일면은 바람직하게는 사용자의 측면일 수 있고, 상기 센서부는 이미지 센서를 포함한 촬상 장치로서, 결과적으로 상기 촬상된 데이터는 상기 사용자의 측면을 포함한 이미지 데이터일 수 있다.
또한, 상기 사용자 영역과 상기 주변 영역의 구분을 위해, 상기 사용자를 객체로 인식하는 객체인식 알고리즘을 사용할 수 있다.
보다 구체적으로, 상기 객체 인식 알고리즘은 FAST R-CNN을 사용하는 것이 바람직하여, 이를 통해, 전체 이미지 영역에서 객체인 사람이 위치하는 영역을 빠르고 정확하게 추출할 수 있다. 상기 FAST R-CNN 알고리즘의 활용을 통해, 전체 이미지 영역에서 사람이 앉아있는 주요 관심영역을 매우 빨리 학습시킬 수 있다는 장점을 제공할 수 있다.
도 2 내지 3은, 본원 발명의 바른 자세 추정 방법을 흐름도의 형태로 도시한 것이다.
보다 구체적으로, 상기 바른 자세 추정 방법은 사용자의 일면을 촬상하는 단계(S100), 촬상된 데이터를 이미지 파일로 변환하는 단계(S200), 상기 변환된 이미지 파일에서 사용자를 포함하는 사용자 영역과 상기 사용자 영역이 아닌 주변 영역을 포함하는 복수의 관심영역(ROI, Region Of Interest)을 추출하는 단계(S300),상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 단계(S400)를 포함한다. 이 때 개별 단계(S100, S200, S300)의 주요 동작 방식은 전술한 바른 자세 추정 시스템에 기술되어 있으므로, 생략하기로 한다.
또한, 보다 구체적으로, 상기 바른자세 여부를 판단하는 단계(S400)는 상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역에 대한 상기 복수의 RGB 데이터의 평균값을 획득하는 단계(S401), 상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력하는 단계(S402),상기 입력에 따른 상기 신경망 모델의 활성화 함수의 출력값과 상기 트레이닝된 임계값을 비교하는 단계(S403), 상기 활성화 함수의 출력값이 상기 임계값보다 크거나 같은 경우, 상기 사용자의 자세가 바른 자세라고 추정하는 단계(S404)를 더 포함한다.
보다 구체적으로 전술한 것과 같이 상기 신경망 모델은 퍼셉트론 모델일 수 있으며, 추가적으로 후술되는 것과 같이 상기 사용자 영역과 상기 주변 영역의 구분을 위해, 상기 사용자를 객체로 인식하는 객체인식 알고리즘을 사용할 수도 있다.
도 4는 상기 바른 자세 추정 시스템과 추정 방법에서, 상기 판단부(1400)에 의해, 복수의 관심영역(ROI)을 ROI, ROI_1, ROI_2, ROI_3, ROI_4로 추출한 것을 예시적으로 도시한 것이다. 예시적으로, 도 4의 왼쪽에 도시된 경우가 바른 자세라고 정의될 수 있으며, 중앙과 오른쪽에 도시된 경우는 모두 바르지 못한(그른) 자세라고 정의될 수 있다.
이 때, 도 4에서도 확인할 수 있듯이, 자세에 따라 픽셀값이 주로 변하는 곳은 roi_2, roi_3, roi_4이다. 이때 가운데 사진과 가장 오른쪽 사진을 비교했을 때, roi_4에 비해 roi_2가 더 큰 변화를 보인다고 추정할 수 있다. 뿐만 아니라, 이 사진의 경우, 어떤 작업을 하는 데 있어 사람들이 주로 취하는 그른 자세는 roi_2에 큰 변화를 가져온다는 점을 관찰할 수 있었다. 이런 점들을 고려하여, 특정 영역(이 경우는 ROI_2, ROI_3)에 따른 자세 유형을 학습하는 것이 바른 자세 유무의 판단에 연관이 높다고 생각되어 이를 후술되는 구현에 반영하였다.
도시되지는 않았지만, 추출된 복수의 관심영역(ROI)를 넘버링한 뒤 그 RGB에 대한 산점도를 도시하면, 붉은 점들은 바른 자세의 픽셀값(RGB값)의 평균이고, 푸른 점들은 바르지 못한 자세의 픽셀값 평균들을 나타내도록 표시될 수 있으며, 이 데이터들이 퍼셉트론에서 입력으로 활용된다. 이러한 분석에서 바른 자세의 픽셀값들이 바르지 못한 자세의 픽셀값들보다 크다는 것을 추정할 수 있다. 따라서 이러한 분석을 바탕으로 바른 자세의 유무를 판단할 수 있는 임계값을 결정하였다. 또한 이 임계값의 경우, 더 많은 입력 데이터들이 퍼셉트론에 입력될 수록 변화할 수 있으며 좀더 정확하게 바른 자세를 추정할 수 있게 된다.
본 발명에 따른 신경망을 이용한 바른 자세 추정 시스템은, 복수의 픽셀로부터 RGB 데이터를 CSV 파일의 형태로 생성하여 저장하고 이에 대한 데이터 처리를 할 수 있으며, 데이터를 저장할 CSV 파일을 오픈하고, 이미지 파일로부터 픽셀값(RGB)으로 변환하여 반복적으로 저장하는 기능과, 상기 판단부(1400)에서 설정한 복수의 관심영역(ROI)를 기준으로 픽셀값의 평균을 구하는 기능을 수행한다.
전술하였던 외부 서버의 경우, 매우 많은 사용자의 이미지 데이터들을 수신해야 하는 경우, 퍼셉트론으로 학습시켜 임계값을 업데이트 하는 역할을 수행할 수 있다. 이 경우, 매우 많은 사용자의 이미지 데이터들을 상기 바른 자세 추정 시스템(10000)만으로 학습하기 어려울 수 있는 문제점을 보완할 수 있고, 상기 외부 서버로부터 업데이터된 임계값을 상기 바른 자세 추정 시스템의 판단부(1400)에서 사용하므로써 학습량이 늘어남에 따라 점점 정확하게 바른 자세의 유무를 판단하게 할 수 있다.
삭제
삭제
삭제
삭제
삭제
10000 : 바른 자세 추정 시스템
1100 : 센서부
1200 : 프로세서
1300 : 저장부
1400 : 판단부
1500 : 디스플레이부
1600 : 통신부

Claims (11)

  1. 프로세서에 의해 수행되는 바른 자세 추정 시스템으로,
    사용자의 일면을 촬상하는 센서부;
    상기 센서부로부터 촬상된 데이터를 이미지 파일로 변환하여 저장하는 저장부;
    상기 저장부에 저장된 이미지 파일로부터 사용자 영역과 주변 영역을 포함하는 복수의 관심영역을 추출하고, 상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 판단부;를 포함하며,
    상기 판단부에서 사용하는 상기 특정한 데이터값은 RGB 데이터인 것을 특징으로 하며,
    상기 판단부에서 상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역에 대한 상기 복수의 RGB 데이터의 평균값을 획득하고,
    상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력하는 것을 특징으로 하며,
    상기 신경망 모델은 퍼셉트론 모델인 것을 특징으로 하며,
    상기 판단부는,
    상기 입력에 따른 상기 신경망 모델의 활성화 함수의 출력값과 상기 트레이닝된 임계값을 비교하고,
    상기 활성화 함수의 출력값이 상기 임계값보다 크거나 같은 경우, 상기 사용자의 자세가 바른 자세라고 추정하는 것을 특징으로 하며,
    상기 바른 자세 추정 시스템은,
    복수의 픽셀들로부터 RGB 데이터를 CSV 파일 형태로 생성, 저장 및 처리하기 위하여 데이터를 저장할 CSV 파일을 오픈하고, 상기 이미지 파일로부터 픽셀값(RGB)으로 변환하여 반복적으로 저장하며, 복수의 관심영역을 기준으로 각각 픽셀값의 평균을 구하는 것을 특징으로 하는 신경망을 이용한 바른 자세 추정 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 프로세서에 의해 수행되는 바른 자세 추정 방법으로,
    상기 바른 자세 추정 방법은
    사용자의 일면을 촬상하는 단계;
    촬상된 데이터를 이미지 파일로 변환하는 단계;
    상기 변환된 이미지 파일에서 사용자를 포함하는 사용자 영역과 상기 사용자 영역이 아닌 주변 영역을 포함하는 복수의 관심영역(ROI, Region Of Interest)을 추출하는 단계;
    상기 복수의 관심영역 내 복수의 픽셀들을 획득하여, 상기 픽셀들로부터 특정한 데이터값을 추출하여 연산함으로써, 바른자세 여부를 판단하는 단계;를 포함하며,
    상기 특정한 데이터값은 RGB 데이터인 것을 특징으로 하며,
    상기 바른자세 여부를 판단하는 단계는,
    상기 픽셀들로부터 RGB 데이터를 추출한 이후, 상기 복수의 관심영역에 대한 상기 복수의 RGB 데이터의 평균값을 획득하는 단계;
    상기 관심영역의 RGB 데이터의 평균값을 이미 트레이닝된 신경망 모델에 입력하는 단계를 더 포함하며,
    상기 신경망 모델을 입력하는 단계 이후,
    상기 입력에 따른 상기 신경망 모델의 활성화 함수의 출력값과 상기 트레이닝된 임계값을 비교하는 단계;
    상기 활성화 함수의 출력값이 상기 임계값보다 크거나 같은 경우, 상기 사용자의 자세가 바른 자세라고 추정하는 단계를 더 포함하며,
    상기 신경망 모델은 퍼셉트론 모델인 것을 특징으로 하며,
    상기 사용자 영역과 상기 주변 영역의 구분을 위해, 상기 사용자를 객체로 인식하는 객체인식 알고리즘을 사용하는 것을 특징으로 하며,
    상기 촬상된 데이터를 이미지 파일로 변환하는 단계 내지 상기 바른자세 여부를 판단하는 단계에서 복수의 픽셀들로부터 RGB 데이터를 CSV 파일 형태로 생성, 저장 및 처리하기 위하여 데이터를 저장할 CSV 파일을 오픈하고, 상기 이미지 파일로부터 픽셀값(RGB)으로 변환하여 반복적으로 저장하며, 복수의 관심영역을 기준으로 각각 픽셀값의 평균을 구하는 것을 특징으로 하는 신경망을 이용한 바른 자세 추정 방법.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
KR1020210169770A 2021-12-01 2021-12-01 신경망을 이용한 바른 자세 추정 시스템 및 그 방법 KR102411765B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210169770A KR102411765B1 (ko) 2021-12-01 2021-12-01 신경망을 이용한 바른 자세 추정 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210169770A KR102411765B1 (ko) 2021-12-01 2021-12-01 신경망을 이용한 바른 자세 추정 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR102411765B1 true KR102411765B1 (ko) 2022-06-22

Family

ID=82216752

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210169770A KR102411765B1 (ko) 2021-12-01 2021-12-01 신경망을 이용한 바른 자세 추정 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102411765B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102573399B1 (ko) 2023-01-03 2023-09-01 에스와이엠헬스케어 주식회사 3차원의 동적관절가동범위 검사를 통한 근골격계 운동손상 및 정적 자세 검사를 통한 자세이상 평가 분석 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140140273A (ko) * 2013-05-29 2014-12-09 삼성전자주식회사 동작 인식을 위한 센싱 장치 및 그 방법
JP2016157188A (ja) * 2015-02-23 2016-09-01 株式会社デンソーアイティーラボラトリ 姿勢推定モデル生成装置及び姿勢推定装置
JP2016200910A (ja) * 2015-04-08 2016-12-01 日野自動車株式会社 運転者状態判定装置
KR20170132109A (ko) * 2017-11-13 2017-12-01 주상호 기계 학습 기반 목의 기울기 별 앉은 자세 인식을 이용한 거북목 식별 방법 및 장치
KR101851099B1 (ko) 2017-01-19 2018-04-20 신소현 영상처리 기계학습을 이용한 소프트웨어 기반의 거북목 방지 방법 및 시스템
KR102096476B1 (ko) * 2019-01-04 2020-04-02 주식회사 바이오텍에스알에스 신체 맞춤형 운동 분석 시스템
KR20210040626A (ko) * 2019-10-04 2021-04-14 엘지전자 주식회사 인공 지능을 이용한 자세 감지 장치 및 방법
KR20210081218A (ko) * 2019-12-23 2021-07-01 경희대학교 산학협력단 딥러닝 모델을 이용한 통증 평가 방법 및 분석 장치
KR102325072B1 (ko) * 2020-09-18 2021-11-11 주식회사 위딧 포즈 매칭 방법 및 이를 수행하기 위한 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140140273A (ko) * 2013-05-29 2014-12-09 삼성전자주식회사 동작 인식을 위한 센싱 장치 및 그 방법
JP2016157188A (ja) * 2015-02-23 2016-09-01 株式会社デンソーアイティーラボラトリ 姿勢推定モデル生成装置及び姿勢推定装置
JP2016200910A (ja) * 2015-04-08 2016-12-01 日野自動車株式会社 運転者状態判定装置
KR101851099B1 (ko) 2017-01-19 2018-04-20 신소현 영상처리 기계학습을 이용한 소프트웨어 기반의 거북목 방지 방법 및 시스템
KR20170132109A (ko) * 2017-11-13 2017-12-01 주상호 기계 학습 기반 목의 기울기 별 앉은 자세 인식을 이용한 거북목 식별 방법 및 장치
KR102096476B1 (ko) * 2019-01-04 2020-04-02 주식회사 바이오텍에스알에스 신체 맞춤형 운동 분석 시스템
KR20210040626A (ko) * 2019-10-04 2021-04-14 엘지전자 주식회사 인공 지능을 이용한 자세 감지 장치 및 방법
KR20210081218A (ko) * 2019-12-23 2021-07-01 경희대학교 산학협력단 딥러닝 모델을 이용한 통증 평가 방법 및 분석 장치
KR102325072B1 (ko) * 2020-09-18 2021-11-11 주식회사 위딧 포즈 매칭 방법 및 이를 수행하기 위한 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
영상인식 기반 자세교정 시스템, 한국정보과학회 학술발표논문집 2020, p1333-1335

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102573399B1 (ko) 2023-01-03 2023-09-01 에스와이엠헬스케어 주식회사 3차원의 동적관절가동범위 검사를 통한 근골격계 운동손상 및 정적 자세 검사를 통한 자세이상 평가 분석 방법

Similar Documents

Publication Publication Date Title
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
KR20220150868A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP7230939B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
CN109271930B (zh) 微表情识别方法、装置与存储介质
KR102338486B1 (ko) 3d 골격 정보를 이용한 사용자 동작 인식 방법 및 시스템
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
KR100988326B1 (ko) 사용자 맞춤형 표정 인식 방법 및 장치
US7646915B2 (en) Image recognition apparatus, image extraction apparatus, image extraction method, and program
KR102411765B1 (ko) 신경망을 이용한 바른 자세 추정 시스템 및 그 방법
KR20150089370A (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
CN111368731A (zh) 静默活体检测方法、装置、设备及存储介质
US20230267331A1 (en) Method and system for symmetric recognition of handed activities
CN114863499B (zh) 一种基于联邦学习的指静脉与掌静脉识别方法
KR20220010560A (ko) 이미지 내에서 대상체에 의해 수행되는 동작을 결정하기 위한 시스템 및 방법
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
Gasparrini et al. Performance analysis of self-organising neural networks tracking algorithms for intake monitoring using kinect
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
Raja et al. Design and implementation of facial recognition system for visually impaired using image processing
JP2006343989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2022019988A (ja) 情報処理装置、ディスプレイ装置、及び制御方法
JP7259313B2 (ja) 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体
Gharghabi et al. Person recognition based on face and body information for domestic service robots
WO2023209809A1 (ja) 情報処理装置、情報処理方法、情報処理システム及び記録媒体
Fujimoto et al. An image processing based method for chewing detection using variable-intensity template
Orovwode et al. Development of a Sign Language Recognition System Using Machine Learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant