KR20230078063A - 자세유형 판별을 위한 서버 및 그 동작방법 - Google Patents

자세유형 판별을 위한 서버 및 그 동작방법 Download PDF

Info

Publication number
KR20230078063A
KR20230078063A KR1020210165457A KR20210165457A KR20230078063A KR 20230078063 A KR20230078063 A KR 20230078063A KR 1020210165457 A KR1020210165457 A KR 1020210165457A KR 20210165457 A KR20210165457 A KR 20210165457A KR 20230078063 A KR20230078063 A KR 20230078063A
Authority
KR
South Korea
Prior art keywords
key point
posture type
posture
determining
coordinates
Prior art date
Application number
KR1020210165457A
Other languages
English (en)
Inventor
이태훈
송유중
Original Assignee
주식회사 공훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 공훈 filed Critical 주식회사 공훈
Priority to KR1020210165457A priority Critical patent/KR20230078063A/ko
Priority to PCT/KR2022/018788 priority patent/WO2023096394A1/ko
Publication of KR20230078063A publication Critical patent/KR20230078063A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 상기 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 영상처리부, 상기 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정하는 측정부 및 상기 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 판별부(240)를 포함하여, 상기 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 자세유형 판별을 위한 서버 및 그 동작방법을 개시한다.

Description

자세유형 판별을 위한 서버 및 그 동작방법{SERVER FOR DETERMINING THE POSTURE TYPE AND OPERATION METHOD THEREOF}
본 발명은 자세유형 판별을 위한 서버 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 기술에 관한 것이다.
종래에는 특허문헌에 기재된 바와 같이 센서가 장착된 웨어러블 장치를 사용자에게 착용시키고, 센서에서 감지된 값을 분석하여 사용자의 낙상유무를 판별하였다. 그러나 종래에는 웨어러블 디바이스의 착용을 거부하는 사용자가 존재할 수 있고, 착용 거부로 인해 사용자의 낙상유무를 감지하기 어려울 수 있으며, 사용자를 케어하기 위한 보호자가 웨어러블 디바이스의 착용을 거부하는지 감시하기 어려울 수 있는 문제점이 있다.
최근에는 낙상이미지와 관련된 대량의 학습데이터를 이용하여 사용자를 촬영한 촬영영상을 분석하고 낙상유무를 판별하는 기술이 개발되었으나, 사고에 의한 넘어짐인지 또는 자의에 의한 누움인지 판별 정확도가 감소되는 문제점이 있다.
한국등록특허 제10-2199204호
상기 문제점을 해결하기 위하여 본 발명은 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체의 키 포인트별로 3차원의 좌표를 부여하며, 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 자세유형 판별을 위한 서버 및 그 동작방법을 제공한다.
본 발명은 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 측정하고, 자세변화율을 분석하여 객체의 자세유형을 판별하는 자세유형 판별을 위한 서버 및 그 동작방법을 제공한다.
상기의 해결하고자 하는 과제를 위한 본 발명의 실시예에 따른 자세유형 판별을 위한 서버는, 객체를 촬영하는 영상획득장치(100)로부터 2차원의 영상을 수신하는 통신부(210); 상기 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 영상처리부(220); 상기 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정하는 측정부(230); 상기 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 판별부(240) 및 상기 객체 식별과 자세유형의 판별을 위한 학습데이터를 저장하는 데이터베이스(250)를 포함하여, 상기 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 것을 특징으로 한다.
상기 측정부는 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 측정하고, 상기 판별부는 자세변화율을 분석하여 객체의 자세유형을 판별하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 따른 자세유형 판별을 위한 서버의 동작방법은, 객체를 촬영하여 생성된 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 단계; 상기 객체의 키 포인트별로 3차원의 좌표를 부여하는 단계; 상기 공간좌표에서 키 포인트의 좌표변화를 측정하는 단계 및 상기 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 단계를 포함하여, 상기 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 것을 특징으로 한다.
본 발명은 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별함으로써, 객체의 자세유형의 판별 정확도를 향상시킬 수 있다.
본 발명은 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 분석하여 객체의 자세유형을 판별함으로써, 사고에 의한 넘어짐인지 또는 자의에 의한 누움인지 자세유형의 판별 정확도를 더욱 향상시킬 수 있고, 종래의 자세추정에 대한 오탐율을 감소시킬 수 있다.
도 1은 본 발명의 실시예에 따른 자세유형 판별 시스템을 도시한 블록도이다.
도 2는 도 1의 자세유형 판별 시스템을 더욱 상세하게 도시한 블록도이다.
도 3은 도 1의 서버를 더욱 상세하게 도시한 블록도이다.
도 4는 종래의 자세추정 방식을 설명하기 위한 예이다.
도 5는 종래의 자세추정 방식을 설명하기 위한 다른 예이다.
도 6은 본 발명의 자세유형 판별 방식을 설명하기 위한 예이다.
도 7은 종래와 본 발명의 자세유형 판별의 방식을 비교하기 위한 예이다.
도 8은 본 발명의 음성과 영상 분석을 이용하여 객체의 상황을 인식하는 방법을 설명하기 위한 예이다.
도 9는 열영상을 이용하여 객체의 자세유형을 판별하는 방법을 설명하기 위한 예이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.
도 1은 본 발명의 실시예에 따른 자세유형 판별 시스템을 도시한 블록도로서, 자세유형 판별 시스템(10)은 영상획득장치(100), 서버(200) 및 단말기(300)를 포함한다. 영상획득장치(100)는 요양병원, 어린이 보호소 또는 가정집 등 다양한 환경에서 설치가 가능하고, 감시대상을 감시하기 위해 사용된다. 감시대상은 노인, 어린이 또는 장애인 등 사용목적에 따라 다양할 수 있다.
서버(200)는 영상획득장치(100)에서 촬영된 영상을 분석하여 감시대상을 모니터링하고, 감시대상의 이상행동 또는 낙상을 발견하면 단말기(300)에게 해당 이벤트정보를 전송한다.
단말기(300)의 사용자는 서버(200)에서 보내준 이벤트정보를 참조하여 감시대상의 상태를 체크할 수 있다. 단말기(300)는 스마트폰, 데스크톱 또는 랩탑일 수 있고, 통신이 가능한 다양한 장치일 수 있으며, 이에 한정하지 않는다.
도 2는 도 1의 자세유형 판별 시스템을 더욱 상세하게 도시한 블록도로서, 영상획득장치(100)는 영상을 촬영하기 위한 CCTV 및 녹화를 위한 NVR을 포함할 수 있다. 서버(200)는 NVR 연결을 제공하고, 영상 분석을 위한 소프트웨어를 포함할 수 있다.
도 3은 도 1의 서버를 더욱 상세하게 도시한 블록도로서, 서버(200)는 통신부(210), 영상처리부(220), 측정부(230), 판별부(240) 및 데이터베이스(250)를 포함한다.
통신부(210)는 객체를 촬영하는 영상획득장치(100)로부터 2차원의 영상을 수신한다. 영상처리부(220)는 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별한다.
본 발명은 단일 카메라 또는 다중 카메라를 활용하여 2차원의 영상을 3차원의 공간좌표로 생성할 수 있다. 단일 카메라를 이용한 공간좌표 생성은 카메라 제원을 통해 해당 카메라의 내/외부 파라미터 값과 해당 카메라로 촬영된 측정 지표를 이미지상 기준점을 결합하여 촬영된 공간 좌표를 생성할 수 있다.
다중 카메라를 이용한 공간좌표 생성은 각각의 카메라의 거리를 측정 후 이미지상에서 표현되는 객체에 대하여 카메라 간 거리를 이용한 삼각측정 방법을 이용하여 공간 좌표를 생성할 수 있다.
영상처리부(220)는 지도학습(supervised learning)을 기반으로 데이터베이스(250)에 저장된 학습데이터를 이용하여 2차원의 영상에 존재하는 객체를 식별할 수 있다. 지도학습은 학습데이터를 참조하여 학습자의 입력값에 대응하는 출력값을 찾는 방식
측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다. 키 포인트(key point)는 영상에서 움직이고자 하는 객체의 주요한 지점을 의미하고, 예를 들어 머리, 어깨, 팔, 다리로 구분한다.
도 4는 종래의 자세추정 방식을 설명하기 위한 예이고, 도 5는 종래의 자세추정 방식을 설명하기 위한 다른 예로서, 종래에는 서있는 상태에서 넘어지는 상태로 전환되는 학습이미지를 학습하여 객체의 자세를 추정하였다. 그러나 종래에는 서있는 상태에서 넘어지는 상태변화 등 자세변화만 인식함으로써, 사고로 넘어지는 것인지 또는 눕기 위해 자의로 넘어지는 것인지 알아내기 어려운 문제점이 있다.
도 6은 본 발명의 자세유형 판별 방식을 설명하기 위한 예이고, 도 7은 종래와 본 발명의 자세유형 판별의 방식을 비교하기 위한 예로서, 본 발명은 종래의 문제점을 해결하기 위하여 측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다. 또한 판별부(240)는 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별한다.
측정부(230)는 3차원 공간에서의 키 포인트 기반 자세유형 모델을 구현할 수 있고, 자세유형 모델로부터 얻게 된 3차원 위치적 자세 데이터를 기반으로 자세에 대한 전체적인 특징 및 각 관절 부위의 구체적 특성을 추출하여 3차원 메시(mesh)망 형태의 인체 모델을 추출할 수 있다.
본 발명은 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별함으로써, 객체의 자세유형의 판별 정확도를 향상시킬 수 있다.
측정부(230)는 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 측정할 수 있고, 판별부(240)는 자세변화율을 분석하여 객체의 자세유형을 판별할 수 있다. 판별부(240)는 자세변화율에 의한 자세유형을 판별하기 위해 데이터베이스에 저장된 학습데이터를 활용할 수 있다.
예를 들어 낙상으로 인한 사고에 의한 넘어짐은 좌표값 변화에 대응하여 시간값의 변화가 매우 작고, 자의로 인한 누움은 사고에 의한 넘어짐보다 시간값의 변화가 크므로, 판별부(240)는 자세변화율을 분석하여 객체의 누어있는 자세유형 중 누어있는 자세의 목적을 판별할 수 있다.
도 8은 본 발명의 음성과 영상 분석을 이용하여 객체의 상황을 인식하는 방법을 설명하기 위한 예로서, 영상획득장치(100)는 객체를 통하여 발생하는 음성을 인식하는 수단을 더 포함할 수 있고, 음성분석을 통하여 영상에 의한 객체의 자세유형을 판별하는 정확도를 더욱 향상시킬 수 있다.
도 9는 열영상을 이용하여 객체의 자세유형을 판별하는 방법을 설명하기 위한 예로서, 영상획득장치(100)는 객체를 촬영하여 2차원의 열영상을 생성하거나 실영상을 생성한다. 서버(200)는 영상획득장치(100)로부터 2차원의 열영상을 수신하면 열영상을 이용하여 객체의 자세유형을 판별한다.
영상획득장치(100)는 열영상을 촬영하기 위하여 열 센서 또는 열화상 카메라를 포함한다. 영상처리부(220)는 객체에서 발생하는 열로 인해 객체의 형상에 관한 실루엣을 확보할 수 있고, 열영상에서 열이 발생하지 않는 배경이 어두운 색으로 자연스럽게 표현되어 사생활에 관한 부가정보의 노출을 방지할 수 있다.
영상처리부(220)는 폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하고, 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하며, 객체를 식별한다.
본 발명은 열감지에 의한 다수의 실루엣을 대상으로 학습도구를 이용하고, 영상 실루엣에 폴리건을 형성하여 학습 데이터를 분류하며, 열감지에 의한 다수의 실루엣을 대상으로 학습도구를 이용하여 영상 실루엣에 머리, 어깨, 무릎, 팔 등을 마킹하여 학습데이터를 분류하고, 딥러닝 기술을 이용하여 분류된 학습데이터를 학습시켜 영상처리부(220)에서 객체를 식별할 수 있도록 한다.
측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다.
본 발명은 객체식별을 위한 학습데이터를 구축하기 위한 데이터 분류작에서 열 감지 실루엣을 학습도구를 이용하여 숙력된 분류자가 마킹하여 처리할 수 있고, 딥러닝 기술에 의해 학습된 정보를 이용하여 부위별로 키 포인트를 부여할 수 있다.
판별부(240)는 측정부(230)에서 측정된 좌표값의 변화를 분석하여 객체의 자세유형을 판별한다. 본 발명은 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별한다.
측정부(230)는 키 포인트의 좌표변화에 대응하는 시간값을 측정할 수 있고, 판별부(240)는 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별할 수 있다.
본 발명은 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별할 수 있고, 객체 이외의 부가정보의 노출을 차단하여 더욱 강력한 프라이버시 보호를 제공할 수 있다.
본 발명은 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별함으로써, 사고에 의한 넘어짐인지 또는 자의에 의한 누움인지 자세유형의 판별 정확도를 더욱 향상시킬 수 있고, 종래의 자세추정에 대한 오탐율을 감소시킬 수 있다.
본 발명은 영상정보와 공간정보를 결합하고, 공간정보에서 객체의 키 포인트별 좌표를 부여함으로써, 자세유형 판별의 정확성을 향상시킬 수 있다.
종래에는 자세추정에 의미를 부여하였지만, 본 발명은 자세추정에서 학습하기 어려운 자세변경의 이유나 목적을 키 포인트 변화에 의한 측정으로 알아내어 자세추정에 대한 오탐율을 감소시킬 수 있다. 예를 들어 본 발명은 객체의 누어있는 목적 이외에도 식사나 운동 형태에 대한 식별 등 형태식별의 목적으로 구분하여 학습을 제공할 수 있는 것이다.
제어부(290)는 학습데이터의 학습을 위한 모듈을 포함할 수 있고, 장소별로 복수의 영상획득장치(100)의 동작을 제어하거나 모니터링할 수 있으며, 영상획득장치(100) 또는 단말기(300) 별 사용자를 관리하여 관리정보를 생성할 수 있고, 관리정보를 데이터베이스(250)에 저장할 수 있다.
10: 자세유형 판별 시스템 100: 영상획득장치
200: 서버 210: 통신부
220: 영상처리부 230: 측정부
240: 판별부 250: 데이터베이스
290: 제어부 300: 단말기

Claims (3)

  1. 객체를 촬영하는 영상획득장치(100)로부터 2차원의 영상을 수신하는 통신부(210);
    상기 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 영상처리부(220);
    상기 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정하는 측정부(230);
    상기 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 판별부(240) 및
    상기 객체 식별과 자세유형의 판별을 위한 학습데이터를 저장하는 데이터베이스(250)를 포함하여,
    상기 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 것을 특징으로 하는 자세유형 판별을 위한 서버.
  2. 제1항에 있어서,
    상기 측정부는 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 측정하고,
    상기 판별부는 자세변화율을 분석하여 객체의 자세유형을 판별하는 것을 특징으로 하는 자세유형 판별을 위한 서버.
  3. 자세유형 판별을 위한 서버의 동작방법에 있어서,
    객체를 촬영하여 생성된 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 단계;
    상기 객체의 키 포인트별로 3차원의 좌표를 부여하는 단계;
    상기 공간좌표에서 키 포인트의 좌표변화를 측정하는 단계 및
    상기 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 단계를 포함하여,
    상기 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별하는 것을 특징으로 하는 자세유형 판별을 위한 서버의 동작방법.
KR1020210165457A 2021-11-26 2021-11-26 자세유형 판별을 위한 서버 및 그 동작방법 KR20230078063A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210165457A KR20230078063A (ko) 2021-11-26 2021-11-26 자세유형 판별을 위한 서버 및 그 동작방법
PCT/KR2022/018788 WO2023096394A1 (ko) 2021-11-26 2022-11-25 자세유형 판별을 위한 서버 및 그 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210165457A KR20230078063A (ko) 2021-11-26 2021-11-26 자세유형 판별을 위한 서버 및 그 동작방법

Publications (1)

Publication Number Publication Date
KR20230078063A true KR20230078063A (ko) 2023-06-02

Family

ID=86540080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165457A KR20230078063A (ko) 2021-11-26 2021-11-26 자세유형 판별을 위한 서버 및 그 동작방법

Country Status (2)

Country Link
KR (1) KR20230078063A (ko)
WO (1) WO2023096394A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117598875A (zh) * 2023-11-20 2024-02-27 广州碧缇维斯健康科技有限公司 一种可实现远程监控和管理的护理舱

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199204B1 (ko) 2019-05-31 2021-01-06 (주)엘센 웨어러블 센서 디바이스를 이용한 추락 및 낙상 감지 시스템 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4421121B2 (ja) * 2001-02-06 2010-02-24 株式会社日立国際電気 侵入物体検出方法
KR101880522B1 (ko) * 2016-12-29 2018-07-23 재단법인대구경북과학기술원 영상 분석 기반의 트레드밀 감시 장치 및 그것을 이용한 위험 상황 감지 방법
KR20210013865A (ko) * 2019-07-29 2021-02-08 에스앤즈 주식회사 생성적 대립 네트워크를 이용한 사람의 비정상 행동 탐지 시스템 및 방법
KR102384299B1 (ko) * 2019-08-14 2022-04-07 건국대학교 산학협력단 폭행 감지 기능을 구비한 cctv 촬영 장치 및 cctv 영상에 기초한 폭행 감지 방법
KR102299424B1 (ko) * 2020-02-03 2021-09-07 한국생산기술연구원 딥러닝 기반 행동인식 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199204B1 (ko) 2019-05-31 2021-01-06 (주)엘센 웨어러블 센서 디바이스를 이용한 추락 및 낙상 감지 시스템 및 방법

Also Published As

Publication number Publication date
WO2023096394A1 (ko) 2023-06-01

Similar Documents

Publication Publication Date Title
Zhang et al. A viewpoint-independent statistical method for fall detection
Bobick et al. The recognition of human movement using temporal templates
KR102413893B1 (ko) 스켈레톤 벡터 기반 비대면 비접촉 낙상탐지 시스템 및 방법
Zhang et al. Evaluating depth-based computer vision methods for fall detection under occlusions
JP6590609B2 (ja) 画像解析装置及び画像解析方法
Sehairi et al. Elderly fall detection system based on multiple shape features and motion analysis
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
CN109830078B (zh) 适用于狭小空间的智能行为分析方法及智能行为分析设备
CN111553229A (zh) 基于三维骨骼与lstm的工人动作识别方法及装置
Li et al. Collaborative fall detection using smart phone and Kinect
JP2020135551A (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
CN114359976B (zh) 一种基于人物识别的智能安防方法与装置
JP4507243B2 (ja) 行動分析方法及びシステム
JP2018156408A (ja) 画像認識撮像装置
Abd et al. Human fall down recognition using coordinates key points skeleton
Seredin et al. The study of skeleton description reduction in the human fall-detection task
WO2023096394A1 (ko) 자세유형 판별을 위한 서버 및 그 동작방법
De Silva Audiovisual sensing of human movements for home-care and security in a smart environment
Bansal et al. Elderly people fall detection system using skeleton tracking and recognition
CN113314230A (zh) 基于大数据的智能防疫方法、装置、设备及存储介质
CN117593792A (zh) 一种基于视频帧的异常姿态检测方法和装置
CN111144260A (zh) 一种翻越闸机的检测方法、装置及系统
KR20230078069A (ko) 객체 실루엣을 이용한 자세유형 판별 시스템 및 그 동작방법
CN112668387B (zh) 基于AlphaPose实现的违规抽烟识别方法
An et al. Support vector machine algorithm for human fall recognition kinect-based skeletal data

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211126

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240103

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240516