KR20220158322A - Apparatus and method for tracking patients with dementia - Google Patents
Apparatus and method for tracking patients with dementia Download PDFInfo
- Publication number
- KR20220158322A KR20220158322A KR1020210065921A KR20210065921A KR20220158322A KR 20220158322 A KR20220158322 A KR 20220158322A KR 1020210065921 A KR1020210065921 A KR 1020210065921A KR 20210065921 A KR20210065921 A KR 20210065921A KR 20220158322 A KR20220158322 A KR 20220158322A
- Authority
- KR
- South Korea
- Prior art keywords
- pedestrian
- tracking
- dementia
- tracking unit
- unit
- Prior art date
Links
- 206010012289 Dementia Diseases 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims description 36
- 238000004458 analytical method Methods 0.000 claims abstract description 39
- 230000005021 gait Effects 0.000 claims description 47
- 230000008859 change Effects 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 31
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000013145 classification model Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 206010038743 Restlessness Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 208000002720 Malnutrition Diseases 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001071 malnutrition Effects 0.000 description 1
- 235000000824 malnutrition Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 208000015380 nutritional deficiency disease Diseases 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- General Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 치매 환자를 분류하고 추적하는 장치 및 방법에 관한 것이다.The present invention relates to devices and methods for classifying and tracking patients with dementia.
다양한 원인에 의해서 기억력을 비롯한 행동 기능에 장애가 생기고 일상생활을 유지하기 어려운 상태를 치매라 한다. 특히, 치매 환자의 '배회' 증상은 간호하는데 가장 큰 고민거리 중 하나이다. 치매 환자는 집안에서 배회할 뿐만 아니라, 집 밖으로 나가서 간혹 길을 잃어버리기도 한다. 치매 환자가 길을 잃었을 경우, 조기에 발견하지 못하면 교통사고, 영양 실조, 건강 악화 등의 이유로 위험에 빠질 수 있어 이를 예방하기 위한 철저한 준비가 필요하다.Dementia is a condition in which memory and behavioral functions are impaired due to various causes and it is difficult to maintain daily life. In particular, the 'wandering' symptom of dementia patients is one of the biggest concerns in nursing. Dementia patients not only wander around the house, but sometimes go out of the house and get lost. If dementia patients get lost, they may be in danger due to traffic accidents, malnutrition, health deterioration, etc. if not detected early.
한국등록특허공보 제1792339호에는 치매 환자가 소지한 비콘의 위치를 추적하는 기술이 나타나 있다.Korean Patent Registration No. 1792339 discloses a technology for tracking the location of a beacon possessed by a patient with dementia.
본 발명은 설치된 CCTV를 활용하여 사람의 걸음걸이를 분석함으로써 치매 유무를 분석함과 동시에 재인식 기술을 적용해 치매환자의 위치를 추적할 수 있는 추적 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a tracking device and method capable of analyzing the presence or absence of dementia by analyzing a person's gait using an installed CCTV and at the same time tracking the location of a dementia patient by applying re-recognition technology.
본 발명의 추적 장치는 보행자를 촬영한 동영상을 입수하는 입수 유니트; 상기 동영상의 분석을 통해 상기 보행자가 치매 환자인지 여부를 판단하거나 특정 보행자를 추적하는 추적 유니트;를 포함할 수 있다.The tracking device of the present invention includes an acquisition unit for obtaining a video of a pedestrian; It may include; a tracking unit that determines whether the pedestrian is a dementia patient or tracks a specific pedestrian through analysis of the video.
본 발명의 추적 방법은 설정 지역을 촬영한 동영상을 입수하는 단계; 상기 동영상에 포함된 보행자를 추출하는 단계; 상기 보행자의 스켈레톤을 형성하는 단계; 상기 스켈레톤의 분석을 통해 상기 보행자의 보폭 및 보행 속도를 측정하는 단계; 상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계; 딥러닝 알고리즘을 통해 생성된 판별 모델을 이용하여 상기 스펙트로그램 이미지를 분석하고, 상기 보행자의 치매 여부를 판별하는 단계;를 포함할 수 있다.The tracking method of the present invention includes the steps of obtaining a video recording a set area; extracting pedestrians included in the video; forming a skeleton of the pedestrian; measuring a step length and walking speed of the pedestrian through analysis of the skeleton; generating a spectrogram image including the stride length and the walking speed; Analyzing the spectrogram image using a discrimination model generated through a deep learning algorithm, and determining whether the pedestrian has dementia.
본 발명의 추적 방법은 설정 지역을 촬영한 동영상을 입수하는 단계; 상기 동영상에 포함된 보행자를 나타내는 객체 이미지를 추출하는 단계; 상기 객체 이미지의 분석을 통해 상기 보행자의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계; 상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계; 상기 객체 이미지, 상기 보행 특성 및 상기 스펙트로그램 이미지를 이용해서 상기 보행자가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계; 상기 특정 보행자와 일치하는 것으로 판별된 보행자에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계;를 포함할 수 있다.The tracking method of the present invention includes the steps of obtaining a video recording a set area; extracting an object image representing a pedestrian included in the video; extracting a gait characteristic including a step length and a gait speed of the pedestrian through analysis of the object image; generating a spectrogram image including the stride length and the walking speed; determining whether or not the pedestrian matches a specific pedestrian entered using the object image, the gait characteristics, and the spectrogram image; and displaying a movement path of a candidate object corresponding to the pedestrian determined to match the specific pedestrian on a map.
본 발명의 추적 장치는 카메라에 의해 촬영된 동영상의 분석을 통해 보행자의 치매 여부를 판단할 수 있다.The tracking device of the present invention can determine whether a pedestrian has dementia through analysis of a video taken by a camera.
특히, 본 발명의 추적 장치는 동영상에 포함된 보행자의 보행 특성을 이용하여 보행자가 치매 환자인지 여부를 판별할 수 있다.In particular, the tracking device of the present invention can determine whether the pedestrian is a dementia patient by using the walking characteristics of the pedestrian included in the video.
또한, 본 발명의 추적 장치는 서로 다른 곳에 설치된 복수의 카메라를 이용하여 치매 환자를 지속적으로 추적할 수 있는 방안을 제공할 수 있다.In addition, the tracking device of the present invention can provide a way to continuously track a patient with dementia using a plurality of cameras installed in different places.
본 발명의 추적 장치는 복수의 카메라와 통신할 수 있으며, 복수의 카메라로부터 수신된 동영상을 각각 분석할 수 있다. 추적 장치는 동영상의 분석을 통해 치매 환자를 분류하거나 특정할 수 있다. 또한, 추적 장치는 특정 카메라에서 촬영된 동영상의 분석을 통해 특정 보행자가 치매 환자로 판별되면, 해당 특정 보행자의 보행 특성 또는 스펙트로그램을 저장할 수 있다. 추적 장치는 다른 카메라에서 촬영된 보행자의 보행 특성 또는 스펙트로그램을 기저장된 것과 비교하는 방식을 통해 치매 환자로 판별된 특정 보행자를 다른 카메라의 동영상에서 인식할 수 있다. 다른 카메라에서의 특정 보행자 재인식이 완료되면, 추정 장치는 각 카메라의 위치 정보, 촬영 시각 정보, 동영상 내 특정 보행자의 이동 방향 등을 종합해서 특정 보행자의 동선을 추정하거나 추적할 수 있다.The tracking device of the present invention can communicate with a plurality of cameras, and can analyze each video received from the plurality of cameras. The tracking device can classify or specify dementia patients through video analysis. In addition, when a specific pedestrian is determined to be a patient with dementia through analysis of a video captured by a specific camera, the tracking device may store the gait characteristics or spectrogram of the specific pedestrian. The tracking device may recognize a specific pedestrian determined to be a dementia patient from a video clip of another camera by comparing the gait characteristics or spectrogram of the pedestrian photographed by another camera with a previously stored one. When the recognition of a specific pedestrian by other cameras is completed, the estimating device may estimate or track the movement of a specific pedestrian by integrating location information of each camera, photographing time information, moving direction of the specific pedestrian in the video, and the like.
본 발명의 추적 장치 및 추적 방법에 따르면, 치매 환자의 초기 발견이 가능한 동시에 치매 환자의 위치가 자동으로 추정될 수 있다. 이를 통해 배회 증상을 갖는 치매 환자의 안전이 확보될 수 있다.According to the tracking device and tracking method of the present invention, the location of a patient with dementia can be automatically estimated while an early detection of a patient with dementia is possible. Through this, the safety of dementia patients with wandering symptoms can be secured.
도 1은 본 발명의 추적 장치를 나타낸 개략도이다.
도 2는 추적 유니트를 나타낸 블록도이다.
도 3은 추적 유니트의 제1 동작을 나타낸 개략도이다.
도 4는 추적 유니트의 제2 동작을 나타낸 개략도이다.
도 5는 추적 유니트의 추적 동작을 나타낸 개략도이다.
도 6은 본 발명의 추적 방법을 나타낸 흐름도이다.
도 7은 본 발명의 다른 추적 방법을 나타낸 흐름도이다.
도 8은 검출부, 산출부 및 변환부의 동작을 나타낸 흐름도이다.
도 9는 검출부의 동작을 나타낸 개략도이다.
도 10은 판별부의 동작을 나타낸 흐름도이다.
도 11은 판별부의 동작을 나타낸 개략도이다.
도 12는 추적부의 동작을 나타낸 개략도이다.
도 13은 추적부의 다른 동작을 나타낸 개략도이다.
도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a schematic diagram showing a tracking device of the present invention.
2 is a block diagram illustrating a tracking unit.
3 is a schematic diagram showing a first operation of the tracking unit.
4 is a schematic diagram showing a second operation of the tracking unit.
5 is a schematic diagram showing the tracking operation of the tracking unit.
6 is a flowchart illustrating the tracking method of the present invention.
7 is a flowchart illustrating another tracking method of the present invention.
8 is a flowchart illustrating operations of a detection unit, a calculation unit, and a conversion unit.
9 is a schematic diagram showing the operation of the detection unit.
10 is a flowchart illustrating the operation of the determination unit.
11 is a schematic diagram showing the operation of the determining unit.
12 is a schematic diagram showing the operation of the tracking unit.
13 is a schematic diagram showing another operation of the tracking unit.
14 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, redundant descriptions of the same components are omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, when a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but another component in the middle It should be understood that may exist. On the other hand, in this specification, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'having' are only intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It should be understood that the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any item among a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted.
본 발명의 추적 장치는 CCTV 카메라, 이동 통신 단말기에 설비된 카메라, 휴대용 카메라와 같은 각종 카메라(10)를 이용하여 보행자(90)의 걸음걸이를 분석하여 치매의 유무를 파악하고 보행자(90)의 이동 경로를 추적할 수 있다. 치매 질환은 신경학적인 손상으로 인해 보행 장애가 동반되기 때문에 걸음걸이를 분석하면 치매의 유무가 추정될 수 있다. 이후, 재인식을 통해 치매로 판단된 보행자(90)의 이동 경로가 추적될 수 있다.The tracking device of the present invention analyzes the gait of a
도 1은 본 발명의 추적 장치를 나타낸 개략도이다.1 is a schematic diagram showing a tracking device of the present invention.
도 1에 도시된 추적 장치는 입수 유니트(110), 추적 유니트(130)를 포함할 수 있다.The tracking device shown in FIG. 1 may include an
보행로(80) 등을 따라 걷고 있는 보행자(90)를 촬영하고 동영상(20)을 생성하는 카메라(10)가 마련될 수 있다.A
입수 유니트(110)는 서로 다른 위치에 배치된 복수의 카메라(10)와 통신할 수 있다. 입수 유니트(110)는 카메라(10)와의 통신을 통해 보행자(90)를 촬영한 동영상(20)을 입수할 수 있다. 일 예로, 카메라(10)로부터 입수된 동영상(20)은 초당 수십 프레임(frame)으로 촬영된 것일 수 있다.The
각 카메라(10)는 보행자(90)가 다니는 보행로(80)가 포함된 설정 위치를 촬영할 수 있다. 일 예로, 카메라(10)는 설정 지역, 설정 위치를 촬영하는 CCTV(Close Circuit TV), 이동 통신 단말기의 카메라, 휴대용 카메라를 포함할 수 있다.Each
입수 유니트(110)에는 각 카메라(10)와 유무선 통신 가능한 통신 모듈이 마련될 수 있다. 복수의 카메라(10)는 중앙 관제실에 마련된 서버와 통신할 수 있다. 이때, 입수 유니트(110)는 해당 서버에 일체로 형성되거나, 해당 서버로부터 각 카메라(10)에서 촬영된 동영상(20)을 수신할 수 있다.A communication module capable of wired/wireless communication with each
추적 유니트(130)는 동영상(20)의 분석을 통해, 동영상(20)에 포함된 보행자(90)가 치매 환자인지 여부를 판단하거나 치매 환자로 추정되는 특정 보행자를 추적할 수 있다.The
추적 유니트(130)는 동영상(20)에 포함된 보행자(90)의 걸음걸이를 분석하고, 걸음걸이의 분석 결과를 이용해 보행자(90)의 치매 여부를 판단할 수 있다.The
일 예로, 추적 유니트(130)는 동영상(20)의 분석을 통해 보행자(90)의 보행 특성, 예를 들어 보폭, 보행 속도, 보폭의 변화량, 보행 속도의 변화량 중 적어도 하나를 분석할 수 있다. 추적 유니트(130)는 보폭, 보행 속도, 보폭의 변화량, 보행 속도의 변화량 중 적어도 하나를 이용해서 보행자(90)의 치매 여부를 판별할 수 있다. 일반적으로 치매 환자의 걸음걸이는 정상인의 걸음걸이와 다르다. 그 결과, 치매 환자의 보행 특성과 정상인의 보행 특성 역시 서로 다르며, 이 점을 이용하여 보행자(90)의 치매 여부가 추정될 수 있다.For example, the
예를 들어, 추적 유니트(130)는 보폭의 변화량 또는 보행 속도의 변화량이 설정값을 만족하면 보행자(90)를 치매 환자로 판별할 수 있다.For example, the
추적 유니트(130)는 기계 학습을 통해 보행자(90)의 치매 여부를 판별할 수 있다.The
일 예로, 추적 유니트(130)에는 기계 학습을 통해 생성된 추출 모델(31), 분류 모델(32), 판별 모델(33)이 마련될 수 있다.For example, the
추출 모델(31)은 동영상(20)이 입력되면 동영상(20)에 포함된 보행자(90)를 추출할 수 있다.When the
분류 모델(32)은 추출 모델(31)을 통해 추출된 보행자(90)의 관절 키포인트를 분석하고, 키포인트를 이용하여 보행자(90)의 스켈레톤 S을 형성할 수 있다.The
판별 모델(33)은 스켈레톤 S의 분석을 통해 산출된 보행자(90)의 보폭 및 보행 속도가 포함된 보행 특성을 이용하여 보행자(90)의 치매 여부를 판별할 수 있다.The
추적 유니트(130)는 카메라(10)가 설치된 위치가 포함된 제1 위치 정보, 카메라(10)에 의해 촬영된 위치를 나타내는 제2 위치 정보, 동영상(20) 내에서 보행자(90)가 이동하는 방향 정보 중 적어도 하나를 이용해 치매 환자를 추적할 수 있다.The
치매 환자의 추적은 보행자(90)의 치매 여부, 치매 환자의 위치, 치매 환자의 이동 방향 중 적어도 하나를 파악하는 것을 포함할 수 있다. 또는, 치매 환자의 추적은 파악된 치매 여부 정보, 위치 정보, 이동 방향 정보 중 적어도 하나를 관리자의 단말기에 표시하는 것을 포함할 수 있다. 또는, 치매 환자의 추적은 파악된 위치 정보, 이동 방향 정보 중 적어도 하나를 지도 상에 표시하는 것을 포함할 수 있다.Tracking of the dementia patient may include determining at least one of whether the
도 2는 추적 유니트(130)를 나타낸 블록도이다. 도 3은 추적 유니트(130)의 제1 동작을 나타낸 개략도이다. 도 4는 추적 유니트(130)의 제2 동작을 나타낸 개략도이다.2 is a block diagram illustrating the
추적 유니트(130)에는 검출부(131), 산출부(133), 변환부(135), 판별부(137), 추적부(139)가 마련될 수 있다.The
걸음걸이에 기반하여 치매를 판단하기 위해 보행자(90)로부터 걸음걸이의 특징이 되는 보행 특성들을 추출해야 한다. 노화, 질병에 따라 보폭 및 보행 속도 등 보행의 변화가 나타난다. 이러한 보행 특성을 얻기 위해서는 보행자(90)의 발 위치를 탐지하고 추적할 필요가 있다.In order to determine dementia based on the gait, it is necessary to extract gait characteristics that are characteristic of the gait from the
보폭 특성을 얻기 위해서는 우선 양발을 구분하여 탐지해야 하며, 검출부(131)는 도 3과 같이 입력받은 이미지에 해당하는 동영상(20) 또는 동영상(20)을 구성하는 각 프레임에서 객체 추출 모델(31)을 사용하여 보행자(90)를 검출 또는 탐지하고 보행자(90)를 추출할 수 있다.In order to obtain the stride characteristics, both feet must first be detected and detected, and the
검출부(131)는 동영상(20) 등으로부터 보행자(90)의 영역만 추출한 후 사전에 학습된 관절 키포인트를 설정할 수 있는 분류 모델(32)을 이용해 스켈레톤 s를 형성할 수 있다(추적 유니트(130)의 제1 동작에 해당됨).The
검출부(131)는 동영상(20)에 포함된 보행자(90)의 관절 키포인트를 이용하여 보행자(90)의 양발 간의 간격을 측정할 수 있다. 일 예로, 검출부(131)는 도 3의 스켈레톤 s 중에서 각 발을 나타내는 포인트(point) 11번과 14번 사이의 거리(간격)를 측정할 수 있다.The
산출부(133)는 양발 간의 간격을 이용하여 보행자(90)의 보폭 및 보행 속도를 산출할 수 있다.The
검출부(131)는 양발 간의 간격을 최초에 보행자(90)가 서있을 때 한번 측정하고, 그 다음에는 보행자(90)가 움직일 경우에만 양발 간의 간격을 측정할 수 있다. 검출부(131)에서 측정된 양발 간의 간격은 보폭과 보행 속도를 나타내는 신호를 형성할 수 있다. 그리고, 검출부(131)는 팔 a와 다리 b의 움직임 정도를 측정하기 위해 포인트 (2, 3, 4), 포인트 (5, 6, 7), 포인트 (9, 10, 11), 포인트 (12, 13, 14)의 최초 위치값을 측정할 수 있다.The
산출부(133)는 보폭값(포인트 11번과 14번 사이의 거리)이 측정되는 경우에 한하여 팔 a와 다리 b를 나타내는 각 포인트의 변화량도 함께 측정하거나 산출할 수 있다. 다시 말해, 산출부(133)는 보행자(90)가 보행할 때 보행자(90)의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하거나 산출할 수 있다.The
변환부(135)는 보행자(90)의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 보폭, 보행 속도, 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성할 수 있다. 변환부(135)에 의해 해당 검사 신호는 치매 판단을 위해 이미지로 변환될 수 있다.The
일 예로, 변환부(135)는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 검사 신호를 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환할 수 있다. 변환부(135)는 처리 신호를 보폭과 보행 속도가 포함된 스펙트로그램 이미지로 변환할 수 있다. 결과적으로, 변환부(135)는 보폭과 보행 속도가 포함된 스펙트로그램 이미지 h를 생성할 수 있다(추적 유니트(130)의 제2 동작에 해당됨).For example, the
스펙트로그램(Spectrogram)은 보행자(90)의 보행 특성 i1을 파동으로 시각화하여 파악하기 위한 도구로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합될 수 있다.The spectrogram is a tool for visualizing and grasping the gait characteristic i1 of the
파형 i2에서는 시간축의 변화에 따른 진폭축의 변화를 볼 수 있고, 스펙트럼 i3에서는 주파수 축의 변화에 따른 진폭축의 변화를 볼 수 있는 반면, 스펙트로그램 이미지 h에서는 시간축과 주파수축의 변화에 따라 진폭의 차이를 인쇄 농도 또는 표시 색상의 차이로 나타낼 수 있다.In waveform i2, the change of the amplitude axis according to the change of the time axis can be seen, and in the spectrum i3, the change of the amplitude axis according to the change of the frequency axis can be seen, while in the spectrogram image h, the difference in amplitude is printed according to the change of the time axis and the frequency axis. It can be expressed as a difference in density or display color.
판별부(137)는 스펙트로그램 이미지 h의 분석을 통해 보행자(90)의 치매 여부를 판별할 수 있다.The determining
일 예로, 판별부(137)는 스펙트로그램 이미지 h의 분석을 통해 상기 보행자(90)가 치매일 확률을 산출할 수 있다. 판별부(137)는 치매일 확률이 설정값을 만족하면 보행자(90)를 치매 환자로 판단할 수 있다. 판별부(137)는 치매일 확률이 설정값을 불만족하면 보행자(90)를 정상인으로 판단할 수 있다.For example, the determining
구체적으로, 걸음걸이 기반의 치매 판단 기술을 실현하기 위해 딥러닝 알고리즘이 판별부(137)에 탑재될 수 있다. 딥러닝 알고리즘은 추출된 스펙트로그램 이미지를 분석해서 치매 및 정상인일 확률을 산출할 수 있다. 치매 추정 확률이 일정 수치를 넘으면 치매로 판단할 수 있다. 치매 환자에 특화된 딥러닝 알고리즘 기반의 치매 판별 모델(33)이 판별부(137)에 탑재될 수 있다. 판별 모델(33)은 정상인 및 치매 환자의 보행 특성을 입력 데이터셋으로 하여 치매 여부를 판단하도록 학습될 수 있다. 일 예로, 판별 모델(33)은 보행 특성을 시각화한 스펙트로그램 이미지를 입력 데이터셋으로 하여 치매 여부를 판별하도록 학습될 수 있다. 판별 모델(33)은 스펙트로그램 이미지 h의 분석을 위해 합성곱 신경망을 사용하여 생성될 수 있다. 판별 모델(33)은 스펙트로그램 이미지 h를 시간의 흐름상 설정 간격으로 분할하고, 시간 변화에 따른 보행 특성을 분석할 수 있다. 이를 통해 판별 모델(33)은 시간 변화에 따른 보폭의 변화와 보행 속도를 분석하고 치매 여부를 판별할 수 있다. 결국, 판별부(137)는 보행 특성의 분석을 통해 보행자(90)의 보폭 변화량과 보행 속도의 변화량을 분석하여 보행자(90)의 치매 여부를 판별할 수 있다.Specifically, a deep learning algorithm may be loaded into the
도 5는 추적 유니트(130)의 추적 동작을 나타낸 개략도이다.5 is a schematic diagram showing the tracking operation of the
추적 유니트(130)는 치매 환자로 판단되는 특정 보행자를 객체 재인식을 이용해 지속적으로 추적할 수 있다.The
객체 재인식은 다양한 위치에서 촬영된 객체들을 비교해 객체를 고유하게 구별하는 기술이다. 이때, 객체는 동영상(20)에 포함된 보행자(90)를 포함할 수 있다.Object re-recognition is a technique for uniquely distinguishing an object by comparing objects photographed from various locations. In this case, the object may include the
객체 재인식을 위해 현재의 객체로부터 다른 객체와 구분되는 식별정보(특징 값)를 추출하고 비교해서 현재의 객체를 재식별할 수 있어야 한다. 객체 재인식을 위해 촬영 각도, 위치 및 명도가 변하여도 동일한 식별 정보가 획득되는 것이 좋다.For object re-recognition, the current object must be re-identified by extracting and comparing identification information (feature value) that distinguishes it from other objects from the current object. For object re-recognition, it is preferable that the same identification information be obtained even if the photographing angle, position, and brightness are changed.
추적 유니트(130)에 마련된 추적부(139)는 객체 재인식을 통해 치매 환자로 판별된 특정 보행자와 외형이 유사한 객체 이미지(동영상(20)에 포함된 보행자(90))를 탐색할 수 있다.The
추적부(139)는 객체 이미지로부터 특징을 추출하고 특징값(식별 정보)을 비교해 찾고자 하는 객체와 가장 유사한 객체 이미지를 찾을 수 있다.The
동영상(20)의 프레임 이미지 등에서 식별 정보가 추출되므로 찾고자 하는 특정 보행자와 외형이 유사한 객체 위주로 탐색이 수행될 수 있다. 객체 재인식시, 객체의 식별 정보 추출에 특화된 합성곱 신경망을 통해 생성된 특징 모델(34)이 추적부(139)에 탑재될 수 있다. 특징 추출시 큰 부분부터 작은 부분까지 검출하도록 딥러닝 알고리즘 모델이 구성될 수 있다. 따라서, 외형에서 비중이 높은 코트, 바지 등에 추출 비중이 치우쳐지지 않고, 재인식 성능이 개선될 수 있다.Since identification information is extracted from the frame image of the
앞의 객체 재인식의 경우 객체 이미지만 분석하여 재인식을 수행하기 때문에 많은 문제가 있다. 카메라(10) 등 촬영 기기의 각도, 해상도 및 밝기 등 촬영 환경의 영향으로 객체 이미지에 변화가 발생하여 균일한 특징값을 추출하기 어렵다. 따라서 재인식 정확도를 향상하기 위해서는 촬영 환경의 영향이 적은 데이터가 사용되는 것이 좋다. 추적부(139)는 이러한 문제를 해결하기 위해 촬영 환경의 영향이 최소화된 요소로 재인식을 수행할 수 있다. 일 예로, 추적부(139)는 보폭 특성 및 스펙트로그램 이미지를 이용해 재인식을 수행할 수 있다. 보폭 특성 및 스펙트로그램 이미지는 촬영 환경의 영향을 적게 받는 데이터들이다. 이들 데이터는 검출부(131), 산출부(133), 변환부(135)에 의해 이미 획득된 상태일 수 있다.In the case of object re-recognition described above, there are many problems because re-recognition is performed by analyzing only the object image. It is difficult to extract a uniform feature value because a change occurs in an object image due to the influence of a photographing environment such as an angle, resolution, and brightness of a photographing device such as the
보폭 특성 및 스펙트로그램 이미지를 이용하여 재인식을 수행하는 추적부(139)에 따르면, 촬영 기기의 관측 위치가 변하여도 특정 보행자가 정확하게 재인식될 수 있다.According to the
추적부(139)는 객체 이미지와 1개 이상의 요소로 재인식을 수행할 수 있다. 많은 요소를 사용하면 재인식 정확도는 개선되지만 분석 속도는 늦어지게 된다. 따라서, 추적부(139)는 일부 주요 요소만 사용하여 재인식을 수행할 수 있다. 이때, 재인식을 위해 2개 이상의 데이터를 입력받아 처리할 수 있도록 구성된 딥러닝 알고리즘이 사용될 수 있다. 도 5와 같이 복수개의 데이터를 입력받아 하나의 특징값을 추출하는 합성곱 신경망 모델이 사용될 수 있다. 추적부(139)는 객체 이미지와 요소 정보를 사용하여 타 객체와 명확히 구분되는 보행자(90)의 특징값을 얻을 수 있다. 추적부(139)는 촬영 환경의 영향이 최소화된 요소, 예를 들어 보행 특성 또는 스펙트로그램 이미지를 추가로 분석해 정확한 재인식을 수행할 수 있다.The
정리하면, 추적부(139)는 보행자(90)의 보폭 및 보행 속도가 포함된 보행자(90)의 보행 특성, 스펙트로그램 이미지 h의 분석을 통해 보행자(90)와 특정 보행자의 일치 여부를 판별할 수 있다. 이때, 특정 보행자는 치매 환자로 판단 또는 판별 또는 추정되는 보행자(90)를 나타낼 수 있다.In summary, the
추적부(139)는 동영상(20)에 포함된 보행자(90)가 특정 보행자로 판별되면, 특정 보행자로 판별된 보행자(90)의 동선을 추적할 수 있다. 동선의 추적은 보행자(90)의 시간별 위치를 지도 상에 표시하거나, 보행자(90)의 이동 방향을 지도 상에 표시하는 것을 의미할 수 있다.When the
도 6은 본 발명의 추적 방법을 나타낸 흐름도이다.6 is a flowchart illustrating the tracking method of the present invention.
도 6의 추적 방법은 도 1의 추적 장치에 의해 수행될 수 있다. 도 6의 추적 방법은 보행자(90)가 치매 환자인지 여부를 판단하는 방법을 나타낼 수 있다.The tracking method of FIG. 6 may be performed by the tracking device of FIG. 1 . The tracking method of FIG. 6 may represent a method of determining whether the
먼저, 설정 지역을 촬영한 동영상(20)을 입수하는 단계(S 510)가 수행될 수 있다. 본 단계는 입수 유니트(110)에 의해 수행될 수 있다.First, a step (S510) of obtaining a
동영상(20)에 포함된 보행자(90)를 추출하는 단계(S 520)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.A step of extracting the
보행자(90)의 스켈레톤을 형성하는 단계(S 530)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.Forming a skeleton of the pedestrian 90 (S530) may be performed. This step may be performed by the
스켈레톤의 분석을 통해 보행자(90)의 보폭 및 보행 속도를 측정하는 단계(S 540)가 수행될 수 있다. 본 단계는 산출부(133)에 의해 수행될 수 있다.A step of measuring the stride length and walking speed of the
보폭 및 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계(S 550)가 수행될 수 있다. 본 단계는 변환부(135)에 의해 수행될 수 있다.A step of generating a spectrogram image including the stride length and walking speed (S550) may be performed. This step may be performed by the
딥러닝 알고리즘을 통해 생성된 판별 모델(33)을 이용하여 스펙트로그램 이미지를 분석하고, 보행자(90)의 치매 여부를 판별하는 단계(S 560)가 수행될 수 있다. 본 단계는 판별부(137)에 의해 수행될 수 있다.A step of analyzing the spectrogram image using the
도 7은 본 발명의 다른 추적 방법을 나타낸 흐름도이다.7 is a flowchart illustrating another tracking method of the present invention.
도 7의 추적 방법은 도 1의 추적 장치에 의해 수행될 수 있다. 도 7의 추적 방법은 특정 보행자의 동선을 추적하는 방법을 나타낼 수 있다.The tracking method of FIG. 7 may be performed by the tracking device of FIG. 1 . The tracking method of FIG. 7 may represent a method of tracking a movement line of a specific pedestrian.
설정 지역을 촬영한 동영상(20)을 입수하는 단계(S 610)가 수행될 수 있다. 본 단계는 입수 유니트(110)에 의해 수행될 수 있다.A step (S610) of obtaining a
동영상(20)에 포함된 보행자(90)를 나타내는 객체 이미지를 추출하는 단계(S 620)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.A step of extracting an object image representing the
객체 이미지의 분석을 통해 보행자(90)의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계(S 630)가 수행될 수 있다. 본 단계는 산출부(133)에 의해 수행될 수 있다.A step of extracting gait characteristics including the stride length and gait speed of the
보폭 및 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계(S 변환부(135))가 수행될 수 있다(S 640). 본 단계는 변환부(135)에 의해 수행될 수 있다.A step of generating a spectrogram image including the stride length and walking speed (S conversion unit 135) may be performed (S640). This step may be performed by the
객체 이미지, 보행 특성 및 스펙트로그램 이미지를 이용해서 보행자(90)가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계(S 650)가 수행될 수 있다. 본 단계는 추적부(139)에 의해 수행될 수 있다.A step of determining whether the
특정 보행자와 일치하는 것으로 판별된 보행자(90)에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계(S 660)가 수행될 수 있다. 본 단계는 추적부(139)에 의해 수행될 수 있다.A step of displaying a movement path of a candidate object corresponding to the
보행자(90)가 치매 환자인지 여부를 판단하는 과정, 치매 환자의 동선을 추적하는 과정을 살펴보면, 검출부(131), 산출부(133), 변환부(135)까지의 동작(S 510, S 520, S 530, S 540, S 610, S 620, S 630, S 640)이 서로 동일한 것을 알 수 있다. 이를 이용해 치매 판단 과정과 동선 추적 과정에서 검출부(131), 산출부(133), 변환부(135)의 동작은 양 과정에 공유될 수 있다.Looking at the process of determining whether the
도 8은 검출부(131), 산출부(133) 및 변환부(135)의 동작을 나타낸 흐름도이다. 도 9는 검출부(131)의 동작을 나타낸 개략도이다.8 is a flowchart illustrating operations of the
입수 유니트(110) 또는 별도의 입력부를 통해 신규 동영상(20)의 식별 정보 ID가 수신될 수 있다(S 561).The identification information ID of the
입수 유니트(110)는 수신한 신규 동영상(20) ID로 동영상(20) 데이터베이스에서 동영상(20) 파일을 받아올 수 있다(S 562).The obtaining
검출부(131)는 동영상(20)에서 하나의 프레임을 읽어올 수 있다(S 563).The
검출부(131)는 추출 모델(31)에 해당하는 객체검출모델에 프레임을 입력하고, 객체탐지 및 추적된 객체의 좌표와 객체 ID를 반환받을 수 있다. 검출부(131)는 탐지된 객체마다 프레임에서 객체전신만 남기고 나머지 영역을 잘라내어 객체 이미지를 생성할 수 있다(S 564)The
검출부(131)는 분류 모델(32)에 해당하는 포즈추정모델에 객체 이미지들을 입력하고 객체의 스켈레톤을 추출할 수 있다(S 565).The
산출부(133)는 객체가 정지한 시점 및 보행이 시작된 후 객체의 보폭과 팔다리 움직임의 변화량을 측정할 수 있다(S 566).The
검출부(131)는 동영상(20)에서 다음 프레임을 읽어올 수 있다(S 567).The
변환부(135)는 측정이 종료되면(S 567) 보폭 및 팔다리의 움직임 변화량을 통합해 스펙트로그램 이미지로 변환할 수 있다(S 568).When the measurement is finished (S 567), the
객체 ID, 이미지, 검출시간 및 보폭정보는 객체데이터베이스에 저장되며, 변환된 스펙트로그램 이미지 및 보폭 정보는 포즈데이터베이스에 저장될 수 있다.Object ID, image, detection time, and step length information are stored in an object database, and the converted spectrogram image and step length information may be stored in a pose database.
변환부(135)는 검출된 객체들의 ID를 판별부(137)로 전달한다. 검출부(131)는 영상으로부터 객체를 탐지하고 보행 특성을 얻는 작업을 수행할 수 있다. 측정된 보행 특성은 판별부(137)에서 사용할 수 있도록 스펙트로그램 이미지로 변환될 수 있다. 이러한 과정을 통해 판별부(137)에서 보행 특성을 분석하여 치매를 판별할 수 있다. The
도 10은 판별부(137)의 동작을 나타낸 흐름도이다. 도 11은 판별부(137)의 동작을 나타낸 개략도이다.10 is a flowchart showing the operation of the
판별부(137)는 보행자(90)에 해당하는 객체의 보행 특성을 바탕으로 보행자(90)의 치매 여부를 판단할 수 있다. 판별부(137)에 탑재되는 판별 모델(33)은 보폭 및 팔다리 움직임 변화량을 분석하여 객체의 치매 여부를 판단할 수 있다.The
판별부(137)의 동작 순서는 아래와 같을 수 있다.The operation sequence of the determining
판별부(137)는 치매 판별이 필요한 객체 ID를 수신할 수 있다(S 571).The
판별부(137)는 포즈데이터베이스에서 객체의 스펙트로그램 이미지를 받아올 수 있다(S 572).The
판별부(137)는 치매 판별 전 스펙트로그램 이미지를 전처리할 수 있다.The
판별부(137)는 사전 학습된 판별 모델(33)에 전처리된 스펙트로그램 이미지를 입력하고 치매 여부를 반환받을 수 있다(S 573).The
판별부(137)는 치매 판별 결과를 객체데이터베이스에 저장할 수 있다(S 574).The
판별부(137)는 치매 판별 결과를 추적부(139)로 전달할 수 있다. 판별부(137)는 도 11과 같이 스펙트로그램 이미지를 입력받아 치매 여부를 판단할 수 있다. 판별 모델(33)에 입력하기 전 스펙트로그램 이미지를 크기별로 나누는 등의 전처리가 수행될 수 있다. 전처리 과정을 통해 설정 시간별 보행 특성이 추출되고 치매의 판별 자료로 사용될 수 있다.The
도 12는 추적부(139)의 동작을 나타낸 개략도이다.12 is a schematic diagram showing the operation of the
추적부(139)는 특정 카메라(10)에서 촬영된 보행자(90)가 치매 환자로 판별되고, 해당 특정 보행자가 특정 카메라(10)의 시야에서 벗어난 경우 특정 보행자의 재인식을 수행할 수 있다.The
일 예로, 추적부(139)는 치매 환자에 해당하는 특정 보행자가 검출된 위치로부터 설정 반경 내의 카메라(10)에서 촬영된 동영상(20)으로부터 검출된 객체들을 특정 보행자와 비교할 수 있다.For example, the
추적부(139)는 신속하고 정확한 재식별을 수행하기 위해 2가지 모델을 사용할 수 있다.
추적부(139)는 재식별을 위해 특징 모델(34)에 해당하는 객체재인식모델과 분석 모델을 사용할 수 있다.The
객체재인식모델은 객체 외형 정보만을 비교하여 수많은 객체들 중 특정 보행자와 외형이 비슷한 후보군을 선출할 수 있다. 분석 모델은 객체재인식모델보다 많은 요소를 사용해 재인식을 한 번 더 수행해 후보군 순위를 재정렬할 수 있다. 분석 모델은 2가지 모델을 사용해 수많은 객체 중 치매 객체(특정 보행자)를 빠르고 정확하게 찾을 수 있다.The object recognition model compares only object appearance information to select a candidate group that has a similar appearance to a specific pedestrian among numerous objects. The analysis model can rearrange the rankings of the candidate groups by performing re-recognition one more time using more elements than the object re-recognition model. The analysis model can quickly and accurately find a dementia object (a specific pedestrian) among numerous objects using two models.
객체재인식모델 및 분석 모델의 처리과정은 아래와 같다.The processing process of the object recognition model and analysis model is as follows.
추적부(139)는 치매 환자로 판별받은 특정 보행자의 개체 ID를 수신할 수 있다(S 581). 다시 말해, 특정 카메라(10)의 동영상(20)에서 치매 환자가 판별되면, 해당 치매 환자의 식별 정보 ID가 복수의 추적부(139)에 전파될 수 있다.The
추적부(139)는 객체데이터베이스에서 대상의 이미지, 검출 시간, 동영상(20) ID를 받아올 수 있다(S 582).The
추적부(139)는 대상의 검출시간 및 동영상(20) ID로 사전 정의된 탐색 범위 내에 포함되는 객체를 저장부에서 찾고, 객체 ID, 이미지 및 보폭 정보를 받아올 수 있다(S 582).The
추적부(139)는 재식별모델에 객체 이미지를 입력해 특징값을 반환받을 수 있다(S 583).The
추적부(139)는 유사도 판별 알고리즘을 이용하여 대상의 특징값과 비교하여 N개의 근사한 객체 이미지만 선발한 후 후보군을 생성할 수 있다(S 584).The
추적부(139)는 포즈데이터베이스에서 대상 및 후보군의 스펙트로그램 이미지와 보폭 특성을 받아올 수 있다(S 585).The
추적부(139)는 분석 모델에 스펙트로그램 이미지, 객체 이미지 및 보폭 특성을 입력해 특징값을 반환받을 수 있다(S 586).The
추적부(139)는 대상과 후보군의 특징값을 비교해 유사도를 기반으로 후보군의 순위를 재정렬할 수 있다(S 587).The
추적부(139)는 동적을 추적하는 추적 모델에 대상 및 후보군의 객체 ID, 이미지 및 순위정보를 전달할 수 있다(S 588). 재인식 정확도는 높지만 속도가 느린 분석 모델의 단점이 객체재인식모델을 통해 보완될 수 있다. 분석 모델은 많은 자원 및 시간이 필요하기 때문에 선별된 후보군만을 대상으로 적용될 수 있다. 확률이 높은 객체만 요소 분석을 수행하도록 하여 작업 효율이 개선될 수 있다.The
도 13은 추적부(139)의 다른 동작을 나타낸 개략도이다.13 is a schematic diagram showing another operation of the
추적부(139)에 탑재된 추적 모델은 치매 객체에 해당하는 특정 보행자의 이동 경로를 지도에 표시할 수 있다. 관리자에게 후보군이 전달되며, 관리자는 촬영 기기마다 검출된 후보들 중에서 치매 객체로 판단되는 후보 객체를 선택할 수 있다. 선택이 완료되면 추적부(139)는 지도상에 치매 객체 이동경로를 표시하여 동선을 추적할 수 있다.The tracking model loaded in the
추적부(139)의 추적 모델은 치매 객체 및 후보군의 객체 ID, 이미지 및 순위정보를 수신할 수 있다(S 591, S 592). 분석 모델 및 추적 모델이 함께 추적부(139)에 탑재된 경우, 본 과정은 생략되고 분석 모델의 출력값이 곧바로 추적 모델에 입력될 수 있다.The tracking model of the
추적부(139)에 의해 관리자의 단말기에게 재식별 결과가 제공되며(S 593), 이때 촬영 기기별 후보 객체의 이미지가 순위대로 표시될 수 있다.The re-identification result is provided to the manager's terminal by the tracking unit 139 (S593), and at this time, images of candidate objects for each photographing device may be displayed in order of rank.
관리자는 채널마다 표시된 이미지들 중 치매 객체와 동일하다고 판단되는 후보 객체 이미지를 선택할 수 있다(S 594).The administrator may select a candidate object image determined to be the same as the dementia object from among the images displayed for each channel (S594).
관리자의 선택이 완료되면, 추적부(139)는 저장부에서 선택된 후보 객체의 검출 시간 및 촬영 위치 정보를 받아올 수 있다.When the manager's selection is completed, the
추적부(139)는 받아온 검출시간 및 촬영위치로 지도상에 선택된 후보군 객체의 이동경로를 표기할 수 있다(S 595). 관리자가 최종적으로 치매 객체와 동일한 객체인지 판단하여 이동경로를 추적할 수 있다. 딥러닝 모델을 이용해 수만 개의 객체가 채널별로 수십 개의 후보군들로 선별되어 관리자에게 제공될 수 있다. 이를 통해 관리자는 빠르고 정확하고 치매 환자의 동선을 추적할 수 있다.The
도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 14의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 추적 장치 등) 일 수 있다. 14 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 14 may be a device (eg, a tracking device, etc.) described in this specification.
도 14의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 14 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. belong to the scope of the invention.
10...카메라
2
0...동영상
31...추출 모델
32...분류 모델
33...판별 모델
34...특징 모델
80...보행로
90...보행자
110...입수 유니트
130...추적 유니트
131...검출부
133...산출부
135...변환부
137...판별부
139...추적부10...Camera 2 0...Movie
31 ...
33...
80...
110 ...
131 ... detecting
135 ...
139 ... tracking unit
Claims (10)
상기 동영상의 분석을 통해 상기 보행자가 치매 환자인지 여부를 판단하거나 특정 보행자를 추적하는 추적 유니트;
를 포함하는 추적 장치.
an acquisition unit that obtains a motion picture of a pedestrian;
a tracking unit that determines whether the pedestrian is a dementia patient or tracks a specific pedestrian through analysis of the video;
Tracking device comprising a.
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 걸음걸이를 분석하고, 상기 걸음걸이의 분석 결과를 이용해 상기 보행자의 치매 여부를 판단하는 추적 장치.
According to claim 1,
The tracking unit analyzes the gait of the pedestrian included in the video and determines whether the pedestrian has dementia using the analysis result of the gait.
상기 보행자를 촬영하고 상기 동영상을 생성하는 카메라가 마련되고,
상기 추적 유니트는 상기 카메라가 설치된 위치가 포함된 제1 위치 정보, 상기 카메라에 의해 촬영된 위치를 나타내는 제2 위치 정보, 상기 동영상 내에서 상기 보행자가 이동하는 방향 정보 중 적어도 하나를 이용해 치매 환자를 추적하는 추적 장치.
According to claim 1,
A camera for photographing the pedestrian and generating the video is provided,
The tracking unit detects patients with dementia using at least one of first location information including a location where the camera is installed, second location information indicating a location photographed by the camera, and information on a direction in which the pedestrian moves in the video. Tracking device to track.
상기 추적 유니트에는 기계 학습을 통해 생성된 추출 모델, 분류 모델, 판별 모델이 마련되고,
상기 추출 모델은 상기 동영상이 입력되면 상기 동영상에 포함된 보행자를 추출하며,
상기 분류 모델은 상기 추출 모델을 통해 추출된 상기 보행자의 관절 키포인트를 분석하고, 상기 키포인트를 이용하여 상기 보행자의 스켈레톤을 형성하고,
상기 판별 모델은 상기 스켈레톤의 분석을 통해 산출된 상기 보행자의 보폭 및 보행 속도가 포함된 보행 특성을 이용하여 상기 보행자의 치매 여부를 판별하는 추적 장치.
According to claim 1,
The tracking unit is provided with an extraction model, a classification model, and a discrimination model generated through machine learning,
The extraction model extracts pedestrians included in the video when the video is input,
The classification model analyzes the joint keypoints of the pedestrian extracted through the extraction model, and forms a skeleton of the pedestrian using the keypoints,
The discrimination model is a tracking device for determining whether the pedestrian has dementia using gait characteristics including the stride length and walking speed of the pedestrian calculated through the analysis of the skeleton.
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 추적 유니트는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 추적 유니트는 상기 보행자가 보행할 때 상기 보행자의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하고,
상기 추적 유니트는 상기 보행자의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 상기 보폭, 상기 보행 속도, 상기 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성하며,
상기 추적 유니트는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 상기 검사 신호를 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환하고,
상기 추적 유니트는 상기 처리 신호를 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지로 변환하며,
상기 추적 유니트는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자가 치매일 확률을 산출하고,
상기 추적 유니트는 상기 치매일 확률이 설정값을 만족하면 상기 보행자를 치매 환자로 판단하며, 상기 치매일 확률이 상기 설정값을 불만족하면 상기 보행자를 정상인으로 판단하는 추적 장치.
According to claim 1,
The tracking unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video;
The tracking unit calculates the step length and walking speed of the pedestrian using the interval,
The tracking unit extracts joint motion including the amount of change in arm joints and the amount of change in leg joints of the pedestrian when the pedestrian walks;
The tracking unit generates one test signal by summing each signal indicating the step length, the walking speed, and the joint motion obtained after the pedestrian's gait continuously lasts for a set time or more;
The tracking unit uses a short-time Fourier transform (STFT) algorithm to convert the test signal into a processing signal representing a step length change amount according to time change,
The tracking unit converts the processing signal into a spectrogram image including the stride length and the walking speed;
The tracking unit calculates a probability that the pedestrian has dementia through analysis of the spectrogram image;
wherein the tracking unit determines that the pedestrian is a dementia patient if the probability of dementia satisfies a set value, and determines the pedestrian as a normal person if the probability of dementia does not satisfy the set value.
상기 추적 유니트는 합성곱 신경망을 사용하여 생성된 판별 모델에 상기 스펙트로그램 이미지를 입력하고,
상기 판별 모델은 상기 스펙트로그램 이미지를 시간의 흐름상 설정 간격으로 분할하고 시간 변화에 따른 보행 특성을 분석하며,
상기 판별 모델은 상기 보행 특성의 분석을 통해 상기 보행자의 보폭 변화량과 상기 보행 속도의 변화량을 분석하여 상기 보행자의 치매 여부를 판별하는 추적 장치.
According to claim 5,
The tracking unit inputs the spectrogram image to a discriminant model generated using a convolutional neural network;
The discrimination model divides the spectrogram image into set intervals in the flow of time and analyzes the gait characteristics according to the change in time,
The discrimination model determines whether the pedestrian has dementia by analyzing the amount of change in the step length and the amount of change in the walking speed of the pedestrian through the analysis of the gait characteristics.
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 추적 유니트는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 추적 유니트는 상기 보행자가 보행할 때 상기 보행자의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하고,
상기 추적 유니트는 상기 보행자의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 상기 보폭, 상기 보행 속도, 상기 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성하며,
상기 추적 유니트는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환되고,
상기 추적 유니트는 상기 처리 신호를 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지로 변환하며,
상기 추적 유니트는 상기 보폭 및 상기 보행 속도가 포함된 상기 보행자의 보행 특성, 상기 스펙트로그램 이미지를 이용하여 상기 보행자가 상기 특정 보행자인지 여부를 판별하고,
상기 추적 유니트는 상기 보행자가 상기 특정 보행자로 판별되면, 상기 보행자의 동선을 추적하는 추적 장치.
According to claim 1,
The tracking unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video;
The tracking unit calculates the step length and walking speed of the pedestrian using the interval,
The tracking unit extracts joint motion including the amount of change in arm joints and the amount of change in leg joints of the pedestrian when the pedestrian walks;
The tracking unit generates one test signal by summing each signal representing the step length, the walking speed, and the joint motion obtained after the pedestrian's gait continuously lasts for a set time or more;
The tracking unit is converted into a processing signal representing a change in step length with time using a short-time Fourier transform (STFT) algorithm,
The tracking unit converts the processing signal into a spectrogram image including the stride length and the walking speed;
The tracking unit determines whether the pedestrian is the specific pedestrian using the walking characteristics of the pedestrian including the step length and the walking speed and the spectrogram image;
The tracking unit tracks the movement of the pedestrian when the pedestrian is determined as the specific pedestrian.
검출부, 산출부, 변환부, 판별부, 추적부가 마련되고,
상기 검출부는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 산출부는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 변환부는 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하고,
상기 판별부는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자의 치매 여부를 판별하며,
상기 추적부는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자와 상기 특정 보행자의 일치 여부를 판별하고, 상기 특정 보행자로 판별된 상기 보행자의 동선을 추적하는 추적 장치.
According to claim 1,
A detection unit, a calculation unit, a conversion unit, a determination unit, and a tracking unit are provided,
The detection unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video,
The calculation unit calculates the step length and walking speed of the pedestrian using the interval,
The conversion unit generates a spectrogram image including the stride length and the walking speed,
The determination unit determines whether the pedestrian has dementia through analysis of the spectrogram image,
The tracking unit determines whether the pedestrian and the specific pedestrian match through analysis of the spectrogram image, and tracks the movement of the pedestrian determined to be the specific pedestrian tracking device.
설정 지역을 촬영한 동영상을 입수하는 단계;
상기 동영상에 포함된 보행자를 추출하는 단계;
상기 보행자의 스켈레톤을 형성하는 단계;
상기 스켈레톤의 분석을 통해 상기 보행자의 보폭 및 보행 속도를 측정하는 단계;
상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계;
딥러닝 알고리즘을 통해 생성된 판별 모델을 이용하여 상기 스펙트로그램 이미지를 분석하고, 상기 보행자의 치매 여부를 판별하는 단계;
를 포함하는 추적 방법.
In the tracking method performed by the tracking device,
Obtaining a video recording a set area;
extracting pedestrians included in the video;
forming a skeleton of the pedestrian;
measuring a step length and walking speed of the pedestrian through analysis of the skeleton;
generating a spectrogram image including the stride length and the walking speed;
analyzing the spectrogram image using a discrimination model generated through a deep learning algorithm and determining whether the pedestrian has dementia;
A tracking method that includes.
설정 지역을 촬영한 동영상을 입수하는 단계;
상기 동영상에 포함된 보행자를 나타내는 객체 이미지를 추출하는 단계;
상기 객체 이미지의 분석을 통해 상기 보행자의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계;
상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계;
상기 객체 이미지, 상기 보행 특성 및 상기 스펙트로그램 이미지를 이용해서 상기 보행자가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계;
상기 특정 보행자와 일치하는 것으로 판별된 보행자에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계;
를 포함하는 추적 방법.In the tracking method performed by the tracking device,
Obtaining a video recording a set area;
extracting an object image representing a pedestrian included in the video;
extracting a gait characteristic including a step length and a gait speed of the pedestrian through analysis of the object image;
generating a spectrogram image including the stride length and the walking speed;
determining whether or not the pedestrian matches a specific pedestrian entered using the object image, the gait characteristics, and the spectrogram image;
displaying a movement path of a candidate object corresponding to the pedestrian determined to match the specific pedestrian on a map;
A tracking method that includes.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210065921A KR20220158322A (en) | 2021-05-24 | 2021-05-24 | Apparatus and method for tracking patients with dementia |
JP2021544588A JP2024519620A (en) | 2021-05-24 | 2021-06-16 | Dementia patient tracking device and method |
PCT/KR2021/007546 WO2022250196A1 (en) | 2021-05-24 | 2021-06-16 | Dementia patient tracking device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210065921A KR20220158322A (en) | 2021-05-24 | 2021-05-24 | Apparatus and method for tracking patients with dementia |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220158322A true KR20220158322A (en) | 2022-12-01 |
Family
ID=84228260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210065921A KR20220158322A (en) | 2021-05-24 | 2021-05-24 | Apparatus and method for tracking patients with dementia |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2024519620A (en) |
KR (1) | KR20220158322A (en) |
WO (1) | WO2022250196A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102581933B1 (en) * | 2023-03-21 | 2023-09-22 | 에이트스튜디오 주식회사 | Apparatus for classifying degenerative disease |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101792339B1 (en) | 2015-09-02 | 2017-11-01 | 케이티하이텔 주식회사 | System for providing open platform of traking beacon possessed by dementia patient |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9489570B2 (en) * | 2013-12-31 | 2016-11-08 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for emotion and behavior recognition |
KR102102931B1 (en) * | 2018-04-23 | 2020-04-22 | 주식회사 바이탈식스랩 | Dementia prediction system |
KR102285632B1 (en) * | 2019-01-03 | 2021-08-04 | 한국전자기술연구원 | Health abnormality detection system and method using gait pattern |
KR102313044B1 (en) * | 2019-10-16 | 2021-10-19 | 한국과학기술연구원 | Method and system for evaluating elderly health status using characteristics of walk-in-place |
KR102260120B1 (en) * | 2019-11-04 | 2021-06-03 | 주식회사 넥스트케이 | Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof |
-
2021
- 2021-05-24 KR KR1020210065921A patent/KR20220158322A/en not_active Application Discontinuation
- 2021-06-16 WO PCT/KR2021/007546 patent/WO2022250196A1/en active Application Filing
- 2021-06-16 JP JP2021544588A patent/JP2024519620A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101792339B1 (en) | 2015-09-02 | 2017-11-01 | 케이티하이텔 주식회사 | System for providing open platform of traking beacon possessed by dementia patient |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102581933B1 (en) * | 2023-03-21 | 2023-09-22 | 에이트스튜디오 주식회사 | Apparatus for classifying degenerative disease |
Also Published As
Publication number | Publication date |
---|---|
JP2024519620A (en) | 2024-05-21 |
WO2022250196A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103048654B (en) | Radar sensor and method for detecting objects using the same | |
US8983124B2 (en) | Moving body positioning device | |
US7613325B2 (en) | Human detection device and human detection method | |
US7702019B2 (en) | Moving object detection device and moving object detection method | |
CN109829382B (en) | Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis | |
JP6988790B2 (en) | Crowd type identification system, crowd type identification method and crowd type identification program | |
US20220277463A1 (en) | Tracking dynamics using a computerized device | |
KR102221817B1 (en) | Mobile terminal for providing location information, method and system for measuring the location information | |
CN112307868A (en) | Image recognition method, electronic device, and computer-readable medium | |
TWI776566B (en) | Action recognition method, computer equipment and computer readable storage medium | |
Gupta et al. | Let the blind see: an AIIoT-based device for real-time object recognition with the voice conversion | |
CN112668374A (en) | Image processing method and device, re-recognition network training method and electronic equipment | |
KR20220158322A (en) | Apparatus and method for tracking patients with dementia | |
US20230148135A1 (en) | Tracking user and object dynamics using a computerized device | |
KR101313879B1 (en) | Detecting and Tracing System of Human Using Gradient Histogram and Method of The Same | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
Bačić | Echo state network for 3D motion pattern indexing: A case study on tennis forehands | |
KR102475752B1 (en) | Method and apparatus for prodicting moving path | |
Dasari et al. | Mpeg cdvs feature trajectories for action recognition in videos | |
CN110069995A (en) | A kind of service plate moving state identification method based on deep learning | |
JP2021196899A (en) | Image processing apparatus, image processing method, and program | |
Magdy et al. | Human activity recognition in maintenance centers to reduce wasted time | |
JP2020064568A (en) | Video analysis system, learning device, and method thereof | |
CJ et al. | Robust Human Activity Recognition using Multimodal Feature-Level Fusion. | |
JP7019113B2 (en) | Relative position detector, relative position detection method, and relative position detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |