KR20220158322A - Apparatus and method for tracking patients with dementia - Google Patents

Apparatus and method for tracking patients with dementia Download PDF

Info

Publication number
KR20220158322A
KR20220158322A KR1020210065921A KR20210065921A KR20220158322A KR 20220158322 A KR20220158322 A KR 20220158322A KR 1020210065921 A KR1020210065921 A KR 1020210065921A KR 20210065921 A KR20210065921 A KR 20210065921A KR 20220158322 A KR20220158322 A KR 20220158322A
Authority
KR
South Korea
Prior art keywords
pedestrian
tracking
dementia
tracking unit
unit
Prior art date
Application number
KR1020210065921A
Other languages
Korean (ko)
Inventor
박윤하
김대수
서우석
윤창섭
Original Assignee
주식회사우경정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사우경정보기술 filed Critical 주식회사우경정보기술
Priority to KR1020210065921A priority Critical patent/KR20220158322A/en
Priority to JP2021544588A priority patent/JP2024519620A/en
Priority to PCT/KR2021/007546 priority patent/WO2022250196A1/en
Publication of KR20220158322A publication Critical patent/KR20220158322A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Provided is a tracking device. The tracking device includes: an acquisition unit for acquiring a video of a pedestrian; and a tracking unit for determining whether the pedestrian is a dementia patient or tracks a specific pedestrian through analysis of the video. The tracking device of the present invention can determine whether a pedestrian has dementia through analysis of a video taken by a camera.

Description

치매 환자 추적 장치 및 방법{Apparatus and method for tracking patients with dementia}Apparatus and method for tracking patients with dementia}

본 발명은 치매 환자를 분류하고 추적하는 장치 및 방법에 관한 것이다.The present invention relates to devices and methods for classifying and tracking patients with dementia.

다양한 원인에 의해서 기억력을 비롯한 행동 기능에 장애가 생기고 일상생활을 유지하기 어려운 상태를 치매라 한다. 특히, 치매 환자의 '배회' 증상은 간호하는데 가장 큰 고민거리 중 하나이다. 치매 환자는 집안에서 배회할 뿐만 아니라, 집 밖으로 나가서 간혹 길을 잃어버리기도 한다. 치매 환자가 길을 잃었을 경우, 조기에 발견하지 못하면 교통사고, 영양 실조, 건강 악화 등의 이유로 위험에 빠질 수 있어 이를 예방하기 위한 철저한 준비가 필요하다.Dementia is a condition in which memory and behavioral functions are impaired due to various causes and it is difficult to maintain daily life. In particular, the 'wandering' symptom of dementia patients is one of the biggest concerns in nursing. Dementia patients not only wander around the house, but sometimes go out of the house and get lost. If dementia patients get lost, they may be in danger due to traffic accidents, malnutrition, health deterioration, etc. if not detected early.

한국등록특허공보 제1792339호에는 치매 환자가 소지한 비콘의 위치를 추적하는 기술이 나타나 있다.Korean Patent Registration No. 1792339 discloses a technology for tracking the location of a beacon possessed by a patient with dementia.

한국등록특허공보 제1792339호Korean Registered Patent Publication No. 1792339

본 발명은 설치된 CCTV를 활용하여 사람의 걸음걸이를 분석함으로써 치매 유무를 분석함과 동시에 재인식 기술을 적용해 치매환자의 위치를 추적할 수 있는 추적 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a tracking device and method capable of analyzing the presence or absence of dementia by analyzing a person's gait using an installed CCTV and at the same time tracking the location of a dementia patient by applying re-recognition technology.

본 발명의 추적 장치는 보행자를 촬영한 동영상을 입수하는 입수 유니트; 상기 동영상의 분석을 통해 상기 보행자가 치매 환자인지 여부를 판단하거나 특정 보행자를 추적하는 추적 유니트;를 포함할 수 있다.The tracking device of the present invention includes an acquisition unit for obtaining a video of a pedestrian; It may include; a tracking unit that determines whether the pedestrian is a dementia patient or tracks a specific pedestrian through analysis of the video.

본 발명의 추적 방법은 설정 지역을 촬영한 동영상을 입수하는 단계; 상기 동영상에 포함된 보행자를 추출하는 단계; 상기 보행자의 스켈레톤을 형성하는 단계; 상기 스켈레톤의 분석을 통해 상기 보행자의 보폭 및 보행 속도를 측정하는 단계; 상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계; 딥러닝 알고리즘을 통해 생성된 판별 모델을 이용하여 상기 스펙트로그램 이미지를 분석하고, 상기 보행자의 치매 여부를 판별하는 단계;를 포함할 수 있다.The tracking method of the present invention includes the steps of obtaining a video recording a set area; extracting pedestrians included in the video; forming a skeleton of the pedestrian; measuring a step length and walking speed of the pedestrian through analysis of the skeleton; generating a spectrogram image including the stride length and the walking speed; Analyzing the spectrogram image using a discrimination model generated through a deep learning algorithm, and determining whether the pedestrian has dementia.

본 발명의 추적 방법은 설정 지역을 촬영한 동영상을 입수하는 단계; 상기 동영상에 포함된 보행자를 나타내는 객체 이미지를 추출하는 단계; 상기 객체 이미지의 분석을 통해 상기 보행자의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계; 상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계; 상기 객체 이미지, 상기 보행 특성 및 상기 스펙트로그램 이미지를 이용해서 상기 보행자가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계; 상기 특정 보행자와 일치하는 것으로 판별된 보행자에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계;를 포함할 수 있다.The tracking method of the present invention includes the steps of obtaining a video recording a set area; extracting an object image representing a pedestrian included in the video; extracting a gait characteristic including a step length and a gait speed of the pedestrian through analysis of the object image; generating a spectrogram image including the stride length and the walking speed; determining whether or not the pedestrian matches a specific pedestrian entered using the object image, the gait characteristics, and the spectrogram image; and displaying a movement path of a candidate object corresponding to the pedestrian determined to match the specific pedestrian on a map.

본 발명의 추적 장치는 카메라에 의해 촬영된 동영상의 분석을 통해 보행자의 치매 여부를 판단할 수 있다.The tracking device of the present invention can determine whether a pedestrian has dementia through analysis of a video taken by a camera.

특히, 본 발명의 추적 장치는 동영상에 포함된 보행자의 보행 특성을 이용하여 보행자가 치매 환자인지 여부를 판별할 수 있다.In particular, the tracking device of the present invention can determine whether the pedestrian is a dementia patient by using the walking characteristics of the pedestrian included in the video.

또한, 본 발명의 추적 장치는 서로 다른 곳에 설치된 복수의 카메라를 이용하여 치매 환자를 지속적으로 추적할 수 있는 방안을 제공할 수 있다.In addition, the tracking device of the present invention can provide a way to continuously track a patient with dementia using a plurality of cameras installed in different places.

본 발명의 추적 장치는 복수의 카메라와 통신할 수 있으며, 복수의 카메라로부터 수신된 동영상을 각각 분석할 수 있다. 추적 장치는 동영상의 분석을 통해 치매 환자를 분류하거나 특정할 수 있다. 또한, 추적 장치는 특정 카메라에서 촬영된 동영상의 분석을 통해 특정 보행자가 치매 환자로 판별되면, 해당 특정 보행자의 보행 특성 또는 스펙트로그램을 저장할 수 있다. 추적 장치는 다른 카메라에서 촬영된 보행자의 보행 특성 또는 스펙트로그램을 기저장된 것과 비교하는 방식을 통해 치매 환자로 판별된 특정 보행자를 다른 카메라의 동영상에서 인식할 수 있다. 다른 카메라에서의 특정 보행자 재인식이 완료되면, 추정 장치는 각 카메라의 위치 정보, 촬영 시각 정보, 동영상 내 특정 보행자의 이동 방향 등을 종합해서 특정 보행자의 동선을 추정하거나 추적할 수 있다.The tracking device of the present invention can communicate with a plurality of cameras, and can analyze each video received from the plurality of cameras. The tracking device can classify or specify dementia patients through video analysis. In addition, when a specific pedestrian is determined to be a patient with dementia through analysis of a video captured by a specific camera, the tracking device may store the gait characteristics or spectrogram of the specific pedestrian. The tracking device may recognize a specific pedestrian determined to be a dementia patient from a video clip of another camera by comparing the gait characteristics or spectrogram of the pedestrian photographed by another camera with a previously stored one. When the recognition of a specific pedestrian by other cameras is completed, the estimating device may estimate or track the movement of a specific pedestrian by integrating location information of each camera, photographing time information, moving direction of the specific pedestrian in the video, and the like.

본 발명의 추적 장치 및 추적 방법에 따르면, 치매 환자의 초기 발견이 가능한 동시에 치매 환자의 위치가 자동으로 추정될 수 있다. 이를 통해 배회 증상을 갖는 치매 환자의 안전이 확보될 수 있다.According to the tracking device and tracking method of the present invention, the location of a patient with dementia can be automatically estimated while an early detection of a patient with dementia is possible. Through this, the safety of dementia patients with wandering symptoms can be secured.

도 1은 본 발명의 추적 장치를 나타낸 개략도이다.
도 2는 추적 유니트를 나타낸 블록도이다.
도 3은 추적 유니트의 제1 동작을 나타낸 개략도이다.
도 4는 추적 유니트의 제2 동작을 나타낸 개략도이다.
도 5는 추적 유니트의 추적 동작을 나타낸 개략도이다.
도 6은 본 발명의 추적 방법을 나타낸 흐름도이다.
도 7은 본 발명의 다른 추적 방법을 나타낸 흐름도이다.
도 8은 검출부, 산출부 및 변환부의 동작을 나타낸 흐름도이다.
도 9는 검출부의 동작을 나타낸 개략도이다.
도 10은 판별부의 동작을 나타낸 흐름도이다.
도 11은 판별부의 동작을 나타낸 개략도이다.
도 12는 추적부의 동작을 나타낸 개략도이다.
도 13은 추적부의 다른 동작을 나타낸 개략도이다.
도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a schematic diagram showing a tracking device of the present invention.
2 is a block diagram illustrating a tracking unit.
3 is a schematic diagram showing a first operation of the tracking unit.
4 is a schematic diagram showing a second operation of the tracking unit.
5 is a schematic diagram showing the tracking operation of the tracking unit.
6 is a flowchart illustrating the tracking method of the present invention.
7 is a flowchart illustrating another tracking method of the present invention.
8 is a flowchart illustrating operations of a detection unit, a calculation unit, and a conversion unit.
9 is a schematic diagram showing the operation of the detection unit.
10 is a flowchart illustrating the operation of the determination unit.
11 is a schematic diagram showing the operation of the determining unit.
12 is a schematic diagram showing the operation of the tracking unit.
13 is a schematic diagram showing another operation of the tracking unit.
14 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, redundant descriptions of the same components are omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, when a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but another component in the middle It should be understood that may exist. On the other hand, in this specification, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'having' are only intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It should be understood that the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any item among a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted.

본 발명의 추적 장치는 CCTV 카메라, 이동 통신 단말기에 설비된 카메라, 휴대용 카메라와 같은 각종 카메라(10)를 이용하여 보행자(90)의 걸음걸이를 분석하여 치매의 유무를 파악하고 보행자(90)의 이동 경로를 추적할 수 있다. 치매 질환은 신경학적인 손상으로 인해 보행 장애가 동반되기 때문에 걸음걸이를 분석하면 치매의 유무가 추정될 수 있다. 이후, 재인식을 통해 치매로 판단된 보행자(90)의 이동 경로가 추적될 수 있다.The tracking device of the present invention analyzes the gait of a pedestrian 90 using various cameras 10 such as a CCTV camera, a camera installed in a mobile communication terminal, and a portable camera to determine the presence or absence of dementia and to determine the presence or absence of dementia. You can track your route. Dementia disease is accompanied by gait disturbance due to neurological damage, so the presence or absence of dementia can be estimated by analyzing gait. Thereafter, the movement path of the pedestrian 90 determined to have dementia through re-recognition may be tracked.

도 1은 본 발명의 추적 장치를 나타낸 개략도이다.1 is a schematic diagram showing a tracking device of the present invention.

도 1에 도시된 추적 장치는 입수 유니트(110), 추적 유니트(130)를 포함할 수 있다.The tracking device shown in FIG. 1 may include an acquisition unit 110 and a tracking unit 130 .

보행로(80) 등을 따라 걷고 있는 보행자(90)를 촬영하고 동영상(20)을 생성하는 카메라(10)가 마련될 수 있다.A camera 10 may be provided that captures a pedestrian 90 walking along a walking path 80 or the like and generates a video 20 .

입수 유니트(110)는 서로 다른 위치에 배치된 복수의 카메라(10)와 통신할 수 있다. 입수 유니트(110)는 카메라(10)와의 통신을 통해 보행자(90)를 촬영한 동영상(20)을 입수할 수 있다. 일 예로, 카메라(10)로부터 입수된 동영상(20)은 초당 수십 프레임(frame)으로 촬영된 것일 수 있다.The acquisition unit 110 may communicate with a plurality of cameras 10 disposed at different locations. The acquisition unit 110 may obtain the video 20 of the pedestrian 90 through communication with the camera 10 . For example, the video 20 obtained from the camera 10 may be captured at several tens of frames per second.

각 카메라(10)는 보행자(90)가 다니는 보행로(80)가 포함된 설정 위치를 촬영할 수 있다. 일 예로, 카메라(10)는 설정 지역, 설정 위치를 촬영하는 CCTV(Close Circuit TV), 이동 통신 단말기의 카메라, 휴대용 카메라를 포함할 수 있다.Each camera 10 may capture a setting location including the walking path 80 where the pedestrian 90 travels. For example, the camera 10 may include a closed circuit TV (CCTV) for capturing a set area and a set position, a camera of a mobile communication terminal, and a portable camera.

입수 유니트(110)에는 각 카메라(10)와 유무선 통신 가능한 통신 모듈이 마련될 수 있다. 복수의 카메라(10)는 중앙 관제실에 마련된 서버와 통신할 수 있다. 이때, 입수 유니트(110)는 해당 서버에 일체로 형성되거나, 해당 서버로부터 각 카메라(10)에서 촬영된 동영상(20)을 수신할 수 있다.A communication module capable of wired/wireless communication with each camera 10 may be provided in the acquisition unit 110 . The plurality of cameras 10 may communicate with a server provided in the central control room. At this time, the acquisition unit 110 may be integrally formed in the corresponding server, or may receive the video 20 captured by each camera 10 from the corresponding server.

추적 유니트(130)는 동영상(20)의 분석을 통해, 동영상(20)에 포함된 보행자(90)가 치매 환자인지 여부를 판단하거나 치매 환자로 추정되는 특정 보행자를 추적할 수 있다.The tracking unit 130 may determine whether the pedestrian 90 included in the video 20 is a dementia patient or track a specific pedestrian presumed to be a dementia patient through analysis of the video 20 .

추적 유니트(130)는 동영상(20)에 포함된 보행자(90)의 걸음걸이를 분석하고, 걸음걸이의 분석 결과를 이용해 보행자(90)의 치매 여부를 판단할 수 있다.The tracking unit 130 may analyze the gait of the pedestrian 90 included in the video 20 and determine whether the pedestrian 90 has dementia using the analysis result of the gait.

일 예로, 추적 유니트(130)는 동영상(20)의 분석을 통해 보행자(90)의 보행 특성, 예를 들어 보폭, 보행 속도, 보폭의 변화량, 보행 속도의 변화량 중 적어도 하나를 분석할 수 있다. 추적 유니트(130)는 보폭, 보행 속도, 보폭의 변화량, 보행 속도의 변화량 중 적어도 하나를 이용해서 보행자(90)의 치매 여부를 판별할 수 있다. 일반적으로 치매 환자의 걸음걸이는 정상인의 걸음걸이와 다르다. 그 결과, 치매 환자의 보행 특성과 정상인의 보행 특성 역시 서로 다르며, 이 점을 이용하여 보행자(90)의 치매 여부가 추정될 수 있다.For example, the tracking unit 130 may analyze at least one of the gait characteristics of the pedestrian 90, for example, a step length, a gait speed, a change in step length, and a change in gait speed through the analysis of the video 20. The tracking unit 130 may determine whether the pedestrian 90 has dementia by using at least one of step length, walking speed, change in step length, and change in walking speed. In general, the gait of dementia patients is different from that of normal people. As a result, the gait characteristics of a patient with dementia and the gait characteristics of a normal person are also different, and whether or not the pedestrian 90 has dementia can be estimated using this point.

예를 들어, 추적 유니트(130)는 보폭의 변화량 또는 보행 속도의 변화량이 설정값을 만족하면 보행자(90)를 치매 환자로 판별할 수 있다.For example, the tracking unit 130 may determine the pedestrian 90 as a patient with dementia when the amount of change in step length or change in walking speed satisfies a set value.

추적 유니트(130)는 기계 학습을 통해 보행자(90)의 치매 여부를 판별할 수 있다.The tracking unit 130 may determine whether the pedestrian 90 has dementia through machine learning.

일 예로, 추적 유니트(130)에는 기계 학습을 통해 생성된 추출 모델(31), 분류 모델(32), 판별 모델(33)이 마련될 수 있다.For example, the tracking unit 130 may be provided with an extraction model 31, a classification model 32, and a discrimination model 33 generated through machine learning.

추출 모델(31)은 동영상(20)이 입력되면 동영상(20)에 포함된 보행자(90)를 추출할 수 있다.When the video 20 is input, the extraction model 31 may extract the pedestrian 90 included in the video 20 .

분류 모델(32)은 추출 모델(31)을 통해 추출된 보행자(90)의 관절 키포인트를 분석하고, 키포인트를 이용하여 보행자(90)의 스켈레톤 S을 형성할 수 있다.The classification model 32 may analyze key points of the joints of the pedestrian 90 extracted through the extraction model 31 and form skeleton S of the pedestrian 90 using the key points.

판별 모델(33)은 스켈레톤 S의 분석을 통해 산출된 보행자(90)의 보폭 및 보행 속도가 포함된 보행 특성을 이용하여 보행자(90)의 치매 여부를 판별할 수 있다.The discrimination model 33 may determine whether the pedestrian 90 has dementia using the walking characteristics including the step length and walking speed of the pedestrian 90 calculated through the analysis of the skeleton S.

추적 유니트(130)는 카메라(10)가 설치된 위치가 포함된 제1 위치 정보, 카메라(10)에 의해 촬영된 위치를 나타내는 제2 위치 정보, 동영상(20) 내에서 보행자(90)가 이동하는 방향 정보 중 적어도 하나를 이용해 치매 환자를 추적할 수 있다.The tracking unit 130 includes first location information including a location where the camera 10 is installed, second location information indicating a location captured by the camera 10, and movement of the pedestrian 90 in the video 20. A patient with dementia may be tracked using at least one of the direction information.

치매 환자의 추적은 보행자(90)의 치매 여부, 치매 환자의 위치, 치매 환자의 이동 방향 중 적어도 하나를 파악하는 것을 포함할 수 있다. 또는, 치매 환자의 추적은 파악된 치매 여부 정보, 위치 정보, 이동 방향 정보 중 적어도 하나를 관리자의 단말기에 표시하는 것을 포함할 수 있다. 또는, 치매 환자의 추적은 파악된 위치 정보, 이동 방향 정보 중 적어도 하나를 지도 상에 표시하는 것을 포함할 수 있다.Tracking of the dementia patient may include determining at least one of whether the pedestrian 90 has dementia, the location of the dementia patient, and the movement direction of the dementia patient. Alternatively, the tracking of the patient with dementia may include displaying at least one of the identified dementia or not information, location information, and movement direction information on the manager's terminal. Alternatively, the tracking of the dementia patient may include displaying at least one of the identified location information and movement direction information on a map.

도 2는 추적 유니트(130)를 나타낸 블록도이다. 도 3은 추적 유니트(130)의 제1 동작을 나타낸 개략도이다. 도 4는 추적 유니트(130)의 제2 동작을 나타낸 개략도이다.2 is a block diagram illustrating the tracking unit 130. 3 is a schematic diagram showing a first operation of the tracking unit 130 . 4 is a schematic diagram showing a second operation of the tracking unit 130.

추적 유니트(130)에는 검출부(131), 산출부(133), 변환부(135), 판별부(137), 추적부(139)가 마련될 수 있다.The tracking unit 130 may include a detection unit 131 , a calculation unit 133 , a conversion unit 135 , a determination unit 137 , and a tracking unit 139 .

걸음걸이에 기반하여 치매를 판단하기 위해 보행자(90)로부터 걸음걸이의 특징이 되는 보행 특성들을 추출해야 한다. 노화, 질병에 따라 보폭 및 보행 속도 등 보행의 변화가 나타난다. 이러한 보행 특성을 얻기 위해서는 보행자(90)의 발 위치를 탐지하고 추적할 필요가 있다.In order to determine dementia based on the gait, it is necessary to extract gait characteristics that are characteristic of the gait from the pedestrian 90 . Changes in gait such as stride length and gait speed appear according to aging and disease. In order to obtain these gait characteristics, it is necessary to detect and track the foot position of the pedestrian 90 .

보폭 특성을 얻기 위해서는 우선 양발을 구분하여 탐지해야 하며, 검출부(131)는 도 3과 같이 입력받은 이미지에 해당하는 동영상(20) 또는 동영상(20)을 구성하는 각 프레임에서 객체 추출 모델(31)을 사용하여 보행자(90)를 검출 또는 탐지하고 보행자(90)를 추출할 수 있다.In order to obtain the stride characteristics, both feet must first be detected and detected, and the detection unit 131 uses the video 20 corresponding to the input image as shown in FIG. 3 or the object extraction model 31 in each frame constituting the video 20 It is possible to detect or detect the pedestrian 90 and extract the pedestrian 90 using .

검출부(131)는 동영상(20) 등으로부터 보행자(90)의 영역만 추출한 후 사전에 학습된 관절 키포인트를 설정할 수 있는 분류 모델(32)을 이용해 스켈레톤 s를 형성할 수 있다(추적 유니트(130)의 제1 동작에 해당됨).The detection unit 131 extracts only the area of the pedestrian 90 from the video 20 and the like, and then forms skeleton s using the classification model 32 capable of setting previously learned joint key points (tracking unit 130). Corresponds to the first operation of).

검출부(131)는 동영상(20)에 포함된 보행자(90)의 관절 키포인트를 이용하여 보행자(90)의 양발 간의 간격을 측정할 수 있다. 일 예로, 검출부(131)는 도 3의 스켈레톤 s 중에서 각 발을 나타내는 포인트(point) 11번과 14번 사이의 거리(간격)를 측정할 수 있다.The detection unit 131 may measure the distance between the feet of the pedestrian 90 using the joint key points of the pedestrian 90 included in the video 20 . For example, the detection unit 131 may measure the distance (interval) between points 11 and 14 representing each foot in the skeleton s of FIG. 3 .

산출부(133)는 양발 간의 간격을 이용하여 보행자(90)의 보폭 및 보행 속도를 산출할 수 있다.The calculation unit 133 may calculate the stride length and walking speed of the pedestrian 90 using the distance between both feet.

검출부(131)는 양발 간의 간격을 최초에 보행자(90)가 서있을 때 한번 측정하고, 그 다음에는 보행자(90)가 움직일 경우에만 양발 간의 간격을 측정할 수 있다. 검출부(131)에서 측정된 양발 간의 간격은 보폭과 보행 속도를 나타내는 신호를 형성할 수 있다. 그리고, 검출부(131)는 팔 a와 다리 b의 움직임 정도를 측정하기 위해 포인트 (2, 3, 4), 포인트 (5, 6, 7), 포인트 (9, 10, 11), 포인트 (12, 13, 14)의 최초 위치값을 측정할 수 있다.The detection unit 131 may initially measure the distance between the feet once when the pedestrian 90 is standing, and then measure the distance between the feet only when the pedestrian 90 moves. The distance between the feet measured by the detection unit 131 may form signals representing the stride length and walking speed. And, the detector 131 measures the degree of movement of the arm a and the leg b at points (2, 3, 4), points (5, 6, 7), points (9, 10, 11), points (12, 13, 14) can measure the initial position value.

산출부(133)는 보폭값(포인트 11번과 14번 사이의 거리)이 측정되는 경우에 한하여 팔 a와 다리 b를 나타내는 각 포인트의 변화량도 함께 측정하거나 산출할 수 있다. 다시 말해, 산출부(133)는 보행자(90)가 보행할 때 보행자(90)의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하거나 산출할 수 있다.The calculation unit 133 may also measure or calculate the amount of change of each point indicating the arm a and the leg b only when the step length value (distance between points 11 and 14) is measured. In other words, the calculation unit 133 may extract or calculate a joint motion including a change amount of an arm joint and a change amount of a leg joint of the pedestrian 90 when the pedestrian 90 walks.

변환부(135)는 보행자(90)의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 보폭, 보행 속도, 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성할 수 있다. 변환부(135)에 의해 해당 검사 신호는 치매 판단을 위해 이미지로 변환될 수 있다.The conversion unit 135 may generate one test signal by summing each signal representing the stride length, walking speed, and joint motion obtained after the pedestrian 90 continuously walks for a set time or more. The test signal may be converted into an image for dementia determination by the conversion unit 135 .

일 예로, 변환부(135)는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 검사 신호를 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환할 수 있다. 변환부(135)는 처리 신호를 보폭과 보행 속도가 포함된 스펙트로그램 이미지로 변환할 수 있다. 결과적으로, 변환부(135)는 보폭과 보행 속도가 포함된 스펙트로그램 이미지 h를 생성할 수 있다(추적 유니트(130)의 제2 동작에 해당됨).For example, the transform unit 135 may use a short-time Fourier transform (STFT) algorithm to convert the test signal into a processing signal representing a step length variation with time. The conversion unit 135 may convert the processed signal into a spectrogram image including the stride length and walking speed. As a result, the conversion unit 135 may generate a spectrogram image h including the stride length and walking speed (corresponding to the second motion of the tracking unit 130).

스펙트로그램(Spectrogram)은 보행자(90)의 보행 특성 i1을 파동으로 시각화하여 파악하기 위한 도구로, 파형(waveform)과 스펙트럼(spectrum)의 특징이 조합될 수 있다.The spectrogram is a tool for visualizing and grasping the gait characteristic i1 of the pedestrian 90 as a wave, and the characteristics of a waveform and a spectrum may be combined.

파형 i2에서는 시간축의 변화에 따른 진폭축의 변화를 볼 수 있고, 스펙트럼 i3에서는 주파수 축의 변화에 따른 진폭축의 변화를 볼 수 있는 반면, 스펙트로그램 이미지 h에서는 시간축과 주파수축의 변화에 따라 진폭의 차이를 인쇄 농도 또는 표시 색상의 차이로 나타낼 수 있다.In waveform i2, the change of the amplitude axis according to the change of the time axis can be seen, and in the spectrum i3, the change of the amplitude axis according to the change of the frequency axis can be seen, while in the spectrogram image h, the difference in amplitude is printed according to the change of the time axis and the frequency axis. It can be expressed as a difference in density or display color.

판별부(137)는 스펙트로그램 이미지 h의 분석을 통해 보행자(90)의 치매 여부를 판별할 수 있다.The determining unit 137 may determine whether the pedestrian 90 has dementia through analysis of the spectrogram image h.

일 예로, 판별부(137)는 스펙트로그램 이미지 h의 분석을 통해 상기 보행자(90)가 치매일 확률을 산출할 수 있다. 판별부(137)는 치매일 확률이 설정값을 만족하면 보행자(90)를 치매 환자로 판단할 수 있다. 판별부(137)는 치매일 확률이 설정값을 불만족하면 보행자(90)를 정상인으로 판단할 수 있다.For example, the determining unit 137 may calculate the probability that the pedestrian 90 has dementia through analysis of the spectrogram image h. The determination unit 137 may determine that the pedestrian 90 is a dementia patient when the probability of dementia satisfies a set value. The determining unit 137 may determine that the pedestrian 90 is a normal person if the probability of having dementia does not satisfy the set value.

구체적으로, 걸음걸이 기반의 치매 판단 기술을 실현하기 위해 딥러닝 알고리즘이 판별부(137)에 탑재될 수 있다. 딥러닝 알고리즘은 추출된 스펙트로그램 이미지를 분석해서 치매 및 정상인일 확률을 산출할 수 있다. 치매 추정 확률이 일정 수치를 넘으면 치매로 판단할 수 있다. 치매 환자에 특화된 딥러닝 알고리즘 기반의 치매 판별 모델(33)이 판별부(137)에 탑재될 수 있다. 판별 모델(33)은 정상인 및 치매 환자의 보행 특성을 입력 데이터셋으로 하여 치매 여부를 판단하도록 학습될 수 있다. 일 예로, 판별 모델(33)은 보행 특성을 시각화한 스펙트로그램 이미지를 입력 데이터셋으로 하여 치매 여부를 판별하도록 학습될 수 있다. 판별 모델(33)은 스펙트로그램 이미지 h의 분석을 위해 합성곱 신경망을 사용하여 생성될 수 있다. 판별 모델(33)은 스펙트로그램 이미지 h를 시간의 흐름상 설정 간격으로 분할하고, 시간 변화에 따른 보행 특성을 분석할 수 있다. 이를 통해 판별 모델(33)은 시간 변화에 따른 보폭의 변화와 보행 속도를 분석하고 치매 여부를 판별할 수 있다. 결국, 판별부(137)는 보행 특성의 분석을 통해 보행자(90)의 보폭 변화량과 보행 속도의 변화량을 분석하여 보행자(90)의 치매 여부를 판별할 수 있다.Specifically, a deep learning algorithm may be loaded into the determination unit 137 to realize a gait-based dementia determination technology. The deep learning algorithm may analyze the extracted spectrogram image to calculate the probability of dementia or a normal person. If the estimated probability of dementia exceeds a certain value, it can be judged as dementia. A dementia discrimination model 33 based on a deep learning algorithm specialized for dementia patients may be loaded into the discrimination unit 137 . The discrimination model 33 may be trained to determine whether or not there is dementia by using the gait characteristics of a normal person and a patient with dementia as an input data set. For example, the discrimination model 33 may be trained to determine whether a person has dementia by using a spectrogram image visualizing gait characteristics as an input dataset. The discriminant model 33 may be created using a convolutional neural network for analysis of the spectrogram image h. The discriminant model 33 may divide the spectrogram image h into set intervals in the flow of time and analyze the gait characteristics according to the change in time. Through this, the discrimination model 33 can analyze the change in stride length and walking speed according to the change in time and determine whether or not there is dementia. As a result, the determining unit 137 may determine whether the pedestrian 90 has dementia by analyzing the amount of change in the step length and the amount of change in the walking speed of the pedestrian 90 through analysis of the gait characteristics.

도 5는 추적 유니트(130)의 추적 동작을 나타낸 개략도이다.5 is a schematic diagram showing the tracking operation of the tracking unit 130.

추적 유니트(130)는 치매 환자로 판단되는 특정 보행자를 객체 재인식을 이용해 지속적으로 추적할 수 있다.The tracking unit 130 may continuously track a specific pedestrian determined to be a dementia patient using object recognition.

객체 재인식은 다양한 위치에서 촬영된 객체들을 비교해 객체를 고유하게 구별하는 기술이다. 이때, 객체는 동영상(20)에 포함된 보행자(90)를 포함할 수 있다.Object re-recognition is a technique for uniquely distinguishing an object by comparing objects photographed from various locations. In this case, the object may include the pedestrian 90 included in the video 20 .

객체 재인식을 위해 현재의 객체로부터 다른 객체와 구분되는 식별정보(특징 값)를 추출하고 비교해서 현재의 객체를 재식별할 수 있어야 한다. 객체 재인식을 위해 촬영 각도, 위치 및 명도가 변하여도 동일한 식별 정보가 획득되는 것이 좋다.For object re-recognition, the current object must be re-identified by extracting and comparing identification information (feature value) that distinguishes it from other objects from the current object. For object re-recognition, it is preferable that the same identification information be obtained even if the photographing angle, position, and brightness are changed.

추적 유니트(130)에 마련된 추적부(139)는 객체 재인식을 통해 치매 환자로 판별된 특정 보행자와 외형이 유사한 객체 이미지(동영상(20)에 포함된 보행자(90))를 탐색할 수 있다.The tracking unit 139 provided in the tracking unit 130 may search for an object image (the pedestrian 90 included in the video 20) having a similar appearance to a specific pedestrian determined to be a dementia patient through object recognition.

추적부(139)는 객체 이미지로부터 특징을 추출하고 특징값(식별 정보)을 비교해 찾고자 하는 객체와 가장 유사한 객체 이미지를 찾을 수 있다.The tracking unit 139 may find an object image most similar to a target object by extracting features from the object image and comparing feature values (identification information).

동영상(20)의 프레임 이미지 등에서 식별 정보가 추출되므로 찾고자 하는 특정 보행자와 외형이 유사한 객체 위주로 탐색이 수행될 수 있다. 객체 재인식시, 객체의 식별 정보 추출에 특화된 합성곱 신경망을 통해 생성된 특징 모델(34)이 추적부(139)에 탑재될 수 있다. 특징 추출시 큰 부분부터 작은 부분까지 검출하도록 딥러닝 알고리즘 모델이 구성될 수 있다. 따라서, 외형에서 비중이 높은 코트, 바지 등에 추출 비중이 치우쳐지지 않고, 재인식 성능이 개선될 수 있다.Since identification information is extracted from the frame image of the video 20, search may be performed focusing on objects having a similar appearance to a specific pedestrian to be found. When recognizing an object, a feature model 34 generated through a convolutional neural network specialized in extracting object identification information may be loaded into the tracking unit 139 . A deep learning algorithm model may be configured to detect from a large part to a small part when extracting features. Therefore, the recognition performance may be improved without biasing the extraction ratio in the outer appearance of a coat or pants having a high specific gravity.

앞의 객체 재인식의 경우 객체 이미지만 분석하여 재인식을 수행하기 때문에 많은 문제가 있다. 카메라(10) 등 촬영 기기의 각도, 해상도 및 밝기 등 촬영 환경의 영향으로 객체 이미지에 변화가 발생하여 균일한 특징값을 추출하기 어렵다. 따라서 재인식 정확도를 향상하기 위해서는 촬영 환경의 영향이 적은 데이터가 사용되는 것이 좋다. 추적부(139)는 이러한 문제를 해결하기 위해 촬영 환경의 영향이 최소화된 요소로 재인식을 수행할 수 있다. 일 예로, 추적부(139)는 보폭 특성 및 스펙트로그램 이미지를 이용해 재인식을 수행할 수 있다. 보폭 특성 및 스펙트로그램 이미지는 촬영 환경의 영향을 적게 받는 데이터들이다. 이들 데이터는 검출부(131), 산출부(133), 변환부(135)에 의해 이미 획득된 상태일 수 있다.In the case of object re-recognition described above, there are many problems because re-recognition is performed by analyzing only the object image. It is difficult to extract a uniform feature value because a change occurs in an object image due to the influence of a photographing environment such as an angle, resolution, and brightness of a photographing device such as the camera 10 . Therefore, in order to improve re-recognition accuracy, it is preferable to use data less affected by the photographing environment. In order to solve this problem, the tracking unit 139 may perform re-recognition as an element having a minimal influence of the photographing environment. For example, the tracking unit 139 may perform re-recognition using a stride length characteristic and a spectrogram image. The stride length characteristic and the spectrogram image are data that are less affected by the shooting environment. These data may be already obtained by the detection unit 131 , the calculation unit 133 , and the conversion unit 135 .

보폭 특성 및 스펙트로그램 이미지를 이용하여 재인식을 수행하는 추적부(139)에 따르면, 촬영 기기의 관측 위치가 변하여도 특정 보행자가 정확하게 재인식될 수 있다.According to the tracking unit 139 that performs re-recognition using the stride length characteristics and the spectrogram image, a specific pedestrian can be accurately re-recognized even if the observation position of the photographing device changes.

추적부(139)는 객체 이미지와 1개 이상의 요소로 재인식을 수행할 수 있다. 많은 요소를 사용하면 재인식 정확도는 개선되지만 분석 속도는 늦어지게 된다. 따라서, 추적부(139)는 일부 주요 요소만 사용하여 재인식을 수행할 수 있다. 이때, 재인식을 위해 2개 이상의 데이터를 입력받아 처리할 수 있도록 구성된 딥러닝 알고리즘이 사용될 수 있다. 도 5와 같이 복수개의 데이터를 입력받아 하나의 특징값을 추출하는 합성곱 신경망 모델이 사용될 수 있다. 추적부(139)는 객체 이미지와 요소 정보를 사용하여 타 객체와 명확히 구분되는 보행자(90)의 특징값을 얻을 수 있다. 추적부(139)는 촬영 환경의 영향이 최소화된 요소, 예를 들어 보행 특성 또는 스펙트로그램 이미지를 추가로 분석해 정확한 재인식을 수행할 수 있다.The tracking unit 139 may perform re-recognition with an object image and one or more elements. Using many elements improves recognition accuracy but slows down analysis. Accordingly, the tracking unit 139 may perform re-recognition using only some main elements. At this time, a deep learning algorithm configured to receive and process two or more pieces of data for re-recognition may be used. As shown in FIG. 5, a convolutional neural network model that receives a plurality of data and extracts one feature value may be used. The tracking unit 139 may obtain feature values of the pedestrian 90 clearly distinguished from other objects by using the object image and element information. The tracking unit 139 may perform accurate re-recognition by additionally analyzing an element having a minimal influence of the photographing environment, for example, a gait characteristic or a spectrogram image.

정리하면, 추적부(139)는 보행자(90)의 보폭 및 보행 속도가 포함된 보행자(90)의 보행 특성, 스펙트로그램 이미지 h의 분석을 통해 보행자(90)와 특정 보행자의 일치 여부를 판별할 수 있다. 이때, 특정 보행자는 치매 환자로 판단 또는 판별 또는 추정되는 보행자(90)를 나타낼 수 있다.In summary, the tracking unit 139 determines whether the pedestrian 90 matches a specific pedestrian through analysis of the walking characteristics of the pedestrian 90 including the step length and walking speed of the pedestrian 90 and the spectrogram image h. can In this case, the specific pedestrian may indicate a pedestrian 90 determined or determined or estimated as a patient with dementia.

추적부(139)는 동영상(20)에 포함된 보행자(90)가 특정 보행자로 판별되면, 특정 보행자로 판별된 보행자(90)의 동선을 추적할 수 있다. 동선의 추적은 보행자(90)의 시간별 위치를 지도 상에 표시하거나, 보행자(90)의 이동 방향을 지도 상에 표시하는 것을 의미할 수 있다.When the pedestrian 90 included in the video 20 is determined to be a specific pedestrian, the tracking unit 139 may track the movement of the pedestrian 90 determined to be a specific pedestrian. Tracking of the movement line may mean displaying the hourly location of the pedestrian 90 on a map or displaying the moving direction of the pedestrian 90 on a map.

도 6은 본 발명의 추적 방법을 나타낸 흐름도이다.6 is a flowchart illustrating the tracking method of the present invention.

도 6의 추적 방법은 도 1의 추적 장치에 의해 수행될 수 있다. 도 6의 추적 방법은 보행자(90)가 치매 환자인지 여부를 판단하는 방법을 나타낼 수 있다.The tracking method of FIG. 6 may be performed by the tracking device of FIG. 1 . The tracking method of FIG. 6 may represent a method of determining whether the pedestrian 90 is a dementia patient.

먼저, 설정 지역을 촬영한 동영상(20)을 입수하는 단계(S 510)가 수행될 수 있다. 본 단계는 입수 유니트(110)에 의해 수행될 수 있다.First, a step (S510) of obtaining a video 20 in which a set area is captured may be performed. This step may be performed by the acquisition unit 110.

동영상(20)에 포함된 보행자(90)를 추출하는 단계(S 520)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.A step of extracting the pedestrian 90 included in the video 20 (S520) may be performed. This step may be performed by the detection unit 131.

보행자(90)의 스켈레톤을 형성하는 단계(S 530)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.Forming a skeleton of the pedestrian 90 (S530) may be performed. This step may be performed by the detection unit 131.

스켈레톤의 분석을 통해 보행자(90)의 보폭 및 보행 속도를 측정하는 단계(S 540)가 수행될 수 있다. 본 단계는 산출부(133)에 의해 수행될 수 있다.A step of measuring the stride length and walking speed of the pedestrian 90 through analysis of the skeleton (S540) may be performed. This step may be performed by the calculator 133.

보폭 및 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계(S 550)가 수행될 수 있다. 본 단계는 변환부(135)에 의해 수행될 수 있다.A step of generating a spectrogram image including the stride length and walking speed (S550) may be performed. This step may be performed by the conversion unit 135.

딥러닝 알고리즘을 통해 생성된 판별 모델(33)을 이용하여 스펙트로그램 이미지를 분석하고, 보행자(90)의 치매 여부를 판별하는 단계(S 560)가 수행될 수 있다. 본 단계는 판별부(137)에 의해 수행될 수 있다.A step of analyzing the spectrogram image using the discrimination model 33 generated through the deep learning algorithm and determining whether the pedestrian 90 has dementia (S560) may be performed. This step may be performed by the determination unit 137.

도 7은 본 발명의 다른 추적 방법을 나타낸 흐름도이다.7 is a flowchart illustrating another tracking method of the present invention.

도 7의 추적 방법은 도 1의 추적 장치에 의해 수행될 수 있다. 도 7의 추적 방법은 특정 보행자의 동선을 추적하는 방법을 나타낼 수 있다.The tracking method of FIG. 7 may be performed by the tracking device of FIG. 1 . The tracking method of FIG. 7 may represent a method of tracking a movement line of a specific pedestrian.

설정 지역을 촬영한 동영상(20)을 입수하는 단계(S 610)가 수행될 수 있다. 본 단계는 입수 유니트(110)에 의해 수행될 수 있다.A step (S610) of obtaining a video 20 in which the set region is captured may be performed. This step may be performed by the acquisition unit 110.

동영상(20)에 포함된 보행자(90)를 나타내는 객체 이미지를 추출하는 단계(S 620)가 수행될 수 있다. 본 단계는 검출부(131)에 의해 수행될 수 있다.A step of extracting an object image representing the pedestrian 90 included in the video 20 (S620) may be performed. This step may be performed by the detection unit 131.

객체 이미지의 분석을 통해 보행자(90)의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계(S 630)가 수행될 수 있다. 본 단계는 산출부(133)에 의해 수행될 수 있다.A step of extracting gait characteristics including the stride length and gait speed of the pedestrian 90 through the analysis of the object image (S630) may be performed. This step may be performed by the calculator 133.

보폭 및 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계(S 변환부(135))가 수행될 수 있다(S 640). 본 단계는 변환부(135)에 의해 수행될 수 있다.A step of generating a spectrogram image including the stride length and walking speed (S conversion unit 135) may be performed (S640). This step may be performed by the conversion unit 135.

객체 이미지, 보행 특성 및 스펙트로그램 이미지를 이용해서 보행자(90)가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계(S 650)가 수행될 수 있다. 본 단계는 추적부(139)에 의해 수행될 수 있다.A step of determining whether the pedestrian 90 corresponds to a specific pedestrian entered in the object image, the gait characteristics, and the spectrogram image (S650) may be performed. This step may be performed by the tracking unit 139 .

특정 보행자와 일치하는 것으로 판별된 보행자(90)에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계(S 660)가 수행될 수 있다. 본 단계는 추적부(139)에 의해 수행될 수 있다.A step of displaying a movement path of a candidate object corresponding to the pedestrian 90 determined to match a specific pedestrian on a map (S660) may be performed. This step may be performed by the tracking unit 139 .

보행자(90)가 치매 환자인지 여부를 판단하는 과정, 치매 환자의 동선을 추적하는 과정을 살펴보면, 검출부(131), 산출부(133), 변환부(135)까지의 동작(S 510, S 520, S 530, S 540, S 610, S 620, S 630, S 640)이 서로 동일한 것을 알 수 있다. 이를 이용해 치매 판단 과정과 동선 추적 과정에서 검출부(131), 산출부(133), 변환부(135)의 동작은 양 과정에 공유될 수 있다.Looking at the process of determining whether the pedestrian 90 is a patient with dementia and the process of tracking the movement of the patient with dementia, the operation of the detection unit 131, calculation unit 133, and conversion unit 135 (S 510, S 520 , S 530, S 540, S 610, S 620, S 630, S 640) are the same as each other. Using this, operations of the detection unit 131, the calculation unit 133, and the conversion unit 135 in the dementia determination process and the movement tracking process can be shared between both processes.

도 8은 검출부(131), 산출부(133) 및 변환부(135)의 동작을 나타낸 흐름도이다. 도 9는 검출부(131)의 동작을 나타낸 개략도이다.8 is a flowchart illustrating operations of the detection unit 131, the calculation unit 133, and the conversion unit 135. 9 is a schematic diagram showing the operation of the detection unit 131.

입수 유니트(110) 또는 별도의 입력부를 통해 신규 동영상(20)의 식별 정보 ID가 수신될 수 있다(S 561).The identification information ID of the new video 20 may be received through the obtaining unit 110 or a separate input unit (S561).

입수 유니트(110)는 수신한 신규 동영상(20) ID로 동영상(20) 데이터베이스에서 동영상(20) 파일을 받아올 수 있다(S 562).The obtaining unit 110 may retrieve the video 20 file from the video 20 database with the received new video 20 ID (S562).

검출부(131)는 동영상(20)에서 하나의 프레임을 읽어올 수 있다(S 563).The detection unit 131 may read one frame from the video 20 (S563).

검출부(131)는 추출 모델(31)에 해당하는 객체검출모델에 프레임을 입력하고, 객체탐지 및 추적된 객체의 좌표와 객체 ID를 반환받을 수 있다. 검출부(131)는 탐지된 객체마다 프레임에서 객체전신만 남기고 나머지 영역을 잘라내어 객체 이미지를 생성할 수 있다(S 564)The detection unit 131 may input a frame to an object detection model corresponding to the extraction model 31, and may receive coordinates and an object ID of an object detected and tracked. The detection unit 131 may generate an object image by cutting out the remaining area except for the entire object in the frame for each detected object (S564).

검출부(131)는 분류 모델(32)에 해당하는 포즈추정모델에 객체 이미지들을 입력하고 객체의 스켈레톤을 추출할 수 있다(S 565).The detection unit 131 may input object images to a pose estimation model corresponding to the classification model 32 and extract a skeleton of the object (S565).

산출부(133)는 객체가 정지한 시점 및 보행이 시작된 후 객체의 보폭과 팔다리 움직임의 변화량을 측정할 수 있다(S 566).The calculation unit 133 may measure the change amount of the object's stride length and limb movements when the object stops and after walking begins (S566).

검출부(131)는 동영상(20)에서 다음 프레임을 읽어올 수 있다(S 567).The detection unit 131 may read the next frame from the video 20 (S567).

변환부(135)는 측정이 종료되면(S 567) 보폭 및 팔다리의 움직임 변화량을 통합해 스펙트로그램 이미지로 변환할 수 있다(S 568).When the measurement is finished (S 567), the conversion unit 135 may integrate the step length and movement variation of the limbs and convert them into a spectrogram image (S 568).

객체 ID, 이미지, 검출시간 및 보폭정보는 객체데이터베이스에 저장되며, 변환된 스펙트로그램 이미지 및 보폭 정보는 포즈데이터베이스에 저장될 수 있다.Object ID, image, detection time, and step length information are stored in an object database, and the converted spectrogram image and step length information may be stored in a pose database.

변환부(135)는 검출된 객체들의 ID를 판별부(137)로 전달한다. 검출부(131)는 영상으로부터 객체를 탐지하고 보행 특성을 얻는 작업을 수행할 수 있다. 측정된 보행 특성은 판별부(137)에서 사용할 수 있도록 스펙트로그램 이미지로 변환될 수 있다. 이러한 과정을 통해 판별부(137)에서 보행 특성을 분석하여 치매를 판별할 수 있다. The conversion unit 135 transfers IDs of detected objects to the determination unit 137 . The detector 131 may detect an object from an image and obtain gait characteristics. The measured gait characteristics may be converted into a spectrogram image for use in the determining unit 137 . Through this process, the determination unit 137 analyzes the gait characteristics to determine dementia.

도 10은 판별부(137)의 동작을 나타낸 흐름도이다. 도 11은 판별부(137)의 동작을 나타낸 개략도이다.10 is a flowchart showing the operation of the determination unit 137. 11 is a schematic diagram showing the operation of the determination unit 137.

판별부(137)는 보행자(90)에 해당하는 객체의 보행 특성을 바탕으로 보행자(90)의 치매 여부를 판단할 수 있다. 판별부(137)에 탑재되는 판별 모델(33)은 보폭 및 팔다리 움직임 변화량을 분석하여 객체의 치매 여부를 판단할 수 있다.The determination unit 137 may determine whether the pedestrian 90 has dementia based on the gait characteristics of the object corresponding to the pedestrian 90 . The discrimination model 33 mounted in the determination unit 137 may determine whether or not the object has dementia by analyzing the amount of change in the step length and limb movement.

판별부(137)의 동작 순서는 아래와 같을 수 있다.The operation sequence of the determining unit 137 may be as follows.

판별부(137)는 치매 판별이 필요한 객체 ID를 수신할 수 있다(S 571).The determination unit 137 may receive an object ID for which dementia determination is required (S571).

판별부(137)는 포즈데이터베이스에서 객체의 스펙트로그램 이미지를 받아올 수 있다(S 572).The determination unit 137 may receive the spectrogram image of the object from the pose database (S572).

판별부(137)는 치매 판별 전 스펙트로그램 이미지를 전처리할 수 있다.The determination unit 137 may pre-process the spectrogram image before determining dementia.

판별부(137)는 사전 학습된 판별 모델(33)에 전처리된 스펙트로그램 이미지를 입력하고 치매 여부를 반환받을 수 있다(S 573).The determination unit 137 may input the pre-processed spectrogram image to the pre-trained discrimination model 33 and receive a return of dementia (S573).

판별부(137)는 치매 판별 결과를 객체데이터베이스에 저장할 수 있다(S 574).The determination unit 137 may store the dementia determination result in the object database (S574).

판별부(137)는 치매 판별 결과를 추적부(139)로 전달할 수 있다. 판별부(137)는 도 11과 같이 스펙트로그램 이미지를 입력받아 치매 여부를 판단할 수 있다. 판별 모델(33)에 입력하기 전 스펙트로그램 이미지를 크기별로 나누는 등의 전처리가 수행될 수 있다. 전처리 과정을 통해 설정 시간별 보행 특성이 추출되고 치매의 판별 자료로 사용될 수 있다.The determination unit 137 may transmit the dementia determination result to the tracking unit 139 . As shown in FIG. 11 , the determination unit 137 may receive a spectrogram image and determine whether or not there is dementia. Pre-processing, such as dividing the spectrogram image by size, may be performed before being input to the discrimination model 33 . Through the preprocessing process, the gait characteristics for each set time are extracted and can be used as dementia discrimination data.

도 12는 추적부(139)의 동작을 나타낸 개략도이다.12 is a schematic diagram showing the operation of the tracking unit 139.

추적부(139)는 특정 카메라(10)에서 촬영된 보행자(90)가 치매 환자로 판별되고, 해당 특정 보행자가 특정 카메라(10)의 시야에서 벗어난 경우 특정 보행자의 재인식을 수행할 수 있다.The tracking unit 139 may perform re-recognition of a specific pedestrian when the pedestrian 90 photographed by the specific camera 10 is determined to be a patient with dementia and the specific pedestrian is out of the field of view of the specific camera 10 .

일 예로, 추적부(139)는 치매 환자에 해당하는 특정 보행자가 검출된 위치로부터 설정 반경 내의 카메라(10)에서 촬영된 동영상(20)으로부터 검출된 객체들을 특정 보행자와 비교할 수 있다.For example, the tracking unit 139 may compare objects detected from the video 20 captured by the camera 10 within a set radius from a location where a specific pedestrian corresponding to a dementia patient is detected, with the specific pedestrian.

추적부(139)는 신속하고 정확한 재식별을 수행하기 위해 2가지 모델을 사용할 수 있다.Tracker 139 may use two models to perform fast and accurate re-identification.

추적부(139)는 재식별을 위해 특징 모델(34)에 해당하는 객체재인식모델과 분석 모델을 사용할 수 있다.The tracking unit 139 may use an object recognition model and an analysis model corresponding to the feature model 34 for re-identification.

객체재인식모델은 객체 외형 정보만을 비교하여 수많은 객체들 중 특정 보행자와 외형이 비슷한 후보군을 선출할 수 있다. 분석 모델은 객체재인식모델보다 많은 요소를 사용해 재인식을 한 번 더 수행해 후보군 순위를 재정렬할 수 있다. 분석 모델은 2가지 모델을 사용해 수많은 객체 중 치매 객체(특정 보행자)를 빠르고 정확하게 찾을 수 있다.The object recognition model compares only object appearance information to select a candidate group that has a similar appearance to a specific pedestrian among numerous objects. The analysis model can rearrange the rankings of the candidate groups by performing re-recognition one more time using more elements than the object re-recognition model. The analysis model can quickly and accurately find a dementia object (a specific pedestrian) among numerous objects using two models.

객체재인식모델 및 분석 모델의 처리과정은 아래와 같다.The processing process of the object recognition model and analysis model is as follows.

추적부(139)는 치매 환자로 판별받은 특정 보행자의 개체 ID를 수신할 수 있다(S 581). 다시 말해, 특정 카메라(10)의 동영상(20)에서 치매 환자가 판별되면, 해당 치매 환자의 식별 정보 ID가 복수의 추적부(139)에 전파될 수 있다.The tracking unit 139 may receive an object ID of a specific pedestrian determined to be a patient with dementia (S581). In other words, when a patient with dementia is identified in the video 20 of a specific camera 10 , identification information ID of the patient with dementia may be propagated to the plurality of tracking units 139 .

추적부(139)는 객체데이터베이스에서 대상의 이미지, 검출 시간, 동영상(20) ID를 받아올 수 있다(S 582).The tracking unit 139 may receive the image of the object, the detection time, and the ID of the video 20 from the object database (S582).

추적부(139)는 대상의 검출시간 및 동영상(20) ID로 사전 정의된 탐색 범위 내에 포함되는 객체를 저장부에서 찾고, 객체 ID, 이미지 및 보폭 정보를 받아올 수 있다(S 582).The tracking unit 139 may search the storage unit for an object included in a search range predefined by the detection time of the object and the ID of the video 20, and may receive the object ID, image, and stride information (S582).

추적부(139)는 재식별모델에 객체 이미지를 입력해 특징값을 반환받을 수 있다(S 583).The tracking unit 139 may input an object image into the re-identification model and receive a feature value returned (S583).

추적부(139)는 유사도 판별 알고리즘을 이용하여 대상의 특징값과 비교하여 N개의 근사한 객체 이미지만 선발한 후 후보군을 생성할 수 있다(S 584).The tracking unit 139 may generate a candidate group after selecting only N approximate object images by comparing the feature values of the object using a similarity determination algorithm (S584).

추적부(139)는 포즈데이터베이스에서 대상 및 후보군의 스펙트로그램 이미지와 보폭 특성을 받아올 수 있다(S 585).The tracking unit 139 may receive the spectrogram image and stride characteristics of the subject and candidate group from the pose database (S585).

추적부(139)는 분석 모델에 스펙트로그램 이미지, 객체 이미지 및 보폭 특성을 입력해 특징값을 반환받을 수 있다(S 586).The tracking unit 139 may return feature values by inputting the spectrogram image, object image, and stride characteristics to the analysis model (S586).

추적부(139)는 대상과 후보군의 특징값을 비교해 유사도를 기반으로 후보군의 순위를 재정렬할 수 있다(S 587).The tracking unit 139 may rearrange the ranks of the candidates based on the degree of similarity by comparing feature values of the object and the candidate group (S587).

추적부(139)는 동적을 추적하는 추적 모델에 대상 및 후보군의 객체 ID, 이미지 및 순위정보를 전달할 수 있다(S 588). 재인식 정확도는 높지만 속도가 느린 분석 모델의 단점이 객체재인식모델을 통해 보완될 수 있다. 분석 모델은 많은 자원 및 시간이 필요하기 때문에 선별된 후보군만을 대상으로 적용될 수 있다. 확률이 높은 객체만 요소 분석을 수행하도록 하여 작업 효율이 개선될 수 있다.The tracking unit 139 may deliver object IDs, images, and rank information of the target and candidate groups to the tracking model that tracks dynamics (S588). The disadvantages of the analysis model, which has high recognition accuracy but is slow, can be supplemented by the object recognition model. Since the analysis model requires a lot of resources and time, it can be applied only to selected candidates. Work efficiency can be improved by allowing only objects with high probability to perform element analysis.

도 13은 추적부(139)의 다른 동작을 나타낸 개략도이다.13 is a schematic diagram showing another operation of the tracking unit 139.

추적부(139)에 탑재된 추적 모델은 치매 객체에 해당하는 특정 보행자의 이동 경로를 지도에 표시할 수 있다. 관리자에게 후보군이 전달되며, 관리자는 촬영 기기마다 검출된 후보들 중에서 치매 객체로 판단되는 후보 객체를 선택할 수 있다. 선택이 완료되면 추적부(139)는 지도상에 치매 객체 이동경로를 표시하여 동선을 추적할 수 있다.The tracking model loaded in the tracking unit 139 may display a movement path of a specific pedestrian corresponding to a dementia object on a map. The candidate group is transmitted to the manager, and the manager can select a candidate object determined to be a dementia object from among candidates detected for each photographing device. When the selection is completed, the tracker 139 may track the movement line by displaying the movement path of the dementia object on the map.

추적부(139)의 추적 모델은 치매 객체 및 후보군의 객체 ID, 이미지 및 순위정보를 수신할 수 있다(S 591, S 592). 분석 모델 및 추적 모델이 함께 추적부(139)에 탑재된 경우, 본 과정은 생략되고 분석 모델의 출력값이 곧바로 추적 모델에 입력될 수 있다.The tracking model of the tracking unit 139 may receive object IDs, images, and rank information of the dementia object and candidate group (S591 and S592). When the analysis model and the tracking model are loaded into the tracking unit 139 together, this process is omitted and the output value of the analysis model can be directly input to the tracking model.

추적부(139)에 의해 관리자의 단말기에게 재식별 결과가 제공되며(S 593), 이때 촬영 기기별 후보 객체의 이미지가 순위대로 표시될 수 있다.The re-identification result is provided to the manager's terminal by the tracking unit 139 (S593), and at this time, images of candidate objects for each photographing device may be displayed in order of rank.

관리자는 채널마다 표시된 이미지들 중 치매 객체와 동일하다고 판단되는 후보 객체 이미지를 선택할 수 있다(S 594).The administrator may select a candidate object image determined to be the same as the dementia object from among the images displayed for each channel (S594).

관리자의 선택이 완료되면, 추적부(139)는 저장부에서 선택된 후보 객체의 검출 시간 및 촬영 위치 정보를 받아올 수 있다.When the manager's selection is completed, the tracking unit 139 may receive detection time and photographing location information of the selected candidate object from the storage unit.

추적부(139)는 받아온 검출시간 및 촬영위치로 지도상에 선택된 후보군 객체의 이동경로를 표기할 수 있다(S 595). 관리자가 최종적으로 치매 객체와 동일한 객체인지 판단하여 이동경로를 추적할 수 있다. 딥러닝 모델을 이용해 수만 개의 객체가 채널별로 수십 개의 후보군들로 선별되어 관리자에게 제공될 수 있다. 이를 통해 관리자는 빠르고 정확하고 치매 환자의 동선을 추적할 수 있다.The tracking unit 139 may mark the movement path of the selected candidate group object on the map with the received detection time and photographing location (S595). The administrator can finally determine whether the object is the same as the dementia object and track the movement path. Tens of thousands of objects can be selected into dozens of candidate groups for each channel using a deep learning model and provided to the manager. This allows administrators to quickly and accurately track the movements of dementia patients.

도 14는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 14의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 추적 장치 등) 일 수 있다. 14 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 14 may be a device (eg, a tracking device, etc.) described in this specification.

도 14의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 14 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. belong to the scope of the invention.

10...카메라 2 0...동영상
31...추출 모델 32...분류 모델
33...판별 모델 34...특징 모델
80...보행로 90...보행자
110...입수 유니트 130...추적 유니트
131...검출부 133...산출부
135...변환부 137...판별부
139...추적부
10...Camera 2 0...Movie
31 ... extraction model 32 ... classification model
33...Discrimination model 34...Feature model
80...Pedestrian road 90...Pedestrian
110 ... acquisition unit 130 ... tracking unit
131 ... detecting unit 133 ... calculating unit
135 ... conversion unit 137 ... determination unit
139 ... tracking unit

Claims (10)

보행자를 촬영한 동영상을 입수하는 입수 유니트;
상기 동영상의 분석을 통해 상기 보행자가 치매 환자인지 여부를 판단하거나 특정 보행자를 추적하는 추적 유니트;
를 포함하는 추적 장치.
an acquisition unit that obtains a motion picture of a pedestrian;
a tracking unit that determines whether the pedestrian is a dementia patient or tracks a specific pedestrian through analysis of the video;
Tracking device comprising a.
제1항에 있어서,
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 걸음걸이를 분석하고, 상기 걸음걸이의 분석 결과를 이용해 상기 보행자의 치매 여부를 판단하는 추적 장치.
According to claim 1,
The tracking unit analyzes the gait of the pedestrian included in the video and determines whether the pedestrian has dementia using the analysis result of the gait.
제1항에 있어서,
상기 보행자를 촬영하고 상기 동영상을 생성하는 카메라가 마련되고,
상기 추적 유니트는 상기 카메라가 설치된 위치가 포함된 제1 위치 정보, 상기 카메라에 의해 촬영된 위치를 나타내는 제2 위치 정보, 상기 동영상 내에서 상기 보행자가 이동하는 방향 정보 중 적어도 하나를 이용해 치매 환자를 추적하는 추적 장치.
According to claim 1,
A camera for photographing the pedestrian and generating the video is provided,
The tracking unit detects patients with dementia using at least one of first location information including a location where the camera is installed, second location information indicating a location photographed by the camera, and information on a direction in which the pedestrian moves in the video. Tracking device to track.
제1항에 있어서,
상기 추적 유니트에는 기계 학습을 통해 생성된 추출 모델, 분류 모델, 판별 모델이 마련되고,
상기 추출 모델은 상기 동영상이 입력되면 상기 동영상에 포함된 보행자를 추출하며,
상기 분류 모델은 상기 추출 모델을 통해 추출된 상기 보행자의 관절 키포인트를 분석하고, 상기 키포인트를 이용하여 상기 보행자의 스켈레톤을 형성하고,
상기 판별 모델은 상기 스켈레톤의 분석을 통해 산출된 상기 보행자의 보폭 및 보행 속도가 포함된 보행 특성을 이용하여 상기 보행자의 치매 여부를 판별하는 추적 장치.
According to claim 1,
The tracking unit is provided with an extraction model, a classification model, and a discrimination model generated through machine learning,
The extraction model extracts pedestrians included in the video when the video is input,
The classification model analyzes the joint keypoints of the pedestrian extracted through the extraction model, and forms a skeleton of the pedestrian using the keypoints,
The discrimination model is a tracking device for determining whether the pedestrian has dementia using gait characteristics including the stride length and walking speed of the pedestrian calculated through the analysis of the skeleton.
제1항에 있어서,
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 추적 유니트는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 추적 유니트는 상기 보행자가 보행할 때 상기 보행자의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하고,
상기 추적 유니트는 상기 보행자의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 상기 보폭, 상기 보행 속도, 상기 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성하며,
상기 추적 유니트는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 상기 검사 신호를 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환하고,
상기 추적 유니트는 상기 처리 신호를 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지로 변환하며,
상기 추적 유니트는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자가 치매일 확률을 산출하고,
상기 추적 유니트는 상기 치매일 확률이 설정값을 만족하면 상기 보행자를 치매 환자로 판단하며, 상기 치매일 확률이 상기 설정값을 불만족하면 상기 보행자를 정상인으로 판단하는 추적 장치.
According to claim 1,
The tracking unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video;
The tracking unit calculates the step length and walking speed of the pedestrian using the interval,
The tracking unit extracts joint motion including the amount of change in arm joints and the amount of change in leg joints of the pedestrian when the pedestrian walks;
The tracking unit generates one test signal by summing each signal indicating the step length, the walking speed, and the joint motion obtained after the pedestrian's gait continuously lasts for a set time or more;
The tracking unit uses a short-time Fourier transform (STFT) algorithm to convert the test signal into a processing signal representing a step length change amount according to time change,
The tracking unit converts the processing signal into a spectrogram image including the stride length and the walking speed;
The tracking unit calculates a probability that the pedestrian has dementia through analysis of the spectrogram image;
wherein the tracking unit determines that the pedestrian is a dementia patient if the probability of dementia satisfies a set value, and determines the pedestrian as a normal person if the probability of dementia does not satisfy the set value.
제5항에 있어서,
상기 추적 유니트는 합성곱 신경망을 사용하여 생성된 판별 모델에 상기 스펙트로그램 이미지를 입력하고,
상기 판별 모델은 상기 스펙트로그램 이미지를 시간의 흐름상 설정 간격으로 분할하고 시간 변화에 따른 보행 특성을 분석하며,
상기 판별 모델은 상기 보행 특성의 분석을 통해 상기 보행자의 보폭 변화량과 상기 보행 속도의 변화량을 분석하여 상기 보행자의 치매 여부를 판별하는 추적 장치.
According to claim 5,
The tracking unit inputs the spectrogram image to a discriminant model generated using a convolutional neural network;
The discrimination model divides the spectrogram image into set intervals in the flow of time and analyzes the gait characteristics according to the change in time,
The discrimination model determines whether the pedestrian has dementia by analyzing the amount of change in the step length and the amount of change in the walking speed of the pedestrian through the analysis of the gait characteristics.
제1항에 있어서,
상기 추적 유니트는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 추적 유니트는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 추적 유니트는 상기 보행자가 보행할 때 상기 보행자의 팔 관절의 변화량 및 다리 관절의 변화량이 포함된 관절 움직임을 추출하고,
상기 추적 유니트는 상기 보행자의 보행이 설정 시간 이상 연속되게 지속된 이후에 획득된 상기 보폭, 상기 보행 속도, 상기 관절 움직임을 나타내는 각 신호를 합하여 하나의 검사 신호를 생성하며,
상기 추적 유니트는 STFT(Short-time Fourier transform) 알고리즘을 사용하여 시간 변화에 따른 보폭 변화량을 나타내는 처리 신호로 변환되고,
상기 추적 유니트는 상기 처리 신호를 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지로 변환하며,
상기 추적 유니트는 상기 보폭 및 상기 보행 속도가 포함된 상기 보행자의 보행 특성, 상기 스펙트로그램 이미지를 이용하여 상기 보행자가 상기 특정 보행자인지 여부를 판별하고,
상기 추적 유니트는 상기 보행자가 상기 특정 보행자로 판별되면, 상기 보행자의 동선을 추적하는 추적 장치.
According to claim 1,
The tracking unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video;
The tracking unit calculates the step length and walking speed of the pedestrian using the interval,
The tracking unit extracts joint motion including the amount of change in arm joints and the amount of change in leg joints of the pedestrian when the pedestrian walks;
The tracking unit generates one test signal by summing each signal representing the step length, the walking speed, and the joint motion obtained after the pedestrian's gait continuously lasts for a set time or more;
The tracking unit is converted into a processing signal representing a change in step length with time using a short-time Fourier transform (STFT) algorithm,
The tracking unit converts the processing signal into a spectrogram image including the stride length and the walking speed;
The tracking unit determines whether the pedestrian is the specific pedestrian using the walking characteristics of the pedestrian including the step length and the walking speed and the spectrogram image;
The tracking unit tracks the movement of the pedestrian when the pedestrian is determined as the specific pedestrian.
제1항에 있어서,
검출부, 산출부, 변환부, 판별부, 추적부가 마련되고,
상기 검출부는 상기 동영상에 포함된 상기 보행자의 관절 키포인트를 이용하여 상기 보행자의 양발 간의 간격을 측정하고,
상기 산출부는 상기 간격을 이용하여 상기 보행자의 보폭 및 보행 속도를 산출하며,
상기 변환부는 상기 보폭과 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하고,
상기 판별부는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자의 치매 여부를 판별하며,
상기 추적부는 상기 스펙트로그램 이미지의 분석을 통해 상기 보행자와 상기 특정 보행자의 일치 여부를 판별하고, 상기 특정 보행자로 판별된 상기 보행자의 동선을 추적하는 추적 장치.
According to claim 1,
A detection unit, a calculation unit, a conversion unit, a determination unit, and a tracking unit are provided,
The detection unit measures the distance between the feet of the pedestrian using the joint keypoint of the pedestrian included in the video,
The calculation unit calculates the step length and walking speed of the pedestrian using the interval,
The conversion unit generates a spectrogram image including the stride length and the walking speed,
The determination unit determines whether the pedestrian has dementia through analysis of the spectrogram image,
The tracking unit determines whether the pedestrian and the specific pedestrian match through analysis of the spectrogram image, and tracks the movement of the pedestrian determined to be the specific pedestrian tracking device.
추적 장치에 의해 수행되는 추적 방법에 있어서,
설정 지역을 촬영한 동영상을 입수하는 단계;
상기 동영상에 포함된 보행자를 추출하는 단계;
상기 보행자의 스켈레톤을 형성하는 단계;
상기 스켈레톤의 분석을 통해 상기 보행자의 보폭 및 보행 속도를 측정하는 단계;
상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계;
딥러닝 알고리즘을 통해 생성된 판별 모델을 이용하여 상기 스펙트로그램 이미지를 분석하고, 상기 보행자의 치매 여부를 판별하는 단계;
를 포함하는 추적 방법.
In the tracking method performed by the tracking device,
Obtaining a video recording a set area;
extracting pedestrians included in the video;
forming a skeleton of the pedestrian;
measuring a step length and walking speed of the pedestrian through analysis of the skeleton;
generating a spectrogram image including the stride length and the walking speed;
analyzing the spectrogram image using a discrimination model generated through a deep learning algorithm and determining whether the pedestrian has dementia;
A tracking method that includes.
추적 장치에 의해 수행되는 추적 방법에 있어서,
설정 지역을 촬영한 동영상을 입수하는 단계;
상기 동영상에 포함된 보행자를 나타내는 객체 이미지를 추출하는 단계;
상기 객체 이미지의 분석을 통해 상기 보행자의 보폭과 보행 속도가 포함된 보행 특성을 추출하는 단계;
상기 보폭 및 상기 보행 속도가 포함된 스펙트로그램 이미지를 생성하는 단계;
상기 객체 이미지, 상기 보행 특성 및 상기 스펙트로그램 이미지를 이용해서 상기 보행자가 기입수된 특정 보행자와 일치하는지 여부를 판별하는 단계;
상기 특정 보행자와 일치하는 것으로 판별된 보행자에 해당하는 후보 객체의 이동 경로를 지도에 표시하는 단계;
를 포함하는 추적 방법.
In the tracking method performed by the tracking device,
Obtaining a video recording a set area;
extracting an object image representing a pedestrian included in the video;
extracting a gait characteristic including a step length and a gait speed of the pedestrian through analysis of the object image;
generating a spectrogram image including the stride length and the walking speed;
determining whether or not the pedestrian matches a specific pedestrian entered using the object image, the gait characteristics, and the spectrogram image;
displaying a movement path of a candidate object corresponding to the pedestrian determined to match the specific pedestrian on a map;
A tracking method that includes.
KR1020210065921A 2021-05-24 2021-05-24 Apparatus and method for tracking patients with dementia KR20220158322A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210065921A KR20220158322A (en) 2021-05-24 2021-05-24 Apparatus and method for tracking patients with dementia
JP2021544588A JP2024519620A (en) 2021-05-24 2021-06-16 Dementia patient tracking device and method
PCT/KR2021/007546 WO2022250196A1 (en) 2021-05-24 2021-06-16 Dementia patient tracking device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210065921A KR20220158322A (en) 2021-05-24 2021-05-24 Apparatus and method for tracking patients with dementia

Publications (1)

Publication Number Publication Date
KR20220158322A true KR20220158322A (en) 2022-12-01

Family

ID=84228260

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210065921A KR20220158322A (en) 2021-05-24 2021-05-24 Apparatus and method for tracking patients with dementia

Country Status (3)

Country Link
JP (1) JP2024519620A (en)
KR (1) KR20220158322A (en)
WO (1) WO2022250196A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102581933B1 (en) * 2023-03-21 2023-09-22 에이트스튜디오 주식회사 Apparatus for classifying degenerative disease

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101792339B1 (en) 2015-09-02 2017-11-01 케이티하이텔 주식회사 System for providing open platform of traking beacon possessed by dementia patient

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489570B2 (en) * 2013-12-31 2016-11-08 Konica Minolta Laboratory U.S.A., Inc. Method and system for emotion and behavior recognition
KR102102931B1 (en) * 2018-04-23 2020-04-22 주식회사 바이탈식스랩 Dementia prediction system
KR102285632B1 (en) * 2019-01-03 2021-08-04 한국전자기술연구원 Health abnormality detection system and method using gait pattern
KR102313044B1 (en) * 2019-10-16 2021-10-19 한국과학기술연구원 Method and system for evaluating elderly health status using characteristics of walk-in-place
KR102260120B1 (en) * 2019-11-04 2021-06-03 주식회사 넥스트케이 Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101792339B1 (en) 2015-09-02 2017-11-01 케이티하이텔 주식회사 System for providing open platform of traking beacon possessed by dementia patient

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102581933B1 (en) * 2023-03-21 2023-09-22 에이트스튜디오 주식회사 Apparatus for classifying degenerative disease

Also Published As

Publication number Publication date
JP2024519620A (en) 2024-05-21
WO2022250196A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
CN103048654B (en) Radar sensor and method for detecting objects using the same
US8983124B2 (en) Moving body positioning device
US7613325B2 (en) Human detection device and human detection method
US7702019B2 (en) Moving object detection device and moving object detection method
CN109829382B (en) Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis
JP6988790B2 (en) Crowd type identification system, crowd type identification method and crowd type identification program
US20220277463A1 (en) Tracking dynamics using a computerized device
KR102221817B1 (en) Mobile terminal for providing location information, method and system for measuring the location information
CN112307868A (en) Image recognition method, electronic device, and computer-readable medium
TWI776566B (en) Action recognition method, computer equipment and computer readable storage medium
Gupta et al. Let the blind see: an AIIoT-based device for real-time object recognition with the voice conversion
CN112668374A (en) Image processing method and device, re-recognition network training method and electronic equipment
KR20220158322A (en) Apparatus and method for tracking patients with dementia
US20230148135A1 (en) Tracking user and object dynamics using a computerized device
KR101313879B1 (en) Detecting and Tracing System of Human Using Gradient Histogram and Method of The Same
US20220366570A1 (en) Object tracking device and object tracking method
Bačić Echo state network for 3D motion pattern indexing: A case study on tennis forehands
KR102475752B1 (en) Method and apparatus for prodicting moving path
Dasari et al. Mpeg cdvs feature trajectories for action recognition in videos
CN110069995A (en) A kind of service plate moving state identification method based on deep learning
JP2021196899A (en) Image processing apparatus, image processing method, and program
Magdy et al. Human activity recognition in maintenance centers to reduce wasted time
JP2020064568A (en) Video analysis system, learning device, and method thereof
CJ et al. Robust Human Activity Recognition using Multimodal Feature-Level Fusion.
JP7019113B2 (en) Relative position detector, relative position detection method, and relative position detection program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application