KR20190108218A - Emergency Analysis Device and Method Using Digital Image - Google Patents

Emergency Analysis Device and Method Using Digital Image Download PDF

Info

Publication number
KR20190108218A
KR20190108218A KR1020180029180A KR20180029180A KR20190108218A KR 20190108218 A KR20190108218 A KR 20190108218A KR 1020180029180 A KR1020180029180 A KR 1020180029180A KR 20180029180 A KR20180029180 A KR 20180029180A KR 20190108218 A KR20190108218 A KR 20190108218A
Authority
KR
South Korea
Prior art keywords
behavior pattern
image
list
emergency situation
unit
Prior art date
Application number
KR1020180029180A
Other languages
Korean (ko)
Inventor
염세경
최승현
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020180029180A priority Critical patent/KR20190108218A/en
Publication of KR20190108218A publication Critical patent/KR20190108218A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to an apparatus for analyzing an emergency situation using a digital video image, which comprises: a camera photographing a video or an image; an identification unit identifying an object or a behavior pattern in the video or the image photographed by the camera; an extraction unit extracting an object from the identified object or the behavior pattern from the identification unit; a control unit classifying the object or the behavior pattern extracted from the extraction unit by object and behavior pattern and generating a list for each classified object or behavior pattern; and a determination unit determining whether the object or the behavior pattern extracted from the extraction unit belongs to a similar range by comparing the control unit with the object or the behavior pattern of the generated list.

Description

디지털 영상 이미지를 이용한 위급상황 분석장치 및 방법{Emergency Analysis Device and Method Using Digital Image} Emergency Analysis Device and Method Using Digital Image

본 발명은 디지털 영상 이미지를 이용한 위급상황 분석장치 및 방법에 관한 것이다. The present invention relates to an emergency situation analysis apparatus and method using a digital image.

최근 들어 인구의 고령화와 핵가족화 가속화로 인해 홀로 사는 인구들가 증가하고 있다. In recent years, the aging population and the accelerated nuclear family have increased the number of people living alone.

홀로 사는 인구들의 경우 자그마한 사고가 발생 했을 때 발견이 쉽지 않아 응급조치가 늦어져서 생명을 잃는 등 큰 위험으로 이어지기 쉽다. In the case of a single population living alone, it is not easy to find a small accident, leading to great risks such as delayed first aid and loss of life.

이에 홀로 사는 인구들의 고독사가 사회문제로 이슈화되면서 고독사를 예방하기 위한 위급상황 자동통보 기술들이 개발되고 있다. As the loneliness of the population living alone becomes a social issue, automatic emergency notification technologies are being developed to prevent loneliness.

이러한 위급상황 자동통보 기술의 종래기술로 한국 등록실용신안공보 제20-0278919호가 있다. Korean Patent Utility Model Publication No. 20-0278919 is a prior art of such an emergency automatic notification technology.

하지만, 종래기술의 경우 독거환자가 인위적인 조작으로 발생되는 신호데이터와, 독거노인의 생활공간 내에서 누출된 영역별 가스를 감지하는 센서를 기초로 위급상황인 것을 자동으로 통보하지만, 독고환자가 인위적인 조작을 할 수 없는 상태이거나 가스 누출이 아닌 경우 자동으로 위급상황인 것을 통보할 수 없는 문제점이 있다. However, in the prior art, a single patient is automatically notified of an emergency situation based on signal data generated by artificial manipulation and a sensor for detecting gas for each area leaked in the living space of an elderly person living alone. There is a problem in that it is not possible to automatically notify the emergency situation when the operation is not possible or the gas leak.

본 발명이 해결하고자 하는 기술적 과제는, 별도의 조작없이 실시간으로 계속 관찰할 수 있는 디지털 영상 이미지를 이용해 위급상황을 분석해 위급상황인 것을 통보할 수 있는 디지털 영상 이미지를 이용한 위급상황 분석장치 및 방법을 제공하는 것이다. The technical problem to be solved by the present invention is an emergency situation analysis apparatus and method using a digital image image that can be notified of the emergency situation by analyzing the emergency situation using a digital image image that can be continuously observed in real time without a separate operation To provide.

상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 바람직한 일 측면에 따르면, 영상이나 이미지를 촬영하는 카메라; 상기 카메라 통해 촬영된 영상이나 이미지에서 대상이나 행동패턴을 식별하는 식별부; 상기 식별부로부터 상기 식별된 대상이나 행동패턴에서 객체를 추출하는 추출부; 상기 추출부로부터 상기 추출된 대상이나 행동패턴에서 대상이나 행동패턴 별로 구별하여 분류하고, 상기 분류된 대상이나 행동패턴 별로 리스트를 생성하는 제어부; 및 상기 추출부로부터 상기 추출된 대상이나 행동패턴이 상기 제어부를 생성된 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 판단부;를 포함하는디지털 영상 이미지를 이용한 위급상황 분석장치를 제공한다. In order to solve the above technical problem, according to a preferred aspect of the present invention, a camera for taking an image or an image; An identification unit for identifying an object or a behavior pattern in an image or an image captured by the camera; An extraction unit for extracting an object from the identified object or behavior pattern from the identification unit; A controller configured to classify and classify the extracted object or behavior pattern by object or behavior pattern and to generate a list for each classified object or behavior pattern; And a determination unit for determining whether the extracted object or behavior pattern is similar to the object or behavior pattern of the list generated by the control unit, in a similar range. to provide.

여기서, 상기 유사범위는 상기 리스트의 대상이나 행동패턴 중 사용자가 선택한 것일 수 있다. Here, the similar range may be selected by the user from the object or the behavior pattern of the list.

여기서, 상기 판단부가 상기 유사범위에 속하는 것으로 판단한 경우 위급상황인 것을 통보하는 것일수 있다. Here, when the determination unit determines that it belongs to the similar range, it may be to notify that it is an emergency situation.

본 발명의 바람직한 다른 측면에 따르면, 디지털 영상 이미지를 이용한 위급상황 분석장치가 분석하는 방법은, 카메라를 이용해 영상이나 이미지를 촬영하는 단계; 상기 카메라 통해 촬영된 영상이나 이미지에서 대상이나 행동패턴을 식별하는 단계; 상기 식별된 대상이나 행동패턴에서 객체를 추출하는 단계; 상기 추출된 대상이나 행동패턴에서 대상이나 행동패턴 별로 구별하여 분류하고, 상기 분류된 대상이나 행동패턴 별로 리스트를 생성하는 단계; 및 상기 추출된 대상이나 행동패턴이 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 단계;를 포함한다. According to another preferred aspect of the present invention, a method for analyzing an emergency situation analysis apparatus using a digital video image, the method comprising the steps of photographing an image or an image using a camera; Identifying an object or a behavior pattern in an image or an image captured by the camera; Extracting an object from the identified object or behavior pattern; Classifying and classifying the extracted objects or behavior patterns by objects and behavior patterns, and generating a list by the classified objects or behavior patterns; And And determining whether the extracted object or behavior pattern falls within a similar range compared to the object or behavior pattern in the list.

여기서, 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 단계에서 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는 경우 위급상황인 것을 통보할 수 있다. Here, in the step of determining whether it is in a similar range compared to the object or behavior pattern of the list, it may be notified that an emergency situation is included in the similar range compared to the object or behavior pattern of the list.

상기한 바와 같이, 본 발명의 디지털 영상 이미지를 이용한 위급상황 분석장치는 디지털 영상 이미지를 이용해 위급상황을 분석하여 별도의 조작없이 실시간으로 위급상황인 것을 통보할 수 있는 효과가 있다. As described above, the emergency situation analysis apparatus using the digital video image of the present invention has the effect of notifying the emergency situation in real time without any additional manipulation by analyzing the emergency situation using the digital video image.

도 1은 본 발명에 일 실시예에 따른 디지털 영상 이미지를 이용한 위급상황 분석장치의 구성도이다.
도 2는 본 발명에 일 실시예에 따른 디지털 영상 이미지를 이용한 위급상황 분석방법의 순서도이다.
1 is a block diagram of an emergency situation analysis apparatus using a digital image image according to an embodiment of the present invention.
2 is a flowchart of an emergency situation analysis method using a digital video image according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 이와 같은 용어들에 의해 한정되지는 않는다. 이 용어들은 하나의 구성요소들을 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. These terms are only used to distinguish one component from another.

어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나, 또는 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나, '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be 'connected' or 'connected' to another component, it may be directly connected to or connected to that other component, but other components may be present in between. It should be understood that. On the other hand, when a component is said to be 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함한다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the term 'comprises' or 'having' is intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

도 1은 본 발명에 일 실시예에 따른 디지털 영상 이미지를 이용한 위급상황 분석장치의 구성도이다. 1 is a block diagram of an emergency situation analysis apparatus using a digital image image according to an embodiment of the present invention.

도 1을 참조하면, 디지털 영상 이미지를 이용한 위급상황 분석장치(100)는 카메라(110), 식별부(120), 추출부(130), 제어부(140), 저장부(150), 표시부(160), 입력부(170) 및 판단부(180)을 포함한다. Referring to FIG. 1, the emergency analysis apparatus 100 using the digital image image may include a camera 110, an identification unit 120, an extraction unit 130, a control unit 140, a storage unit 150, and a display unit 160. ), An input unit 170 and a determination unit 180.

카메라(110)는 대상이나 행통패턴의 영상이나 이미지를 촬영하며, 하나 이상 일 수 있다. The camera 110 captures an image or an image of an object or a passage pattern, and may be one or more.

식별부(120)는 카메라(110)를 통해 촬영된 영상이나 이미지에서 객체 탐지(Object-detection)를 이용하여 대상이나 행동패턴을 식별하거나 학습한다. 여기서 객체 탐지(Object-detection)를 이용해 식별하거나 학습할 대상이나 행동패턴은 사용자가 입력부(170)통해 지정한 대상이나 행동패턴일 수 있다. The identification unit 120 identifies or learns an object or a behavior pattern by using object detection in an image or an image captured by the camera 110. The object or behavior pattern to be identified or learned using object detection may be an object or behavior pattern designated by the user through the input unit 170.

추출부(130)는 식별부(120)로부터 식별되거나 학습된 대상이나 행동패턴에서 딥 러닝(deep learning) 방법을 이용해 객체를 추출해 저장부(150)의 영상 DB(151)와 이미지 DB(152)에 각각 영상과 이미지를 저장한다. 예를 들어, 객체가 사람일 경우 신장, 크기, 이동 속도, 행동패턴 등을 예로 들 수 있다. The extractor 130 extracts an object from a target or behavior pattern identified or learned from the identifier 120 by using a deep learning method, such as the image DB 151 and the image DB 152 of the storage 150. Save images and images respectively. For example, if the object is a human, for example, height, size, moving speed, and behavior pattern.

딥 러닝(deep learning) 방법은 컴퓨터가 여러 데이터를 이용해 마치 사람처럼 스스로 학습할 수 있게 하기 위해 인공 신경망(Artificial Neural Network : ANN)을 기반으로 처리하는 기계 학습 기술로, 인간의 두뇌가 수많은 데이터 속에서 패턴을 발견한 뒤 사물을 구분하는 정보 처리 방식을 모방해 컴퓨터가 사물을 분별하도록 기계를 학습시키는 기술이다. 이러한 딥 러닝 방법은 사용자가 모든 판단 기준을 정해주지 않아도 컴퓨터가 이미지 인식과 사진 분석 등에서 스스로 인지, 추론 및 판단할 수 있다. Deep learning method is a machine learning technology based on Artificial Neural Network (ANN) to enable a computer to learn as a human by using various data. It is a technology that learns a machine so that a computer can identify things by mimicking the information processing method that finds a pattern and then classifies things. This deep learning method allows a computer to recognize, infer, and judge on its own in image recognition and photo analysis, without the user having to determine all the criteria.

제어부(140)는 추출부(130)로부터 추출된 대상이나 행동패턴을 저장부(150)의 영상 DB(151)와 이미지 DB(152)로부터 받아 대상이나 행동패턴 별로 구별하여 분류(classification)하고, 분류된 대상이나 행동패턴 별로 리스트를 생성해 저장부(150)의 리스트 DB(153)에 저장한다. The controller 140 receives the object or behavior pattern extracted from the extractor 130 from the image DB 151 and the image DB 152 of the storage unit 150 and classifies the object or behavior pattern according to the object or behavior pattern. A list is generated for each classified object or behavior pattern and stored in the list DB 153 of the storage unit 150.

또한, 제어부(140)는 입력부(170)로부터 입력받은 사용자가 지정한 대상이나 행동패턴에 맞춰 식별부(120)가 식별하도록 한다. In addition, the controller 140 allows the identification unit 120 to identify the object or the behavior pattern designated by the user input from the input unit 170.

제어부(140)는 카메라(110), 식별부(120), 추출부(130), 저장부(150), 입력부(160), 표시부(170) 및 판단부(180)를 제어한다. The controller 140 controls the camera 110, the identification unit 120, the extraction unit 130, the storage unit 150, the input unit 160, the display unit 170, and the determination unit 180.

저장부(150)는 추출부(130)를 통해 추출된 대상이나 행동패턴과 제어부(140)를 통해 분류된 대상이나 행동패턴별로 생성된 리스트를 저장한다. The storage unit 150 stores a list generated by the object or behavior pattern extracted by the extractor 130 and the object or behavior pattern classified by the controller 140.

저장부(150)는 영상 DB(151), 이미지 DB(152) 및 리스트 DB(153)를 포함한다. The storage unit 150 includes an image DB 151, an image DB 152, and a list DB 153.

영상 DB(151)는 추출부(130)를 통해 추출된 대상이나 행동패턴의 영상을 저장한다. The image DB 151 stores an image of an object or a behavior pattern extracted by the extractor 130.

이미지 DB(152)는 추출부(130)를 통해 추출된 대상이나 행동패턴의 이미지를 저장한다. The image DB 152 stores an image of an object or a behavior pattern extracted by the extractor 130.

리스트 DB(153)는 제어부(140)를 통해 분류된 대상이나 행동패턴별로 생성된 리스트를 저장한다. The list DB 153 stores a list generated for each target or behavior pattern classified through the controller 140.

또한, 저장부(150)는 영상 DB(151), 이미지 DB(152) 및 리스트 DB(153)이외에 기본정보 DB(미도시)를 더 포함하고 있어, 카메라(110)로 촬영하는 대상의 기본 정보를 저장할 수 있다. In addition, the storage unit 150 further includes a basic information DB (not shown) in addition to the image DB 151, the image DB 152, and the list DB 153. Can be stored.

표시부(160)는 저장부(150)에 저장된 영상, 이미지 및 리스트를 표시한다. The display unit 160 displays an image, an image, and a list stored in the storage 150.

입력부(170)는 사용자가 표시부(160)에 표시된 대상이나 행동패턴에 맞춰 식별부(120)가 식별할 대상이나 행동패턴을 지정하거나, 리스트를 보고 판단부(180)가 판단할 유사범위를 선택할 수 있게 한다. The input unit 170 designates an object or behavior pattern to be identified by the identification unit 120 according to the object or behavior pattern displayed on the display unit 160, or selects a similar range to be determined by the determination unit 180 based on a list. To be able.

판단부(180)는 추출부(130)로부터 추출된 대상이나 행동패턴이 제어부(140)를 통해 생성된 리스트의 대상이나 행동패턴과 비교해 사용자가 입력부(170)를 통해 선택한 리스트의 대상이나 행동패턴 중 적어도 일부인 유사범위에 속하는지 판단하며, 유사범위에 속할 경우 위급상황이라고 근처의 병원이나 119에 통보한다. 즉, 유사범위는 제어부(140)를 통해 생성된 리스트의 대상이나 행동패턴 중 사용자가 입력부(170)를 통해 선택한 위급상황이라고 판단하는 대상이나 행동패턴이다. The determination unit 180 compares the object or behavior pattern extracted from the extractor 130 with the object or behavior pattern of the list generated by the controller 140, and the object or behavior pattern of the list selected by the user through the input unit 170. It determines whether it is at least a part of the similar range, and if it falls within the similar range, it notifies the nearby hospital or 119 that it is an emergency. That is, the similar range is an object or behavior pattern determined by the user as an emergency selected from the object or behavior pattern of the list generated by the controller 140 through the input unit 170.

여기서, 판단부(180)는 딥러닝, 머신러닝, object-dectection, MultilayerPercatron Network, Convolution Neural Network 중에서 적어도 하나를 이용해 유사범위에 속하는지 판단할 수 있다. Here, the determination unit 180 may determine whether it belongs to a similar range using at least one of deep learning, machine learning, object-dectection, MultilayerPercatron Network, and Convolution Neural Network.

도 2는 본 발명에 일 실시예에 따른 디지털 영상 이미지를 이용한 위급상황 분석방법의 순서도이다. 2 is a flowchart of an emergency situation analysis method using a digital video image according to an embodiment of the present invention.

도 2를 참조하면, S210단계에서 카메라(110)는 대상이나 행통패턴의 영상이나 이미지를 촬영한다. 2, in step S210, the camera 110 captures an image or an image of an object or a passing pattern.

S220단계에서 식별부(120)는 카메라(110) 통해 촬영된 영상이나 이미지에서 대상이나 행동패턴을 식별한다. In operation S220, the identification unit 120 identifies an object or a behavior pattern in an image or an image captured by the camera 110.

S230단계에서 추출부(130)는 식별된 대상이나 행동패턴에서 객체를 추출해 저장부(150)의 영상 DB(151)와 이미지 DB(152)에 각각 영상과 이미지를 구별해 저장한다. In operation S230, the extractor 130 extracts an object from the identified object or behavior pattern, and stores the image and the image separately in the image DB 151 and the image DB 152 of the storage 150.

S240단계에서 제어부(140)는 추출부(130)로부터 추출된 대상이나 행동패턴을 저장부(150)의 영상 DB(151)와 이미지 DB(152)로부터 받아 대상이나 행동패턴 별로 구별하여 분류(classification)하고, 분류된 대상이나 행동패턴 별로 리스트(class)를 생성해 저장부(150)의 리스트 DB(153)에 저장한다. In operation S240, the controller 140 receives the object or behavior pattern extracted from the extractor 130 from the image DB 151 and the image DB 152 of the storage unit 150 and classifies the object or behavior pattern by object or behavior pattern. Then, a list is generated for each classified object or behavior pattern and stored in the list DB 153 of the storage unit 150.

S250단계에서 판단부(150)는 추출부(130)로부터 추출된 대상이나 행동패턴이 제어부(140)를 통해 생성된 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단해 유사범위에 속하는 경우 S260단계로 진행하고, 유사범위에 속하지 않은 경우 S210단계 내지 S250단계를 진행한다. In operation S250, the determination unit 150 determines whether the object or behavior pattern extracted from the extraction unit 130 belongs to a similar range compared to the object or behavior pattern of the list generated by the control unit 140, and then belongs to a similar range. Proceeds to step S260, if it does not belong to a similar range proceeds to step S210 to S250.

S260단계에서 판단부(150)는 위급상황이라고 근처의 병원이나 119에 통보한다. In operation S260, the determination unit 150 notifies the neighboring hospital or 119 of the emergency situation.

이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 본 발명의 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 다음의 청구범위에 의해서 정해져야할 것이다. Although embodiments according to the present invention have been described above, these are merely exemplary, and those skilled in the art will appreciate that various modifications and equivalent embodiments of the present invention are possible therefrom. . Therefore, the true technical protection scope of the present invention will be defined by the following claims.

110 : 카메라 120 : 식별부
130 : 추출부 140 : 제어부
150 : 저장부 160 : 표시부
170 : 입력부 180 : 판단
110: camera 120: identification unit
130: extraction unit 140: control unit
150: storage unit 160: display unit
170: input unit 180: judgment

Claims (5)

영상이나 이미지를 촬영하는 카메라;
상기 카메라 통해 촬영된 영상이나 이미지에서 대상이나 행동패턴을 식별하는 식별부;
상기 식별부로부터 상기 식별된 대상이나 행동패턴에서 객체를 추출하는 추출부;
상기 추출부로부터 상기 추출된 대상이나 행동패턴에서 대상이나 행동패턴 별로 구별하여 분류하고, 상기 분류된 대상이나 행동패턴 별로 리스트를 생성하는 제어부; 및
상기 추출부로부터 상기 추출된 대상이나 행동패턴이 상기 제어부를 생성된 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 판단부;를 포함하는 것
을 특징으로 하는 디지털 영상 이미지를 이용한 위급상황 분석장치.

A camera for capturing an image or an image;
An identification unit for identifying an object or a behavior pattern in an image or an image captured by the camera;
An extraction unit for extracting an object from the identified object or behavior pattern from the identification unit;
A controller configured to classify and classify the extracted object or behavior pattern by object or behavior pattern and to generate a list for each classified object or behavior pattern; And
And a determining unit for determining whether the extracted object or behavior pattern is within a similar range by comparing the control unit with the generated object or behavior pattern of the list.
Emergency situation analysis device using a digital video image characterized in that.

제1항에 있어서,
상기 유사범위는 상기 리스트의 대상이나 행동패턴 중 사용자가 선택한 것인 것
을 특징으로 하는 디지털 영상 이미지를 이용한 위급상황 분석장치.
The method of claim 1,
The similar range is selected by the user from the object or behavior pattern of the list.
Emergency situation analysis device using a digital video image characterized in that.
제1항에 있어서,
상기 판단부가 상기 유사범위에 속하는 것으로 판단한 경우 위급상황인 것을 통보하는 것
을 특징으로 하는 디지털 영상 이미지를 이용한 위급상황 분석장치.
The method of claim 1,
Informing the user that it is an emergency situation when the judgment unit judges that it belongs to the similar range.
Emergency situation analysis device using a digital video image characterized in that.
디지털 영상 이미지를 이용한 위급상황 분석장치가 분석하는 방법에 있어서,
카메라를 이용해 영상이나 이미지를 촬영하는 단계;
상기 카메라 통해 촬영된 영상이나 이미지에서 대상이나 행동패턴을 식별하는 단계;
상기 식별된 대상이나 행동패턴에서 객체를 추출하는 단계;
상기 추출된 대상이나 행동패턴에서 대상이나 행동패턴 별로 구별하여 분류하고, 상기 분류된 대상이나 행동패턴 별로 리스트를 생성하는 단계; 및
상기 추출된 대상이나 행동패턴이 상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 단계;를 포함하는 것
을 특징으로 하는 디지털 영상 이미지를 이용한 위급상황 분석방법.
In the analysis method of the emergency situation analysis device using a digital video image,
Photographing an image or an image using a camera;
Identifying an object or a behavior pattern in an image or an image captured by the camera;
Extracting an object from the identified object or behavior pattern;
Classifying and classifying the extracted objects or behavior patterns by objects and behavior patterns, and generating a list by the classified objects or behavior patterns; And
And determining whether the extracted object or behavior pattern falls within a similar range compared to the object or behavior pattern in the list.
Emergency situation analysis method using a digital video image characterized in that.
제3항에 있어서,
상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는지 판단하는 단계에서
상기 리스트의 대상이나 행동패턴과 비교해 유사범위에 속하는 경우 위급상황인 것을 통보하는 것
을 특징으로 하는 디지털 영상 이미지를 이용한 위급상황 분석방법.
The method of claim 3,
In the step of judging whether or not belonging to a similar range compared to the object or behavior pattern of the list
To notify of an emergency in the case of a similar scope compared to the object or behavior pattern of the list.
Emergency situation analysis method using a digital video image characterized in that.
KR1020180029180A 2018-03-13 2018-03-13 Emergency Analysis Device and Method Using Digital Image KR20190108218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180029180A KR20190108218A (en) 2018-03-13 2018-03-13 Emergency Analysis Device and Method Using Digital Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180029180A KR20190108218A (en) 2018-03-13 2018-03-13 Emergency Analysis Device and Method Using Digital Image

Publications (1)

Publication Number Publication Date
KR20190108218A true KR20190108218A (en) 2019-09-24

Family

ID=68068908

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180029180A KR20190108218A (en) 2018-03-13 2018-03-13 Emergency Analysis Device and Method Using Digital Image

Country Status (1)

Country Link
KR (1) KR20190108218A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116396B1 (en) * 2019-11-22 2020-05-28 주식회사 인텔리빅스 Apparatus for Recognizing Second-class Citizen and Driving Method Thereof
KR102343348B1 (en) * 2021-07-29 2021-12-24 국방과학연구소 Method of acquiring infrared image data, apparatus for acquiring infrared image data, and computer program for the method
KR20220055378A (en) * 2020-10-26 2022-05-03 주식회사 인피닉스 On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102116396B1 (en) * 2019-11-22 2020-05-28 주식회사 인텔리빅스 Apparatus for Recognizing Second-class Citizen and Driving Method Thereof
KR20220055378A (en) * 2020-10-26 2022-05-03 주식회사 인피닉스 On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof
KR102343348B1 (en) * 2021-07-29 2021-12-24 국방과학연구소 Method of acquiring infrared image data, apparatus for acquiring infrared image data, and computer program for the method

Similar Documents

Publication Publication Date Title
JP2019216424A (en) Surveillance system and surveillance method
WO2019033572A1 (en) Method for detecting whether face is blocked, device and storage medium
KR100918436B1 (en) Fire detection system and method basedon visual data
JP5106356B2 (en) Image monitoring device
WO2011028023A2 (en) Apparatus and method for detecting eye state
US20150262068A1 (en) Event detection apparatus and event detection method
KR20140081254A (en) Human detecting apparatus and method
KR102481995B1 (en) On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof
JP2018068863A (en) Gauze detection system
KR20190108218A (en) Emergency Analysis Device and Method Using Digital Image
CN111814725A (en) Early warning method for judging ignition of monitoring video based on CNN + LSTM + MLP combined neural network
CN109977993A (en) A kind of fire alarm method, apparatus and computer readable storage medium
CN111079694A (en) Counter assistant job function monitoring device and method
WO2022055023A1 (en) Iot integrated intelligent image analysis platform system capable of smart object recognition
CN115346060A (en) Picture abnormity identification method and device, electronic equipment and storage medium
KR101620989B1 (en) Method of detecting fire automatically from video including night images and system for performing the same
KR20160056107A (en) Surveillance System And Method To Object And Area
KR101394270B1 (en) System and method for image monitoring
KR20230051848A (en) System for preventing safety accidents in dangerous areas and operation method thereof
CN111985331B (en) Detection method and device for preventing trade secret from being stolen
JP2017102719A (en) Flame detection device and flame detection method
JP2021007055A (en) Discriminator learning device, discriminator learning method, and computer program
CN112364884A (en) Method for detecting moving object
JP7214437B2 (en) Information processing device, information processing method and program
Chen et al. An indoor video surveillance system with intelligent fall detection capability