KR20210079823A - Electronic device and Method for controlling the electronic device thereof - Google Patents

Electronic device and Method for controlling the electronic device thereof Download PDF

Info

Publication number
KR20210079823A
KR20210079823A KR1020190171990A KR20190171990A KR20210079823A KR 20210079823 A KR20210079823 A KR 20210079823A KR 1020190171990 A KR1020190171990 A KR 1020190171990A KR 20190171990 A KR20190171990 A KR 20190171990A KR 20210079823 A KR20210079823 A KR 20210079823A
Authority
KR
South Korea
Prior art keywords
image
electronic device
event
visual sensor
fixed object
Prior art date
Application number
KR1020190171990A
Other languages
Korean (ko)
Inventor
김동진
정성훈
한종희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190171990A priority Critical patent/KR20210079823A/en
Priority to PCT/KR2020/015300 priority patent/WO2021125550A1/en
Publication of KR20210079823A publication Critical patent/KR20210079823A/en

Links

Images

Classifications

    • G06K9/6215
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • G06K9/00335
    • G06K9/4661
    • G06K9/6255
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/20Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming only infrared radiation into image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Psychology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computer Security & Cryptography (AREA)
  • Fuzzy Systems (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an electronic device and a method for controlling the same. The electronic device includes a visual sensor, a memory configured to store at least one instruction, and a processor connected to the visual sensor and the memory, and configured to control the electronic device. The processor, by executing the at least one instruction, may: identify a static object from a plurality of image frames obtained through the visual sensor to obtain a reference image comprising the identified static object; when a fall down event is detected through a trained neural network model, identify a static object from at least one image frame obtained through the visual sensor after the fall down event is detected; obtain an event image comprising the identified static object from the at least one image frame; and identify a fall down presence of a person by comparing the reference image with the event image. According to the present invention, the electronic device can provide a more accurate fall down event detection fact to a user.

Description

전자 장치 및 이의 제어 방법{Electronic device and Method for controlling the electronic device thereof}Electronic device and method for controlling the same

본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 본 개시는 비쥬얼 센서를 통해 획득된 이미지를 바탕으로 낙상 이벤트를 감지할 수 있는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof, and the present disclosure relates to an electronic device capable of detecting a fall event based on an image obtained through a visual sensor and a control method thereof.

근래에는 인공 지능 시스템이 다양한 분야에서 이용되고 있다. 인공 지능 시스템은 기존의 룰(rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공 지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 룰 기반 스마트 시스템은 점차 딥러닝 기반 인공 지능 시스템으로 대체되고 있다.Recently, artificial intelligence systems have been used in various fields. Unlike the existing rule-based smart system, an artificial intelligence system is a system in which a machine learns, judges, and becomes smarter by itself. The more the artificial intelligence system is used, the better the recognition rate and the more accurate understanding of user preferences, and the existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

특히, 근래에는 비쥬얼 센서를 이용하여 획득된 이미지를 학습된 신경망 모델에 입력하여 사람의 낙상이나 재실(在室)을 감지하는 인공 지능 시스템이 제공되고 있다. In particular, in recent years, an artificial intelligence system for detecting a person's fall or occupancy by inputting an image obtained using a visual sensor into a trained neural network model has been provided.

다만, 현재 인공 지능 시스템에는 이미지를 학습된 신경망 모델에 입력하더라도 의도치 않는 상황에도 낙상 이벤트를 감지하는 오류가 존재하였다. 예를 들어, 이미지 안에 사람이 사람보다 더 큰 물체에 갑자기 가려지는 이벤트 또는 사람이 방을 빠른 속도로 나가려는 행위가 감지되는 이벤트의 경우에는 사람의 빠른 동작 이후 갑자기 사람의 동작이 없는 상황으로서, 인공 지능 시스템이 이러한 이벤트들과 낙상 이벤트를 구별하지 못하는 오류가 존재하였다.However, in the current artificial intelligence system, there was an error in detecting a fall event even in an unintended situation even when an image is input to the trained neural network model. For example, in the case of an event in which a person is suddenly obscured by an object larger than a person in the image, or an event in which an action of a person trying to leave the room at high speed is detected, it is a situation where there is no human movement suddenly after a rapid human movement There was an error that the artificial intelligence system could not distinguish between these events and the fall event.

따라서, 비쥬얼 센서를 통해 획득된 이미지를 이용하여 낙상 이벤트를 감지하기 위한 인공 지능 시스템이 더욱 정확하게 낙상 이벤트를 감지할 수 있는 방안의 모색이 요청된다.Accordingly, there is a need for a method for detecting a fall event more accurately by an artificial intelligence system for detecting a fall event using an image obtained through a visual sensor.

본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 고정 오브젝트를 포함하는 참조 이미지와 낙상 이벤트 감지 후 고정 오브젝트를 포함하는 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별할 수 있는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure has been devised to solve the above problems, and an object of the present disclosure is to compare a reference image including a fixed object with an event image including a fixed object after detecting a fall event to identify whether a person has fallen. It relates to an electronic device and a method for controlling the same.

본 개시의 일 실시예에 따른, 전자 장치는, 비쥬얼 센서; 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리; 및 상기 비쥬얼 센서와 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하며, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 비쥬얼 센서를 통해 획득된 복수의 이미지 프레임로부터 고정 오브젝트를 식별하여 상기 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득하며, 학습된 신경망 모델을 통해 낙상 이벤트가 감지되면, 상기 낙상 이벤트가 감지된 후 상기 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별하고, 상기 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지를 획득하며, 상기 참조 이미지와 상기 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별할 수 있다.According to an embodiment of the present disclosure, an electronic device includes: a visual sensor; a memory storing at least one instruction; and a processor connected to the visual sensor and the memory to control the electronic device, wherein the processor executes the at least one instruction to obtain a fixed object from a plurality of image frames obtained through the visual sensor. A reference image including the identified fixed object is obtained by identification, and when a fall event is detected through the learned neural network model, the fixed object is obtained from at least one image frame obtained through the visual sensor after the fall event is detected. may be identified, an event image including the identified fixed object may be obtained from the at least one image frame, and whether a person has fallen may be identified by comparing the reference image with the event image.

또한, 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법은, 비쥬얼 센서를 통해 획득된 복수의 이미지 프레임로부터 고정 오브젝트를 식별하여 상기 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득하는 단계; 학습된 신경망 모델을 통해 낙상 이벤트가 감지되면, 상기 낙상 이벤트가 감지된 후 상기 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별하는 단계; 상기 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지를 획득하는 단계; 및 상기 참조 이미지와 상기 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별하는 단계;를 포함한다.Further, according to an embodiment of the present disclosure, a method of controlling an electronic device includes: identifying a fixed object from a plurality of image frames obtained through a visual sensor to obtain a reference image including the identified fixed object; when a fall event is detected through the learned neural network model, identifying a fixed object from at least one image frame obtained through the visual sensor after the fall event is detected; obtaining an event image including the identified fixed object from the at least one image frame; and comparing the reference image with the event image to identify whether a person has fallen.

상술한 바와 같은 본 개시의 일 실시예에 의해, 낙상 이벤트의 오탐 확률를 감소시킴으로써, 전자 장치는 사용자에게 더욱 정확한 낙상 이벤트 감지 사실을 제공할 수 있게 된다.According to an embodiment of the present disclosure as described above, by reducing the false positive probability of a fall event, the electronic device can provide a more accurate fall event detection fact to the user.

도 1은 본 개시의 일 실시예에 따른, 낙상 이벤트를 감지하는 전자 장치의 동작을 설명하기 위한 도면,
도 2는 본 개시의 일 실시예에 따른, 전자 장치의 구성을 나타내는 블록도,
도 3은 본 개시의 일 실시예에 따른, 전자 장치가 낙상 이벤트를 감지하는 방법을 설명하기 위한 흐름도,
도 4는 본 개시의 일 실시예에 따른, 조도 센서를 통해 획득된 밝기 값을 바탕으로 다이내믹 비전 센서에서 광 변화량을 검출하는 임계값을 조절하는 방법을 설명하기 위한 흐름도,
도 5a 및 도 5b는 본 개시의 일 실시예에 따른, 다이내믹 비전 센서를 통해 획득된 이미지들을 도시한 도면,
도 6은 본 개시의 일 실시예에 따른, 참조 이미지를 생성하는 방법을 설명하기 위한 도면,
도 7a 및 도 7b는 본 개시의 일 실시예에 따른, 낙상 이벤트의 오탐 실시예와 정탐 실시예를 설명하기 위한 도면,
도 8은 본 개시의 일 실시예에 따른, 전자 장치가 사람의 이벤트에 따른 알람 및 이미지를 제공하기 위한 시퀀스도이다.
1 is a view for explaining an operation of an electronic device for detecting a fall event, according to an embodiment of the present disclosure;
2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
3 is a flowchart illustrating a method for an electronic device to detect a fall event according to an embodiment of the present disclosure;
4 is a flowchart illustrating a method of adjusting a threshold value for detecting a light change amount in a dynamic vision sensor based on a brightness value obtained through an illuminance sensor according to an embodiment of the present disclosure;
5A and 5B are diagrams illustrating images acquired through a dynamic vision sensor, according to an embodiment of the present disclosure;
6 is a view for explaining a method of generating a reference image, according to an embodiment of the present disclosure;
7A and 7B are diagrams for explaining a false positive embodiment and a reconnaissance embodiment of a fall event, according to an embodiment of the present disclosure;
8 is a sequence diagram for an electronic device to provide an alarm and an image according to a human event, according to an embodiment of the present disclosure.

이하, 본 개시의 다양한 실시 예가 기재된다. 그러나, 이는 본 개시의 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예들의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. Hereinafter, various embodiments of the present disclosure are described. However, this is not intended to limit the technology of the present disclosure to specific embodiments, and it should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure. .

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" refer to the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as "A or B," "at least one of A or/and B," or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.As used herein, expressions such as "first," "second," "first," or "second," may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components. For example, the first user equipment and the second user equipment may represent different user equipment regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be named as a second component, and similarly, the second component may also be renamed as a first component.

본 문서에서 사용된 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.As used herein, terms such as “module”, “unit”, “part”, etc. are terms used to refer to a component that performs at least one function or operation, and such component is implemented in hardware or software or may be implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, and are integrated into at least one processor, except when each needs to be implemented in individual specific hardware. can be implemented as

어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component); When referring to "connected to", it should be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. As used herein, the expression "configured to (or configured to)" depends on the context, for example, "suitable for," "having the capacity to ," "designed to," "adapted to," "made to," or "capable of." The term “configured (or configured to)” may not necessarily mean only “specifically designed to” in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase “a processor configured (or configured to perform) A, B, and C” refers to a dedicated processor (eg, an embedded processor) for performing the operations, or by executing one or more software programs stored in a memory device. , may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다Terms used in this document are only used to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meanings as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, ideal or excessively formal meanings is not interpreted as In some cases, even terms defined in this document cannot be construed to exclude embodiments of this document.

이하에서는 도면을 참조하여 본 개시에 대해 더욱 상세히 설명하도록 한다. 다만, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, the present disclosure will be described in more detail with reference to the drawings. However, in describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In connection with the description of the drawings, like reference numerals may be used for like components.

이하에서는 도면을 참조하여 본 개시에 대해 더욱 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in more detail with reference to the drawings.

도 1은 본 개시의 일 실시예에 따른, 낙상 이벤트를 감지하는 전자 장치의 동작을 설명하기 위한 도면이다. 본 개시의 전자 장치는 CCTV 또는 홈 게이트웨이 등일 수 있으나, 이는 일 실시예에 불과할 뿐, TV, 냉장고, 세탁기, 인공지능 스피커 등과 같은 가전 제품, 스마트 폰, 태블릿 PC등과 같은 휴대용 단말 등으로 구현될 수 있다. 이때, 전자 장치는 특정 공간 내에서 이루어지는 낙상 이벤트를 감지하기 위한 이미지 프레임을 획득하기 위해 비쥬얼 센서를 포함할 수 있다.1 is a diagram for describing an operation of an electronic device for detecting a fall event, according to an embodiment of the present disclosure. The electronic device of the present disclosure may be a CCTV or a home gateway, but this is only an example, and may be implemented as home appliances such as TV, refrigerator, washing machine, artificial intelligence speaker, etc., portable terminal such as smart phone, tablet PC, etc. have. In this case, the electronic device may include a visual sensor to acquire an image frame for detecting a fall event occurring in a specific space.

전자 장치는 비쥬얼 센서를 이용하여 복수의 이미지 프레임(10-1,10-2,10-3)를 획득할 수 있다. 이때, 비쥬얼 센서는 다이내믹 비전 센서(Dynamic vision sensor, DVS)로서, 다이내믹 비전 센서는 픽셀 단위에서 움직임에 의해 변화가 있는 픽셀을 검출하여 이미지를 획득할 수 있는 센서로서, 이동 오브젝트를 감지할 수 있는 센서이다. 다만, 비쥬얼 센서가 다이내믹 비전 센서인 것은 일 실시예에 불과할 뿐, 일반적인 이미지 센서로도 구현될 수 있다.The electronic device may acquire a plurality of image frames 10 - 1 , 10 - 2 , and 10 - 3 by using a visual sensor. In this case, the visual sensor is a dynamic vision sensor (DVS), and the dynamic vision sensor is a sensor capable of acquiring an image by detecting pixels that have changed due to movement in a pixel unit. is the sensor. However, the visual sensor being a dynamic vision sensor is only an exemplary embodiment, and may also be implemented as a general image sensor.

전자 장치는 획득된 복수의 이미지 프레임(10-1,10-2,10-3)으로부터 고정 오브젝트를 식별할 수 있다. 구체적으로, 일반적으로 다이내믹 비전 센서는 움직임에 의한 빛의 변화를 감지할 수 있는 센서로서 고정 오브젝트보다는 이동 오브젝트를 감지할 수 있다. 그러나, 본 개시의 일 실시예에 따른 전자 장치는 다이내믹 비전 센서에서 빛의 변화를 감지할 수 있는 임계값을 조절할 수 있다. 특히, 전자 장치는 외부 환경의 조도에 따라 임계값을 조절할 수 있다. 다이내믹 비전 센서에서 감지할 수 있는 빛의 변화의 임계값이 낮아지면, 전자 장치는 이미지 프레임으로부터 이동 오브젝트뿐만 아니라 고정 오브젝트를 추출할 수 있다. The electronic device may identify the fixed object from the plurality of acquired image frames 10-1, 10-2, and 10-3. Specifically, in general, a dynamic vision sensor is a sensor capable of detecting a change in light due to movement, and may detect a moving object rather than a fixed object. However, the electronic device according to an embodiment of the present disclosure may adjust a threshold for detecting a change in light in the dynamic vision sensor. In particular, the electronic device may adjust the threshold value according to the illuminance of the external environment. When the threshold value of the change in light detectable by the dynamic vision sensor is lowered, the electronic device may extract a fixed object as well as a moving object from the image frame.

그리고, 전자 장치는 복수의 이미지 프레임(10-1,10-2,10-3)에 공통적으로 검출된 오브젝트를 고정 오브젝트로 식별할 수 있다. In addition, the electronic device may identify an object commonly detected in the plurality of image frames 10 - 1 , 10 - 2 and 10 - 3 as a fixed object.

또 다른 실시예에 의하면, 전자 장치는 IR을 조사할 수 있는 IR 광원부를 포함할 수 있다. 그리고, 전자 장치는 IR 광원부가 발광하는 IR의 세기를 변경하면서 IR을 발광하도록 제어할 수 있으며, 전자 장치는 다이내믹 비전 센서를 통해 세기가 변화된 IR을 감지하여 이동 오브젝트 및 고정 오브젝트를 식별할 수 있다. 그리고, 전자 장치는 복수의 이미지 프레임(10-1,10-2,10-3)에 공통적으로 검출된 오브젝트를 고정 오브젝트로 식별할 수 있다. According to another embodiment, the electronic device may include an IR light source that can irradiate IR. In addition, the electronic device may control the IR light source to emit IR while changing the intensity of the emitted IR, and the electronic device may detect the changed IR through the dynamic vision sensor to identify the moving object and the fixed object. . In addition, the electronic device may identify an object commonly detected in the plurality of image frames 10 - 1 , 10 - 2 and 10 - 3 as a fixed object.

또 다른 실시예에 의하면, 전자 장치는 셔터(Shutter)를 이용하여 빛의 변화를 감지하거나 액츄에이터(Actuator) 및 모터(motor)와 같은 진동소자를 이용하여 픽셀값에 변화를 주어 복수의 이미지 프레임 각각에 포함된 이동 오브젝트 및 고정 오브젝트를 식별할 수 있다. 그리고, 전자 장치는 복수의 이미지 프레임(10-1,10-2,10-3)에 공통적으로 검출된 오브젝트를 고정 오브젝트로 식별할 수 있다.According to another embodiment, the electronic device detects a change in light using a shutter or applies a change to a pixel value using a vibrating element such as an actuator and a motor to each of a plurality of image frames. It is possible to identify a moving object and a fixed object included in the . In addition, the electronic device may identify an object commonly detected in the plurality of image frames 10 - 1 , 10 - 2 and 10 - 3 as a fixed object.

또 다른 실시예에 따른, 전자 장치는 이미지 센서를 통해 복수의 이미지의 픽셀값을 획득하고, 획득된 픽셀값들 중 고정된 픽셀값을 바탕으로 고정 오브젝트를 식별할 수 있다. According to another embodiment, the electronic device may acquire pixel values of a plurality of images through an image sensor, and identify a fixed object based on a fixed pixel value among the acquired pixel values.

그리고, 전자 장치는 복수의 이미지(10-1,10-2,10-3)으로부터 식별된 고정 오브젝트를 바탕으로 참조 이미지(15)를 획득할 수 있다. 이때, 참조 이미지는 특정 공간 내에서 고정 오브젝트를 포함하는 이미지일 수 있다. In addition, the electronic device may acquire the reference image 15 based on the fixed object identified from the plurality of images 10 - 1 , 10 - 2 and 10 - 3 . In this case, the reference image may be an image including a fixed object in a specific space.

특히, 전자 장치(100)는 복수의 이미지 프레임에 포함된 픽셀 당 데이터 값을 바탕으로 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다. 구체적으로, 전자 장치(100)는 복수의 이미지 프레임에 포함된 픽셀들의 대표값(예를 들어, 평균값, 최빈값, AI에 의해 획득된 값 등)을 이용하여 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다.In particular, the electronic device 100 may obtain a reference image including a fixed object based on a data value per pixel included in a plurality of image frames. Specifically, the electronic device 100 obtains a reference image including a fixed object by using representative values (eg, average values, modes, values obtained by AI, etc.) of pixels included in a plurality of image frames. can

전자 장치는 비쥬얼 센서를 통해 획득된 이미지 프레임(20-1,20-2)을 학습된 신경망 모델에 입력하여 낙상 이벤트를 감지할 수 있다. 이때, 학습된 신경망 모델은 비쥬얼 센서를 통해 획득된 이미지 프레임을 바탕으로 사람의 낙상 이벤트를 감지하도록 학습된 신경망 모델로서, 심층 신경망(DNN:Deep Neural Network)로 구현될 수 있다. The electronic device may detect a fall event by inputting the image frames 20 - 1 and 20 - 2 acquired through the visual sensor into the learned neural network model. In this case, the trained neural network model is a neural network model trained to detect a human fall event based on an image frame acquired through a visual sensor, and may be implemented as a deep neural network (DNN).

낙상 이벤트가 감지되면, 전자 장치는 낙상 이벤트가 감지된 후 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별할 수 있다. 이때, 전자 장치(100)는 낙상 이벤트가 감지된 후 일정 시간 이후 하나의 이미지 프레임으로부터 고정 오브젝트를 식별할 수 있으나, 이는 일 실시예에 불과할 뿐, 전술한 바와 같이 참조 이미지를 획득하는 방법으로 낙상 이벤트가 감지된 후 복수의 이미지 프레임으로부터 고정 오브젝트를 식별할 수 있다. 이후, 전자 장치는 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지(30)를 획득할 수 있다. 이때, 이벤트 이미지(30)는 낙상 이벤트가 감지된 이후 획득된 고정 오브젝트를 포함하는 이미지일 수 있다.When the fall event is detected, the electronic device may identify the fixed object from at least one image frame acquired through the visual sensor after the fall event is detected. In this case, the electronic device 100 may identify the fixed object from one image frame after a predetermined time after the fall event is detected, but this is only an example, and as described above, a fall is a method of acquiring a reference image. After an event is detected, a fixed object may be identified from a plurality of image frames. Thereafter, the electronic device may acquire the event image 30 including the identified fixed object from at least one image frame. In this case, the event image 30 may be an image including a fixed object obtained after a fall event is detected.

그리고, 전자 장치는 참조 이미지와 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별할 수 있다. 즉, 전자 장치는 참조 이미지와 이벤트 이미지의 유사도를 획득할 수 있다.In addition, the electronic device may compare the reference image and the event image to identify whether a person has fallen. That is, the electronic device may acquire a degree of similarity between the reference image and the event image.

구체적으로, 도 1에 도시된 바와 같이, 참조 이미지(15)와 이벤트 이미지(30)가 상이한 경우, 즉 참조 이미지(15)와 이벤트 이미지의 유사도가 임계값을 미만이면, 전자 장치는 감지된 낙상 이벤트가 정탐인 것으로 판단할 수 있다. 즉, 도 1에 도시된 바와 같이, 낙상 이벤트가 감지된 후 획득된 이벤트 이미지(30)에 참조 이미지(15)에 포함되지 않았던 추가 오브젝트(35)가 더 포함된 것로 식별되면, 전자 장치는 사람의 낙상 이벤트가 발생하였다는 것을 판단할 수 있다. Specifically, as shown in FIG. 1 , when the reference image 15 and the event image 30 are different, that is, when the similarity between the reference image 15 and the event image is less than a threshold value, the electronic device detects a fall It can be determined that the event is espionage. That is, as shown in FIG. 1 , if it is identified that the additional object 35 that was not included in the reference image 15 is further included in the event image 30 acquired after the fall event is detected, the electronic device It may be determined that a human fall event has occurred.

그러나, 참조 이미지와 이벤트 이미지가 동일한 경우, 즉, 참조 이미지와 이벤트 이미지의 유사도가 임계값 이상이면, 전자 장치는 감지된 낙상 이벤트가 오탐인 것으로 판단하고, 계속해서 낙상 이벤트를 감시할 수 있다. 예로, 낙상 이벤트와 유사한 이벤트인 사람이 FOV(field of view)를 벗어나는 이벤트, 사람이 물건에 가려지는 이벤트, 사람이 문밖으로 나는 이벤트 등을 낙상 이벤트로 판단하지 않을 수 있게 된다. However, when the reference image and the event image are the same, that is, when the similarity between the reference image and the event image is equal to or greater than a threshold, the electronic device may determine that the detected fall event is a false positive and may continuously monitor the fall event. For example, an event similar to a fall event in which a person leaves a field of view (FOV), an event in which a person is covered by an object, an event in which a person flies out of a door, etc. may not be judged as a fall event.

감지된 낙상 이벤트가 정탐인 것으로 판단되면, 전자 장치는 외부의 사용자 단말로 알람 메시지를 제공할 수 있다. 이때, 알람 메시지에는 낙상 이벤트에 대한 정보를 포함하는 메시지 및 낙상 이벤트 이후의 이미지 프레임 중 적어도 하나를 포함할 수 있다.If it is determined that the detected fall event is a spy, the electronic device may provide an alarm message to an external user terminal. In this case, the alarm message may include at least one of a message including information on the fall event and an image frame after the fall event.

상술한 바와 같이, 낙상 이벤트가 감지된 전과 후의 고정 오브젝트를 비교함으로써, 전자 장치는 낙상 이벤트의 오탐 확률을 감소시킬 있다.As described above, by comparing the fixed object before and after the fall event is detected, the electronic device may reduce the probability of false positives of the fall event.

도 2는 본 개시의 일 실시예에 따른, 전자 장치의 구성을 나타내는 블록도이다. 도 2에 도시된 바와 같이, 전자 장치(100)는 비쥬얼 센서(110), 조도 센서(120), IR 광원부(130), 메모리(140), 프로게서(150) 및 통신부(160)를 포함할 수 있다. 한편, 도 2에 도시된 전자 장치(100)의 구성은 전자 장치(100)의 유형에 따라 일부 구성이 추가되거나 생략될 수 있음은 물론이다. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure. As shown in FIG. 2 , the electronic device 100 may include a visual sensor 110 , an illuminance sensor 120 , an IR light source unit 130 , a memory 140 , a processor 150 , and a communication unit 160 . can Meanwhile, it goes without saying that some components may be added or omitted depending on the type of the electronic device 100 in the configuration of the electronic device 100 illustrated in FIG. 2 .

비쥬얼 센서(110)는 특정 공간에 대한 이미지를 획득하기 위한 구성이다. 특히, 본 개시의 일 실시예에 따른, 비쥬얼 센서(110)는 다이내믹 비전 센서(DVS)로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 일반적인 이미지 센서로 구현될 수 있음은 물론이다.The visual sensor 110 is configured to acquire an image for a specific space. In particular, according to an embodiment of the present disclosure, the visual sensor 110 may be implemented as a dynamic vision sensor (DVS), but this is only an example and may be implemented as a general image sensor.

조도 센서(120)는 외부 환경의 조도를 감지하기 위한 구성이다. 특히, 전자 장치(100)는 조도 센서(120)에 의해 감지된 조도를 바탕으로 다이내믹 비전 센서가 감지할 수 있는 빛의 변화의 임계값을 조절할 수 있다.The illuminance sensor 120 is configured to sense the illuminance of the external environment. In particular, the electronic device 100 may adjust a threshold value of a change in light detectable by the dynamic vision sensor based on the illuminance sensed by the illuminance sensor 120 .

IR 광원부(130)는 IR 광을 조사하기 위한 구성이다. 특히, IR 광원부(130)는 프로세서(150)의 제어에 따라, IR 광의 세기를 변경시킬 수 있으나, 이는 일 실시예에 불과할 뿐, IR 광의 발광 주기를 변경시킬 수 있다.The IR light source unit 130 is configured to emit IR light. In particular, the IR light source unit 130 may change the intensity of the IR light under the control of the processor 150 , but this is only an example and may change the emission period of the IR light.

메모리(140)는 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 인스트럭션 또는 데이터를 저장할 수 있다. 특히, 메모리(140)는 비휘발성 메모리 및 휘발성 메모리를 포함할 수 있으며, 예로, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 프로세서(150)에 의해 액세스되며, 프로세서(150)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(140)는 낙상 이벤트를 감지하기 위한 학습된 신경망 모델을 저장할 수 있다. 이때, 학습된 신경망 모델은 비쥬얼 센서(110)를 통해 획득된 복수의 이미지 프레임을 입력하여 사람의 낙상 여부를 감지하도록 학습된 인공지능 모델일 수 있다. 특히, 학습된 신경망 모델은 기존의 범용 프로세서(예를 들어, CPU) 또는 별도의 AI 전용 프로세서(예를 들어, GPU, NPU 등)에 의해 실행될 수 있다. 또한, 메모리(140)는 도 2에 도시된 낙상 이벤트를 감지하기 위한 복수의 구성(또는 모듈)을 저장할 수 있다. 낙상 이벤트를 감지하기 위한 프로그램이 실행되거나 전자 장치의 전원이 인가되면, 메모리(140)에 저장된 복수의 구성은 도 2에 도시된 바와 같이 프로세서(150)로 로딩될 수 있다.The memory 140 may store instructions or data related to at least one other component of the electronic device 100 . In particular, the memory 140 may include a non-volatile memory and a volatile memory, and may be implemented as, for example, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 140 is accessed by the processor 150 , and reading/writing/modification/deletion/update of data by the processor 150 may be performed. Also, the memory 140 may store a trained neural network model for detecting a fall event. In this case, the learned neural network model may be an artificial intelligence model trained to detect whether a person falls by inputting a plurality of image frames obtained through the visual sensor 110 . In particular, the trained neural network model may be executed by an existing general-purpose processor (eg, CPU) or a separate AI-only processor (eg, GPU, NPU, etc.). In addition, the memory 140 may store a plurality of components (or modules) for detecting the fall event shown in FIG. 2 . When a program for detecting a fall event is executed or the electronic device is powered on, a plurality of components stored in the memory 140 may be loaded into the processor 150 as shown in FIG. 2 .

통신부(160)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신부(160)는 와이파이 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈 등을 포함할 수 있다. 특히, 프로세서(150)는 통신부(160)를 이용하여 각종 외부 사용자 단말과 통신을 수행할 수 있다. 구체적으로, 통신부(160)는 외부 사용자 단말로 낙상 이벤트에 대한 정보 및 낙상 이벤트 이후에 획득된 이미지 프레임 중 적어도 하나를 전송할 수 있다. 또한, 통신부(160)는 임계 시간 동안 이동 오브젝트가 감지되지 않았다는 정보를 포함하는 메시지 및 임계 시간 이후에 획득된 이미지 프레임 중 적어도 하나를 외부 사용자 단말로 전송할 수 있다. 또한, 전자 장치(100)에 비쥬얼 센서(110)가 구비되지 않는 경우, 통신부(160)는 외부 카메라 장치로부터 이미지를 수신할 수 있다.The communication unit 160 is configured to communicate with various types of external devices according to various types of communication methods. The communication unit 160 may include a Wi-Fi module, a Bluetooth module, an infrared communication module, and a wireless communication module. In particular, the processor 150 may communicate with various external user terminals using the communication unit 160 . Specifically, the communication unit 160 may transmit at least one of information on the fall event and an image frame acquired after the fall event to the external user terminal. Also, the communication unit 160 may transmit to the external user terminal at least one of a message including information that a moving object is not detected for a threshold time and an image frame acquired after the threshold time. Also, when the electronic device 100 is not provided with the visual sensor 110 , the communication unit 160 may receive an image from an external camera device.

프로세서(150)는 메모리(140)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 특히, 프로세서(150)는 메모리(140)에 저장된 적어도 하나의 명령을 실행함으로써, 비쥬얼 센서(110)를 통해 획득된 복수의 이미지 프레임로부터 고정 오브젝트를 식별하여 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다. 그리고, 학습된 신경망 모델을 통해 낙상 이벤트가 감지되면, 프로세서(150)는 낙상 이벤트가 감지된 후 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별하고, 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지를 획득하며, 참조 이미지와 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별할 수 있다.The processor 150 may be electrically connected to the memory 140 to control the overall operation of the electronic device 100 . In particular, the processor 150 executes at least one instruction stored in the memory 140 , thereby identifying a fixed object from a plurality of image frames acquired through the visual sensor 110 to generate a reference image including the identified fixed object. can be obtained And, when a fall event is detected through the learned neural network model, the processor 150 identifies a fixed object from at least one image frame acquired through a visual sensor after the fall event is detected, and identifies from the at least one image frame An event image including the fixed object is acquired, and by comparing the reference image and the event image, it is possible to identify whether a person has fallen.

특히, 프로세서(150)는 도 2에 도시된 바와 같이, 고정 오브젝트 감지 모듈(151), 이벤트 감지 모듈(152), 참조 이미지 획득 모듈(153), 이벤트 이미지 획득 모듈(154), 비교 모듈(155), 알람 모듈(156)을 포함할 수 있다. 이때, 복수의 모듈(151 내지 156)은 소프트웨어로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.In particular, as shown in FIG. 2 , the processor 150 includes a fixed object detection module 151 , an event detection module 152 , a reference image acquisition module 153 , an event image acquisition module 154 , and a comparison module 155 . ), and an alarm module 156 . In this case, the plurality of modules 151 to 156 may be implemented by software, but this is only an embodiment and may be implemented by a combination of software and hardware.

일 예로, 고정 오브젝트 감지 모듈(151)은 복수의 이미지 프레임으로부터 고정 오브젝트를 감지(또는 식별)할 수 있다. 구체적으로, 고정 오브젝트 감지 모듈(151)은 다이내믹 비전 센서가 감지할 수 있는 빛의 변화의 임계값을 조절하여 오브젝트의 경계면을 획득하고, 오브젝트의 경계면을 바탕으로 복수의 이미지 프레임 각각에 포함된 오브젝트를 식별할 수 있으며, 복수의 이미지 프레임에 공통적으로 포함된 오브젝트를 고정 오브젝트로 식별할 수 있다. 이때, 빛의 변화의 임계값은 조도 센서(120)를 통해 획득된 전자 장치(100) 주변의 조도에 따라 변경될 수 있다. As an example, the fixed object detection module 151 may detect (or identify) a fixed object from a plurality of image frames. Specifically, the fixed object detection module 151 obtains the boundary surface of the object by adjusting the threshold value of the change in light that can be detected by the dynamic vision sensor, and the object included in each of the plurality of image frames based on the boundary surface of the object. may be identified, and an object commonly included in a plurality of image frames may be identified as a fixed object. In this case, the threshold value of the change in light may be changed according to the illuminance around the electronic device 100 obtained through the illuminance sensor 120 .

다른 예로, 고정 오브젝트 감지 모듈(151)은 IR 광원부(130)가 발광하는 IR의 세기를 변경하면서 IR을 발광하도록 IR 광원부(130)를 제어하고, 다이내믹 비전 센서를 통해 세기가 변화된 IR을 감지하여 오브젝트를 식별할 수 있다. 그리고, 고정 오브젝트 감지 모듈(151)은 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브텍트로 식별할 수 있다. As another example, the fixed object detection module 151 controls the IR light source unit 130 to emit IR while changing the intensity of the IR emitted by the IR light source unit 130, and detects the changed IR intensity through a dynamic vision sensor. object can be identified. In addition, the fixed object detection module 151 may identify an object included in common among objects included in a plurality of image frames as a fixed object.

또 다른 실시예에 의하면, 고정 오브젝트 감지 모듈(151)은 셔터(Shutter)를 이용하여 빛의 변화를 감지하거나 액츄에이터(Actuator) 및 모터(motor)를 이용하여 픽셀값에 변화를 주어 오브젝트를 식별할 수 있다. 그리고, 고정 오브젝트 감지 모듈(151)은 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브젝트로 식별할 수 있다.According to another embodiment, the fixed object detection module 151 detects a change in light using a shutter or uses an actuator and a motor to change a pixel value to identify an object. can In addition, the fixed object detection module 151 may identify an object included in common among objects included in a plurality of image frames as a fixed object.

또 다른 예로, 비쥬얼 센서(110)가 일반적인 이미지 센서로 구현되는 경우, 고정 오브젝트 감지 모듈(151)는 이미지 센서를 통해 획득된 복수의 이미지의 픽셀값을 획득하고, 복수의 이미지 프레임으로부터 획득된 픽셀값들 중 고정된 픽셀값을 바탕으로 고정 오브젝트를 식별할 수 있다.As another example, when the visual sensor 110 is implemented as a general image sensor, the fixed object detection module 151 obtains pixel values of a plurality of images obtained through the image sensor, and pixels obtained from a plurality of image frames A fixed object may be identified based on a fixed pixel value among the values.

이벤트 감지 모듈(152)은 학습된 신경망 모델(157)을 이용하여 사람의 낙상 이벤트를 감지할 수 있다. 특히, 이벤트 감지 모듈(152)은 비쥬얼 센서(110)를 통해 획득된 복수의 이미지 프레임을 신경망 모델(157)에 실시간으로 입력하여 낙상 이벤트를 감지할 수 있다.The event detection module 152 may detect a human fall event using the learned neural network model 157 . In particular, the event detection module 152 may detect a fall event by inputting a plurality of image frames acquired through the visual sensor 110 to the neural network model 157 in real time.

참조 이미지 획득 모듈(153)은 고정 오브젝트 감지 모듈(151)로부터 감지된 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다. 이때, 참조 이미지는 낙상 이벤트를 감지하기 이전에 획득된 복수의 이미지 프레임으로 획득될 수 있다. 특히, 참조 이미지 획득 모듈(153)은 복수의 이미지 프레임에 포함된 픽셀 당 데이터 값을 바탕으로 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다. 구체적으로, 참조 이미지 획득 모듈(153)은 복수의 이미지 프레임에 포함된 픽셀들의 대표값(예를 들어, 평균값, 최빈값, AI에 의해 획득된 값 등)을 이용하여 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다.The reference image acquisition module 153 may acquire a reference image including the fixed object detected by the fixed object detection module 151 . In this case, the reference image may be acquired as a plurality of image frames acquired before detecting the fall event. In particular, the reference image acquisition module 153 may acquire a reference image including a fixed object based on data values per pixel included in a plurality of image frames. Specifically, the reference image acquisition module 153 uses a representative value (eg, an average value, a mode value, a value obtained by AI, etc.) of pixels included in a plurality of image frames to obtain a reference image including a fixed object. can be obtained

이벤트 이미지 획득 모듈(154)은 고정 오브젝트 감지 모듈(151)로부터 감지된 고정 오브젝트를 포함하는 이벤트 이미지를 획득할 수 있다. 이때, 이벤트 이미지는 낙상 이벤트를 감지한 이후 획득된 적어도 하나의 이미지 프레임으로 획득될 수 있다. 일 실시예로, 이벤트 이미지 획득 모듈(154)은 낙상 이벤트 감지 이후 획득된 하나의 이미지 프레임을 이벤트 이미지로 획득할 수 있다. 또 다른 예로, 이벤트 이미지 획득 모듈(154)은 참조 이미지 획득 모듈(153)과 같이, 낙상 이벤트가 감지된 후 획득된 복수의 이미지 프레임에 포함된 픽셀 당 데이터 값을 바탕으로 고정 오브젝트를 포함하는 이벤트 이미지를 획득할 수 있다. 즉, 이벤트 이미지 획득 모듈(154)은 낙상 이벤트가 감지된 후 획득된 복수의 이미지 프레임에 포함된 픽셀들의 대표값(예를 들어, 평균값, 최빈값, AI에 의해 획득된 값 등)을 이용하여 고정 오브젝트를 포함하는 이벤트 이미지를 획득할 수 있다.The event image acquisition module 154 may acquire an event image including the fixed object detected by the fixed object detection module 151 . In this case, the event image may be acquired as at least one image frame acquired after detecting the fall event. In an embodiment, the event image acquisition module 154 may acquire one image frame acquired after detecting the fall event as the event image. As another example, the event image acquisition module 154, like the reference image acquisition module 153, is an event including a fixed object based on data values per pixel included in a plurality of image frames acquired after a fall event is detected. image can be obtained. That is, the event image acquisition module 154 is fixed using representative values (eg, average values, modes, values acquired by AI, etc.) of pixels included in a plurality of image frames acquired after a fall event is detected. An event image including an object may be acquired.

비교 모듈(155)은 참조 이미지 획득 모듈(153)로부터 획득된 참조 이미지와 이벤트 이미지 획득 모듈(154)로부터 획득된 이벤트 이미지를 비교할 수 있다. 즉, 비교 모듈(155)은 참조 이미지와 이벤트 이미지의 유사도를 판단할 수 있다. 이때, 비쥬얼 센서(110)가 다이내믹 비전 센서인 경우, 유사도는 빛의 변화가 감지된 픽셀의 위치의 유사도일 수 있으며, 비쥬얼 센서(!10)가 일반적인 인미지 센서인 경우, 유사도는 픽셀값의 유사도일 수 있다.The comparison module 155 may compare the reference image acquired from the reference image acquisition module 153 with the event image acquired from the event image acquisition module 154 . That is, the comparison module 155 may determine the similarity between the reference image and the event image. In this case, when the visual sensor 110 is a dynamic vision sensor, the similarity may be the similarity of the position of a pixel where a change in light is sensed. When the visual sensor !10 is a general image sensor, the similarity is the pixel value. It may be similarity.

그리고, 유사도가 임계값 미만이면, 비교 모듈(155)은 사람의 낙상 이벤트가 정탐인 것으로 식별하고, 유사도가 임계값 이상이면, 비교 모듈(155)은 사람의 낙상 이벤트가 오탐인 것으로 식별할 수 있다. 예로, 참조 이미지와 이벤트 이미지의 유사도가 98% 미만이면, 비교 모듈(155)은 사람의 낙상 이벤트가 정탐인 것으로 식별하고, 유사도가 98% 이상이면, 비교 모듈(155)은 사람의 낙상 이벤트가 오탐인 것으로 식별할 수 있다. And, if the similarity is less than the threshold, the comparison module 155 identifies the human fall event as a spy, and if the similarity is greater than or equal to the threshold, the comparison module 155 identifies the human fall event as a false positive. have. For example, if the similarity between the reference image and the event image is less than 98%, the comparison module 155 identifies that the human fall event is spying, and if the similarity is 98% or more, the comparison module 155 determines that the human fall event is It can be identified as a false positive.

낙상 이벤트가 정탐인 것으로 판단되면, 알람 모듈(156)은 사용자에게 알람 메시지를 제공할 수 있다. 구체적으로, 알람 모듈(156)은 낙상 이벤트에 대한 정보를 포함하는 메시지 및 낙상 이벤트 감지 후 획득된 이미지 프레임 중 적어도 하나를 포함하는 알람 메시지를 통신부(160)를 통해 외부 사용자 단말로 전송할 수 있다.If it is determined that the fall event is spying, the alarm module 156 may provide an alarm message to the user. Specifically, the alarm module 156 may transmit an alarm message including at least one of a message including information on the fall event and an image frame obtained after detecting the fall event to the external user terminal through the communication unit 160 .

한편, 본 개시에 따른 인공지능과 관련된 기능은 프로세서(150)와 메모리(140)를 통해 동작된다. 프로세서(150)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리(140)에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Meanwhile, functions related to artificial intelligence according to the present disclosure are operated through the processor 150 and the memory 140 . The processor 150 may include one or a plurality of processors. In this case, one or more processors may be a general-purpose processor such as a CPU, an AP, a digital signal processor (DSP), or the like, a graphics-only processor such as a GPU, a vision processing unit (VPU), or an artificial intelligence-only processor such as an NPU. One or a plurality of processors control to process input data according to a predefined operation rule or artificial intelligence model stored in the memory 140 . Alternatively, when one or more processors are AI-only processors, the AI-only processor may be designed with a hardware structure specialized for processing a specific AI model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.The predefined action rule or artificial intelligence model is characterized in that it is created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden. Such learning may be performed in the device itself on which the artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system. Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weight values. The plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized. The artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), There may be a Deep Belief Network (DBN), a Bidirectional Recurrent Deep Neural Network (BRDNN), or a Deep Q-Networks, but is not limited to the above-described example.

한편, 도 2에 도시된 구성 이외에 전자 장치(100)는 디스플레이(미도시)나 스피커(미도시)와 같은 출력장치를 더 포함할 수 있다. 즉, 낙상 이벤트가 감지된 경우, 전자 장치(100)는 디스플레이나 스피커와 같은 출력 장치를 이용하여 낙상 이벤트에 대한 정보를 출력할 수 있다.Meanwhile, in addition to the configuration shown in FIG. 2 , the electronic device 100 may further include an output device such as a display (not shown) or a speaker (not shown). That is, when a fall event is detected, the electronic device 100 may output information about the fall event using an output device such as a display or a speaker.

도 3은 본 개시의 일 실시예에 따른, 전자 장치가 낙상 이벤트를 감지하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method for an electronic device to detect a fall event, according to an embodiment of the present disclosure.

우선, 전자 장치(100)는 비쥬얼 센서를 통해 복수의 이미지 프레임을 획득할 수 있다(S310). 구체적으로, 전자 장치(100)는 특정 공간을 촬영하는 비쥬얼 센서를 통해 복수의 이미지 프레임을 획득할 수 있다. 이때, 전자 장치(100)는 다이내믹 비전 센서(DVS)를 통해 복수의 이미지 프레임을 획득할 수 있으나, 이는 일 실시예에 불과할 뿐, 일반적인 이미지 센서를 통해 복수의 이미지 프레임을 획득할 수 있다.First, the electronic device 100 may acquire a plurality of image frames through a visual sensor (S310). Specifically, the electronic device 100 may acquire a plurality of image frames through a visual sensor that captures a specific space. In this case, the electronic device 100 may acquire a plurality of image frames through a dynamic vision sensor (DVS), but this is only an example and may acquire a plurality of image frames through a general image sensor.

전자 장치(100)는 복수의 이미지 프레임으로부터 고정 오브젝트를 식별하여 고정 오브젝트가 포함된 참조 이미지를 획득할 수 있다(S320). The electronic device 100 may obtain a reference image including the fixed object by identifying the fixed object from the plurality of image frames ( S320 ).

본 개시의 일 실시예로, 비쥬얼 센서가 다이내믹 비전 센서인 경우, 전자 장치(100)가 다이내믹 비전 센서를 이용하여 이동 오브젝트 및 고정 오브젝트를 모두 포함하는 복수의 이미지 프레임을 획득할 수 있다. 이동 오브젝트 및 고정 오브젝트를 모두 포함하는 복수의 이미지 프레임을 획득하는 방법에 대해서는 도 4를 참조하여 설명하기로 한다.As an embodiment of the present disclosure, when the visual sensor is a dynamic vision sensor, the electronic device 100 may acquire a plurality of image frames including both a moving object and a fixed object by using the dynamic vision sensor. A method of acquiring a plurality of image frames including both a moving object and a fixed object will be described with reference to FIG. 4 .

구체적으로, 도 4에 도시된 바와 같이, 전자 장치(100)는 전자 장치 주변의 조도를 감지할 수 있다(S410).Specifically, as shown in FIG. 4 , the electronic device 100 may detect the illuminance around the electronic device ( S410 ).

그리고, 전자 장치(100)는 감지된 조도에 따라 오브젝트를 감지하기 위한 빛의 변화의 임계값을 조절할 수 있다(S420). 구체적으로, 전자 장치(100)는 감지된 조도 값이 높을수록 오브젝트를 감지하기 위한 빛의 변화의 임계값을 크도록 조절할 수 있으며, 감지된 조도값이 낮을수록 오브젝트를 감지하기 위한 빛의 변화의 임계값을 작도록 조절할 수 있다.Then, the electronic device 100 may adjust a threshold value of a change in light for detecting an object according to the sensed illuminance ( S420 ). Specifically, the electronic device 100 may adjust the threshold value of a change in light for detecting an object to be larger as the sensed illuminance value is higher, and as the sensed illuminance value is lower, the change in light for detecting the object is increased. The threshold can be adjusted to be small.

그리고, 전자 장치(100)는 빛의 변화의 임계값을 조절하여 획득된 이미지 프레임에 오브젝트의 경계면이 식별되는지 여부를 판단할 수 있다(S430). 구체적으로, 빛의 변화의 임계값을 조절하여 획득된 이미지 프레임이 도 5a에 도시된 바와 같은 제1 이미지 프레임(510)인 경우, 전자 장치(100)는 오브젝트의 경계면이 식별되지 않음을 판단할 수 있다. 또는, 빛의 변화의 임계값을 조절하여 획득된 이미지 프레임이 도 5b에 도시된 바와 같은 제2 이미지 프레임(520)인 경우, 전자 장치(100)는 오브젝트의 경계면이 식별되었음을 판단할 수 있다. Then, the electronic device 100 may determine whether the boundary surface of the object is identified in the image frame obtained by adjusting the threshold value of the change of light ( S430 ). Specifically, when the image frame obtained by adjusting the threshold value of light change is the first image frame 510 as shown in FIG. 5A , the electronic device 100 determines that the boundary surface of the object is not identified. can Alternatively, when the image frame obtained by adjusting the threshold value of light change is the second image frame 520 as shown in FIG. 5B , the electronic device 100 may determine that the boundary surface of the object is identified.

오브젝트의 경계면이 식별되면(S430-Y), 전자 장치(100)는 임계값을 고정하여 복수의 이미지 프레임으로부터 오브젝트를 식별할 수 있다(S440). 오브젝트의 경계면이 식별되지 않으면(S430-N), 전자 장치(100)는 다시 임계값을 조절하여(감소시켜) 오브젝트의 경계면이 식별되는지 여부를 판단할 수 있다.When the boundary surface of the object is identified (S430-Y), the electronic device 100 may identify the object from the plurality of image frames by fixing the threshold (S440). If the boundary surface of the object is not identified (S430-N), the electronic device 100 may determine whether the boundary surface of the object is identified by adjusting (reducing) the threshold again.

즉, 전자 장치(100)는 도 4와 같은 방법을 통해 오브젝트를 검출하기 위한 빛의 변화의 임계값을 조절하여 오브젝트가 포함된 복수의 이미지 프레임을 획득할 수 있다. That is, the electronic device 100 may acquire a plurality of image frames including the object by adjusting the threshold value of the change in light for detecting the object through the method illustrated in FIG. 4 .

다른 실시예로, 전자 장치(100)는 IR 광원부(130)를 이용하여 IR의 세기를 변경시켜 IR을 발광하거나 IR의 발광 주기를 변경시켜 IR을 발광하여 복수의 이미지 프레임에 포함된 오브젝트를 감지할 수 있다. 즉, 전자 장치(100)는 IR 광원부(130)의 광 세기나 광 발광 주기를 변경시킴으로써, 다이내믹 비전 센서를 통해 오브젝트를 감지하기 위한 빛의 변화를 감지할 수 있다. 따라서, 전자 장치(100)는 오브젝트가 포함된 복수의 이미지 프레임를을 획득할 수 있다.In another embodiment, the electronic device 100 detects an object included in a plurality of image frames by using the IR light source unit 130 to emit IR by changing the intensity of IR or by changing the emission period of IR to emit IR. can do. That is, the electronic device 100 may detect a change in light for detecting an object through the dynamic vision sensor by changing the light intensity or the light emission period of the IR light source unit 130 . Accordingly, the electronic device 100 may acquire a plurality of image frames including the object.

또 다른 실시예로, 전자 장치(100)는 셔터(Shutter)를 이용하여 빛의 변화를 감지하거나 액츄에이터(Actuator) 및 모터(motor)를 이용하여 픽셀값에 변화를 주어 오브젝트를 식별할 수 있다.As another embodiment, the electronic device 100 may identify an object by detecting a change in light by using a shutter or by changing a pixel value by using an actuator and a motor.

그리고, 전자 장치(100)는 도 6에 도시된 바와 같이, 이벤트가 발생하기 이전 시점에 획득된 복수의 이미지 프레임(610-1 내지 610-6)을 이용하여 고정 오브젝트가 포함된 참조 이미지(620)를 획득할 수 있다. 구체적으로, 전자 장치(100)는 복수의 이미지 프레임에 포함된 오브젝트 중 복수의 이미지 프레임으로부터 공통적으로 검출된 오브젝트를 고정 오브젝트로 식별할 수 있으며, 고정 오브젝트가 포함된 참조 이미지(620)를 획득할 수 있다. 이때, 전자 장치(100)는 낙상 이벤트가 발생하기 이전 시점에 획득된 이미지 프레임 중 특정 주기(예로, 10분)로 획득된 이미지 프레임을 바탕으로 참조 이미지(620)를 획득할 수 있으나, 이는 일 실시예에 불과할 뿐, 낙상 이벤트가 발생하기 이전의 특정 시점(예를 들어, 오후 시간)에 획득된 이미지 프레임을 바탕으로 참조 이미지(620)를 획득할 수 있다.Then, as shown in FIG. 6 , the electronic device 100 uses a plurality of image frames 610 - 1 to 610 - 6 acquired at a time before the event occurs, and a reference image 620 including a fixed object. ) can be obtained. Specifically, the electronic device 100 may identify an object commonly detected from the plurality of image frames among the objects included in the plurality of image frames as the fixed object, and obtain the reference image 620 including the fixed object. can In this case, the electronic device 100 may acquire the reference image 620 based on an image frame acquired at a specific period (eg, 10 minutes) among image frames acquired at a time before the fall event occurs, but this This is only an embodiment, and the reference image 620 may be acquired based on an image frame acquired at a specific point in time (eg, afternoon time) before the fall event occurs.

본 개시의 다른 실시예로, 비쥬얼 센서가 일반 이미지 센서인 경우, 전자 장치(100)는 이미지 센서를 통해 획득된 복수의 이미지 프레임의 픽셀값 중 일정하게 픽셀값이 유지되는 영역을 바탕으로 고정 오브젝트를 식별할 수 있다. 이때, 전자 장치(100)는 일정 범위 내의 조도값을 가지는 시간 동안 획득된 이미지 프레임을 바탕으로 고정 오브젝트를 식별할 수 있다. 즉, 전자 장치(100)는 동일한 시간대(예로, 아침 또는 저녁)에 획득된 이미지 프레임의 픽셀값을 바탕으로 고정 오브젝트를 식별할 수 있다. 그리고, 전자 장치(100)는 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득할 수 있다.According to another embodiment of the present disclosure, when the visual sensor is a general image sensor, the electronic device 100 sets a fixed object based on a region in which pixel values are constantly maintained among pixel values of a plurality of image frames acquired through the image sensor. can be identified. In this case, the electronic device 100 may identify a fixed object based on an image frame obtained during a time having an illuminance value within a predetermined range. That is, the electronic device 100 may identify a fixed object based on pixel values of an image frame acquired in the same time period (eg, morning or evening). Then, the electronic device 100 may acquire a reference image including the identified fixed object.

다시 도 2에 대해 설명하면, 전자 장치(100)는 학습된 신경망 모델을 이용하여 낙상 이벤트가 감지되었는지 여부를 판단할 수 있다(S330). 이때, 학습된 신경망 모델은 복수의 이미지 프레임을 입력하여 사람의 낙상 이벤트를 감지하도록 학습된 인공지능 모델일 수 있다.Referring back to FIG. 2 , the electronic device 100 may determine whether a fall event has been detected using the learned neural network model ( S330 ). In this case, the trained neural network model may be an artificial intelligence model trained to detect a human fall event by inputting a plurality of image frames.

낙상 이벤트가 감지되지 않으면(S330-N), 전자 장치(100)는 일정 시간 후에 획득된 복수의 이미지 프레임을 이용하여 참조 이미지를 획득(또는 업데이트)할 수 있다(S320). 낙상 이벤트가 감지되면(S330-Y), 전자 장치(100)는 비쥬얼 센서를 통해 적어도 하나의 이미지 프레임을 획득할 수 있다(S340).If a fall event is not detected (S330-N), the electronic device 100 may acquire (or update) a reference image using a plurality of image frames acquired after a predetermined time (S320). When a fall event is detected (S330-Y), the electronic device 100 may acquire at least one image frame through a visual sensor (S340).

그리고, 전자 장치(100)는 적어도 하나의 이미지 프레임으로부터 고정 오브젝트를 포함하는 이벤트 이미지를 획득할 수 있다(S350). 일 실시예로, 전자 장치(100)는 낙상 이벤트 감지 후 특정 시점(예로, 낙상 이벤트 감지 후 1분)의 이미지 프레임을 이벤트 이미지로 획득할 수 있으나, 이는 일 실시예에 불과할 뿐, 낙상 이벤트 감지후 획득된 복수의 이미지 프레임을 바탕으로 S320에서 설명한 방법을 이용하여 고정 오브젝트가 포함된 이벤트 이미지를 획득할 수 있다.Then, the electronic device 100 may obtain an event image including a fixed object from at least one image frame (S350). As an embodiment, the electronic device 100 may acquire an image frame at a specific point in time (eg, 1 minute after detection of the fall event) as the event image after detecting the fall event, but this is only an example, and detecting the fall event Then, an event image including a fixed object may be acquired using the method described in S320 based on the plurality of image frames acquired afterward.

그리고, 전자 장치(100)는 참조 이미지와 이벤트 이미지를 비교할 수 있다(S360). 즉, 전자 장치(100)는 참조 이미지와 이벤트 이미지의 유사도를 판단하여 참조 이미지와 이벤트 이미지가 동일한지 여부를 판단할 수 있다.Then, the electronic device 100 may compare the reference image and the event image (S360). That is, the electronic device 100 may determine whether the reference image and the event image are the same by determining the similarity between the reference image and the event image.

그리고, 전자 장치(100)는 S360에서 판단된 비교 결과를 바탕으로 낙상 여부를 판단할 수 있다(S370). 구체적으로, 도 7a에 도시된 바와 같이, 참조 이미지(710)와 이벤트 이미지(720)가 서로 상이한 경우, 즉, 참조 이미지(710)와 이벤트 이미지(720)의 유사도가 임계값 미만인 경우, 전자 장치(100)는 낙상 이벤트가 정탐인 것으로 판단하여 사람의 낙상이 존재하였다는 것을 판단할 수 있다. 그러나, 도 7b에 도시된 바와 같이, 참조 이미지(730)와 이벤트 이미지(740)가 서로 동일한 경우, 즉, 참조 이미지(710)와 이벤트 이미지(720)의 유사도가 임계값 이상인 경우, 전자 장치(100)는 낙상 이벤트가 오탐인 것으로 판단하여 사람의 낙상이 존재하지 않았음을 판단할 수 있다.Then, the electronic device 100 may determine whether to fall based on the comparison result determined in S360 (S370). Specifically, as shown in FIG. 7A , when the reference image 710 and the event image 720 are different from each other, that is, when the similarity between the reference image 710 and the event image 720 is less than a threshold, the electronic device ( 100 ) may determine that the fall event is espionage and determine that a human fall exists. However, as shown in FIG. 7B , when the reference image 730 and the event image 740 are identical to each other, that is, when the similarity between the reference image 710 and the event image 720 is equal to or greater than a threshold, the electronic device ( 100) may determine that the fall event is a false positive so that there is no human fall.

낙상이 존재한 것으로 판단되면(S370-Y), 전자 장치(100)는 알람 메시지를 제공할 수 있다(S380). 그러나, 낙상이 존재하지 않은 것으로 판단되면(S370-N), 전자 장치(100)는 낙상 이벤트를 모니터링할 수 있다(S330). If it is determined that there is a fall (S370-Y), the electronic device 100 may provide an alarm message (S380). However, if it is determined that there is no fall ( S370 -N ), the electronic device 100 may monitor a fall event ( S330 ).

도 8은 본 개시의 일 실시예에 따른, 전자 장치가 사람의 이벤트에 따른 알람 및 이미지를 제공하기 위한 시퀀스도이다.8 is a sequence diagram for an electronic device to provide an alarm and an image according to a human event, according to an embodiment of the present disclosure.

전자 장치(100)는 이벤트를 감지할 수 있다(S810). 이때, 전자 장치(100)는 도 1 내지 도 7b에서 설명한 낙상 이벤트를 감지할 수 있으나, 이는 일 실시예에 불과할 뿐, 이동 오브젝트가 특정 시간동안 검출되지 않은 이벤트 등을 감지할 수 있다.The electronic device 100 may detect an event (S810). In this case, the electronic device 100 may detect the fall event described with reference to FIGS. 1 to 7B , but this is only an example and may detect an event in which a moving object is not detected for a specific time.

전자 장치(100)는 이벤트에 대한 정보를 사용자 단말(800)로 전송할 수 있다(S820). 이때, 이벤트에 대한 정보는 이벤트 발생 사실에 대한 정보, 이벤트의 유형, 이벤트가 발생한 시간, 이벤트가 발생한 장소, 이벤트가 발생한 사람에 대한 정보를 포함할 수 있다.The electronic device 100 may transmit information about the event to the user terminal 800 (S820). In this case, the information about the event may include information on the fact that the event occurred, the type of the event, the time when the event occurred, the place where the event occurred, and information about the person where the event occurred.

사용자 단말(800)은 수신된 이벤트에 대한 정보를 출력할 수 있다(S830). 이때, 사용자 단말(800)은 이벤트에 대한 정보를 디스플레이와 같은 출력 장치를 통해 시각적으로 출력할 수 있으나, 이는 일 실시예에 불과할 뿐, 이벤트에 대한 정보를 스피커를 통해 청각적으로 출력할 수 있으며, 진동 장치를 통해 시각적으로 출력할 수 있다.The user terminal 800 may output information on the received event (S830). In this case, the user terminal 800 may visually output information about the event through an output device such as a display, but this is only an embodiment, and information about the event may be output aurally through a speaker. , can be output visually through a vibrating device.

사용자 단말(800)은 이미지를 확인하기 위한 사용자 명령을 수신할 수 있다(S840).The user terminal 800 may receive a user command for checking an image (S840).

사용자 명령이 수신되면, 사용자 단말(800)은 전자 장치(100)로 이미지를 요청할 수 있다(S850). 전자 장치(100)는 이미지 요청에 응답하여 이벤트 감지 후에 획득된 이미지를 사용자 단말(800)로 전송할 수 있다(S860).When a user command is received, the user terminal 800 may request an image from the electronic device 100 (S850). The electronic device 100 may transmit an image obtained after detecting the event to the user terminal 800 in response to the image request (S860).

사용자 단말(800)은 전송된 이미지를 표시할 수 있다(S870).The user terminal 800 may display the transmitted image (S870).

즉, 상술한 바와 같이, 이벤트 감지 후 이벤트에 대한 정보 및 이벤트가 감지된 이후의 이미지를 전송함으로써, 사용자는 이벤트의 발생 여부와 이벤트에 대한 내용을 더욱 빠르게 확인할 수 있게 된다. 이에 의해, 사용자는 더욱 신속하게 비상 상황에 대한 대처가 가능해 질 수 있게 된다.That is, as described above, by transmitting the event information and the image after the event is detected after the event is detected, the user can more quickly check whether the event has occurred and the details of the event. Thereby, the user may be able to respond to an emergency situation more quickly.

한편, 상술한 실시예에서는 낙상 이벤트를 감지하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 다른 이벤트(예로, 재실 이벤트)를 감지하는 실시예에서도 본 개시의 기술적 사상이 적용될 수 있다.Meanwhile, although the above-described embodiment has been described as detecting a fall event, this is only an exemplary embodiment, and the technical idea of the present disclosure may be applied to an embodiment that detects another event (eg, an occupancy event).

또한, 상술한 실시예에서는 이벤트 감지 이전에 획득된 복수의 이미지 프레임을 바탕으로 참조 이미지를 획득하고, 획득된 참조 이미지와 이벤트 이미지를 비교하여 이벤트의 정탐 여부를 판단하였으나, 이는 일 실시예에 불과할 뿐, 이벤트 감지 이전에 획득된 이미지 프레임과 이벤트 감지 이후에 획득된 이미지를 비교하여 이벤트의 정탐 여부를 판단할 수 있다. 구체적으로, 이벤트가 감지되지 이전에 특정 시점(예로, 이벤트가 감지되기 1일 전)에 획득된 이미지 프레임과 이벤트가 감지된 이후에 특정 시점(예로, 이벤트가 감지된 후 1분 후)에 획득된 이미지 프레임을 비교하여 이벤트의 정탐 여부를 판단할 수 있다.In addition, in the above-described embodiment, a reference image is acquired based on a plurality of image frames acquired before event detection, and it is determined whether an event is spying by comparing the acquired reference image and the event image, but this is only an example. In addition, by comparing the image frame acquired before the event detection with the image acquired after the event detection, it is possible to determine whether the event is spying. Specifically, an image frame acquired at a specific time before the event was detected (eg, 1 day before the event was detected) and acquired at a specific time after the event was detected (eg, 1 minute after the event was detected) By comparing the image frames, it is possible to determine whether the event is spying or not.

한편, 본 개시에서 사용된 용어 "부" 또는 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "부" 또는 "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.On the other hand, the term "unit" or "module" used in the present disclosure includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, part, or circuit. can A “unit” or “module” may be an integrally constituted part or a minimum unit or a part thereof that performs one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

본 개시의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage media readable by a machine (eg, a computer). As a device capable of calling and operating according to the called command, it may include an electronic device (eg, the electronic device 100) according to the disclosed embodiments. When the command is executed by the processor, the processor directly, Alternatively, a function corresponding to the instruction may be performed using other components under the control of the processor. The instruction may include code generated or executed by a compiler or an interpreter. , may be provided in the form of a non-transitory storage medium, where 'non-transitory' means that the storage medium does not include a signal and is tangible, but data is stored on the storage medium It does not distinguish between semi-permanent or temporary storage.

일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an example, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as merchandise. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (eg, a module or a program) according to various embodiments may be composed of a singular or a plurality of entities, and some sub-components of the aforementioned sub-components may be omitted, or other sub-components may be It may be further included in various embodiments. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component are executed sequentially, parallel, iteratively, or heuristically, or at least some operations are executed in a different order, are omitted, or other operations are added. can be

110: 비쥬얼 센서 120: 조도 센서
130: IR 광원부 140: 메모리
150: 프로세서 160: 통신부
110: visual sensor 120: illuminance sensor
130: IR light source 140: memory
150: processor 160: communication unit

Claims (18)

전자 장치에 있어서,
비쥬얼 센서;
적어도 하나의 인스트럭션(instruction)을 저장하는 메모리; 및
상기 비쥬얼 센서와 상기 메모리와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하며,
상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써,
상기 비쥬얼 센서를 통해 획득된 복수의 이미지 프레임로부터 고정 오브젝트를 식별하여 상기 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득하며,
학습된 신경망 모델을 통해 낙상 이벤트가 감지되면, 상기 낙상 이벤트가 감지된 후 상기 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별하고,
상기 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지를 획득하며,
상기 참조 이미지와 상기 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별하는 전자 장치.
In an electronic device,
visual sensor;
a memory storing at least one instruction; and
a processor connected to the visual sensor and the memory to control the electronic device;
The processor, by executing the at least one instruction,
identifying a fixed object from a plurality of image frames obtained through the visual sensor to obtain a reference image including the identified fixed object;
When a fall event is detected through the learned neural network model, a fixed object is identified from at least one image frame obtained through the visual sensor after the fall event is detected,
obtaining an event image including an identified fixed object from the at least one image frame;
An electronic device that compares the reference image and the event image to identify whether a person has fallen.
제1항에 있어서,
상기 비쥬얼 센서는 다이내믹 비전 센서(Dynamic Visual Sensor)이며,
상기 프로세서는,
상기 다이내믹 비전 센서가 감지할 수 있는 빛의 변화의 임계값을 조절하여 오브젝트의 경계면을 획득하고, 상기 오브젝트의 경계면을 바탕으로 상기 복수의 이미지 프레임 각각에 포함된 오브젝트를 식별하며,
상기 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브텍트로 식별하는 전자 장치.
According to claim 1,
The visual sensor is a dynamic vision sensor,
The processor is
obtaining a boundary surface of an object by adjusting a threshold value of a change in light detectable by the dynamic vision sensor, and identifying an object included in each of the plurality of image frames based on the boundary surface of the object;
An electronic device for identifying an object included in common among objects included in the plurality of image frames as a fixed object.
제2항에 있어서,
상기 빛의 변화의 임계값은 상기 전자 장치 주변의 조도에 따라 변경되는 전자 장치.
3. The method of claim 2,
The threshold value of the change in light is changed according to the illuminance around the electronic device.
제1항에 있어서,
IR 광원부;를 더 포함하며,
상기 비쥬얼 센서는 다이내믹 비전 센서(Dynamic Visual Sensor)이며,
상기 프로세서는,
상기 IR 광원부가 발광하는 IR의 세기를 변경하면서 IR을 발광하고,
상기 다이내믹 비전 센서가 상기 세기가 변화된 IR을 감지하여 복수의 이미지 프레임 각각에 포함된 오브젝트를 식별하며,
상기 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브텍트로 식별하는 전자 장치.
According to claim 1,
It further includes an IR light source unit;
The visual sensor is a dynamic vision sensor,
The processor is
The IR light source emits IR while changing the intensity of the IR emitted,
The dynamic vision sensor detects the IR with the changed intensity and identifies an object included in each of a plurality of image frames,
An electronic device for identifying an object included in common among objects included in the plurality of image frames as a fixed object.
제1항에 있어서,
상기 비쥬얼 센서는 이미지 센서이며,
상기 프로세서는,
상기 이미지 센서를 통해 획득된 복수의 이미지의 픽셀값을 획득하고,
상기 획득된 픽셀값들 중 고정된 픽셀값을 바탕으로 상기 고정 오브젝트를 식별하는 전자 장치.
According to claim 1,
The visual sensor is an image sensor,
The processor is
Obtaining pixel values of a plurality of images obtained through the image sensor,
An electronic device for identifying the fixed object based on a fixed pixel value among the obtained pixel values.
제1항에 있어서,
상기 학습된 신경망 모델은,
상기 비쥬얼 센서를 통해 획득된 복수의 이미지 프레임을 입력하여 사람의 낙상 여부를 감지하도록 학습된 인공지능 모델인 전자 장치.
According to claim 1,
The learned neural network model is,
An electronic device which is an artificial intelligence model trained to detect whether a person has fallen by inputting a plurality of image frames obtained through the visual sensor.
제1항에 있어서,
상기 프로세서는,
상기 참조 이미지와 상기 이벤트 이미지의 유사도를 판단하고,
상기 유사도가 임계값 미만이면 사람의 낙상 이벤트가 정탐인 것으로 식별하고, 상기 유사도가 상기 임계값 이상이면 사람의 낙상 이벤트가 오탐인 것으로 식별하는 전자 장치.
According to claim 1,
The processor is
determining the similarity between the reference image and the event image,
If the similarity is less than a threshold value, the human fall event is identified as a false positive, and if the similarity is greater than or equal to the threshold value, the human fall event is identified as a false positive.
제1항에 있어서,
회로를 포함하는 통신부;를 더 포함하며,
상기 프로세서는,
상기 사람의 낙상 이벤트가 정탐인 것으로 판단되면, 상기 낙상 이벤트에 대한 정보를 포함하는 메시지 및 상기 낙상 이벤트 이후의 이미지 프레임 중 적어도 하나를 상기 통신부를 통해 사용자 단말로 전송하는 전자 장치.
According to claim 1,
It further includes; a communication unit including a circuit;
The processor is
When it is determined that the fall event of the person is a spy, the electronic device transmits at least one of a message including information on the fall event and an image frame after the fall event to the user terminal through the communication unit.
제1항에 있어서,
회로를 포함하는 통신부;를 더 포함하며,
상기 프로세서는,
상기 비쥬얼 센서를 통해 획득된 이미지로부터 이동 오브젝트가 임계 시간동안 감지되지 않는 경우, 이동 오브젝트가 감지되지 않았다는 정보를 포함하는 메시지 및 상기 임계 시간 이후에 획득된 이미지 프레임 중 적어도 하나를 상기 통신부를 통해 사용자 단말로 전송하는 전자 장치.
According to claim 1,
It further includes; a communication unit including a circuit;
The processor is
When a moving object is not detected from the image acquired through the visual sensor for a threshold time, at least one of a message including information indicating that the moving object is not detected and an image frame acquired after the threshold time is transmitted to the user through the communication unit An electronic device that transmits to a terminal.
전자 장치의 제어 방법에 있어서,
비쥬얼 센서를 통해 획득된 복수의 이미지 프레임로부터 고정 오브젝트를 식별하여 상기 식별된 고정 오브젝트를 포함하는 참조 이미지를 획득하는 단계;
학습된 신경망 모델을 통해 낙상 이벤트가 감지되면, 상기 낙상 이벤트가 감지된 후 상기 비쥬얼 센서를 통해 획득된 적어도 하나의 이미지 프레임로부터 고정 오브젝트를 식별하는 단계;
상기 적어도 하나의 이미지 프레임으로부터 식별된 고정 오브젝트를 포함하는 이벤트 이미지를 획득하는 단계;
상기 참조 이미지와 상기 이벤트 이미지를 비교하여 사람의 낙상 여부를 식별하는 단계;를 포함하는 제어 방법.
A method for controlling an electronic device, comprising:
identifying a fixed object from a plurality of image frames obtained through a visual sensor to obtain a reference image including the identified fixed object;
when a fall event is detected through the learned neural network model, identifying a fixed object from at least one image frame obtained through the visual sensor after the fall event is detected;
obtaining an event image including the identified fixed object from the at least one image frame;
Comparing the reference image and the event image to identify whether a person has fallen; Control method comprising a.
제10항에 있어서,
상기 비쥬얼 센서는 다이내믹 비전 센서(Dynamic Visual Sensor)이며,
상기 복수의 이미지 프레임로부터 고정 오브젝트를 식별하는 단계는,
상기 다이내믹 비전 센서가 감지할 수 있는 빛의 변화의 임계값을 조절하여 오브젝트의 경계면을 획득하고, 상기 오브젝트의 경계면을 바탕으로 상기 복수의 이미지 프레임 각각에 포함된 오브젝트를 식별하며, 상기 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브텍트로 식별 제어 방법.
11. The method of claim 10,
The visual sensor is a dynamic vision sensor,
The step of identifying a fixed object from the plurality of image frames comprises:
A boundary surface of an object is obtained by adjusting a threshold value of a change in light detectable by the dynamic vision sensor, an object included in each of the plurality of image frames is identified based on the boundary surface of the object, and the plurality of images A method of identifying and controlling objects included in common among objects included in a frame as fixed objects.
제11항에 있어서,
상기 빛의 변화의 임계값은 상기 전자 장치 주변의 조도에 따라 변경되는 제어 방법.
12. The method of claim 11,
The threshold value of the change in light is changed according to the illuminance around the electronic device.
제10항에 있어서,
상기 전자 장치는 IR 광원부를 더 포함하며,
상기 비쥬얼 센서는 다이내믹 비전 센서(Dynamic Visual Sensor)이며,
상기 복수의 이미지 프레임로부터 고정 오브젝트를 식별하는 단계는,
상기 IR 광원부가 발광하는 IR의 세기를 변경하면서 IR을 발광하고,
상기 다이내믹 비전 센서가 상기 세기가 변화된 IR을 감지하여 복수의 이미지 프레임 각각에 포함된 오브젝트를 식별하며,
상기 복수의 이미지 프레임 속에 포함된 오브젝트 중 공통적으로 포함된 오브젝트를 고정 오브텍트로 식별하는 제어 방법.
11. The method of claim 10,
The electronic device further includes an IR light source,
The visual sensor is a dynamic vision sensor,
The step of identifying a fixed object from the plurality of image frames comprises:
The IR light source emits IR while changing the intensity of the IR emitted,
The dynamic vision sensor detects the IR with the changed intensity and identifies an object included in each of a plurality of image frames,
A control method for identifying an object included in common among objects included in the plurality of image frames as a fixed object.
제10항에 있어서,
상기 비쥬얼 센서는 이미지 센서이며,
상기 복수의 이미지 프레임로부터 고정 오브젝트를 식별하는 단계는,
상기 이미지 센서를 통해 획득된 복수의 이미지의 픽셀값을 획득하고,
상기 획득된 픽셀값들 중 고정된 픽셀값을 바탕으로 상기 고정된 오브젝트를 식별하는 제어 방법.
11. The method of claim 10,
The visual sensor is an image sensor,
The step of identifying a fixed object from the plurality of image frames comprises:
Obtaining pixel values of a plurality of images obtained through the image sensor,
A control method for identifying the fixed object based on a fixed pixel value among the obtained pixel values.
제10항에 있어서,
상기 학습된 신경망 모델은,
상기 비쥬얼 센서를 통해 획득된 복수의 이미지 프레임을 입력하여 사람의 낙상 여부를 감지하도록 학습된 인공지능 모델인 제어 방법.
11. The method of claim 10,
The learned neural network model is,
A control method that is an artificial intelligence model trained to detect whether a person has fallen by inputting a plurality of image frames obtained through the visual sensor.
제10항에 있어서,
상기 낙상 여부를 감지하는 단계는,
상기 참조 이미지와 상기 이벤트 이미지의 유사도를 판단하는 단계; 및
상기 유사도가 임계값 미만이면 사람의 낙상 이벤트가 정탐인 것으로 식별하고, 상기 유사도가 상기 임계값 이상이면 사람의 낙상 이벤트가 오탐인 것으로 식별하는 단계;를 포함하는 제어 방법.
11. The method of claim 10,
The step of detecting whether the fall is
determining a similarity between the reference image and the event image; and
and identifying that the human fall event is a false positive if the similarity is less than the threshold value, and identifying the human fall event as a false positive if the similarity is greater than or equal to the threshold value.
제16항에 있어서,
상기 사람의 낙상 이벤트가 정탐인 것으로 판단되면, 상기 낙상 이벤트에 대한 정보를 포함하는 메시지 및 상기 낙상 이벤트 이후의 이미지 프레임 중 적어도 하나를 사용자 단말로 전송하는 단계;를 더 포함하는 제어 방법.
17. The method of claim 16,
When it is determined that the fall event of the person is a spy, transmitting at least one of a message including information on the fall event and an image frame after the fall event to the user terminal.
제10항에 있어서,
상기 비쥬얼 센서를 통해 획득된 이미지로부터 이동 오브젝트가 임계 시간동안 감지되지 않는 경우, 이동 오브젝트가 감지되지 않았다는 정보를 포함하는 메시지 및 상기 임계 시간 이후에 획득된 이미지 프레임 중 적어도 하나를 사용자 단말로 전송하는 단계;를 더 포함하는 제어 방법.



11. The method of claim 10,
When a moving object is not detected from the image obtained through the visual sensor for a threshold time, at least one of a message including information that the moving object is not detected and an image frame obtained after the threshold time is transmitted to the user terminal Control method further comprising;



KR1020190171990A 2019-12-20 2019-12-20 Electronic device and Method for controlling the electronic device thereof KR20210079823A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190171990A KR20210079823A (en) 2019-12-20 2019-12-20 Electronic device and Method for controlling the electronic device thereof
PCT/KR2020/015300 WO2021125550A1 (en) 2019-12-20 2020-11-04 Electronic device and method for controlling the electronic device.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171990A KR20210079823A (en) 2019-12-20 2019-12-20 Electronic device and Method for controlling the electronic device thereof

Publications (1)

Publication Number Publication Date
KR20210079823A true KR20210079823A (en) 2021-06-30

Family

ID=76478662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171990A KR20210079823A (en) 2019-12-20 2019-12-20 Electronic device and Method for controlling the electronic device thereof

Country Status (2)

Country Link
KR (1) KR20210079823A (en)
WO (1) WO2021125550A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410286B1 (en) * 2021-11-19 2022-06-22 주식회사 씨앤에이아이 Method for detecting a falling accident based on deep learning and electronic device thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103871186A (en) * 2012-12-17 2014-06-18 博立码杰通讯(深圳)有限公司 Security and protection monitoring system and corresponding warning triggering method
US9896022B1 (en) * 2015-04-20 2018-02-20 Ambarella, Inc. Automatic beam-shaping using an on-car camera system
US10638124B2 (en) * 2017-04-10 2020-04-28 Intel Corporation Using dynamic vision sensors for motion detection in head mounted displays
KR102481883B1 (en) * 2017-09-27 2022-12-27 삼성전자주식회사 Method and apparatus for detecting a dangerous situation
KR20190095200A (en) * 2019-07-26 2019-08-14 엘지전자 주식회사 Apparatus and method for recognizing object in image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410286B1 (en) * 2021-11-19 2022-06-22 주식회사 씨앤에이아이 Method for detecting a falling accident based on deep learning and electronic device thereof

Also Published As

Publication number Publication date
WO2021125550A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
KR102643027B1 (en) Electric device, method for control thereof
US10599958B2 (en) Method and system for classifying an object-of-interest using an artificial neural network
US10992839B2 (en) Electronic device and method for controlling the electronic device
US10255683B1 (en) Discontinuity detection in video data
CN110121696B (en) Electronic device and control method thereof
US20240095143A1 (en) Electronic device and method for controlling same
CN108141445A (en) The system and method re-recognized for personnel
KR20230069892A (en) Method and apparatus for identifying object representing abnormal temperatures
CA3169202A1 (en) Accidental voice trigger avoidance using thermal data
KR20210079823A (en) Electronic device and Method for controlling the electronic device thereof
US10007842B2 (en) Same person determination device and method, and control program therefor
EP3757878A1 (en) Head pose estimation
US11416715B2 (en) Apparatus and method for recognizing a face based on artificial intelligence
KR20220126934A (en) System for monitoring based on artificial intelligence and operating method thereof
US20220288788A1 (en) Robot and method for controlling same
KR102440963B1 (en) Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
US20210201142A1 (en) Electronic device and control method thereof
KR20230147360A (en) User service app execution by cloud surveillance camera system
CN114495395A (en) Human shape detection method, monitoring and early warning method, device and system
US20230267741A1 (en) Analysis system and control method for analysis system
EP4210042A1 (en) Electronic device and method for controlling electronic device
JP7480841B2 (en) Event management method, event management device, system and program
KR20230106297A (en) Electronic apparatus and control method thereof
KR20220102741A (en) Electronic device and method for controlling thereof
KR20230070700A (en) Event detection using artificial intelligence surveillance camera

Legal Events

Date Code Title Description
A201 Request for examination