KR20240035035A - 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법 - Google Patents

딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법 Download PDF

Info

Publication number
KR20240035035A
KR20240035035A KR1020220113984A KR20220113984A KR20240035035A KR 20240035035 A KR20240035035 A KR 20240035035A KR 1020220113984 A KR1020220113984 A KR 1020220113984A KR 20220113984 A KR20220113984 A KR 20220113984A KR 20240035035 A KR20240035035 A KR 20240035035A
Authority
KR
South Korea
Prior art keywords
acoustic
unit
module unit
recording
camera module
Prior art date
Application number
KR1020220113984A
Other languages
English (en)
Inventor
김의선
Original Assignee
(주)블라우비트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)블라우비트 filed Critical (주)블라우비트
Priority to KR1020220113984A priority Critical patent/KR20240035035A/ko
Publication of KR20240035035A publication Critical patent/KR20240035035A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3038Neural networks

Abstract

딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법을 개시한다. 본 발명은 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행하여 적외선 센서를 이용한 객체의 감지가 어려운 미감지 영역부터 녹화를 시작할 수 있다.

Description

딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법{RECORDING SYSTEM AND METHOD USING SOUND INFORMATION BASED ON DEEP LEARNING}
본 발명은 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법에 관한 발명으로서, 더욱 상세하게는 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행하여 적외선 센서를 이용한 객체의 감지가 어려운 미감지 영역부터 녹화를 시작할 수 있는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법에 관한 것이다.
최근 1인 가구의 증가로 인해 보안 서비스의 확대가 이어지고 있는 추세이고, 보안 서비스를 제공하기 위해 현관 외부를 감시하기 위한 감시 카메라 장치의 설치도 급증하고 있다.
이러한 감시 카메라 장치는 외부에서 현관 도어로 접근하는 객체를 감지하기 위한 적외선 감지 센서와, 객체를 촬영하여 녹화하기 위한 카메라 센서와, 녹화된 영상을 원격지의 사용자 단말로 전송하기 위한 제어모듈로 구성될 수 있다.
그러나, 종래 기술에 따른 감시 카메라 장치는 다음과 같은 문제점이 있다.
첫번째는 적외선 감지 센서를 이용하여 객체를 감지하는 경우, 적외선 감지 센서의 감지 영역 내에서 객체가 감지되어야만, 녹화를 시작하여 카메라로부터 일정 거리 이내의 영상만 녹화할 수 있어 주요 객체가 포함된 영상은 녹화할 수 없는 문제점이 있다.
두번째는 적외선 감지 센서를 통해 녹화가 시작되어도 객체가 근거리에서 신속하게 감시 카메라 장치에 접근하여 카메라 센서를 가리면 도어에 접근한 객체를 확인하기 어려운 문제점이 있다.
세번째는 적외선 센서의 미감지 영역에 위치한 객체는 촬영을 통해 녹화할 수 없는 문제점이 있다.
한국 등록특허공보 등록번호 제10-1213181호(발명의 명칭: 보안 기능이 강화된 도어록 시스템)
이러한 문제점을 해결하기 위하여, 본 발명은 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행하여 적외선 센서를 이용한 객체의 감지가 어려운 미감지 영역부터 녹화를 시작할 수 있는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템으로서, 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되, 상기 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 카메라 모듈부를 이용한 녹화가 수행되도록 제어하는 녹화 장치부를 포함한다.
또한, 상기 실시 예에 따른 음향 인식 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 음향 데이터를 포함한 학습 데이터로부터 객체 분류를 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 음향 인식 인공지능 모델은 발자국 소리, 사람의 말소리, 동물의 울음소리, 엘리베이터의 도어 개폐소리, 엘리베이터의 안내소리, 비상계단의 도어 개폐소리, 배전판 도어 개폐소리, 이동단말기의 벨소리, 초인종 소리, 인터폰 소리로 분류된 학습 데이터를 기반으로 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 장치부는 음향 신호와 객체로부터 반사된 적외선 신호를 감지하여 제어 모듈부로 출력하고, 상기 제어 모듈부의 제어 신호에 따라 영상을 촬영하는 카메라 모듈부; 및 상기 음향 신호 및 적외선 신호 중 적어도 하나의 신호가 입력되면 상기 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하되, 상기 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하고, 상기 분류 결과 중에 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부가 촬영한 영상을 녹화하는 제어 모듈부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 카메라 모듈부는 주변의 영상을 촬영하는 카메라 센서부; 상기 주변에서 발생되는 음향 신호를 수신하는 음향 센서부; 및 객체로부터 반사되는 적외선 신호를 수신하는 적외선 센서부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 제어 모듈부는 카메라 모듈부와 데이터를 송수신하는 데이터 통신부; 상기 데이터 통신부를 통해 수신된 음향 신호 및 적외선 신호를 분석하여 결과에 따라 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하고, 상기 입력된 음향 신호는 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하며, 상기 분류 결과에서 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부가 촬영한 영상을 녹화하도록 제어하는 제어부; 및 상기 카메라 모듈부에서 촬영된 영상을 저장하는 데이터 저장부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 제어부는 입력된 음향 신호를 학습된 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하는 음향 신호 모델링부; 및 상기 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부가 촬영한 영상을 녹화하도록 제어하는 녹화 제어부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 장치부는 상기 녹화 장치부는 카메라 모듈부와 제어 모듈부가 도어의 상측에 거치되도록 지지하는 브라켓을 더 포함하되, 상기 브라켓은 서로 분리되어 카메라 모듈부와 제어 모듈부가 각각 도어의 임의의 위치에 고정되도록 지지하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 장치부는 카메라 모듈부와 제어 모듈부가 도어를 관통하여 거치되도록 지지하는 브라켓을 더 포함하되, 상기 브라켓은 카메라 모듈부와 제어 모듈부가 각각 도어의 임의의 위치에 고정되도록 지지하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 장치부는 카메라 모듈부와 제어 모듈부가 도어틀에 거치되도록 지지하는 브라켓을 더 포함하되, 카메라 모듈부와 제어 모듈부가 각각 도어틀의 임의의 위치에 고정되도록 지지하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 시스템은 녹화 장치부와 네트워크를 통해 연결되고, 상기 녹화 장치부의 객체 감지 이벤트와 녹화 영상을 수신하여 사용자 단말기로 전송되도록 제어하는 공유기; 및 상기 공유기로부터 전송되는 객체 감지 이벤트와 녹화 영상을 수신하여 디스플레이되도록 제어하는 사용자 단말기;를 더 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예는 딥러닝 기반의 음향 정보를 이용한 녹화 방법으로서, a) 카메라 모듈부로부터 음향 신호 및 객체로부터 반사된 적외선 신호 중 어느 하나를 감지하면 제어 모듈부가 활성화되는 단계; b) 상기 감지된 신호가 음향 신호이면, 상기 제어 모듈부가 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되, 상기 감지된 음향 신호를 미리 설정된 이상 신호 판단용 지표와 비교하여 객체 움직임 음향 데이터인지 판단하는 단계; 및 c) 상기 판단 결과, 객체 움직임 음향 데이터에 기반한 이상 신호이면, 상기 제어 모듈부가 객체 감지 이벤트를 발생시켜 카메라 모듈부로 영상 촬영을 위한 제어 신호를 출력하여 녹화의 시작과, 촬영된 영상의 저장을 수행하는 단계;를 포함한다.
또한, 상기 실시 예에 따른 음향 인식 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 음향 데이터를 포함한 학습 데이터로부터 객체 분류를 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 음향 인식 인공지능 모델은 발자국 소리, 사람의 말소리, 동물의 울음소리, 엘리베이터의 도어 개폐소리, 엘리베이터의 안내소리, 비상계단의 도어 개폐소리, 배전판 도어 개폐소리, 이동단말기의 벨소리, 초인종 소리, 인터폰 소리로 분류된 학습 데이터를 기반으로 학습하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 방법은 d) 객체 감지 이벤트가 발생됨에 따라 상기 제어 모듈부가 네트워크를 통해 연결된 사용자 단말기로 객체 감지 이벤트와 녹화 영상을 전송하는 단계를 더 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 녹화 방법은 e) 제어 모듈부가 녹화 종료 여부를 판단하고, 상기 녹화가 종료됨에 따라 상기 제어 모듈부를 대기모드로 설정하는 단계;를 더 포함하는 것을 특징으로 한다.
본 발명은 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행함으로써, 적외선 센서를 이용하여 객체를 감지하기 어려운 미감지 영역부터 녹화를 시작할 수 있는 장점이 있다.
또한, 본 발명은 적외선 센서에 기반한 녹화시 적외선 감지 영역의 한계로 인해 근거리 녹화로 인해 주요 영상의 미확보와, 카메라 가림을 방지할 수 있는 장점이 있다.
도1은 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 구성을 나타낸 예시도.
도2는 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 카메라 모듈부 구성을 나타낸 블록도.
도3은 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 제어 모듈부 구성을 나타낸 블록도.
도4는 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템가 설치된 상태를 설명하기 위해 나타낸 예시도.
도5는 도4의 녹화 장치가 도어에 설치된 상태를 설명하기 위해 나타낸 예시도.
도6은 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템가 설치된 상태를 설명하기 위해 나타낸 다른 예시도.
도7은 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템가 설치된 상태를 설명하기 위해 나타낸 또 다른 예시도.
도8은 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 방법을 설명하기 위해 나타낸 흐름도.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법의 바람직한 실시예를 상세하게 설명한다.
(제1 실시 예)
도1은 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 구성을 나타낸 예시도이고, 도2는 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 카메라 모듈부 구성을 나타낸 블록도이며, 도3은 도1의 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템의 제어 모듈부 구성을 나타낸 블록도이다.
도1 및 도3을 참조하면, 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템은 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행하여 적외선 센서를 이용한 객체의 감지가 어려운 미감지 영역부터 녹화를 시작할 수 있도록 녹화 장치부(100)를 포함하여 구성될 수 있다.
또한, 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템은 녹화 장치부(100)와 네트워크를 통해 연결되고, 녹화 장치부(100)의 객체 감지 이벤트와 녹화 영상을 수신하여 사용자 단말기(400)로 전송되도록 제어하는 공유기(300)를 더 포함하여 구성될 수 있다.
또한, 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 시스템은 공유기(300)로부터 전송되는 객체 감지 이벤트와 녹화 영상을 수신하여 디스플레이되도록 제어하는 사용자 단말기(400)를 더 포함하여 구성될 수 있다.
녹화 장치부(100)는 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류할 수 있다.
또한, 녹화 장치부(100)는 음향 인식 인공지능 모델을 통해 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)를 이용한 녹화가 수행되도록 제어할 수 있다.
또한, 녹화 장치부(100)의 음향 인식 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 음향 데이터를 포함한 학습 데이터로부터 객체 분류를 학습할 수 있다.
여기서, 음향 인식 인공지능 모델은 머신 러닝중에서 딥러닝(Deep learning)이라는 방법을 통해 만들어진 분석 모델들의 종류라고 볼 수 있다.
또한, 음향 인식 인공지능 모델은 딥러닝 모델 또는 딥러닝 분석 모델의 표현으로 사용될 수도 있다.
또한, 머신 러닝은 복잡한 시스템이 명시적으로 프로그래밍되지 않고서, 경험으로부터 자동으로 학습하고 개선할 수 있게 하는 인공 지능의 응용이다.
또한, 머신 러닝 모델들의 정확도 및 유효성은 그들 모델들을 훈련시키는 데 사용되는 데이터에 부분적으로 의존할 수 있다.
또한, 본 발명의 실시 예에 따른 음향 인식 인공지능 모델은 발자국 소리, 사람의 말소리, 동물의 울음소리, 엘리베이터의 도어 개폐소리, 엘리베이터의 안내소리, 비상계단의 도어 개폐소리, 배전판 도어 개폐소리, 이동단말기의 벨소리, 초인종 소리, 인터폰 소리로 분류된 학습 데이터를 기반으로 학습을 수행할 수 있다.
또한, 음향 인식 인공지능 모델은 외부로부터 입력된 다수의 음향 신호를 서로 비교한 결과 값에 기반하여 분류된 객체 움직임 음향 데이터를 학습 데이터로 반복 학습할 수도 있다.
이를 위해, 녹화 장치부(100)는 카메라 모듈부(110)와, 제어 모듈부(120)를 포함하여 구성될 수 있다.
또한, 카메라 모듈부(110)와 제어 모듈부(120)는 서로 분리된 구성으로 도4 및 도5에 나타낸 바와 같이, 도어(200)를 중심으로 실외측에 카메라 모듈부(110)가 설치되고, 실내측에 제어 모듈부(120)가 설치될 수 있으며, 브라켓(130, 130')을 이용하여 도어(200)의 상측에 거치되어 지지될 수 있다.
여기서, 브라켓(130, 130')은 단면이 '∩'자 형상으로 두 개의 분리 가능한 금속재로 이루어질 수 있고, 카메라 모듈부(110)와 제어 모듈부(120)에 각각 결합될 수 있다.
즉, 브라켓(130, 130')은 브라켓 1(130)과 브라켓 2(130')로 구분될 수 있고, 사용자의 필요에 따라 브라켓 1(130)에 설치된 홈부(131)에 브라켓 2(130')가 치합된 일체형으로 사용할 수도 있고, 브라켓 1(130)과 브라켓 2(130')를 분리하여 사용할 수도 있다.
따라서, 브라켓 1(130)과 브라켓 2(130')를 분리하여 사용할 경우, 브라켓 1(130)은 카메라 모듈부(110)와 체결하고, 브라켓 2는 제어 모듈부(120)와 체결하여 카메라 모듈부(110)와 제어 모듈부(120)를 도어(200)의 상부에서 길이방향으로 따라 수평 방향으로 개별 이동하여 도어(200)의 최적 위치에 각각 거치될 수 있도록 한다.
또한, 브라켓 1(130)과 브라켓 2(130')는 임의의 위치에 각각 거치된 후 볼트 등의 고정수단(132)을 통해 도어(200)에 고정될 수 있다.
또한, 브라켓 1(130)과 브라켓 2(130')를 통해 서로 분리되어 다른 위치에 거치된 카메라 모듈부(110)와 제어 모듈부(120)는 와이어를 통해 전기적으로 연결될 수 있다.
카메라 모듈부(110)는 음향 신호와 객체로부터 반사된 적외선 신호를 감지하여 제어 모듈부(120)로 출력하고, 제어 모듈부(120)의 제어 신호에 따라 영상을 촬영하는 구성으로서, 카메라 센서부(111)와, 음향 센서부(112)와, 적외선 센서부(113)를 포함하여 구성될 수 있다.
카메라 센서부(111)는 도어(200)의 전측에서 주변의 영상을 촬영하는 구성으로서, CCD 센서, CMOS 센서 또는 광을 전기신호로 변환하는 광전변환 수단을 구비한 센서로 구성될 수 있다.
음향 센서부(112)는 도어(200)의 전측에서 발생되는 주변의 음향 신호를 수신하는 구성으로서, 마이크로 구성될 수 있다.
즉, 음향 센서부(112)의 음향 감지 영역(140)은 적외선 센서부(113)에 의한 적외선 감지 영역(150)과 대비하여 보다 원거리에서 객체의 움직임에 따른 음향 신호를 감지할 수 있다.
적외선 센서부(113)는 적외선 신호를 감지하는 구성으로서, 적외선을 출력하는 적외선 발광부와 적외선 발광부에서 발광된 적외선이 객체로부터 반사된 적외선 신호를 수신하는 적외선 수광부로 구성될 수 있다.
제어 모듈부(120)는 카메라 모듈부(110)로부터 음향 신호 및 적외선 신호 중 적어도 하나의 신호가 입력되면 카메라 모듈부(110)의 카메라 센서부(111)로 영상 촬영을 위한 제어 신호를 출력할 수 있다.
또한, 제어 모듈부(120)는 음향 신호 및 적외선 신호 중 적어도 하나의 신호가 입력되기 전에는 절전 상태(또는 대기모드)를 유지하고, 음향 신호 또는 적외선 신호가 수신되면 활성화되어 녹화를 수행할 수 있다.
또한, 제어 모듈부(120)는 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하고, 분류 결과 중에 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력할 수 있다.
또한, 제어 모듈부(120)는 카메라 모듈부(110)가 촬영을 시작하면, 촬영된 영상이 녹화될 수 있도록 제어하고, 데이터 통신부(121)와, 제어부(122)와, 데이터 저장부(123)와, 전원부(124)를 포함하여 구성될 수 있다.
데이터 통신부(121)는 카메라 모듈부(110)와 유선 네트워크를 통해 연결될 수 있고, 카메라 모듈부(110)에서 감지된 음향 신호 및 적외선 신호를 수신하여 제어부(122)로 출력할 수 있다.
또한, 데이터 통신부(121)는 제어부(122)에서 출력되는 영상 촬영을 위한 제어 신호를 카메라 모듈부(110)로 전송할 수 있다.
또한, 데이터 통신부(121)는 무선 네트워크를 통해 공유기(300)와 연결될 수 있고, 제어부(122)에서 출력되는 객체 감지 이벤트 신호와, 객체 감지 이벤트의 발생으로 녹화된 영상이 공유기(300)를 통해 사용자 단말기(400)로 전송될 수 있도록 데이터를 송수신할 수 있다.
제어부(122)는 데이터 통신부(121)를 통해 수신된 음향 신호 및 적외선 신호를 분석하고, 분석 결과에 따라 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력할 수 있다.
또한, 제어부(122)는 입력된 음향 신호를 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류할 수 있고, 분류 결과에서 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력할 수 있다.
또한, 제어부(122)는 카메라 모듈부(110)가 촬영한 영상을 녹화할 수 있도록 제어하고, 음향 신호 모델링부(122a)와, 녹화 제어부(122b)로 구성될 수 있다.
음향 신호 모델링부(122a)는 입력된 음향 신호를 학습된 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류할 수 있다.
이때, 음향 신호 모델링부(122a)는 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되, 감지된 음향 신호를 미리 설정된 이상 신호 판단용 지표, 즉, 평상시 입력되는 음향 데이터에 대한 분석 지표와 객체가 움직임에 따라 발생하는 음향 데이터에 대한 분석 지표를 비교하여 음향 데이터의 변화에 따라 분류한 지표를 통해, 이상 신호인 객체 움직임 음향 데이터인지 예측할 수 있다.
녹화 제어부(122b)는 음향 신호 모델링부(122a)에서 객체 움직임 음향 데이터가 감지되면, 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력하여 녹화가 시작될 수 있도록 한다.
또한, 녹화 제어부(122b)는 카메라 모듈부(110)가 촬영한 영상을 데이터 저장부(1123)에 저장하여 녹화될 수 있도록 제어한다.
또한,녹화 제어부(122b)는 객체 감지 이벤트가 발생됨에 따라, 객체 감지 이벤트와 카메라 모듈부(110)가 촬영한 영상을 미리 설정된 접속 정보에 기초하여 와이파이(Wifi), 블루투스 등의 무선 네트워크를 통해 공유기(300)에 접속하고, 접속된 공유기(300)를 통해 사용자 단말기(400)로 객체 감지 이벤트와 카메라 모듈부(110)가 촬영한 영상이 전송될 수 있도록 한다.
데이터 저장부(123)는 객체 감지 이벤트가 발생됨에 따라 카메라 모듈부(110)에서 촬영된 영상을 저장할 수 있다.
전원부(124)는 카메라 모듈부(110)와, 제어 모듈부(120)로 동작용 전원을 공급할 수 있다.
(제2 실시 예)
도6을 참조하면, 제2 실시 예에 따른 녹화 장치부(100a)는 제1 실시 예에 따른 녹화 장치부(100)와 비교하여 브라켓(130a)의 구성에서 차이점이 있다.
브라켓(130a)은 파이프 형상의 부재로서, 내부에 중공을 형성한 금속재로 구성될 수 있으며, 카메라 모듈부(110a)와 제어 모듈부(120a)를 전기적으로 연결하는 와이어가 구성될 수 있다.
즉, 도어(200)를 관통하는 브라켓(130a)을 이용하여 카메라 모듈부(110a)와 제어 모듈부(120a)가 도어(200)를 중심으로 서로 대향하여 거치되도록 설치하거나, 또는 카메라 모듈부(110a) 및 제어 모듈부(120a)와 각각 결합되어 도어(200)의 서로 다른 위치에 카메라 모듈부(110a) 및 제어 모듈부(120a)가 거치되도록 고정할 수 있다.
(제3 실시 예)
도7을 참조하면, 제3 실시 예에 따른 녹화 장치부(100b)는 도어(200)가 아닌 도어틀(210)에 거치될 수 있도록 지지하는 브라켓(130b)을 포함하여 구성될 수 있다.
제3 실시 에에 따른 브라켓(130b)은 제1 실시 예에 따른 브라켓과 같이 단면이 '∪'자 형상으로 구성되어 도어(200)의 상부에 설치된 도어틀(210)과 치합하여 카메라 모듈부(110b)와 제어 모듈부(120b)가 각각 고정되도록 구성될 수 있다.
또한, 제3 실시 예에 따른 브라켓(130b)은 제1 실시 예에 따른 브라켓과 같이 분리 가능한 두 개의 부재로 구성될 수 있고, 분리된 브라켓 중 하나는 카메라 모듈부(110b)와 결합하며 나머지 하나는 제어 모듈부(120b)와 결합되어 도어틀(210)의 수평방향을 따라 이동된 최적의 위치에 고정수단을 통해 각각 설치될 수 있다.
또한, 도어틀(210)에 카메라 모듈부(110b)와 제어 모듈부(120b)가 고정되도록 구성함으로써, 녹화 장치부(100b)가 도어(200)의 개폐로 인한 충격 및 진동으로부터 자유로울 수 있어 녹화 장치부(100b)의 고장 발생을 방지할 수 있다.
다음은 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 방법을 설명한다.
도8은 본 발명의 일 실시 예에 따른 딥러닝 기반의 음향 정보를 이용한 녹화 방법을 설명하기 위해 나타낸 흐름도이다.
도1 내지 도5와 도8을 참조하면, 카메라 모듈부(110)가 음향 신호 및 객체 로부터 반사된 적외선 신호 중 어느 하나를 감지하면 제어 모듈부(120)가 활성화(S100)하는 단계;
S100 단계에서 감지된 신호가 음향 신호이면, 제어 모듈부(120)가 음향 인식 인공지능 모델을 이용하여 감지된 음향 신호를 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되, 감지된 음향 신호를 평상시 입력되는 음향 데이터에 대한 분석 지표와 객체가 움직임에 따라 발생하는 음향 데이터에 대한 분석 지표를 비교하고, 비교 결과에 따른 음향 데이터의 변화에 따라 분류한 지표를 산출(S200)한다.
즉, S200 단계의 음향 데이터의 변화에 따라 분류한 지표 산출을 통해, 이상 신호인 객체 움직임 음향 데이터인지 예측한다.
제어 모듈부(120)가 S200 단계에서 산출된 지표를 기반으로 객체 움직임 음향 데이터에 의한 이상 신호 감지인지 판단(S300)하고,
S300 단계의 판단 결과, 객체 움직임 음향 데이터에 기반한 이상 신호이면, 제어 모듈부(120)가 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력하여 녹화의 시작과, 촬영된 영상의 저장을 수행(S400)한다.
또한, 객체 감지 이벤트가 발생됨에 따라 제어 모듈부(120)는 네트워크를 통해 연결된 사용자 단말기(400)로 객체 감지 이벤트와 S400 단계에서 저장된 녹화 영상을 전송(S500)한다.
또한, 제어 모듈부(120)는 객체 감지 이벤트가 발생된 후 추가적인 객체 움직임 음향 데이터가 감지되는지 확인하여 녹화 종료 여부를 판단(S600)하고, 일정 시간 동안 객체 움직임 음향 데이터가 미입력되면, 녹화를 종료하며, 제어 모듈부(120)는 대기모드가 되도록 설정(S700)한다.
한편, S100 단계에서 감지된 신호가 적외선 신호이면, 제어 모듈부(120)는 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력하여 녹화의 시작과, 촬영된 영상의 저장을 수행할 수 있다.
따라서, 도어 주변의 음향 정보를 분석하여 객체의 감지를 수행하고, 객체가 감지됨에 따라 녹화를 수행함으로써, 적외선 센서를 이용하여 객체를 감지하기 어려운 미감지 영역부터 녹화를 시작할 수 있다.
또한, 적외선 센서에 기반한 녹화시 적외선 감지 영역의 한계로 인해 근거리 녹화로 인해 주요 영상의 미확보와, 카메라 가림을 방지할 수 있다.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.
100, 100a, 100b : 녹화 장치부 110, 110a, 110b : 카메라 모듈부
111 : 카메라 센서부 112 : 음향 센서부
113 : 적외선 센서부 120, 120a, 120b : 제어 모듈부
121 : 데이터 통신부 122 : 제어부
122a : 음향 신호 모델링부 122b : 녹화 제어부
123 : 데이터 저장부 124 : 전원부
130, 130', 130a, 130b : 브라켓 140 : 음향 감지 영역
150 : 적외선 감지 영역 200 : 도어
210 : 도어틀 300 : 공유기
400 : 사용자 단말기

Claims (16)

  1. 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되,
    상기 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 카메라 모듈부(110, 110a, 110b)를 이용한 녹화가 수행되도록 제어하는 녹화 장치부(100, 100a, 100b)를 포함하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  2. 제 1 항에 있어서,
    상기 음향 인식 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 음향 데이터를 포함한 학습 데이터로부터 객체 분류를 학습하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  3. 제 1 항에 있어서,
    상기 음향 인식 인공지능 모델은 발자국 소리, 사람의 말소리, 동물의 울음소리, 엘리베이터의 도어 개폐소리, 엘리베이터의 안내소리, 비상계단의 도어 개폐소리, 배전판 도어 개폐소리, 이동단말기의 벨소리, 초인종 소리, 인터폰 소리로 분류된 학습 데이터를 기반으로 학습하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 녹화 장치부(100, 100a, 100b)는 음향 신호와 객체로부터 반사된 적외선 신호를 감지하여 제어 모듈부(120)로 출력하고, 상기 제어 모듈부(120)의 제어 신호에 따라 영상을 촬영하는 카메라 모듈부(110, 110a, 110b); 및
    상기 음향 신호 및 적외선 신호 중 적어도 하나의 신호가 입력되면 상기 카메라 모듈부(110, 110a, 110b)로 영상 촬영을 위한 제어 신호를 출력하되, 상기 음향 신호가 입력되면, 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하고, 상기 분류 결과 중에 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부(110, 110a, 110b)로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부(110, 110a, 110b)가 촬영한 영상을 녹화하는 제어 모듈부(120, 120a, 120b);를 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  5. 제 4 항에 있어서,
    상기 카메라 모듈부(110, 110a, 110b)는 주변의 영상을 촬영하는 카메라 센서부(111);
    상기 주변에서 발생되는 음향 신호를 수신하는 음향 센서부(112); 및
    객체로부터 반사되는 적외선 신호를 수신하는 적외선 센서부(113);를 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  6. 제 4 항에 있어서,
    상기 제어 모듈부(120, 120a, 120b)는 카메라 모듈부(110)와 데이터를 송수신하는 데이터 통신부(121);
    상기 데이터 통신부(121)를 통해 수신된 음향 신호 및 적외선 신호를 분석하여 결과에 따라 카메라 모듈부(110, 110a, 110b)로 영상 촬영을 위한 제어 신호를 출력하고, 상기 입력된 음향 신호는 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하며, 상기 분류 결과에서 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부(110, 110a, 110b)로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부(110, 110a, 110b)가 촬영한 영상을 녹화하도록 제어하는 제어부(122); 및
    상기 카메라 모듈부(110, 110a, 110b)에서 촬영된 영상을 저장하는 데이터 저장부(123);를 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  7. 제 6 항에 있어서,
    상기 제어부(122, 120a, 120b)는 입력된 음향 신호를 학습된 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하는 음향 신호 모델링부(122a); 및
    상기 객체 움직임 음향 데이터가 감지되면 객체 감지 이벤트를 발생시켜 상기 카메라 모듈부(110, 110a, 110b)로 영상 촬영을 위한 제어 신호를 출력하며, 상기 카메라 모듈부(110, 110a, 110b)가 촬영한 영상을 녹화하도록 제어하는 녹화 제어부(122b);를 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  8. 제 4 항에 있어서,
    상기 녹화 장치부(100)는 카메라 모듈부(110)와 제어 모듈부(120)가 도어(200)의 상측에 거치되도록 지지하는 브라켓(130, 130')을 더 포함하되,
    상기 브라켓(130, 130')은 서로 분리되어 카메라 모듈부(110)와 제어 모듈부(120)가 각각 도어(200)의 임의의 위치에 고정되도록 지지하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  9. 제 4 항에 있어서,
    상기 녹화 장치부(100a)는 카메라 모듈부(110a)와 제어 모듈부(120a)가 도어(200)를 관통하여 거치되도록 지지하는 브라켓(130a)을 더 포함하되,
    상기 브라켓(130a)은 카메라 모듈부(110a)와 제어 모듈부(120a)가 각각 도어(200)의 임의의 위치에 고정되도록 지지하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  10. 제 4 항에 있어서,
    상기 녹화 장치부(100b)는 카메라 모듈부(110b)와 제어 모듈부(120b)가 도어틀(210)에 거치되도록 지지하는 브라켓(130b)을 더 포함하되,
    카메라 모듈부(110b)와 제어 모듈부(120b)가 각각 도어틀(210)의 임의의 위치에 고정되도록 지지하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  11. 제 1 항에 있어서,
    상기 녹화 시스템은 녹화 장치부(100, 100a, 100b)와 네트워크를 통해 연결되고, 상기 녹화 장치부(100, 100a, 100b)의 객체 감지 이벤트와 녹화 영상을 수신하여 사용자 단말기(400)로 전송되도록 제어하는 공유기(300); 및
    상기 공유기(300)로부터 전송되는 객체 감지 이벤트와 녹화 영상을 수신하여 디스플레이되도록 제어하는 사용자 단말기(400);를 더 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 시스템.
  12. a) 카메라 모듈부(110)로부터 음향 신호 및 객체로부터 반사된 적외선 신호 중 어느 하나를 감지하면 제어 모듈부(120)가 활성화되는 단계;
    b) 상기 감지된 신호가 음향 신호이면, 상기 제어 모듈부(120)가 음향 인식 인공지능 모델을 이용하여 노이즈 음향 데이터와 객체 움직임 음향 데이터로 분류하되, 상기 감지된 음향 신호를 미리 설정된 이상 신호 판단용 지표와 비교하여 객체 움직임 음향 데이터인지 판단하는 단계; 및
    c) 상기 판단 결과, 객체 움직임 음향 데이터에 기반한 이상 신호이면, 상기 제어 모듈부(120)가 객체 감지 이벤트를 발생시켜 카메라 모듈부(110)로 영상 촬영을 위한 제어 신호를 출력하여 녹화의 시작과, 촬영된 영상의 저장을 수행하는 단계;를 포함하는 딥러닝 기반의 음향 정보를 이용한 녹화 방법.
  13. 제 12 항에 있어서,
    상기 음향 인식 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 음향 데이터를 포함한 학습 데이터로부터 객체 분류를 학습하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 방법.
  14. 제 12 항에 있어서,
    상기 음향 인식 인공지능 모델은 발자국 소리, 사람의 말소리, 동물의 울음소리, 엘리베이터의 도어 개폐소리, 엘리베이터의 안내소리, 비상계단의 도어 개폐소리, 배전판 도어 개폐소리, 이동단말기의 벨소리, 초인종 소리, 인터폰 소리로 분류된 학습 데이터를 기반으로 학습하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 방법.
  15. 제 12 항 내지 제 14 항 중 어느 한 항에 있어서,
    상기 녹화 방법은 d) 객체 감지 이벤트가 발생됨에 따라 상기 제어 모듈부(120)가 네트워크를 통해 연결된 사용자 단말기(400)로 객체 감지 이벤트와 녹화 영상을 전송하는 단계를 더 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 방법.
  16. 제 15 항에 있어서,
    상기 녹화 방법은 e) 제어 모듈부(120)가 녹화 종료 여부를 판단하고, 상기 녹화가 종료됨에 따라 상기 제어 모듈부(120)를 대기모드로 설정하는 단계;를 더 포함하는 것을 특징으로 하는 딥러닝 기반의 음향 정보를 이용한 녹화 방법.
KR1020220113984A 2022-09-08 2022-09-08 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법 KR20240035035A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220113984A KR20240035035A (ko) 2022-09-08 2022-09-08 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220113984A KR20240035035A (ko) 2022-09-08 2022-09-08 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20240035035A true KR20240035035A (ko) 2024-03-15

Family

ID=90272799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220113984A KR20240035035A (ko) 2022-09-08 2022-09-08 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20240035035A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101213181B1 (ko) 2010-11-05 2012-12-18 조희문 보안기능이 강화된 도어록 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101213181B1 (ko) 2010-11-05 2012-12-18 조희문 보안기능이 강화된 도어록 시스템

Similar Documents

Publication Publication Date Title
KR101213181B1 (ko) 보안기능이 강화된 도어록 시스템
US9756233B2 (en) Barrier operator control of a camera
JP6075884B2 (ja) 画像を捕捉する方法及び装置
KR100491708B1 (ko) 원격지 전자동 무인 영상보안 관리시스템 및 침입자 대응프로그램
EP3310004B1 (en) Mobile assist device and mobile assist method
KR101612745B1 (ko) 현관 보안 시스템 및 그 제어방법
JP2010182193A (ja) 携帯電話ロボット
KR102390405B1 (ko) 도어벨 장치
TW201532940A (zh) 電梯控制系統
KR101838858B1 (ko) 생체인식 기능을 이용한 출입통제 시스템 및 이를 이용한 출입구 제어방법
US20190392691A1 (en) Entry security system and method
KR101381924B1 (ko) 카메라 감시 장치를 이용한 보안 감시 시스템 및 방법
KR20190044867A (ko) 독거 세대 관제 장치
KR20210072285A (ko) 재실자 인원 실시간 모니터링을 위한 cctv 영상정보 분석 시스템 및 그 방법
US11790743B2 (en) System and method for property monitoring
KR101795502B1 (ko) 무인비행체와 연동되는 스마트 펜스
KR20240035035A (ko) 딥러닝 기반의 음향 정보를 이용한 녹화 시스템 및 방법
JP2005309965A (ja) 宅内セキュリティ装置
KR20170121934A (ko) 스마트 도어벨 및 이를 포함한 주택 보안 시스템
KR20100013481A (ko) 열차 모니터링 시스템 및 방법
KR20150136226A (ko) 출입자 관리 시스템 및 이의 제어 방법
KR102545534B1 (ko) 도어벨, 이를 구비한 보안 시스템 및 그 동작 방법
KR20210026933A (ko) 도어 뷰어 및 그 동작 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
KR200388954Y1 (ko) 지능형 방범 카메라를 이용한 홈오토메이션 장치
KR100643125B1 (ko) 엘리베이터 보안시스템