KR102078265B1 - Aapparatus of processing image and method of providing image thereof - Google Patents

Aapparatus of processing image and method of providing image thereof Download PDF

Info

Publication number
KR102078265B1
KR102078265B1 KR1020180003443A KR20180003443A KR102078265B1 KR 102078265 B1 KR102078265 B1 KR 102078265B1 KR 1020180003443 A KR1020180003443 A KR 1020180003443A KR 20180003443 A KR20180003443 A KR 20180003443A KR 102078265 B1 KR102078265 B1 KR 102078265B1
Authority
KR
South Korea
Prior art keywords
image
processing apparatus
image processing
appearance
information
Prior art date
Application number
KR1020180003443A
Other languages
Korean (ko)
Other versions
KR20190085376A (en
Inventor
최정국
Original Assignee
주식회사 티제이원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티제이원 filed Critical 주식회사 티제이원
Priority to KR1020180003443A priority Critical patent/KR102078265B1/en
Publication of KR20190085376A publication Critical patent/KR20190085376A/en
Application granted granted Critical
Publication of KR102078265B1 publication Critical patent/KR102078265B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25875Management of end-user data involving end-user authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

본 실시예는 카메라로부터 모니터링 영역을 촬영한 제1 영상을 획득하는 단계; 통신부로부터 주변에 위치한 하나 이상의 디바이스로부터 각 디바이스의 실행 여부, 실행 시점 및 실행되는 동작을 포함하는 감지 데이터를 획득하는 단계; 상기 제1 영상 또는 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 단계; 및 상기 객체의 식별 정보를 이용하여 비활성 조건의 만족 여부를 판단하고, 판단 결과, 상기 객체의 식별 정보가 비활성 조건을 만족하는 경우, 통신부의 전송 기능을 비활성화시키는 단계;를 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법을 개시한다. The present embodiment includes the steps of acquiring a first image of photographing a monitoring area from a camera; Acquiring sensing data including whether each device is executed, an execution time point, and an executed operation from one or more devices located around the communication unit; Identifying an object appearing in the first image by using the result of analyzing the first image or the sensing data; And determining whether the inactive condition is satisfied using the identification information of the object, and if the identification information of the object satisfies the inactive condition, deactivating a transmission function of the communication unit. Disclosed is a method of providing an image of an image processing apparatus that discriminates and processes an image differentially according to an object.

Description

출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치 및 그의 영상 제공 방법{Aapparatus of processing image and method of providing image thereof}An image processing apparatus for processing an image differentially according to an object by identifying an appearance object and a method for providing an image thereof {Aapparatus of processing image and method of providing image

본 실시예들은 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치 및 그의 영상 제공 방법에 관한 것이다.The present embodiments are directed to an image processing apparatus and an image providing method thereof for identifying an appearance object and processing an image differentially according to the object.

최근 많은 웹 상의 서비스 증가에 따라 보안 이슈가 크게 대두되고 있으며, 이러한 보안 문제로 인해 보안 카메라의 개인 생활 침해 문제 및 해킹에 대한 두려움 등이 제기되고 있다. Recently, with the increase in the number of services on the web, security issues have emerged, and these security issues have raised security camera privacy problems and fears of hacking.

국내 공개특허공보 제2013-0003886호Korean Unexamined Patent Publication No. 2013-0003886

본 발명의 실시예들은 프라이버시 침해와 보안의 어느 한쪽에 치우치지 않고 모두 만족할 수 있는 보안 시스템을 제공하고자 한다.Embodiments of the present invention are to provide a security system that can be satisfactorily both without privacy bias and security.

본 발명의 실시예들에 따른 영상 제공 방법은 카메라로부터 모니터링 영역의 제1 영상을 획득하는 단계; 통신부로부터 주변에 위치한 디바이스로부터 감지 데이터를 획득하는 단계; 상기 제1 영상 및 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 단계; 상기 객체의 식별 정보를 기초로 통신부의 전송 기능을 비활성화시키는 단계;를 포함할 수 있다. According to embodiments of the present invention, an image providing method includes: acquiring a first image of a monitoring area from a camera; Obtaining sensed data from a device located at a periphery from the communication unit; Identifying an object appearing in the first image by using the result of analyzing the first image and the sensed data; And deactivating a transmission function of the communication unit based on the identification information of the object.

본 발명의 실시예들에 따른 영상 제공 방법은 상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 편집하는 단계;를 더 포함할 수 있다. The image providing method according to embodiments of the present invention may further include editing an appearance area of the first object based on the identification information of the object.

상기 객체를 식별하는 단계는 상기 제1 영상의 특정 영역을 분석하여 해당 영역에 포함된 객체 영역을 획득하고, 객체 영역에 포함된 제1 객체의 특징값들을 분석하여 상기 제1 객체의 식별 정보를 결정하는 점을 특징으로 할 수 있다. The identifying of the object may include obtaining an object area included in the corresponding area by analyzing a specific area of the first image, analyzing feature values of the first object included in the object area, and identifying identification information of the first object. It may be characterized by the decision point.

상기 객체를 식별하는 단계는 상기 감지 데이터를 조합하여, 출현 객체의 이동 정보를 추론하는 단계;를 더 포함하고, 상기 제1 영상 및 상기 출현 객체의 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The identifying of the object may further include inferring movement information of the appearance object by combining the sensing data, and identifying the object based on the first image and the movement information of the appearance object. can do.

상기 객체를 식별하는 단계는 상기 제1 영상을 분석하여 생체 정보를 인식하는 단계;를 더 포함하고, 상기 생체 정보 및 상기 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The identifying of the object may further include recognizing the biometric information by analyzing the first image, and may identify the object based on the biometric information and the movement information.

상기 객체를 식별하는 단계는 상기 제1 영상으로부터 복수의 객체가 인식 또는 감지된 경우, 상기 생체 정보 및 상기 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 기초로 각 객체를 식별하는 점을 특징으로 할 수 있다. The identifying of the object may include pairing the biometric information and the movement information when a plurality of objects are recognized or detected from the first image, and identifying each object based on the paired biometric information and the movement information. It can be characterized.

본 발명의 실시예들에 따른 영상 처리 장치는 카메라로부터 모니터링 영역의 제1 영상을 획득하고 분석하는 영상 분석부; 통신부로부터 주변에 위치한 디바이스로부터 감지 데이터를 획득하고, 상기 감지 데이터를 분석하는 주변 정보 분석부; 상기 제1 영상 및 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 객체 식별부; 상기 객체의 식별 정보를 기초로 통신부의 전송 기능을 비활성화시키는 영상 처리부;를 포함할 수 있다. An image processing apparatus according to embodiments of the present invention may include an image analyzer configured to acquire and analyze a first image of a monitoring area from a camera; A peripheral information analyzer configured to acquire sensing data from a device located around the communication unit and to analyze the sensing data; An object identification unit for identifying an object appearing in the first image by using the result of analyzing the first image and the sensed data; And an image processor to deactivate a transmission function of the communication unit based on the identification information of the object.

상기 영상 처리부는 상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 편집하는 점을 특징으로 할 수 있다. The image processor may be configured to edit an appearance area of the first object based on the identification information of the object.

상기 객체 식별부는 상기 제1 영상의 특정 영역을 분석하여 해당 영역에 포함된 객체 영역을 획득하고, 객체 영역에 포함된 제1 객체의 특징값들을 분석하여 상기 제1 객체의 식별 정보를 결정하는 점을 특징으로 할 수 있다. The object identification unit analyzes a specific area of the first image to obtain an object area included in the corresponding area, and determines characteristic information of the first object by analyzing feature values of the first object included in the object area. It may be characterized by.

상기 객체 식별부는 상기 감지 데이터를 조합하여, 출현 객체의 이동 정보를 추론하고, 상기 제1 영상 및 상기 출현 객체의 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The object identifying unit may combine the sensing data to infer movement information of an appearance object and identify an object based on the first image and movement information of the appearance object.

상기 객체 식별부는 상기 제1 영상을 분석하여 생체 정보를 인식하고, 상기 생체 정보 및 상기 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The object identification unit may recognize the biometric information by analyzing the first image, and identify the object based on the biometric information and the movement information.

상기 객체 식별부는 상기 제1 영상으로부터 복수의 객체가 인식 또는 감지된 경우, 상기 생체 정보 및 상기 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 기초로 각 객체를 식별하는 점을 특징으로 할 수 있다. When the plurality of objects are recognized or detected from the first image, the object identification unit pairs the biometric information and the movement information and identifies each object based on the paired biometric information and the movement information. Can be.

컴퓨터를 이용하여 본 발명의 실시예에 따른 영상 처리 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다. It may be stored in a medium for executing any one of the image processing method according to an embodiment of the present invention using a computer.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition, there is further provided a computer readable recording medium for recording another method for implementing the present invention, another system, and a computer program for executing the method.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예들에 따른 영상 처리 장치, 영상 처리 방법 및 컴퓨터 프로그램은 주변의 디바이스로부터 수신한 감지 데이터 및 카메라로부터 수신한 영상을 기초로 영상에 포함된 객체를 식별할 수 있다. An image processing apparatus, an image processing method, and a computer program according to embodiments of the present disclosure may identify an object included in an image based on sensing data received from a peripheral device and an image received from a camera.

또한, 본 발명의 실시예들에 따른 영상 처리 장치, 영상 처리 방법 및 컴퓨터 프로그램은 등록 객체에 의해 설정된 설정에 따라 등록 객체가 출현한 영상을 처리할 수 있다. In addition, the image processing apparatus, the image processing method, and the computer program according to the embodiments of the present invention may process an image in which the registration object appears according to a setting set by the registration object.

도 1은 본 발명의 일 실시예에 따른 보안 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상 처리 장치의 구성을 개략적으로 도시한 블록도이다.
도 3 내지 도 5는 본 발명의 실시예들에 따른 영상 처리 방법의 흐름도들이다.
도 6a 및 도 6b는 객체의 출현 영역에 대해서 이펙트를 추가한 실시예들에 대한 것이다.
도 7a 및 도 7b는 영상 처리 장치에 의해 제공되는 얼굴 인식 기능을 설명하기 위한 도면이다.
도 8은 영상 처리 장치에 의해 제공되는 영역 설정 기능을 설명하기 위한 도면이다.
1 is a view schematically showing a security system according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
3 to 5 are flowcharts of an image processing method according to embodiments of the present invention.
6A and 6B illustrate embodiments in which an effect is added to an appearance area of an object.
7A and 7B are diagrams for describing a face recognition function provided by an image processing apparatus.
8 is a diagram for describing a region setting function provided by an image processing apparatus.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the following examples, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It is to be understood that it does not exclude in advance the possibility of the presence or addition of other features or numbers, steps, operations, components, components or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like. Functional aspects may be implemented in algorithms running on one or more processors. In addition, embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

도 1은 본 발명의 일 실시예에 따른 보안 시스템을 개략적으로 나타낸 도면이다. 1 is a view schematically showing a security system according to an embodiment of the present invention.

도 1을 참조하면, 보안 시스템(1)은 카메라 그룹(10), 디바이스 그룹(30), 단말 그룹(50) 및 영상 처리 장치(70)를 포함할 수 있다. 보안 시스템의 카메라 그룹(10), 디바이스 그룹(30), 단말 그룹(50) 및 영상 처리 장치(70) 중 하나 이상의 구성요소는 하나의 장치에 구비되어 전기적으로 연결될 수 있다. 예를 들어, 카메라 그룹(10), 영상 처리 장치(70)은 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치에 각각 구비될 수 있다. 또한, 영상 처리 장치(70) 및 디바이스 그룹(30)은 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치들에 각각 구비될 수 있다. 카메라 그룹(10), 디바이스 그룹(30), 및 영상 처리 장치(70)는 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치에 각각 구비될 수 있다. Referring to FIG. 1, the security system 1 may include a camera group 10, a device group 30, a terminal group 50, and an image processing apparatus 70. One or more components of the camera group 10, the device group 30, the terminal group 50, and the image processing apparatus 70 of the security system may be provided in one device and electrically connected to each other. For example, the camera group 10 and the image processing device 70 may be provided as one device or in separate devices connected through a communication network. In addition, the image processing apparatus 70 and the device group 30 may be provided as one device or in separate devices connected to a communication network. The camera group 10, the device group 30, and the image processing apparatus 70 may be provided as one device or in separate devices connected through a communication network.

카메라 그룹(10)은 적어도 하나의 카메라(CAM1 내지 CAMn)를 포함할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 특정 장소의 고정된 위치에 배치되고, 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 갖는 PTZ 카메라일 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 구동장치에 의하여 패닝 및/또는 틸팅 회전하거나, 줌 렌즈를 줌-인 또는 줌-아웃 하여 줌 배율을 조정하면서, 다양한 영상을 획득할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 사무실, 주택, 병원은 물론 은행이나 보안이 요구되는 공공건물 등의 내외 또는 공원 등의 야외에 설치되며, 그 설치 장소 및 사용목적에 따라 일자형, 돔형 등 다양한 형태를 가질 수 있다. The camera group 10 may include at least one camera CAM1 to CAMn. The at least one camera CAM1 to CAMn may be a PTZ camera which is disposed at a fixed position at a specific place and has a pan / tilt / zoom function. The at least one camera CAM1 to CAMn may acquire various images while panning and / or tilting rotation by the driving device, or adjusting the zoom magnification by zooming in or zooming out the zoom lens. At least one camera (CAM1 to CAMn) is installed in the office, house, hospital, as well as the inside of the bank or public buildings requiring security, or outdoors such as parks. It may have a form.

적어도 하나의 카메라(CAM1 내지 CAMn)는 자신에게 할당된 영역을 감시하면서 객체를 탐지할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)에는 고유 식별 정보로서 ID가 부여될 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 정해진 영역을 촬영하여 획득된 영상을 영상 처리 장치(70) 및/또는 단말 그룹(50)의 적어도 하나의 단말(UE1 내지 UEn)로 출력할 수 있다. At least one camera CAM1 to CAMn may detect an object while monitoring an area allocated to it. At least one camera CAM1 to CAMn may be given an ID as unique identification information. The at least one camera CAM1 to CAMn may output an image obtained by photographing a predetermined region to at least one terminal UE1 to UEn of the image processing apparatus 70 and / or the terminal group 50.

디바이스 그룹(30)은 적어도 하나의 디바이스(DE1 내지 DEn)를 포함할 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 상이한 감지 데이터를 획득하는 다수의 이기종 센서들일 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 오디오 센서, 모션 센서, 지문 센서, 홍채 센서 등을 포함할 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 적어도 하나의 카메라(CAM1 내지 CAMn)와 페어를 이루는 상태로 설치될 수 있다. 그러나, 적어도 하나의 카메라(CAM1 내지 CAMn)가 모션 인식 및 추적 기능을 갖는 경우 적어도 하나의 디바이스(DE1 내지 DEn)는 독립적으로 설치될 수 있다. The device group 30 may include at least one device DE1 to DEn. At least one device DE1 to DEn may be a plurality of heterogeneous sensors that acquire different sense data. The at least one device DE1 to DEn may include an audio sensor, a motion sensor, a fingerprint sensor, an iris sensor, and the like. The at least one device DE1 to DEn may be installed in pairs with the at least one camera CAM1 to CAMn. However, when at least one camera CAM1 to CAMn has a motion recognition and tracking function, at least one device DE1 to DEn may be installed independently.

단말 그룹(50)은 적어도 하나의 사용자 단말(UE1 내지 UEn)을 포함할 수 있다. 적어도 하나의 사용자 단말(UE1 내지 UEn)은 고유 식별 정보로서 ID가 부여될 수 있다. ID는 얼굴, 음성, 지문, 홍채 등의 개인을 인증하는 생체 정보와 매핑될 수 있다. 적어도 하나의 사용자 단말(UE1 내지 UEn)은 각 사용자로부터의 입력을 수신하여 영상 처리 장치(70)로 전달하고, 영상 처리 장치(70)로부터 수신한 데이터를 화면에 표시할 수 있다.The terminal group 50 may include at least one user terminal UE1 to UEn. At least one user terminal UE1 to UEn may be assigned an ID as unique identification information. The ID may be mapped to biometric information that authenticates an individual such as a face, voice, fingerprint, iris, or the like. The at least one user terminal UE1 to UEn may receive an input from each user, transmit the input to the image processing apparatus 70, and display data received from the image processing apparatus 70 on the screen.

적어도 하나의 사용자 단말(UE1 내지 UEn)은 노트북, 핸드헬드 장치, 스마트폰, 탭 등의 모바일 단말, 데스크 탑 컴퓨터, 또는 이러한 장치를 이용하거나 직접적으로 또는 간접적으로 이와 연결된 임의의 적절한 장치일 수 있다. The at least one user terminal UE1-UEn can be a laptop terminal, a handheld device, a smartphone, a mobile terminal such as a tab, a desktop computer, or any suitable device using or directly or indirectly connected to such a device. .

영상 처리 장치(70)는 카메라 그룹(10) 및/또는 디바이스(DE1 내지 DEn) 그룹(30)으로 입력되는 영상 및 감지 데이터를 수신할 수 있다. 영상 처리 장치(70)는 본 발명의 실시예들에 따른 프라이버시 기능을 수행할 수 있다. 영상 처리 장치(70)는 수신한 영상 및 감지 데이터를 분석하고, 영상의 일부 또는 전부에 대한 블라인드 처리를 수행할 수 있다. 영상 처리 장치(70)는 수신한 영상 및 감지 데이터를 분석하고, 영상의 처리 방법을 결정할 수 있다. 영상 처리 장치(70)는 수신한 원본 영상 및/또는 블라인드 처리된 영상을 저장할 수 있다. 영상 처리 장치(70)는 사용자에게 설정된 보안 등급에 따라 원본 영상이 적어도 하나의 사용자 단말(UE1 내지 UEn)에 제공되지 않도록 할 수 있다. 영상 처리 장치(70)는 수신한 영상 및/또는 감지 데이터를 분석하고 이벤트를 검출할 수 있다. 영상 처리 장치(70)는 이벤트가 검출되면 적어도 하나의 단말(UE1 내지 UEn)에 알람을 제공할 수 있다.The image processing apparatus 70 may receive the image and the sensing data input to the camera group 10 and / or the device DE1 to DEn group 30. The image processing apparatus 70 may perform a privacy function according to embodiments of the present invention. The image processing apparatus 70 may analyze the received image and the sensed data and perform blind processing on part or all of the image. The image processing apparatus 70 may analyze the received image and the sensed data and determine a method of processing the image. The image processing apparatus 70 may store the received original image and / or blind image. The image processing apparatus 70 may prevent the original image from being provided to the at least one user terminal UE1 through UEn according to the security level set for the user. The image processing apparatus 70 may analyze the received image and / or sensing data and detect an event. The image processing apparatus 70 may provide an alarm to at least one terminal UE1 to UEn when an event is detected.

영상 처리 장치(70)는 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터 전화번호, 단말고유 ID, ID/패스워드, 생체 정보, 패턴 중 적어도 하나를 수신하고, 기 저장된 ID/패스워드, 생체 정보, 패턴과 비교하여 사용자를 인증할 수 있다. The image processing apparatus 70 receives at least one of a phone number, a terminal unique ID, ID / password, biometric information, and a pattern from at least one user terminal UE1 through UEn, and stores the previously stored ID / password, biometric information, and pattern. User can be authenticated as compared to

영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn) 및/또는 적어도 하나의 디바이스(DE1 내지 DEn)로부터 입력되는 생체 정보를 수신하고, 사용자를 식별할 수 있다. The image processing apparatus 70 may receive biometric information input from at least one camera CAM1 to CAMn and / or at least one device DE1 to DEn, and identify a user.

일 실시예에서, 영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn)에 내장된 마이크로 칩이나, 마이크로 칩을 구비하는 회로 보드로 구현될 수 있다. In one embodiment, the image processing apparatus 70 may be implemented as a microchip embedded in at least one camera CAM1 to CAMn, or a circuit board including the microchip.

다른 실시예에서, 영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn), 적어도 하나의 디바이스(DE1 내지 DEn) 및 적어도 하나의 사용자 단말(UE1 내지 UEn)과 통신 네트워크, 예를 들면, LAN, TCP/IP로 연결될 수 있다. 통신 네트워크는 유선 네트워크 및 3G, 4G(LTE), 5G, 와이파이(WiFi), 와이브로(Wibro), 와이맥스(Wimax) 등과 같은 무선 인터넷 및 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 근거리 통신을 포함하는 무선 네트워크를 포함할 수 있다. 영상 처리 장치(70)는 와이파이(Wi-Fi) 통신 방식 및/또는 LTE 통신 방식을 지원하는 무선 접속 장치, 게이트웨이 등의 중계 장치, 디지털 비디오 레코더(DVR: digital video recorder) 또는 네트워크 비디오 레코더(NVR: network video recorder) 등의 레코딩 장치, 인터넷 상에서 저장 기능을 제공하는 클라우드 컴퓨팅 장치 등일 수 있다. In another embodiment, the image processing apparatus 70 may be configured to communicate with at least one camera CAM1 through CAMn, at least one device DE1 through DEn, and at least one user terminal UE1 through UEn in a communication network, for example, Can be connected via LAN, TCP / IP. Communication networks include wired networks and wireless Internet such as 3G, 4G (LTE), 5G, Wi-Fi, Wibro, Wimax, Bluetooth, Radio Frequency Identification (RFID), Infrared Communication (IrDA) and a wireless network including near field communication such as an infrared data association (UWB), ultra wideband (UWB), ZigBee, and the like. The image processing device 70 may be a wireless access device, a relay device such as a gateway, a digital video recorder (DVR), or a network video recorder (NVR) that supports a Wi-Fi communication method and / or an LTE communication method. a recording device such as a network video recorder) or a cloud computing device providing a storage function on the Internet.

영상 처리 장치(70)를 구성하는 구성요소들 중 적어도 일부가 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈 중 적어도 하나 이상을 포함하는 소프트웨어나 회로들로 구현될 수 있다.At least some of the components constituting the image processing apparatus 70 may be implemented by software or circuits including at least one or more of an operating system, an application module, and other program modules.

도 2는 본 발명의 일 실시예에 따른 영상 처리 장치의 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 영상 처리 장치(70)는 통신부(701), 영상 분석부(702), 주변 정보 분석부(703), 객체 식별부(704), 저장부(705), 영상 처리부(706), 데이터 관리부(707)를 포함할 수 있다. Referring to FIG. 2, the image processing apparatus 70 may include a communication unit 701, an image analyzer 702, a peripheral information analyzer 703, an object identifier 704, a storage unit 705, and an image processor 706. ), And a data manager 707.

통신부(701)는 외부 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 통신부(701)는 카메라 그룹(10) 및 디바이스(DE1 내지 DEn) 그룹(30)과 데이터를 송수신하는 제1 통신 모듈 및 단말 그룹(50)과 데이터를 송수신하는 제2 통신 모듈을 포함할 수 있다. The communication unit 701 may be a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal through a wired or wireless connection with an external device, but the scope of the present invention is not limited thereto. The communication unit 701 may include a first communication module that transmits and receives data to and from the camera group 10 and the device groups DE1 to DEn 30, and a second communication module that transmits and receives data to and from the terminal group 50. .

제1 통신 모듈은 카메라 그룹(10)으로부터 영상을 수신하고, 디바이스 그룹(30)으로부터 감지 데이터를 수신할 수 있다. 감지 데이터는 디바이스의 전원 관련 정보, 디바이스의 동작, 상태 정보를 포함할 수 있다. 제1 통신 모듈은 카메라 모듈(10)으로부터 PTZ값을 포함하는 카메라 제어 신호를 전송할 수 있다. The first communication module may receive an image from the camera group 10 and receive sensing data from the device group 30. The sensing data may include power related information of the device, operation of the device, and state information. The first communication module may transmit a camera control signal including a PTZ value from the camera module 10.

제2 통신 모듈은 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터 사용자 인증 정보를 수신하고, 인증된 사용자로부터의 영상 요청 신호에 응답하여 실시간 영상 또는 저장된 영상을 전송할 수 있다. 제2 통신 모듈은 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터의 기능 실행 요청에 응답하여 프라이버시 기능 설정 메뉴를 제공하고, 설정 데이터를 수신할 수 있다. 제2 통신 모듈은 영상이 외부로 유출되는 것을 방지할 수 있다. 즉, 제2 통신 모듈은 영상 요청 신호가 수신되더라도 영상에 등록 객체가 출현하는 동안에는 영상이 외부로 전달되지 않도록 제어된다. 영상 요청 신호가 수신되더라도 영상에 등록 객체가 출현하는 동안에는 제2 통신 모듈은 비활성화될 수 있다. 또는 제2 통신 모듈이 비활성화되지 않고 영상에 설정된 전송 플래그에 따라 영상의 전송 여부를 결정할 수 있다. The second communication module may receive user authentication information from at least one user terminal UE1 to UEn and transmit a real time image or a stored image in response to an image request signal from an authenticated user. The second communication module may provide a privacy function setting menu and receive setting data in response to a function execution request from at least one user terminal UE1 to UEn. The second communication module may prevent the image from leaking to the outside. That is, even if the image request signal is received, the second communication module is controlled such that the image is not transmitted to the outside while the registration object appears in the image. Even when the image request signal is received, the second communication module may be deactivated while the registration object appears in the image. Alternatively, the second communication module may determine whether to transmit the image based on the transmission flag set in the image without being deactivated.

영상 분석부(702)는 카메라를 통해 획득된 영상을 분석하여, 영상에 포함되는 생체 정보를 인식할 수 있다. 영상 분석부(702)는 인식된 생체 정보를 이용하여 영상의 출현 객체를 식별할 수 있다. 생체 정보는 얼굴, 음성, 지원 및 홍채 중 적어도 하나를 포함할 수 있다. 등록된 객체는 다양한 방법으로 등록된 객체를 말하며, 모니터링 영역에 대해서 소유자, 책임자, 관리자 등의 소정의 권한을 가진 자 일 수 있다. 또한, 등록된 객체는 단말 그룹(50)의 단말을 소유 및 사용하는 사용자일 수 있다. 영상 분석부(702)는 촬영된 영상의 일부에 생체 정보가 감지되는 경우, 생체 정보를 인식, 식별, 감지할 수 있는 해상도로 조절할 수 있다. 영상 분석부(702)는 지문, 홍채와 같이 신체의 일부를 감지하는 경우, 생체 정보를 감지할 수 있는 정도로 촬영 영역, 해상도, 배율 등을 조절할 수 있다. 영상 분석부(702)는 촬영된 영상의 일부에 생체 정보가 감지되는 경우, 생체 정보를 인식, 식별, 조절된 촬영 영역, 해상도, 배율 등으로 촬영된 영상을 통해 사용자의 생체 정보를 감지할 수 있다. 영상 분석부(702)는 영상에 출현한 객체를 식별하여, 촬영 여부, 촬영된 영상의 외부 전송 여부, 촬영된 영상의 저장 여부, 촬영된 영상의 모자이크 처리 여부 등을 결정할 수 있다. 이때, 영상에 출현한 객체의 보안 등급 또는 접근 권한 등을 고려할 수 있다. 즉, 객체의 보안 등급 또는 접근 권한 등을 고려하여 촬영 여부, 촬영된 영상의 외부 전송 여부, 촬영된 영상의 저장 여부, 촬영된 영상의 모자이크 처리 여부 등을 결정할 수 있다. The image analyzer 702 may analyze the image acquired through the camera and recognize biometric information included in the image. The image analyzer 702 may identify the appearance object of the image by using the recognized biometric information. The biometric information may include at least one of face, voice, support, and iris. The registered object refers to an object registered in various ways, and may be a person who has a predetermined authority such as an owner, a responsible person, or an administrator with respect to the monitoring area. In addition, the registered object may be a user who owns and uses the terminal of the terminal group 50. When the biometric information is detected in a part of the captured image, the image analyzer 702 may adjust the biometric information to a resolution capable of recognizing, identifying, and detecting the biometric information. When the image analyzer 702 detects a part of the body such as a fingerprint or an iris, the image analyzer 702 may adjust a photographing area, a resolution, a magnification, and the like to detect biometric information. When the biometric information is detected in a part of the captured image, the image analyzer 702 may detect the biometric information of the user through the captured image by recognizing, identifying, and adjusting the captured region, resolution, and magnification. have. The image analyzer 702 may identify an object appearing in the image and determine whether to photograph the image, whether to transmit the captured image externally, whether to store the captured image, whether to process a mosaic of the captured image, and the like. In this case, the security level or the access authority of the object appearing in the image may be considered. That is, in consideration of the security level or the access authority of the object, it is possible to determine whether to take the picture, whether to transmit the picture outside, whether to save the picture, whether to process the mosaic of the picture.

영상 분석부(702)는 카메라를 통해 획득된 영상을 분석하여 이동 정보를 인식하고, 인식된 이동 정보와 기존 이동 정보의 비교를 통해 객체를 식별할 수 있다. 예를 들어, 제1 사용자의 이동 경로가 화장실, 주방, 안방의 순서로 설정된 경우, 화장실, 주방, 안방의 순서로 이동하는 객체가 제1 사용자와 동일하다고 판단할 수 있다. 영상 분석부(702)는 영상에 포함된 객체의 이동 경로를 통해 객체를 식별할 수 있다. 영상 분석부(702)는 영상에 포함된 객체의 이동 경로를 통해 등록된 객체와 미등록된 객체를 식별할 수 있다. 이동 정보는 객체의 움직임, 위치 변화를 포함할 수 있다. 이동 정보는 객체의 위치와 대응되는 지점(예, 현관, 부엌, 화장실 등)을 포함할 수 있다. 이때, 영상 분석부(702)는 이동 정보 뿐만 아니라, 사용자의 인상 착의 정보를 추가적으로 더 고려할 수 있다. 예를 들어, 화장실, 주방, 안방 순서로 이동하는 객체가 복수로 설정된 경우, 각 객체의 인상 착의 정보인 신장, 체구, 체형 등의 특징을 추가적으로 등록하여 각 객체를 식별하는데 이용할 수 있다. The image analyzer 702 may analyze the image acquired by the camera to recognize the movement information, and identify the object by comparing the recognized movement information with the existing movement information. For example, when the movement path of the first user is set in the order of the toilet, the kitchen and the main room, it may be determined that the object moving in the order of the toilet, the kitchen and the main room is the same as the first user. The image analyzer 702 may identify the object through the moving path of the object included in the image. The image analyzer 702 may identify the registered object and the unregistered object through the moving path of the object included in the image. The movement information may include movement of the object and change of position. The movement information may include a point (eg, a front door, a kitchen, a bathroom, etc.) corresponding to the location of the object. In this case, the image analyzer 702 may further consider not only the movement information but also the information on the impression of the user. For example, when a plurality of objects moving in the order of toilets, kitchens, and homes are set, a plurality of objects, such as height, body size, and body shape, which are impression information of each object, may be additionally registered to identify each object.

영상 분석부(702)는 영상을 분석하여 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. 여기서, 이벤트라 함은, 미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 미등록 목소리, 비정상적인 음원(예를 들어, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등) 발생, 임계값 이상의 음성 발생 등과 같이 사용자에 의해 설정된 이벤트를 포함할 수 있다. The image analyzer 702 may analyze the image and generate an event when the event occurrence condition is satisfied. Here, the event refers to the appearance of an unregistered object, the appearance of a face that cannot be recognized by a face, an unregistered voice, an abnormal sound source (for example, a glass cracking sound, an alarm sound, a collision sound, a shout, a scream, a cry, etc.), a threshold value. It may include an event set by a user, such as voice generation.

영상 분석부(702)는 영상 데이터의 분석 결과를 나타내는 메타 데이터를 생성하여 영상 데이터와 함께 처리할 수 있다. 영상 분석부(702)는 영상 데이터의 처리를 위해서 메타 데이터를 추가적으로 저장할 수 있다. 예를 들어, 제1 객체를 촬영한 영상은 제1 객체에 의해 등록된 미승인 객체에게는 전송, 공유되지 않을 수 있다. 제1 객체를 촬영한 영상 중에서, 특정 조건(샤워 장면, 자는 장면 등)을 만족하는 영상은 저장되지 않거나, 제1 객체가 포함된 영역이 표현되지 않도록 모자이크 처리할 수 있다. 메타 데이터는 텍스트(text) 기반의 메타 데이터 또는 영상(image) 기반의 메타 데이터를 포함할 수 있다. 메타 데이터는 영상 정보 및 이벤트 정보를 포함할 수 있다. 영상 정보는 영상 획득 시간, 영상 내 검출된 객체 정보를 포함할 수 있다. 이벤트 정보는 이벤트 유형, 이벤트 발생 영역, 이벤트 발생 시간 등을 포함할 수 있다. 본 발명의 실시예들은 이벤트 정보를 메타 데이터로 변환하고 영상 데이터와 함께 저장되도록 처리함으로써, 프라이버시를 위해서는 공유되지 않아야 하는 영상이 보안 등의 이유로 공개의 필요가 있는 경우라면, 원본 영상이 그대로 저장되고 다른 객체들과 공유되도록 처리할 수 있다. 이때, 출현 객체의 식별 정보 등으로 암호화함으로써, 출현 객체 만이 영상을 복호화하도록 처리할 수 있다. 주변 정보 분석부(703)는 주변에 인접하여 존재하고, 통신 기능을 가지며 전자 제품으로 기능하는 디바이스로부터 수신된 감지 데이터를 분석한다. 주변 정보 분석부(703)은 영상 촬영이 불가능한 경우, 또는 영상 촬영이 제한된 경우에 객체의 출현 및 출현된 객체를 식별하기 위해서, 전자 제품의 사용에 대한 감지 데이터(실행 여부, 실행 시점, 실행 동작 등)를 획득할 수 있다. 조명이 부재하여 객체의 식별가능한 촬영이 불가능한 경우, 사용자의 인위적인 촬영 장치의 방향 전환, 촬영 장치의 전원 제거 등의 경우에 주변 정보 분석부(703)는 촬영 영상이 없이 하나 이상의 디바이스로부터 수신한 감지 데이터를 이용하여 객체를 식별할 수 있다. 감지 데이터는 디바이스가 파워 온(power on)되는 시간, 디바이스의 현재 상태 정보(status), 디바이스가 파워 다운(power down)되는 시간을 포함할 수 있다. 주변 정보 분석부(703)는 적어도 하나의 디바이스로부터 수신된 감지 데이터들을 시간 순으로 리스팅하고 조합하여 객체의 이동 정보를 추론할 수 있다. 예를 들어, 제1 장치가 제1 시간에 파워 온 되고, 제2 장치가 제2 시간에 파워 온 된 것으로 감지된 경우, 출현 객체의 위치는 제1 장치의 인근에서 제2 장치의 인근으로 이동한 것이 된다. 출현 객체의 이동 정보가 제1 장치와 대응되는 제1 지점에서 제2 장치와 대응되는 제2 지점으로 이동하게 될 수 있다. 출현 객체의 이동 정보는 패턴화하여, 객체의 식별에 활용될 수 있다. 객체의 행동, 또는 이동 등은 객체 별로 정형화되는 점을 근거로 객체의 이동 정보를 이용하여 객체를 식별할 수 있다. The image analyzer 702 may generate metadata representing the analysis result of the image data and process the metadata together with the image data. The image analyzer 702 may additionally store metadata for processing image data. For example, the image photographing the first object may not be transmitted or shared to an unapproved object registered by the first object. Among the images photographing the first object, an image that satisfies a specific condition (a shower scene, a sleeping scene, etc.) may not be stored or may be mosaiced so that an area including the first object is not represented. The metadata may include text based metadata or image based metadata. The metadata may include image information and event information. The image information may include image acquisition time and object information detected in the image. The event information may include an event type, an event occurrence area, an event occurrence time, and the like. The embodiments of the present invention convert the event information into metadata and process the data to be stored together with the video data. If the video that should not be shared for privacy needs to be disclosed for security reasons, the original video is stored as it is. Can be shared with other objects. At this time, by encrypting with identification information of the appearance object, it is possible to process only the appearance object to decrypt the image. The peripheral information analyzer 703 analyzes the sensed data received from a device that is adjacent to the peripheral, has a communication function, and functions as an electronic product. The peripheral information analyzer 703 detects the appearance of the object and the detected object when the image capturing is impossible or when the image capturing is restricted. Etc.) can be obtained. If there is no illumination and an object is not identifiably photographed, the peripheral information analyzer 703 detects the received information from one or more devices without a photographed image in the case of a user's artificial reorientation of the photographing device or removal of power of the photographing device. You can use the data to identify the object. The sense data may include a time when the device is powered on, current status information of the device, and a time when the device is powered down. The peripheral information analyzer 703 may infer the movement information of the object by listing and combining the sensing data received from the at least one device in chronological order. For example, if the first device is powered on at the first time and the second device is detected to be powered on at the second time, the position of the appearance object moves from the vicinity of the first device to the neighborhood of the second device. It becomes one. The movement information of the appearance object may be moved from a first point corresponding to the first device to a second point corresponding to the second device. The movement information of the appearance object may be patterned and used for identification of the object. An object's behavior or movement can be identified using the object's movement information on the basis of being formalized for each object.

객체 식별부(704)는 영상 분석부(702), 및 주변 정보 분석부(703)을 통해 획득된 정보를 기초로 영상에 포함된 객체를 식별할 수 있다. 객체 식별부(704)는 생체 정보, 이동 정보를 기초로 객체를 식별할 수 있다. 객체 식별부(704)는 미리 저장된 생체 정보, 또는 미리 저장된 이동 정보와의 비교를 통해 객체를 식별하게 될 수 있다. The object identifier 704 may identify an object included in the image based on the information obtained through the image analyzer 702 and the surrounding information analyzer 703. The object identifier 704 may identify the object based on the biometric information and the movement information. The object identifier 704 may identify the object through comparison with previously stored biometric information or previously stored movement information.

객체 식별부(704)는 영상의 객체 출현 영역에 포함된 특징값들을 추출하고, 상기 특징값들을 기초로 출현된 객체를 식별할 수 있다. The object identifying unit 704 may extract feature values included in the object appearance area of the image, and identify an object that appears based on the feature values.

복수의 객체가 인식 또는 감지된 경우, 객체 식별부(704)는 획득된 생체 정보 및 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 통해 각 객체를 식별할 수 있다.When a plurality of objects are recognized or detected, the object identifier 704 may pair the obtained biometric information and the movement information, and identify each object through the paired biometric information and the movement information.

저장부(705)는 획득된 영상을 저장할 수 있다. 이때, 저장부(705)는 출현 객체와 관련된 정보를 이용하여 획득된 영상을 암호화 할 수 있다. 저장부(705)는 영상에 미등록 객체가 포함된 경우에는 영상을 획득된 그대로 저장할 수 있다. 저장부(705)는 영상에 등록 객체가 포함된 경우에는 영상을 저장하고, 별개의 영상을 편집하여 저장할 수 있다. The storage unit 705 may store the acquired image. In this case, the storage unit 705 may encrypt the obtained image by using information related to the appearance object. The storage unit 705 may store the image as it is when the unregistered object is included in the image. When the registration object is included in the image, the storage unit 705 may store the image, and edit and store a separate image.

영상 처리부(706)는 영상에 출현한 객체에 따라 영상을 처리할 수 있다. 영상 처리부(706)는 영상에 출현한 객체에 대한 식별 정보를 기초로 각 객체의 보안 등급을 검색하고, 객체의 보안 등급을 고려하여 객체를 촬영한 영상을 처리할 수 있다. 객체의 보안 등급은 모니터링 영역과 관련하여 등록된 객체인지 여부로 결정될 수 있다. 예를 들어, ‘우리집’에 대해서, 우리 가족인 엄마, 아빠, 자녀 등은 등록된 객체로 보안 등급이 높게 설정될 수 있다. 등록되지 않은 객체는 보안 등급이 0 또는 -1과 같이 최저값으로 설정될 수 있다. 또한, 등록된 객체라고 하더라도, 모니터링 영역 내에서의 역할에 따라서 각 객체의 보안 등급은 다르게 설정될 수 있다. 예를 들어, ‘회사’에 대해서, 회사 내의 직급의 순서로, 즉, 사장, 상무, 부장, 차장, 과장 순서로 보안 등급은 낮게 설정될 수 있다. 객체의 보안 등급에 따라 객체를 촬영한 영상은 다르게 처리될 수 있다. The image processor 706 may process an image according to an object appearing in the image. The image processor 706 may search for the security level of each object based on the identification information of the object appearing in the image, and process the image photographing the object in consideration of the security level of the object. The security level of the object may be determined by whether the object is registered in relation to the monitoring area. For example, for 'our house', my family, mom, dad, and children, can be set to a high security level as a registered object. Unregistered objects can be set to the lowest security level, such as 0 or -1. In addition, even in the registered object, the security level of each object may be set differently according to the role in the monitoring area. For example, for the 'company', the security level may be set lower in the order of positions within the company, that is, in the order of the president, the managing director, the manager, the deputy manager, and the manager. The image of the object may be processed differently according to the security level of the object.

보안 등급이 ‘5’로 설정된 객체가 출현한 영상은 ‘5’ 미만의 보안 등급의 객체에게는 공유되지 않도록 처리할 수 있다. 보안 등급이 최고 값으로 설정된 객체가 출현한 영상은 해당 객체와 관련되어 등록된 관리자 단말기로만 공유될 수 있다. 선택적으로, 영상 처리부(706)는 출현 객체의 보안 등급과 무관하게 위험 상황 등의 이벤트가 발생되는 것으로 판단되는 경우에는, 객체 영상이 등록 객체에게 모두 공유되도록 처리할 수 있다. An image in which an object whose security level is set to '5' appears may be processed so as not to be shared with an object having a security level lower than '5'. An image in which an object whose security level is set to the highest value appears may be shared only with a manager terminal registered in association with the object. Optionally, when it is determined that an event such as a dangerous situation occurs, regardless of the security level of the appearance object, the image processing unit 706 may process all the object images to be shared with the registered object.

다른 실시예에서, 영상 처리부(706)는 실시간으로 수신된 신호에 따라 전달되어야 하는 영상을 처리할 수 있다. In another embodiment, the image processor 706 may process an image to be transmitted according to a signal received in real time.

객체의 보안 등급 이외에도, 영상 처리부(706)는 영상 및 감지 데이터를 기초로 촬영 영상이 비활성 조건을 만족하는지 여부를 판단하고, 비활성 조건을 만족하는 경우, 영상의 일부 영역을 식별하기 어렵게 처리하거나, 통신부 등의 구성 요소 일부의 기능을 비활성화시킬 수 있다. 여기서, 비활성 조건은 객체의 보안 등급 이외의 공간 및 행동, 시간 구간 등으로 설정되는 것 일 수 있다. 예를 들어, ‘안방의 침대’와 대응되는 구역은 수면 시간 동안에 비활성 조건으로 등록될 수 있고, ‘안방의 침대’와 대응되는 구역은 수면 시간 동안에 촬영 영상은 일부 영역을 식별하기 어렵게 처리하거나 외부로의 전송 기능이 비활성화 될 수 있다. In addition to the security level of the object, the image processor 706 determines whether the captured image satisfies the inactive condition based on the image and the sensed data, and when the inactive condition is satisfied, it is difficult to identify a partial region of the image, The function of some components such as the communication unit can be deactivated. In this case, the inactive condition may be set to a space, an action, a time interval, etc., other than the security level of the object. For example, an area corresponding to the 'bed of bed' may be registered as inactive during sleep time, and an area corresponding to the 'bed of the bed' may be difficult to identify some areas during sleep time, The transmission to the network may be deactivated.

영상 처리부(706)는 객체의 보안 등급, 영상에 출현된 객체 등을 기초로 출현 객체가 비활성 조건을 만족하는지 여부를 판단하고, 출현 객체가 비활성 조건을 만족하는 경우, 영상의 일부 영역을 식별하기 어렵게 처리하고, 영상을 전달한다. 영상 처리부(706)는 등록 객체의 출현에 따라 영상의 전송 자체가 차단 또는 비활성화 되도록 제어할 수 있다. 전송이 차단된다고 하더라도, 촬영된 영상은 저장부에 저장될 수 있다. 사후적으로, 특정 승인을 통해 원본 영상은 그대로 공개, 공유될 수 있다. The image processor 706 determines whether the appearance object satisfies the inactive condition based on the security level of the object, the object appearing in the image, and identifies a partial region of the image when the appearance object satisfies the inactive condition. Difficult to process and deliver images. The image processor 706 may control the transmission of the image to be blocked or inactivated according to the appearance of the registration object. Even if the transmission is blocked, the captured image may be stored in the storage unit. Afterwards, the original video can be publicly shared and shared with specific approval.

등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 영상에 포함된 제1 출현 영역에 시각적 이펙트(그래픽 인터페이스 등)를 마스킹할 수 있다. 마스킹한다는 것은 영상 위에 이펙트를 추가하는 것으로, 대응 픽셀 값들에 다른 값들이 마스킹될 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 단말로부터의 요청에 응답하여 영상을 전송하지 않을 수 있으며, 출현 객체의 보안 등급 보다 높은 보안 등급을 가진 단말로부터의 요청에 응답하여 영상을 전송할 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 영상 자체를 저장하지 않을 수 있다. 등록 객체에 의해 미리 입력된 지시대로 촬영된 영상이 처리될 수 있다. When the appearance of the registered object is detected or satisfies an inactive condition, or when the security level of the object is greater than or equal to a preset threshold level, the image processor 706 may mask a visual effect (graphic interface, etc.) on the first appearance area included in the image. Can be. Masking adds an effect over the image, where other values may be masked to corresponding pixel values. When the appearance of a registered object is detected or satisfies an inactive condition, or when the security level of the object is equal to or greater than a preset threshold level, the image processing unit 706 may not transmit an image in response to a request from the terminal. An image may be transmitted in response to a request from a terminal having a higher security level. If the appearance of the registered object is detected or satisfies an inactive condition, or the security level of the object is greater than or equal to a preset threshold level, the image processor 706 may not store the image itself. The captured image may be processed according to an instruction previously input by the registration object.

영상 처리부(706)은 영상에 출현한 객체들이 복수인 경우, 각 객체의 출현 영역을 상이하게 처리할 수 있다. 예를 들어, 보안 등급이 다른 객체들이 감지되거나 또는 등록 객체 및 미등록 객체의 출현이 모두 감지된 동안에는 영상 처리부(706)는 영상에 포함된 등록 객체(보안 등급이 임계 등급 보다 높은 객체)의 제2 출현 영역을 검출하고, 상기 제2 출현 영역에 시각적 이펙트를 마스킹(masking)하거나, 미등록 객체(보안 등급이 임계 등급 보다 낮은 객체)의 제3 출현 영역을 검출하고, 상기 제3 출현 영역을 제외한 나머지 영역에 시각적 이펙트를 마스킹(masking)할 수 있다. When there are a plurality of objects appearing in the image, the image processor 706 may process the appearance area of each object differently. For example, while objects with different security levels are detected, or both the presence of a registered object and an unregistered object are detected, the image processor 706 may perform a second operation on a registered object (an object whose security level is higher than a threshold level) included in the image. Detecting an appearance area, masking a visual effect on the second appearance area, or detecting a third appearance area of an unregistered object (an object having a security level lower than a threshold level), except for the third appearance area. You can mask visual effects on the area.

등록 객체의 출현이 감지되거나 비활성 조건이 감지되는 경우, 또는 보안 등급이 임계 등급 이상의 객체의 출현이 감지되는 동안에는 영상 처리부(706)는 영상에 포함된 등록 객체(보안 등급이 임계 등급 보다 높은 객체)의 출현 영역에 시각적 이펙트를 포함시키는 것이 원칙이나 예외적으로 촬영이 필요한 위험 상황 등의 이벤트가 감지되게 되면 상기 시각적 이펙트를 제거한 원본 영상을 그대로 저장할 수 있다. When an appearance of a registered object is detected or an inactive condition is detected, or while an appearance of an object having a security level of more than a critical level is detected, the image processor 706 may register a registered object (an object having a security level higher than the critical level) included in the image. It is a principle to include a visual effect in the appearance area of, but when an event such as a dangerous situation that requires exceptional shooting is detected, the original image from which the visual effect is removed may be stored as it is.

이벤트가 감지되는 경우에는 영상 처리부(706)는 이벤트의 감지에 응답하여 출현 객체 별로 등록된 관리자 단말로 위험 메시지를 전송할 수 있다. 이벤트가 감지된 시점으로부터 소정의 시간 간격 동안의 영상이 관리자 단말로 전송하도록 제어할 수 있다. When an event is detected, the image processor 706 may transmit a risk message to the manager terminal registered for each appearance object in response to the detection of the event. The image may be controlled to be transmitted to the manager terminal for a predetermined time interval from the time when the event is detected.

영상 처리부(706)는 정해진 촬영 중단 신호에 따라 촬영을 중단시킬 수 있다. 영상 처리부(706)는 객체의 음성, 객체의 행동, 특정 텍스트 입력에 따라 촬영을 중단 시킬 수 있다. The image processor 706 may stop shooting according to the determined stop shooting signal. The image processor 706 may stop shooting according to the voice of the object, the behavior of the object, or a specific text input.

데이터 관리부(707)는 과거 시점의 영상을 관리할 수 있다. 데이터 관리부(707)는 영상을 요청하는 신호에 응답하여 제1 시간 구간에 촬영된 영상을 단말로 전송할 수 있다. 이때, 전송 여부는 단말에게 부여된 보안 등급에 따라 결정될 수 있다. 이때 전송되는 영상은 단말에게 부여된 보안 등급에 따라 상이할 수 있다. 보안 등급이 출현 객체의 보안 등급보다 낮은 경우, 식별이 어렵도록 영상 처리부(706)에 의해 처리된 영상이 수신될 수 있다. 보안 등급이 출현 객체의 보안 등급보다 높은 경우, 원본 영상이 수신될 수 있다. The data manager 707 may manage images of past viewpoints. The data manager 707 may transmit the image photographed in the first time interval to the terminal in response to the signal requesting the image. In this case, transmission may be determined according to a security level granted to the terminal. In this case, the transmitted image may be different according to the security level granted to the terminal. When the security level is lower than the security level of the appearance object, an image processed by the image processor 706 may be received so that identification is difficult. If the security level is higher than that of the appearance object, the original image may be received.

객체의 출현 영역은 객체의 자세 등에 따라 다를 수 있다. 객체가 서 있는 경우 및 객체가 앉아 있는 경우 사이의 객체의 출현 영역은 달라지게 된다. The appearance area of the object may vary depending on the posture of the object. The appearance area of the object is different between when the object is standing and when the object is sitting.

다른 실시예에서, 영상 처리 장치는 사용자의 모션, 제스처, 음성, 얼굴 등의 특징 검출에 의해 사용자를 검출하고, 식별할 수 있다. 영상 처리 장치는 식별된 사용자에 의해 지정된 영역(침실, 화장실 등)에 해당 사용자가 출현하면 자동으로 영상의 전송을 제한할 수 있다. In another embodiment, the image processing apparatus may detect and identify the user by detecting features of the user such as motion, gesture, voice, and face. The image processing apparatus may automatically limit the transmission of an image when the corresponding user appears in an area (bedroom, bathroom, etc.) designated by the identified user.

영상 처리 장치는 사용자가 모니터링 영역에서 소정 시간 동안 카메라를 응시하면 저장된 얼굴과 비교를 통해 사용자를 식별할 수 있다. 영상 처리 장치는 식별된 사용자가 설정한대로 영상을 처리하거나 영상의 전송을 제한할 수 있다. If the user gazes at the camera for a predetermined time in the monitoring area, the image processing apparatus may identify the user through comparison with the stored face. The image processing apparatus may process the image or limit the transmission of the image as set by the identified user.

본 발명의 실시예들에 따른 영상 처리 장치는 모니터링 영역에 발생된 출현 객체의 변화, 상황의 변화 등을 동적으로 감지하고, 감지된 결과에 따라 촬영 영상을 처리함으로써, 공개 또는 공유의 필요성이 낮거나 개인의 프라이버시를 침해하는 영상이 그대로 공개되는 것을 방지할 수 있다. 도 3 내지 도 5는 본 발명의 실시예들에 따른 영상 처리 방법의 흐름도들이다. The image processing apparatus according to the embodiments of the present invention dynamically detects a change in an appearance object, a change in a situation, and the like generated in the monitoring area, and processes a photographed image according to the detected result, thereby requiring low disclosure or sharing. Or infringing an individual's privacy can be prevented from being released. 3 to 5 are flowcharts of an image processing method according to embodiments of the present invention.

도 3를 참조하면, 영상 처리 방법은 영상 및 감지 데이터를 획득하는 단계(S110), 제1 영상을 분석하는 단계(S120), 감지 데이터를 분석하는 단계(S130), 제1 객체를 식별하는 단계(S140), 제1 영상을 처리하는 단계(S150)를 포함할 수 있다. Referring to FIG. 3, the image processing method may include obtaining an image and sensing data (S110), analyzing a first image (S120), analyzing a sensing data (S130), and identifying a first object. In operation S140, the method may include processing a first image in operation S150.

S110에서는 영상 처리 장치는 카메라로부터 모니터링 영역을 촬영한 제1 영상을 획득한다. 영상 처리 장치는 주변에 위치한 적어도 하나의 디바이스로부터 감지 데이터를 획득한다. In S110, the image processing apparatus obtains a first image of photographing a monitoring area from a camera. The image processing apparatus obtains sensing data from at least one device located in the vicinity.

S120에서는 영상 처리 장치는 제1 영상을 분석한다. In operation S120, the image processing apparatus analyzes the first image.

영상 처리 장치는 영상을 분석하여 생체 정보를 인식할 수도 있다. 영상 처리 장치는 인식된 생체 정보를 이용하여 영상에 출현한 객체를 식별할 수 있다. 영상 처리 장치는 영상을 분석하여 이동 정보를 인식하고 인식된 이동 정보와 기존 이동 정보의 비교를 통해 객체를 식별할 수 있다. 영상 처리 장치는 영상을 분석하여 미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 미등록 음성, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등의 발생, 임계값 이상의 음성 발생 등의 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. 영상 처리 장치는 영상 데이터의 분석 결과를 나타내는 메타 데이터를 생성할 수 있다. The image processing apparatus may recognize the biometric information by analyzing the image. The image processing apparatus may identify the object appearing in the image by using the recognized biometric information. The image processing apparatus may recognize the moving information by analyzing the image and identify the object by comparing the recognized moving information with the existing moving information. The image processing apparatus analyzes the image to detect events such as the appearance of an unregistered object, the appearance of a face that cannot be recognized, an unregistered voice, a glass cracking sound, an alarm sound, a collision sound, a shout, a scream, a crying sound, or a voice over a threshold An event can be generated when the occurrence condition is satisfied. The image processing apparatus may generate metadata representing the analysis result of the image data.

S130에서는 영상 처리 장치는 주변에 인접하여 존재하고, 통신 기능을 가지며 전자 제품으로 기능하는 적어도 하나의 디바이스로부터 수신된 감지 데이터를 분석할 수 있다. 영상 처리 장치는 영상 촬영이 불가능한 경우, 영상 촬영이 제한된 경우에 객체의 출현 및 출현된 객체를 식별하기 위해서, 전자 제품의 사용과 관련된 감지 데이터를 요청하여 획득할 수 있다. 영상 처리 장치는 적어도 하나의 디바이스로부터 수신된 감지 데이터들을 조합하여 객체의 이동 정보를 추론할 수 있다. In operation S130, the image processing apparatus may analyze sensing data received from at least one device that is adjacent to the periphery, has a communication function, and functions as an electronic product. When image capturing is impossible, the image processing apparatus may request and acquire sensing data related to the use of an electronic product in order to identify the appearance of the object and the emerged object when the image capturing is limited. The image processing apparatus may infer movement information of the object by combining the sensing data received from the at least one device.

S140에서는 영상 처리 장치는 제1 영상 또는 감지 데이터를 분석한 결과를 이용하여 제1 객체를 식별할 수 있다. 영상 처리 장치는 획득된 생체 정보 및 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 통해 각 객체를 식별할 수 있다. 예를 들어, 획득된 제1 생체 정보와 대응되는 객체의 이동 정보가 화장실, 부엌, 거실로 이어지는 경우, 이동 정보와 대응되는 객체를 검색하고, 검색된 객체가 상기 제1 생체 정보와 매칭되는지 여부를 산출함으로써, 영상 처리 장치는 객체를 식별할 수 있다. In operation S140, the image processing apparatus may identify the first object by using the result of analyzing the first image or the sensing data. The image processing apparatus may pair the obtained biometric information and the movement information, and identify each object through the paired biometric information and the movement information. For example, when the movement information of the object corresponding to the obtained first biometric information leads to a bathroom, a kitchen, or a living room, an object corresponding to the movement information is searched for, and whether the retrieved object matches the first biometric information. By calculating, the image processing apparatus may identify the object.

S150에서는 영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 소정의 영역에 시각적 이펙트를 포함시키거나, 제1 영상을 삭제할 수 있다. In operation S150, the image processing apparatus may include a visual effect in a predetermined area of the first image or delete the first image by using the identified result.

영상 처리 장치는 영상에 출현한 객체에 대한 식별 정보를 기초로 각 객체의 보안 등급을 검색하고 객체의 보안 등급을 고려하여 객체를 촬영한 영상을 처리할 수 있다. 객체의 보안 등급은 모니터링 영역과 관련하여 등록된 객체인지 여부로 결정될 수 있다. The image processing apparatus may search for the security level of each object based on the identification information of the object appearing in the image and process the image photographing the object in consideration of the security level of the object. The security level of the object may be determined by whether the object is registered in relation to the monitoring area.

영상 처리 장치는 영상에 출현한 객체의 보안 등급 및 영상에 비활성 조건의 발생 여부 등을 기초로 영상의 일부 영역을 식별하기 어렵게 처리할 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리 장치는 영상에 포함된 제1 출현 영역에 시각적 이펙트를 마스킹할 수 있다.The image processing apparatus may make it difficult to identify a partial region of the image based on a security level of an object appearing in the image and whether an inactive condition occurs in the image. When the appearance of the registered object is detected or satisfies an inactive condition or the security level of the object is equal to or greater than a preset threshold level, the image processing apparatus may mask a visual effect on the first appearance area included in the image.

추가적으로, 영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 저장 영역을 결정할 수 있다. 등록 객체가 출현된 영상은 전기적으로 연결된 저장부(705)에 저장할 수 있다. In addition, the image processing apparatus may determine the storage area of the first image by using the identified result. The image in which the registration object appears may be stored in the storage unit 705 electrically connected.

영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 전송 플래그를 설정할 수 있다. 영상 처리 장치는 영상의 전송 플래그에 따라 영상의 전송 여부를 결정할 수 있다. The image processing apparatus may set a transmission flag of the first image by using the identified result. The image processing apparatus may determine whether to transmit the image based on the transmission flag of the image.

도 4를 참조하면, 영상 처리 방법은 단말로부터 영상 요청 신호를 수신하는 단계(S210), 단말의 액세스 권한이 있는지 여부를 판단하는 단계(220), 단말에게 영상을 전달하는 단계(S230)를 포함한다. Referring to FIG. 4, the image processing method includes receiving an image request signal from a terminal (S210), determining whether the terminal has access authority (220), and transmitting an image to the terminal (S230). do.

S210에서는 영상 처리 장치는 제1 단말로부터 영상 요청 신호를 수신할 수 있다. S220에서는 영상 처리 장치는 제1 단말에게 부여된 액세스 권한이 있는지 여부를 판단한다. 만약 제1 단말에게 부여된 액세스 권한이 있다면, 영상 처리 장치는 제1 단말에게 영상 요청 신호에 의해 지정된 영상을 전달할 수 있다. 액세스 권한은 절대적으로 설정되기도 하지만, 등록 객체에 의해 설정된 규칙에 따라 상대적으로 설정될 수 있다. 즉, 등록 객체는 자신이 출현한 영상에 대해서는 제한적으로 전송되도록 액세스 권한을 상대적으로 설정할 수 있다. 액세스 권한을 가지는 사용자의 단말은 영상에 출현된 객체에 따라 영상을 수신받지 못할 수 있다. In S210, the image processing apparatus may receive an image request signal from the first terminal. In operation S220, the image processing apparatus determines whether there is an access right granted to the first terminal. If there is an access right granted to the first terminal, the image processing apparatus may transmit the image designated by the image request signal to the first terminal. Access rights may be set absolutely, but may be set relatively according to rules set by the registration object. That is, the registration object may relatively set an access right so that the registered object is limitedly transmitted to the image in which the registered object appears. A terminal of a user having access authority may not receive an image according to an object appearing in the image.

다른 실시예에서, 제1 단말에게 부여된 액세스 권한이 없는 경우에도, 영상 처리 장치는 제1 단말에게 부여된 액세스 권한 뿐만 아니라 제1 단말과 영상에 출현된 객체 사이의 매칭 여부를 판단하고, 제1 단말과 출현된 객체 사이의 매칭도가 기 설정된 매칭도 이상인 것으로 판단되는 경우, 제1 단말에게 영상을 제공할 수 있다. 영상에 출현된 객체는 등록 객체 또는 미등록 객체 일 수 있다. 액세스 권한은 객체의 보안 등급을 기초로 판단될 수 있다. 예를 들어, 사용자의 보안 등급이 임계 등급 이상이거나, 출현 객체의 보안 등급 보다 높은 경우, 사용자에게 액세스 권한이 있다고 판단될 수 있다. In another embodiment, even when there is no access right granted to the first terminal, the image processing apparatus determines not only the access right granted to the first terminal, but also a match between the first terminal and an object appearing in the image. When it is determined that the matching degree between the first terminal and the appeared object is equal to or greater than the preset matching degree, an image may be provided to the first terminal. The object appearing in the image may be a registered object or an unregistered object. The access right may be determined based on the security level of the object. For example, if the security level of the user is above the threshold level or higher than the security level of the appearance object, it may be determined that the user has access.

영상 처리 장치는 액세스 권한이 없는 단말로부터의 영상 요청 신호가 수신되면, 영상 요청 신호의 응답으로 영상을 전달하지 않는다. The image processing apparatus does not transmit an image in response to the image request signal when an image request signal is received from a terminal without access authority.

도 5를 참조하면, 영상 처리 방법은 제2 단말로부터 영상 요청 신호를 수신하는 단계(S310), 영상에 등록 객체가 있는지 여부를 판단하는 단계(S320), 영상을 그대로 전달하는 단계(S321), 영상이 미등록 객체가 있는지 여부를 판단하는 단계(S330), 제2 단말의 액세스 권한에 따라 영상을 처리하여 전달하는 단계(S331), 영상이 이벤트 발생 조건을 만족하는지 여부를 판단하는 단계(S340), 영상을 그대로 전달하는 단계(S341)을 포함할 수 있다. Referring to FIG. 5, the image processing method may include receiving an image request signal from a second terminal (S310), determining whether a registration object exists in the image (S320), transferring the image as it is (S321), Determining whether the image has an unregistered object (S330), Processing and transmitting the image according to the access authority of the second terminal (S331), Determining whether the image satisfies an event occurrence condition (S340) The method may include transmitting the image as it is (S341).

S310에서는 영상 처리 장치는 제2 단말로부터 영상 요청 신호를 수신한다. 이때, 영상 요청 신호는 실시간으로 촬영된 영상이 아닌 과거의 촬영 영상에 대한 지정 정보를 포함할 수 있다. S320에서는 영상 처리 장치는 영상 요청 신호와 대응되는 영상에 등록 객체가 포함하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상에 출현된 객체 중에서, 등록 객체가 있는지 여부를 결정할 수 있다. S321에서는 만약 영상에 등록 객체가 포함되어 있지 않다면, 영상 처리 장치는 영상 요청 신호의 응답으로 영상을 그대로 전달할 수 있다. 등록 객체가 출현하는 동안에는 영상 처리 장치는 촬영 영상In operation S310, the image processing apparatus receives an image request signal from the second terminal. In this case, the image request signal may include designation information about a past photographed image, not an image captured in real time. In operation S320, the image processing apparatus determines whether a registration object is included in an image corresponding to the image request signal. The image processing apparatus may determine whether there is a registered object among the objects appearing in the image by analyzing metadata associated with the corresponding image. In operation S321, if the registration object is not included in the image, the image processing apparatus may transfer the image as it is in response to the image request signal. While the registered object is present, the image processing apparatus may capture a captured image.

S330에서는 영상 처리 장치는 영상에 미등록 객체가 포함하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상에 출현된 객체 중에서 미등록 객체가 있는지 여부를 결정할 수 있다. S331에서는 영상 처리 장치는 단말의 액세스 권한에 따라 영상을 처리하여 전달할 수 있다. 영상 처리 장치는 영상에 등록 객체 및 미등록 객체를 모두 포함하는 경우에는 등록 객체의 출현 영역 및 미등록 객체의 출현 영역을 다르게 편집하고, 편집한 영상을 미등록 객체의 처리 방식과 동일하게 처리할 수 있다. 미등록 객체의 출현 영역은 선명하게 보이도록 편집되고, 등록 객체의 출현 영역은 다른 이미지를 덧붙이거나 블러, 모자이크 처리 될 수 있다. 미등록 객체는 감시의 대상이 되는 객체로 볼 수 있으며, 미등록 객체가 출현한 경우에는 모니터링 영역의 촬영이 강화되도록 처리할 수 있다. In operation S330, the image processing apparatus determines whether an unregistered object is included in the image. The image processing apparatus may determine whether there is an unregistered object among the objects appearing in the image by analyzing metadata associated with the corresponding image. In operation S331, the image processing apparatus may process and transmit an image according to an access right of the terminal. When the image processing apparatus includes both the registered object and the unregistered object, the image processing apparatus may edit the appearance area of the registered object and the appearance area of the unregistered object differently, and process the edited image in the same manner as the processing method of the unregistered object. The appearance area of the unregistered object is edited to be clearly visible, and the appearance area of the registered object can be added, blurred or mosaic other images. The unregistered object may be viewed as an object to be monitored, and when an unregistered object appears, the unregistered object may be processed to enhance the shooting of the monitoring area.

S340에서는 영상 처리 장치는 영상이 이벤트 발생 조건(미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 비정상적인 음원, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등의 발생, 임계값 이상의 음성 발생)을 만족하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상이 이벤트 발생 조건을 만족하는지 여부를 판단할 수 있다. 영상 처리 장치는 영상이 이벤트 발생 조건을 만족하는 경우에는 영상에 등록 객체가 포함되어 있다고 하더라도, 영상을 그대로 전달할 수 있다. 위험 상황을 포함하는 영상은 그대로 전달되도록 제어할 수 있다. In S340, the image processing apparatus may determine that the image is an event occurrence condition (appearance of an unregistered object, appearance of a face that cannot be recognized by a face, abnormal sound source, glass cracking sound, alarm sound, collision sound, shouting, screaming, crying, etc., voice over a threshold value. Occurrence). The image processing apparatus may determine whether the image satisfies an event occurrence condition by analyzing metadata associated with the corresponding image. If the image satisfies the event occurrence condition, the image processing apparatus may deliver the image as it is even if the image includes a registration object. Images including dangerous situations can be controlled to be delivered as they are.

도 6a 및 도 6b는 객체의 출현 영역에 대해서 이펙트를 추가한 실시예들에 대한 것이다. 6A and 6B illustrate embodiments in which an effect is added to an appearance area of an object.

본 발명의 실시예에 따른 영상 처리 장치는 등록 객체에 의해 설정된 방법으로 등록 객체의 출현 영역을 편집할 수 있다. 이때, 등록 객체의 출현 영역이 명확하게 드러나지 않도록 기 설정된 이미지(601)로 표현할 수 있다. 설정된 이미지(601)는 등록 객체에 대한 기본적인 정보를 포함하도록 구성될 수 있다. The image processing apparatus according to the embodiment of the present invention may edit the appearance area of the registration object in a manner set by the registration object. In this case, it may be expressed as a preset image 601 so that the appearance area of the registration object is not clearly revealed. The set image 601 may be configured to include basic information about the registration object.

영상 처리 장치는 등록 객체의 출현 영역의 모양을 등록 객체의 자세에 따라 변경할 수 있다. 영상 처리 장치는 등록 객체의 출현 영역을 포함하는 다양한 도형(602)으로 표현할 수 있다. The image processing apparatus may change the shape of the appearance area of the registration object according to the posture of the registration object. The image processing apparatus may be represented by various figures 602 including an appearance area of a registration object.

도 7a 및 도 7b는 영상 처리 장치에 의해 제공되는 얼굴 인식 기능을 설명하기 위한 도면이다. 7A and 7B are diagrams for describing a face recognition function provided by an image processing apparatus.

본 발명의 실시예에 따른 영상 처리 장치는 단말 그룹에 얼굴 인식 기능을 제공할 수 있다. 등록 객체는 미리 자신의 얼굴을 등록하는 절차를 수행할 수 있다. 도 7a에 도시된 바와 같이 단말을 통해 등록 객체를 촬영하는 기능이 제공된다. 등록 객체의 얼굴은 단말에 포함된 카메라를 통해 획득되며, 미리보기 영역(701)을 통해 제공될 수 있다. 촬영된 이미지에 대해서 저장하기(702) 또는 취소하기(703)의 아이콘이 제공된다. An image processing apparatus according to an embodiment of the present invention may provide a face recognition function to a terminal group. The registration object may perform a procedure of registering its own face in advance. As shown in FIG. 7A, a function of photographing a registration object through a terminal is provided. The face of the registration object may be obtained through a camera included in the terminal, and may be provided through the preview area 701. An icon for saving (702) or canceling (703) for the captured image is provided.

도 8은 영상 처리 장치에 의해 제공되는 영역 설정 기능을 설명하기 위한 도면이다. 8 is a diagram for describing a region setting function provided by an image processing apparatus.

본 발명의 실시예들에 따른 영상 처리 장치는 모니터링 영역의 특정 영역을 프라이버시 영역으로 설정할 수 있다. 프라이버시 영역으로 설정된 영역에 대해서는 항상 이펙트를 추가해서 제공하도록 구현될 수 있다. The image processing apparatus according to the embodiments of the present invention may set a specific area of the monitoring area as a privacy area. The area set as the privacy area may be implemented to always provide an effect.

영역 설정 기능은 등록 객체에 의해서만 실행되며, 등록 객체는 구체적인 동작이 노출되지 않도록, 제1 구역(801), 제2 구역(802)를 프라이버시 영역으로 설정할 수 있다. 영상 처리 장치는 상기 설정에 따라 등록 객체가 출현되는 동안에는 제1 구역(801) 및 제2 구역(802)를 블러처리, 모자이크 처리, 이펙트 추가 등과 같이 불명확하게 표현할 수 있다. 미등록 객체 또는 다른 등록 객체가 출현되는 동안에는 영상 처리 장치는 제1 구역(801) 및 제2 구역(802)에 대해서 아무런 처리를 하지 않게 된다. 각 등록 객체는 자신의 모습이 공개되지 않도록 설정되는 프라이버시 영역을 미리 등록할 수 있다. 제1 등록 객체에 의해 설정된 프라이버시 영역에서는 제1 등록 객체의 모습은 다양한 방법으로 처리되어 표현될 수 있다. 그러나, 이벤트 발생 조건을 만족하는 이벤트가 감지되면 모니터링 기능을 강화하기 위해서 영상 처리 장치는 등록 객체에 의해 설정된 프라이버시 영역에 대한 처리를 제거할 수 있다. The zone setting function is executed only by the registration object, and the registration object may set the first zone 801 and the second zone 802 as privacy zones so that specific operations are not exposed. The image processing apparatus may unambiguously express the first zone 801 and the second zone 802 such as blurring, mosaicing, and adding effects while the registered object is present according to the setting. While the unregistered object or another registered object is present, the image processing apparatus does not perform any processing on the first zone 801 and the second zone 802. Each registration object may register in advance a privacy area in which its appearance is not disclosed. In the privacy area set by the first registration object, the appearance of the first registration object may be processed and expressed in various ways. However, when an event meeting the event occurrence condition is detected, the image processing apparatus may remove the processing for the privacy area set by the registration object in order to enhance the monitoring function.

(메타 데이터 및 영상 데이터 사이의 상관 관계 위주로 작성함)(Written mainly on the correlation between meta data and image data)

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). May be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and may configure the processing device to operate as desired, or process independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

10: 카메라 그룹 30: 디바이스 그룹
50: 단말 그룹 70: 영상 처리 장치
701: 통신부 702: 영상 분석부
703: 주변 정보 분석부 704: 객체 식별부
705: 저장부 706: 영상 처리부
707: 데이터 관리부
10: camera group 30: device group
50: terminal group 70: image processing apparatus
701: communication unit 702: image analysis unit
703: peripheral information analysis unit 704: object identification unit
705: storage unit 706: image processing unit
707: data management unit

Claims (5)

카메라로부터 모니터링 영역을 촬영한 제1 영상을 획득하는 단계;
통신부로부터 주변에 위치한 하나 이상의 디바이스로부터 각 디바이스의 실행 여부, 실행 시점 및 실행되는 동작을 포함하는 감지 데이터를 획득하는 단계-상기 감지 데이터는 디바이스가 파워 온 되는 시간, 디바이스의 현재 상태 정보, 및 파워 다운되는 시간을 포함함;
상기 제1 영상 또는 상기 감지 데이터를 분석한 결과를 이용하여, 상기 감지 데이터들을 시간 순으로 리스팅하고 조합하여 상기 제1 영상에 출현한 객체의 이동 정보를 인식하고
인식한 이동 정보와 기존 이동 정보의 비교를 통해 출현한 상기 객체를 식별하되 상기 제1 영상에 포함된 객체의 이동 정보를 통해 등록된 객체 인지 미등록된 객체 중 하나로 식별하는 단계 - 상기 이동 정보는 객체의 위치와 대응되는 지점, 객체의 움직임, 객체의 위치 변화를 포함함-; 및
상기 객체에 대한 식별 정보를 기초로 상기 객체의 보안 등급을 검색하고 상기 객체의 보안 등급이 기 설정된 임계 등급 이상이거나, 상기 객체가 등록된 객체이거나, 상기 제1 영상이 비활성 조건을 만족하는 경우, 통신부의 전송 기능을 비활성화시키는 단계;를 포함하는,
상기 비활성화시키는 단계는
상기 제1 영상이 촬영되는 동안에 위험 상황의 이벤트가 감지되는 경우에는 출현한 객체 별로 등록된 관리자 단말로 위험 메시지를 전송하고, 상기 이벤트가 감지된 시점으로부터 소정의 시간 간격 동안의 영상을 상기 관리자 단말로 전송하는 단계를 더 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법.
Acquiring a first image of the monitoring area from the camera;
Acquiring, from the communication unit, sensing data, including whether each device is executed, an execution time, and an executed operation, from one or more devices located around the communication unit; Includes time down;
By using the result of analyzing the first image or the sensing data, the sensing data is listed and combined in chronological order to recognize movement information of an object appearing in the first image.
Identifying the object that has appeared through comparison of the recognized movement information and the existing movement information, and identifying the object as one of registered objects or unregistered objects through movement information of the object included in the first image, wherein the movement information is an object Including a point corresponding to the position of the object, the movement of the object, and the position of the object; And
When the security level of the object is searched based on the identification information of the object and the security level of the object is equal to or greater than a preset threshold level, the object is a registered object, or the first image satisfies an inactive condition, Deactivating a transmission function of the communication unit; including,
Deactivating the
When an event of a dangerous situation is detected while the first image is captured, a risk message is transmitted to a manager terminal registered for each object that appears, and the manager terminal displays an image for a predetermined time interval from when the event is detected. The image providing method of the image processing apparatus further comprising the step of transmitting, to identify the emergent object and process the image differentially according to the object.
제1항에 있어서,
상기 비활성화시키는 단계 이후에,
상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 나머지 영역과 다르게 시각적 이펙트를 추가하도록 편집하는 단계;를 더 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법.
The method of claim 1,
After the deactivation step,
Editing the appearance area of the first object to add a visual effect differently from the remaining areas based on the identification information of the object; identifying the appearance object and processing an image differentially according to the object An image providing method of an image processing apparatus.
삭제delete 삭제delete 컴퓨터를 이용하여 제1항 내지 제2항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable storage medium for executing the method of any one of claims 1 to 2 using a computer.
KR1020180003443A 2018-01-10 2018-01-10 Aapparatus of processing image and method of providing image thereof KR102078265B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003443A KR102078265B1 (en) 2018-01-10 2018-01-10 Aapparatus of processing image and method of providing image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003443A KR102078265B1 (en) 2018-01-10 2018-01-10 Aapparatus of processing image and method of providing image thereof

Publications (2)

Publication Number Publication Date
KR20190085376A KR20190085376A (en) 2019-07-18
KR102078265B1 true KR102078265B1 (en) 2020-02-19

Family

ID=67469498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003443A KR102078265B1 (en) 2018-01-10 2018-01-10 Aapparatus of processing image and method of providing image thereof

Country Status (1)

Country Link
KR (1) KR102078265B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220160936A (en) * 2021-05-28 2022-12-06 오성진 Bath device using artificial intelligence technology

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102081545B1 (en) * 2019-10-04 2020-02-25 진수용 A monitoring system and method based on image analysis for preventing accidents in school
CN111327821B (en) * 2020-02-24 2021-08-17 珠海格力电器股份有限公司 Control method and device of intelligent camera device, computer equipment and storage medium
KR102429216B1 (en) * 2020-12-22 2022-08-05 엑스퍼트아이엔씨 주식회사 Apparatus and method for providing remote assistance service for visually impaired by using smart glasses

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101622610B1 (en) * 2014-12-09 2016-05-23 주식회사 에스원 Smart Certification System of Home Wireless Network Camera by Using UWB Sensor and Methof thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050077826A (en) * 2004-01-28 2005-08-04 주식회사데이콤 The authentication service method using a mobile terminal with camera
KR20120035299A (en) * 2010-10-05 2012-04-16 한국인터넷진흥원 Image protection processing apparatus for privacy protection, and image security system and method using the same
KR20130003886A (en) 2011-07-01 2013-01-09 주식회사 인터파크에이치엠 Security service server and smart security method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101622610B1 (en) * 2014-12-09 2016-05-23 주식회사 에스원 Smart Certification System of Home Wireless Network Camera by Using UWB Sensor and Methof thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220160936A (en) * 2021-05-28 2022-12-06 오성진 Bath device using artificial intelligence technology
KR102632863B1 (en) 2021-05-28 2024-02-05 주식회사 베누펫 Bath device using artificial intelligence technology

Also Published As

Publication number Publication date
KR20190085376A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
US10819904B2 (en) Image processing device and image providing method therefor
KR102078265B1 (en) Aapparatus of processing image and method of providing image thereof
US10049515B2 (en) Trusted user identification and management for home automation systems
US9350914B1 (en) Methods of enforcing privacy requests in imaging systems
US10937290B2 (en) Protection of privacy in video monitoring systems
US11657605B2 (en) User interfaces to configure a thermal imaging system
CN104980653B (en) The method that camera parameter in video monitoring system updates
KR102237086B1 (en) Apparatus and method for controlling a lobby phone that enables video surveillance through a communication terminal that can use a 5G mobile communication network based on facial recognition technology
WO2017161880A1 (en) Regional monitoring and alarming system and alarming method
KR101858396B1 (en) Intelligent intrusion detection system
KR101626546B1 (en) Apparatus and method for processing image information to support protection of personal information
US11281900B2 (en) Devices, methods, and systems for occupancy detection
CN108632573A (en) System and method for enabling dynamic privacy zone in the visual field of safety camera based on motion detection
JP2006188853A (en) Security device
US9965612B2 (en) Method and system for visual authentication
JP2012099940A (en) Photographic obstruction detection method, obstruction detection device, and monitoring camera system
WO2023024729A1 (en) Device configuration method, electronic device, and computer-readable storage medium
Vimal et al. Development of cloud integrated internet of things based intruder detection system
JP5002131B2 (en) Imaging device for monitoring and control method thereof
JP2006338467A (en) Surveillance system and controlling method for it
Meliones et al. Privacy-preserving intelligent networked video surveillance for patient monitoring and alarm detection
JP7334686B2 (en) Controllers, programs and control systems
KR20130104774A (en) Method and system for controlling entrance using image information
KR101581293B1 (en) Security data collection appatatusand method collection method of the same
KR20180001862A (en) Intelligent IP camera and video management system which can detect unauthorized access

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant