KR20200090403A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20200090403A
KR20200090403A KR1020190007382A KR20190007382A KR20200090403A KR 20200090403 A KR20200090403 A KR 20200090403A KR 1020190007382 A KR1020190007382 A KR 1020190007382A KR 20190007382 A KR20190007382 A KR 20190007382A KR 20200090403 A KR20200090403 A KR 20200090403A
Authority
KR
South Korea
Prior art keywords
camera
image
specific object
electronic device
specific
Prior art date
Application number
KR1020190007382A
Other languages
English (en)
Inventor
구본현
김경재
백두산
송관우
공동건
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190007382A priority Critical patent/KR20200090403A/ko
Priority to US16/416,826 priority patent/US10922554B2/en
Priority to EP19911029.7A priority patent/EP3874453A4/en
Priority to PCT/KR2019/012694 priority patent/WO2020153568A1/en
Publication of KR20200090403A publication Critical patent/KR20200090403A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/23296
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 디스플레이, 회로(a circuitry)를 포함하는 통신부 및 상기 통신부를 통해, 카메라로부터 상기 카메라에 의해 촬영된 영상이 수신되면, 상기 촬영된 영상을 표시하도록 상기 디스플레이를 제어하고, 상기 표시된 영상에서 오브젝트를 식별하고, 상기 오브젝트가 이동함에 따라 상기 표시된 영상에서 상기 오브젝트가 사라지는 경우, 상기 통신부를 통해 통신하는 복수의 카메라 중에서 상기 오브젝트를 촬영하는 다른 카메라를 판단하고, 상기 다른 카메라에 대한 정보를 상기 카메라에 대한 정보에 매칭하여 저장하는 프로세서를 포함하고, 상기 프로세서는 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 상기 복수의 카메라 중 상기 특정 오브젝트를 촬영하는 카메라를 판단하고, 상기 특정 오브젝트가 이동함에 따라 상기 카메라에 의해 촬영된 영상에서 상기 특정 오브젝트가 사라지는 경우, 상기 카메라 매칭 정보에 기초하여, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 상기 다른 카메라에 의해 촬영된 영상에 기초하여 상기 특정 오브젝트를 추적한다.

Description

전자 장치 및 그 제어 방법 {ELECTRONIC APPARATUS AND THE CONTROL METHOD THEREOF}
본 개시는 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 카메라와 통신을 수행하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달로 다양한 전자 장치가 개발되고 있다. 특히, 최근에는 네트워크 카메라(또는 IP 카메라)가 개발되고 있다.
네트워크 카메라는 보안 시스템의 일 구성으로써, 빌딩 내부는 물론 거리 등 다양한 위치에 설치된다. 이와 같은 네트워크 카메라의 발달로, 각종 사건, 사고를 미연에 방지할 수 있음은 물론, 기 발생한 사건, 사고의 원인을 명확하게 분석할 수 있게 되었다.
한편, 최근에는 보안 강화를 위해, 대규모 빌딩의 경우 각 층마다 수십 개 이상의 네트워크 카메라가 설치되는 실정이다. 또한, 거리 등의 경우에도 골목, 횡단 보도 등 다수 영역에 네트워크 카메라가 설치되고 있다.
이에 따라, 복수의 네트워크 카메라 및 그로부터 촬영된 복수의 영상을 효율적으로 관리하기 위한 기술의 필요성이 대두되었다.
본 개시는 상술한 필요성을 위해 안출된 것으로써, 본 개시의 목적은 네트워크 카메라를 효율적으로 관리하고, 네트워크 카메라에 의해 촬영된 영상을 효율적으로 이용할 수 있도록 하는 전자 장치 및 그 제어 방법을 제공함에 있다.
본 개시의 일 실시 예에 따른 전자 장치는 디스플레이, 회로(a circuitry)를 포함하는 통신부 및 상기 통신부를 통해, 카메라로부터 상기 카메라에 의해 촬영된 영상이 수신되면, 상기 촬영된 영상을 표시하도록 상기 디스플레이를 제어하고, 상기 표시된 영상에서 오브젝트를 식별하고, 상기 오브젝트가 이동함에 따라 상기 표시된 영상에서 상기 오브젝트가 사라지는 경우, 상기 통신부를 통해 통신하는 복수의 카메라 중에서 상기 오브젝트를 촬영하는 다른 카메라를 판단하고, 상기 다른 카메라에 대한 정보를 상기 카메라에 대한 정보에 매칭하여 저장하는 프로세서를 포함하고, 상기 프로세서는, 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 상기 복수의 카메라 중 상기 특정 오브젝트를 촬영하는 카메라를 판단하고, 상기 특정 오브젝트가 이동함에 따라 상기 카메라에 의해 촬영된 영상에서 상기 특정 오브젝트가 사라지는 경우, 상기 카메라 매칭 정보에 기초하여, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 상기 다른 카메라에 의해 촬영된 영상에 기초하여 상기 특정 오브젝트를 추적한다.
여기에서, 상기 프로세서는, 상기 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우, 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 방향을 확인하고, 상기 특정 오브젝트가 사라진 방향에 위치하는 카메라를 상기 특정 오브젝트를 촬영할 카메라로 판단할 수 있다.
그리고, 상기 프로세서는, 상기 카메라에 의해 촬영된 영상 및 상기 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩 되고, 상기 오버랩되는 영역에 상기 특정 오브젝트가 존재하는 경우, 상기 다른 카메라에 의해 촬영된 영상에 포함된 상기 특정 오브젝트를 추적할 수 있다.
그리고, 상기 프로세서는, 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 후 기설정된 시간 동안 상기 다른 카메라에 의해 상기 특정 오브젝트가 촬영되지 않는 경우, 상기 특정 오브젝트의 추적을 종료할 수 있다.
그리고, 상기 프로세서는, 상기 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 제1 인디케이터를 표시하고, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라로부터 수신된 영상에 제2 인디케이터를 표시할 수 있다.
또한, 상기 프로세서는, 상기 표시된 영상에서 상기 오브젝트의 이동 경로를 확인하고, 상기 영상의 전체 영역 중 상기 이동 경로에 대응되는 영역을 상기 영상의 통로 영역으로 설정하며, 상기 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면 상기 통로 영역을 감시 영역으로 설정하고, 상기 감시 영역에서 오브젝트가 감지되면 알람 정보를 제공할 수 있다.
여기에서, 상기 프로세서는, 전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 상기 특정 통로에 설치된 적어도 하나의 카메라를 판단하고, 상기 판단된 카메라를 상기 감시 카메라로 설정할 수 있다.
또한, 상기 프로세서는, 상기 카메라에 의해 촬영된 영상이 상기 디스플레이에 표시되는 동안 상기 디스플레이의 일 영역에 등록 가능한 외부 전자 장치의 리스트에 관한 정보를 표시하고, 상기 리스트에 포함된 복수의 외부 전자 장치 중 하나를 상기 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 전자 지도의 전체 영역 중에서, 상기 드래그 된 위치에 대응되는 영역에 상기 외부 전자 장치를 등록하고, 상기 전자 지도를 통해 상기 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 대응되는 제어 신호를 상기 외부 전자 장치로 전송할 수 있다.
또한, 상기 프로세서는, 상기 표시된 영상을 통해 특정 영역으로 사라진 오브젝트의 수 및 상기 특정 영역에서 나타난 오브젝트의 수를 카운트하고, 상기 카운트 된 수에 기초하여 상기 특정 영역에 대응되는 룸(Room)의 재실자 수를 결정하고, 상기 재실자 수에 기초하여 상기 룸의 환경을 제어할 수 있다.
여기에서, 상기 프로세서는, 상기 특정 영역에 대응되는 룸이 복수 개인 경우, 상기 카운트 된 수 및 상기 복수의 룸 각각의 넓이에 기초하여, 상기 복수의 룸 각각의 재실자 수를 결정하고, 상기 재실자 수에 기초하여 상기 복수의 룸의 환경을 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은 카메라로부터 상기 카메라에 의해 촬영된 영상이 수신되면, 상기 촬영된 영상을 상기 전자 장치의 디스플레이에 표시하는 단계 및 상기 표시된 영상에서 오브젝트를 식별하고, 상기 오브젝트가 이동함에 따라 상기 표시된 영상에서 상기 오브젝트가 사라지는 경우, 상기 전자 장치와 통신하는 복수의 카메라 중에서 상기 오브젝트를 촬영하는 다른 카메라를 판단하고, 상기 다른 카메라에 대한 정보를 상기 카메라에 대한 정보에 매칭하여 저장하는 단계를 포함하고, 상기 제어 방법은, 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 상기 복수의 카메라 중 상기 특정 오브젝트를 촬영하는 카메라를 판단하고, 상기 특정 오브젝트가 이동함에 따라 상기 카메라에 의해 촬영된 영상에서 상기 특정 오브젝트가 사라지는 경우, 상기 카메라 매칭 정보에 기초하여, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 상기 다른 카메라에 의해 촬영된 영상에 기초하여 상기 특정 오브젝트를 추적하는 단계를 더 포함한다.
여기에서, 상기 다른 카메라를 판단하는 단계는, 상기 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우, 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 방향을 확인하고, 상기 특정 오브젝트가 사라진 방향에 위치하는 카메라를 상기 특정 오브젝트를 촬영할 카메라로 판단할 수 있다.
그리고, 상기 추적하는 단계는, 상기 카메라에 의해 촬영된 영상 및 상기 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩 되고, 상기 오버랩되는 영역에 상기 특정 오브젝트가 존재하는 경우, 상기 다른 카메라에 의해 촬영된 영상에 포함된 상기 특정 오브젝트를 추적할 수 있다.
그리고, 본 제어 방법은 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 후 기설정된 시간 동안 상기 다른 카메라에 의해 상기 특정 오브젝트가 촬영되지 않는 경우, 상기 특정 오브젝트의 추적을 종료하는 단계를 더 포함할 수 있다.
그리고, 본 제어 방법은 상기 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 제1 인디케이터를 표시하고, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라로부터 수신된 영상에 제2 인디케이터를 표시하는 단계를 더 포함할 수 있다.
또한, 본 제어 방법은 상기 표시된 영상에서 상기 오브젝트의 이동 경로를 확인하고, 상기 영상의 전체 영역 중 상기 이동 경로에 대응되는 영역을 상기 영상의 통로 영역으로 설정하며, 상기 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면 상기 통로 영역을 감시 영역으로 설정하고, 상기 감시 영역에서 오브젝트가 감지되면 알람 정보를 제공하는 단계를 더 포함할 수 있다.
여기에서, 상기 카메라를 감시 카메라로 설정하는 단계는, 전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 상기 특정 통로에 설치된 적어도 하나의 카메라를 판단하고, 상기 판단된 카메라를 상기 감시 카메라로 설정할 수 있다.
또한, 본 제어 방법은 상기 카메라에 의해 촬영된 영상이 상기 디스플레이에 표시되는 동안 상기 디스플레이의 일 영역에 등록 가능한 외부 전자 장치의 리스트에 관한 정보를 표시하고, 상기 리스트에 포함된 복수의 외부 전자 장치 중 하나를 상기 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 전자 지도의 전체 영역 중에서, 상기 드래그 된 위치에 대응되는 영역에 상기 외부 전자 장치를 등록하고, 상기 전자 지도를 통해 상기 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 대응되는 제어 신호를 상기 외부 전자 장치로 전송하는 단계를 더 포함할 수 있다.
또한, 본 제어 방법은 상기 표시된 영상을 통해 특정 영역으로 사라진 오브젝트의 수 및 상기 특정 영역에서 나타난 오브젝트의 수를 카운트하고, 상기 카운트 된 수에 기초하여 상기 특정 영역에 대응되는 룸(Room)의 재실자 수를 결정하는 단계 및 상기 재실자 수에 기초하여 상기 룸의 환경을 제어하는 단계를 더 포함할 수 있다.
여기에서, 상기 제어하는 단계는, 상기 특정 영역에 대응되는 룸이 복수 개인 경우, 상기 카운트 된 수 및 상기 복수의 룸 각각의 넓이에 기초하여, 상기 복수의 룸 각각의 재실자 수를 결정하고, 상기 재실자 수에 기초하여 상기 복수의 룸의 환경을 제어할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 프로세서의 연산 부담을 최소화하여 특정 오브젝트를 추적할 수 있다.
또한, 카메라에 의해 촬영된 영상을 통해 외부 전자 장치를 간단히 등록할 수 있다. 또한, 카메라에 의해 촬영된 영상을 통해 룸의 재실자 수를 결정하고, 룸의 냉방 또는 난방 시설을 제어함으로써 에너지를 효율적으로 이용할 수 있다.
또한, 간단한 사용자 조작만으로 카메라의 감시 영역을 설정할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 보안 시스템을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시 예에 따른 오브젝트에 대응되는 식별 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른 카메라 매칭 데이터를 획득하는 방법을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 카메라 매칭 데이터에 포함된 매칭 정보를 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 카메라가 설치된 위치에 관한 정보를 포함하는 도면을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 특정 오브젝트를 추적하는 방법을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 오브젝트를 추적하는 화면을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 카메라에 의해 촬영된 영상 및 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩되는 경우, 오브젝트를 추적하는 방법을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 통로 영역을 감시 영역으로 설정하는 실시 예를 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 카메라를 감시 카메라로 설정하는 실시 예를 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 외부 전자 장치를 전자 장치에 등록하는 실시 예를 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시 예에 따른 룸의 환경을 제어하는 방법을 설명하기 위한 순서도이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
또한, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.
나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 개시의 실시 예를 상세하게 설명하지만, 본 개시가 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 개시를 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른 보안 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 본 개시의 일 실시 예에 따른 보안 시스템(10)은 전자 장치(100) 및 카메라(200)를 포함한다.
전자 장치(100) 및 카메라(200)는 통신을 수행할 수 있다. 예를 들어, 전자 장치(100) 및 카메라(200)는 근거리 통신망(LAN: Local Area Network) 또는 인터넷 네트워크를 통해 통신을 수행할 수 있음은 물론, BT(Bluetooth), BLE(Bluetooth Low Energy), WI-FI(Wireless Fidelity) 또는 Zigbee 등과 같은 다양한 통신 방식 등을 통해 통신을 수행할 수 있다.
전자 장치(100)는 카메라(200)로부터 영상을 수신할 수 있다. 여기에서, 영상은 카메라(200)에 의해 촬영된 영상이 될 수 있다. 구체적으로, 카메라(200)는 특정 위치에 설치되어, 카메라(200)가 설치된 주변 영역을 촬영할 수 있다. 그리고, 카메라(200)는 전자 장치(100)와 통신을 수행하여 전자 장치(100)로 카메라(200)에 의해 촬영된 영상을 전송할 수 있다.
이후, 전자 장치(100)는 카메라(200)로부터 수신한 영상을 디스플레이에 표시할 수 있다.
한편, 도 1에 도시된 바와 같이, 카메라(200)는 복수 개로 구현될 수 있다. 예를 들어, 제1 카메라(200-1)는 빌딩 내 1층의 제1 위치에 설치된 카메라이고, 제2 카메라(200-2)는 빌딩 내 1층의 제2 위치에 설치된 카메라이며, 제3 카메라(200-3)는 빌딩 내 2층의 제1 위치에 설치된 카메라가 될 수 있다. 한편, 도 1에서는 4개의 카메라를 도시하였으나, 이는 일 실시 예일 뿐 카메라의 개수가 이에 제한되는 것은 아니다.
이 경우, 전자 장치(100)는 복수의 카메라 각각으로부터 수신한 영상을 디스플레이에 표시할 수 있다. 구체적으로, 전자 장치(100)는 디스플레이의 서로 다른 영역에, 서로 다른 카메라로부터 수신한 각각의 영상을 표시할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 전자 장치(100)는 디스플레이의 일 영역에 제1 카메라(200-1)로부터 수신된 영상을 표시하고, 디스플레이의 다른 일 영역에 제2 카메라(200-2)로부터 수신된 영상을 표시할 수 있다.
전자 장치(100)는 표시된 영상을 분석하여 다양한 기능을 수행할 수 있다. 이와 관련하여, 도 2 내지 도 13을 참조하여 설명한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 디스플레이(110), 통신부(120) 및 프로세서(130)를 포함한다.
디스플레이(110)는 다양한 화면을 표시할 수 있다. 일 예로, 디스플레이(110)는 카메라로부터 수신된 영상을 표시할 수 있다. 여기에서, 카메라로부터 수신된 영상은 카메라에 의해 촬영된 영상을 의미한다.
디스플레이(100)는 복수의 카메라로부터 수신된 영상을 표시할 수 있다. 구체적으로, 디스플레이(100)는 복수의 디스플레이 장치로 구현되어, 복수의 카메라로부터 수신된 각각의 영상을 표시할 수 있다. 또는, 디스플레이(110)는 하나의 디스플레이 장치로 구현되어, 분할된 각각의 디스플레이 영역을 통해 복수의 카메라로부터 수신된 각각의 영상을 표시할 수 있다.
이와 같은, 디스플레이(110)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), LED(light emitting diode) 또는 OLED(organic light emitting diode) 등과 같은 다양한 형태로 구현될 수 있다.
통신부(120)는 다양한 외부 장치와 통신하여 다양한 데이터를 송수신할 수 있다. 예를 들어, 통신부(120)는 근거리 통신망(LAN: Local Area Network), 인터넷 네트워크를 통해 외부 장치와 통신을 수행할 수 있음은 물론, BT(Bluetooth), BLE(Bluetooth Low Energy), WI-FI(Wireless Fidelity), Zigbee 등과 같은 다양한 통신 방식 등을 통해 외부 장치와 통신하여 다양한 데이터를 송수신할 수 있다.
일 예로, 통신부(120)는 카메라와 통신하여, 카메라로부터 카메라에 의해 촬영된 영상을 수신할 수 있다.
프로세서(130)는 전자 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(130)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.
프로세서(130)는 카메라로부터, 카메라에 의해 촬영된 영상이 수신되면, 수신된 영상을 표시하도록 디스플레이(110)를 제어할 수 있다.
그리고, 프로세서(130)는 디스플레이(110)에 표시된 영상을 분석하여, 영상에 포함된 오브젝트에 대응되는 식별 정보를 획득할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 오브젝트에 대응되는 식별 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, 전자 장치(100)의 디스플레이(110)에 표시되는 영상은 오브젝트(310)를 포함할 수 있다.
이 경우, 프로세서(130)는 영상 분석을 통해, 영상에 포함된 오브젝트에 대응되는 식별 정보를 획득할 수 있다.
이를 위해, 프로세서(130)는 먼저 영상에서 오브젝트의 머리 영역(320), 바디 영역(330) 및 다리 영역(340)을 추출할 수 있다. 여기에서, 오브젝트의 머리 영역(320), 바디 영역(330) 및 다리 영역(340)의 추출은 HOG(Histogram of Oriented Gradients) 알고리즘의 적용에 의해 수행될 수 있으나, 이는 일 실시 예일 뿐, 각 영역은 윤곽선 검출 알고리즘 등과 같은 다양한 알고리즘에 의해 수행될 수 있다.
그리고, 프로세서(130)는 각 영역에 대응되는 특징 데이터를 획득할 수 있다. 구체적으로, 프로세서(130)는 각 영역의 가로 및 세로의 비율, 각 영역에 포함된 픽셀 값에 기초하여, 각 영역에 대응되는 특징 데이터를 획득할 수 있다.
예를 들어, 머리 영역(320)에 대응되는 특징 데이터는 머리 영역의 가로 및 세로 비율, 머리 영역의 컬러 등에 관한 정보를 포함할 수 있고, 바디 영역(330)에 대응되는 특징 데이터는 바디 영역의 가로 및 세로 비율, 바디 영역의 컬러 등에 관한 정보를 포함할 수 있으며, 다리 영역(340)에 대응되는 특징 데이터는 다리 영역의 가로 및 세로 비율, 다리 영역의 컬러 등에 관한 정보를 포함할 수 있다.
그리고, 프로세서(130)는 머리 영역에 대응되는 특징 데이터, 바디 영역에 대응되는 특징 데이터 및 다리 영역에 대응되는 특징 데이터 중 적어도 하나 이상을 오브젝트의 식별 정보로서 획득할 수 있다.
이에 따라, 프로세서(130)는 이후 복수의 카메라 각각으로부터 수신한 복수의 영상에서 기 획득한 식별 정보에 대응되는 오브젝트를 식별할 수 있다.
한편, 상술한 식별 정보는 일 실시 예일 뿐, 프로세서(130)는 다양한 인자를 오브젝트의 식별 정보로 획득할 수 있다. 예를 들어, 프로세서(130)는 영상에 포함된 오브젝트가 초당 이동하는 거리에 기초하여, 오브젝트의 보폭을 판단하고, 해당 보폭을 오브젝트의 식별 정보로서 획득할 수도 있다. 또한, 프로세서(130)는 오브젝트의 걸음 패턴을 판단하고, 해당 걸음 패턴을 오브젝트의 식별 정보로서 획득할 수도 있다.
또한, 프로세서(130)는 뉴럴 네트워크(Neural Network)를 기반으로 하는 인공 지능 모델을 통해 오브젝트의 식별 정보를 획득할 수 있다. 예를 들어, 프로세서(130)는 CNN(Convolution Neural Network)을 기반으로 하는 인공 지능 모델을 통해 오브젝트의 식별 정보를 획득할 수도 있다.
한편, 프로세서(130)는 오브젝트의 식별 정보에 해쉬(Hash) 알고리즘을 적용하여, 오브젝트의 식별 ID를 획득할 수 있다. 여기에서, 식별 ID는 상술한 다양한 방법에 의해 획득한 식별 정보에 해쉬 알고리즘을 적용한 해쉬 값으로써, 이를 통해 본 개시는 한정적인 크기를 가진 메모리를 효율적으로 이용할 수 있다.
한편, 이상에서는 하나의 오브젝트에 대응되는 식별 정보를 획득하는 방법을 설명하였으나, 프로세서(130)는 복수의 카메라 각각으로부터 수신한 복수의 영상에 포함된 복수의 오브젝트 각각에 대응되는 식별 정보를 획득할 수 있다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른 카메라 매칭 데이터를 획득하는 방법을 설명하기 위한 도면이다.
프로세서(130)는 디스플레이(110)에 표시된 영상에서 기 획득한 식별 정보에 대응되는 오브젝트를 식별할 수 있다.
그리고, 프로세서(130)는 식별한 오브젝트가 이동함에 따라 표시된 영상에서 사라지는 경우, 통신부(120)를 통해 통신하는 복수의 카메라 중에서 식별한 오브젝트를 촬영하는 다른 카메라를 판단할 수 있다.
구체적으로, 프로세서(130)는 표시된 영상에서 식별한 오브젝트가 사라지는 경우, 복수의 카메라 각각으로부터 수신한 복수의 영상에 포함된 오브젝트를 식별하고, 복수의 카메라 중에서 기 획득한 식별 정보에 대응되는 오브젝트를 촬영하는 다른 카메라를 판단할 수 있다.
예를 들어, 도 4a에 도시된 바와 같이, 오브젝트(410)가 이동함에 따라 제1 카메라에 의해 촬영된 영상에서 식별한 오브젝트(410)가 사라지는 경우, 프로세서(130)는 복수의 카메라 각각으로부터 수신한 복수의 영상에 포함된 오브젝트를 식별함으로써, 도 4b에 도시된 바와 같이, 기 획득한 식별 정보에 대응되는 오브젝트(410)를 촬영하는 다른 카메라인 제2 카메라를 판단할 수 있다.
그리고, 프로세서(130)는 현재 오브젝트(410)를 촬영하는 카메라에 대한 정보를 이전에 오브젝트(410)를 촬영했던 카메라에 대한 정보에 매칭하여 저장할 수 있다. 즉, 상술한 실시 예에서 제2 카메라에 대한 정보를 제1 카메라에 대한 정보에 매칭하여 저장할 수 있다.
이와 같은 방법으로, 프로세서(130)는 식별한 오브젝트(410)의 움직임을 추적함으로써, 전자 장치(100)와 통신하는 복수의 카메라 간의 매칭 정보를 포함하는 카메라 매칭 데이터를 획득할 수 있다.
한편, 여기서는 설명의 편의를 위해, 하나의 오브젝트의 움직임을 추적하는 경우를 실시 예로 설명하였으나, 본 개시는 카메라에 의해 촬영된 영상에 포함된 모든 오브젝트 각각의 식별 정보를 획득하고, 모든 오브젝트의 움직임에 기초하여 복수의 카메라 간의 매칭 정보를 포함하는 카메라 매칭 데이터를 획득할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 카메라 매칭 데이터에 포함된 매칭 정보를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따라 획득된 카메라 매칭 데이터에 포함된 매칭 정보로서, 제1 카메라에 대한 정보가 제2 카메라에 대한 정보에 매칭되고, 제2 카메라에 대한 정보가 제1 및 제3 카메라에 대한 정보에 매칭되며, 제3 카메라에 대한 정보가 제2 카메라에 매칭되는 경우를 도시한다.
도 5에 따르면, 제1 카메라에 의해 촬영된 영상에서 사라진 오브젝트는 이후 제2 카메라에 의해 촬영된 영상에서 나타났고, 제2 카메라에 의해 촬영된 영상에서 사라진 오브젝트는 이후 제1 카메라 또는 제3 카메라에 의해 촬영된 영상에서 나타났으며, 제3 카메라에 의해 촬영된 영상에서 사라진 오브젝트는 이후 제2 카메라에 의해 촬영된 영상에서 나타났음을 알 수 있다.
한편, 도 5와 같은 카메라 매칭 데이터는 도 6과 같은 도면에 대응될 수 있다. 도 6은 상술한 제1 내지 제3 카메라가 설치된 위치를 나타내는 일 실시 예에 따른 도면으로써, 도 6을 참조하면, 제1 카메라(610)에 의해 촬영되는 구역에 위치하는 사용자는 제2 카메라(620)에 의해 촬영되는 구역을 지날 수 있고, 제2 카메라(620)에 의해 촬영되는 구역에 위치하는 사용자는 제1 카메라(610) 또는 제3 카메라(630) 의해 촬영되는 구역을 지날 수 있으며, 제3 카메라(630)에 의해 촬영되는 구역에 위치하는 사용자는 제2 카메라(620)에 의해 촬영되는 구역을 지날 수 있다. 이에 따라, 도 6과 같은 도면과 같이 설치된 제1 내지 제3 카메라는 도 5의 카메라 매칭 데이터와 같이 매칭될 수 있다.
도 7은 본 개시의 일 실시 예에 따른 특정 오브젝트를 추적하는 방법을 설명하기 위한 도면이다.
프로세서(130)는 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 복수의 카메라 중 특정 오브젝트를 촬영하는 카메라를 판단(S710)할 수 있다.
구체적으로, 프로세서(130)는 특정 오브젝트를 식별할 수 있는 정보가 입력되면, 입력된 정보에 기초하여 특정 오브젝트를 촬영하는 카메라를 판단할 수 있다. 여기에서, 특정 오브젝트를 식별할 수 있는 정보는 머리 및 바디의 비율, 바디 및 다리의 비율, 머리 및 다리의 비율, 머리, 바디 및 다리의 비율에 관한 정보가 될 수 있음은 물론, 바디의 컬러, 다리의 컬러 등과 같은 다양한 정보가 될 수 있다.
또는, 프로세서(130)는 디스플레이(110)에 표시된 오브젝트를 선택하는 사용자 명령이 수신되면, 선택된 오브젝트를 특정 오브젝트로 설정하고, 복수의 카메라 중 특정 오브젝트를 촬영하는 카메라를 판단할 수도 있다.
그리고, 프로세서(130)는 특정 오브젝트가 이동함에 따라 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라지는 경우, 카메라 매칭 정보에 기초하여, 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단(S720)할 수 있다.
구체적으로, 프로세서(130)는 특정 오브젝트가 이동함에 따라 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라지는 경우, 카메라에 매칭된 다른 카메라를 판단하고, 판단된 다른 카메라를 특정 오브젝트를 촬영할 것으로 예상되는 카메라로 판단할 수 있다.
그리고, 프로세서(130)는 상술한 다른 카메라에 의해 촬영된 영상에 기초하여 특정 오브젝트를 추적(S730)할 수 있다.
이와 같이, 본 개시는 복수의 카메라 각각으로부터 수신한 모든 영상을 분석하여 오브젝트를 추적할 필요 없이, 오브젝트가 나타날 것으로 예상되는 카메라로부터 수신한 영상을 분석하여 오브젝트를 추적하므로, 프로세서의 연산 부담을 경감시킬 수 있다.
한편, 프로세서(130)는 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우, 표시된 영상에서 특정 오브젝트가 사라진 방향을 확인하고, 특정 오브젝트가 사라진 방향에 위치하는 카메라를 특정 오브젝트를 촬영할 카메라로 판단할 수 있다.
이를 위해, 프로세서(130)는 카메라 매칭 데이터를 저장함에 있어서, 카메라 별로, 촬영된 영상에서 오브젝트가 사라진 방향에 관한 정보를 포함시켜 저장할 수 있다.
예를 들어, 프로세서(130)는 제2 카메라에 의해 촬영된 영상에서 오브젝트가 제1 방향으로 사리지면, 이후 오브젝트는 제1 카메라에 의해 촬영된 영상에 포함되고, 오브젝트가 제2 방향으로 사라지면, 이후 오브젝트는 제3 카메라에 의해 촬영된 영상에 포함된다는 방향에 관한 정보를 더 포함하는 카메라 매칭 데이터를 저장할 수 있다.
이와 같이, 본 개시는 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우에도, 오브젝트가 나타날 것으로 예상되는 카메라를 판단할 수 있으므로, 프로세서의 연산 부담을 경감시킬 수 있다.
한편, 프로세서(130)는 디스플레이(110)에 표시된 영상에서 특정 오브젝트가 사라진 후 기설정된 시간 동안 다른 카메라에 의해 특정 오브젝트가 촬영되지 않는 경우, 특정 오브젝트의 추적을 종료할 수 있다. 여기에서, 기설정된 시간은 사용자 명령에 따라 다양하게 설정될 수 있다. 가령, 기설정된 시간은 5분, 10분 또는 30분 등이 될 수 있다.
구체적으로, 프로세서(130)는 제1 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라진 후, 기설정된 시간 동안 카메라 매칭 정보에 기초하여 판단된 제2 카메라에 의해 특정 오브젝트가 촬영되지 않는 경우, 특정 오브젝트의 추적을 종료할 수 있다.
여기에서, 제1 카메라는 빌딩 등 건물의 출입구를 촬영하는 카메라가 될 수 있다. 즉, 출입구를 촬영하는 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라진 후, 기설정된 시간 동안 다른 카메라에 의해 특정 오브젝트가 촬영되지 않는 경우이면, 본 개시는 특정 오브젝트가 빌딩 등 건물 밖으로 나간 것으로 상정하여 특정 오브젝트의 추적을 종료한다.
이에 따라, 본 개시는 특정 오브젝트가 건물 밖으로 나간 경우임에도 계속해서 특정 오브젝트를 추적하는 경우를 방지하여, 프로세서의 불필요한 연산을 방지할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 오브젝트를 추적하는 화면을 설명하기 위한 도면이다.
프로세서(130) 추적 대상으로 설정된 특정 오브젝트를 촬영하는 카메라를 판단하고, 해당 카메라에 의해 촬영된 영상을 통해 특정 오브젝트를 추적할 수 있다.
이 경우, 프로세서(130)는 복수의 영상 중 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 인디케이터를 표시할 수 있다. 예를 들어, 도 8을 참조하면, 프로세서(130)는 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상의 테두리에 인디케이터(810)를 표시할 수 있다.
이에 따라 본 개시의 사용자는 복수의 영상 중에서도 특정 오브젝트가 포함된 영상을 빠르게 식별하고, 오브젝트의 움직임을 관찰할 수 있다.
한편, 프로세서(130)는 카메라 매칭 정보에 기초하여, 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단할 수 있다. 그리고, 프로세서(130)는 특정 오브젝트를 촬영할 것으로 예상되는 카메라로부터 수신된 영상에 인디케이터를 표시할 수 있다. 여기에서, 인디케이터는 상술한 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 표시되는 인디케이터와 상이할 수 있다.
예를 들어, 도 8을 참조하면, 프로세서(130)는 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상의 테두리에 인디케이터(820)를 표시할 수 있다.
이에 따라 본 개시의 사용자는 복수의 영상 중에서도 특정 오브젝트가 촬영될 영상을 식별하고, 오브젝트의 움직임을 집중적으로 관찰할 수 있다.
한편, 상술한 인디케이터는 일 실시 예일 뿐, 인디케이터는 다양한 방식으로 표현될 수 있다.
도 9는 본 개시의 일 실시 예에 따른 카메라에 의해 촬영된 영상 및 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩되는 경우, 오브젝트를 추적하는 방법을 설명하기 위한 도면이다.
이상에서는, 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라지는 경우, 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 통해 특정 오브젝트를 추적하는 실시 예를 설명하였다.
다만, 경우에 따라, 동 시간에 서로 다른 카메라에 의해 촬영된 영상 모두에 특정 오브젝트가 포함될 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 인접한 위치에 제1 및 제2 카메라가 설치된 경우, 제1 및 제2 카메라 각각에 의해 촬영된 영상 모두에 특정 오브젝트(910)가 포함될 수 있다.
이와 같이, 카메라에 의해 촬영된 영상 및 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩 되고, 오버랩되는 영역에 특정 오브젝트가 존재하는 경우, 프로세서(130)는 다른 카메라에 의해 촬영된 영상에 포함된 특정 오브젝트를 추적할 수 있다.
구체적으로, 프로세서(130)는 제1 카메라에 의해 촬영된 영상을 통해 특정 오브젝트를 추적하는 상태에서, 특정 오브젝트가 이동함에 따라, 특정 오브젝트가 제1 카메라에 의해 촬영된 영상의 전체 영역 중 오버랩 영역으로 이동하면, 오버랩 영역을 촬영하는 다른 카메라인 제2 카메라를 판단하고, 제2 카메라에 의해 촬영된 영상을 통해 특정 오브젝트를 계속해서 추적할 수 있다.
한편, 오버랩 영역은 복수의 카메라의 설치 위치에 기초하여 기설정되어 있을 수 있다.
이와 같이, 본 개시는 오버랩 영역을 고려하여 특정 오브젝트를 추적하므로, 동 시간에 서로 다른 카메라에 의해 촬영된 영상 모두에 특정 오브젝트가 포함된 경우에도 특정 오브젝트를 계속해서 추적할 수 있다.
도 10은 본 개시의 일 실시 예에 따른 통로 영역을 감시 영역으로 설정하는 실시 예를 설명하기 위한 도면이다.
전술한 바와 같이 프로세서(130)는 디스플레이(110)에 표시된 영상에서 오브젝트를 식별할 수 있다.
그리고, 프로세서(130)는 표시된 영상에서 오브젝트의 이동 경로를 확인하고, 영상의 전체 영역 중 이동 경로에 대응되는 영역을 영상의 통로 영역으로 설정할 수 있다.
구체적으로, 프로세서(130)는 디스플레이(110)에 표시된 영상에서 오브젝트의 움직임을 추적하고, 영상의 전체 영역 중 오브젝트가 기설정된 횟수 이상 이동한 영역을 해당 영상의 통로 영역으로 설정할 수 있다.
예를 들어, 도 10을 참조하면, 프로세서(130)는 디스플레이(110)에 표시된 영상에서 오브젝트의 이동 경로를 확인하고, 해당 이동 경로를 통해 오브젝트가 기설정된 횟수 이상 이동한 경우, 영상에서 이동 경로에 대응되는 영역을 영상의 통로 영역(1010)으로 설정할 수 있다.
그리고, 프로세서(130)는 통로 영역을 감시 영역으로 설정할 수 있다. 구체적으로, 프로세서(130)는 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면, 카메라에 설정된 통로 영역을 감시 영역으로 설정할 수 있다. 카메라를 감시 카메라로 설정하는 방법은 도 11을 참조하여 후술한다.
이에 따라, 본 개시는 카메라에 의해 촬영된 영상에서 감시 영역을 설정하기 위해 드래그 입력을 수행하는 등의 별도의 사용자 입력 없이, 카메라를 감시 카메라로 설정하기 위한 사용자 명령만 수신되면, 통로 영역을 감시 영역을 설정하므로 편리하게 감시 영역을 설정할 수 있다.
이후, 프로세서(130)는 감시 영역에서 오브젝트가 감지되면 알람 정보를 제공할 수 있다. 여기에서, 알람 정보는 디스플레이(110)를 통해 제공될 수 있음은 물론, 스마트 폰 등의 외부 장치와의 통신을 통해 외부 장치로 제공될 수 있다.
도 11은 본 개시의 일 실시 예에 따른 카메라를 감시 카메라로 설정하는 실시 예를 설명하기 위한 도면이다.
전술한 바와 같이, 프로세서(130)는 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면, 카메라에 설정된 통로 영역을 감시 영역으로 설정할 수 있다.
여기에서, 감시 카메라를 설정하기 위한 사용자 명령은 전자 지도를 통해 수신될 수 있다. 전자 지도는 도 11에 도시된 바와 같이, 복수의 카메라 각각의 위치 정보에 기초하여, 복수의 카메라 각각에 대응되는 GUI를 포함할 수 있다.
구체적으로, 프로세서(130)는 전자 지도에 표시된 복수의 카메라 중 특정 카메라를 선택하고, 선택된 카메라를 감시 카메라로 설정하는 사용자 명령이 수신되면, 선택된 카메라를 감시 카메라로 설정할 수 있다.
또한, 프로세서(130)는 전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 특정 통로에 설치된 적어도 하나의 카메라를 판단하고, 판단된 카메라를 감시 카메라로 설정할 수 있다.
구체적으로, 프로세서(130)는 전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 복수의 카메라 각각이 설치된 위치 정보에 기초하여, 선택된 특정 통로에 위치하는 적어도 하나의 카메라를 판단하고, 판단된 카메라를 감시 카메라로 설정할 수 있다.
예를 들어, 도 11의 좌측에 도시된 바와 같이, 카메라 A, 카메라 B 및 카메라 C가 설치된 통로가, 사용자의 드래그 입력에 의해 선택된 경우, 프로세서(130)는 해당 통로에 설치된 카메라 A, 카메라 B 및 카메라 C를 판단하고, 카메라 A, 카메라 B 및 카메라 C를 감시 카메라로 설정할 수 있다.
이에 따라, 도 11의 우측에 도시된 바와 같이, 카메라 A의 통로 영역, 카메라 B의 통로 영역 및 카메라 C의 통로 영역 각각이 감시 영역으로 설정될 수 있다.
이와 같이, 전자 지도 상에서 특정 통로를 선택하는 사용자 명령으로, 복수의 카메라를 감시 카메라로 일거에 선택할 수 있으므로, 본 개시는 사용자 편의성이 증대된다.
도 12는 본 개시의 일 실시 예에 따른 외부 전자 장치를 전자 장치에 등록하는 실시 예를 설명하기 위한 도면이다.
프로세서(130)는 카메라에 의해 촬영된 영상을 디스플레이(110)에 표시할 수 있다.
이때, 프로세서(130)는 디스플레이(110)의 일 영역에 등록 가능한 외부 전자 장치의 리스트에 관한 정보를 표시할 수 있다. 구체적으로, 프로세서(130)는 통신부(120)를 통해 통신을 수행하는 외부 전자 장치 중 전자 장치에 등록되지 않은 외부 전자 장치의 리스트에 관한 정보를 디스플레이(110)의 일 영역에 표시할 수 있다.
그리고, 프로세서(130)는 리스트에 포함된 복수의 외부 전자 장치 중 하나를 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 전자 지도의 전체 영역 중에서, 드래그 된 위치에 대응되는 영역에 외부 전자 장치를 등록할 수 있다.
구체적으로, 프로세서(130)는 리스트에 포함된 복수의 외부 전자 장치 중 하나를 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 촬영된 영상에서 드래그 된 지점이 전자 지도 상에서 위치하는 영역을 판단하고, 전자 지도의 전체 영역 중에서, 드래그 된 위치에 대응되는 영역에 외부 전자 장치를 등록할 수 있다. 여기에서, 드래그 된 위치가 전자 지도 상에서 위치하는 영역은, 영상을 촬영하는 카메라가 설치된 위치, 카메라가 지면을 향하는 방향, 영상에서 드래그 된 지점의 좌표 등에 기초하여 산출될 수 있다.
예를 들어, 도 12에 도시된 바와 같이, 프로세서(130)는 카메라로부터 수신된 영상을 디스플레이(110)의 일 영역에 표시하고, 등록 가능한 외부 전자 장치의 리스트에 관한 정보(1210)를 디스플레이(110)의 다른 일 영역에 표시할 수 있다. 그리고, 리스트에 포함된 복수의 외부 전자 장치 중 하나를 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 촬영된 영상에서 드래그 된 위치(1220)가 전자 지도 상에서 위치하는 영역을, 영상에서 드래그 된 지점의 좌표 등에 기초하여 산출할 수 있다. 그리고, 프로세서(130)는 전자 지도의 전체 영역 중에서, 드래그 된 위치에 대응되는 영역(1230)에 외부 전자 장치를 등록할 수 있다. 도 12는 제13 카메라에 의해 촬영된 영상을 통해, 외부 전자 장치인 전구를 등록하는 실시 예를 도시한다.
이와 같이, 본 개시는 카메라에 의해 촬영된 영상을 통해 외부 전자 장치를 등록 가능하므로, 사용자는 영상을 주시하면서 등록하고자 하는 지점에 편리하게 외부 전자 장치를 등록할 수 있다.
이후, 프로세서(130)는 전자 지도를 통해 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 사용자 명령에 대응되는 제어 신호를 외부 전자 장치로 전송할 수 있다.
구체적으로, 프로세서(130)는 전자 지도를 통해 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 통신부(120)를 통해 사용자 명령에 대응되는 제어 신호를 외부 전자 장치로 전송할 수 있다. 한편, 제어 신호는 외부 전자 장치의 전원 제어를 위한 신호 등이 될 수 있다.
도 13은 본 개시의 일 실시 예에 따른 룸의 환경을 제어하는 방법을 설명하기 위한 순서도이다.
프로세서(130)는 디스플레이(110)에 표시된 영상에서 오브젝트를 식별할 수 있다.
그리고, 프로세서(130)는 영상 분석을 통해 특정 영역으로 사라진 오브젝트의 수 및 특정 영역에서 나타난 오브젝트의 수를 카운트할 수 있다. 구체적으로, 프로세서(130)는 영상에서 오브젝트가 사라진 좌표에 기초하여, 특정 영역으로 사라진 오브젝트의 수 및 영상에서 오브젝트가 나타난 좌표에 기초하여, 특정 영역에서 나타난 오브젝트의 수를 카운트할 수 있다.
그리고, 프로세서(130)는 카운트 된 수에 기초하여, 특정 영역에 대응되는 룸(Room)의 재실자 수를 결정할 수 있다. 여기에서, 룸은 오브젝트가 사라진 방향에 위치하는 룸이 될 수 있다.
구체적으로, 프로세서(130)는 영상 분석을 통해 특정 영역으로 오브젝트가 사라진 횟수를 플러스하고, 특정 영역에서 나타난 오브젝트의 횟수를 마이너스한 수를 특정 영역에 대응되는 룸의 재실자 수로 결정할 수 있다.
그리고, 프로세서(130)는 재실자 수에 기초하여 룸의 환경을 제어할 수 있다. 구체적으로, 프로세서(130)는 재실자 수에 기초하여 룸의 냉방 또는 난방 시설을 제어함으로써, 룸의 환경을 제어할 수 있다. 여기에서, 제어는 전자 장치(100)가 룸의 냉방 또는 난방 시설로 제어 신호를 전송함으로써 수행될 수 있음은 물론, 전자 장치(100)가 룸의 냉방 또는 난방 시설을 제어하는 외부 장치로, 룸의 냉방 또는 난방 시설의 제어를 요청하는 신호를 전송함으로써 수행될 수도 있다.
이에 따라, 본 개시는 재실자 수에 따라 효율적으로 룸의 냉방 또는 난방 시설을 제어할 수 있고, 불필요한 에너지 소모를 방지할 수 있다.
한편, 프로세서(130)는 특정 영역에 대응되는 룸이 복수 개인 경우, 카운트 된 수 및 복수의 룸 각각의 넓이에 기초하여, 복수의 룸 각각의 재실자 수를 결정할 수 있다.
구체적으로, 프로세서(130)는 영상 분석을 통해 특정 영역으로 오브젝트가 사라진 횟수를 플러스하고, 특정 영역에서 나타난 오브젝트의 횟수를 마이너스한 수를 산출하고, 산출한 수를 특정 영역에 대응되는 복수의 룸 각각의 넓이에 비례하여 분배한 수를, 복수의 룸 각각의 재실자 수를 결정할 수 있다.
예를 들어, 산출된 수가 150이고, 특정 영역에 대응되는 복수의 룸 중 제1 룸의 넓이가 50 ㎥ 이고, 제2 룸의 넓이가 100㎥인 경우, 프로세서(130)는 제1 룸의 재실자 수를 50명으로 결정하고, 제2 룸의 재실자 수를 100명으로 결정할 수 있다.
그리고, 프로세서(130)는 복수의 룸 각각의 재실자 수에 기초하여, 복수의 룸의 환경을 제어할 수 있다.
이에 따라, 본 개시는 복수의 룸 각각의 재실자 수에 따라 효율적으로 복수의 룸의 냉방 또는 난방 시설을 제어할 수 있고, 불필요한 에너지 소모를 방지할 수 있다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
전자 장치는 카메라로부터, 카메라에 의해 촬영된 영상이 수신되면, 촬영된 영상을 표시(S1410)할 수 있다. 여기에서, 카메라(200)는 특정 위치에 설치되어, 카메라(200)가 설치된 주변 영역을 촬영하는 장치로써, 근거리 통신망(LAN: Local Area Network) 또는 인터넷 네트워크를 통해 전자 장치와 통신을 수행할 수 있음은 물론, BT(Bluetooth), BLE(Bluetooth Low Energy), WI-FI(Wireless Fidelity) 또는 Zigbee 등과 같은 다양한 통신 방식 등을 통해 전자 장치와 통신을 수행할 수 있다.
전자 장치는 디스플레이에 표시된 영상에서 오브젝트를 식별하고, 오브젝트가 이동함에 따라 표시된 영상에서 오브젝트가 사라지는 경우, 복수의 카메라 중에서 오브젝트를 촬영하는 다른 카메라를 판단하고, 다른 카메라에 대한 정보를 카메라에 대한 정보에 매칭하여 저장(S1420)할 수 있다.
구체적으로, 전자 장치는 디스플레이에 표시된 영상에서 오브젝트를 식별하고, 오브젝트가 이동함에 따라 표시된 영상에서 오브젝트가 사라지는 경우, 복수의 카메라 각각으로부터 수신된 복수의 영상에서 식별된 오브젝트를 써치하여, 복수의 카메라 중에서 식별된 오브젝트를 촬영하는 다른 카메라를 판단하고, 다른 카메라에 대한 정보를 카메라에 대한 정보에 매칭하여 저장할 수 있다.
이후, 전자 장치는 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 복수의 카메라 중 특정 오브젝트를 촬영하는 카메라를 판단하고, 특정 오브젝트가 이동함에 따라 카메라에 의해 촬영된 영상에서 특정 오브젝트가 사라지는 경우, 카메라 매칭 정보에 기초하여, 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 다른 카메라에 의해 촬영된 영상에 기초하여 특정 오브젝트를 추적(S1430)할 수 있다.
구체적으로, 전자 장치는 특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 복수의 카메라 각각으로부터 수신된 복수의 영상에서 특정 오브젝트를 써치하여, 특정 오브젝트를 촬영하는 카메라를 판단하고, 특정 오브젝트가 이동함에 따라 카메라에 의해 촬영된 영상에서 사라지는 경우, 이전에 특정 오브젝트를 촬영하던 카메라에 대한 정보에 매칭된 다른 카메라에 대한 정보에 기초하여, 다른 카메라를 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 다른 카메라에 의해 촬영된 영상에 기초하여 특정 오브젝트를 추적할 수 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 소프트웨어 또는 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드만으로도 구현될 수 있다.
또한, 상술한 본 발명의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 외부의 서버를 통해 수행되는 것도 가능하다.
한편, 본 발명에 따른 전자 장치의 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
한편, 비일시적 판독 가능 매체란 레지스터, 캐시, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 전자 장치
110: 디스플레이
120: 통신부
130: 프로세서
200: 카메라

Claims (20)

  1. 전자 장치에 있어서,
    디스플레이;
    회로(a circuitry)를 포함하는 통신부; 및
    상기 통신부를 통해, 카메라로부터 상기 카메라에 의해 촬영된 영상이 수신되면, 상기 촬영된 영상을 표시하도록 상기 디스플레이를 제어하고,
    상기 표시된 영상에서 오브젝트를 식별하고, 상기 오브젝트가 이동함에 따라 상기 표시된 영상에서 상기 오브젝트가 사라지는 경우, 상기 통신부를 통해 통신하는 복수의 카메라 중에서 상기 오브젝트를 촬영하는 다른 카메라를 판단하고, 상기 다른 카메라에 대한 정보를 상기 카메라에 대한 정보에 매칭하여 저장하는 프로세서;를 포함하고,
    상기 프로세서는,
    특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 상기 복수의 카메라 중 상기 특정 오브젝트를 촬영하는 카메라를 판단하고, 상기 특정 오브젝트가 이동함에 따라 상기 카메라에 의해 촬영된 영상에서 상기 특정 오브젝트가 사라지는 경우, 상기 카메라 매칭 정보에 기초하여, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 상기 다른 카메라에 의해 촬영된 영상에 기초하여 상기 특정 오브젝트를 추적하는, 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우, 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 방향을 확인하고, 상기 특정 오브젝트가 사라진 방향에 위치하는 카메라를 상기 특정 오브젝트를 촬영할 카메라로 판단하는, 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 카메라에 의해 촬영된 영상 및 상기 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩 되고, 상기 오버랩되는 영역에 상기 특정 오브젝트가 존재하는 경우, 상기 다른 카메라에 의해 촬영된 영상에 포함된 상기 특정 오브젝트를 추적하는, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 표시된 영상에서 상기 특정 오브젝트가 사라진 후 기설정된 시간 동안 상기 다른 카메라에 의해 상기 특정 오브젝트가 촬영되지 않는 경우, 상기 특정 오브젝트의 추적을 종료하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 제1 인디케이터를 표시하고, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라로부터 수신된 영상에 제2 인디케이터를 표시하는, 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 표시된 영상에서 상기 오브젝트의 이동 경로를 확인하고, 상기 영상의 전체 영역 중 상기 이동 경로에 대응되는 영역을 상기 영상의 통로 영역으로 설정하며, 상기 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면 상기 통로 영역을 감시 영역으로 설정하고, 상기 감시 영역에서 오브젝트가 감지되면 알람 정보를 제공하는, 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 상기 특정 통로에 설치된 적어도 하나의 카메라를 판단하고, 상기 판단된 카메라를 상기 감시 카메라로 설정하는, 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 카메라에 의해 촬영된 영상이 상기 디스플레이에 표시되는 동안 상기 디스플레이의 일 영역에 등록 가능한 외부 전자 장치의 리스트에 관한 정보를 표시하고, 상기 리스트에 포함된 복수의 외부 전자 장치 중 하나를 상기 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 전자 지도의 전체 영역 중에서, 상기 드래그 된 위치에 대응되는 영역에 상기 외부 전자 장치를 등록하고, 상기 전자 지도를 통해 상기 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 대응되는 제어 신호를 상기 외부 전자 장치로 전송하는, 전자 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 표시된 영상을 통해 특정 영역으로 사라진 오브젝트의 수 및 상기 특정 영역에서 나타난 오브젝트의 수를 카운트하고, 상기 카운트 된 수에 기초하여 상기 특정 영역에 대응되는 룸(Room)의 재실자 수를 결정하고,
    상기 재실자 수에 기초하여 상기 룸의 환경을 제어하는, 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 특정 영역에 대응되는 룸이 복수 개인 경우, 상기 카운트 된 수 및 상기 복수의 룸 각각의 넓이에 기초하여, 상기 복수의 룸 각각의 재실자 수를 결정하고, 상기 재실자 수에 기초하여 상기 복수의 룸의 환경을 제어하는, 전자 장치.
  11. 전자 장치의 제어 방법에 있어서,
    카메라로부터 상기 카메라에 의해 촬영된 영상이 수신되면, 상기 촬영된 영상을 상기 전자 장치의 디스플레이에 표시하는 단계; 및
    상기 표시된 영상에서 오브젝트를 식별하고, 상기 오브젝트가 이동함에 따라 상기 표시된 영상에서 상기 오브젝트가 사라지는 경우, 상기 전자 장치와 통신하는 복수의 카메라 중에서 상기 오브젝트를 촬영하는 다른 카메라를 판단하고, 상기 다른 카메라에 대한 정보를 상기 카메라에 대한 정보에 매칭하여 저장하는 단계;를 포함하고,
    상기 제어 방법은,
    특정 오브젝트를 추적 대상으로 설정하는 사용자 명령이 수신되면, 상기 복수의 카메라 중 상기 특정 오브젝트를 촬영하는 카메라를 판단하고, 상기 특정 오브젝트가 이동함에 따라 상기 카메라에 의해 촬영된 영상에서 상기 특정 오브젝트가 사라지는 경우, 상기 카메라 매칭 정보에 기초하여, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라를 판단하고, 상기 다른 카메라에 의해 촬영된 영상에 기초하여 상기 특정 오브젝트를 추적하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  12. 제11항에 있어서,
    상기 다른 카메라를 판단하는 단계는,
    상기 카메라에 대한 정보에 복수의 카메라에 대한 정보가 매칭되어 있는 경우, 상기 표시된 영상에서 상기 특정 오브젝트가 사라진 방향을 확인하고, 상기 특정 오브젝트가 사라진 방향에 위치하는 카메라를 상기 특정 오브젝트를 촬영할 카메라로 판단하는, 전자 장치.
  13. 제11항에 있어서,
    상기 추적하는 단계는,
    상기 카메라에 의해 촬영된 영상 및 상기 다른 카메라에 의해 촬영된 영상 중 일부 영역이 오버랩 되고, 상기 오버랩되는 영역에 상기 특정 오브젝트가 존재하는 경우, 상기 다른 카메라에 의해 촬영된 영상에 포함된 상기 특정 오브젝트를 추적하는, 전자 장치의 제어 방법.
  14. 제11항에 있어서,
    상기 표시된 영상에서 상기 특정 오브젝트가 사라진 후 기설정된 시간 동안 상기 다른 카메라에 의해 상기 특정 오브젝트가 촬영되지 않는 경우, 상기 특정 오브젝트의 추적을 종료하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  15. 제11항에 있어서,
    상기 특정 오브젝트를 촬영하는 카메라로부터 수신된 영상에 제1 인디케이터를 표시하고, 상기 특정 오브젝트를 촬영할 것으로 예상되는 다른 카메라로부터 수신된 영상에 제2 인디케이터를 표시하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  16. 제11항에 있어서,
    상기 표시된 영상에서 상기 오브젝트의 이동 경로를 확인하고, 상기 영상의 전체 영역 중 상기 이동 경로에 대응되는 영역을 상기 영상의 통로 영역으로 설정하며, 상기 카메라를 감시 카메라로 설정하기 위한 사용자 명령이 수신되면 상기 통로 영역을 감시 영역으로 설정하고, 상기 감시 영역에서 오브젝트가 감지되면 알람 정보를 제공하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  17. 제16항에 있어서,
    상기 카메라를 감시 카메라로 설정하는 단계는,
    전자 지도 상에서 특정 통로를 선택하기 위한 사용자 명령이 수신되면, 상기 특정 통로에 설치된 적어도 하나의 카메라를 판단하고, 상기 판단된 카메라를 상기 감시 카메라로 설정하는, 전자 장치의 제어 방법.
  18. 제11항에 있어서,
    상기 카메라에 의해 촬영된 영상이 상기 디스플레이에 표시되는 동안 상기 디스플레이의 일 영역에 등록 가능한 외부 전자 장치의 리스트에 관한 정보를 표시하고, 상기 리스트에 포함된 복수의 외부 전자 장치 중 하나를 상기 카메라에 의해 촬영된 영상에 드래그하는 사용자 명령이 수신되면, 전자 지도의 전체 영역 중에서, 상기 드래그 된 위치에 대응되는 영역에 상기 외부 전자 장치를 등록하고, 상기 전자 지도를 통해 상기 등록된 외부 전자 장치를 제어하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 대응되는 제어 신호를 상기 외부 전자 장치로 전송하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  19. 제11항에 있어서,
    상기 표시된 영상을 통해 특정 영역으로 사라진 오브젝트의 수 및 상기 특정 영역에서 나타난 오브젝트의 수를 카운트하고, 상기 카운트 된 수에 기초하여 상기 특정 영역에 대응되는 룸(Room)의 재실자 수를 결정하는 단계; 및
    상기 재실자 수에 기초하여 상기 룸의 환경을 제어하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  20. 제19항에 있어서,
    상기 제어하는 단계는,
    상기 특정 영역에 대응되는 룸이 복수 개인 경우, 상기 카운트 된 수 및 상기 복수의 룸 각각의 넓이에 기초하여, 상기 복수의 룸 각각의 재실자 수를 결정하고, 상기 재실자 수에 기초하여 상기 복수의 룸의 환경을 제어하는, 전자 장치의 제어 방법.
KR1020190007382A 2019-01-21 2019-01-21 전자 장치 및 그 제어 방법 KR20200090403A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190007382A KR20200090403A (ko) 2019-01-21 2019-01-21 전자 장치 및 그 제어 방법
US16/416,826 US10922554B2 (en) 2019-01-21 2019-05-20 Electronic apparatus and control method thereof
EP19911029.7A EP3874453A4 (en) 2019-01-21 2019-09-30 ELECTRONIC DEVICE AND ITS CONTROL METHOD
PCT/KR2019/012694 WO2020153568A1 (en) 2019-01-21 2019-09-30 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190007382A KR20200090403A (ko) 2019-01-21 2019-01-21 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20200090403A true KR20200090403A (ko) 2020-07-29

Family

ID=71608880

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190007382A KR20200090403A (ko) 2019-01-21 2019-01-21 전자 장치 및 그 제어 방법

Country Status (4)

Country Link
US (1) US10922554B2 (ko)
EP (1) EP3874453A4 (ko)
KR (1) KR20200090403A (ko)
WO (1) WO2020153568A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893080B2 (en) * 2021-02-12 2024-02-06 Distech Controls Inc. Computing device and method using a neural network to determine whether or not to process images of an image flow
US20240185435A1 (en) * 2021-04-09 2024-06-06 Iris Technology Inc. Tracking Objects Across Images
US20230316786A1 (en) * 2022-04-04 2023-10-05 Agilysys Nv, Llc System and method for synchronizing 2d camera data for item recognition in images
CN117237418B (zh) * 2023-11-15 2024-01-23 成都航空职业技术学院 一种基于深度学习的运动目标检测方法和系统

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099461A (ja) 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd 大空間空調方法及び大空間空調装置
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
US8115812B2 (en) * 2006-09-20 2012-02-14 Panasonic Corporation Monitoring system, camera, and video encoding method
US20090115597A1 (en) 2007-11-06 2009-05-07 Jean-Pierre Giacalone Energy saving and security system
JP4751442B2 (ja) * 2008-12-24 2011-08-17 株式会社東芝 映像監視システム
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
JP2011257072A (ja) * 2010-06-09 2011-12-22 Panasonic Electric Works Co Ltd エネルギー管理装置
JP5693898B2 (ja) * 2010-09-14 2015-04-01 株式会社東芝 電力制御装置、電力制御システム及び方法
US8891907B2 (en) * 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
KR101747214B1 (ko) * 2012-03-12 2017-06-15 한화테크윈 주식회사 다채널 영상 분석 방법 및 시스템
KR101256107B1 (ko) 2012-04-24 2013-05-02 주식회사 아이티엑스시큐리티 디브이알 및 그의 영상 감시방법
BR112015003676A2 (pt) * 2012-08-20 2017-07-04 Strimling Jonathan sistema, sistema para previsão de uma identidade de um veículo detectado por múltiplos sensores e método para monitoramento de veículo
US8781293B2 (en) * 2012-08-20 2014-07-15 Gorilla Technology Inc. Correction method for object linking across video sequences in a multiple camera video surveillance system
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US10202135B2 (en) * 2013-05-17 2019-02-12 International Electronic Machines Corp. Operations monitoring in an area
KR101321444B1 (ko) 2013-08-06 2013-10-23 주식회사 센텍 Cctv 모니터링 시스템
JP2015069561A (ja) 2013-09-30 2015-04-13 ダイキン工業株式会社 空調兼サービス提供システム
KR101482646B1 (ko) 2014-04-04 2015-01-15 주식회사 사라다 스마트 기기 연동형 지능형 방범보안 시스템
US9501915B1 (en) * 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
KR101586026B1 (ko) 2014-07-11 2016-01-18 인하대학교 산학협력단 영상감시 시스템을 위한 카메라 감시 영역 산출 장치 및 방법
KR20160014242A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 모니터링 장치를 이용한 센서의 위치 및 이벤트 동작의 매핑 방법 및 장치
KR102336293B1 (ko) 2014-12-19 2021-12-07 삼성전자 주식회사 전자기기의 제어 방법 및 장치
KR101679318B1 (ko) 2014-12-30 2016-11-24 주식회사 펀진 객체 추적 시스템
JP5999394B2 (ja) * 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
KR20160133328A (ko) 2015-05-12 2016-11-22 삼성전자주식회사 웨어러블 디바이스를 이용한 원격 제어 방법 및 장치
JP6399356B2 (ja) * 2015-05-26 2018-10-03 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控系统
KR101777058B1 (ko) 2016-09-28 2017-09-12 중앙대학교 산학협력단 정규화된 메타데이터 생성 장치 및 방법
KR20180086662A (ko) * 2017-01-23 2018-08-01 한화에어로스페이스 주식회사 모니터링 장치 및 시스템
KR20180089660A (ko) * 2017-02-01 2018-08-09 엘지전자 주식회사 조명 제어 시스템
KR20180098079A (ko) * 2017-02-24 2018-09-03 삼성전자주식회사 비전 기반의 사물 인식 장치 및 그 제어 방법
US20180308243A1 (en) 2017-03-28 2018-10-25 Irvine Sensors Corporation Cognitive Tracker -- Appliance For Enabling Camera-to-Camera Object Tracking in Multi-Camera Surveillance Systems
KR101858396B1 (ko) 2017-05-23 2018-05-15 순천대학교 산학협력단 지능형 침입 탐지 시스템

Also Published As

Publication number Publication date
US10922554B2 (en) 2021-02-16
WO2020153568A1 (en) 2020-07-30
EP3874453A1 (en) 2021-09-08
US20200234057A1 (en) 2020-07-23
EP3874453A4 (en) 2022-03-23

Similar Documents

Publication Publication Date Title
US10671877B2 (en) Method and apparatus for performing privacy masking by reflecting characteristic information of objects
US10922554B2 (en) Electronic apparatus and control method thereof
JP6293571B2 (ja) 監視方法及びカメラ
JP6406241B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20220406065A1 (en) Tracking system capable of tracking a movement path of an object
US11263769B2 (en) Image processing device, image processing method, and image processing system
CN109816745B (zh) 人体热力图展示方法及相关产品
CN109740444B (zh) 人流量信息展示方法及相关产品
US11281900B2 (en) Devices, methods, and systems for occupancy detection
US10853658B2 (en) Image-based detection of offside in gameplay
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
KR102022971B1 (ko) 영상의 객체 처리 방법 및 장치
US10373015B2 (en) System and method of detecting moving objects
US9256793B2 (en) Apparatus and method for extracting object image
US20230360297A1 (en) Method and apparatus for performing privacy masking by reflecting characteristic information of objects
CN107431761A (zh) 图像处理设备、图像处理方法以及图像处理系统
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
Monti et al. Smart sensing supporting energy-efficient buildings: On comparing prototypes for people counting
EP3462734A1 (en) Systems and methods for directly accessing video data streams and data between devices in a video surveillance system
Sun et al. People tracking in an environment with multiple depth cameras: A skeleton-based pairwise trajectory matching scheme
KR101857164B1 (ko) 영상획득장치 및 영상처리장치
US20230091536A1 (en) Camera Placement Guidance
KR101441285B1 (ko) 다중 신체 추적 방법 및 이를 지원하는 단말 장치
JP6885179B2 (ja) 撮影装置、撮影制御プログラム、及び撮影管理システム
JP2017073071A (ja) 同一判定プログラム、同一判定装置、および同一判定方法

Legal Events

Date Code Title Description
A201 Request for examination