KR101785017B1 - 모니터링 카메라 - Google Patents

모니터링 카메라 Download PDF

Info

Publication number
KR101785017B1
KR101785017B1 KR1020160077366A KR20160077366A KR101785017B1 KR 101785017 B1 KR101785017 B1 KR 101785017B1 KR 1020160077366 A KR1020160077366 A KR 1020160077366A KR 20160077366 A KR20160077366 A KR 20160077366A KR 101785017 B1 KR101785017 B1 KR 101785017B1
Authority
KR
South Korea
Prior art keywords
image
cover glass
camera
touch sensor
processing unit
Prior art date
Application number
KR1020160077366A
Other languages
English (en)
Other versions
KR20170003406A (ko
Inventor
이고르 구로브스키
토마스 에크달
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20170003406A publication Critical patent/KR20170003406A/ko
Application granted granted Critical
Publication of KR101785017B1 publication Critical patent/KR101785017B1/ko

Links

Images

Classifications

    • H04N5/23293
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19626Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

본 출원은 모니터링 카메라(1)에 관한 것이며, 상기 모니터링 카메라(1)는 카메라 커버 글래스(5) 내에 터치 센서(21)를 구비하며, 터치 센서는 커버 글래스를 터치하고 있거나 또는 이에 근접한 객체들의 위치들을 감지한다. 터치 센서는, 모니터링되는 장면을 묘사하는 이미지 데이터로부터 커버 글래스 상의 객체들을 묘사하는 이미지 데이터를 구분함에 있어서, 카메라에 도움을 줄 수 있다. 이러한 정보는 어떤 이미지 영역들이 덜 중요한 고려 대상인지를 카메라에게 알려줌으로써 이미지 캡춰 설정들을 선택할 때 이용될 수 있으며, 그리고 오류 알람들을 회피하기 위하여 이용될 수 있는바, 이러한 오류 알람들은 커버 글래스 상의 빗방울들(17) 또는 곤충들(19)이 장면 내의 이벤트들로 오해받는 경우에 발생할 수 있다.

Description

모니터링 카메라{MONITORING CAMERA}
본 발명은 카메라에 관한 것이며 그리고 카메라에 의해서 장면을 모니터링하는 방법에 관한 것이다.
빌딩들, 도로들, 가게들 및 다양한 다른 장소들을 모니터링하는데 모니터링 카메라들이 통상적으로 이용되고 있다. 특히, 모션(motion: '모션' 또는 '움직임' 이라 함)의 존재 혹은 특정 유형의 객체의 존재라는 형태로, 이벤트들을 자동으로 검출 혹은 추적하기 위하여 장면들을 모니터링하는데 카메라들이 종종 이용된다. 이러한 모니터링 카메라들은 실내 혹은 실외 둘다에서 이용될 수 있다. 실외에 마운트된 모니터링 카메라는 때때로, 바람, 눈, 및 비 등의 가혹한 날씨 환경들에 노출된다. 또한, 바람에 의해 운반되거나 또는 공기 오염으로부터 먼지나 때 등이 카메라에 쌓일 수도 있다. 빗방울이 떨어지거나 혹은 먼지 입자들의 집합체가 카메라의 뷰(view)에 존재할 때 발생되는 공통적인 문제점은 이들이 실수로 알람(alarm)을 유발할 수 있다는 점이다. 이러한 것은 전형적으로, 카메라가 가까이 있는 작은 객체(가령, 카메라 렌즈의 커버 글래스 아래로 졸졸 흐르는 빗방울)와 더 멀리 있는 큰 객체(가령, 카메라로부터 떨어진 거리에서 이동하는 자동차 혹은 사람)를 구분할 수 없을 때에 발생한다.
물방울 혹은 먼지 얼룩이 카메라의 커버 글래스 상에 존재할 때 발생할 수 있는 또 다른 문제점은, 카메라의 포커스 렌즈 시스템이, 모니터링 환경 내에 있는 보다 관심있는 객체들 대신에, 상기 물방울 혹은 먼지 얼룩에 촛점을 맞추게 될 것이라는 점이다. 이들 "진짜(real)" 객체들은 흐릿해질 수 있으며 조작자가 알아보기가 힘들 수도 있다.
이러한 분야에서 다양한 해결책들이 제공되어 왔다. 하나의 일례는 본 출원인의 유럽출원(EP 2587462)에 개시되어 있으며, 여기서는 객체까지의 거리를 알아내기 위하여 자동-포커스 매커니즘으로부터의 데이터가 이용되며 그리고 카메라에 대해 소정의 거리 간격 내에 있는 객체들만이 관심있는 객체들로 간주되며 그리고 알람을 트리거링할 수 있다. 다른 해결책들도 또한 존재하는바, 카메라에 가까이 있는 객체들이 알람을 트리거하지 않는 것을 보장하기 위하여 예컨대, 레이저 또는 초음파 측정에 기반하는 액티브 거리 측정 디바이스들이 이용된다. 하지만 이러한 분야에서 좀더 개선될 여지가 존재한다.
US 2014/184521은 랩탑 등과 같은 전자 디바이스를 위한 터치 스크린 어셈블리를 개시한다. 터치 스크린 어셈블리는 터치 스크린 커버를 갖는데, 상기 터치 스크린 커버는 커버의 일부을 가로질러 연장되는 터치 스크린 층, 및 터치 스크린 커버에 통합되는 카메라 렌즈 요소를 구비한다.
US 2014/307144는 카메라의 전면에 배치되도록 선택적으로 굽혀질 수 있는 투명 디스플레이를 구비한 디스플레이 디바이스를 개시한다. 상기 디스플레이는 색상 변환 등과 같은 광학 기능을 카메라에 제공하는 광학 조절 유닛을 포함한다.
전술한 바를 참조하면, 본 발명의 목적은 카메라 커버 글래스 상의 빗방울들 또는 곤충들과 같은 다른 객체들이 카메라의 동작에 영향을 미칠 위험성을 감소시키는 것이다
본 발명의 일 양상에 따르면, 장면을 모니터링하는 카메라가 제공되며, 상기 카메라는 투명한 커버 글래스, 상기 투명한 커버 글래스를 통해 상기 장면의 이미지들의 스트림을 캡춰하도록 된 이미지 캡춰 유닛, 및 상기 이미지 캡춰 유닛으로부터 상기 이미지들의 스트림을 수신하도록 된 이미지 프로세싱 유닛을 포함하고, 상기 커버 글래스는, 카메라 뷰 내의, 상기 커버 글래스를 터치하는 객체들의 위치들을 감지하도록 된 터치 센서(21)를 포함하고, 상기 카메라는 상기 터치 센서로부터의 데이터에 기초하여 상기 이미지 캡춰 유닛과 상기 이미지 프로세싱 유닛 중 적어도 하나를 제어하도록 구성된다.
터치 센서는, 커버 글래스 상에 혹은 커버 글래스에 매우 근접한 객체들과 더 먼 거리에 있으며 그리고 상기 장면 내에 실제로 있는 더 관심있는 객체들을 구별할 수 있는 수단을 카메라에게 제공하며, 그리고 이러한 방식으로 카메라의 기능이 개선될 수 있다. 상기 카메라는 더 적은 오류 알람들을 제시할 수 있으며 그리고 보다 정확한 촬영 세팅들을 획득할 수 있는바, 이는 양호한 이미지 품질을 얻을 수 있다.
터치 센서는 용량성 터치 센서 또는 광학 인-글래스 센서 중 적어도 하나를 포함할 수 있으며, 후자는 광학 파형-유도(wave-guide) 터치 센서로 지칭될 수도 있다. 이들 옵션들 둘다는 하나 이상의 객체들의 존재 뿐만 아니라 이들의 위치들도 판별할 수 있는 터치 센서를 제공한다. 또한, 용량성 센서는 통상적으로 이용가능하며, 경쟁력있는 가격에서 양호하게 입증된 기술이며, 그리고 다양한 수 많은 제조자들 및 변형예들이 이용가능하다는 장점을 갖는다.
상기 카메라는 이미지 캡춰 세팅들에 대한 파라미터들을 결정하기 위하여, 터치 센서 데이터에 기초하여, 상기 커버 글래스를 터치하는 객체들의 위치들에 일치하는 이미지 영역들로부터의 이미지 데이터에 대해 나머지 이미지 데이터에 비하여 더 낮은 가중치를 적용하도록 상기 이미지 캡춰 유닛을 제어할 수 있다. 특히, 상기 카메라는 이미지 캡춰 세팅들에 대한 파라미터들을 결정하기 위하여, 상기 커버 글래스를 터치하는 객체들의 위치들에 일치하는 이미지 영역들로부터의 이미지 데이터를 무시하도록 상기 이미지 캡춰 유닛을 제어할 수 있다. 이미지 캡춰 세팅들은 초점 세팅들, 노출 세팅들, 화이트 밸런스 세팅들, IR 컷 필터 모드(IR cut filter mode), 또는 조리개 제어 세팅들 중 적어도 하나를 포함할 수 있다. 이미지 캡춰 유닛에서 이러한 이미지 데이터를 무시하거나 또는 더 적은 가중치를 적용함으로써, 촬영을 위한 보다 정확하고 유용한 세팅들이 획득될 수 있으며, 이는 보다 양호한 이미지 품질 및 보다 유용한 이미지들을 제공한다.
상기 이미지 프로세싱 유닛은 이미지들 내의 이벤트들을 검출하며, 그리고 상기 카메라는 상기 커버 글래스를 터치하는 객체들의 위치들에 일치하는 이미지 위치들에서의 이벤트들이 무시되도록, 터치 센서 데이터에 기초하여 상기 이미지 프로세싱 유닛을 제어할 수 있다. 이러한 방식으로 오류 알람 비율들이 낮아질 수 있으며 그리고 불필요한 알람들을 조작자에게 전송하지 않게 될 보다 유용한 모니터링 시스템이 제공되는바, 이는 조작자가 실제로 주의가 필요한 사건들에만 집중할 수 있게됨을 의미한다.
상기 이미지 프로세싱 유닛은, 하나 이상의 이전(previous) 이미지들 또는 백그라운드 모델과 현재 이미지를 비교함에 의해서, 이미지들 내의 변화 혹은 움직임(motion)의 존재를 검출하는 것, 또는 얼굴(face), 개인(person), 차량(vehicle), 자동차 번호판(license plate)과 같은 특정한 외양(appearance)을 갖는 대상(subject)의 존재를 검출하는 것 중 적어도 하나에 의해서 이미지들 내의 이벤트들을 검출하도록 구성된다.
카메라는 상기 커버 글래스를 터치하는 객체들과 일치하는 이미지 영역들의 이미지 해상도를 감소시키도록, 이미지 프로세싱 유닛을 제어할 수 있다. 이러한 방식으로, 관심없는 이미지 영역들(즉, 커버 글래스 상의 객체들에 의해서 커버되는 이미지 영역들)에 대해서 저장 혹은 전송되는 이미지 데이터의 양을 감소시킴으로써, 대역폭 혹은 저장 공간이 절약될 수 있다.
터치 센서 데이터는 가상 비디오 스트림의 형태로 제공될 수도 있다. 이러한 것은 이미지 프로세싱이 카메라로부터 적어도 부분적으로 원격(remote)인 경우에 매우 유용할 수 있으며, 그리고 입력으로서 비디오 스트림을 수신하도록 적응된 하드웨어 혹은 소프트웨어에서 구현될 수 있다.
이후, 상기 카메라는, 상기 카메라에 의해서 캡춰된 이미지 프레임들을 포함하고 있는 하나의 비디오 스트림 및 터치 센서 데이터를 포함하고 있는 하나의 비디오 스트림을 전송할 수 있다. 이러한 것은 다음과 같은 것을 가능케하는바,
원격 이미지 프로세싱 유닛은, 카메라로부터의 "실제(real)" 비디오 스트림과, 상기 가상 비디오 스트림 둘다로부터 이벤트들을 검출할 수 있으며 그리고 동일한 시간 및 동일한 위치에서 상기 스트림들 둘다에 존재하는 이벤트들을 알람이 유발되어서는 않되는 "오류" 이벤트들로서 분류할 수 있다. 가상 비디오 스트림은 터치 센서 데이터로부터 카메라에서 생성될 수 있으며, 그리고 커버 글래스 상의 임의의 객체들의 위치들을 조작자에게 시각화하는데 이용될 수 있는바, 예컨대, 카메라 사이트에서 유지관리 방문(maintenance visit)이 필요한지를 결정하기 위한 목적으로 이용될 수 있다.
추가적으로 혹은 대안적으로, 터치 센서 데이터는 글래스를 터치하는 객체들의 위치들을 나타내는 이미지 좌표들의 세트의 형태로 제공될 수 있다. 좌표들의 이러한 세트는 커버 글래스에서 검출된 객체들에 대한 시간 및 위치 둘다를 나타낼 수 있으며 그리고 이미지 캡춰 유닛 및 이미지 프로세싱 유닛에서 이용되기 위한 편리한 포맷을 제공할 수 있다. 이미지 좌표들의 세트는 또한 카메라에 의해서 이용될 수도 있으며, 또는 전술한 가상 비디오 스트림을 생성함에 있어서 다른 프로세싱 유닛(가령, 비디오 매니지먼트 시스템)에 의해서 이용될 수도 있다.
본 발명의 제 2 양상에 따르면, 카메라에 의해서 장면을 모니터링하는 방법이 제공되는바, 상기 방법은, 투명한 커버 글래스를 통해 상기 장면의 이미지들의 스트림을 이미지 캡춰 유닛에 의해서 캡춰하는 단계); 상기 이미지들의 스트림을 이미지 프로세싱 유닛에 의해서 수신하는 단계; 상기 투명한 커버 글래스에 포함된 터치 센서에 의해서, 카메라 뷰 내의, 상기 투명한 커버 글래스를 터치하는 객체들의 위치들을 감지하는 단계; 및 상기 터치 센서로부터의 데이터에 기초하여 상기 이미지 캡춰 유닛 및 상기 이미지 프로세싱 유닛 중 적어도 하나를 제어하는 단계를 포함한다.
이러한 본 발명의 양상은 본 발명의 제 1 양상에 대하여 앞서 논의된 것과 동일한 장점들을 갖는다.
본 발명이 적용될 수 있는 추가적인 분야는 아래에 서술된 발명의 상세한 설명으로부터 명백해질 것이다. 하지만, 다음을 유의해야 하는바, 상세한 설명 및 특정 실시예들은, 비록 본 발명의 선호되는 실시예들을 나타내고는 있지만, 단지 일례로서 제공된 것이며, 본 발명의 범위 내에 있는 다양한 변경들 및 수정들은 발명의 상세한 설명으로부터 해당 기술분야의 당업자에게 명백해질 것이다.
따라서, 본 발명은 서술된 디바이스의 특정한 구성 요소들 또는 서술된 방법들의 단계들만으로 한정되지 않는데, 왜냐하면 이러한 디바이스들 및 방법들이 변할 수도 있기 때문이다. 또한, 본 명세서에 사용된 용어들은 특정한 실시예들을 서술하기 위한 목적으로만 사용된 것이며, 본 발명의 제한하고자 의도된 것이 아니다. 발명의 상세한 설명 및 특허청구범위에서 이용된 바와 같이, 하나(a), 하나(an), 상기(the), 상기(said) 라는 관사는, 문맥에서 명확하게 달리 표현하지 않는 한, 하나 이상의 구성요소들이 존재함을 의미하도록 의도된다. 따라서, 예를 들어, "유닛(a unit)" 또는 "상기 유닛(the unit)" 라는 표현은, 다수의 디바이스들 기타 등등을 포함할 수 있다. 또한, "포함한다(comprising, including, containing)" 라는 단어 및 유사한 단어들은 다른 구성요소들 혹은 단계들을 배제하지 않는다.
본 발명은 첨부된 개략적인 도면들을 참조하여 일례로서 보다 상세하게 서술될 것이다.
도1은 모니터링 카메라를 도시한다.
도2는 모니터링 카메라의 부품들의 개략도이다.
도3은 장면을 모니터링하는 카메라를 도시한다.
도4는 카메라에 의해 캡춰되는 모니터링된 장면의 이미지를 도시한다.
도5는 카메라에 의해 캡춰되는 모니터링된 장면의 다른 이미지를 도시한다.
도6은 장면을 모니터링하는 방법을 예시한다.
도1은 하우징(3) 내에 마운트된 모니터링 카메라(1)를 예시한다. 모니터링 카메라(1)는 투명한 커버 글래스(5)를 가지며, 커버 글래스(5)를 통해 상기 카메라는 자신의 환경의 이미지들을 캡춰한다. 도1에서 커버 글래스는 하우징(3)의 일부분으로 도시되지만, 이는 카메라 렌즈처럼 카메라(1) 상에 직접 마운트될 수도 있다.
도2에 도시된 바와 같이, 카메라(1)는 이미지 캡춰 유닛(7) 및 이미지 프로세싱 유닛(9)를 포함한다. 이미지 캡춰 유닛(7)은 이미지 프로세싱 유닛(9)에 의해서 수신되는 이미지들을 캡춰한다.
카메라는 캡춰된 이미지들의 이미지 품질을 개선하기 위하여 다수의 자동화된 세팅들을 수행하도록, 이미지 캡춰 유닛(7)을 자동으로 제어할 수 있다. 이러한 세팅들은 예컨대, 자동 초점(오토포커스) 세팅들, 자동 노출 세팅들 및 자동 화이트 밸런스 세팅들이다. 또한, 이미지 캡춰 유닛(7)는 적외선, IR, 컷 필터(cut filter)를 구비할 수도 있으며 그리고 카메라(1)는 이러한 필터를 위한 적절한 세팅들(예컨대, 온 또는 오프)을 자동으로 선택할 수도 있다. 카메라(1)는 이미지를 캡춰하기 위하여 이미지 캡춰 유닛(7)에 의해서 이용되는 세팅들을 변경 혹은 개량하도록 이미지 데이터를 사용한다.
이미지 프로세싱 유닛(9)은 도2에 도시된 바와 같이, 카메라(1) 내에 물리적으로 위치할 수도 있지만, 이미지 캡춰 유닛(7)으로부터 원격인 위치에 부분적으로 혹은 전체적으로 배치될 수도 있으며, 그리고 케이블 혹은 네트워크를 통하여 카메라(1) 내의 이미지 캡춰 유닛(7)에 연결될 수도 있다.
이미지 프로세싱 유닛(9)은 이미지 캡춰 유닛(7)에 의해서 캡춰되는 이미지들을 분석하여, 상기 장면에서 발생하는 이벤트들을 찾아낼 수 있다. 상기 분석은 예컨대, 백그라운드 이미지 형태의 하나 이상의 이전 이미지들과의 비교에 의한 모션(motion)의 검출 또는 가령, 형상 인식에 의한 인간들, 얼굴들, 차량들 혹은 번호판들 등의 특정 외양을 갖는 대상들(subjects)의 검출을 포함할 수 있다.
다양한 임계값들 및 필터들이 이미지 프로세싱 유닛(9) 내에 구성될 수 있는바, 가령, 너무 작은 모션들 혹은 너무 작은 대상들 또는 관심있는 대상과 관련이 없음을 나타내는 다른 특성들을 갖는 모션 또는 대상들을 무시하기 위한 필터들이 구성될 수 있다. 이러한 방식으로, 모니터링된 장면을 가로질러 달려가는 작은 동물들에 의해서 야기되는 모션들을 무시하는 것이 가능할 수 있다. 또한, 이미지의 소정 영역들 내에서만 모션 혹은 대상 검출을 셋업하거나 또는 소정의 이미지 영역들을 배제하는 것도 가능할 수 있다. 이러한 방식으로, 나무를 커버하는 배제 영역을 설정함으로써, 나무를 흔드는 바람에 의해서 트리거링되는 모션 검출 알람을 회피하는 것이 가능하다.
도3에서, 카메라(1)는 기둥 위에 마운트되는 것으로 도시되며 그리고 장면(11)을 모니터링하도록 구성되는바, 여기서 사람 형태의 대상(13)이 존재하며 그리고 주위를 이동할 수 있다. 카메라(1)에 의해서 캡춰된 상기 장면(11)의 이미지(15)가 도4에 도시된다. 상기 이미지는 모니터링 카메라(1)에 의해서 캡춰되는 비디오 스트림 내의 이미지 프레임들의 시퀀스에 있는 하나의 프레임을 예시한다. 매우 뚜렸한(very noticeable) 빗방울(17)이 또한 이미지(15) 내에 존재한다. 이러한 빗방울은 커버 글래스(5) 상에 위치한다. 이러한 물방울이 글래스를 가로질러 이동하게 되면, 이것은 이미지를 통해 이동할 것이며 그리고 모션 검출 이벤트를 유발할 것인바, 이는 조작자에 대한 오류 모션 검출 알람을 유발할 것이다. 상기 빗방울은 이미지(15) 내의 대상(13)과 대략 동일한 사이즈를 갖기 때문에, 이것을 구별하기 위하여 사이즈 임계값을 사용하는 것은 불가능하다. 모션이 무시되어야만 하는 이미지 영역을 설정하는 것도 또한 도움이 되지 않는데, 왜냐하면 빗방울은 커버 글래스(5) 상의 임의의 곳에 영향을 줄 수 있기 때문이다. 발생할 수 있는 또 다른 문제점은, 초점, 노출 등등의 이미징 세팅들을 자동으로 선택하는 경우, 상기 카메라는 빗방울에 너무나 많은 주의를 기울일 것이라는 점이다. 따라서, 장면을 묘사하고 그리고 실제로 관심있는 이미지 영역들은 흐릿해질 위험이 있으며, 과도 노출 또는 노출 부족 기타 등등의 위험을 겪을 수도 있다.
도5에는 상기 장면(11)의 또 다른 이미지(15)가 도시된다. 이러한 이미지에는 대상(13)이 또한 존재하지만, 빗방울 대신에 곤충(19)이 커버 글래스(5) 상에 있으며 그리고 이미지(15) 내에 캡춰되었다. 도4와 관련하여 논의된 빗방울의 경우에서와 마찬가지로, 상기 곤충은 커버 글래스를 가로질러 이동할 수 있다. 만일, 상기 곤충이 거미줄에 걸려있는 거미라면, 상기 거미는 카메라 뷰에 걸쳐서 앞뒤로 오랜 시간 기간 동안 흔들릴 수도 있다. 이러한 움직임들 둘다는, 모션 검출 알람을 유발할 가능성이 있으며, 그리고 전술한 바와 동일하게, 곤충에 의해 유발되는 상기 움직임들은 사이즈 기반 필터 또는 이미지 영역 기반 필터를 이용하여 필터링될 수 없다. 상기 곤충은 또한, 빗방울의 경우에서와 마찬가지로, 이미지 캡춰 유닛에 대한 부적절한 이미지 세팅들이 카메라에 의해서 선택되게 할 수 있다.
가령, 먼지 입자들 및 다른 오염물들의 집합체 등과 같은 다른 객체들이 또한 카메라 커버 글래스 상에 나타날 수도 있다. 이들도 동일한 문제점을 야기할 수 있다.
따라서, 본 발명에서 제시되는 아이디어는, 카메라(1)의 커버 글래스(5) 상의 관심없는 객체들을 묘사하는 이미지 영역들을 필터링할 수 있는 보다 효율적인 매커니즘을 제공하는 것이다. 이러한 것은 터치 센서(21)를 커버 글래스(5) 내에 혹은 상에 제공함으로써, 달성된다. 터치 센서(21)는 터치 센서와 접촉하거나 또는 커버 글래스(5)에 매우 근접한 임의의 객체들을 기록(register)할 것이며, 그리고 이러한 정보는 카메라(1)에 의해서 이용되어, 이미지 프로세싱 유닛(9) 및 이미지 캡춰 유닛(7) 중 하나 이상의 동작을 개선시킬 수 있다.
터치 센서(21)는 커버 글래스(5)를 터치하는 서로 다른 객체들의 위치들을 감지할 수 있는바, 즉, 상기 터치 센서는 소위 멀티-터치 능력들을 가지며, 그리고 커버 글래스(5) 상에 부딛치는 무거운 객체 뿐만 아니라 가벼운 터치들(light touches)도 느낄 수 있다. 또한, 가령, 다중-층 커버 글래스의 하나의 층 내에 배치되는 바와 같이, 터치 센서(21)가 커버 글래스(5) 상에 혹은 내에 배치되며, 그리고 카메라(1)는 커버 글래스(5)를 통해 이미지를 캡춰하기 때문에, 상기 터치 센서는 투명하며 따라서, 터치 센서는 커버 글래스(5)를 통한 카메라 뷰를 과도하게 악화시키지 않는다.
다양한 터치 센서 기법들이 이용될 수 있다. 일부 일례들은 IR 근접 감지 기반의 터치 센서들 또는 예컨대, Flatfrog 회사에 의해 제공되는 InGlassTM 광학 터치 센서들과 유사한 광학 광-유도 기반의 터치 센서들이다. 하지만, 가장 통상적인 선택은, 많은 터치 스크린 디바이스들(가령, 모바일 폰)에서 이용되는 것과 동일한 유형인 용량성 터치 센서가 될 것이다. 용량성 터치 센서들은 다음과 같은 장점들을 갖는바 예컨대, 통상적으로 이용가능하며, 적절한 가격이며, 속이 다 비치는 설치(see-through installation)를 쉽게 허용하며, 그리고 요구되는 멀티-터치 능력을 제공할 뿐만 아니라 가벼운 터치들도 감지할 수 있으며 심지어 커버 글래스와 직접 접촉하진 않지만 매우 근접한 객체도 감지할 수 있다.
일반적으로, 용량성 터치 센서는 절연 물질(가령, 글래스)을 투명 전도체(통상적으로, 인듐 주석 산화물(indium tin oxide: ITO))로 코팅함으로써 제공된다. 공기와는 다른 유전 상수를 갖는 객체(가령, 빗방울 또는 곤충 등)가 센서의 표면을 터치하거나 혹은 센서에 가까워지면 이는, 유전 상수에서의 변화를 야기한다. 따라서, 센서의 정전기장(electrostatic field) 내에 왜곡(distortion)이 있게될 것이며, 이는 캐패시턴스의 변화로서 측정가능하다. 서로 다른 유형들의 용량성 센서들의 2개의 일례들 중 하나는 상호 용량 센서들(mutual capacitance sensors)이며, 여기서 상기 객체는 로우(row) 및 컬럼 전극들 사이의 상호 커플링을 변화시키고, 이는 연속적으로 스캔되며, 그리고 다른 하나는 셀프- 또는 절대(absolute) 용량 센서들이며, 여기서 상기 객체는 센서를 로드하거나 또는 접지에 대한 기생 캐패시턴스를 증가시킨다. 다양한 용량성 터치 센서 기술들이 US4736191 및 US5305017에 개시되어 있다.
따라서, 커버 글래스 터치 센서(21)는, 커버 글래스(5)를 터치하는 빗방울들 혹은 곤충들 등과 같은 객체들의 위치(들)을 특정하는 데이터를 제공할 수 있다. 이러한 데이터는 카메라(1)의 동작을 제어하는데 이용될 수 있다.
제 1 일례로서, 터치 센서 데이터는 이미지 캡춰 유닛(7)의 동작을 개선시키는데 이용될 수 있는바 예컨대, 이미지 세팅들을 자동으로 결정하는 경우, 커버 글래스(5)를 터치하고 있는 객체들과 일치하는 이미지 영역들로부터의 이미지 데이터를 이미지 캡춰 유닛(7)이 완전히 무시하게 하거나 또는 이에 낮은 가중치를 적용하게 할 수 있다.
자동 초점 알고리즘은 예컨대, 이러한 이미지 데이터를 무시하거나 또는 이에 낮은 가중치를 적용하도록, 제어될 수 있다. 이러한 것은, 모니터링된 장면을 샤프(sharp)하게 만들도록, 소정 거리로 초점이 설정될 것이라는 점이 보다 확실해졌음을 의미한다. 커버 글래스(5) 상의 객체들은 흐릿해질 가능성이 높지만, 이들은 거의 대부분 관심없는 것들이기 때문에, 이러한 것은 통상적으로 문제가 되지 않는다.
또한, 노출 세팅 알고리즘들도 유사한 방식으로 지시를 받을 수 있는바, 이는 커버 글래스(5) 상에 혹은 근접하게 위치하는 관련없는 객체들에 기초하는 것이 아니라, 상기 장면에 기초하여, 노출 시간이 올바르게 설정될 것임을 의미한다.
또한, 커버 글래스(5)를 터치하는 객체들에 일치하는 이미지 영역들로부터의 이미지 데이터를 무시하던가 또는 적은 가중치를 부여하도록, 자동 화이트 밸런스 알고리즘도 제어될 수 있다. 이러한 방식으로, 화이트 밸런스는 모니터링된 장면을 도시하는 이미지 영역들에 보다 양호하게 적응될 것이다. 커버 글래스(5) 상의 객체들은 올바르게 도시되지 않을 수도 있지만, 전술한 바와 같이, 이러한 것은 통상적으로 문제가 되지 않는다.
또한, 터치 센서 데이터는 IR 컷 필터(IR cut filter)에 대한 필터 모드(즉, 온 또는 오프)를 제어하는데 이용될 수 있는데, 따라서 상기 장면을 촬영하기 위하여 이러한 필터가 이용되어야 하는지 아닌지의 여부를 결정할 때에, 커버 글래스(5)를 터치하는 객체들에 대응하는 이미지 영역들로부터의 데이터는 무시되거나 또는 적은 가중치가 부여될 수 있다.
자동 조리개 제어(automatic iris control)를 위한 매커니즘이 카메라에 구비되어 있는 경우, 이러한 매커니즘도 터치 센서 데이터에 의해서 동일한 방식으로 영향을 받을 수 있는바, 즉, 조리개 세팅을 제어하기 위한 목적으로, 객체들의 커버 글래스(5)를 터치하고 있는 영역들로부터의 이미지 데이터는 무시되거나 혹은 적은 가중치가 부여될 수 있다. 또한, 시야 깊이(depth of field)를 감소시키도록 자동 조리개가 제어될 수 있는바, 이는 "지나서 보기(see past)"를 할 수 있거나 또는 커버 글래스 상의 객체에 의한 영향을 감소시키기 위한 것이다.
이미지 캡춰 유닛(7)을 제어할 때에 커버 글래스 터치 센서(21)로부터의 데이터를 이용하는 것에 부가하여 혹은 그 대신에, 상기 데이터는 이미지 프로세싱 유닛(9)을 제어하는데 이용될 수도 있다. 이미지 프로세싱 유닛(9)이 이미지 캡춰 유닛(7)으로부터의 이미지들을 분석하고 그리고 이벤트(즉, 이미지 영역 내의 객체 또는 움직임)를 찾아내는 경우, 이러한 이벤트가 카메라(1)로부터 일정 거리에 있는 감시 영역(surveilled area) 내의 객체 혹은 움직임에 의해서 야기되는 것인지 혹은 커버 글래스(5) 상에 또는 커버 글래스(5)에 매우 가깝게 위치한 객체(가령, 빗방울 또는 곤충)에 의해서 야기되는 것인지를 판별하기 위하여 터치 센서 데이터가 이용될 수 있다. 후자의 경우, 커버 글래스(5) 상의 소정의 위치에 있는 객체의 존재를 나타내는 터치 센서 데이터가 존재할 것이다.
이미지 프로세싱 유닛(9)에 의해서 발견된 이들 이벤트들 중에서 어떤 이벤트들이 상기 장면에 있는 객체 혹은 움직임에 대응하는지 또는 어떤 이벤트들이 커버 글래스(5) 상의 오염(contamination)에 대응하는지를 판별하도록, 터치 센서 데이터 및 이미지 프로세싱 유닛(9)으로부터의 분석 결과가 함께 결합될 수 있다. 커버 글래스(5) 상의 객체들에 대응하지 않는 이벤트들은 보안 담당자들에게 흥미로울 가능성이 매우 크며, 따라서 커버 글래스(5) 상의 객체들에 대응하는 이벤트들에 비하여 다르게 플래그(flag)될 수 있다. 하나의 일례로서, 커버 글래스(5) 상의 객체들에 대응하지 않는 이벤트들에 대해서만 알람들이 발생할거나 또는 로그 엔트리들(log entries)이 작성될 수도 있는 반면에, 커버 글래스(5)를 터치하는 객체들의 위치들과 일치하는 이미지 위치들에서 검출된 이벤트들은 무시될 수도 있다.
대안적인 구현예에서, 이들 이벤트들은 터치 센서 데이터를 이용함으로써 프로세스에서 더 이른 단계에서 무시될 수도 있는바, 터치 센서가 커버 글래스(5) 상의 임의의 객체들을 나타내지 않는 이들 영역들 내에서만 움직임 혹은 객체들을 검출하도록 이미지 프로세싱 유닛(9)이 제어될 수 있다.
따라서, 터치 센서 데이터는 다이내믹 필터들을 이미지 프로세싱 유닛에 제공하는데 이용될 수 있는바, 터치 센서가 커버 글래스 상의 객체를 나타내는 이미지의 영역들은, 이벤트 검출로부터 제외되는 영역들로 설정된다.
요약하면, 이들 2개의 구현예들에서, 이미지 프로세싱 유닛(9)은 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 위치들에서의 이벤트들을 무시할 수 있을 것인바, 예컨대 이러한 이벤트들을 전혀 검출하지 않음으로써, 또는 검출 이후에 이들 이벤트들을 관심없는 이벤트들로 분류함으로써, 상기 이벤트들을 무시할 수 있을 것이다.
또 다른 옵션으로서, 터치 센서 데이터는, 커버 글래스 상의 객체들과 일치하는 이미지 영역들에서 이미지 프로세싱 유닛이 해상도를 낮추는 것을 허용함으로써, 저장 공간 혹은 대역폭을 절감하는데 이용될 수 있다. 이들 영역들은, 전술한 바와 같이, 관심있는 임의의 정보를 포함하고 있지 않을 가능성이 높기 때문에, 상기 영역들에 대한 세부정보를 덜 제공하는 것은 문제가 되지 않는다.
터치 센서 데이터는 커버 글래스를 터치하고 있는 객체들이 어디에 있는지를 나타내는 좌표들의 세트로서 제공될 수도 있다. 좌표들의 상기 세트는 통상적으로, 시간 및 위치 둘다와 객체들의 연장(extension of objects)을 나타낼 것인바, 이는 빗방울 또는 곤충 또는 다른 오염이 커버 글래스 상에서 이동하는 경우를 캡춰하기 위한 것이다. 또한, 터치 센서 데이터는 보다 정적인 성분(more static component)을 포함할 수 있는데, 이는 오랜 시간 기간 동안 동일한 위치에서 커버 글래스와 접촉하거나 혹은 커버 글래스에 근접한 객체들을 나타낸다.
일부 경우들에 있어서, 터치 센서 데이터는 가상의 즉, 인공적으로 생성된, 비디오 스트림의 형태로 제공될 수도 있으며, 이는 커버 글래스를 터치하고 있는 객체들을 시각화한다. 이러한 형태로 터치 센서 데이터를 제공하는 것은, 이미지 프로세싱이, 보다 상세하게는 이벤트 검출이, 이미지 캡춰 유닛(7)과 원격(remote)인 곳(가령, 비디오 관리 시스템 등에서)에서 수행되는 경우에 매우 유용할 수 있으며, 그리고 이러한 시스템은 비디오 스트림 형태의 입력을 수신할 수 있다. 따라서, 터치 센서 데이터의 포맷을 수용하기 위한 임의의 특별한 준비들(arrangement)이 갖춰져야할 필요가 없이, 터치 센서 데이터는 원격인 일측(remote end)에서 용이하게 수신될 수 있다. 만일, 좌표들의 세트(시간이 지남에 따라 변하는)의 형태인 터치 센서 데이터가 이러한 셋업에서 이용되는 경우라면, 이러한 포맷의 데이터를 수신하도록 수신측이 적응되어야만 하며, 터치 센서 데이터가 비디오 스트림의 형태로 제공된다면, 이러한 적응이 회피될 수도 있다.
가상 비디오 스트림은 카메라로부터의 "정상적인(normal)" 비디오 스트림과 결합 혹은 상관될 수도 있는데, 이는 정상적인 스트림에서의 이벤트들이 전혀 검출되지 않아야 하는 또는 검출되는 때에 무시되어야만 하는 영역들을 찾아내기 위한 것이다.
가상 비디오 스트림은 예컨대, 전술한 바와 같은 시간-의존적인 좌표들의 세트로부터 생성될 수 있다. 이미지 캡춰 유닛은 또한 가상 비디오 스트림의 형태인 터치 센서 데이터를 수신할 수도 있지만, 이미지 캡춰 유닛에서 좌표들의 세트 표현 형태인 터치 센서 데이터를 이용하는 것이 아마도 보다 편리할 것이다.
도6에는, 본 발명의 일실시예에 따라 카메라에 의해서 장면을 모니터링하는 방법(600)이 예시된다. 단계 601에서, 투명한 커버 글래스를 통해 이미지들의 스트림이 이미지 캡춰 유닛에 의해서 캡춰된다. 단계 603에서, 이미지 프로세싱 유닛에 의해서 이미지들의 스트림이 수신된다. 단계 605에서, 커버 글래스에 포함된 터치 센서는 커버 글래스를 터치하고 있는 객체들의 위치들을 감지하며, 그리고 단계 607에서는, 터치 센서로부터의 데이터에 기초하여 이미지 캡춰 유닛 및 이미지 프로세싱 유닛 중 하나 이상이 제어된다.
요약하면, 본 출원은 모니터링 카메라(1)에 관한 것이며, 상기 모니터링 카메라(1)는 카메라 커버 글래스(5) 내에 터치 센서(21)를 구비하며, 터치 센서는 커버 글래스(5)를 터치하고 있거나 또는 이에 근접한 객체들의 위치들을 감지한다. 터치 센서(21)는, 모니터링되는 장면을 묘사하는 이미지 데이터로부터 커버 글래스(5) 상의 객체들을 묘사하는 이미지 데이터를 구분함에 있어서, 카메라(1)에 도움을 줄 수 있다. 이러한 데이터는 어떤 이미지 영역들이 덜 중요한 고려 대상인지를 카메라에게 알려줌으로써 이미지 캡춰 설정들을 선택할 때 이용될 수 있으며, 그리고 오류 알람들을 회피하기 위하여 이용될 수 있는바, 이러한 오류 알람들은 커버 글래스(5) 상의 빗방울들(17) 또는 곤충들(19)이 장면 내의 이벤트들로 오해받는 경우에 발생할 수 있다.
1: 카메라
3: 하우징
5: 커버 글래스
7: 이미지 캡춰 유닛
9: 이미지 프로세싱 유닛
11: 모니터링되는 장면
13: 대상(사람)
15: 이미지
17: 빗방울
19: 곤충
21: 터치 센서

Claims (15)

  1. 장면을 모니터링하는 카메라로서,
    투명한 커버 글래스(5);
    상기 투명한 커버 글래스를 통해 상기 장면의 이미지들의 스트림을 캡춰하도록 된 이미지 캡춰 유닛(7); 및
    상기 이미지 캡춰 유닛으로부터 상기 이미지들의 스트림을 수신하도록 된 이미지 프로세싱 유닛(9)을 포함하고,
    상기 커버 글래스는, 카메라 뷰 내의, 상기 커버 글래스를 터치하는 객체들의 위치들을 감지하도록 된 터치 센서(21)를 포함하고,
    상기 카메라는,
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들로부터의 이미지 데이터를 무시하거나 또는 더 적은 가중치를 적용하도록, 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 캡춰 유닛의 이미지 세팅들을 자동으로 결정하는 것, 또는
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들에서 검출된 이벤트들을 나머지 이미지에서 검출된 이벤트들과는 달리 플래그하거나 또는 상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들을 이벤트 검출로부터 배제하도록, 상기 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 프로세싱 유닛에서 이벤트를 검출하는 것, 또는
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들의 이미지 해상도를 낮추도록, 상기 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 프로세싱 유닛에서 이미지 데이터량을 감소시키는 것
    중 적어도 하나를 제어하는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  2. 제1항에 있어서,
    상기 터치 센서는, 용량성 터치 센서 또는 광학 인-글래스 센서(optical in-glass sensor) 중 적어도 하나를 포함하는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  3. 제1항에 있어서,
    상기 이미지 세팅들은 초점 세팅들, 노출 세팅들, 화이트 밸런스 세팅들, IR 컷 필터 모드(IR cut filter mode), 또는 조리개 제어 세팅들 중 적어도 하나를 포함하는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  4. 제1항에 있어서,
    상기 카메라는 상기 커버 글래스를 터치하는 객체들의 위치들에 일치하는 이미지 영역들에서 검출된 이벤트들을 무시하도록 상기 이미지 프로세싱 유닛을 제어하는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  5. 제1항에 있어서,
    상기 이미지 프로세싱 유닛은,
    하나 이상의 이전(previous) 이미지들 또는 백그라운드 모델과 현재 이미지를 비교함에 의해서, 이미지들 내의 변화 혹은 움직임(motion)의 존재를 검출하는 것, 및
    얼굴(face), 개인(person), 차량(vehicle), 자동차 번호판(license plate)과 같은 특정한 외양(appearance)을 갖는 대상(subject)의 존재를 검출하는 것
    중 적어도 하나에 의해서 상기 이미지들 내의 이벤트들을 검출하는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  6. 제1항에 있어서,
    상기 터치 센서 데이터는, 가상 이미지 스트림의 형태로 제공되는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  7. 제1항에 있어서,
    상기 터치 센서 데이터는, 상기 커버 글래스를 터치하는 객체들의 위치들을 나타내는 이미지 좌표들의 세트의 형태로 제공되는 것을 특징으로 하는 장면을 모니터링하는 카메라.
  8. 카메라에 의해서 장면을 모니터링하는 방법으로서,
    투명한 커버 글래스를 통해 상기 장면의 이미지들의 스트림을 이미지 캡춰 유닛에 의해서 캡춰하는 단계(601);
    상기 이미지들의 스트림을 이미지 프로세싱 유닛에 의해서 수신하는 단계(603);
    상기 투명한 커버 글래스에 포함된 터치 센서에 의해서, 카메라 뷰 내의, 상기 투명한 커버 글래스를 터치하는 객체들의 위치들을 감지하는 단계(605); 및
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들로부터의 이미지 데이터를 무시하거나 또는 더 적은 가중치를 적용하도록, 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 캡춰 유닛의 이미지 세팅들을 자동으로 결정하는 것, 또는
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들에서 검출된 이벤트들을 나머지 이미지에서 검출된 이벤트들과는 달리 플래그하거나 또는 상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들을 이벤트 검출로부터 배제하도록, 상기 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 프로세싱 유닛에서 이벤트를 검출하는 것, 또는
    상기 커버 글래스를 터치하는 객체들의 위치들과 일치하는 이미지 영역들의 이미지 해상도를 낮추도록, 상기 터치 센서 데이터와 조합되는 이미지 데이터에 기초하여 상기 이미지 프로세싱 유닛에서 이미지 데이터량을 감소시키는 것
    중 적어도 하나를 제어하는 단계(607)
    를 포함하는 것을 특징으로 하는 카메라에 의해서 장면을 모니터링하는 방법.
  9. 제8항에 있어서,
    상기 이미지 프로세싱 유닛에 의한 이벤트 검출은, 상기 커버 글래스를 터치하는 객체들의 위치들에 일치하는 이미지 영역들에서 검출된 이벤트들을 무시하는 것을 포함하는 것을 특징으로 하는 카메라에 의해서 장면을 모니터링하는 방법.
  10. 제8항에 있어서,
    상기 이미지 프로세싱 유닛에 의한 이벤트 검출은,
    하나 이상의 이전 이미지들 또는 백그라운드 모델과 현재 이미지를 비교함에 의해서 이미지들 내의 변화 혹은 움직임의 존재를 검출하는 것, 및
    얼굴, 개인, 차량, 자동차 번호판과 같은 특정한 외양을 갖는 대상의 존재를 검출하는 것 중 적어도 하나를 포함하는 것을 특징으로 하는 카메라에 의해서 장면을 모니터링하는 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
KR1020160077366A 2015-06-30 2016-06-21 모니터링 카메라 KR101785017B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15174624.5 2015-06-30
EP15174624.5A EP3113477B1 (en) 2015-06-30 2015-06-30 Monitoring camera

Publications (2)

Publication Number Publication Date
KR20170003406A KR20170003406A (ko) 2017-01-09
KR101785017B1 true KR101785017B1 (ko) 2017-10-12

Family

ID=53502525

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160077366A KR101785017B1 (ko) 2015-06-30 2016-06-21 모니터링 카메라

Country Status (6)

Country Link
US (1) US10326917B2 (ko)
EP (1) EP3113477B1 (ko)
JP (1) JP6250101B2 (ko)
KR (1) KR101785017B1 (ko)
CN (1) CN106331444B (ko)
TW (1) TWI625967B (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI674000B (zh) * 2017-03-01 2019-10-01 坦前科技股份有限公司 具景深效果之影像追蹤系統與標記之方法
CN107085440B (zh) * 2017-04-19 2020-04-24 金钱猫科技股份有限公司 一种摄像动态捕捉目标的方法及装置
KR102179419B1 (ko) 2018-09-07 2020-11-16 김용래 화분 받침대
US10694105B1 (en) * 2018-12-24 2020-06-23 Wipro Limited Method and system for handling occluded regions in image frame to generate a surround view
KR102328667B1 (ko) * 2019-12-06 2021-11-17 이정무 감시 영역 설정을 이용한 영상 관제 방법, 영상 관제 장치 및 컴퓨터 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184521A1 (en) 2012-12-28 2014-07-03 Wah Yiu Y.U. Kwong Integrated camera lens and touch screen cover for an electronic device
US20140307144A1 (en) 2013-04-15 2014-10-16 Samsung Display Co., Ltd. Portable device with camera

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4267443A (en) * 1978-04-24 1981-05-12 Carroll Manufacturing Corporation Photoelectric input apparatus
US4736191A (en) 1985-08-02 1988-04-05 Karl E. Matzke Touch activated control method and apparatus
JPH02281132A (ja) * 1989-04-21 1990-11-16 Matsushita Electric Ind Co Ltd 汚れ検出器
US5305017A (en) 1989-08-16 1994-04-19 Gerpheide George E Methods and apparatus for data input
US6607606B2 (en) * 2001-04-03 2003-08-19 Hewlett-Packard Development Company, L.P. Self-cleaning lens shield
US6838986B2 (en) 2001-09-25 2005-01-04 Koninklijke Philips Electronics N.V. Notification of use of network-enabled device
US7259367B2 (en) * 2002-05-18 2007-08-21 Elmos Semiconductor Ag Rain sensor device for detecting the wetting and/or soiling of a windscreen surface
AU2003290791A1 (en) * 2002-11-14 2004-06-15 Donnelly Corporation Imaging system for vehicle
JP4175649B2 (ja) * 2004-07-22 2008-11-05 松下電器産業株式会社 半導体装置
JP2006198602A (ja) * 2004-12-24 2006-08-03 Tanaka Mach:Kk ドーム用ワイパー装置
US8553088B2 (en) * 2005-11-23 2013-10-08 Mobileye Technologies Limited Systems and methods for detecting obstructions in a camera field of view
US7609961B2 (en) * 2006-04-11 2009-10-27 Park Eric S Vehicle camera
DE102006044786A1 (de) * 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
JP5132509B2 (ja) * 2008-09-30 2013-01-30 セコム株式会社 移動物体追跡装置
WO2010038223A1 (en) * 2008-10-01 2010-04-08 Hi-Key Limited A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
WO2010084521A1 (ja) * 2009-01-20 2010-07-29 本田技研工業株式会社 ウインドシールド上の雨滴を同定するための方法及び装置
JP4891388B2 (ja) 2009-12-28 2012-03-07 株式会社エスディー システムイベントログシステム
US20110292212A1 (en) * 2010-05-27 2011-12-01 Asmo Co., Ltd. Washer nozzle for vehicle mounted camera, vehicle mounted camera, and washer device for vehicle
US20120087573A1 (en) * 2010-10-11 2012-04-12 Vinay Sharma Eliminating Clutter in Video Using Depth Information
WO2012138455A1 (en) * 2011-03-10 2012-10-11 Bowles Fluidics Corporation Integrated automotive system, nozzle assembly and remote control method for cleaning an image sensor's lens
US9143703B2 (en) * 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
EP2587462A1 (en) 2011-10-31 2013-05-01 Axis AB Image monitoring system and method with false alarm rate reduction
CN102594590B (zh) 2012-02-06 2015-01-14 烽火通信科技股份有限公司 告警主动上报中对振荡告警的抑制方法
JP5902006B2 (ja) * 2012-03-09 2016-04-13 株式会社メガチップス 監視カメラ
JP5896807B2 (ja) * 2012-03-29 2016-03-30 株式会社メガチップス 監視カメラ装置
JP6117634B2 (ja) * 2012-07-03 2017-04-19 クラリオン株式会社 レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
EP2871101B1 (en) * 2012-07-03 2020-06-17 Clarion Co., Ltd. Vehicle surrounding monitoring device
CN104508552B (zh) * 2012-07-27 2016-04-20 日产自动车株式会社 车载摄像机装置
JP6045889B2 (ja) * 2012-11-27 2016-12-14 クラリオン株式会社 車載用制御装置
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
JP6163207B2 (ja) * 2013-07-18 2017-07-12 クラリオン株式会社 車載装置
JP6245875B2 (ja) * 2013-07-26 2017-12-13 クラリオン株式会社 レンズ汚れ検出装置およびレンズ汚れ検出方法
TW201519649A (zh) 2013-11-01 2015-05-16 Alpha Networks Inc 網路視訊錄影的快速歷史回放及事件鎖定之方法
DE102013019138A1 (de) * 2013-11-12 2015-05-13 Application Solutions (Electronics and Vision) Ltd. Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
US9473719B2 (en) * 2013-12-30 2016-10-18 Taiwan Semiconductor Manufacturing Company, Ltd. Protection layer in CMOS image sensor array region
KR101751664B1 (ko) * 2014-02-14 2017-06-27 카우텍스 텍스트론 게엠베하 운트 콤파니 카게 공기 및 유체 세정 시스템 및 차량 비젼 디바이스들을 세정하기 위한 방법
US9217864B2 (en) * 2014-03-28 2015-12-22 Richard Bell Automatic camera lens cleaning system
US10161886B2 (en) * 2014-06-27 2018-12-25 Flatfrog Laboratories Ab Detection of surface contamination
EP3187934B1 (en) * 2014-08-29 2018-11-07 SZ DJI Technology Co., Ltd. Image capturing module
WO2016152682A1 (ja) * 2015-03-23 2016-09-29 株式会社小糸製作所 車輌用撮像装置、車輌用灯具及び電子制御ユニット
US11052434B2 (en) * 2016-12-23 2021-07-06 Raytheon Canada Limited Positive air pressure system (PAPS) for camera enclosures in dirty environments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140184521A1 (en) 2012-12-28 2014-07-03 Wah Yiu Y.U. Kwong Integrated camera lens and touch screen cover for an electronic device
US20140307144A1 (en) 2013-04-15 2014-10-16 Samsung Display Co., Ltd. Portable device with camera

Also Published As

Publication number Publication date
KR20170003406A (ko) 2017-01-09
JP2017055387A (ja) 2017-03-16
JP6250101B2 (ja) 2017-12-20
TW201703504A (zh) 2017-01-16
CN106331444B (zh) 2018-02-16
US10326917B2 (en) 2019-06-18
CN106331444A (zh) 2017-01-11
TWI625967B (zh) 2018-06-01
EP3113477B1 (en) 2017-08-02
US20170006192A1 (en) 2017-01-05
EP3113477A1 (en) 2017-01-04

Similar Documents

Publication Publication Date Title
KR101785017B1 (ko) 모니터링 카메라
US10070053B2 (en) Method and camera for determining an image adjustment parameter
CN109040709B (zh) 视频监控方法及装置、监控服务器及视频监控系统
US10762638B2 (en) Autonomous camera-to-camera change detection system
US8300890B1 (en) Person/object image and screening
CN104902246B (zh) 视频监视方法和装置
US7385626B2 (en) Method and system for performing surveillance
JP4803376B2 (ja) カメラ妨害検知方式
US20140160294A1 (en) Surveillance system
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
JP2013218679A (ja) 短時間の駐車違反を取り締まるための、ビデオベースの検知装置及び通知装置
KR101275297B1 (ko) 이동객체 추적 카메라 장치
CN109376601B (zh) 基于高速球的物体跟踪方法、监控服务器、视频监控系统
KR101136366B1 (ko) 객체 자동 추적 시스템
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
CN204650694U (zh) 一种用于基站区域防盗的图像监控设备
KR20180089249A (ko) 카메라의 자가 고장진단 방법
CN112616049B (zh) 监控设备水雾霜处理方法、装置、设备和介质
JP2006314061A (ja) 画像処理装置及びノイズ判定方法
KR20230020184A (ko) 고정 카메라 및 이동 카메라를 이용한 영상 분석 장치
WO2013133045A1 (ja) 監視システム
JP2003006659A (ja) コンピュータによる画像処理方法と画像処理装置
CN114973124A (zh) 高空抛物的监测方法、装置、电子设备和可读存储介质
JP2017084426A (ja) 火災検知装置及び火災検知方法

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant