KR101930437B1 - 카메라 네트워크 시스템의 방법 및 디바이스 - Google Patents

카메라 네트워크 시스템의 방법 및 디바이스 Download PDF

Info

Publication number
KR101930437B1
KR101930437B1 KR1020170058767A KR20170058767A KR101930437B1 KR 101930437 B1 KR101930437 B1 KR 101930437B1 KR 1020170058767 A KR1020170058767 A KR 1020170058767A KR 20170058767 A KR20170058767 A KR 20170058767A KR 101930437 B1 KR101930437 B1 KR 101930437B1
Authority
KR
South Korea
Prior art keywords
image data
camera
encoded image
network
scene
Prior art date
Application number
KR1020170058767A
Other languages
English (en)
Other versions
KR20170129055A (ko
Inventor
미카엘 란브로
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20170129055A publication Critical patent/KR20170129055A/ko
Application granted granted Critical
Publication of KR101930437B1 publication Critical patent/KR101930437B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • H04N7/035Circuits for the digital non-picture data signal, e.g. for slicing of the data signal, for regeneration of the data-clock signal, for error detection or correction of the data signal
    • H04N5/238
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N5/23216
    • H04N5/243
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)

Abstract

네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법이 제공된다. 동일한 장면을 나타내는 제1 및 제2 인코딩된 이미지 데이터가 네트워크를 통해 수신된다(S02, S04). 제1 및 제2 인코딩된 이미지 데이터는, 서로 다른 카메라 파라미터들을 사용하지만 동일한 광 조건 하에서 수집된다. 특히, 제2 인코딩된 이미지 데이터가 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이트하는 카메라 파라미터들을 사용하여, 상기 제2 인코딩된 이미지 데이터가 수집된다. 상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량 대 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율이 결정되고(S06), 그리고 이후, 상기 비율은 상기 제1 인코딩된 이미지 데이터의 노이즈 레벨의 표시로서 사용된다(S08).

Description

카메라 네트워크 시스템의 방법 및 디바이스{METHOD AND DEVICE IN A CAMERA NETWORK SYSTEM}
본 발명은 네트워크 카메라 시스템들의 분야에 관한 것이다. 특히, 본 발명은 인코딩된 이미지 데이터에서 노이즈 레벨의 표시를 제공하는 방법, 장치 및 시스템에 관한 것이다.
네트워크 카메라 시스템은 네트워크에 접속되는 복수의 카메라들을 포함할 수 있다. 네트워크 내의 카메라들은, 이미지 스트림들, 즉, 네트워크를 통해 서버에 전송되는 이미지 데이터의 프레임들의 시퀀스를 캡처할 수 있다. 서버는, 예를 들어, 카메라들로부터 이미지 스트림들을 요청하고, 이미지 스트림들을 수신하며, 그리고 이미지 스트림들을 저장할 수 있다. 카메라들은, 통상적으로, 네트워크를 통해 서버로 이미지 스트림들을 전송하기 전에 이미지 스트림들을 인코딩하고 때로는 전송한다. 따라서, 서버는 카메라에 의해 캡처된 원래의 이미지 데이터에 액세스하지 않고, 이미지 데이터의 인코딩된 버전만 액세스할 수 있다.
다양한 애플리케이션들에서, 이미지 데이터의 노이즈 레벨을 측정하는 것은 흥미로운 일이다. 예를 들어, 이미지 데이터에서의 노이즈의 레벨은 이미지들에서 주간 또는 야간인지를 정의하기 위해 사용될 수 있는데, 이는 이미지 데이터에서의 노이즈 레벨은 통상적으로 어두운 광 조건들 하에서 증가하기 때문이다.
신호-대-잡음비(SNR)는 이미지에서의 노이즈 레벨의 표시자로 사용될 수 있다고 알려져 있다. 하지만, 배경 잡음의 레벨과 관련하여 원하는 신호의 레벨의 척도인 SNR을 계산하기 위해, 이미지 데이터는 가까이에 있을 필요가 있다. 따라서, 상기 SNR은, 이미지 데이터를 먼저 디코딩하지 않고 네트워크 카메라 시스템의 서버에서 수신되는 인코딩된 이미지 데이터 상에 직접 적용될 수 없다. 따라서, 개선이 필요하다.
문서 US 2012/002000 A1은, 장면을 나타내는 복수의 인코딩된 노이즈 제거된 이미지 데이터를 네트워크를 통해 수신하도록 구성된 네트워크 카메라 시스템의 디바이스, 및 노이즈 제거 및 인코딩 이전의 이미지 데이터의 노이즈 레벨을 나타내는 노이즈 레벨 표시기를 개시한다.
문서 WO 2007/109856 A1은, 네트워크 카메라에 의해 캡처된 프로브 이미지 및 기준 이미지를 네트워크를 통해 수신하고 그리고 네트워크 카메라가 프로브 이미지 및 기준 이미지의 두드러진 피처들의 분석을 기반으로 유지 보수가 필요한지 여부를 결정하는 자동 테스트 시스템을 개시한다.
상기의 관점에서, 본 발명의 목적은, 종래 기술의 상기의 단점들을 완화시키고 그리고 이미지 데이터 내의 노이즈의 레벨의 표시가 인코딩된 이미지 스트림들로부터 직접 결정될 수 있게 하는 방법, 디바이스 및 시스템을 제공한다.
본 발명의 문제에 대한 기술적인 해결책은, 제1항에 따른 방법, 제11항에 따른 컴퓨터 프로그램 제품 및 제12항에 따른 디바이스에 의해 달성된다.
본 발명의 제1 양상에 따르면, 상기의 목적은, 네트워크 카메라 시스템 내의 디바이스에 의해 수행되는 방법에 의해 달성되고, 상기 방법은:
장면을 나타내는 제1 인코딩된 이미지 데이터를, 네트워크를 통해, 수신하는 단계 - 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 카메라에 의해 수집되며 - 와;
동일한 상기 장면을 나타내는 제2 인코딩된 이미지 데이터를, 상기 네트워크를 통해 수신하는 단계 - 상기 제2 인코딩된 이미지 데이터는, 상기 카메라에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 상기 카메라에 의해 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며 - 와;
상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량과 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율을 결정하는 단계와; 그리고
상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하는 단계를 포함한다.
이러한 방법으로, 동일한 장면을 나타내는 제1 및 제2 인코딩된 이미지 데이터가 네트워크를 통해 수신된다. 상기 제1 및 제2 인코딩된 이미지 데이터는, 서로 다른 카메라 파라미터들을 사용하지만, 동일한 광 조건 하에서 수집된다. 특히, 제2 인코딩된 이미지 데이터가 더 어두운 광 조건하에서 수집되는 것을 시뮬레이션하는 카메라 파라미터들을 사용하여, 상기 제2 인코딩된 이미지 데이터가 수집된다. 즉, 상기 제2 인코딩된 이미지 데이터는 제1 광 조건 하에서 수집되지만, 제2 카메라 파라미터들의 선택으로 인해, 제2 인코딩된 이미지 데이터는 제2의 더 어두운 광 조건 하에서 카메라에 의해 수집되는 이미지의 노이즈 레벨을 가질 것이다.
더 어두운 광 조건을 시뮬레이션하기 위해, 제2 카메라 파라미터들을 사용하여 상기 카메라에 의해 수집된 이미지 데이터 내의 노이즈 레벨이 제1 카메라 파라미터들을 사용하여 상기 카메라에 의해 수집된 이미지 데이터 내의 노이즈의 레벨과 비교하여 증가되도록, 상기 제2 카메라 파라미터들은 선택된다. 이와 관련하여, 수집된 이미지들에서의 노이즈 레벨은 카메라 파라미터들의 변화에 따라 선형적으로 증가하지 않는다는 점을 아는 것이 중요하다. 잠시후에, 노이즈가 포화되기 시작하고, 이는, 카메라 파라미터들이 이러한 효과로 변경되더라도 노이즈 레벨은 더 이상 증가되지 않음을 의미한다. 따라서, 이러한 배열로, 제2 인코딩된 이미지 데이터는, 더 어두운 광 조건에서 노이즈 레벨에 의해 정의된 바와 같이, 높은 레벨의 잡음 또는 심지어 포화된 레벨의 잡음에 대응하는 것으로 알려져 있다.
본 발명의 아이디어는, 높은 레벨의 노이즈 또는 심지어 포화 레벨의 노이즈, 즉, 더 어두운 광 조건하에서 획득되는 레벨의 노이즈에 대한 벤치 마크로서 제2 인코딩된 이미지 데이터를 사용하는 것이다. 따라서, (다음에 더 설명되는 바와 같이) 제1 인코딩된 이미지 데이터와 제2 인코딩된 이미지 데이터를 비교함으로써, 제1 인코딩된 이미지 데이터의 노이즈 레벨의 표시가 달성될 수 있다.
이미지 데이터를 인코딩할 때, 이미지 데이터에서의 노이즈 레벨은, 인코딩된 이미지 데이터의 크기 및 네트워크를 통해 상기 인코딩된 이미지 데이터를 전송하는데 요구되는 비트 레이트에 크게 영향을 미친다는 것을 또한 알 수 있다. 상기 이미지 데이터의 노이즈 레벨은 인코딩된 이미지 데이터의 크기에 대략적으로 비례할 수 있다. 이것은, 코딩 효율이 이미지 데이터의 노이즈의 레벨에 의해 영향을 받는다는 사실에 기인한 것이다. 따라서, 본 방법은, 시간 단위마다 수신된 데이터 량의 관하여 인코딩된 이미지 데이터의 노이즈의 레벨을 측정하는 것을 제안한다. 특히, 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량과 제2 인코딩된 이미지 데이터의 시간 단위 당 수신된 데이터 량 사이의 비율은, 제1 인코딩된 이미지 데이터의 노이즈 레벨의 표시로서 사용된다. 상기 비율이 높을수록, 제1 인코딩된 이미지 데이터의 노이즈의 레벨이 높아진다. 상기 비율은, 통상적으로, 0과 1사이의 숫자이다.
그 결과로서, 상기 제1 및 제2 인코딩된 이미지 데이터는, 제1 인코딩된 이미지 데이터의 노이즈 레벨의 표시를 얻기 위해 디코딩될 필요가 없다.
또한, 상기 제안된 방법은, 제1 및 제2 인코딩된 이미지 데이터가 암호화되는 상황에서 동일하게 잘 작동한다는 것을 알 수 있다. 상기 수신된 제1 및 제2 인코딩되고 그리고 암호화되는 이미지 데이터는, 제1 인코딩된 (그리고 암호화된) 이미지 데이터의 노이즈 레벨의 표시를 얻기 위해 상기 방법의 적용을 위해 해독되거나 디코딩될 필요가 없다.
인코딩된 이미지 데이터는 일반적으로 인코딩된 이미지들의 스트림을 의미한다.
장면이 동일하다는 것은, 장면에서의 조건들인, "장면 조건들"이 동일하다는 것을 포함한다. 이것은, 예를 들어, 장면에서의 모션 레벨이 유사하고, 장면에서의 조명이 유사하며, 어떤 경우에서는 장면의 어떤 부분도 흐려지지 않지만, 다른 경우에서는 흐려지는 것 등을 포함한다. 예를 들어, 장면이 도로인 경우, 제1 및 제2 인코딩된 이미지 데이터를 수집할 때 트래픽 량은 동일해야 한다. 장면이 동일하다는 것은, 제1 및 제2 인코딩된 이미지 데이터를 수집할 때 카메라가 동일한 방향으로 지향된다는 것을 또한 포함한다.
광 조건이란 일반적으로 카메라에 의해 보여지는 장면의 광의 레벨을 의미한다.
제1 인코딩된 이미지 데이터의 노이즈 레벨은 일반적으로 인코딩 이전의 이미지 데이터의 노이즈 레벨을 의미한다.
시간 단위당 수신된 데이터 량은, 예를 들어, 시간 단위당 비트들의 수에 대하여 측정될 수 있다.
상기 비율은 다른 방식들로 결정될 수 있다. 예를 들어, 상기 비율은, 제1 인코딩된 이미지 데이터 및 제2 인코딩된 이미지 데이터를 각각 네트워크를 통해 전송하는데 필요한 대역폭을 비교함으로써 결정될 수 있다. 보다 구체적으로, 비율은, 네트워크를 통해 제1 인코딩된 이미지 데이터를 전송하는데 필요한 대역폭과 네트워크를 통해 제2 인코딩된 이미지 데이터를 전송하는데 필요한 대역폭 사이에서 형성될 수 있다. 이것은, 대역폭 측정이 용이하게 이용가능하다는 점에서 유리하다. 따라서, 제1 인코딩된 이미지 데이터 및 제2 인코딩된 이미지 데이터의 전송에 대한 대역폭은, 시간 단위당 수신된 데이터 량들의 비율을 결정하기 위해 측정 및 비교될 수 있다.
상기 비율은, 제1 인코딩된 이미지 데이터 및 제2 인코딩된 이미지 데이터가 각각 스토리지 공간에 기입되는 레이트들을 비교함으로써 결정될 수 있다. 보다 구체적으로, 비율은, 제1 인코딩된 이미지 데이터가 스토리지 공간에 기입되는 레이트와 제2 인코딩된 이미지 데이터가 스토리지 공간에 기입되는 레이트 사이에 형성될 수 있다. 이것은, 스토리지에 기입하기 위한 레이트가 용이하게 이용가능하다는 점에서 유리하다. 따라서, 제1 인코딩된 이미지 데이터를 스토리지에 기입하는데 필요한 레이트 및 제2 인코딩된 이미지 데이터를 스토리지에 기입하는데 필요한 레이트는, 시간 단위당 수신된 데이터 량들의 비율을 결정하기 위해 측정 및 비교될 수 있다.
상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하는 단계는: 상기 비율이 미리정의된 임계값보다 큰지를 검사하는 단계와; 그리고 상기 비율이 미리정의된 임계값보다 크면, 상기 제1 카메라 파라미터들을 사용하여 상기 제1 광 조건 하에서 상기 카메라에 의해 수집된 상기 장면을 나타내는 미래의 이미지 데이터의 노이즈 레벨을 감소시키기 위해 액션이 취해질 필요가 있음을 결정하는 단계를 더 포함할 수 있다.
상기에서 또한 설명된 것처럼, 상기 비율은, 제1 인코딩된 이미지 데이터의 노이즈 레벨을 나타내며, 이는 비율이 더 커질수록, 노이즈 레벨이 높아진다. 상기 비율이 미리정의된 임계치(통상적으로 0과 1 사이의 수)보다 크면, 노이즈 레벨은 높은 것, 즉, 제2 인코딩된 이미지 데이터와 유사한 레벨로 발견된다. 그와 같은 상황이 발생하면, 미래의 이미지 데이터에서 노이즈 레벨을 감소시키기 위해 액션이 취해질 필요가 있다고 결정될 수 있다. 이러한 방식으로, 제1 인코딩된 이미지 데이터에서 높은 노이즈 레벨을 검출할 수 있고 그리고 미래의 이미지 데이터에서 노이즈 레벨을 감소시키기 위해 적절한 액션을 취할 수 있다.
제1 인코딩된 이미지 데이터의 높은 레벨의 노이즈는 서로 다른 팩터들에 의해 야기될 수 있다. 예를 들어, 높은 레벨의 노이즈는 장면에서 광이 충분하지 않은 사실에 기인할 수 있다. 보다 상세하게는, 제1 인코딩된 이미지 데이터의 노이즈 레벨이 제2 인코딩된 이미지 데이터의 노이즈 레벨(더 어두운 광 조건을 시뮬레이션 함)과 비교가능하면, 제1 광 조건은 시뮬레이션된 더 어두운 광 조건에 가깝다는 결론에 도달할 수 있다. 이러한 상황을 처리하기 위해, 상기 액션이 취해질 필요가 있음을 결정하는 단계는: 상기 카메라가 상기 제1 광 조건하에서 상기 장면의 이미지 데이터를 수집하기 위해 상기 제1 카메라 파라미터들을 사용할 때, 상기 장면에서 추가적인 광이 필요하다는 것을 결정하는 단계를 포함할 수 있다. 이러한 방식으로, 상기 방법은 제1 광 상태에 관한 결론들을 이끌어 내는데 사용될 수 있으며, 특히, 상기 장면은 추가적인 광으로부터 이익을 얻을 수 있다.
다른 예에 따르면, 높은 레벨의 노이즈는, 카메라가 유지보수를 필요로 한다는 것을 나타낼 수 있다. 따라서, 상기 액션이 취해질 필요가 있음을 결정하는 단계는 상기 카메라가 유지보수를 필요로 한다고 결정하는 단계를 포함할 수 있다.
상기 유지보수는, 예를 들어, 상기 카메라의 냉각 시스템의 유지보수를 포함할 수 있다. 상기 카메라의 냉각 시스템이 적절하게 작동하지 않으면, 상기 카메라는 너무 따뜻해져, 이후 더 많은 노이즈를 갖는 이미지들을 유발할 것이다.
상기 유지보수는 카메라의 램프 교체를 포함할 수 있다. 장면을 비추기로 되어 있는 결함 램프는, 불량한 조도를 발생시켜, 이후 더 많은 노이즈를 갖는 이미지들을 유발할 것이다.
상기 유지보수는 카메라의 하우징 또는 렌즈의 청소 또는 교체를 포함할 수 있다. 더러워진 하우징 또는 렌즈는 노이즈가 있는 이미지들을 초래할 수 있다.
상기 방법은 장면에 따라 미리정의된 임계치를 선택하는 단계를 더 포함할 수 있다. 예를 들어, 상기 미리정의된 임계치는 장면에서의 움직임의 레벨에 의존하여 선택될 수 있다. 상기 미리정의된 임계치는, 또한, 장면에서의 움직임의 레벨이 얼마나 변화하느냐에 따라 설정될 수 있다. 예를 들어, 정적인 장면(예를 들어, 영업시간이 끝난 상점)은 움직임이 있는 장면보다 낮은 임계값을 가질 수 있다. 또한, 일정한 움직임의 레벨을 갖는 장면(예를 들어, 고속도로)은, 움직임의 레벨이 변화하는 장면(예를 들어, 횡단 보도)보다 낮은 임계값을 가질 수 있다. 이러한 방식으로, 상기 방법은 서로 다른 장면들 및 장면에서의 서로 다른 조건들, 예를 들어, 서로 다른 레벨들의 움직임에 적용될 수 있다.
상기 제1 카메라 파라미터 및 상기 제2 카메라 파라미터는, 이득, 조리개 및 노출 시간 중 적어도 하나를 포함할 수 있다. 이러한 것들은, 이미지 데이터의 노이즈의 레벨에 영향을 미치는 파라미터들이다. 또한, 상기 제2 카메라 파라미터는, 이득, 조리개 및 노출 시간 중 적어도 하나를 증가시키도록 수정된다는 점에서 상기 제1 카메라 파라미터와 서로 다를 수 있다. 이러한 방식으로, 상기 제2 파라미터들은 노이즈의 레벨을 증가시키도록 수정될 수 있고, 이에 의해 더 어두운 광 조건을 시뮬레이션한다.
본 발명의 제2 양상에 따르면, 상기의 목적은, 프로세싱 기능을 갖는 디바이스에 의해 실행될 때 제1 양상에 따른 방법을 수행하기 위한 컴퓨터 코드 명령어들을 구비한 (비- 일시적인) 컴퓨터-판독가능한 매체를 포함하는 컴퓨터 프로그램 제품에 의해 달성된다.
본 발명의 제3 양상에 따르면, 상기 목적은 디바이스에 의해 달성되고, 상기 디바이스는:
장면을 나타내는 제1 인코딩된 이미지 데이터를, 네트워크를 통해, 수신하도록 되어있고, 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 카메라에 의해 수집되며, 그리고 동일한 상기 장면을 나타내는 제2 인코딩된 이미지 데이터를, 상기 네트워크를 통해 수신하도록 되어있는 수신기 - 상기 제2 인코딩된 이미지 데이터는, 상기 카메라에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 상기 카메라에 의해 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며 - 와; 그리고
상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량과 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율을 결정하도록 되어있고 그리고 상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하도록 되어있는 프로세싱 컴포넌트를 포함한다.
상기 프로세싱 컴포넌트는, 상기 비율이 미리정의된 임계값보다 큰지를 검사하고; 그리고 상기 비율이 미리정의된 임계값보다 크면, 상기 제1 카메라 파라미터들을 사용하여 상기 제1 광 조건 하에서 상기 카메라에 의해 수집된 상기 장면을 나타내는 미래의 이미지 데이터의 노이즈 레벨을 감소시키기 위해 액션이 취해질 필요가 있음을 결정하도록 또한 구성될 수 있다.
상기 프로세싱 컴포넌트는, 상기 카메라가 상기 제1 광 조건하에서 상기 장면의 이미지 데이터를 수집하기 위해 상기 제1 카메라 파라미터들을 사용할 때, 상기 장면에서 추가적인 광이 필요하다는 것을 결정하도록 구성될 수 있다.
본 발명의 제4 양상에 따르면, 상기 목적은 네트워크 카메라 시스템에 의해 달성되고, 상기 네트워크 카메라 시스템은:
상기 제3 양상에 따른 디바이스와; 그리고
네트워크를 통해 상기 디바이스에 연결되는 카메라를 포함하고,
상기 카메라는:
장면을 나타내는 제1 인코딩된 이미지 데이터를 수집하고, 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 수집되며,
상기 장면을 나타내는 제2 인코딩된 이미지 데이터를 수집하고, 상기 제2 인코딩된 이미지 데이터는, 상기 카메라에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며, 그리고
상기 제1 인코딩된 이미지 데이터 및 상기 제2 인코딩된 이미지 데이터를, 상기 네트워크를 통해 상기 디바이스에 전송하도록 구성된다.
상기 제2 양상, 제3 양상 및 제4 양상은 일반적으로 제1 양상과 동일한 피처들 및 이점들을 가질 수 있다. 또한, 본 발명은 다르게 명시적으로 언급되지 않는 한 피처들의 모든 가능한 조합들에 관한 것이다.
본 발명의 상기의 목적과 함께 추가적인 목적들, 피처들 및 이점들은, 첨부된 도면들을 참조하여, 본 발명의 바람직한 실시예들의 다음의 예시적이고 비 제한적인 상세한 설명을 통해 더 잘 이해될 것이며, 동일한 참조 번호들은 유사한 요소들에 대해 사용될 것이다.
도 1은 실시예들에 따른 네트워크 카메라 시스템을 도시한다.
도 2는 실시예들에 따른 방법의 흐름도이다.
도 3는 도 2의 방법의 다른 실시예들을 나타내는 흐름도이다.
본 발명은, 이제, 본 발명의 실시예들이 도시되는 첨부된 도면들을 참조하여 아래에서 더 상세하게 설명될 것이다. 여기에서 개시된 시스템들 및 디바이스들은 동작 중에 설명될 것이다.
도 1은 네트워크 카메라 시스템(100)을 도시한다. 상기 시스템(100)은 하나 이상의 카메라들(120)을 포함하고, 상기 카메라들(120)은, 네트워크(160)를 통해, 통상적으로 서버일 수 있는 디바이스(140)에 접속된다.
각 카메라(120)는, 이미지들의 스트림(즉, 비디오 시퀀스)의 형태로 장면(200)의 이미지들을 캡처하도록 구성된다. 이 목적을 위해, 상기 카메라는, 장면(200)의 이미지 데이터를 생성하기 위해 원시 센서 데이터를 프로세싱하는 이미지 컴포넌트(122)를 포함한다. 카메라(120)는, 인코딩된 이미지 데이터를 생성하기 위해 장면(200)의 이미지 데이터를 인코딩하도록 구성된 인코더(124)를 더 포함한다. 카메라(120)는, 바람직하게는 무선 네트워크(160)를 통해 디바이스(140)로, 상기 인코딩된 이미지 데이터, 즉, 인코딩된 이미지들의 스트림을 전송하기 위한 전송기(126)를 더 포함한다. 다시 말해, 카메라(120)는, 장면(100)을 나타내는 인코딩된 이미지 데이터를 수집하고 그리고 네트워크(160)를 통해 디바이스(140)에 상기 인코딩된 이미지 데이터를 전송하도록 구성된다. 카메라(120) 및 그것의 컴포넌트들은 종래의 것이므로, 따라서 더 상세하게는 논의되지 않을 것이다.
카메라(120)는 카메라 파라미터들을 사용하여 장면(200)을 나타내는 인코딩된 이미지 데이터를 수집할 수 있다. 상기 카메라 파라미터들은, 예를 들어, 이득, 조리개 및 노출 시간 중 하나 이상을 포함할 수 있다. 이러한 카메라 파라미터들은, 상기 인코딩된 이미지 데이터 내의 노이즈의 레벨에 영향을 줄 수 있다. 더 상세하게는, 이득 및/또는 노출 시간의 더 높은 값은 통상적으로 이미지 데이터에서 더 높은 레벨의 노이즈를 초래할 것이다. 상기 카메라 파라미터들은 직접 또는 간접적으로 설정될 수 있다. 직접적으로 설정한다는 것은, 파라미터 값 자체가 설정될 수 있음을 의미한다. 간접적으로 설정한다는 것은, 파라미터 값이, 예를 들어, 당업게에 알려진 자동-초점 절차를 통해 간접적으로 설정됨을 의미한다. 그와 같은 자동-초점 절차에서, 파라미터 값들은 상기 카메라 파라미터들의 최대 값 및 최소 값을 설정함으로써 변경될 수 있다.
장면(200)은, 여기에서 장면 조건들로 언급되는, 서로 다른 조건들과 관련될 수 있다. 특히, 장면(200)은, 광 조건과 관련될 수 있다. 광 조건은, 카메라(120)에 의해 보여지는 것 같은 장면 내의 광 레벨을 의미한다. 장면 조건의 다른 예는, 장면 내의 움직임 레벨이다.
일반적으로, 서버일 수 있는 디바이스(140)는, 네트워크(160)를 통해 카메라들(120)로부터 인코딩된 이미지 데이터, 즉, 인코딩된 이미지 데이터의 스트림들을 수신하도록 구성될 수 있다. 디바이스(140)는, 또한, 상기 수신되는 인코딩된 이미지 데이터를 프로세싱하고 그리고 상기 수신되는 인코딩된 이미지 데이터를 스토리지에 기입하도록 구성된다. 이러한 목적들을 위해, 디바이스(140)는 수신기(148), 프로세싱 컴포넌트(144)(프로세서) 및 메모리(148)를 포함한다. 메모리(148)는, 프로세싱 컴포넌트(148)에 의해 실행되는 컴퓨터 코드 명령어들을 저장하기 위한 비-일시적인 컴퓨터 판독가능한 매체를 구성할 수 있다. 예를 들어, 메모리(148)는, 여기에서 개시된 어떤 방법을 수행하기 위한 컴퓨터 코드 명령어들을 저장할 수 있다.
디바이스(140)는, 인코딩된 이미지 데이터가 기입될 수 있는 스토리지(146)를 더 포함할 수 있다. 대안적으로, 상기 스토리지는, 서버 또는 데이터베이스와 같은 네트워크 내의 다른 디바이스에 위치될 수 있다.
디바이스(140)는, 네트워크 카메라 시스템(100)의 설치를 검증하도록 구성될 수 있다. 그와 같은 검증을 수행하기 위해, 디바이스(140)는 카메라 네트워크 시스템 상에서 다수의 테스트들을 실행할 수 있다. 각 테스트는, 주어진 네트워크 및 카메라 구성, 즉, 주어진 카메라 파라미터들에 대한 이미지 데이터 스트리밍 및 이미지 데이터 기록(저장) 시뮬레이션을 수행하는 것을 포함할 수 있다.
제1 테스트는, 제1 카메라 파라미터들을 사용하여, 낮 시간과 같은 제1 광 조건 하에서 장면(200)의 이미지 데이터를 수집하기 위해 상기 카메라들(120) 중 하나에 명령하는 디바이스(140)를 포함할 수 있다. 상기 제1 카메라 파라미터들은 네트워크 카메라 시스템(100)의 설치에 사용되는 파라미터들이다. 상기 제1 카메라 파라미터들은, 공장 디폴트 카메라 파라미터들, 수동으로 설정된 파라미터들 또는 알고리즘에 의해 설정된 파라미터들, 예를 들어, 상기 제1 광 조건 하에서 자동 초점 프로세스에 의해 자동으로 설정된 파라미터들일 수 있다. 이후, 디바이스(140)는 장면(200)의 인코딩된 이미지 데이터를 수신하고 이를 기록한다. 즉, 상기 인코딩된 이미지 데이터를 스토리지(146)에 기입한다. 상기 테스트동안, 대역폭 사용 및 상기 인코딩된 이미지 데이터가 스토리지(146)에 기입되는 레이트와 같은 서로 다른 파라미터들이 측정될 수 있다.
제2 테스트는, 제2 카메라 파라미터들을 사용하여, 상기 제1 광 조건 하에서 동일한 장면(200)의 이미지 데이터를 수집하기 위해 상기 (동일한) 카메라(120)에 명령하는 디바이스(140)를 포함할 수 있다. 상기 카메라(120)는, 제1 및 제2 테스트에서 이미지 데이터를 수집할 때 동일한 방식으로 지시된다. 상기 제2 카메라 파라미터들은, 밤 시간 조건과 같은 더 어두운 광 조건을 시뮬레이트하도록 변경될 수 있다. 이후, 디바이스(140)는 장면(200)의 인코딩된 이미지 데이터를 수신하고 이를 기록한다. 즉, 상기 인코딩된 이미지 데이터를 스토리지(146)에 기입한다. 제1 테스트와 유사하게, 대역폭 사용 및 상기 인코딩된 이미지 데이터가 스토리지(146)에 기입되는 레이트와 같은 서로 다른 파라미터들이 측정될 수 있다.
여기에서 개시된 방법들은, 상기에서 서술된 설치 검증 프로세스에 관련하여 수행될 수 있다. 특히, 여기에서 개시된 방법들은, 예를 들어, 추가적인 조명이 장면(200)에서 필요한지 여부를 검출하기 위한 목적으로, 설치 검증 동안 실행되는 제1 및 제2 테스트들의 결과들을 사용한다. 여기에서 개시된 방법들은 또한, 설치가 여전히 최적이고 그리고 열화되지 않았음을 확인하기 위해 규칙적인 간격으로 실행될 수 있다.
상기 카메라 네트워크 시스템의 동작은, 도 1 및 도 2의 흐름도를 참조하여 하기에서 서술될 것이다.
단계 S02에서, 디바이스(140)는 상기에서 서술된 제1 테스트에 대응하는 제1 시뮬레이션을 실행한다. 더 상세하게는, 디바이스(140)는, 수신기(142)를 통해, 카메라들(120) 중 하나로부터 장면(200)을 나타내는 제1 인코딩된 이미지 데이터를 수신한다. 인코딩된 이미지들의 스트림의 형태인 제1 인코딩된 이미지 데이터는, 카메라(120)에 의해 수집되고 그리고 네트워크(160)를 통해 디바이스(140)에 전송된다. 상기 제1 인코딩된 이미지 데이터가 카메라(120)에 의해 수집될 때, 장면(200)은 제1 광 조건에 종속되며, 이는, 카메라(120)에 의해 보여지는 장면(200)에 일정 레벨의 광이 있음을 의미한다. 예를 들어, 장면(200)이 정상 상태에 있을 때, 즉, 카메라(120)가 사용되도록 의도되는 광 조건하에서 상기 제1 인코딩된 이미지 데이터가 수집될 수 있다.
상기 제1 인코딩된 이미지 데이터는, 제1 카메라 파라미터들을 사용하여 카메라(120)에 의해 수집된다. 상기 제1 카메라 파라미터들은, 카메라(120)가 일반적으로 제1 광 조건하에서 사용하는 그러한 파라미터들이다. 예를 들어, 제1 카메라 파라미터들은 디폴트 값들, 예를 들어, 이득, 노출 시간 및 조리개의 디폴트 값들일 수 있다. 이러한 값들은, 직접 또는 간접적으로, 예를 들어, 상기에서 설명된 자동 초점 절차 또는 다른 자동 프로세스들 또는 사용자에 의해 수동으로 설정될 수 있다.
단계 S04에서, 디바이스(140)는 상기에서 서술한 제2 테스트에 대응하는 제2 시뮬레이션을 실행한다. 보다 상세하게는, 디바이스(140)는, 수신기(142)를 통해, 동일한 카메라(120)로부터 동일한 장면(200)을 나타내는 제2 인코딩된 이미지 데이터를 수신한다. 인코딩된 이미지들의 스트림의 형식인, 제2 인코딩된 이미지 데이터는 카메라(120)에 의해 수집되고 그리고 네트워크(160)를 통해 디바이스(140)에 전송된다.
제2 인코딩된 이미지 데이터는, 제1 인코딩된 이미지 데이터와 유사하게, 장면(200)이 제1 광 조건에 종속될 때 카메라(120)에 의해 수집된다. 이것은, 예를 들어, 시간 윈도우 내의 제1 및 제2 인코딩된 이미지 데이터를 수집함으로써 달성될 수 있다. 이는 상기 제1 및 제2 인코딩된 이미지 데이터가, 시간에 근접하게 수집되거나 또는 하루 중 동일한 시간과 같은 동일한 제1 광 조건에 장면(200)이 종속되는 시점들에서 수집되는 것을 의미한다.
바람직하게는, 제1 및 제2 인코딩된 이미지 데이터가 수집될 때 광 조건은 동일하지만, 일반적으로, 장면 조건 또한 동일하다. 이것은, 예를 들어, 장면의 움직임의 레벨 또는 움직임의 레벨의 가변성이 또한, 제1 및 제2 인코딩된 이미지 데이터를 수집할 때 동일하다라는 것을 포함한다. 이것은, 또한, 장면의 움직임 레벨이 이미지 데이터의 노이즈 레벨에 영향을 줄 수 있기 때문이다.
상기 제1 인코딩된 이미지 데이터와 대조적으로, 상기 제2 인코딩된 이미지 데이터는 제2 카메라 파라미터들을 사용하여 카메라(120)에 의해 수집된다. 제2 카메라 파라미터들은, 더 어두운 광 조건을 시뮬레이션하기 위해 제1 카메라 파라미터에 대해 수정된다. 이는, 예를 들어, 직접적으로 또는 자동-포커스 프로세스의 파라미터들을 수정함으로써 카메라(120)의 이득, 조리개 및 노출 시간 중 적어도 하나를 증가시킴으로써 달성될 수 있다. 그와 같은 파라미터들의 수정은 수집된 이미지 데이터에 노이즈를 추가할 것이다. 결과로서, 제2 인코딩된 이미지 데이터의 크기는 제1 인코딩된 이미지 데이터에 비해 증가하고, 결과적으로, 네트워크(160)를 통해 상기 제2 인코딩된 이미지 데이터를 전송하는데 필요한 대역폭에 영향을 미칠 것이다. 이는, 또한, 스토리지에 제1 인코딩된 이미지 데이터를 기입하는 레이트에 비해 스토리지에 제2 인코딩된 이미지 데이터를 기입하는 레이트를 증가시킬 것이다. 따라서, 결론적으로, 파라미터들의 수정은, 상기 제1 인코딩된 이미지 데이터와 비교하여 상기 제2 인코딩된 이미지 데이터에 대한 시간 단위당 수신된 데이터 양이 더 커지게 할 것이다.
단계들 S02 및 S04는, 제1 카메라 파라미터 및 제2 카메라 파라미터를 각각 사용하여, 장면(200)의 인코딩된 이미지 데이터를 수집 및 전송하는 것을 카메라(120)에 요청하는 디바이스(140)에 의해 촉구될 수 있다.
단계 S06에서, 디바이스(140)의 프로세싱 컴포넌트(144)는, 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 양과 제2 인코딩된 이미지 데이터의 시간 단위 당 수신된 데이터 양의 비율을 결정한다.
제1 시뮬레이션(단계 S02) 및 제2 시뮬레이션(단계 S04)을 실행할 때, 프로세싱 컴포넌트(144)는 서로 다른 파라미터들을 모니터링할 수 있다. 예를 들어, 상기 프로세싱 컴포넌트는, 대역폭 사용 및/또는 상기 인코딩된 이미지 데이터가 스토리지(146)에 기입되는 레이트를 모니터링할 수 있다. 이러한 방식으로, 상기 프로세싱 컴포넌트(144)는, 상기 수신된 제1 및 제2 인코딩된 이미지 데이터의 시간 단위 당 수신된 데이터 량의 추정치를 얻을 수 있다. 이들 값들을 사용하여, 상기 프로세싱 컴포넌트(144)는, 상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량 대 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율을 결정할 수 있다. 상기 비율은, 예를 들어, 상기 네트워크를 통해 상기 제1 인코딩된 이미지 데이터를 전송할 때 사용되는 대역폭을 상기 네트워크를 통해 상기 제2 인코딩된 이미지 데이터를 전송할 때 사용되는 대역폭으로 나눔으로써 계산될 수 있다. 다른 예에 따르면, 상기 비율은, 상기 제1 인코딩된 이미지 데이터가 스토리지 공간에 기입되는 비율을 제2 인코딩된 이미지 데이터가 스토리지 공간에 기입되는 비율로 나눔으로써 계산될 수 있다.
상기에서 논의된 바와 같이, 더 어두운 광 조건을 시뮬레이트하는 제2 카메라 파라미터들에 의해 야기되는 노이즈의 증가된 레벨로 인해, 시간 단위당 수신된 데이터 량은 일반적으로 상기 제1 인코딩된 이미지 데이터와 비교하여 상기 제2 인코딩된 이미지 데이터에 대해 더 클 것이다. 하지만, 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량에 관련하여 얼마나 클지는 알려져 있지 않은 데, 이는 상기 제1 인코딩된 이미지 데이터의 노이즈 레벨에 의존하기 때문이다. 예를 들어, 장면에서 불량한 조명으로 인해, 제1 인코딩된 이미지 데이터가 높은 레벨의 노이즈를 갖는다고 가정해보자. 상기에서 서술한 바와 같이, 상기 제1 카메라 파라미터들을 변경하는 것은, 상기 제2 인코딩된 이미지 데이터로 하여금 증가된 레벨의 노이즈를 갖도록 한다. 하지만, 이미 노이즈가 많은 이미지에 노이즈를 추가하는 것은, 노이즈의 최종 레벨이 최종적으로 크게 증가하지 않을 수 있다 - 일부 지점에서 노이즈 레벨이 포화 상태가 된다. 결론적으로, 시간 단위당 수신된 데이터 량의 비율은 따라서 제1 인코딩된 이미지 데이터의 노이즈의 레벨을 나타내기 위해 사용될 수 있다.
따라서, 단계 S08에서, 프로세싱 컴포넌트(144)는, 시간 단위당 수신된 데이터 량들의 비율을 제1 인코딩된 이미지 데이터에서의 노이즈의 레벨의 표시로서 사용한다. 큰 비율은, 일반적으로, 작은 비율보다 높은 수준의 노이즈를 나타낸다.
도 3은 도 2의 방법의 단계 S08의 실시예들을 나타낸다. 일반적으로, 프로세싱 컴포넌트(144)는, 단계 S08a에서, 시간 단위당 수신된 데이터 량들의 비율이 임계값보다 큰지를 검사한다.
서로 다른 임계값들이 장면에 따라 사용될 수 있지만, 상기 임계값은 시스템에서 미리 정의될 수 있다. 예를 들어, 정적인 장면에서, 상기 임계값은 움직임을 포함하는 장면보다 작을 수 있다. 대안으로, 상기 임계값은 사용자에 의해 설정될 수 있다. 예를 들어, 상기 임계값은 정적 장면(예를 들어, 폐점 시간 이후의 상점)에 대해 0.2와 동일할 수 있다. 상기 임계값은, 또한, 움직임의 레벨이 일정한 장면(예를 들어, 장면이 고속도로인 경우)에 대해 0.2와 동일 수 있다. 장면에서의 움직임의 레벨이 가변적이면(예를 들어, 횡단 보도에서), 임계값은 0.5와 동일할 수 있다.
시간 단위당 수신된 데이터 량들의 비율이 임계치보다 큰 경우, 단계 S08b에서, 프로세싱 컴포넌트(144)는, 상기 제1 카메라 파라미터들을 사용하여 상기 제1 광 조건 하에서 상기 카메라에 의해 수집된 미래의 이미지 데이터의 노이즈의 레벨을 감소시키기 위한 조치가 취해질 필요가 있는 것으로 결정한다. 더 큰 값의 비율은 일반적으로 제1 인코딩된 이미지 데이터에서 더 높은 레벨의 노이즈를 나타내기 때문에, 프로세싱 컴포넌트(144)는, 이러한 방식으로, 노이즈의 레벨이 허용할 수 없을 정도로 높고 그리고 미래의 노이즈의 레벨을 감소시키기 위한 조치가 취해질 필요가 있음을 결정할 수 있다.
제1 인코딩된 이미지 데이터에서의 허용할 수 없을 정도로 높은 레벨의 노이즈는, 서로 다른 이유들에 기인할 수 있다.
예를 들어, 상기 제1 인코딩된 이미지 데이터에서의 높은 레벨의 노이즈는, 장면에서의 불량한 조명에 기인한 것일 수 있다. 따라서, 상기 제1 인코딩된 이미지 데이터에서의 높은 레벨의 노이즈는, 추가적인 광이 장면(200)에서 필요하다는 것을 나타낼 수 있다. 따라서, 일 실시예에 따르면, 디바이스 프로세싱 컴포넌트(144)는, 단계 S08b1에서, 카메라(120)가 제1 광 조건 하에서 장면(200)의 이미지 데이터를 수집하기 위해 제1 카메라 파라미터들을 사용할 때, 추가적인 광이 장면(200)에서 요구됨을 결정할 수 있다.
다른 예에 따르면, 제1 인코딩된 이미지 데이터의 높은 레벨의 노이즈는 카메라(120)의 결함 상태로 인한 것일 수 있다. 따라서, 제1 인코딩된 이미지 데이터에서의 높은 레벨의 노이즈는, 카메라(120)가 유지보수를 필요로 함을 나타낼 수 있다. 따라서, 일 실시예에 따르면, 프로세싱 컴포넌트(144)는, 단계 S08b2에서, 카메라(120)가 유지보수를 필요로 한다고 결정할 수 있다. 카메라(120)의 유지보수는, 카메라(120)의 냉각 시스템의 유지보수를 포함할 수 있다. 이는, 카메라(120)의 결함 냉각이 노이즈가 더 많은 이미지들을 초래할 수 있기 때문이다. 상기 유지보수는 카메라(120) 내의 램프의 교체를 포함할 수 있다. 장면(200)을 조명하기로 되어있는 램프가 파손되면, 장면(200)으로의 조명은 더 적고, 이는, 노이즈가 더 많은 이미지들을 초래할 수 있다. 유지보수의 또 다른 예는, 카메라(120)의 하우징 또는 렌즈의 청소 또는 교체이다. 카메라(120)의 더럽거나 또는 마모된 하우징 또는 렌즈는 노이즈가 더 많은 이미지들을 초래할 수 있다.
통상의 기술자는 다수의 방식들로 상기에서 서술된 실시예들을 변형할 수 있고 그리고 상기의 실시예들에 도시된 바와 같이 본 발명의 이점들을 여전히 사용할 수 있음을 알 것이다. 예를 들어, 제1 인코딩된 이미지 데이터에서의 높은 레벨의 노이즈는, 잘못된 유형의 카메라(120)가 설치 장소에 외부 조건의 관점에서 설치되었음을 나타낼 수 있다. 예를 들어, 냉각 장치가 없는 카메라(120)가 실수로 설치되었을 수 있다. 설치 장소에서의 온도들에서 동작하지 않거나, 또는 설치 장소에서의 광 조건들을 고려하여 충분한 빛을 내지 못하거나, 또는 설치 장소에서의 습도 조건들에서 동작하지 않는 카메라(120)가 설치될 수 있다. 따라서, 본 발명은 도시된 실시예들에 한정되어서는 안되며 첨부된 청구 범위에 의해서만 정의되어야 한다. 또한, 통상의 기술자가 이해하는 바와 같이, 도시된 실시예들은 결합될 수 있다.

Claims (16)

  1. 네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법으로서,
    장면(200)을 나타내는 제1 인코딩된 이미지 데이터를, 네트워크(160)를 통해, 수신하는 단계(S02) - 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 카메라(120)에 의해 수집되며 - 를 포함하고,
    상기 방법은, 또한, 동일한 상기 장면(200)을 나타내는 제2 인코딩된 이미지 데이터를, 상기 네트워크(160)를 통해 수신하는 단계(S04) - 상기 제2 인코딩된 이미지 데이터는, 상기 카메라(120)에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 상기 카메라(120)에 의해 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며 - 와;
    상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량과 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율을 결정하는 단계(S06)와; 그리고
    상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하는 단계(S08)를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  2. 제1항에 있어서,
    상기 비율은, 상기 네트워크를 통해, 상기 제1 인코딩된 이미지 데이터 및 상기 제2 인코딩된 이미지 데이터를 각각 전송하는데 필요한 대역폭을 비교함으로써, 결정되는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 비율은, 상기 제1 인코딩된 이미지 데이터 및 상기 제2 인코딩된 이미지 데이터를 각각 스토리지 공간(storage space)에 기입하는 레이트(rate)들을 비교함으로써 결정되는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  4. 제1항에 있어서,
    상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하는 단계(S08)는:
    상기 비율이 미리정의된 임계값보다 큰지를 검사하는 단계(S08a)와; 그리고
    상기 비율이 미리정의된 임계값보다 크면, 상기 제1 카메라 파라미터들을 사용하여 상기 제1 광 조건 하에서 상기 카메라에 의해 수집된 상기 장면을 나타내는 미래의 이미지 데이터의 노이즈 레벨을 감소시키기 위해 액션이 취해질 필요가 있음을 결정하는 단계(S08b)를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  5. 제4항에 있어서,
    상기 액션이 취해질 필요가 있음을 결정하는 단계(S08b)는:
    상기 카메라가 상기 제1 광 조건하에서 상기 장면의 이미지 데이터를 수집하기 위해 상기 제1 카메라 파라미터들을 사용할 때, 상기 장면에서 추가적인 광이 필요하다는 것을 결정하는 단계(S08b1)를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  6. 제4항에 있어서,
    상기 액션이 취해질 필요가 있음을 결정하는 단계(S08b)는:
    상기 카메라가 유지보수(maintenance)를 필요로 한다고 결정하는 단계(S08b2)를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  7. 제6항에 있어서,
    상기 유지보수는, 상기 카메라의 냉각 시스템의 유지보수, 상기 카메라 내의 램프의 교체, 또는 상기 카메라의 하우징 또는 렌즈의 청소 또는 교체를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  8. 제4항 내지 제7항 중 어느 한 항에 있어서,
    상기 장면(200)에 따라 상기 미리정의된 임계값을 선택하는 단계를 더 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  9. 제1항에 있어서,
    상기 제1 카메라 파라미터 및 상기 제2 카메라 파라미터는, 이득, 조리개 및 노출 시간 중 적어도 하나를 포함하는 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  10. 제9항에 있어서,
    상기 제2 카메라 파라미터는, 이득, 조리개 및 노출 시간 중 적어도 하나를 증가시키도록 수정된다는 점에서 상기 제1 카메라 파라미터와 서로 다른 것을 특징으로 하는
    네트워크 카메라 시스템에서 디바이스에 의해 수행되는 방법.
  11. 삭제
  12. 디바이스(140)로서,
    장면(200)을 나타내는 제1 인코딩된 이미지 데이터를, 네트워크(160)를 통해, 수신하도록 되어있고, 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 카메라(120)에 의해 수집되며, 그리고 동일한 상기 장면(200)을 나타내는 제2 인코딩된 이미지 데이터를, 상기 네트워크(160)를 통해 수신하도록 되어있는 수신기(142) - 상기 제2 인코딩된 이미지 데이터는, 상기 카메라(120)에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 상기 카메라(120)에 의해 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며 - 와; 그리고
    상기 제1 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량과 상기 제2 인코딩된 이미지 데이터의 시간 단위당 수신된 데이터 량의 비율을 결정하도록 되어있고 그리고 상기 비율을 상기 제1 인코딩된 이미지 데이터 내의 노이즈 레벨의 표시로서 사용하도록 되어있는 프로세싱 컴포넌트(144)를 포함하는 것을 특징으로 하는
    디바이스.
  13. 제12항에 있어서,
    상기 프로세싱 컴포넌트(144)는:
    상기 비율이 미리정의된 임계값보다 큰지를 검사하고; 그리고
    상기 비율이 미리정의된 임계값보다 크면, 상기 제1 카메라 파라미터들을 사용하여 상기 제1 광 조건 하에서 상기 카메라에 의해 수집된 상기 장면을 나타내는 미래의 이미지 데이터의 노이즈 레벨을 감소시키기 위해 액션이 취해질 필요가 있음을 결정하도록 또한 되어있는 것을 특징으로 하는
    디바이스.
  14. 제13항에 있어서,
    상기 프로세싱 컴포넌트(144)는:
    상기 카메라가 상기 제1 광 조건하에서 상기 장면의 이미지 데이터를 수집하기 위해 상기 제1 카메라 파라미터들을 사용할 때, 상기 장면에서 추가적인 광이 필요하다는 것을 결정하도록 되어있는 것을 특징으로 하는
    디바이스.
  15. 네트워크 카메라 시스템(100)으로서,
    제12항 내지 제14항 중 어느 한 항에 따른 디바이스(140)와; 그리고
    네트워크(160)를 통해 상기 디바이스(140)에 연결되는 카메라(120)를 포함하고,
    상기 카메라는:
    장면(200)을 나타내는 제1 인코딩된 이미지 데이터를 수집하고, 상기 제1 인코딩된 이미지 데이터는 제1 카메라 파라미터들을 사용하여 제1 광 조건하에서 수집되며,
    상기 장면(200)을 나타내는 제2 인코딩된 이미지 데이터를 수집하고, 상기 제2 인코딩된 이미지 데이터는, 상기 카메라(120)에 의해 수집된 이미지 데이터의 노이즈 레벨을 증가시키도록 수정된다는 점에서, 상기 제1 카메라 파라미터들과 서로 다른 제2 카메라 파라미터들을 사용하여 상기 제1 광 조건하에서 수집되고, 이에 의해 상기 제2 인코딩된 이미지 데이터가 제2의 더 어두운 광 조건 하에서 수집되는 것을 시뮬레이션하며, 그리고
    상기 제1 인코딩된 이미지 데이터 및 상기 제2 인코딩된 이미지 데이터를, 상기 네트워크(160)를 통해 상기 디바이스(140)에 전송하도록 되어있는 것을 특징으로 하는
    네트워크 카메라 시스템.
  16. 프로세싱 기능을 갖는 제12항에 따른 디바이스에 의해 실행될 때 제1항에 따른 방법을 수행하기 위한 컴퓨터 코드 명령어들을 구비한 컴퓨터 판독가능한 기록 매체.
KR1020170058767A 2016-05-16 2017-05-11 카메라 네트워크 시스템의 방법 및 디바이스 KR101930437B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16169770.1 2016-05-16
EP16169770.1A EP3247102B1 (en) 2016-05-16 2016-05-16 Method and device in a camera network system

Publications (2)

Publication Number Publication Date
KR20170129055A KR20170129055A (ko) 2017-11-24
KR101930437B1 true KR101930437B1 (ko) 2018-12-18

Family

ID=56081242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170058767A KR101930437B1 (ko) 2016-05-16 2017-05-11 카메라 네트워크 시스템의 방법 및 디바이스

Country Status (6)

Country Link
US (1) US10136100B2 (ko)
EP (1) EP3247102B1 (ko)
JP (1) JP6475283B2 (ko)
KR (1) KR101930437B1 (ko)
CN (1) CN107395952B (ko)
TW (1) TWI682667B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256571B1 (ko) * 2018-01-23 2021-05-26 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 소모품을 진단하는 화상형성장치 및 화상형성방법
US20210409613A1 (en) * 2018-12-21 2021-12-30 Sony Group Corporation Information processing device, information processing method, program, and information processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007109856A1 (en) 2006-03-29 2007-10-04 Curtin University Of Technology Testing surveillance camera installations
US20120002000A1 (en) 2010-07-01 2012-01-05 Vibare, Inc. Method and apparatus for video processing for improved video compression
US20140270487A1 (en) 2013-03-12 2014-09-18 Samsung Techwin Co., Ltd. Method and apparatus for processing image

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7065255B2 (en) 2002-05-06 2006-06-20 Eastman Kodak Company Method and apparatus for enhancing digital images utilizing non-image data
JP4484724B2 (ja) 2005-02-16 2010-06-16 キヤノン株式会社 撮像装置およびその制御方法
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US20090172756A1 (en) 2007-12-31 2009-07-02 Motorola, Inc. Lighting analysis and recommender system for video telephony
EP2101505A3 (en) 2008-03-11 2012-09-05 Sony Corporation Image processing device, method, and program
US8346008B2 (en) * 2009-06-09 2013-01-01 Aptina Imaging Corporation Systems and methods for noise reduction in high dynamic range imaging
US8611660B2 (en) 2009-12-17 2013-12-17 Apple Inc. Detecting illumination in images
JP2013098644A (ja) 2011-10-28 2013-05-20 Sony Corp ノイズ検出装置、ノイズ検出方法及びプログラム
JP2013101559A (ja) * 2011-11-09 2013-05-23 A1 Communication Corp 監視システム
US8953094B2 (en) 2011-11-10 2015-02-10 Apple Inc. Illumination system
WO2014018836A1 (en) * 2012-07-26 2014-01-30 Leap Motion, Inc. Object detection and tracking
EP2709350B1 (en) 2012-09-14 2015-06-03 Axis AB Configuration of image capturing settings
JP6020199B2 (ja) * 2013-01-24 2016-11-02 株式会社ソシオネクスト 画像処理装置、方法、及びプログラム、並びに撮像装置
CN103279950B (zh) 2013-05-14 2016-03-16 中国科学院光电研究院 一种基于行列噪声标准差的遥感图像信噪比评估方法
EP2804382B1 (en) * 2013-05-15 2015-04-29 Axis AB Reliability determination of camera fault detection tests
JP6299182B2 (ja) * 2013-11-28 2018-03-28 サクサ株式会社 死活監視システム
JP2016021689A (ja) * 2014-07-15 2016-02-04 ソニー株式会社 画像処理装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007109856A1 (en) 2006-03-29 2007-10-04 Curtin University Of Technology Testing surveillance camera installations
US20120002000A1 (en) 2010-07-01 2012-01-05 Vibare, Inc. Method and apparatus for video processing for improved video compression
US20140270487A1 (en) 2013-03-12 2014-09-18 Samsung Techwin Co., Ltd. Method and apparatus for processing image

Also Published As

Publication number Publication date
TWI682667B (zh) 2020-01-11
EP3247102A1 (en) 2017-11-22
JP2018011291A (ja) 2018-01-18
US10136100B2 (en) 2018-11-20
CN107395952A (zh) 2017-11-24
US20170332041A1 (en) 2017-11-16
JP6475283B2 (ja) 2019-02-27
KR20170129055A (ko) 2017-11-24
TW201742434A (zh) 2017-12-01
CN107395952B (zh) 2019-08-23
EP3247102B1 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
CN102118629B (zh) 基于监控平台的网络视频监控服务质量保障系统及方法
US11070788B2 (en) Method and system for determining optimal exposure time and number of exposures in structured light-based 3D camera
US20090040303A1 (en) Automatic video quality monitoring for surveillance cameras
US8908046B1 (en) Reliability determination of camera fault detection tests
KR101930437B1 (ko) 카메라 네트워크 시스템의 방법 및 디바이스
TWI646838B (zh) 用於影像擷取之方法及器件
CN106888355B (zh) 比特率控制器和用于限制输出比特率的方法
US11050924B2 (en) Method and system for auto-setting of cameras
CN112217999B (zh) 一种宽动态模式的调整方法、装置、电子设备和存储介质
US20170180722A1 (en) Automatic Defective Digital Motion Picture Pixel Detection
JP2006279850A (ja) 画像処理装置
KR101072945B1 (ko) 깊이 값 측정을 이용한 플래시 영상 색상 보정 장치 및 그 방법
Vega et al. Accuracy of no-reference quality metrics in network-impaired video streams
CN109462728A (zh) 码率控制方法、装置、图像采集设备及可读存储介质
JPWO2019077697A1 (ja) 画像共有支援装置、画像共有システム、及び、画像共有支援方法
US10902574B2 (en) Information processing apparatus, image capture system, control method and storage medium
US20230199300A1 (en) Information processing apparatus, shooting system, method, and non-transitory computer-readable storage medium
CN111866586B (zh) 井下视频数据处理方法、装置、电子设备及存储介质
CN107835362B (zh) 图像存储方法、图像显示方法及电子设备
CN116896629A (zh) 视频编码方法、装置、计算机设备及存储介质
JP5804155B1 (ja) 情報処理装置、情報処理方法およびプログラム
CN115767284A (zh) 一种图像处理方法、装置、设备及存储介质
EP2745518B1 (en) Estimating user-perceived quality of an encoded video stream
US20150049221A1 (en) Method and apparatus for pre-processing video frames

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant