KR101826897B1 - 화상 조정 파라미터를 결정하기 위한 방법 및 카메라 - Google Patents

화상 조정 파라미터를 결정하기 위한 방법 및 카메라 Download PDF

Info

Publication number
KR101826897B1
KR101826897B1 KR1020160125740A KR20160125740A KR101826897B1 KR 101826897 B1 KR101826897 B1 KR 101826897B1 KR 1020160125740 A KR1020160125740 A KR 1020160125740A KR 20160125740 A KR20160125740 A KR 20160125740A KR 101826897 B1 KR101826897 B1 KR 101826897B1
Authority
KR
South Korea
Prior art keywords
camera
image
event
value
image view
Prior art date
Application number
KR1020160125740A
Other languages
English (en)
Other versions
KR20160118183A (ko
Inventor
페르 카너마르크
안드레아스 닐손
구스타브 트뢰프
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20160118183A publication Critical patent/KR20160118183A/ko
Application granted granted Critical
Publication of KR101826897B1 publication Critical patent/KR101826897B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

본 발명은 화상 조정 파라미터를 결정하기 위한 방법에 관한 것으로서, 이 방법은 하기의 단계를 포함한다. 이미지 뷰를 나타내는 복수의 화상을 수신하는 단계; 상기 복수의 화상으로부터 특정 사건 형태의 사건을 탐지하는 단계; 상기 특정 사건 형태의 각 사건에 대해, 상기 이미지 뷰 내의 상기 특정 형태의 사건이 존재하는 위치를 식별하는 단계; 상기 식별된 위치들 중 하나에서 상기 특정 사건 형태의 사건의 발생 수를 반영하도록 형성된 값인, 상기 각각의 식별된 위치의 존재 값을 결정하는 단계; 및 이미지 뷰 내의 조정 위치로부터의 데이터에 기초한 화상 조정 파라미터를 결정하는 단계를 포함하며, 상기 조정 위치는 이미지 뷰 내의 복수의 위치의 각 위치에서의 존재 값에 기초하여 결정된다. 본 발명은 또한 이미지 뷰를 나타내는 복수의 화상을 획득하고, 화상 조정 파라미터를 결정하기 위해 설치된 카메라(2)에 관한 것이다.

Description

화상 조정 파라미터를 결정하기 위한 방법 및 카메라{METHOD AND CAMERA FOR DETERMINING AN IMAGE ADJUSTMENT PARAMETER}
본 발명은 화상 조정 파라미터를 결정하기 위한 방법에 관한 것이다. 또한, 본 발명은 이미지 뷰를 나타내는 복수의 화상을 획득하고, 화상 조정 파라미터를 결정하기 위한 카메라와 카메라 시스템에 관한 것이다.
카메라들은 보통 빌딩, 도로, 상점들을 감시하기 위해 사용된다. 특히, 동작의 존재 및/또는 사람, 자동차, 얼굴, 번호판 등과 같은 특정 형태의 물체의 존재 형태의 사건을 탐지하고 그리고/또는 추적하기 위해 영상을 감시하는 데 사용된다.
카메라에 의해 감시된 사건 형태(event type)에 따라, 카메라의 설정 및/또는 카메라에 의해 획득된 화상 데이터의 처리는 감시되는 사건 형태를 가장 잘 획득하기 위해 조정된다. 예를 들면, 미국 특허 출원공개 제2008/0043112호에 따르면, 획득된 화상들에 동작이 없으면 긴 노출 시간 동안 사용된다. 동작이 탐지되면, 노출 시간은 짧은 노출 시간으로 전환된다.
감시되는 사건 형태를 가장 잘 획득하기 위한 적절한 일례는 카메라 설정을 조정하는 것이다. 그러나, 특정한 감시 상황에 대해 최적화된 화상 품질을 얻기 위해 카메라 및/또는 화상 데이터 처리 설정을 어떻게 조정할 것인지에 대한 추가적인 개선이 필요한 상태이다.
상기 사항을 고려하여, 본 발명의 목적은 특정한 감시 상황에 대해 최적화된 화상 품질을 얻기 위해, 카메라의 설정 및/또는 카메라에 의해 획득된 화상 데이터의 처리와 같은 화상 조정 파라미터의 결정에 개선이 가능하도록 하는 것이다.
이러한 목적과 하기 기술로부터 분명하게 되는 추가 목적들을 달성하기 위해, 본 발명은 청구항 1에 따른 화상 조정 파라미터 결정 방법을 제공하며, 청구항 10에 따른 이미지 뷰를 나타내는 복수의 화상을 획득하고 화상 조정 파라미터를 결정하기 위해 설치된 카메라를 제공한다. 본 발명의 추가 실시예들은 종속항들에 개시되어 있다.
특히, 본 발명의 제1 태양에 따르면, 화상 조정 파라미터를 결정하기 위한 방법이 제공된다. 이 방법은 이미지 뷰를 나타내는 복수의 화상을 수신하는 단계, 상기 복수의 화상으로부터 특정 사건 형태의 사건을 탐지하는 단계, 특정 사건 형태의 각 사건에 대해, 상기 특정 형태의 사건이 존재하는 위치인 이미지 뷰 내의 위치를 식별하는 단계, 상기 식별된 위치들 중 하나에서 상기 특정 사건 형태의 사건의 발생 수를 반영하도록 형성된 값인, 상기 각각의 식별된 위치의 존재 값을 결정하는 단계, 및 이미지 뷰 내의 조정 위치로부터의 데이터에 기초하여 화상 조정 파라미터를 결정하는 단계를 포함하며, 상기 조정 위치는 이미지 뷰 내의 복수의 위치들의 각 위치에서의 존재 값에 기초하여 결정된다.
"화상 조정 파라미터"라는 용어는, 본 출원의 관점에서, 카메라 설정으로서, 화상 처리 설정으로서, 또는 이들의 조합으로서 이해하여야 한다. 카메라 설정의 화상 조정 파라미터는 비제한적인 예로서, 카메라의 초점, 노출시간, 감도, 아이리스(iris) 또는 심도의 변경에 대한 파라미터일 수 있다. 화상 처리 설정의 화상 조정 파라미터는 비제한적 예로서, 색채 배합, 신호 대 잡음비 또는 콘트라스트를 변경하는 파라미터일 수 있다.
"사건(event)"이란 용어는, 본 출원의 관점에서, 동작의 존재로서 그리고/또는 사람, 자동차, 얼굴, 번호판 등과 같은 특정 형태의 물체의 존재로서 이해하여야 한다. 따라서, "사건"란 용어의 해석은 본 발명의 상황과 구현에 따른다. "사건"이란 용어는 화상 내의 변경을 반영할 수 있거나 또는 고정된 물체의 존재일 수 있다. 통상적으로, 사건을 나타내기 위해 사용된 데이터는 동작 탐지 알고리즘(동작 탐지기) 및/또는 물체 추적 알고리즘(물체 추적기)으로부터의 출력 데이터이다. 동작 탐지 알고리즘 또는 동작 탐지기는 동작의 존재 형태의 사건을 식별하기 위해 보통 사용된다. 물체 추적 알고리즘 또는 물체 추적기는 사람, 자동차, 얼굴, 번호판 등과 같은 특정 외관 또는 형상을 갖는 사건을 식별하기 위해 보통 사용된다. 사건은 동작의 존재 또는 예를 들면 사람, 자동차, 얼굴 또는 번호판 등의 특정 형태의 물체의 존재와 같은 특정 사건 형태로 분류된다.
"존재 값(presence value)"이란 용어는, 본 출원의 관점에서, 복수의 화상 내의 모든 사건 중에서, 이미지 뷰 내의 특정 위치에 존재하도록 결정되는 사건 발생 수를 반영하는 것으로 이해하여야 한다.
"위치"라는 용어는 복수의 화상을 획득하기 위해 설치되는 카메라의 이미지 뷰 내의 위치로서 이해하여야 한다. 이 위치는, 예를 들면 화소 조정 시스템을 사용하여 이미지 뷰 내에서 좌표로 나타낼 수 있으며, 다른 방식의 표시가 또한 사용될 수 있다. 이미지 뷰 내의 각 위치의 크기와 사건 범위에 따라, 사건은 하나 이상의 위치를 망라할 수 있으며, 그에 따라 일 실시예에 있어서 특정 형태의 사건의 결정된 존재는 하나 이상의 위치에서 존재할 수 있다. 상기 각각의 결정된 위치에서의 존재 값은 3D 히스토그램(histogram) 또는 빈도 맵(frequency map)으로 나타낼 수 있다.
그에 따라, 3D 히스토그램 또는 빈도 맵 내의 위치에 대응하는 각각의 빈(bin)은 특정 위치에서 발생된 특정 형태의 사건이 얼마나 많은지를 표시하는 값을 포함한다. 대안적으로, 존재 값은 수학식 형태로도 나타낼 수 있는데, 예를 들면 평면을 다항식으로 나타내고, 이 경우에, 각 위치의 존재 값은 특정 위치에서의 상기 다항식의 값이 된다.
따라서, 상기 각각의 결정된 위치에서의 존재 값은 특정 형태의 사건이 일반적으로 나타나는 위치를 표시하며, 또한 특정 형태의 사건이 일반적으로 나타나지 않는 위치를 표시한다. 이는 하기의 예에 의해 더 설명될 것이다. 특정 형태의 사건이 동작의 존재를 나타내고, 화상 데이터를 획득하는 카메라가 코너의 상점을 감시하는 경우, 가장 높은 존재 값을 보여주는 위치는 출납원으로의 대기 행렬 및/또는 사람들의 이동이 종종 탐지되는 어떤 선반일 것이다.
이에 따르면, 화상 조정 파라미터를 결정하기 위한 방법은 화상 내에서, 화상 품질의 개선이 가장 필요한 장소의 화상 품질의 개선을 용이하게 하는 방법으로 달성된다. 예를 들면, 카메라에 의해 감시된 장면의 고정 부분, 즉 특정 사건 형태의 사건 발생 수가 낮은, 예를 들면 존재하는 동작이 없는 부분들을 마스킹하는 것에 의해, 화상의 관심 부분들을 획득할 수 있고 그리고/또는 장면 중 가장 관심있는 부분에 대한 개선된 화상 품질을 얻을 수 있는 더욱 최적화된 방식으로 처리될 수 있다. 예를 들면, 상기 각각의 결정된 위치에서의 존재 값을 결정하는 것에 의해, 특정 형태의 사건이 발생할 수 있는 가장 높은 확률을 갖는 장면 부분에 카메라를 집중시키도록 화상 데이터를 획득하는 카메라의 아이리스 설정을 변경하는 것이 가능하다.
같은 맥락에서, 낮은 존재 값을 갖는 위치들은 낮은 관련성으로서 간주되는 반면, 높은 존재 값은 관련성이 있는 것으로 간주될 것이다. 화상에서의 역학이 최적의 선택을 요구할 때, 이들 관련 위치들은 최적화를 위해 초점을 맞출 것이다. 이는 가장 높은 존재 값을 갖는 위치에서의 증가된 화상 품질을 얻도록 할 것이다.
장면 중 가장 관심있는 위치에 대한 화상 품질을 최적화하는 것에 의해, 모든 화상 데이터가 동일한 방식으로 처리될 필요는 없다. 이는 예를 들면 프로세서 용량 및/또는 대역폭(bandwidth)을 저감시킬 수 있다. 더욱이, 사용된 프로세서 전력이 낮아 발열을 줄일 수 있다.
상기 식별된 위치의 존재 값을 결정하는 단계는 상기 각각의 식별된 위치의 기존 존재 값을 제공하는 단계, 및 상기 각각의 식별된 위치의 기존 존재 값과 상기 식별된 위치 내의 특정 사건 형태의 추가 탐지된 사건 발생 수를 반영하는 새로운 존재 값을 종합하는 단계를 포함할 수 있다.
이러한 조정 위치는 한계값 이상의 존재 값을 갖는 이미지 뷰에서의 하나 이상의 위치로서 결정될 수 있다. 그래서, 화상 데이터의 처리 및/또는 추가 화상들을 획득하는 카메라의 카메라 설정은 관련성이 있는 것으로 간주되는 이미지 뷰의 위치들에 대해 최적화될 수 있다. 이 비제한적인 구현은 카메라에 의해 감시된 장면의 위치들을 가공되지 않은 상태(raw form)에서 낮은 관련 부분들은 버리고 관련성이 있는 것으로 간주되는 위치들만을 처리하도록 한다. 이는 이 방법을 구현하는 시스템의 처리 단계를 저감시킨다.
특정 사건 형태의 상기 사건의 상기 위치는 상기 이미지 뷰 내에서 화소 좌표로 나타낼 수 있다. 그러나, 사건은 이미지 뷰에서의 하나 이상의 화소를 망라할 수 있거나, 또는 대안적으로 하나 이상의 위치가 특정 형태의 각 사건에 대해 결정될 수 있다는 것을 이해하여야 한다.
상기 화상 데이터는 팬 및/또는 틸트 기능을 갖는 카메라에 의해 획득될 수 있다. 만일 그렇다면, 특정 사건 형태의 상기 사건의 상기 위치는 상기 카메라의 현재 팬/틸트 설정과 함께 상기 복수의 화상 중의 하나의 화상 내에서 화소 좌표로 나타낼 수 있다. 팬/틸트 카메라는 이동하기 때문에, 카메라의 팬/틸트 설정은 사건이 발생된, 카메라에 의해 감시된 이미지 뷰에서의 위치를 식별하는 것을 지원한다. 따라서, 팬/틸트 카메라에 의해 감시된 이미지 뷰 내의 모든 위치에 대한 존재 값이 결정될 수 있다.
상기 방법은 상기 화상 조정 파라미터를 사용하는 것에 의해 화상 데이터의 처리를 조정하는 단계를 추가로 포함할 수 있다. 조정은 카메라에 의해 획득되는 추가 화상 데이터 또는 이미 기록된 화상의 처리에 보통 영향을 준다. 조정될 수 있는 화상 처리 파라미터들의 일부 예들은 색채 배합, 신호 대 잡음비, 콘트라스트 등을 변경하는 파라미터일 수 있다.
상기 화상 데이터는 카메라에 의해 획득될 수 있다. 만일 그렇다면, 이 방법은 상기 화상 조정 파라미터를 사용하여 상기 카메라의 카메라 설정을 조정하는 단계를 추가로 포함할 수 있다.
본 발명의 다른 태양에 따르면, 이미지 뷰를 나타내는 복수의 화상에 대응하는 화상 데이터를 획득하고, 화상 조정 파라미터를 결정하기 위해 설치된 카메라가 존재한다. 이 카메라는 상기 복수의 화상으로부터, 특정 사건 형태의 사건을 탐지할 뿐만 아니라 특정 형태의 상기 각각의 사건이 존재하는 위치를 탐지하도록 설치된 사건 위치 탐지기, 이미지 뷰 내의 상기 위치 중의 하나에서의 특정 사건 형태의 사건 발생 수를 반영하도록 형성되는 존재 값으로서, 이미지 뷰 내의 상기 각 위치에 대한 존재 값을 결정하도록 설치되는 존재 값 결정기, 이미지 뷰 내의 복수의 위치의 각 위치에서의 존재 값에 기초하여 조정 위치를 결정하도록 설치되는 조정 위치 결정기, 및 상기 조정 위치로부터의 데이터에 기초하여 화상 조정 파라미터를 결정하도록 설치되는 화상 조정 파라미터 결정기를 포함한다.
상기 사건 위치 탐지기, 상기 존재 값 결정기, 상기 조정 위치 결정기 및/또는 상기 화상 조정 파라미터 결정기는 상기 카메라의 메모리에 저장되고 상기 카메라 내의 프로세서에 의해 실행되는 소프트웨어 코드, 상기 카메라 내에 존재하는 하드웨어 유닛, 또는 이들의 조합에 의해 구현될 수 있다.
카메라는 재초점 유닛, 노출시간 설정 유닛, 감도 설정 유닛, 아이리스 설정 유닛 및/또는 심도 설정 유닛을 추가로 포함하며, 상기 화상 조정 파라미터는 상기 카메라의 상기 재초점 유닛, 노출시간 설정 유닛, 감도 설정 유닛, 아이리스 설정 유닛 및/또는 심도 설정 유닛을 조정하는 데 사용된다.
상기 사건 위치 탐지기는 동작 탐지기, 물체 추적기 또는 이들의 조합으로서 구현될 수 있다.
본 발명의 또 다른 태양에 따르면, 컴퓨터-판독 가능 기록 매체가 존재한다. 컴퓨터-판독 가능 기록 매체는, 처리 능력을 갖는 장치에서 실행될 때에 본 발명의 전술한 태양과 그의 실시예들에 따른 방법을 구현하기 위한 프로그램이 기록되어 있다.
본 발명의 상기 태양 및 다른 태양을 본 발명의 실시예들을 도시하는 첨부 도면을 참조하여 상세히 기술한다. 첨부한 도면들은 본 발명을 특정한 실시예로 제한하는 것은 아니며, 본 발명을 예시하고 본 발명의 이해를 위해 사용되는 것이다.
도 1은 본 발명의 일 실시예에 따른 디지털 네트워크 카메라를 도시하는 개략도이다.
도 2는 본 발명의 일 실시예에 따른 사건 위치 탐지기를 도시하는 개략도이다.
도 3은 이미지 뷰의 서로 다른 위치에 대한 존재 값의 생성의 간략한 예를 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 방법을 개략적으로 도시하는 플로우차트이다.
도 1은 본 발명의 일 실시예에 따른 카메라(1)를 개략적으로 도시한다. 카메라(1)는, 즉 디지털 네트워크 비디오 카메라일 수 있다. 또한, 카메라(1)는 고정식 카메라 또는 팬/틸트 기능을 갖는 카메라일 수 있다. 본 발명의 이해를 쉽게 하기 위해, 본 발명과는 관계가 없는 카메라의 기본 특징들은 기재하지 않는다. 카메라(1)는 하우징(2), 렌즈(3), 화상 센서(4), 사건 위치 탐지기(5), 존재 값 결정기(6), 조정 위치 결정기(7)와 화상 조정 파라미터 결정기(8), 메모리(9), 재초점 유닛(10), 노출시간 설정 유닛(11), 감도 설정 유닛(12), 아이리스 설정 유닛(13), 심도 설정 유닛(14) 및 프로세서(15)를 포함한다.
프로세서(15)는 카메라(1)의 다른 구성요소 중의 임의의 구성요소에 의해 생성되는 데이터를 처리하고 그리고/또는 거절하도록 설치되어 있다.
렌즈(3)와 화상 센서(4)는 이미지 뷰를 나타내는 화상들을 획득하도록 설치되어 있으며, 획득된 화상들을 사건 위치 탐지기(5)로 보낸다. 화상 센서(4)는, 예를 들면 고체촬상소자(Charge Coupled Device, CCD), CMOS-센서 등일 수 있으며, 입사광을 검지하기 위한 것이다. 대안적으로, 화상 센서(4)는 볼로미터(bolometer)와 같은 비가시광을 검지하는 센서일 수 있다.
사건 위치 탐지기(5)는 카메라(1)에 의해 획득된 복수의 화상에 대응하는 화상 데이터를 수신하도록 설치되어 있다. 사건 위치 탐지기(5)는 상기 복수의 대응하는 화상 데이터를 분석하고 사건의 존재를 결정한다. 사건이 존재하는 경우에, 사건 위치 탐지기(5)는 각 사건에 대한 이미지 뷰 내의 위치를 결정하도록 또한 설치되어 있다. 더욱이, 사건 위치 탐지기(5)는 사건 형태를 결정하도록 설치되어 있다. 사건 형태들은 동작의 존재 및/또는 사람, 자동차, 얼굴, 번호판 등과 같은 특정 형태의 물체의 존재이다.
사건 위치 탐지기(5)는 동작 탐지기(16)로서, 물체 추적기(16)로서, 또는 이들의 조합으로서 구현될 수 있다. 동작 탐지기(16) 뿐만 아니라 물체 추적기(17)도 포함하는 사건 위치 탐지기(5)의 일 실시예가 도 2에 도시되어 있다.
동작 탐지기(16)는 이미지 뷰 내의 동작의 존재는 사건으로서 간주될 수 있다. 일반적으로, 비디오 시퀀스 형태의 복수의 화상에 대응하는 화상 데이터는 동작의 존재를 결정하기 위해 분석된다. 동작 탐지의 방법들의 예는 비디오 시퀀스의 화상 양의 공간적-시간적 변화를 분석하는 것을 포함한다.
물체 추적기(17)는 사람, 자동차, 얼굴, 번호판 등과 같은 특정 형식의 물체의 존재를 탐지하도록 설치되어 있다. 물체 추적기(17)는 카메라(1)에 의해 획득된 화상의 시각적인 특징들을 분석한 것에 기초하여 물체를 식별하는 방법을 사용하는 것에 의해 구현될 수 있다.
예를 들면, 패턴 또는 특징 탐지를 위한 다른 형식의 방법이 물체 탐지를 위해 사용될 수 있다. 동작 대신에 시각적 특징을 분석할 때에는 식별하고자 하는 물체가 동작 상태 또는 고정 상태에 있는지는 문제시되지 않는다. 탐지되는 특정 외관을 갖는 사전 결정된 형태의 물체는, 예를 들면 사람, 자동차, 얼굴, 번호판 등일 수 있으며, 즉 임의 형태의 물체는 가시적 특징들을 사용하여 다른 사건들과 구별될 수 있다. 서로 다른 사건 형태의 사건이 존재하는 것에 대한 식별 또는 인식을 개선하도록 전술한 방법들 및 유사한 다른 형식의 방법들의 조합이 또한 사용될 수 있다.
탐지된 사건의 위치는 카메라(1)의 이미지 뷰 내의 위치이다. 각 위치의 크기와 사건의 범위에 따라, 보통 사건은 하나 이상의 위치를 망라하며, 그래서 결정된 사건의 존재는 보통 하나 이상의 위치에서 발생한 것일 것이다.
본 발명의 일 실시예에 따르면, 카메라에 의해 감시된 장면 내의 각 위치는 카메라의 이미지 뷰의 화소로 나타낸다.
본 발명의 다른 실시예에 따르면, 카메라에 의해 감시된 장면 내의 각 위치는 카메라의 팬/틸트 설정과 함께, 위치, 즉 카메라의 현재 이미지 뷰 내의 화소(즉, 상기 복수의 화상 중의 하나의 화상 내에서 화소 좌표로 나타낸)로 나타낸다. 이는 팬/틸트 기능을 갖는 카메라에 적용 가능하다. 따라서, 팬/틸트 카메라에 의해 감시된 이미지 뷰 내의 위치가 결정될 수 있다.
존재 값 결정기(6)는 사건 위치 탐지기(5)로부터의 데이터를 수신하도록 설치되어 있다. 이 데이터는 사건의 이미지 뷰 내의 상기 위치 및/또는 사건 형태에 관한 정보를 포함한다. 사건과 관련한 정보는, 예를 들면 사건이 동작의 존재이거나 또는 사건이 얼굴과 같은 특정 물체인 경우이다. 또한, 존재 값 결정기(6)는 이미지 뷰 내의 상기 위치의 각각에 대한 존재 값을 결정하기 위해 상기 데이터를 분석하도록 설치되어 있다. 존재 값은 이미지 뷰 내의 상기 위치들 중 하나에서의 특정 사건 형태의 사건 발생 수를 반영하도록 형성되어 있다. 각 위치의 크기와 사건의 범위에 따라, 사건은 하나 이상의 위치에서 발생할 수 있다. 존재 값은 3D 히스토그램 또는 빈도 맵으로 나타낼 수 있다. 그래서, 3D 히스토그램 또는 빈도 맵 내의 위치에 대응하는 각각의 빈(bin)은 이미지 뷰 내의 특정 위치에서 발생된 특정 형태의 사건이 얼마나 많은지를 표시하는 값을 포함한다. 따라서, 존재 값은 특정 형태의 사건이 일반적으로 나타나는 위치를 표시하며, 또한 특정 형태의 사건이 일반적으로 나타나지 않는 위치를 표시한다. 예를 들면, 카메라(1)가 도로와 그의 주변 환경을 감시하는 경우, 존재 값 결정기(6)는 사건 위치 탐지기(5)로부터 데이터를 수신하며, 이 데이터는 자동차의 존재 위치를 포함한다. 존재 값 결정기(6)는 카메라(1)에 의해 감시된 이미지 뷰의 각 위치에서의 자동차의 실체 개수를 결정하기 위해 이 데이터를 분석한다. 실체 자동차의 개수가 카메라에 의해 감시된 장면의 어떤 위치에서 증가하는 경우, 이들 위치 내의 존재 값도 또한 증가한다. 이를 시각적으로 묘사하는 방식은 3D 히스토그램 또는 빈도 맵 내에 각 위치에 대한 발생 수를 도표로 만드는 것이다. 도로와 자동차를 예로 들면, 도로를 나타내는 위치들은 분석된 상당수의 사건을 분석한 후에도 아마 많은 수의 실체를 가질 것이다.
도 3은 각각 네 개의 위치, 예를 들면 네 개의 화소를 갖는 이미지 뷰를 나타내는 네 개의 화상의 간단한 예를 도시한다. 특정 사건 형태의 사건은 모두 네 개의 화상을 가지고 있다. 특정 사건 형태의 사건은 모두 네 개의 화상 내의 동일한 특정 사건에서 비롯된다. 그러나, 특정 사건 형태의 사건은 다양한 화상 내의 서로 다른 특정 사건에서 비롯될 수 있다는 것을 인식하여야 한다. 네 개의 화상이 분석되는 경우, 존재 값은 네 개의 화상의 각각을 종합한 것이다. 전술한 바와 같이, 존재 값은 3D 히스토그램 또는 빈도 맵으로서 나타낼 수 있다. 그러나, 존재 값은 수학식 형태로도 나타낼 수 있는데, 예를 들면 평면을 다항식으로 나타내고, 이 경우에, 각 위치의 존재 값은 특정 위치에서의 상기 다항식의 값이 된다.
본 발명의 일 실시예에 따르면, 존재 값 결정기(6)는 더 많은 화상 데이터가 획득될 때, 존재 값을 시간이 감에 따라 동적으로 업데이트하도록 설치되어 있다. 업데이트는 다양한 방식으로 촉발될 수 있다. 일례에 따르면, 업데이트는 어떤 양의 화상 데이터가 획득되었을 때 촉발된다. 다른 예에 따르면, 업데이트는 마지막 업데이트 이후에 어떤 시간이 경과한 다음 촉발된다. 업데이트는, 예를 들면 존재 값 결정기(6)가 이미 존재하는 존재 값에 새롭게 획득되고 분석된 화상에서 비롯되는 사건에 관한 데이터를 간단하게 부가하도록 설치되는 것일 수 있다. 또 다른 예에 따르면, 존재 값 결정기(6)는 오래된 사건을 삭제하는 것에 의해 존재 값을 업데이트하도록 설치되어 있다. 또 다른 실시예에 따르면, 이미 존재하는 존재 값에 새롭게 획득되고 분석된 화상에서 비롯되는 사건에 관한 데이터 및 오래된 사건에 대응하는 데이터는 존재 값으로부터 삭제된다.
조정 위치 결정기(7)는 조정 위치를 결정하기 위해 이미지 뷰의 위치들에 대한 존재 값들을 분석하도록 설치되어 있다. 조정 위치는 한계값 이상의 존재 값을 갖는 이미지 뷰 내의 하나 또는 그 이상의 위치로서 결정된다. 한계값 이하의 낮은 사건 발생을 갖는 위치들은 관련성이 낮은 것으로 간주될 것이지만, 반면에 한계값 이상의 높은 사건 발생을 갖는 위치들은 관련성이 있는 것으로 간주될 것이다.
화상 조정 파라미터 결정기(8)는 상기 조정 위치로부터의 데이터에 기초한 화상 조정 파라미터를 결정하도록 설치되어 있다. 수신된 데이터에 기초하여, 화상 조정 파라미터 결정기(8)는 화상 조정 파라미터를 변경하는 것에 관하여 어떤 행동을 취할지를 결정한다. 다시, 전술한 바와 같이 도로와 자동차를 예로 들면, 화상 조정 파라미터 결정기(8)는 도로가 감시에 가장 관련있는 영역인지를 찾아내고, 도로 감시를 최적화하도록 사용되는 하나 또는 그 이상의 조정 파라미터를 결정할 것이다.
화상 조정 파라미터 결정기(8)는 카메라 자체의 설정을 변경하거나, 카메라에 의해 획득된 화상 데이터 처리에 사용된 파라미터를 변경하거나 또는 이들의 조합을 변경하도록 설치되어 있다. 카메라 설정 변경은 예를 들면 재초점 유닛(10), 노출시간 설정 유닛(11), 감도 설정 유닛(12), 아이리스 설정 유닛(13) 및/또는 심도 설정 유닛(14)을 포함한다. 이 변경은 획득되는 화상에 영향을 줄 것이다. 카메라에 의해 획득된 화상 데이터를 처리하는 데 사용된 파라미터의 변경은 예를 들면 색채 배합, 신호 대 잡음비 또는 콘트라스트를 제어하는 파라미터의 변경일 수 있다.
조정 위치 결정기(7)에 의해 결정된 덜 관련된 위치와 관련 위치의 정보를 사용하여, 화상 조정 파라미터 결정기(8)는 관련 위치들에 대한 최적의 화상 조정 파라미터를 결정하도록 설치되어 있다. 그렇게 함으로써, 화상 조정 파라미터는 카메라 설정 또는 관련있는 것으로 간주되어 카메라에 의해 감시된 이미지 뷰의 위치들에 대한 화상 데이터 처리를 최적화하도록 사용될 수 있으며, 히스토리를 기반으로 한 존재하게 되는 사건의 확률이 더 높아진다. 따라서, 미래에 가장 잦은 사건이 존재하게 되는 위치에 대한 장면을 최적화하는 것이 가능할 것이다.
사건 위치 탐지기(5), 존재 값 결정기(6), 조정 위치 결정기(7) 및/또는 화상 조정 파라미터 결정기(8)는 하드웨어 또는 소프트웨어를 사용하여 구현될 수 있다는 것을 인식하여야 한다. 소프트웨어로 구현된다면, 소프트웨어는 카메라(1)의 프로세서(15)에 의해 실행되도록 컴퓨터 판독 가능 기록 매체, 예를 들면 카메라(1)의 메모리에 기록될 수 있다.
도 4는 본 발명에 따른 화상 조정 파라미터를 결정하기 위한 방법의 일 실시예에 따른 개략 플로우차트를 도시한다. 이 방법은 하기의 단계를 포함한다. 이미지 뷰를 나타내는 복수의 화상을 수신하는 단계(100); 상기 복수의 화상으로부터 특정 사건 형태의 사건을 탐지하는 단계(102); 상기 특정 사건 형태의 각 사건에 대해, 상기 이미지 뷰 내의 상기 특정 형태의 사건이 존재하는 위치를 식별하는 단계(104); 상기 식별된 위치들 중 하나에서 상기 특정 사건 형태의 사건의 발생 수를 반영하도록 형성된 값인, 상기 각각의 식별된 위치의 존재 값을 결정하는 단계(106); 및 이미지 뷰 내의 조정 위치로부터의 데이터에 기초한 화상 조정 파라미터를 결정하는 단계(108)를 포함하며, 상기 조정 위치는 이미지 뷰 내의 복수의 위치의 각 위치에서의 존재 값에 기초하여 결정된다.
단계(102) 중에, 수신된 화상이 분석되고, 특정 형태의 사건이 탐지된다. 사건은 동작의 존재로서 나타내거나 또는 사람, 자동차, 얼굴, 번호판 등의 특정 외관을 갖는 물체로서 나타낼 수 있다. 동작의 존재는 통상적으로 동작 탐지 알고리즘을 통해 식별되며, 반면에 특정 외관을 갖는 물체의 존재는 통상적으로 물체 추적 알고리즘을 통해 식별된다.
단계(104)의 특정 사건 형태의 각 사건에 대한 식별에 의해, 복수의 화상을 획득하도록 설치되는 카메라에 의해 감시된 이미지 뷰 내에 특정 형태의 상기 사건이 존재하는 위치인, 이미지 뷰 내의 위치가 결정된다. 각 위치의 크기와 사건의 범위에 따라, 사건은 하나 이상의 위치를 망라하며; 그래서 결정된 사건의 존재는 보통 하나 이상의 위치 내의 존재 값으로 얻어질 것이다. 각각의 식별된 사건의 위치는 이 사건을 포함하는 화상/화상들 내에서 화소 좌표로서 결정될 수 있다. 이는 통상적으로 상기 복수의 화상이 고정식 카메라에 의해 획득될 때의 상황이다. 상기 복수의 화상이 팬/틸트 기능을 갖는 카메라에 의해 획득될 때의 상황에 대해서는, 각 사건의 위치는 통상적으로 카메라의 팬/틸트 설정과 조합된 사건을 포함하는 화상의 좌표 시스템 내의 위치로서 기술된다. 이 방식에 있어서, 팬/틸트 카메라에 의해 망라된 이미지 뷰 내의 위치가 추론될 수 있다.
단계(106) 중에, 단계(102)와 단계(104)로부터의 정보가 분석되고, 이미지 뷰의 상기 각 위치들 내의 존재 값이 결정된다. 따라서, 이 존재 값은 특정 형태의 사건이 일반적으로 나타나는 위치와 특정 형태의 사건이 일반적으로 나타나지 않는 위치를 또한 표시한다.
본 발명의 일 실시예에 따르면, 상기 식별된 각 위치의 존재 값을 결정하는 단계(106)는 상기 각각의 식별된 위치에서의 특정 사건 형태의 사건의 발생 수를 종합하는 단계를 포함한다.
단계(108) 중에, 상기 화상 조정 파라미터는 이미지 뷰 내의 조정 위치로부터의 데이터에 기초하여 결정된다. 화상 조정 파라미터는 복수의 화상을 획득하는 데 사용된 카메라의 설정을 조정하는 단계(110a), 화상 데이터 처리에 사용된 파라미터를 조정하는 단계(110b) 또는 이들의 조합에 사용될 수 있다. 카메라 설정에서의 조정은 예를 들면 카메라의 초점, 노출시간, 감도, 아이리스, 심도 등을 영향을 미치는 조정일 수 있다. 이 조정은 획득되는 화상에 영향을 미칠 것이다. 카메라에 의해 획득된 화상 데이터의 처리에 사용된 파라미터의 조정은 예를 들면 색채 배합, 신호 대 잡음비, 콘트라스트 등을 제어하는 파라미터의 조정일 수 있다. 이 조정은 처리되는 새로운 화상에 영향을 미칠 것이다. 이미 처리된 화상들의 포맷(format)에 따라, 화상 조정 파라미터는 이미 처리된 화상들을 재처리하는 데 사용될 수도 있다.
추가적인 단계로서, 추가 사건이 식별되었을 때 존재 값이 업데이트된다. 업데이트는 다양한 방식으로 이루어질 수 있으며, 일 실시예에 따르면, 업데이트는 시기적절하게 이루어진다. 즉, 첫 번째로 추가의 복수의 화상은 미리 결정된 기간 중에 수집되며, 두 번째로 이 추가의 복수의 화상이 특정 형태의 사건을 포함하는지 여부를 점검하고, 세 번째로 상기 특정 형태의 사건의 위치를 결정한다. 다음에, 추가 사건들에 관련하여 이 새롭게 모은 정보로 이미지 뷰 내의 위치들의 존재 값이 업데이트된다. 그 후, 화상 조정 파라미터는 상기 업데이트된 존재 값에 기초하여 업데이트된다. 대안적으로, 업데이트는 "즉석에서" 이루어지는 데, 이는 화상이 획득될 때 이 화상이 분석되고 존재 값이 업데이트되는 것이다.
본 발명의 일 실시예에 따르면, 상기 식별된 위치의 존재 값을 결정하는 단계는 상기 각각의 식별된 위치의 기존 존재 값을 제공하는 단계, 및 상기 각각의 식별된 위치의 기존 존재 값과 상기 식별된 위치 내의 특정 사건 형태의 추가 탐지된 사건 발생 수를 반영하는 새로운 존재 값을 종합하는 단계를 포함한다. 이는 이미 존재하는 존재 값을 어떻게 업데이트 하는가에 대한 예이다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 전술한 실시예에 한정되는 것이 아니라는 것을 인식할 것이다.
예를 들면, 본 발명은 디지털 카메라와 아날로그 카메라 모두에 적용가능하다. 오늘날, 지능형 아날로그 카메라에 있어서 디지털 화상 처리는 카메라 내에서 실행되며, 그 후 디지털 신호는 카메라를 떠나기 전에 아날로그 신호로 변환된다. 또한, 아날로그 카메라에 접속된 화상 A/D 변환기를 사용하여, 단순한 아날로그 카메라가 사용될 수 있다.
또한, 카메라(1)는 네트워크에 접속될 수 있고, 자립형 카메라(standalone camera)일 수 있고, 혹은 다른 방식으로 시스템에 접속될 수 있다.
더욱이, 복수의 화상은 스틸 화상이거나 또는 이동 화상이거나 또는 이들의 조합일 수 있다.
추가로, 본 발명은 카메라에서 구현될 필요는 없으며, 그 대신에 카메라와 처리 유닛을 포함하는 카메라 시스템에서 구현될 수 있다. 따라서, 카메라는 네트워크를 통해 처리 유닛에 접속된다. 이 실시예에 따르면, 카메라는 상기 화상 데이터를 구성하는 복수의 화상을 획득하도록 설치되며, 처리 유닛은 화상 데이터를 처리하도록 설치되어 있다. 그래서, 처리 유닛은 상기 사건 위치 탐지기(5), 상기 존재 값 결정기(6), 상기 조정 위치 결정기(7) 및 상기 화상 조정 파라미터 결정기(8)를 포함한다. 처리 유닛은 변경된 카메라 설정 형태에서의 화상 조정 파라미터를 카메라로 다시 보내도록 설치될 수 있거나 또는 처리 유닛 또는 다른 곳에서 사용된 화상 처리 설정인 화상 조정 파라미터를 결정할 수 있다. 복수의 카메라가 처리 유닛에 접속될 수 있으며, 처리 유닛은 복수의 카메라의 각각에 의해 획득된 화상들을 처리하도록 설치될 수 있다.
따라서, 첨부한 청구범위의 기술사상 내에서 많은 변경과 변형이 가능하다.

Claims (9)

  1. 카메라 설정 또는 화상 처리 설정과 같은 카메라의 화상 조정 파라미터를 결정할 때, 사용되는 이미지 뷰의 조정 위치를 결정하기 위한 방법으로,
    카메라에 의해 모니터되는 이미지 뷰를 나타내는 비디오 시퀀스 형태의 복수의 화상을 수신하는 단계(100),
    상기 복수의 화상으로부터, 특정 외관을 갖는 물체의 존재인, 특정 사건 형태의 사건을 탐지하는 단계(102),
    특정 사건 형태의 각 사건에 대하여-고정식 카메라의 경우에 있어서, 상기 이미지 뷰의 각각의 위치 또는 위치들은 상기 사건을 포함하는 화상 또는 화상들 내에서 화소 좌표로 나타내고, 카메라가 팬 및 틸트 기능을 가진 경우에 있어서, 상기 이미지 뷰 내의 상기 각각의 위치 또는 위치들은 카메라의 팬 및 틸트 설정과 함께 상기 복수의 화상들 중의 하나의 화상 내에서 화소 좌표로 나타냄-상기 이미지 뷰 내에서 상기 특정 형태의 사건이 존재하는 위치 또는 위치들을 식별하는 단계(104),
    상기 식별된 위치들 중 하나에서 상기 특정 사건 형태의 사건의 발생 수를 반영하도록 형성된 값인, 상기 각각의 식별된 위치들의 존재 값을 결정하는 단계(106), 및
    한계값 이상의 존재 값을 갖는 상기 이미지 뷰 내의 하나 또는 그 이상의 식별 위치들로서 상기 이미지 뷰의 조정 위치를 결정하는 단계,
    상기 결정된 이미지 뷰의 조정 위치를 사용하여 카메라의 화상 조정 파라미터를 결정하는 단계를 포함하는 것을 특징으로 하는 이미지 뷰의 조정 위치 결정 방법.
  2. 제1항에 있어서,
    상기 각각의 식별된 위치들의 존재 값을 결정하는 단계(106)는,
    상기 각각의 식별된 위치들의 기존 존재 값을 제공하는 단계와,
    상기 각각의 식별된 위치들의 기존 존재 값과 상기 식별된 위치들 내의 특정 사건 형태의 추가 탐지된 사건 발생 수를 반영하여 새로운 존재 값을 종합하는 단계를 포함하는 것을 특징으로 하는 이미지 뷰의 조정 위치 결정 방법.
  3. [청구항 3은(는) 설정등록료 납부시 포기되었습니다.]
    제1항 또는 제2항에 있어서,
    상기 화상 조정 파라미터를 사용하는 것에 의해 화상 데이터의 처리를 조정하는 단계(110b)를 추가로 포함하는 것을 특징으로 하는 이미지 뷰의 조정 위치 결정 방법.
  4. [청구항 4은(는) 설정등록료 납부시 포기되었습니다.]
    제1항 또는 제2항에 있어서,
    상기 복수의 화상은 카메라에 의해 획득되며,
    화상 조정 파라미터를 사용하여 상기 카메라의 카메라 설정을 조정하는 단계(110a)를 추가로 포함하는 것을 특징으로 하는 이미지 뷰의 조정 위치 결정 방법.
  5. 카메라에 의해 모니터되는 이미지 뷰를 나타내는 비디오 시퀀스 형태의 복수의 화상을 획득하고, 카메라 설정 또는 화상 처리 설정과 같은 화상 조정 파라미터를 결정할 때, 사용되는 이미지 뷰의 조정 위치를 결정하기 위해 설치된 카메라(1)로,
    상기 복수의 화상으로부터, 특정 외관을 갖는 물체의 존재인, 특정 사건 형태의 사건을 탐지하도록 설치된 사건 위치 탐지기(5),
    이미지 뷰 내의 상기 위치의 각각에 대한 존재 값으로서, 이미지 뷰 내의 상기 위치들 중 하나에서의 특정 사건 형태의 사건 발생 수를 반영하도록 형성되어 있는 존재 값을 결정하도록 설치된 존재 값 결정기(6),
    한계값 이상의 존재 값을 갖는 상기 이미지 뷰 내의 하나 또는 그 이상의 탐지 위치로서 상기 이미지 뷰의 조정 위치를 결정하도록 설치되는 조정 위치 결정기(7), 및
    상기 조정 위치 결정기(7)에서 데이터를 수신하고, 상기 결정된 이미지 뷰의 조정 위치를 사용하여 화상 조정 파라미터를 결정하도록 설치되는 화상 조정 파라미터 결정기(8)를 포함하며,
    상기 사건 위치 탐지기(5)는 상기 특정 형태의 사건이 존재하는 경우-고정식 카메라의 경우에 있어서, 상기 이미지 뷰의 각각의 위치 또는 위치들은 상기 사건을 포함하는 화상 또는 화상들 내에서 화소 좌표로 나타내고, 카메라가 팬 및 틸트 기능을 가진 경우에 있어서, 상기 이미지 뷰 내의 상기 각각의 위치 또는 위치들은 카메라의 팬 및 틸트 설정과 함께 상기 복수의 화상들 중의 하나의 화상 내에서 화소 좌표로 나타냄-상기 이미지 뷰 내에서 위치 또는 위치들을 탐지하도록 추가로 설치되는 것을 특징으로 하는 카메라.
  6. [청구항 6은(는) 설정등록료 납부시 포기되었습니다.]
    제5항에 있어서,
    상기 사건 위치 탐지기(5), 상기 존재 값 결정기(6), 상기 조정 위치 결정기(7) 및 상기 화상 조정 파라미터 결정기(8)는, 상기 카메라(1)의 메모리(9)에 저장되고 상기 카메라(1) 내의 프로세서(15)에 의해 실행되는 소프트웨어 코드, 상기 카메라(1) 내에 존재하는 하드웨어 유닛, 또는 이들의 조합에 의해 구현되는 것을 특징으로 하는 카메라.
  7. [청구항 7은(는) 설정등록료 납부시 포기되었습니다.]
    제5항 또는 제6항에 있어서,
    재초점 유닛(10), 노출시간 설정 유닛(11), 감도 설정 유닛(12), 아이리스 설정 유닛(13) 또는 심도 설정 유닛(14)을 추가로 포함하며,
    상기 화상 조정 파라미터는 상기 카메라(1)의 상기 재초점 유닛(10), 노출시간 설정 유닛(11), 감도 설정 유닛(12), 아이리스 설정 유닛(13) 또는 심도 설정 유닛(14)을 조정하는 데 사용되는 것을 특징으로 하는 카메라.
  8. [청구항 8은(는) 설정등록료 납부시 포기되었습니다.]
    제5항 또는 제6항에 있어서,
    상기 사건 위치 탐지기(5)는 물체 추적기(17)로서 구현되는 것을 특징으로 하는 카메라.
  9. 처리 능력을 갖는 장치에서 실행될 때에 제1항 또는 제2항에 따른 방법을 구현하기 위한 프로그램이 기록된, 컴퓨터 판독 가능 기록 매체.
KR1020160125740A 2011-07-19 2016-09-29 화상 조정 파라미터를 결정하기 위한 방법 및 카메라 KR101826897B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11174491.8A EP2549738B1 (en) 2011-07-19 2011-07-19 Method and camera for determining an image adjustment parameter
EP11174491.8 2011-07-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120078871A Division KR101663752B1 (ko) 2011-07-19 2012-07-19 화상 조정 파라미터를 결정하기 위한 방법 및 카메라

Publications (2)

Publication Number Publication Date
KR20160118183A KR20160118183A (ko) 2016-10-11
KR101826897B1 true KR101826897B1 (ko) 2018-02-08

Family

ID=44367040

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020120078871A KR101663752B1 (ko) 2011-07-19 2012-07-19 화상 조정 파라미터를 결정하기 위한 방법 및 카메라
KR1020160125740A KR101826897B1 (ko) 2011-07-19 2016-09-29 화상 조정 파라미터를 결정하기 위한 방법 및 카메라

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020120078871A KR101663752B1 (ko) 2011-07-19 2012-07-19 화상 조정 파라미터를 결정하기 위한 방법 및 카메라

Country Status (6)

Country Link
US (2) US9635237B2 (ko)
EP (1) EP2549738B1 (ko)
JP (1) JP5400195B2 (ko)
KR (2) KR101663752B1 (ko)
CN (1) CN102891960B (ko)
TW (1) TWI554099B (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2549738B1 (en) 2011-07-19 2013-08-28 Axis AB Method and camera for determining an image adjustment parameter
US20140093174A1 (en) * 2012-09-28 2014-04-03 Canon Kabushiki Kaisha Systems and methods for image management
KR102327779B1 (ko) * 2014-02-21 2021-11-18 삼성전자주식회사 이미지 처리 방법 및 장치
CN106416217A (zh) * 2014-04-17 2017-02-15 索尼公司 照相机的深度辅助场景识别
TWI518437B (zh) * 2014-05-12 2016-01-21 晶睿通訊股份有限公司 動態對焦調整系統及其動態對焦調整方法
US9661319B2 (en) * 2014-05-21 2017-05-23 GM Global Technology Operations LLC Method and apparatus for automatic calibration in surrounding view systems
DE102016122485A1 (de) * 2016-11-22 2018-05-24 Jungheinrich Aktiengesellschaft Verfahren zur Bereitstellung der Positionen von Lagerplätzen in einem Lager und Flurförderzeug
KR102407815B1 (ko) * 2016-12-22 2022-06-13 삼성전자주식회사 영상 처리 장치 및 방법
WO2018117662A1 (en) * 2016-12-22 2018-06-28 Samsung Electronics Co., Ltd. Apparatus and method for processing image
CN108664847B (zh) * 2017-03-29 2021-10-22 华为技术有限公司 一种对象识别方法、设备和系统
EP3619684A4 (en) * 2017-05-04 2021-06-09 Second Spectrum, Inc. METHOD AND DEVICE FOR AUTOMATIC INTRINSIC CAMERA CALIBRATION USING IMAGES OF A PLANAR CALIBRATION PATTERN
KR102437456B1 (ko) * 2017-11-14 2022-08-26 애플 인크. 이벤트 카메라-기반 변형가능 물체 추적
WO2020034083A1 (en) * 2018-08-14 2020-02-20 Huawei Technologies Co., Ltd. Image processing apparatus and method for feature extraction
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
JP7368822B2 (ja) * 2019-05-31 2023-10-25 i-PRO株式会社 カメラパラメータ設定システムおよびカメラパラメータ設定方法
TWI716921B (zh) * 2019-06-28 2021-01-21 華碩電腦股份有限公司 偵測裝置、偵測系統及偵測方法
CN110769239B (zh) * 2019-10-26 2020-08-18 岳阳县辉通物联网科技有限公司 基于场景识别的参数大数据设定装置
CN112770081B (zh) * 2019-11-01 2023-05-02 杭州海康威视数字技术股份有限公司 监控设备的参数调整方法、装置、电子设备及存储介质
CN111179354A (zh) * 2019-12-16 2020-05-19 中国辐射防护研究院 一种实验标定光场相机重聚焦距离和对应α值的方法
EP3979618A1 (en) * 2020-10-01 2022-04-06 Axis AB A method of configuring a camera
CN114913470B (zh) * 2022-07-11 2022-10-28 浙江大华技术股份有限公司 一种事件检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205650A (ja) 2007-02-16 2008-09-04 Sony Corp 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP2009094725A (ja) 2007-10-05 2009-04-30 Fujifilm Corp 撮像方法及び装置
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
KR101663752B1 (ko) * 2011-07-19 2016-10-07 엑시스 에이비 화상 조정 파라미터를 결정하기 위한 방법 및 카메라

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100213055B1 (ko) * 1996-07-27 1999-08-02 윤종용 감시용 시스템에서의 기록 매체 절약형 기록방법
US6137580A (en) 1998-09-22 2000-10-24 Creo Srl Autofocus system
US7280753B2 (en) * 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US7148912B2 (en) * 2003-11-17 2006-12-12 Vidient Systems, Inc. Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
KR101069181B1 (ko) 2004-08-31 2011-09-30 엘지전자 주식회사 감시용 디지털 비디오 레코더에서의 모션 검출 영역 자동설정장치 및 방법
JP4482037B2 (ja) 2004-12-29 2010-06-16 ノキア コーポレイション デジタル画像形成の露出
JP4324170B2 (ja) * 2005-03-17 2009-09-02 キヤノン株式会社 撮像装置およびディスプレイの制御方法
JP4218670B2 (ja) * 2005-09-27 2009-02-04 オムロン株式会社 前方撮影装置
JP5044321B2 (ja) * 2006-09-13 2012-10-10 株式会社リコー 撮像装置および被写体検出方法
TWI335181B (en) 2006-12-13 2010-12-21 Univ Chung Yuan Christian Human behavior event detection system, method and device
JP4902562B2 (ja) * 2007-02-07 2012-03-21 パナソニック株式会社 撮像装置、画像処理装置、制御方法およびプログラム
TW200842733A (en) 2007-04-17 2008-11-01 Univ Nat Chiao Tung Object image detection method
JP2009059073A (ja) * 2007-08-30 2009-03-19 Toshiba Corp 撮影装置、撮影方法、人物認識装置および人物認識方法
JP2010021598A (ja) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd 撮像装置および撮像方法
US8345101B2 (en) 2008-10-31 2013-01-01 International Business Machines Corporation Automatically calibrating regions of interest for video surveillance
JP5419585B2 (ja) * 2009-08-04 2014-02-19 キヤノン株式会社 画像処理装置および画像処理方法並びにプログラム
US8594482B2 (en) * 2010-05-13 2013-11-26 International Business Machines Corporation Auditing video analytics through essence generation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205650A (ja) 2007-02-16 2008-09-04 Sony Corp 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP2009094725A (ja) 2007-10-05 2009-04-30 Fujifilm Corp 撮像方法及び装置
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
KR101663752B1 (ko) * 2011-07-19 2016-10-07 엑시스 에이비 화상 조정 파라미터를 결정하기 위한 방법 및 카메라

Also Published As

Publication number Publication date
TW201313012A (zh) 2013-03-16
US20130021477A1 (en) 2013-01-24
JP2013031167A (ja) 2013-02-07
EP2549738B1 (en) 2013-08-28
EP2549738A1 (en) 2013-01-23
US10070053B2 (en) 2018-09-04
US20170214850A1 (en) 2017-07-27
CN102891960A (zh) 2013-01-23
JP5400195B2 (ja) 2014-01-29
TWI554099B (zh) 2016-10-11
KR20130010875A (ko) 2013-01-29
US9635237B2 (en) 2017-04-25
CN102891960B (zh) 2017-05-17
KR20160118183A (ko) 2016-10-11
KR101663752B1 (ko) 2016-10-07

Similar Documents

Publication Publication Date Title
KR101826897B1 (ko) 화상 조정 파라미터를 결정하기 위한 방법 및 카메라
US10204275B2 (en) Image monitoring system and surveillance camera
US9542754B2 (en) Device and method for detecting moving objects
US8629915B2 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
US9235880B2 (en) Camera and method for optimizing the exposure of an image frame in a sequence of image frames capturing a scene based on level of motion in the scene
TW200939779A (en) Intelligent high resolution video system
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
KR102638565B1 (ko) 화상 처리 장치, 출력 정보 제어 방법, 및 프로그램
US8798369B2 (en) Apparatus and method for estimating the number of objects included in an image
US20160212410A1 (en) Depth triggered event feature
JP2013223104A (ja) カメラおよびカメラシステム
JP4668863B2 (ja) 撮像装置
JP7250433B2 (ja) 撮像装置、制御方法及びプログラム
JP5929774B2 (ja) 画像取得方法、装置、およびプログラム
CN111800605A (zh) 基于枪球联动的车形、车牌传输的方法及系统、设备
KR101637637B1 (ko) 비디오 센서 시스템의 영역 별 자동 노출 방법 및 그 장치
US10902574B2 (en) Information processing apparatus, image capture system, control method and storage medium
JP2005070450A (ja) ビデオカメラ
JP2013172313A (ja) 情報処理装置及び情報処理プログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant