KR20240046852A - 카메라 정보 핸드오버 - Google Patents
카메라 정보 핸드오버 Download PDFInfo
- Publication number
- KR20240046852A KR20240046852A KR1020230130210A KR20230130210A KR20240046852A KR 20240046852 A KR20240046852 A KR 20240046852A KR 1020230130210 A KR1020230130210 A KR 1020230130210A KR 20230130210 A KR20230130210 A KR 20230130210A KR 20240046852 A KR20240046852 A KR 20240046852A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- view
- field
- sub
- region
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 15
- 230000009471 action Effects 0.000 claims abstract description 11
- 230000004044 response Effects 0.000 claims abstract description 9
- 238000001914 filtration Methods 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000000926 separation method Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 10
- 230000001960 triggered effect Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19634—Electrical details of the system, e.g. component blocks for carrying out specific functions
- G08B13/19636—Electrical details of the system, e.g. component blocks for carrying out specific functions pertaining to the camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19665—Details related to the storage of video surveillance data
- G08B13/19669—Event triggers storage or change of storage policy
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19695—Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
카메라, 비일시적 컴퓨터-판독가능 저장 매체, 및 제2 카메라의 시야에 객체가 나타나기 전에 카메라 시스템 내의 제2 카메라로 하여금 하나 이상의 작업을 수행하도록 트리거링하는 방법이 개시된다. 카메라 시스템은 위치 및 시야가 알려진 제2 카메라, 및 적어도 위치가 알려진 제1 장치를 포함한다. 상기 방법은 제2 카메라의 시야에 객체가 접근하고 있음을 나타내는 정보를 제2 카메라에서 수신하되, 수신된 정보는 객체의 위치 및 움직임의 방향을 나타내는 제1 장치로부터의 정보에 기반하는 단계; 및 수신된 정보에 응답하여, 제2 카메라의 시야에 객체가 나타나기 전에 제2 카메라로 하여금 인트라 프레임을 생성하거나 인트라 리프레시 과정을 시작하는 작업, 하나 이상의 이미지 처리 파라미터를 조정하는 작업, 및 노출 시간을 조정하는 작업 중 하나 이상을 수행하도록 트리거링하는 단계; 를 포함한다.
Description
본 발명은 카메라의 시야에 객체가 나타나기 전에 카메라를 준비하는 것, 구체적으로는 카메라의 시야에 객체가 나타나기 전에 카메라에서 작업을 트리거링하는 것과 관련되어 있다.
하나 이상의 카메라를 포함하는 카메라 시스템에서는, 객체와 같은 관심 대상이 카메라 시야에 나타날 가능성이 있는 시기를 예측하는 것이 유용할 수 있다. 예를 들어, 일부 건물의 감시 시스템에서, 카메라가 방의 일부를 비추고 있다면, 방 안으로 문이 열리는 것은 사람이 감시 시스템의 카메라의 시야에 나타날 수 있음을 뜻할 수 있다. 이러한 경우 카메라는 문이 열렸음을 감지했을 때 영상을 녹화하기 시작하는 것으로 알려져 있다. 이에 더하여, 복수의 카메라를 포함하는 일부 종래 기술의 카메라 시스템에서는, 추적된 객체에 관련된 정보가 카메라들 간에 핸드오버(handed over)된다. 그러나, 카메라의 시야에 객체가 나타나기 전에 카메라 시스템의 카메라를 준비하는 것은 여전히 개선이 필요하다.
본 발명의 목적은 카메라의 시야에 객체가 나타나기 전에 카메라 시스템의 카메라를 준비하는 것의 개선을 촉진하는 것이다.
제1 양태에 따르면, 제2 카메라의 시야에 객체가 나타나기 전에 상기 제2 카메라로 하여금 하나 이상의 작업을 수행하도록 트리거링하는 방법이 제공된다. 상기 제2 카메라는 상기 제2 카메라 및 적어도 제1 장치를 포함하는 카메라 시스템에 배치된다. 상기 제2 카메라의 위치 및 상기 시야가 알려지고, 상기 제1 장치의 위치가 알려진다. 상기 방법은 상기 제2 카메라의 상기 시야에 상기 객체가 접근하고 있음을 나타내는 정보를 상기 제2 카메라에서 수신하되, 상기 수신된 정보는 상기 객체의 위치 및 움직임의 방향을 나타내는 상기 제1 장치로부터의 정보에 기반하는 단계; 및 상기 수신된 정보에 응답하여, 상기 제2 카메라의 상기 시야에 상기 객체가 나타나기 전에 상기 제2 카메라로 하여금 a) 인트라 프레임(intra frame)을 생성하거나 인트라 리프레시(intra refresh) 과정을 시작하는 작업, b) 하나 이상의 이미지 처리 파라미터를 조정하는 작업, 및 c) 노출 시간을 조정하는 작업 중 하나 이상을 수행하도록 트리거링하는 단계; 를 포함한다.
'인트라 리프레시 과정'이란, 이미지 프레임 세트의 각 프레임이 복수의 서브 영역으로 나뉘어지고, 복수의 서브 영역 중 하나 이상의 서브 영역이 제1 이미지 프레임에서 인트라 인코딩(intra encoded)되고, 서브 영역 세트의 다른 하나 이상의 서브 영역이 제2 이미지 프레임에서 인트라 인코딩되고, 이렇게 상기 복수의 서브 영역의 모든 서브 영역이 상기 이미지 프레임 세트에 걸쳐 인트라 인코딩될 때까지 계속되는 과정을 뜻한다.
'이미지 처리 파라미터'란, 카메라에서 캡처된 이미지 프레임을 처리하기 위한 파라미터를 뜻한다. 이러한 처리는 컬러 밸런싱, 화이트 밸런싱, 저조도 잡음 필터링, 시간적 잡음 필터링, 및 배경 분할을 포함하되 이에 한정되지는 않는다.
'노출 시간'이란 카메라에서 이미지 프레임을 캡처할 때 센서가 노출되는 시간을 뜻한다. 이러한 시간은 기계적으로 센서를 가리고 노출 시간에 대응되는 시간 동안은 제거되는 기계식 셔터에 의해 제어되거나, 노출 시간에 대응되는 시간 동안 센서로부터 읽은 데이터만을 활용하여 기계식 셔터를 에뮬레이트(emulate)하는 전자식 셔터에 의해 제어될 수 있다. 노출 시간은 일반적으로 이미지 프레임의 모든 영역에서 동일하다. 하지만, 하나의 이미지 프레임은 각각 다른 노출 시간을 갖는 이미지 프레임 세트의 조합으로부터 구성될 수 있다. 이러한 이미지에는, 각각 다른 서브 영역이 각각 다른 이미지 프레임 세트로부터의 데이터를 포함할 수 있고, 따라서 각각 다른 노출 시간을 갖는다고 할 수 있다.
'객체가 제2 카메라의 시야에 나타나기 전'이라 함은, 객체의 어떠한 부분 또는 일부가 제2 카메라의 시야에 나타나기 전을 뜻한다.
제1 장치의 위치 및 제2 카메라의 시야 및 위치가 알려져 있으므로, 객체의 위치 및 움직임의 방향을 나타내는 제1 장치로부터의 정보에 기반하여, 제2 카메라는 객체가 제2 카메라에 접근하고 있음을 나타내는 정보를 수신할 수 있다. 수신된 정보를 사용하여 제2 카메라의 시야에 객체가 나타나기 전에 제2 카메라가 세 가지 작업 중 하나 이상을 수행하도록 트리거링하는 것을 통해, 제2 카메라의 시야에 객체가 나타났을 때 장면 전환에 대한 적응력의 향상이 가능해진다.
제2 카메라의 시야에 객체가 나타나기 전에 인트라 프레임(I-frame, I-프레임)의 생성을 트리거링하는 것을 통해, 제2 카메라의 시야에 객체가 나타나기 전, P- 또는 B-프레임과 관련하여 I-프레임의 비트(bits)의 증가된 숫자가 유도된다. 이는 제2 카메라의 시야에 객체가 나타났을 때 인코딩되었을 경우의 I-프레임보다 적은 비트 수를 갖는 I-프레임을 얻도록 할 것이다. 또한, 제2 카메라의 시야에 객체가 나타났을 때, 이는 일반적으로 I-블록이 포함되어 있는 인코딩된 이미지 프레임의 비트 수를 증가시키는 I-블록의 생성의 필요성을 증가시킬 것이다. 이와 유사하게, 객체의 움직임 역시 일반적으로 인코딩된 이미지 프레임의 비트 수를 증가시킬 것이다. 그러므로, I-프레임의 생성, 제2 카메라의 시야에 나타난 객체 및 객체의 움직임에 의한 이미지 프레임의 증가된 비트 수는 복수의 이미지 프레임으로 퍼져 나갈 수 있고, 따라서 이미지 프레임의 최대 사이즈는 줄어들 수 있다.
객체가 시야에 나타나기 전에 이미지 처리 파라미터 및/또는 노출 시간의 조정을 트리거링하는 것을 통해, 제2 카메라의 시야에 객체가 나타나기 전에 이미지 처리 파라미터 및/또는 노출의 조정이 가능해진다. 예를 들어, 객체가 움직이고 있다는 사실과 관련된 조정이 가능해진다. 또한, 처리를 최적화하기 위한 조정, 예를 들어 대비, 잡음 레벨, 연색성(color rendering), 해상도 등의 조정이 가능해진다.
수신된 정보는 제2 카메라의 시야에 객체가 나타날 것으로 예측되는 시간을 더 나타낼 수 있다. 제2 카메라의 시야에 객체가 나타날 것으로 예측되는 시간을 아는 것으로 인해, 만약 작업 중 하나를 트리거링하는 것이 제2 카메라의 시야에 객체가 감지된 결과로서 수행되었을 경우, 제2 카메라의 시야에 객체가 나타나기 전에 상기 세 가지 작업 중 하나가 보다 좋은 타이밍에 수행될 수 있다.
수신된 정보는 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역을 더 나타낼 수 있다. 서브 영역을 아는 것으로 인해, 상기 하나 이상의 작업은 서브 영역과 관련하여 수행될 수 있다.
인트라 프레임을 생성하거나 인트라 리프레시 과정을 시작하는 작업은, 먼저 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되지 않는 제2 카메라의 이미지 프레임의 서브 영역을 인트라 리프레시하고, 그 후 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되는 제2 카메라의 이미지 프레임의 서브 영역을 인트라 리프레시하는 것을 포함할 수 있다. 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되지 않는 서브 영역의 인트라 리프레시는 제2 카메라의 시야에 객체가 처음 나타날 것으로 예측되는 시간 이전에 인트라 리프레시가 끝날 수 있는 시간에 시작된다. 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되는 서브 영역의 인트라 리프레시는 그 후 해당 서브 영역에 객체가 나타나기 직전, 해당 서브 영역에 객체가 나타난 순간, 또는 그 직후에 시작되고, 선택적으로 끝난다. 만약 인트라 리프레시가 해당 서브 영역에 객체가 나타나기 직전에 시작되고 끝났다면, 객체가 나타났을 때 해당 서브 영역의 인코딩은 일반적으로 해당 서브 영역의 적어도 일부에 I-블록의 인코딩을 필요로 할 것이다.
제2 카메라의 시야에 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되지 않는 제2 카메라의 이미지 프레임의 서브 영역의 인트라 리프레시(즉, 인트라 인코딩)를 트리거링하는 것으로 인해, P- 또는 B-프레임과 관련하여 인트라 리프레시에 의해 증가된 비트 수는 제2 카메라의 시야에 객체가 나타나기 전에 유도된다. 이는 제2 카메라의 시야에 객체가 나타났을 때 인코딩된 경우의 온전한 I-프레임보다 적은 비트 수의 프레임을 얻을 수 있도록 한다. 이에 더하여, 제2 카메라의 시야에 객체가 나타났을 때, 이는 일반적으로 I-블록이 포함되어 있는 인코딩된 이미지 프레임의 비트 수를 증가시키는 I-블록의 생성의 필요성을 증가시킬 것이다. 이와 유사하게, 객체의 움직임 역시 일반적으로 인코딩된 이미지 프레임의 비트 수를 증가시킬 것이다. 그러므로, I-프레임의 생성, 제2 카메라의 시야에 나타난 객체 및 객체의 움직임에 의한 이미지 프레임의 증가된 비트 수는 복수의 이미지 프레임으로 퍼져 나갈 수 있고, 따라서 이미지 프레임의 최대 사이즈는 줄어들 수 있다. 추가적으로, 객체가 처음 나타날 제2 카메라의 시야의 서브 영역에 대응되는 서브 영역은 오브젝트가 나타날 때 I-블록과 함께 업데이트되어야 하기 때문에, 해당 서브 영역의 인트라 리프레시, 즉 인트라 인코딩은 객체가 나타난 이후로 미뤄질 수 있다. 이 방법으로, 온전한 I-프레임과 비교했을 때 다른 서브 영역이 인트라-인코딩된 이미지 프레임의 크기가 감소할 수 있다.
추가적으로, 또는 대안적으로, 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되는 제2 카메라의 이미지 프레임의 서브 영역 내의 저조도 잡음 필터링의 감소를 포함할 수 있다. 서브 영역 내의 저조도 잡음 필터링을 감소시킴으로 인해, 서브 영역에 저조도로 인한 잡음이 많을 경우 서브 영역 내에서 객체가 보이지 않을 위험을 감소시킬 수 있다.
추가적으로, 또는 대안적으로, 노출 시간을 조정하는 작업은 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되지 않는 제2 카메라의 이미지 프레임의 서브 영역보다 객체가 처음 나타날 것으로 예측되는 제2 카메라의 시야의 서브 영역에 대응되는 제2 카메라의 이미지 프레임의 서브 영역의 노출 시간을 짧게 설정하는 것을 포함할 수 있다.
하나 이상의 이미지 처리 파라미터를 조정하는 작업은 파라미터 최적화를 위한 시작 값으로서 하나 이상의 이미지 처리 파라미터를 각각의 중간 값으로 설정하는 것 및 배경 분할을 위한 임계값을 감소시키는 것 중 하나 이상을 포함할 수 있다. 하나 이상의 이미지 처리 파라미터를 각각의 중간값으로 설정하는 것으로 인해, 이미지 처리 파라미터의 값의 보다 빠른 최적화가 가능해진다. 제2 카메라의 시야에 객체가 나타나기 전에 배경 분할에서 전경으로 분류되는 항목의 임계값을 감소시킴으로 인해, 객체를 전경 객체로서 보다 빠르게 감지할 수 있다. 제2 카메라의 시야에 객체가 나타나기 전에 임계값을 감소시키는 것과 배경 병합을 수행하는 것은 객체가 전경으로서 분류되고 따라서 감지 혹은 마스킹과 관련하여 누락되지 않을 확률을 증가시킨다.
상기 수신된 정보는 객체의 속도를 더 나타낼 수 있다. 노출 시간을 조정하는 작업은 객체의 속도에 기반하여 속도가 높을수록 노출 시간이 짧아지도록 할 수 있다. 추가적으로, 또는 대안적으로, 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 객체의 속도에 기반하여 시간적 잡음 필터 레벨을 설정하여, 속도가 높을수록 시간적 잡음 필터 레벨이 높아지도록 하는 것을 포함할 수 있다.
제2 카메라는 상기 작업들 중 둘 이상을 수행하도록 더 트리거링될 수 있다.
수신된 정보는 객체의 클래스를 더 나타낼 수 있다.
제1 장치는 제1 카메라, 레이더, 라이다, 열화상카메라, 소나 센서(sonar sensor) 중 하나일 수 있으나, 이에 한정되지는 않는다.
만약 제1 장치가 제1 카메라일 경우, 수신된 정보는 제1 카메라의 컬러 밸런스 보정 또는 화이트 밸런스 보정을 포함할 수 있다. 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 이후 수신된 정보에 따라 컬러 밸런스 보정 또는 화이트 밸런스 보정을 설정하는 것을 포함한다.
제2 양태에 따르면, 적어도 수신기, 프로세서, 및 인코더를 갖는 장치에서 실행될 때, 제1 양태에 따른 방법을 구현하기 위한 명령을 저장한 비일시적 컴퓨터-판독가능 저장 매체가 제공된다.
제3 양태에 따르면, 카메라의 시야의 객체가 나타나기 전에 하나 이상의 작업을 수행하도록 구성된 카메라가 제공된다. 상기 카메라는 상기 카메라 및 적어도 다른 장치를 포함하는 카메라 시스템에 배치되고, 상기 카메라의 위치 및 시야가 알려져 있고 상기 다른 장치의 위치가 알려져 있을 때, 상기 카메라의 상기 시야에 객체가 접근하고 있음을 나타내는 정보를 수신하도록 구성된 수신기를 포함하고, 수신된 정보는 객체의 움직임의 방향 및 위치를 나타내는 다른 장치로부터의 정보에 기반한다. 상기 카메라는 인코더, 및 수신된 정보에 응답하여 제2 카메라의 시야에 객체가 나타나기 전에 카메라로 하여금 a) 인트라 프레임을 생성하거나 인트라 리프레시 과정을 시작하는 작업, b) 하나 이상의 이미지 처리 파라미터를 조정하는 작업, 및 c) 노출 시간을 조정하는 작업 중 하나 이상을 수행하도록 트리거링하는 트리거링 기능을 실행하도록 구성된 회로를 더 포함한다.
앞서 언급된 제1 양태에 따른 방법의 선택적이고 추가적인 기능은, 적용 가능한 경우, 제3 양태에 따른 카메라에도 적용될 수 있다. 과도한 반복을 피하기 위해, 앞서 기재된 내용을 참조한다.
본 발명이 적용될 수 있는 추가적인 범위는 아래의 상세한 설명으로부터 명확해질 것이다. 하지만, 본 발명의 상세한 설명으로부터 본 발명의 범위 내의 다양한 변경 및 수정이 통상의 기술자에게는 명백할 것이므로, 상세한 설명 및 본 발명의 바람직한 실시예를 나타내는 구체적인 예시는 오직 예시로서만 제공된다는 것이 이해되어야 할 것이다.
따라서, 본 발명은 묘사된 장치의 특정 구성요소 또는 묘사된 방법의 특정 동작에 한정되지 않으며, 이러한 장치 및 방법은 달라질 수 있음이 이해되어야 한다. 또한, 본 발명에서 사용된 용어는 특정 실시예를 설명하기 위한 목적이며 한정하고자 하는 의도가 없음이 이해되어야 한다. 발명의 설명 및 첨부된 청구항에서, 'a', 'an', 'the', 및 '상기'는 문맥상 명백하게 다르게 명시되지 않는 한, 하나 이상의 요소가 존재하는 것으로 해석되어야 함에 유의하여야 한다. 따라서, 예를 들어, '유닛'은 복수의 장치를 포함할 수 있고, 이외도 유사하다. 이에 더하여, '포함하다' 및 이와 유사한 단어들은 다른 요소나 단어를 배제하지 않는다.
본 발명의 상기 언급된 및 다른 양태는 이제 첨부된 도면을 참조로 하여 보다 상세하게 설명될 것이다. 도면은 한정하기보다는 설명 및 이해를 위한 것으로 사용되어야 할 것이다.
도 1은 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하도록 구성된 카메라의 실시예와 관련된 개략적인 도면이다.
도 2는 제2 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하도록 제2 카메라를 트리거링하기 위한 방법의 실시예와 관련된 흐름도이다.
도 3은 이미지 프레임을 서브 영역으로 나누는 것의 예시를 보여준다.
도 1은 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하도록 구성된 카메라의 실시예와 관련된 개략적인 도면이다.
도 2는 제2 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하도록 제2 카메라를 트리거링하기 위한 방법의 실시예와 관련된 흐름도이다.
도 3은 이미지 프레임을 서브 영역으로 나누는 것의 예시를 보여준다.
본 발명은 이하, 현재 본 발명의 바람직한 실시예가 도시되어 있는 첨부된 도면을 참조로 하여 설명될 것이다. 하지만, 본 발명은 다양한 형태로 실시될 수 있으며 여기에서 제시된 실시예에 한정되어서는 안 될 것이다.
도 1은 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하돋록 구성된 카메라(100)(이하 제2 카메라)의 실시예의 개략적인 블록도를 도시하고 있다. 제2 카메라(100)는 제2 카메라(100) 및 적어도 다른 장치를 포함하는 카메라 시스템에 배치된 보안 카메라 또는 감시 카메라와 같은 어떤 종류의 카메라일 수도 있으며, 여기서 제2 카메라의 위치 및 시야가 알려져 있고, 상기 다른 장치의 위치가 알려져 있다. 상기 다른 장치는, 예를 들어, 다른 카메라일 수 있다. 제2 카메라(100)는 일련의 이미지 프레임을 예를 들어 영상의 형태로 캡처하고, 각각의 이미지 프레임은 제2 카메라(100)의 시야에 의해 정의되는 장면을 묘사한다.
제2 카메라(100)는 수신기(110), 인코더(120), 및 회로(130)를 포함한다. 카메라는 일반적으로 이미지 센서(미도시) 및 이미지 프로세서(미도시)를 포함할 것이다.
수신기(110)는, 제2 카메라(100)가 제2 카메라(100) 및 적어도 다른 장치를 포함하는 카메라 시스템에 배치되고 제2 카메라(100)의 위치 및 시야가 알려져 있고 다른 장치의 위치가 알려져 있을 때, 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보를 수신하도록 구성된다. 수신된 정보는 객체의 움직임의 방향 및 위치를 나타내는 상기 다른 장치로부터의 정보에 기반한다.
인코더(120)는, 제2 카메라(100)의 이미지 센서에 의해 캡쳐된 이미지 데이터를 비디오 스트림으로 인코딩하도록 구성된다. 종종 인코더(120)에 의해 출력된 비디오 스트림은 인코딩된 비디오 스트림으로 지칭되기도 한다. 일반적으로, 비디오 인코더(120)는 비디오 스트림의 일부 이미지 프레임을 인트라 프레임으로 인코딩하고, 비디오 스트림의 일부 이미지 프레임은 인터 프레임으로 인코딩한다. 인트라 프레임은 디코딩되기 위하여 다른 비디오 프레임으로부터의 정보를 필요로 하지 않는 인코딩된 비디오 프레임이다. 따라서, 인트라 프레임은 그에 대응되도록 설정된 비디오 데이터의 이미지 프레임으로부터의 정보에 기반하여 인코딩된다. 일반적으로, 이미지 프레임 내의 유사점이 이미지 프레임을 인트라 프레임으로 인코딩하기 위해 사용된다. 비디오 인코딩에서, 인트라 프레임은 자주 I-프레임으로 지칭된다. 비디오 스트림의 두 인트라 프레임 사이의 이미지 프레임은 인터 프레임으로서 인코딩된다. 인터 프레임은 인터 프레임에 대응되도록 설정된 비디오 데이터의 이미지 프레임보다 적어도 하나의 다른 이미지 프레임으로부터의 정보에 기반한다. 인터 프레임은 일반적으로 인트라 프레임보다 적은 데이터를 포함한다. 비디오 인커딩에서, 인터 프레임은 자주 P-프레임 또는 B-프레임으로 지칭된다. P-프레임은 데이터 참조를 위해 이전 프레임(previous frame)을 참조한다. 따라서, P-프레임을 디코딩하기 위해서는 이전 프레임의 컨텐츠를 반드시 알아야 한다. B-프레임은 데이터 참조를 위해 이전 및 이후 프레임(forward frame) 모두를 참조할 수 있다. 따라서, B-프레임을 디코딩하기 위해서는 이전 및 이후 프레임의 컨텐츠를 반드시 알아야 한다.
회로(130)는 제2 카메라(100)의 기능을 실행하도록 구성된다. 회로(130)는 중앙 처리 장치(CPU), 마이크로컨트롤러, 또는 마이크로프로세서와 같은 프로세서(132)를 포함할 수 있다. 프로세서(132)는 프로그램 코드를 실행하도록 구성된다. 프로그램 코드는 예를 들어, 제2 카메라(100)의 기능을 실행하도록 구성될 수 있다.
제2 카메라(100)는 메모리(140)를 더 포함할 수 있다. 메모리(140)는 버퍼, 플래시 메모리, 하드 드라이브, 이동식 매체, 휘발성 메모리, 비휘발성 메모리, 랜덤 액세스 메모리(RAM), 또는 다른 적합한 메모리 중 하나 이상일 수 있다. 일반적인 배열에서, 메모리(140)는 장기 데이터 저장소로 비휘발성 메모리를 포함할 수 있고, 회로(130)의 시스템 메모리로서 기능하는 휘발성 메모리를 포함할 수 있다. 메모리(140)는 회로(130)와 데이터 버스를 통해 데이터를 교환할 수 있다. 메모리(140)와 회로(130) 사이의 제어 라인 및 주소 버스가 존재할 수 있다.
제2 카메라(100)의 기능은 제2 카메라의 비일시적 컴퓨터 판독가능 매체(예를 들어, 메모리(140))에 저장된 실행 가능한 로직 루틴(예를 들어, 코드 줄, 소프트웨어 프로그램 등)의 형태로 실시될 수 있고, 회로(130)(예를 들어, 프로세서(132)를 사용하여)에 의해 실행될 수 있다. 이에 더하여, 제2 카메라(100)의 기능은 독립적인 소프트웨어 어플리케이션 또는 제2 카메라(100)와 관련된 추가적인 작업을 실행하는 소프트웨어 어플리케이션의 일부일 수 있다. 묘사된 기능은 처리 유닛, 예를 들어 회로(130)의 프로세서(132)가 실행하도록 구성된 방법으로 생각될 수 있다. 또한, 묘사된 기능이 소프트웨어에서 구현될 수 있을 때, 이러한 기능은 전용 하드웨어 또는 펌웨어, 또는 하드웨어, 펌웨어 및/또는 소프트웨어의 일부 조합을 통해 실행될 수도 있다.
제2 카메라(100)의 회로(130)는 트리거링 기능(141)을 실행하도록 구성된다. 트리거링 기능(141)은, 수신기(110)에서 수신된, 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보에 응답하여 제2 카메라(100)의 시야에 객체가 나타나기 전에 제2 카메라(100)로 하여금 a)인트라 프레임을 생성하거나 인트라 리프레시 과정을 시작하는 작업, b) 하나 이상의 이미지 처리 파라미터를 조정하는 작업, 및 c) 노출 시간을 조정하는 작업 중 하나 이상을 수행하도록 구성된다.
제2 카메라(100)는 제2 카메라(100) 및 적어도 제1 장치를 포함하는 카메라 시스템에 배열되도록 구성된다. 구체적으로, 제2 카메라(100) 및 제1 장치를 포함하는 카메라 시스템은 제1 장치의 위치 및 제2 카메라(100)의 시야 및 위치가 알려지도록 배열되고 구성되어야 하며, 제1 장치로부터 객체의 움직임의 방향 및 위치를 나타내는 정보가 제공될 수 있도록 배열되고 구성되어야 한다. 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는, 제2 카메라(100)에서 수신될 정보는 중앙 서버를 사용하는 중앙 집중식 솔루션 또는 제1 장치 및 제2 카메라(100)를 사용하는 분산식 솔루션에서 준비될 수 있다. 중앙식 솔루션에서는, 중앙 서버만이 제1 장치의 위치 및 제2 카메라의 시야 및 위치를 알아야 할 필요가 있다. 객체의 움직임의 방향과 위치를 나타내는 정보를 제1 장치로부터 수신한 후에는, 중앙 서버는 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보를 준비하고 제2 카메라(100)에 이러한 정보를 제공할 수 있다. 분산식 솔루션에서는, 제1 장치는 제2 카메라(100)로 객체의 움직임의 방향 및 위치를 나타내는 정보를 직접적으로 송신할 수 있고, 이후 제2 카메라(100)는, 자신의 위치 및 시야를 아는 상태에서, 제2 카메라(100)의 시야에 객체가 접근하고 있는지를 결정할 수 있으며, 만약 그런 경우, 상기 세 가지 작업 중 하나 이상을 트리거링할 수 있다. 후자의 경우, 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보는 제1 장치로부터 수신된 객체의 움직임의 방향 및 위치를 나타내는 정보일 것이다.
객체가 제2 카메라(100)의 시야에 접근하고 있음을 나타내는 것에 더하여, 수신된 정보는 제2 카메라의 시야에 객체가 나타날 것으로 예측되는 시간 및/똔ㅡㄴ 객체의 속도를 더 나타낼 수 있다. 제2 카메라(100)의 시야에 객체가 언제 나타날지 아는 것으로 인해, 제2 카메라(100)의 시야에 객체가 나타나기 전에 세 가지 작업 중 하나를 수행하는 것이 더 좋은 타이밍에 달성될 수 있다. 제1 장치는 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간을 객체의 속도 및 제2 카메라의 시야 및 위치에 기반하여 산출할 수 있다.
이에 더하여, 제2 카메라(100)의 시야는 논리적으로 일련의 서브 영역으로 나뉠 수 있고, 여기서 각각의 서브 영역은 제2 카메라(100)의 이미지 프레임 각각의 서브 영역에 대응된다. 제2 카메라에서 수신된 정보는 객체가 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역을 더 나타낼 수 있다. 서브 영역을 아는 것으로 인해, 상기 하나 이상의 작업은 서브 영역과 관련되어 수행될 수 있다.
객체의 위치 및 움직임의 방향을 결정하기 위해서는 일반적으로 제1 장치가 시간이 지남에 따라 적어도 2차원의 표현을 제공해야 한다. 따라서, 제1 장치는 제1 카메라, 레이더, 라이더, 열화상카메라, 및 소나 센서 중 하나일 수 있으나, 이에 한정되지는 않는다. 이러한 시나리오에서, 중앙식 솔루션에서, 제1 장치는 일련의 이미지 프레임에 걸쳐 객체를 감지하여 객체의 위치 및 시야와 관련하여 상대적 위치 및 상대적 움직임의 방향을 결정할 수 있다. 중앙 서버는, 이후 제1 장치 및 제2 카메라(100)의 절대적 및 상대적 위치를 아는 상태에서, 제2 카메라(100)의 시야에 객체가 접근하고 있는지를 결정할 수 있고, 접근하고 있는 경우, 이러한 정보를 제2 카메라(100)에 제공할 수 있다. 분산식 솔루션에서는, 공통 좌표계와 관련하여 제1 장치와 제2 장치의 위치 및 시야에 대한 지식은 각각의 장치에 위치할 수 있다. 대안으로, 각각의 장치는 다른 장치에 대한 상대적인 위치를 가질 수 있다. 객체의 위치 및 움직임의 방향은 이후 제1 장치에서 일련의 이미지 프레임에 걸친 객체의 감지를 통해 결정될 수 있고, 객체의 위치 및 움직임의 방향을 나타내는 정보가 제2 카메라(100)에 제공될 수 있다. 제2 카메라(100)는, 제2 카메라(100)의 위치 및 시야를 알고 있는 상태에서, 객체가 제2 카메라(100)의 시야에 접근하고 있는지 여부를 결정할 수 있고, 만약 그러한 경우, 세 가지 작업 중 하나 이상을 트리거링할 수 있다. 후자의 경우, 객체가 제2 카메라(100)의 시야에 접근하고 있다는 것을 나타내는 정보는 제1 장치로부터 수신한 객체의 위치 및 움직임의 방향을 나타내는 정보일 것이다. 제1 장치의 일련의 이미지 프레임에 걸친 객체의 감지로부터, 사람(객체)의 예측되는 속도 및/또는 제2 카메라의 시야에 사람(객체)가 진입할 것으로 예측되는 시간이 결정될 수 있다. 이에 더하여, 위치 및 움직임의 방향으로부터, 객체가 나타날 제2 카메라(100)의 시야의 서브 영역이 결정될 수 있다.
일부 시나리오에서, 제1 장치는 객체가 특정 점 또는 선을 지났음만을 나타내는 하나 이상의 센서를 포함할 수 있다. 예를 들어, 제2 카메라(100)가 복도 또는 기타 밀폐된 공간의 다른 끝의 시야 및 위치를 알고 있는 상태에서, 만약 상기 복도나 기타 밀폐된 공간으로 연결되는 문을 사람이 통과하거나, 선을 넘어갔음을 감지할 수 있는 센서를 제1 장치가 포함한다면, 사람이 문 또는 선을 지났다는 제1 장치로부터의 정보는 이후 제1 장치의 위치 및 제2 카메라(100)의 위치 및 시야 정보에 기반하여 제2 카메라(100)의 시야에 사람(객체)가 접근하고 있다는 정보를 구성할 것이다. 만약 제1 장치가 복도 또는 기타 밀폐된 공간을 따라 알려진 위치에 하나 이상의 추가적인 센서를 포함한다면, 사람(객체)의 예측되는 속도 및/또는 사람(객체)가 제2 카메라(100)의 시야에 진입할 것으로 예측되는 시간이 더 잘 결정될 수 있다. 그러한 시나리오에서, 제2 카메라(100)의 시야는 하나의 서브 영역이 제1 장치의 상기 하나 이상의 센서와 가장 근접하도록 서브 영역으로 나눠질 수 있다.
일반적으로, 제1 장치의 위치 및 제2 장치의 위치 및 시야가 결정되고 중앙적 또는 분산적으로 제1 장치로부터 객체의 움직임의 방향 및 위치를 나타내는 정보에 기반하여 제2 카메라(100)가 객체가 그 시야에 접근하고 있음을 나타내는 정보를 수신할 수 있도록 알려진 한, 그것이 어떻게 결정되는지는 중요하지 않다. 예를 들어, 제1 장치의 위치 및 제2 장치의 위치 및 시야는 카메라 시스템의 설정 단계에서 결정될 수 있다(예를 들어, GPS 위치 및/또는 지도를 기반으로 한 장착 위치). 대안으로, 제1 장치의 위치 및 제2 장치의 위치 및 시야는 제1 장치 및 제2 카메라 내의 객체의 감지 및 움직임 정보를 수신하고 시간이 지남에 따라 제1 장치의 위치 및 제2 장치의 위치 및 시야 및/또는 제1 장치에 따라 특정 위치 및 움직임의 방향을 갖는 객체가 제2 카메라(100)의 시야에 접근하고 있는지 여부를 결정하는 자가 학습 시스템을 통해 결정될 수 있다.
수신된 정보에 응답하여 트리거링될 수 있는 작업들 중 하나로는 인트라 프레임의 생성 또는 인트라 리프레시 과정의 시작이 있다. 수신된 정보가 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타낼 때, 제2 카메라(100)의 시야에 객체가 나타나기 전에 I-프레임의 생성이 트리거링된다. 그러한 I-프레임이 생성된 이후, 배경의 품질이 향상된다. 즉, 제2 카메라(100)의 시야에 객체가 나타났을 때, 객체를 제외한 배경만을 포함하는 영역과 관련된 I-블록의 필요성이 감소할 것이다. 제2 카메라(100)의 시야에 객체가 진입하기 전에 I-프레임을 생성하는 것의 장점은 I-프레임이 일반적으로 P-프레임 또는 B-프레임보다 많은 비트 수를 가질 것이라는 점이다. 제2 카메라(100)의 시야에 객체가 나타나면, 객체와 관련하여 I-블록을 생성해야 할 필요가 있을 것이다. 이러한 I-블록은 인코딩된 이미지 프레임의 비트 수를 증가시킬 것이다. 이와 유사하게, 객체의 움직임은 시야 내의 객체가 움직이는 동안 일반적으로 각각의 인코딩된 프레임의 비트 수를 증가시킬 것이다. 따라서, 제2 카메라(100)의 시야에 객체가 나타나기 전에 배경의 업데이트를 위해 I-프레임의 생성을 트리거링하는 것을 통해, 이로 인한 비트 수의 증가는 객체가 나타날 때의 I-블록의 생성 및 객체의 움직임에 의해 증가된 비트 수를 포함하는 인코딩된 프레임과는 다른 인코딩된 프레임일 것이다.
만약 수신된 정보가 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간을 나타낸다면, I-프레임의 생성 또는 인트라 리프레시는 그 시간과 관련되도록, 특히 제2 카메라(100)의 시야에 객체가 나타나기 전에, 바람직하게는 직전이도록 시간을 맞출 수 있다.
만약 수신된 정보가 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 서브 영역을 더 나타낸다면, I-블록의 생성은 이에 맞게 적응된 인트라 리프레시 과정을 통해 적응될 수 있다.
일반적으로, 인트라 리프레시 과정은 일련의 이미지 프레임의 각 이미지 프레임이 복수의 서브 영역으로 나뉘고 상기 복수의 서브 영역 중 하나 이상의 서브 영역이 제1 이미지 프레임에서 인트라 인코딩되고, 일련의 서브 영역 중 다른 하나 이상의 서브 영역이 제2 이미지 프레임에서 인트라 인코딩되고, 상기 복수의 서브 영역 중 모든 서브 영역이 일련의 이미지 프레임에서 인트라 인코딩될 때까지 계속되는 과정이다. 이미지 프레임의 각각의 서브 영역은 제2 카메라(100)의 시야의 서브 영역 중 대응되는 하나의 서브 영역에 대응된다. 예를 들어, 이미지 프레임(300)을 네 개의 서브 영역(310, 320, 330, 340)으로 나눈 것이 도 3에 도시되어 있고, 여기서 제1 서브 영역(310)은 이미지 프레임(300)의 좌측 상단 일부이고, 제2 서브 영역(320)은 우측 상단 일부이며, 제3 서브 영역(330)은 좌측 하단 일부이고, 제4 서브 영역(340)은 우측 하단 일부이다. 가로 또는 세로 스트라이프 또는 다른 형태와 같은 다른 패턴 및 보다 많은 서브 영역과 같이 다르게 나누는 것도 물론 가능할 것이다.
인트라 프레임의 생성 또는 인트라 리프레시 과정의 시작은 먼저 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되지 않는 제2 카메라(100)의 이미지 프레임의 서브 영역의 인트라 리프레시, 즉 인트라 인코딩을 포함할 수 있다. 이는 하나의 이미지 프레임에서 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되지 않는 모든 서브 영역을 인트라 인코딩하는 것을 통해 수행될 수 있다. 대안으로, 이는 복수의 이미지 프레임에 걸쳐 퍼질 수 있는데, 예를 들어, 제2 카메라(100)의 시야에 객체가 진입할 것으로 예측되는 시간 전에 제2 카메라(100)의 시야의 서브 영역에 대응되지 않는 서브 영역 각각이 개별 이미지 프레임에서 인코딩될 수 있다. 제2 카메라(100)의 시야에 객체가 나타났을 때, 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되는 제2 카메라(100)의 이미지 프레임의 서브 영역에 대한 인트라 인코딩이 수행된다. 도 3을 참조하여, 만약 객체가 서브 영역(310)에 처음 나타날 것으로 예측되면, 인트라 인코딩은 샛체가 이미지 프레임(300)에 나타나기 전에 서브 영역(320, 330, 340)에 먼저 수행되고, 이후, 객체가 이미지 프레임(300)에 나타날 때 또는 나타난 직후, 인트라 인코딩이 서브 영역(310)에 대해 수행된다. 서브 영역(320, 330, 340)에 대한 인트라 인코딩은 하나의 이미지 프레임에서 일어날 수도 있고, 개별 이미지 프레임에서 일어날 수도 있다. 다른 실시예에서는, 하나 또는 개별 이미지 프레임에서 서브영역(320, 330, 340)의 인트라 인코딩은 서브 영역(310)의 인트라 인코딩이 객체가 서브 영역(310)에 나타나기 전에 수행될 수 있도록 하는 시간에 완료될 수 있는 시간에 시작된다. 객체가 서브 영역(310)에 나타나면, 적어도 서브 영역(310)의 블록의 서브셋은 I-블록으로 인코딩된다.
제2 카메라의 시야에 객체가 나타나기 전에 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되지 않는 제2 카메라(100)의 이미지 프레임의 서브 영역의 인트라 리프레시를 트리거링하는 것을 통해, 배경이 업데이트되어 있고, 객체가 처음 나타나지 않는 서브 영역의 배경의 품질이 향상되어 있음이 보장된다. 이러한 방법으로는, 제2 카메라(100)의 시야에 객체가 나타났을 때, 객체가 처음 나타나지 않을 시야의 서브 영역에 I-블록의 필요성이 감소할 것이다. 제2 카메라(100)의 시야에 객체가 나타나면, 객체가 나타난 제2 카메라(100)의 이미지 프레임의 서브 영역에서 인트라 리프레시가 트리거링된다. 이는 일반적으로 인코딩된 이미지 프레임의 비트 수를 증가시킬 것이다. 이와 유사하게, 이미지 프레임과 관련하여 객체의 움직임 역시 일반적으로 인코딩된 그 이미지 프레임의 비트 수를 증가시킬 것이다. 따라서, 객체가 나타날 서브 영역 이외의 서브 영역의 인트라 리프레시로 인한 비트 수 증가는 객체가 처음 나타나는 서브 영역에 대응되는 서브 영역의 인트라 리프레시에 의해 증가된 비트 수를 포함하는 인코딩된 이미지 프레임 및 객체의 움직임에 의해 중가된 비트 수를 포함하는 인코딩된 이미지 프레임과는 다른 인코딩된 이미지 프레임에 있을 것이다. 이에 더하여, 이미지 프레임의 서브 영역이 객체가 대응되는 시야의 서브 영역에 나타났을 때 I-블록에 맞추어 업데이트되어야 하기 때문에, 해당 서브 영역의 인트라 리프레시는 객체가 나타난 이후까지 미뤄질 수 있다. 그러나, 일부 실시예에서는, 해당 서브 영역의 인트라 리프레시는 객체가 나타나기 전에 완료되고, 바람직하게는 객체가 나타나는 시간에 최대한 가까운 직전에 완료된다.
만약 수신된 정보가 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간을 더 나타낸다면, 서브 영역의 인트라 인코딩은 그 시간에 맞추어 타이밍될 수 있고, 예를 들어, 객체가 나타날 서브 영역에 대응되는 이미지 프레임의 서브 영역이 제2 카메라(100)의 시야에 객체가 나타날 때, 또는 최대한 가까운 직후에 인트라 인코딩된다. 앞서 설명된 바와 같이, 객체가 나타난다는 것은 제2 카메라(100)의 시야에 객체의 어느 일부분이라도 나타나는 것을 뜻한다.
트리거링될 수 있는 다른 작업으로는 하나 이상의 이미지 처리 파라미터를 조정하는 것이 있다. 여기서, 이미지 처리 파라미터는 카메라에서 캡처된 이미지 프레임을 처리하기 위한 파라미터이다. 이러한 처리의 예로는 컬러 밸런싱, 화이트 밸런싱, 저조도 잡음 필터링, 시간적 잡음 필터링, 및 배경 분할이 있다.
만약 수신된 정보가 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간을 더 나타낸다면, 하나 이상의 이미지 처리 파라미터를 조절하는 작업이 보다 더 좋은 타이밍에 트리거링될 수 있다.
예를 들어, 객체가 제2 카메라(100)의 시야에 접근하고 있음을 나타내는 정보를 수신하는 것은, 파라미터 최적화를 위해 시작 값으로서 하나 이상의 이미지 처리 파라미터 각각의 값을 중간 값으로 조정하는 것을 트리거링할 수 있다. 하나 이상의 이미지 처리 파라미터를 각각의 중간 값으로 설정하는 것을 통해, 이미지 처리 파라미터 값의 보다 빠른 최적화가 가능해진다. 이러한 최적화는 일반적으로 제2 카메라(100)의 시야에 객체가 나타날 때 이미지 프레임이 바뀜에 따라 요구될 것이다. 이에 더하여, 중간 값을 선택하는 것은 최적화가 일반적으로 새로운 국부적 최대/최소 값을 식별하기 위하여 파라미터 값의 단계적 변경을 반복적으로 사용하여 진행되기 때문에 유리하다. 추가적으로, 제2 카메라(100)의 시야에 객체가 나타날 때, 이미지 프레임은 바뀌고 새로운 최적 값은 이전 값을 고려하여 다를 수 있기 때문에, 최적화 동안의 반복적 검색의 스트라이드(stride) 길이가 연장될(즉, 길어지도록 바뀔) 수 있다.
적응될 수 있는 처리 파라미터 중 하나는 배경 분할에서 전경으로 분류된 것에 대한 임계값이다. 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보가 수신되면, 이는 제2 카메라(100)의 시야에 객체가 나타나기 전에 배경 분할에서 전경으로 분류된 것에 대한 임계값의 감소를 트리거링할 수 있다. 이러한 배경 분할에서 전경으로 분류된 것에 대한 임계값의 감소는 객체의 전경 객체로서의 보다 빠른 감지를 가능하게 한다.
다른 예시로서, 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보가 수신되면 배경 병합이 트리거링될 수 있다. 배경 병합에서는, 배경과 전경 사이의 분리가 제거된다. 이후, 제2 카메라(100)의 시야에 객체가 나타났을 때 이미지 프레임의 어느 부분이 배경에 속하고 어느 부분이 전경에 속하는지의 식별이 다시 수행된다.
수신된 정보가 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역을 나타내는 경우, 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되는 제2 카메라(100)의 이미지 프레임의 서브 영역에서 국부적으로 수행될 수 있다. 이미지 프레임의 서브 영역에서 하나 이상의 이미지 처리 파라미터를 조정하는 것으로 인해, 객체와 관련하여 서브 영역의 이미지의 향상이 가능해진다. 예를 들어, 하나 이상의 이미지 파라미터는 객체가 움직이고 있다는 사실과 관련하여 조정될 수 있다.
다른 예시로서, 제2 카메라(100)의 시야에 객체가 접근하고 있음을 나타내는 정보의 수신은 저조도 잡음 필터링의 감소를 트리거링할 수 있다. 저조도 잡음 필터링을 감소시키는 것으로 인해, 이미지 프레임에 저조도로 인한 잡음이 많을 경우 이미지 프레임 내에서 객체가 보이지 않을 위험이 감소할 수 있다. 만약 수신된 정보가 객체가 처음 나타날 것으로 예측되는 시야의 서브 영역을 더 나타내는 경우, 저조도 잡음 필터링은 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되는 제2 카메라(100)의 이미지 프레임의 서브 영역에서 감소될 수 있다. 서브 영역에서 저조도 잡음 필터링을 감소시키는 것으로 인해, 서브 영역에 저조도로 인한 잡음이 많을 경우 서브 영역에서 객체가 보이지 않을 위험이 감소될 수 있다.
만약 수신된 정보가 객체의 속도를 나타낸다면, 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 객체의 속도에 기반하여 시간적 잡음 필터 레벨을 설정하는 것을 포함할 수 있다. 예를 들어, 시간적 잡음 필터 레벨은 속도가 높을수록, 시간적 잡음 필터 레벨이 높아지도록 설정될 수 있다.
만약 제1 장치가 제1 카메라인 경우, 수신된 정보는 제1 카메라의 컬러 밸런스 보정 또는 화이트 밸런스 보정을 더 포함할 수 있다. 하나 이상의 이미지 처리 파라미터를 조정하는 것은 제1 카메라의 컬러 밸런스 보정 또는 화이트 밸런스 보정에 따라 제2 카메라(100)의 컬러 밸런스 보정 또는 화이트 밸런스 보정을 설정하는 것을 포함할 수 있다.
트리거링될 수 있는 작업들 중 마지막은 노출 시간을 조정하는 작업이다. 여기서, 노출 시간은 카메라에서 이미지 프레임을 캡처할 때 센서가 노출되는 시간을 뜻한다. 이러한 시간은 센서를 기계적으로 감싸고 노출 시간에 대응되는 시간 동안 제거되는 기계식 셔터에 의해 제어되거나, 노출 시간에 대응되는 시간 동안 센서로부터 읽은 데이터만을 사용하여 기계식 셔터를 에뮬레이트하는 전자식 셔터에 의해 제어될 수 있다. 노출 시간은 일반적으로 이미지 프레임 내의 모든 영역에서 동일하다. 그러나, 하나의 이미지 프레임은 각각 별개의 노출 시간을 갖는 일련의 이미지 프레임, 예를 들어 세 개의 이미지 프레임의 조합으로부터 생성될 수 있다. 이러한 이미지에 대해서는, 다른 서브 영역은 일련의 이미지 프레임으로부터의 다른 이미지 데이터를 포함할 수 있고, 따라서 다른 노출 시간을 가진다고 말할 수 있을 것이다. 예를 들어, 이미지 프레임의 저조도 영역은 보다 긴 노출 시간으로 캡처된 이미지 프레임으로부터의 이미지 데이터를 포함할 수 있고, 이미지 프레임의 고조도 영역은 보다 짧은 노출 시간으로 캡처된 이미지 프레임으로부터의 이미지 데이터를 포함할 수 있다.
제2 카메라(100)의 시야에 객체가 나타나기 전에 노출 시간의 조정을 트리거링하는 것으로 인해, 제2 카메라(100)의 시야에 나타나는 객체의 노출의 조정이 가능해진다. 예를 들어, 객체가 움직이고 있다는 사실과 관련한 조정이 가능해진다.
수신된 정보가 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역을 나타내는 경우. 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간을 아는 것으로 인해, 노출 시간을 조정하는 작업이 보다 좋은 타이밍에 수행될 수 있다.
예를 들어, 노출 시간을 조정하는 작업은 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되는 제2 카메라(100)의 이미지 프레임의 서브 영역 내에서 국부적으로 수행될 수 있다. 이미지 프레임의 서브 영역 내에서 국부적으로 하나 이상의 이미지 처리 파라미터 및/또는 노출 시간을 조정하는 작업을 통해, 객체와 관련하여 서브 영역 내의 이미지의 향상이 가능해진다. 예를 들어, 서브 영역 내의 하나 이상의 이미지 파라미터 및/또는 노출 시간은 객체가 움직이고 있다는 사실과 관련하여 조정될 수 있다.
다른 예시로서, 노출 시간을 조정하는 작업은 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되지 않는 제2 카메라(100)의 이미지 프레임의 서브 영역에서보다 객체가 처음 나타날 것으로 예측되는 제2 카메라(100)의 시야의 서브 영역에 대응되는 제2 카메라(100)의 이미지 프레임의 서브 영역에서의 노출 시간이 짧도록 설정하는 것을 포함할 수 있다. 이는 객체가 나타났을 때 제2 카메라의 제1 이미지 프레임의 모션 블러와 관련된 문제를 피하거나 적어도 줄일 수 있을 것이다.
만약 수신한 정보가 제2 카메라(100)의 시야에 객체가 나타날 것으로 예측되는 시간 역시 나타낸다면, 노출 시간의 조정의 트리거링이 보다 좋은 타이밍에 수행될 수 있을 것이다.
만약 수신된 정보가 객체의 속도를 나타내는 경우, 노출 시간은 객체의 속도에 기반하여, 속도가 높을수록 노출 시간이 짧아질 수 있다. 이는 객체가 나타날 때 제2 카메라의 제1 이미지 프레임의 모션 블러와 관련된 문제를 피하거나 적어도 줄일 수 있을 것이다.
도 2는 제2 카메라의 시야에 객체가 나타나기 전에 제2 카메라로 하여금 하나 이상의 작업을 수행하도록 트리거링하도록 하는 방법(200)과 관련된 흐름도가 도시되어 제공된다. 제2 카메라는 제2 카메라 및 적어도 제1 장치를 포함하는 카메라 시스템에 배열된다. 제2 카메라의 위치 및 시야가 알려져 있고, 제1 장치의 위치가 알려져 있다. 상기 방법(200)은 제2 카메라의 시야에 객체가 접근하고 있음을 나타내는 정보를 제2 카메라에서 수신하는 단계(S210)를 포함하고, 이때 수신된 정보는 객체의 위치 및 움직임의 방향을 나타내는 제1 장치로부터의 정보에 기반한다. 상기 방법(200)은 수신된 정보에 응답하여, 제2 카메라의 시야에 객체가 나타나기 전에 제2 카메라로 하여금 a) 인트라 프레임 또는 인트라 리프레시 과정을 시작하는 작업, b) 하나 이상의 이미지 처리 파라미터를 조정하는 작업, 및 c) 노출 시간을 조정하는 작업 중 하나를 수행하도록 트리거링하는 단계(S220)를 더 포함한다.
위에서 언급된 도 1과 관련된 제2 카메라(100)의 선택적이고 추가적인 요소는, 적용 가능한 경우, 도 2를 참조하여 설명된 방법(200)에도 적용된다.
통상의 기술자는 본 발명이 상기 설명된 실시예에 한정되지 않는다는 사실을 인지한다. 한편, 다양한 변경 및 수정이 첨부된 청구항의 범위 내에서 가능하다. 이러한 변경 및 수정은 청구되는 발명을 실시하는 통상의 기술자에 의해, 도면, 설명, 첨부된 청구항의 연구를 통해 이해되고 영향 받을 수 있다.
Claims (17)
- 제2 카메라의 시야에 객체가 나타나기 전에 상기 제2 카메라로 하여금 하나 이상의 작업을 수행하도록 트리거링(triggering)하는 방법으로서, 상기 제2 카메라는 상기 제2 카메라 및 적어도 제1 장치를 포함하는 카메라 시스템에 배치되고, 상기 제2 카메라의 위치 및 상기 시야가 알려져 있으며, 상기 제1 장치의 위치가 알려져 있는 상태에서,
상기 제2 카메라의 상기 시야에 상기 객체가 접근하고 있음을 나타내는 정보를 상기 제2 카메라에서 수신하되, 상기 수신된 정보는 상기 객체의 위치 및 움직임의 방향을 나타내는 상기 제1 장치로부터의 정보에 기반하는 단계; 및
상기 수신된 정보에 응답하여, 상기 제2 카메라의 상기 시야에 상기 객체가 나타나기 전에 상기 제2 카메라로 하여금 (i) 인트라 프레임(intra frame)을 생성하거나 인트라 리프레시(intra refresh) 과정을 시작하는 작업, 및 (ii) 하나 이상의 이미지 처리 파라미터를 조정하는 작업 중 하나 이상을 수행하도록 트리거링하는 단계;
를 포함하는, 방법. - 제1항에 있어서,
상기 수신된 정보는, 상기 제2 카메라의 상기 시야에 상기 객체가 나타날 것으로 예측되는 시간을 더 나타내는, 방법. - 제1항에 있어서,
상기 수신된 정보는, 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 서브 영역(subarea)을 더 나타내는, 방법. - 제3항에 있어서,
상기 인트라 프레임을 생성하거나 상기 인트라 리프레시 과정을 시작하는 작업은, 먼저 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되지 않는 상기 제2 카메라의 이미지 프레임의 서브 영역을 인트라 리프레시하고, 그 후 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되는 상기 제2 카메라의 상기 이미지 프레임의 서브 영역을 인트라 리프레시하는 것을 포함하는, 방법. - 제3항에 있어서,
상기 하나 이상의 이미지 처리 파라미터를 조정하는 작업은, 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되는 상기 제2 카메라의 이미지 프레임의 서브 영역 내에서 국부적으로 수행되는, 방법. - 제3항에 있어서,
상기 하나 이상의 이미지 처리 파라미터를 조정하는 작업은, 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되는 상기 제2 카메라의 이미지 프레임의 서브 영역 내의 저조도 잡음 필터링의 감소를 포함하는, 방법. - 제1항에 있어서,
상기 하나 이상의 이미지 처리 파라미터를 조정하는 작업은,
파라미터 최적화를 위한 시작 값으로서 상기 하나 이상의 이미지 처리 파라미터를 각각의 중간 값으로 설정하는 것;
배경 분할(background segmentation)을 위한 임계값을 감소시키는 것; 및
배경과 전경 사이의 분리를 제거하고, 이미지 프레임의 어느 부분이 상기 배경에 포함되는지 식별하고 상기 제2 카메라의 상기 시야에 상기 객체가 나타났을 때 상기 이미지 프레임의 어느 부분이 상기 배경에 포함되는지 식별하는 것;
중 하나 이상을 포함하는, 방법. - 제1항에 있어서,
상기 수신된 정보는, 상기 객체의 속도를 더 나타내는, 방법. - 제8항에 있어서,
상기 하나 이상의 이미지 처리 파라미터를 조정하는 작업은, 상기 객체의 상기 속도에 기반하여 시간적 잡음(temporal noise) 필터 레벨을 설정하여, 상기 속도가 높을수록 상기 시간적 잡음 필터 레벨이 높아지도록 하는 것을 포함하는, 방법. - 제1항에 있어서,
상기 수신된 정보에 응답하여, 상기 제2 카메라의 상기 시야에 상기 객체가 나타나기 전에 상기 제2 카메라로 하여금 (iii) 노출 시간을 조정하는 작업을 더 수행하도록 트리거링하는 단계;
를 더 포함하는, 방법. - 제10항에 있어서,
상기 수신된 정보는, 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 서브 영역을 더 나타내고, 상기 노출 시간을 조정하는 작업은, 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되지 않는 상기 제2 카메라의 이미지 프레임의 서브 영역보다 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되는 상기 제2 카메라의 이미지 프레임의 서브 영역의 노출 시간을 짧게 설정하는 것을 포함하는, 방법. - 제9항에 있어서,
상기 수신된 정보는, 상기 객체의 속도를 더 나타내고, 상기 노출 시간을 조정하는 작업은, 상기 객체의 상기 속도에 기반하여 상기 속도가 높을수록 상기 노출 시간이 짧아지도록 하는, 방법. - 제1항에 있어서,
상기 제1 장치는,
제1 카메라;
레이더;
라이다(lidar);
중 하나인, 방법. - 제1항에 있어서,
상기 제1 장치는 제1 카메라이고, 상기 수신된 정보는, 상기 제1 카메라의 컬러 밸런스 보정 또는 화이트 밸런스 보정을 포함하고, 상기 하나 이상의 이미지 처리 파라미터를 조정하는 작업은 상기 수신된 정보에 따라 컬러 밸런스 보정 또는 화이트 밸런스 보정을 설정하는, 방법. - 적어도 수신기, 프로세서, 및 인코더를 갖는 카메라에서 실행될 때 제1항에서 제14항 중 어느 한 항에 따른 방법을 구현하기 위한 명령을 저장하는 비일시적 컴퓨터-판독가능 저장 매체.
- 카메라의 시야에 객체가 나타나기 전에 하나 이상의 작업을 수행하는 카메라에 있어서,
상기 카메라가 상기 카메라 및 적어도 다른 장치를 포함하는 카메라 시스템에 배치되고 상기 카메라의 위치 및 상기 시야가 알려져 있고 상기 다른 장치의 위치가 알려져 있을 때, 상기 카메라의 상기 시야에 상기 객체가 접근하고 있음을 나타내는 정보를 수신하도록 구성되되, 상기 수신된 정보는 상기 객체의 움직임의 방향 및 위치를 나타내는 상기 다른 장치로부터의 정보에 기반하는, 수신기;
인코더; 및
상기 수신된 정보에 응답하여, 상기 제2 카메라의 상기 시야에 상기 객체가 나타나기 전에 상기 카메라로 하여금 (i) 인트라 프레임(intra frame)을 생성하거나 인트라 리프레시(intra refresh) 과정을 시작하는 작업, 및 (ii) 하나 이상의 이미지 처리 파라미터를 조정하는 작업 중 하나 이상을 수행하도록 트리거링하는 트리거링 기능을 실행하도록 구성된 회로;
를 포함하는 카메라. - 제2 카메라의 시야에 객체가 나타나기 전에 상기 제2 카메라로 하여금 하나 이상의 작업을 수행하도록 트리거링하는 방법으로서, 상기 제2 카메라는 상기 제2 카메라 및 적어도 제1 장치를 포함하는 카메라 시스템에 배치되고, 상기 제2 카메라의 위치 및 상기 시야가 알려져 있으며, 상기 제1 장치의 위치가 알려져 있는 상태에서,
상기 제2 카메라의 상기 시야에 상기 객체가 접근하고 있음을 나타내는 정보를 상기 제2 카메라에서 수신하되, 상기 수신된 정보는 상기 객체의 위치 및 움직임의 방향을 나타내는 상기 제1 장치로부터의 정보에 기반하고, 상기 수신된 정보는 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 서브 영역을 더 나타내는 단계; 및
상기 수신된 정보에 응답하여, 상기 제2 카메라의 상기 시야에 상기 객체가 나타나기 전에 상기 제2 카메라로 하여금 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되지 않는 상기 제2 카메라의 이미지 프레임의 서브 영역보다 상기 객체가 처음 나타날 것으로 예측되는 상기 제2 카메라의 상기 시야의 상기 서브 영역에 대응되는 상기 제2 카메라의 이미지 프레임의 서브 영역의 노출 시간을 짧게 설정하는 것을 포함하는, 노출 시간을 조정하는 작업을 수행하도록 트리거링하는 단계;
를 포함하는, 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22199361.1 | 2022-10-03 | ||
EP22199361.1A EP4350654A1 (en) | 2022-10-03 | 2022-10-03 | Camera information handover |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240046852A true KR20240046852A (ko) | 2024-04-11 |
Family
ID=83558106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230130210A KR20240046852A (ko) | 2022-10-03 | 2023-09-27 | 카메라 정보 핸드오버 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240114115A1 (ko) |
EP (2) | EP4350654A1 (ko) |
JP (1) | JP2024053543A (ko) |
KR (1) | KR20240046852A (ko) |
CN (1) | CN117835048A (ko) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6359647B1 (en) * | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
US8180107B2 (en) * | 2009-02-13 | 2012-05-15 | Sri International | Active coordinated tracking for multi-camera systems |
US9495763B1 (en) * | 2015-09-28 | 2016-11-15 | International Business Machines Corporation | Discovering object pathways in a camera network |
US11102453B2 (en) * | 2018-02-19 | 2021-08-24 | Cisco Technology, Inc. | Analytics based lighting for network cameras |
KR20210065520A (ko) * | 2019-11-27 | 2021-06-04 | 한국과학기술원 | 에지 컴퓨팅 환경에서 복수의 카메라를 이용한 객체 추적 시스템 |
CN116134829A (zh) * | 2020-12-31 | 2023-05-16 | 华为技术有限公司 | 一种图像处理方法以及装置 |
-
2022
- 2022-10-03 EP EP22199361.1A patent/EP4350654A1/en active Pending
- 2022-10-03 EP EP24194756.3A patent/EP4439510A2/en active Pending
-
2023
- 2023-09-11 US US18/464,313 patent/US20240114115A1/en active Pending
- 2023-09-27 KR KR1020230130210A patent/KR20240046852A/ko unknown
- 2023-09-28 JP JP2023166624A patent/JP2024053543A/ja active Pending
- 2023-10-07 CN CN202311283879.0A patent/CN117835048A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117835048A (zh) | 2024-04-05 |
JP2024053543A (ja) | 2024-04-15 |
EP4350654A1 (en) | 2024-04-10 |
US20240114115A1 (en) | 2024-04-04 |
EP4439510A2 (en) | 2024-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11102508B2 (en) | Method and image processing unit for forming a video stream | |
KR102132248B1 (ko) | 촬상 장치를 제어하는 제어 장치, 제어 방법, 및 컴퓨터 판독가능 기억 매체 | |
US10863185B2 (en) | Systems and methods for hybrid video encoding | |
KR102708718B1 (ko) | 이미지 내의 동작 정보에 기초한 동적 이미지 캡처 방법 및 장치 | |
CN107111764B (zh) | 由对象在成像装置的视野中的深度触发的事件 | |
US20210358088A1 (en) | Video compression stream | |
KR20190122807A (ko) | 비디오 콘텐츠에서의 광학적 흐름 및 센서 입력 기반의 배경 감산 | |
JP2005173787A (ja) | 移動物体の検出・認識を行う画像処理装置 | |
CN105554414B (zh) | 强光抑制方法及装置 | |
CN115760912A (zh) | 运动目标跟踪方法、装置、设备及计算机可读存储介质 | |
US9992403B2 (en) | Method and system for autofocus, corresponding device and computer program product | |
KR20240046852A (ko) | 카메라 정보 핸드오버 | |
CN111192286A (zh) | 一种图像合成方法、电子设备及存储介质 | |
JP5118590B2 (ja) | 被写体追尾方法及び撮像装置 | |
TW202431858A (zh) | 相機資訊交遞 | |
CN117440236A (zh) | 一种控制方法、isp、电子设备及计算机存储介质 | |
US10477221B2 (en) | Image processing apparatus for controlling image quality of a specific region in an image while minimizing delay of the encoding process | |
CN111314611A (zh) | 一种多个运动对象的拍摄方法及装置 | |
US20220398749A1 (en) | Method and electronic device for tracking regions of interest in image frames | |
JP2006172064A (ja) | 物体追跡装置、および方法 | |
US20240046426A1 (en) | Noise removal for surveillance camera image by means of ai-based object recognition | |
KR20240147474A (ko) | 비디오 스트림에서 검출된 객체의 마스킹 | |
JP2024150067A (ja) | 車両周辺監視装置、車両周辺監視装置の制御方法及びプログラム | |
KR20240134722A (ko) | 비디오에서 검출된 객체의 콜라주의 전송 | |
JP2012227780A (ja) | 物体検知装置、物体検知方法及びプログラム |