KR102085520B1 - 개선된 모니터링 카메라 방향 제어 - Google Patents

개선된 모니터링 카메라 방향 제어 Download PDF

Info

Publication number
KR102085520B1
KR102085520B1 KR1020170115022A KR20170115022A KR102085520B1 KR 102085520 B1 KR102085520 B1 KR 102085520B1 KR 1020170115022 A KR1020170115022 A KR 1020170115022A KR 20170115022 A KR20170115022 A KR 20170115022A KR 102085520 B1 KR102085520 B1 KR 102085520B1
Authority
KR
South Korea
Prior art keywords
motion
representative
scene
map
camera
Prior art date
Application number
KR1020170115022A
Other languages
English (en)
Other versions
KR20180029898A (ko
Inventor
스테판 런드버그
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20180029898A publication Critical patent/KR20180029898A/ko
Application granted granted Critical
Publication of KR102085520B1 publication Critical patent/KR102085520B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N5/23203
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • H04N5/2259
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

모니터링된 장면에서 물체들이 통상적으로 어떻게 움직이는지를 "학습한(learned)" 카메라 제어 유닛은 장면에서 물체들의 대표적인 움직임에 따라 모니터링 카메라를 움직여서 조작자에게 도움을 제공한다. 대표적인 움직임은 물체 모션 분석을 이용한 학습 절차에서 도출될 수 있다.

Description

개선된 모니터링 카메라 방향 제어{IMPROVED MONITORING CAMERA DIRECTION CONTROL}
본 발명은 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 제어하는 것에 관한 것이다.
카메라 제어 유닛과 상호 작용하는 조작자의 제어하에 있는 하나 이상의 모니터링 카메라들을 포함하는 감시 또는 모니터링 시스템에서, 조작자가 (예를 들어, 디스플레이 장치 상에서) 모니터링된 장면에서 관심있는 움직이는 물체를 식별하고 따를 수 있는 것이 대부분의 시나리오들에서 매우 중요하다. 통상적으로, 모니터링 시스템의 카메라는 틸트 축 주위를 회전하고 팬 축 주위를 회전할 수 있도록 구성되고 또한 카메라에 부착된 렌즈를 줌 하도록 구성된다. 이러한 카메라의 자주 사용되는 약어는 PTZ이며, "P"는 팬을 나타내고, "T"는 틸트를 나타내며 "Z"는 줌을 나타낸다. 소형 전자 모터들은 통상적으로 팬, 틸트 및 줌에서 필요한 회전/움직임을 제공하는데 사용되며, 조작자는 통상적으로, 팬, 틸트 및 줌 모터들을 제어하는 조정 신호들을 제공하기 위해 컴퓨터 마우스 또는 조이스틱과 같은 적절한 사용자 입력 장치를 조작한다.
그러한 PTZ 구성 카메라들의 조작자들에게는 장면에서의 물체들이 비-최적 방향으로 움직이고 있는 경우 PTZ 카메라로 장면에서 움직이는 물체들을 수동으로 따르고/추적하는 것이 어렵다는 것을 쉽게 예상할 수 있다. 비-최적 방향은 예를 들면 팬 및 틸트 양자 모두에서의 동시 회전과 같이 하나보다 많은 카메라 모터를 움직여야 하는 방향이다. 이것은 입력 장치가 마우스인지 또는 조이스틱인지에 무관하다. 물체가 디스플레이 상의 현재 시야의 대부분을 커버할 정도로 카메라가 줌 되어야(예를 들면, 충분히 줌 되어야) 하는 경우에 조작자에게는 훨씬 더 어려울 것이다. 말할 필요도 없이, 차량들과 같이 빠르게 움직이는 물체들은 때로는 따르기가 극히 어렵다.
종래 기술은 회전 테이블을 구비한 카메라 장치를 기술하는 국제 특허 출원 공개 WO 2010/064445 A1을 포함한다. 검출된 물체의 위치 및 속도는 조작자가 물체를 추적하는 것을 돕는 회전 테이블의 검출된 수동 조작 속도와 조합하여 사용된다.
상기의 관점에서, 본 개시내용의 목적은 종래 기술의 PTZ 카메라들과 관련된 결점들의 적어도 일부를 극복하거나 적어도 완화시키는 것이다.
이것은 제 1 양태에서 카메라 제어 유닛에 의해 수행되는 방법에 의해 달성된다. 카메라 제어 유닛은 현재의 팬 및 틸트(PT) 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 조정하도록 구성된다. 상기 방법은 조정 신호가 모니터링 방향의 적어도 원하는 조정을 나타내는 사용자 입력 장치로부터 발생하는 조정 신호를 검출하는 단계를 포함한다. 장면에서의 물체들의 움직임을 대표하는 대표 움직임 벡터가 획득되고, 대표 움직임 벡터에 기초하고 모니터링 방향의 적어도 원하는 조정에 기초하여, 보정된 조정 신호의 계산이 이루어진다. 보정된 조정 신호는 그 후에 카메라의 적어도 팬 및 틸트를 조정하는 데 사용된다.
다시 말해서, 본 개시내용은 장면에서 물체들이 통상적으로 어떻게 움직이는지를 "학습한(learned)" 카메라 제어 유닛에 의해 대표 움직임에 따라 카메라를 움직여서 조작자에게 도움을 제공하는 방법을 제공한다. 다음에 더 설명되는 바와 같이, 대표 움직임은 물체 모션 분석에서 도출될 수 있다.
일부 실시예들에서, 대표 움직임 벡터의 획득은 제 1 움직임 맵에서, 모니터링 방향에 대응하는 맵 위치를 식별하는 단계를 포함할 수 있다. 대표 움직임 벡터는 제 1 움직임 맵의 식별된 맵 위치로부터 판독될 수 있다.
예를 들어, 이러한 실시예들 중 일부에서, 모니터링 방향의 원하는 조정을 사용하여, 복수의 후보 움직임 맵들로부터 제 1 움직임 맵을 선택하는 단계를 포함할 수 있다. 각각의 이러한 후보 움직임 맵은 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함할 수 있으며, 여기서 전형적인 움직임 방향은 모니터링 방향의 원하는 조정에 대응한다.
이들 후보 움직임 맵들은 장면의 복수의 이미지들을 획득하고 장면에서 복수의 움직이는 물체들을 식별함으로써 생성될 수 있다. 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 대표 움직임 벡터들이 결정될 수 있다. 그런 다음 대표 움직임 벡터들은 그룹들로 분류될 수 있으며, 각각의 그룹은 전형적인 움직임 방향에 의해 규정된다. 움직임 벡터들은 각각의 후보 움직임 맵에 저장될 수 있으며, 각각의 후보 움직임 맵은 상기 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함한다.
대안적으로, 일부 실시예들에서, 제 1 움직임 맵은 장면의 복수의 이미지들을 획득함으로써 생성될 수 있으며, 장면에서 복수의 움직이는 물체들이 식별된다. 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 대표 움직임 벡터들이 결정되어 제 1 움직임 맵에 저장될 수 있다.
일부 실시예들에서, 조정 신호는 모니터링 방향의 원하는 조정을 나타내는 것 외에도, 카메라의 줌의 원하는 조정을 나타낼 수 있다. 이러한 실시예들에서, 상기 방법은 모니터링 방향으로 장면에서 이동하는 물체들의 크기를 대표하는 대표 크기 값을 획득하는 단계를 더 포함한다. 보정된 조정 신호의 계산은 또한 그 후에 대표 크기 값에 기초할 수 있고, 조정은 보정된 조정 신호에 기초하여 카메라의 팬, 틸트 및 줌을 조정하는 단계를 포함할 수 있다.
일부 실시예들에서, 대표 크기 값은 제 1 움직임 맵의 식별된 맵 위치로부터 판독될 수 있다. 이러한 실시예들에서, 장면의 각각의 부분들에 대한 물체들의 대표 크기들은 식별된 움직이는 물체들에 기초하여 결정될 수 있고, 대표 크기들은 제 1 움직임 맵에 저장될 수 있다.
대안적으로, 일부 실시예들에서, 장면의 각각의 부분들에 대한 물체들의 대표 크기들은 식별된 움직이는 물체들에 기초하여 결정될 수 있고, 이후 대표 크기들은 후보 움직임 맵들에 저장될 수 있다.
이들 실시예들은 카메라 제어 유닛이 장면이 어떻게 보이는지를 학습하고 장면 위의 격자에서 가장 가능성 있는 모션 방향들을 계산할 수 있음을 예시한다. 그런 다음, 조작자가 전형적인 방향과 매우 유사한 방향으로 카메라를 조정하면, 카메라 제어 유닛은 조작자에 의해 이루어진 조정에 따라 곧게 움직이는 대신에 전형적인 움직임을 따르기 위해 움직임들을 약간 조정할 것이다.
일부 실시예들이 설명하는 바와 같이, 카메라를 가장 넓은 위치에 배치시키고, 즉 장면 전체의 뷰를 가능하게 하고, 예를 들어 적절한 모션 검출 절차로 자동 물체 추적을 수행함으로써 학습이 행해질 수 있다. 또한 장면의 부분들을 분석하고 나중에 모든 움직임 정보를 병합함으로써 학습이 행해질 수도 있다. 장면의 각 부분에 대하여, 장면 및 방향에서 지나가는 각각의 물체에 대해 추적이 행해지며, 또한 일부 실시예들에서 사용하기 위해 크기가 결정되고 저장될 수 있다. 충분한 물체가 장면의 각 부분을 지나가면 전형적인 방향들 및 크기 변경들의 격자가 계산된다. 그런 다음 격자는 조작자가 카메라를 재배치할 때 팬/틸트 및 줌을 조정하는데 사용될 수 있다.
제 2 양태에서, 현재의 팬 및 틸트 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 조정하도록 구성되는 카메라 제어 유닛이 제공된다. 카메라 제어 유닛은 처리기, 메모리 및 입/출력 회로를 포함한다. 메모리는 처리기에 의해 실행 가능한 명령들을 포함하고 이에 의해 카메라 제어 유닛이:
- 사용자 입력 장치로부터 발생하는 조정 신호를 검출하는 것으로서, 상기 조정 신호는 모니터링 방향의 적어도 원하는 조정을 나타내는, 상기 조정신호를 검출하고,
- 장면에서 물체들의 움직임을 대표하는 대표 움직임 벡터(v)를 획득하고,
- 대표 움직임 벡터에 기초하고 모니터링 방향의 적어도 원하는 조정에 기초하여, 보정된 조정 신호를 계산하고,
- 보정된 조정 신호를 사용하여, 카메라의 적어도 팬 및 틸트를 조정하도록 동작한다.
다른 양태에서, 카메라 제어 유닛의 적어도 하나의 처리기 상에서 실행될 때, 카메라 제어 유닛이 제 1 양태와 관련하여 상기에 요약된 방법 및 이 양태의 다양한 실시예들을 실행하게 하는 명령들을 포함하는 컴퓨터 프로그램이 제공된다.
다른 양태에서, 상기에 요약된 양태에 따른 컴퓨터 프로그램을 포함하는 캐리어가 제공되며, 캐리어는 전자 신호, 광학 신호, 무선 신호 및 컴퓨터 판독 가능 저장 매체 중 하나이다.
이들 다른 양태들은 제 1 양태의 방법과 관련하여 상기에 요약된 것과 동일한 효과들 및 이점들을 제공한다.
도 1a는 카메라 제어 유닛을 개략적으로 도시한 도면.
도 1b는 카메라 및 장면을 개략적으로 도시한 도면.
도 1c 및 도 1d는 카메라를 개략적으로 도시한 도면들.
도 2는 장면을 개략적으로 도시한 도면.
도 3a 및 도 3b는 방법들의 실시예들의 흐름도들.
도 4는 방법의 흐름도.
도 5는 움직임 맵을 개략적으로 도시한 도면.
도 6은 카메라 제어 유닛을 개략적으로 도시한 도면.
도 1a 및 도 1b가 예시하는 바와 같이, 카메라 제어 유닛(100)은 현재의 팬 및 틸트, PT, 위치로부터, 모니터링 방향(111)으로 장면(112)을 모니터링하고 있는 카메라(101)의 적어도 팬 및 틸트를 조정하도록 구성된다. 카메라 제어 유닛(100)은 처리기(102), 메모리(104) 및 입/출력 회로(106)를 포함한다. 메모리(104)는 처리기(102)에 의해 실행 가능한 명령들을 포함하며, 이에 따라 카메라 제어 유닛(100)은 도 2 내지 도 5와 관련하여 하기에 설명될 방법의 실시예들을 수행하도록 동작한다.
통상적으로 조작자/사용자에 의해 조작되는 컴퓨터(122)의 일부를 형성하는 입력 장치(120) 및 디스플레이(121)는 컴퓨터(122)를 통해 카메라 제어 유닛(100)에 연결된다. 컴퓨터(122)는 통상적으로 클라우드(130)에 의해 개략적으로 도시된 잘-알려진 통신 네트워크들(무선 및/또는 유선)에 의해 접속된다. 예를 들어, 입력 장치(120)는 키패드, 컴퓨터 마우스, 트랙볼, 터치 패드, 조이스틱 등일 수 있다. 입력 장치(120)를 포함하는 컴퓨터(122)의 구성은, 예를 들어 카메라 제어 유닛(100)에 연결된 카메라(101)의 원하는 조정을 나타내는 조정 신호(110)를 제공할 수 있도록 구성된다. 컴퓨터(122)는 입/출력 회로(106)를 통해 카메라 제어 유닛(100)의 처리기(102)에 연결되고, 당업자에게 알려진 바와 같이, 입/출력 회로(106)는 하기에 상세히 설명되는 바와 같이 처리기(102)에 의해 다루어질 수 있도록 조정 신호(110)의 임의의 필요한 처리를 수행할 수 있다.
하기에 예시될 바와 같이, 카메라 제어 유닛(100)은 보정된 조정 신호(116)에 의해 카메라(101)의 적어도 팬 및 틸트를 조정하고, 일부 실시예들에서는 줌도 또한 조정할 것이다. 보정된 조정 신호(116)는 입/출력 회로(106)와 협력하여 처리기(102)에 의해 생성되고 보정된 조정 신호(116)는 클라우드(131)에 의해 개략적으로 도시된 잘-알려진 통신 네트워크들(무선(30) 및/또는 유선)을 통해 카메라(101)에 제공된다.
당업자가 알 수 있는 바와 같이, 카메라(101)는 보정된 조정 신호(116)에 반응하는 각각의 팬(P), 틸트(T) 및 줌(Z) 액추에이터들에 의해 패닝, 틸트 및 줌 될 수 있다. 보정된 조정 신호(116)를 이러한 액추에이터들이 필요로 하는 신호들/전압들/전류들로 변환하는데 필요한 임의의 회로는 본 기술 분야에 잘 알려져 있으므로 명료성을 위해 도면에서 생략된다. 예를 들어, 스테퍼 모터들(stepper motors) 또는 직접 구동 모터들에 기초한 액추에이터들을 사용하여, 보정된 조정 신호(116)가 예를 들어 통상적으로 액추에이터들에 의해 증폭된 후에 인식 가능한 펄스 폭 변조(PWM) 신호로 변환될 수 있다.
통상적으로, 팬 및 틸트 액추에이터들은 함께 배열되고 줌 액추에이터들은 통상적으로 카메라(101)에 부착된 렌즈 시스템(140)에 배열된다. 도 1b는 PTZ 액추에이터(150)가 카메라(101)에 배열되는 제 1 예를 도시한다. 도 1c에서, PT 액추에이터(152)는 카메라(101)의 외부에 배열되고, 예를 들면 플랫폼의 형태로 배열되고, Z 액추에이터(154)는 카메라 내부에 배열된다. 보정된 조정 신호(116)는 카메라(101) 외부의 PT 액추에이터(152) 및 Z 액추에이터(154)가 배열된 카메라(101)에 제공된다.
또 다른 예가 도 1d에 도시되며, 여기서 제어 유닛(100)은 PTZ 액추에이터들(150)과 함께 카메라(101) 내부에 배열된다. 이러한 예들에서, 조정 신호(110)는 카메라(101) 내부의 카메라 제어 유닛(100)에 제공된다.
도 1a 내지 도 1d를 계속 참조하여 이제 도 2, 도 3a 및 도 3b, 도 4 및 도 5를 참조하면, 카메라 제어 유닛(100)에 의해 수행되는 방법의 실시예들이 다수의 동작들(actions)을 참조하여 설명될 것이다. 상술한 바와 같이, 카메라 제어 유닛(100)은 현재 PT, 위치로부터 모니터링 방향(111)으로 장면(112)을 모니터링하고 있는 카메라(101)의 적어도 팬 및 틸트를 조정하도록 구성된다.
동작(301)
사용자 입력 장치(120)로부터 발생하는 조정 신호(110)가 검출된다. 조정 신호(110)는 모니터링 방향(111)의 적어도 원하는 조정을 나타낸다.
일부 실시예들에서, 조정 신호(110)는 모니터링 방향(111)의 원하는 조정을 나타내는 것 외에도, 카메라(101)의 줌(Z)의 원하는 조정을 나타낼 수 있다.
당업자가 알 수 있는 바와 같이, 모니터링 방향의 조정은 구면 좌표계에서 초 당 도와 같이 시간 단위 당 각도 단위로 표현될 수 있다. 줌의 조정은 스케일링 팩터로 표현될 수 있으며, 예를 들면 일정 간격 내의 정수 값으로 표현될 수 있다.
동작(303)
대표 움직임 벡터(v)가 획득된다. 대표 움직임 벡터는 장면(112)에서 물체들(133, 134)의 움직임을 대표한다. 당업자가 알 수 있는 바와 같이, 움직임 벡터는 구면 좌표계에서 시간 단위 당 각도 단위를 사용하여 표현될 수 있다.
대표 움직임 벡터의 획득은 일부 실시예들에서 동작(351)에 의해 예시된 바와 같이, 모니터링 방향(111)에 대응하는 맵 위치(502)를 제 1 움직임 맵(500)에서 식별하는 단계를 포함할 수 있다. 그 후에 동작(353)에 의해 도시된 바와 같이, 대표 움직임 벡터(v)는 제 1 움직임 맵(500)에서 식별된 맵 위치(502)로부터 판독될 수 있다. 도 5에 예시된 바와 같이, 움직임 벡터 "11, 12, 42"는 (x, y) 좌표(123, 654)를 갖는 맵 위치에 대응한다.
모니터링 방향(111)에 대응하는 맵 위치(502)의 식별은 예를 들어 카메라가 자동 노출 제어와 같은 절차를 수행하는 방법과 유사한 방식으로 수행될 수 있는데, 여기서 중심점 주위의 미리 결정된 또는 사용자 선택된 영역, 예를 들면, "스폿(spot)", "중심 평균(center average)", "가중 평균(weighted average)" 등이 고려된다. 즉, 대표 움직임 벡터는 실제로 움직임 맵(500)으로부터의 하나의 단일 판독에 기초하여 계산된 값들 뿐만 아니라 모니터링 방향(111)에 대응하는 움직임 벡터들의 가중값들 및 모니터링 방향(111)에 대응하는 움직임 맵 내의 방향들 주변의 값들을 사용하여 계산된 값들일 수 있다.
일부 실시예들에서, 동작(350)에 의해 도시된 바와 같이, 제 1 움직임 맵(500)은 복수의 후보 움직임 맵들(510)로부터 모니터링 방향의 원하는 조정을 사용하여 선택될 수 있다. 각각의 이러한 후보 움직임 맵(510)은 모니터링 방향의 원하는 조정에 대응하는 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함할 수 있다. 예를 들어, 모니터링 방향(111)의 장면(112)이 4-방향 도로 교차로인 시나리오에서, 제 1 후보 움직임 맵(510)은 업/다운 방향에 있는 대표 움직임 벡터들을 포함할 수 있고 제 2 후보 움직임 맵(510)은 좌/우 방향에 있는 대표 움직임 벡터들을 포함할 수 있다. 예를 들면 교차로에서 90도 회전하는 차량을 따르기를 원하는 조작자의 결과로서, 모니터링 방향(111)의 연속적인 원하는 조정들은, 동작(350)에서의 선택이 제 1 후보 움직임 맵에서 제 2 후보 움직임 맵으로 전환하는 것을 수반하는 것을 초래할 수 있다.
조정 신호(110)가 또한 줌을 나타내는 실시예들에서, 대표 크기 값(D)이 획득될 수 있다. 이러한 대표 크기 값은 모니터링 방향(111)으로 장면(112)에서 움직이는 물체들의 크기를 대표한다. 예를 들어, 대표 크기 값(D)은 일부 실시예들에서, 제 1 움직임 맵(500)에서 식별된 맵 위치로부터 판독될 수 있다. 크기 값(D)이 줌 값과 비교될 수 있도록 하기 위해, 획득된 크기 값(D)은 사용중인 렌즈 시스템의 임의의 특성들을 고려한 적절한 변환 알고리즘을 사용하여 일정 간격의 정수 값으로 변환되어야 할 수 있다.
동작(305)
보정된 조정 신호(116)는 대표 움직임 벡터에 기초하고 모니터링 방향의 적어도 원하는 조정에 기초하여 계산된다.
조정 신호(110)가 또한 줌을 나타내는 실시예들에서, 보정된 조정 신호(116)의 계산은 또한 대표 크기 값(D)에 기초한다.
동작(307)
보정된 조정 신호(116)를 사용하여, 카메라의 적어도 팬 및 틸트가 이후에 조정된다.
조정 신호(110)가 또한 줌을 나타내는 실시예들에서, 조정은 카메라의 팬, 틸트 및 줌을 조정하는 단계를 포함한다.
동작(305) 및 동작(307) 각각에서 보정된 조정 신호(116)의 계산 및 사용은 조정 신호(110)가 대표 움직임 벡터에 가까운(구성 가능한 "델타(delta)" 값 내에서) 모니터링 방향의 조정에 대한 값을 나타내는 경우에만 수행되도록 일부 실시예들에서 조절될 수 있다. 그렇지 않으면, 검출된 조정 신호(110)는 보정없이 사용되어 카메라(101)의 적어도 팬 및 틸트를 조정한다.
도 4를 구체적으로 참조하면, 대표 움직임 벡터(v)가 제 1 움직임 맵(500)으로부터 판독되는 실시예들은 하나 이상의 움직임 맵들이 카메라 제어 유닛(100)에 의해 학습되는 학습 절차로서 보일 수 있는 다음 동작들을 포함하는 실시예들을 포함한다:
동작(401)
장면(112)의 복수의 이미지들이 획득된다.
동작(403)
복수의 움직이는 물체들이 장면(112)에서 식별된다.
동작(405)
식별된 움직이는 물체들(133, 134)에 기초하여, 장면(112)의 각각의 부분들(136, 137)에 대한 대표 움직임 벡터들이 결정된다.
일부 실시예들에서, 장면의 각각의 부분들에 대한 물체들의 대표 크기들이 또한 식별된 움직이는 물체들에 기초하여 결정될 수 있다.
동작(406)
제 1 움직임 맵(500)이 복수의 후보 움직임 맵들(510)로부터 선택되는 실시예들에서, 대표 움직임 벡터들은 그룹들로 분류되고, 각 그룹은 전형적인 움직임 방향에 의해 규정된다.
동작(407)
움직임 벡터들은 제 1 움직임 맵(500)에 저장된다. 제 1 움직임 맵(500)이 복수의 후보 움직임 맵들(510)로부터 선택되는 실시예들에서, 동작(407)은 움직임 벡터들을 각각의 후보 움직임 맵(510)에 저장하는 단계를 수반하고, 각 후보 움직임 맵(510)은 상기 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함한다.
물체들의 대표 크기들이 또한 결정되는 실시예들에서, 이들 대표 크기들은 또한 제 1 움직임 맵(500) 또는 후보 움직임 맵들(510)에 저장된다.
상술한 실시예들에서, 포커싱 문제는 명시적으로 다루어지지 않았다. 그러나, 포커싱, 예를 들면 카메라 제어 유닛(100)에서 동작하는 자동-포커싱 절차도 또한 보정된 조정 신호(116)를 그것의 입력 중 하나로 사용할 수 있음을 유념해야 한다. 이 도움으로 포커싱이 더 빠를 수 있고 어려운 조건들 중에서는 소위 포커스 헌팅(focus hunting)이 회피될 수 있다.
또한, 상술한 실시예들 및 연관된 도면들에서, 팬, 틸트 및 줌의 개념들에 대한 참조는 예를 들어 액추에이터들 및 렌즈 시스템들의 공간적 움직임과 관련되는 것으로 가정된다. 그러나, 이러한 개념들은 카메라가 아무런 공간 회전 또는 줌 움직임 없이 동작하는 소위 360-카메라인 시나리오에 적용될 수 있음을 유념해야 한다. 이러한 카메라는 카메라 주위의 모든 방향, 즉 다소 반구면 범위로 이미지들을 포착한다. 이러한 시나리오들에서, 모니터링 방향 및 팬, 틸트 및 줌에 대한 값들은 가상 용어로 규정될 수 있으며, 결과적으로 본 명세서에 설명된 모든 실시예들은 360-카메라 시나리오에도 적용 가능하다.
도 1a를 다시 참조하면, 카메라 제어 유닛(100)이 좀 더 상세히 설명될 것이다. 카메라 제어 유닛(100)은 현재의 팬 및 틸트, PT, 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라(101)의 적어도 팬 및 틸트를 조정하도록 구성된다. 카메라 제어 유닛(100)은 처리기(102), 메모리(104) 및 입/출력 회로(106)를 포함한다. 메모리(104)는 처리기(102)에 의해 실행 가능한 명령들을 포함하고 이에 의해 카메라 제어 유닛(100)이:
- 사용자 입력 장치(120)로부터 발생하는 조정 신호(110)를 검출하고, 상기 조정 신호(110)는 모니터링 방향의 적어도 원하는 조정을 나타내고,
- 장면에서 물체들의 움직임을 대표하는 대표 움직임 벡터(v)를 획득하고,
- 대표 움직임 벡터에 기초하고 모니터링 방향의 적어도 원하는 조정에 기초하여, 보정된 조정 신호(116)를 계산하고,
- 보정된 조정 신호(116)를 사용하여, 카메라(101)의 적어도 팬 및 틸트를 조정하도록 동작한다.
처리기(102)에 의해 실행 가능한 명령들은 컴퓨터 프로그램(141) 형태의 소프트웨어일 수 있다. 컴퓨터 프로그램(141)은 캐리어(142) 내에 포함될 수 있거나 또는 캐리어(142)에 의해, 컴퓨터 프로그램(141)을 메모리(104) 및 처리기(102)에 제공할 수 있다. 캐리어(142)는 전자 신호, 광학 신호, 무선 신호 또는 컴퓨터 판독 가능 저장 매체를 포함하는 임의의 적합한 형태일 수 있다.
일부 실시예들에서, 카메라 제어 유닛(100)은 대표 움직임 벡터를 획득하는 단계가:
- 제 1 움직임 맵에서, 모니터링 방향에 대응하는 맵 위치를 식별하는 단계, 및
- 제 1 움직임 맵의 식별된 맵 위치로부터, 대표 움직임 벡터를 판독하는 단계를 포함하도록 동작한다.
일부 실시예들에서, 카메라 제어 유닛(100)은:
모니터링 방향의 원하는 조정을 사용하여 복수의 후보 움직임 맵들로부터 제 1 움직임 맵을 선택하도록 동작하고, 각각의 후보 움직임 맵은 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함하고, 상기 전형적인 움직임 방향은 모니터링 방향의 원하는 조정에 대응한다.
일부 실시예들에서, 카메라 제어 유닛(100)은 제 1 움직임 맵이:
- 장면의 복수의 이미지들을 획득하는 단계,
- 장면에서 복수의 움직이는 물체들을 식별하는 단계,
- 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 대표 움직임 벡터들을 결정하는 단계, 및
- 움직임 벡터들을 제 1 움직임 맵에 저장하는 단계에 의해 생성되도록 동작한다.
일부 실시예들에서, 카메라 제어 유닛(100)은 후보 움직임 맵들이:
- 장면의 복수의 이미지들을 획득하는 단계,
- 장면에서 복수의 움직이는 물체들을 식별하는 단계,
- 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 대표 움직임 벡터들을 결정하는 단계,
- 대표 움직임 벡터들을 그룹들로 분류하는 단계로서, 각 그룹은 전형적인 움직임 방향에 의해 규정되는, 상기 분류 단계, 및
- 움직임 벡터들을 각각의 후보 움직임 맵에 저장하는 단계로서, 각각의 후보 움직임 맵은 상기 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함하는, 상기 저장 단계에 의해 생성되도록 동작된다.
일부 실시예들에서, 카메라 제어 유닛(100)은:
- 조정 신호가 모니터링 방향의 원하는 조정을 나타내는 것 외에도, 카메라(101)의 줌(Z)의 원하는 조정을 나타내도록 동작하고,
- 모니터링 방향으로 장면에서 움직이는 물체들의 크기를 대표하는 대표 크기 값(D)을 획득하도록 동작하고,
- 보정된 조정 신호의 계산이 또한 대표 크기 값에 기초하고,
- 상기 조정이, 보정된 조정 신호에 기초하여, 카메라(101)의 팬, 틸트 및 줌을 조정하는 단계를 포함하도록 동작한다.
일부 실시예들에서, 카메라 제어 유닛(100)은:
- 제 1 움직임 맵의 식별된 맵 위치로부터, 대표 크기 값을 판독하도록 동작한다.
일부 실시예들에서, 카메라 제어 유닛(100)은:
- 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 물체들의 대표 크기들을 결정하고,
- 대표 크기들을 제 1 움직임 맵에 저장하도록 동작한다.
일부 실시예들에서, 카메라 제어 유닛(100)은:
- 식별된 움직이는 물체들에 기초하여, 장면의 각각의 부분들에 대한 물체들의 대표 크기들을 결정하고,
- 대표 크기들을 후보 움직임 맵들에 저장하도록 동작한다.
도 6은 현재의 팬 및 틸트, PT, 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 조정하도록 구성된 카메라 제어 유닛(600)을 개략적으로 도시한다. 카메라 제어 유닛(600)은:
- 사용자 입력 장치로부터 발생하는 조정 신호를 검출하도록 구성된 검출 모듈(601)로서, 상기 조정 신호는 모니터링 방향의 적어도 원하는 조정을 나타내는, 상기 검출 모듈(601),
- 장면에서 물체들의 움직임을 대표하는 대표 움직임 벡터(v)를 획득하도록 구성된 획득 모듈(603),
- 대표 움직임 벡터에 기초하고 모니터링 방향의 적어도 원하는 조정에 기초하여, 보정된 조정 신호(116)를 계산하도록 구성된 계산 모듈(605), 및
- 보정된 조정 신호(116)를 사용하여, 카메라(101)의 적어도 팬 및 틸트를 조정하도록 구성된 조정 모듈(607)을 포함한다.
카메라 제어 유닛(600)은 예를 들어 도 1a와 관련하여 상술한 카메라 제어 유닛(100)과 유사한 방식으로 수행하도록 구성된 추가 모듈들을 포함할 수 있다.

Claims (15)

  1. 카메라 제어기에 의해 수행되는 방법으로서, 상기 카메라 제어기는 현재의 팬(pan) 및 틸트(tilt) 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 조정하도록 구성되는, 상기 방법에 있어서,
    - 사용자 입력 장치로부터의 조정 신호를 검출하는 단계로서, 상기 조정 신호는 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 각도 조정을 나타내는, 상기 검출 단계,
    - 상기 장면에서 물체들의 움직임을 대표하는 대표 움직임 벡터(representative movement vector)를 획득하는 단계,
    - 상기 대표 움직임 벡터에 기초하고 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정에 기초하여, 보정된 조정 신호를 계산하는 단계, 및
    - 상기 보정된 조정 신호를 사용하여, 상기 카메라의 적어도 팬 및 틸트를 조정하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  2. 제 1 항에 있어서,
    상기 대표 움직임 벡터를 획득하는 단계는:
    - 제 1 움직임 맵에서, 상기 모니터링 방향에 대응하는 맵 위치를 식별하는 단계, 및
    - 상기 제 1 움직임 맵의 상기 식별된 맵 위치로부터, 상기 대표 움직임 벡터를 판독하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  3. 제 2 항에 있어서,
    - 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정을 사용하여, 복수의 후보 움직임 맵들로부터 상기 제 1 움직임 맵을 선택하는 단계를 포함하고, 각각의 후보 움직임 맵은 각각의 전형적인 움직임 방향(typical movement direction)을 따라 정렬되는 움직임 벡터들을 포함하고, 상기 전형적인 움직임 방향은 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정에 대응하는, 카메라 제어기에 의해 수행되는 방법.
  4. 제 2 항에 있어서,
    상기 제 1 움직임 맵은:
    - 상기 장면의 복수의 이미지들을 획득하는 단계,
    - 상기 장면에서 복수의 움직이는 물체들을 식별하는 단계,
    - 상기 식별된 움직이는 물체들에 기초하여, 상기 장면의 각각의 부분들에 대한 대표 움직임 벡터들을 결정하는 단계, 및
    - 상기 움직임 벡터들을 상기 제 1 움직임 맵에 저장하는 단계에 의해 생성되는, 카메라 제어기에 의해 수행되는 방법.
  5. 제 3 항에 있어서,
    상기 후보 움직임 맵들은:
    - 상기 장면의 복수의 이미지들을 획득하는 단계,
    - 상기 장면에서 복수의 움직이는 물체들을 식별하는 단계,
    - 상기 식별된 움직이는 물체들에 기초하여, 상기 장면의 각각의 부분들에 대한 대표 움직임 벡터들을 결정하는 단계,
    - 상기 대표 움직임 벡터들을 그룹들로 분류하는 단계로서, 각 그룹은 전형적인 움직임 방향에 의해 규정되는, 상기 분류 단계, 및
    - 상기 움직임 벡터들을 각각의 후보 움직임 맵에 저장하는 단계에 의해 생성되고, 각각의 후보 움직임 맵은 상기 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함하는, 카메라 제어기에 의해 수행되는 방법.
  6. 제 4 항에 있어서,
    - 상기 조정 신호는 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정을 나타내는 것 외에도, 상기 카메라의 줌의 원하는 조정을 나타내며, 상기 방법은:
    - 상기 모니터링 방향으로 상기 장면에서 상기 움직이는 물체들의 크기를 대표하는 대표 크기 값을 획득하는 단계를 더 포함하고,
    - 상기 보정된 조정 신호의 계산 단계는 또한 상기 대표 크기 값에 기초하며,
    - 상기 보정된 조정 신호를 사용하여, 상기 조정하는 단계는 상기 카메라의 팬, 틸트 및 줌을 조정하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  7. 제 6 항에 있어서,
    - 상기 제 1 움직임 맵의 상기 식별된 맵 위치로부터, 상기 대표 크기 값을 판독하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  8. 제 7 항에 있어서,
    - 상기 식별된 움직이는 물체들에 기초하여, 상기 장면의 상기 각각의 부분들에 대한 물체들의 대표 크기들을 결정하는 단계, 및
    - 상기 대표 크기들을 상기 제 1 움직임 맵에 저장하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  9. 제 5 항에 있어서,
    - 상기 식별된 움직이는 물체들에 기초하여, 상기 장면의 상기 각각의 부분들에 대한 물체들의 대표 크기들을 결정하는 단계, 및
    - 상기 대표 크기들을 상기 후보 움직임 맵들에 저장하는 단계를 포함하는, 카메라 제어기에 의해 수행되는 방법.
  10. 카메라 제어기로서, 현재의 팬 및 틸트 위치로부터, 모니터링 방향으로 장면을 모니터링하고 있는 카메라의 적어도 팬 및 틸트를 조정하도록 구성되고, 처리기, 메모리 및 입/출력 회로를 포함하고, 상기 메모리는 상기 처리기에 의해 실행 가능한 명령들을 포함하고, 상기 카메라 제어기를 제어하여:
    - 사용자 입력 장치로부터의 조정 신호를 검출하는 것으로서, 상기 조정 신호는 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 각도 조정을 나타내는, 상기 조정 신호를 검출하고,
    - 상기 장면에서 물체들의 움직임을 대표하는 대표 움직임 벡터를 획득하고,
    - 상기 대표 움직임 벡터에 기초하고 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정에 기초하여, 보정된 조정 신호를 계산하고,
    - 상기 보정된 조정 신호를 사용하여, 상기 카메라의 적어도 팬 및 틸트를 조정하도록 하는, 카메라 제어기.
  11. 제 10 항에 있어서,
    상기 대표 움직임 벡터의 상기 획득은:
    - 제 1 움직임 맵에서, 상기 모니터링 방향에 대응하는 맵 위치를 식별하는 것, 및
    - 상기 제 1 움직임 맵의 상기 식별된 맵 위치로부터, 상기 대표 움직임 벡터를 판독하는 것을 포함하는, 카메라 제어기.
  12. 제 11 항에 있어서,
    - 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정을 사용하여, 복수의 후보 움직임 맵들로부터 상기 제 1 움직임 맵을 선택하도록 더 구성되고, 각각의 후보 움직임 맵은 각각의 전형적인 움직임 방향을 따라 정렬되는 움직임 벡터들을 포함하고, 상기 전형적인 움직임 방향은 상기 사용자 입력 장치에 의해 수신된 상기 모니터링 방향의 상기 각도 조정에 대응하는, 카메라 제어기.
  13. 제 11 항에 있어서,
    상기 제 1 움직임 맵이:
    - 상기 장면의 복수의 이미지들을 획득하고,
    - 상기 장면에서 복수의 움직이는 물체들을 식별하고,
    - 상기 식별된 움직이는 물체들에 기초하여, 상기 장면의 각각의 부분들에 대한 대표 움직임 벡터들을 결정하고,
    - 상기 움직임 벡터들을 상기 제 1 움직임 맵에 저장하는 것에 의해 생성되는, 카메라 제어기.
  14. 카메라 제어기 내의 적어도 하나의 처리기 상에서 실행될 때, 상기 카메라 제어기가 제 1 항에 따른 방법을 실행하게 하는 컴퓨터-판독가능 명령들을 저장하는, 비-일시적 컴퓨터-판독가능 저장 매체.
  15. 삭제
KR1020170115022A 2016-09-12 2017-09-08 개선된 모니터링 카메라 방향 제어 KR102085520B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16188251.9A EP3293963A1 (en) 2016-09-12 2016-09-12 Improved monitoring camera direction control
EP16188251.9 2016-09-12

Publications (2)

Publication Number Publication Date
KR20180029898A KR20180029898A (ko) 2018-03-21
KR102085520B1 true KR102085520B1 (ko) 2020-03-06

Family

ID=56926037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170115022A KR102085520B1 (ko) 2016-09-12 2017-09-08 개선된 모니터링 카메라 방향 제어

Country Status (6)

Country Link
US (1) US10397485B2 (ko)
EP (1) EP3293963A1 (ko)
JP (1) JP6723208B2 (ko)
KR (1) KR102085520B1 (ko)
CN (1) CN107820002B (ko)
TW (1) TWI691208B (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108513070B (zh) * 2018-04-04 2020-09-04 维沃移动通信有限公司 一种图像处理方法、移动终端及计算机可读存储介质
KR102142651B1 (ko) * 2018-11-13 2020-08-07 전자부품연구원 Ptz 카메라 자동제어를 위한 강화학습 모델 생성 방법
KR20210058588A (ko) * 2019-11-14 2021-05-24 한국전자기술연구원 Ptz 카메라 제어 장치 및 그 방법
CN111010546A (zh) 2019-12-20 2020-04-14 浙江大华技术股份有限公司 监控预置点的调整方法、装置及存储介质
CN113572960B (zh) * 2021-07-23 2023-11-14 武汉星环恒宇信息科技有限公司 一种用于水务防控的视频快速标签定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050168574A1 (en) 2004-01-30 2005-08-04 Objectvideo, Inc. Video-based passback event detection
US20150042812A1 (en) 2013-08-10 2015-02-12 Xueming Tang Local positioning and motion estimation based camera viewing system and methods
US20150378566A1 (en) 2014-06-27 2015-12-31 Alcatel Lucent Method, system and device for navigating in ultra high resolution video content by a client device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4770178B2 (ja) * 2005-01-17 2011-09-14 ソニー株式会社 カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
TWM347769U (en) * 2008-05-16 2008-12-21 Kd Comm Inc Tracing type camera
JP2012033982A (ja) 2008-12-05 2012-02-16 Panasonic Corp 回転台付きカメラ装置
CN102577347B (zh) * 2009-06-29 2015-09-23 博世安防系统有限公司 全方位智能自动巡视和态势感知的球形监视摄像机系统和方法
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
CN102158684A (zh) * 2010-02-12 2011-08-17 王炳立 具有图像增强功能的自适应场景图像辅助系统
CN102131076B (zh) * 2011-01-19 2015-05-20 中兴通讯股份有限公司 视频监控方法及监控终端
TWM459641U (zh) * 2013-03-01 2013-08-11 Ewa Technology Cayman Co Ltd 目標自動追蹤系統
EP2879371B1 (en) * 2013-11-29 2016-12-21 Axis AB System for following an object marked by a tag device with a camera
JP6071866B2 (ja) * 2013-12-18 2017-02-01 キヤノン株式会社 表示制御装置、表示装置、撮像システム、表示制御方法、及びプログラム
CN105678809A (zh) * 2016-01-12 2016-06-15 湖南优象科技有限公司 手持式自动跟拍装置及其目标跟踪方法
US10262239B2 (en) * 2016-07-26 2019-04-16 Viisights Solutions Ltd. Video content contextual classification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050168574A1 (en) 2004-01-30 2005-08-04 Objectvideo, Inc. Video-based passback event detection
US20150042812A1 (en) 2013-08-10 2015-02-12 Xueming Tang Local positioning and motion estimation based camera viewing system and methods
US20150378566A1 (en) 2014-06-27 2015-12-31 Alcatel Lucent Method, system and device for navigating in ultra high resolution video content by a client device

Also Published As

Publication number Publication date
EP3293963A1 (en) 2018-03-14
TWI691208B (zh) 2020-04-11
CN107820002B (zh) 2020-03-27
CN107820002A (zh) 2018-03-20
JP6723208B2 (ja) 2020-07-15
US20180077357A1 (en) 2018-03-15
KR20180029898A (ko) 2018-03-21
JP2018046560A (ja) 2018-03-22
TW201813369A (zh) 2018-04-01
US10397485B2 (en) 2019-08-27

Similar Documents

Publication Publication Date Title
KR102085520B1 (ko) 개선된 모니터링 카메라 방향 제어
EP3393120B1 (en) Method for automatic focus and ptz camera
US7385626B2 (en) Method and system for performing surveillance
US20160309095A1 (en) Methods and apparatus for capturing images using multiple camera modules in an efficient manner
CN105100596B (zh) 相机设备和使用相机设备跟踪对象的方法
KR102151815B1 (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
US8928778B2 (en) Camera device, image processing system, image processing method and image processing program
JP5703448B2 (ja) 画像表示装置及び画像表示方法
GB2545551A (en) Imaging device and imaging method
JP2017103688A5 (ko)
JP2018046560A5 (ko)
US11750922B2 (en) Camera switchover control techniques for multiple-camera systems
US9030501B2 (en) Methods and systems for modifying a display of a field of view of a robotic device to include zoomed-in and zoomed-out views
JP6734994B2 (ja) ステレオ計測装置及びシステム
JP2022068641A (ja) 粒子測定装置、粒子測定方法およびプログラム
KR102669853B1 (ko) 다중-카메라 시스템들에 대한 카메라 스위칭오버 제어 기술들
CN112639405A (zh) 状态信息确定方法、装置、系统、可移动平台和存储介质
US12015845B2 (en) Object depth estimation and camera focusing techniques for multiple-camera systems
WO2024042944A1 (ja) 制御装置、撮像システム、制御方法、及び制御プログラム
CN107067440B (zh) 一种图像标定方法和系统
CN106878610B (zh) 图像采集装置的对焦方法及图像采集装置
EP3691250A1 (en) Imaging device, control method, and recording medium
KR101221779B1 (ko) 구동 명령을 이용한 카메라 줌 제어 시스템 및 방법
CN115066663A (zh) 可移动平台及用于处理其数据的方法和装置、终端设备
CN116471544A (zh) 定位方法、装置、电子设备及可移动设备

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant