KR102331534B1 - Camera system and camera controlling method - Google Patents

Camera system and camera controlling method Download PDF

Info

Publication number
KR102331534B1
KR102331534B1 KR1020140043683A KR20140043683A KR102331534B1 KR 102331534 B1 KR102331534 B1 KR 102331534B1 KR 1020140043683 A KR1020140043683 A KR 1020140043683A KR 20140043683 A KR20140043683 A KR 20140043683A KR 102331534 B1 KR102331534 B1 KR 102331534B1
Authority
KR
South Korea
Prior art keywords
camera
angle
estimator
estimating
vector
Prior art date
Application number
KR1020140043683A
Other languages
Korean (ko)
Other versions
KR20150117913A (en
Inventor
오재윤
박재우
이준성
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020140043683A priority Critical patent/KR102331534B1/en
Publication of KR20150117913A publication Critical patent/KR20150117913A/en
Application granted granted Critical
Publication of KR102331534B1 publication Critical patent/KR102331534B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 일 실시예에 따르면, 피사체를 촬영하는 제1 카메라; 상기 피사체를 촬영하며, 상기 제1 카메라와 소정 간격 이격되도록 배치된 제2 카메라; 상기 제1 카메라 및 상기 제2 카메라 각각을 패닝(panning) 및/또는 틸팅(tilting)시키는 제1 구동부 및 제2 구동부; 및 상기 제1 구동부 및 상기 제2 구동부를 제어하는 제어부;를 포함하며, 상기 제어부는, 상기 제1 카메라와 상기 피사체 사이의 거리를 추정하는 물체 거리 추정부; 및 상기 물체 거리 추정부에 의해 추정된 거리로부터, 상기 제1 카메라의 제1 패닝 및/또는 틸팅 각도를 추정하는 제1 각도 추정부;를 포함하는 카메라 시스템을 개시한다. According to an embodiment of the present invention, a first camera for photographing a subject; a second camera photographing the subject and spaced apart from the first camera by a predetermined distance; a first driving unit and a second driving unit for panning and/or tilting the first camera and the second camera, respectively; and a controller for controlling the first and second drivers, wherein the controller includes: an object distance estimator for estimating a distance between the first camera and the subject; and a first angle estimator for estimating a first panning and/or tilting angle of the first camera from the distance estimated by the object distance estimator.

Figure R1020140043683
Figure R1020140043683

Description

카메라 시스템 및 카메라 제어 방법{Camera system and camera controlling method}Camera system and camera controlling method

본 발명은 카메라 시스템 및 카메라 제어 방법에 관한 것이다. The present invention relates to a camera system and a camera control method.

최근에 감시 시스템과 의료 영상 등의 분야에서 변화 감지, 움직임 검출, 초해상도 영상 복원 및 물체 인식과 추적 등의 알고리즘의 정확도와 신뢰도를 향상시키기 위해 두 개 이상의 센서를 이용한 상호 보완적인 정보 융합 연구가 활발히 이루어지고 있다. Recently, complementary information fusion research using two or more sensors has been conducted to improve the accuracy and reliability of algorithms such as change detection, motion detection, super-resolution image restoration, and object recognition and tracking in the fields of surveillance systems and medical imaging. is being actively carried out.

두 개 이상의 센서를 이용한 영상 정보 정합 시스템에 있어서, 각 센서는 서로 물리적으로 이격되어 배치될 수 밖에 없으므로 촬영되는 영역이 완전히 일치하지 않을 수 있다.In an image information matching system using two or more sensors, since the sensors are physically spaced apart from each other, the photographed areas may not completely match.

최근, 촬영된 영상을 정합하는 영상 처리 방법에 관한 연구는 활발히 진행되고 있으나, 복수 개의 센서에 의해 촬영되는 영역을 일치시키기 위한 연구는 전무한 상태이다.Recently, research on an image processing method for matching photographed images is being actively conducted, but research for matching areas photographed by a plurality of sensors is nonexistent.

본 발명의 실시예는, 복수 개의 카메라에 의해 촬영된 영상이 중첩되는 영역의 넓이를 증가시킬 수 있는 카메라 시스템 및 이를 이용한 카메라 제어 방법을 제공한다.An embodiment of the present invention provides a camera system capable of increasing the area of a region where images captured by a plurality of cameras overlap, and a camera control method using the same.

본 발명의 일 실시예에 따르면, 피사체를 촬영하는 제1 카메라; 상기 피사체를 촬영하며, 상기 제1 카메라와 소정 간격 이격되도록 배치된 제2 카메라; 상기 제1 카메라 및 상기 제2 카메라 각각을 패닝(panning) 및/또는 틸팅(tilting)시키는 제1 구동부 및 제2 구동부; 및 상기 제1 구동부 및 상기 제2 구동부를 제어하는 제어부;를 포함하며, 상기 제어부는, 상기 제1 카메라와 상기 피사체 사이의 거리를 추정하는 물체 거리 추정부; 및 상기 물체 거리 추정부에 의해 추정된 거리로부터, 상기 제1 카메라의 제1 패닝 및/또는 틸팅 각도를 추정하는 제1 각도 추정부;를 포함하는 카메라 시스템을 개시한다.According to an embodiment of the present invention, a first camera for photographing a subject; a second camera photographing the subject and spaced apart from the first camera by a predetermined distance; a first driving unit and a second driving unit for panning and/or tilting the first camera and the second camera, respectively; and a controller for controlling the first and second drivers, wherein the controller includes: an object distance estimator for estimating a distance between the first camera and the subject; and a first angle estimator for estimating a first panning and/or tilting angle of the first camera from the distance estimated by the object distance estimator.

본 실시예에 있어서, 상기 제어부는, 상기 제1 카메라에 의해 촬영된 영상의 중심 좌표와, 상기 제1 카메라에 의해 촬영된 영상 중 상기 제2 카메라에 의해 촬영된 영상과 중첩되는 영역의 중심 좌표 사이의 벡터를 추정하는 제어 벡터 추정부; 상기 제1 카메라의 기 저장된 줌 트랙(zoom track) 정보로부터 화각을 추정하는 화각 추정부; 및 상기 제어 벡터 추정부에 의해 추정된 벡터 및 상기 화각 추정부에 의해 추정된 화각으로부터 제2 패닝 및/또는 틸팅 각도를 추정하는 제2 각도 추정부;를 더 포함할 수 있다.In this embodiment, the control unit, the center coordinates of the image captured by the first camera, and the center coordinates of a region overlapping the image captured by the second camera among the images captured by the first camera a control vector estimator for estimating a vector between; an angle of view estimator for estimating an angle of view from pre-stored zoom track information of the first camera; and a second angle estimator for estimating a second panning and/or tilting angle from the vector estimated by the control vector estimator and the angle of view estimated by the angle of view estimator.

본 실시예에 있어서, 상기 제1 카메라 및 상기 제2 카메라에 의해 촬영된 영상을 처리하는 영상 처리부를 더 포함하며, 상기 영상 처리부는, 상기 제1 카메라에 의해 촬영된 영상의 제1 특징점들을 검출하는 제1 특징점 검출부; 상기 제2 카메라에 의해 촬영된 영상의 제2 특징점들을 검출하는 제2 특징점 검출부; 상기 제1 특징점들의 중심 좌표를 추정하는 제1 특징점 중심 좌표 추정부; 상기 제1 특징점들과 상기 제2 특징점들이 중첩되는 매칭점들을 검출하는 매칭점 검출부; 및 상기 매칭점들의 중심 좌표를 추정하는 매칭점 중심 좌표 추정부;를 포함하며, 상기 제어 벡터 추정부는, 상기 제1 특징점들의 중심 좌표와 상기 매칭점들의 중심 좌표 사이의 벡터를 추정할 수 있다.In this embodiment, the method further includes an image processing unit that processes the images photographed by the first camera and the second camera, wherein the image processing unit detects first feature points of the image photographed by the first camera a first feature point detection unit; a second feature point detector for detecting second feature points of the image captured by the second camera; a first feature point center coordinate estimator for estimating center coordinates of the first feature points; a matching point detection unit detecting matching points in which the first feature points and the second feature points overlap; and a matching point center coordinate estimator for estimating center coordinates of the matching points, wherein the control vector estimator may estimate a vector between the center coordinates of the first feature points and the center coordinates of the matching points.

본 실시예에 있어서, 상기 제1 카메라는 상기 제1 구동부에 의해, 상기 제1 각도 추정부에 의해 추정된 제1 패닝 및/또는 틸팅 각도와 상기 제2 각도 추정부에 의해 추정된 제2 패닝 및/또는 틸팅 각도로부터 하기 식에 의해 계산된 각도만큼 패닝 및/또는 틸팅될 수 있다.In the present embodiment, the first camera includes a first panning and/or tilting angle estimated by the first angle estimator and a second panning estimated by the second angle estimator by the first driving unit. and/or it may be panned and/or tilted by an angle calculated by the following equation from the tilting angle.

<식><expression>

θ=a×θ1 + (1-a)×θ2 θ=a×θ 1 + (1-a)×θ 2

여기서, θ1은 제1 패닝 및/또는 틸팅 각도, θ2는 제2 패닝 및/또는 틸팅 각도, 및 a는 0이상 1이하의 상수를 나타낸다.Here, θ 1 is a first panning and/or tilting angle, θ 2 is a second panning and/or tilting angle, and a is a constant of 0 or more and 1 or less.

본 실시예에 있어서, 상기 제1 카메라 및 상기 제2 카메라는 각각 가시광 카메라(visible camera) 및 열상 카메라(thermal camera)일 수 있다.In this embodiment, the first camera and the second camera may be a visible camera and a thermal camera, respectively.

본 발명의 다른 실시예에 따르면, 카메라 시스템을 이용한 카메라 제어 방법에 있어서, 상기 카메라 시스템은, 피사체를 촬영하며, 서로 소정 간격 이격되도록 배치된 제1 카메라 및 제2 카메라, 상기 제1 카메라 및 상기 제2 카메라 각각을 패닝 및/또는 틸팅시키는 제1 구동부 및 제2 구동부를 포함하며, 상기 카메라 제어 방법은, 물체 거리 추정부에 의해, 상기 제1 카메라와 상기 피사체 사이의 거리를 추정하는 단계; 및 제1 각도 추정부에 의해, 상기 물체 거리 추정부에 의해 추정된 거리로부터 상기 제1 카메라의 제1 패닝 및/또는 틸팅 각도를 추정하는 단계; 제어 벡터 추정부에 의해, 상기 제1 카메라에 의해 촬영된 영상의 중심 좌표와, 상기 제1 카메라에 의해 촬영된 영상 중 상기 제2 카메라에 의해 촬영된 영상과 중첩되는 영역의 중심 좌표 사이의 벡터를 추정하는 단계; 화각 추정부에 의해, 상기 제1 카메라의 기 저장된 줌 트랙(zoom track) 정보로부터 화각을 추정하는 단계; 및 제2 각도 추정부에 의해, 상기 제어 벡터 추정부에 의해 추정된 벡터 및 상기 화각 추정부에 의해 추정된 화각으로부터 상기 제1 카메라의 제2 패닝 및/또는 틸팅 각도를 추정하는 단계;를 포함하는 카메라 제어 방법을 개시한다.According to another embodiment of the present invention, in the method of controlling a camera using a camera system, the camera system includes a first camera and a second camera, the first camera and the and a first driving unit and a second driving unit for panning and/or tilting each of a second camera, wherein the camera control method includes: estimating a distance between the first camera and the subject by an object distance estimator; and estimating, by a first angle estimator, a first panning and/or tilting angle of the first camera from the distance estimated by the object distance estimator; A vector between the center coordinates of the image captured by the first camera and the center coordinates of a region overlapping the image captured by the second camera among the images captured by the first camera by the control vector estimator estimating; estimating, by an angle of view estimator, an angle of view from pre-stored zoom track information of the first camera; and estimating, by a second angle estimator, a second panning and/or tilting angle of the first camera from the vector estimated by the control vector estimator and the angle of view estimated by the angle of view estimator. Disclosed is a method for controlling a camera.

본 발명의 실시예에 따른 카메라 시스템 및 카메라 제어 방법은, 제1 카메라와 제2 카메라에 의해 각각 촬영된 영상의 중첩 영역을 증가시킬 수 있다.The camera system and the camera control method according to the embodiment of the present invention may increase the overlapping area of the images captured by the first camera and the second camera, respectively.

도 1은 본 발명의 일 실시예에 따른 카메라 시스템을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 카메라 제어 방법을 설명하는 흐름도이다.
도 3a 및 도 3b는 각각 줌 트랙 정보로부터 물체 거리를 추정하는 방법 및 제1 패닝 및/또는 틸팅 각도를 추정하는 방법을 나타낸 도면들이다.
도 4a 및 도 4b는 각각 제1 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 벡터를 추정하는 방법 및 줌 트랙 정보로부터 화각을 추정하는 방법을 나타낸 도면들이다.
도 5는 본 발명의 다른 실시예에 따른 카메라 제어 방법을 설명하는 흐름도이다.
도 6a 및 도 6b는 각각 제1 카메라와 제2 카메라가 각각 제1 구동부 및 제2 구동부에 의해 패닝 및/또는 틸팅되기 전의 카메라의 배치 및 중첩 영역을 개략적으로 나타낸 도면들이다.
도 7a 및 도 7b는 각각 제1 카메라와 제2 카메라가 각각 제1 구동부 및 제2 구동부에 의해 패닝 및/또는 틸팅된 후의 카메라의 배치 및 중첩 영역을 개략적으로 나타낸 도면들이다.
1 is a block diagram schematically illustrating a camera system according to an embodiment of the present invention.
2 is a flowchart illustrating a camera control method according to an embodiment of the present invention.
3A and 3B are diagrams illustrating a method of estimating an object distance from zoom track information and a method of estimating a first panning and/or tilting angle, respectively.
4A and 4B are diagrams illustrating a method of estimating a vector between the center coordinates of first feature points and the center coordinates of matching points, respectively, and a method of estimating an angle of view from zoom track information.
5 is a flowchart illustrating a camera control method according to another embodiment of the present invention.
6A and 6B are views schematically illustrating the arrangement and overlapping regions of the cameras before the first and second cameras are panned and/or tilted by the first and second drivers, respectively.
7A and 7B are diagrams schematically illustrating an arrangement and overlapping area of a camera after the first camera and the second camera are panned and/or tilted by the first and second drivers, respectively.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the following examples are only used to describe specific examples, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the following examples, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, but one or more It should be understood that this does not preclude the possibility of addition or presence of other features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 잇는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, embodiments of the present invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by control of one or more microprocessors or other control devices. Circuit configurations may be employed. Similar to how components of an embodiment of the invention may be implemented as software programming or software elements, embodiments of the invention may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs. , C, C++, Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, embodiments of the present invention may employ conventional techniques for electronic configuration, signal processing, and/or data processing, and the like. Terms such as mechanism, element, means, and configuration may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.

도 1은 본 발명의 일 실시예에 따른 카메라 시스템을 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating a camera system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 카메라 시스템(1)은 피사체를 촬영하며 서로 소정 간격 이격되도록 배치된 제1 카메라(10)와 제2 카메라(20), 제1 카메라(10)와 제2 카메라(20)를 각각 패닝(panning) 및/또는 틸팅(tilting)시키는 제1 구동부(30)와 제2 구동부(40), 제1 구동부(30)와 제2 구동부를 제어하는 제어부(50)를 포함한다.Referring to FIG. 1 , a camera system 1 according to an embodiment of the present invention captures a subject, and a first camera 10 , a second camera 20 , and a first camera 10 are arranged to be spaced apart from each other by a predetermined distance. ) and the first driving unit 30 and the second driving unit 40 for panning and/or tilting the second camera 20, respectively, and a control unit for controlling the first driving unit 30 and the second driving unit (50).

상기 제어부(50)는, 제1 카메라(10)와 피사체 사이의 거리를 추정하는 물체 거리 추정부(52), 물체 거리 추정부(52)에 의해 추정된 거리로부터 제1 카메라(10)의 제1 패닝 및/또는 틸팅 각도를 추정하는 제1 각도 추정부(551)을 포함한다.The control unit 50 includes an object distance estimator 52 estimating a distance between the first camera 10 and the subject, and a second control unit of the first camera 10 from the distance estimated by the object distance estimator 52 . 1 A first angle estimator 551 for estimating a panning and/or tilting angle is included.

상기 제어부(50)는 제1 카메라(10)에 의해 촬영된 영상의 중심 좌표와, 제1 카메라(10)에 의해 촬영된 영상 중 제2 카메라(20)에 의해 촬영된 영상과 중첩되는 영역의 중심 좌표 사이의 벡터를 추정하는 제어 벡터 추정부(53), 제1 카메라(10)의 기 저장된 줌 트랙(zoom track) 정보로부터 화각을 추정하는 화각 추정부(54) 및 제어 벡터 추정부(53)에 의해 추정된 벡터와 화각 추정부(54)에 의해 추정된 화각으로부터 제2 패닝 및/또는 틸팅 각도를 추정하는 제2 각도 추정부(552)를 포함할 수 있다.The control unit 50 controls the center coordinates of the image photographed by the first camera 10 and the region overlapping the image photographed by the second camera 20 among the images photographed by the first camera 10 . The control vector estimator 53 for estimating the vector between the center coordinates, the angle of view estimator 54 for estimating the angle of view from pre-stored zoom track information of the first camera 10, and the control vector estimator 53 ) and a second angle estimator 552 for estimating a second panning and/or tilting angle from the angle of view estimated by the angle of view estimator 54 .

각도 제어부(56)는, 제1 각도 추정부(551)와 제2 각도 추정부(552)를 포함하는 각도 추정부(55)로부터 계산된 각도만큼 제1 구동부(30) 및 제2 구동부(40)를 각각 제어하여 제1 카메라(10)와 제2 카메라(20)를 패닝(panning) 및/또는 틸팅(tilting)시킬 수 있다.The angle control unit 56 includes the first driving unit 30 and the second driving unit 40 by the angle calculated from the angle estimating unit 55 including the first angle estimating unit 551 and the second angle estimating unit 552 . ) may be controlled to pan and/or tilt the first camera 10 and the second camera 20 .

제1 카메라(10)와 제2 카메라(20) 중 적어도 하나는 줌(zoom) 기능을 가질 수 있으며, 제어부(50)는 제1 카메라(10) 및/또는 제2 카메라(20)의 주밍을 제어하는 줌 제어부(51)를 더 포함할 수 있다. At least one of the first camera 10 and the second camera 20 may have a zoom function, and the controller 50 controls the zooming of the first camera 10 and/or the second camera 20 . It may further include a zoom control unit 51 to control.

상기 제1 카메라(10)와 제2 카메라(20)는 동일한 장면을 촬영하여 영상 정보를 제공하는 동종 또는 이종의 카메라일 수 있으며, 예를 들면, 제1 카메라(10)와 제2 카메라(20)는 각각 가시광 카메라(visible camera) 및 열상 카메라(thermal camera)일 수 있다.The first camera 10 and the second camera 20 may be cameras of the same type or different types that provide image information by photographing the same scene, for example, the first camera 10 and the second camera 20 ) may be a visible camera and a thermal camera, respectively.

가시광 카메라는, 빛을 검출하는 방식으로 영상 정보를 획득하여 물체의 휘도 분포에 다른 가시 영상을 생성할 수 있으며, 가시광 카메라는 CCD 또는 CMOS를 이미지 센서로 사용할 수 있다.A visible light camera may generate a visible image different in the luminance distribution of an object by acquiring image information by detecting light, and the visible light camera may use a CCD or CMOS as an image sensor.

열상 카메라는, 물체가 발산하는 복사 에너지를 감지하고 열에너지의 강도를 측정하여 강도에 따라 각각 다른 색상을 나타내는 열 영상을 생성할 수 있다.The thermal camera may detect radiation energy emitted by an object, measure the intensity of the thermal energy, and generate a thermal image representing different colors according to the intensity.

카메라 시스템(1)은 제1 카메라(10)와 제2 카메라(20)에 의해 촬영된 영상을 처리하는 영상 처리부(60)를 더 포함할 수 있으며, 영상 처리부(60)는 제1 카메라(10)에 의해 촬영된 영상의 제1 특징점들을 검출하는 제1 특징점 검출부(61), 제2 카메라(20)에 의해 촬영된 영상의 제2 특징점들을 검출하는 제2 특징점 검출부(62), 제1 특징점들과 제2 특징점들이 중첩되는 매칭점들을 검출하는 매칭점 검출부(63)를 포함할 수 있다. The camera system 1 may further include an image processing unit 60 that processes images captured by the first camera 10 and the second camera 20 , and the image processing unit 60 includes the first camera 10 . ) a first feature point detector 61 for detecting first feature points of an image photographed by and a matching point detection unit 63 that detects matching points in which the values and the second feature points overlap.

상기 제1 및 제2 특징점 검출부(61, 62)는 다양한 특징점 추출 알고리즘을 통해, 제1 카메라(10)와 제2 카메라(20)에 의해 촬영된 영상으로부터 각각 코너(corners), 에지(edges), 외곽선(contours) 또는 교차점(line intersections) 등을 특징점으로 추출할 수 있다.The first and second feature point detection units 61 and 62 use various feature point extraction algorithms to extract corners and edges from images captured by the first camera 10 and the second camera 20, respectively. , contours, or line intersections can be extracted as feature points.

매칭점 검출부(62)는 제1 특징점들과 제2 특징점들이 중첩되는 매칭점들을 검출하며, 매칭점들은 제1 카메라(10)와 제2 카메라(20)에 의해 촬영된 각각의 영상이 중첩되는 영역에 배치될 수 있다.The matching point detection unit 62 detects matching points in which the first feature points and the second feature points overlap, and the matching points overlap each image captured by the first camera 10 and the second camera 20 . can be placed in the area.

영상 처리부(60)는 제1 및 제2 특징점 검출부(61, 62)로부터 각각 검출된 제1 및 제2 특징점들의 중심 좌표를 추정하는 제1 특징점 중심 좌표 추정부(64)와 제2 특징점 중심 좌표 추정부(65) 및 매칭점 검출부(63)로부터 검출된 매칭점들의 중심 좌표를 추정하는 매칭점 중심 좌표 추정부(66)를 더 포함할 수 있다.The image processing unit 60 includes a first key point center coordinate estimator 64 and a second key point center coordinate estimator for estimating center coordinates of the first and second key points detected by the first and second key point detection units 61 and 62, respectively. It may further include a matching point center coordinate estimator 66 for estimating the center coordinates of the matching points detected by the estimator 65 and the matching point detector 63 .

제어 벡터 추정부(53)는 제1 특징점들 및/또는 제2 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 벡터를 추정할 수 있다. The control vector estimator 53 may estimate a vector between the center coordinates of the first and/or second feature points and the center coordinates of the matching points.

도시하진 않았지만, 영상 처리부(60)는 이외에도 영상 변환부, 융합부 등을 더 포함할 수 있다.Although not shown, the image processing unit 60 may further include an image conversion unit, a fusion unit, and the like.

상기 카메라 시스템(1)은 메모리(미도시)를 더 포함할 수 있으며, 메모리에는 주밍의 정도에 따라 초점이 맞는 위치에 배치된 물체까지의 거리 및 화각 정보를 나타내는 줌 트랙(zoom track) 정보가 저장되어 있을 수 있다.The camera system 1 may further include a memory (not shown), and the memory includes zoom track information indicating the distance and angle of view information to the object disposed at the focused position according to the degree of zooming. may be stored.

도 2는 본 발명의 일 실시예에 따른 카메라 제어 방법을 설명하는 흐름도이고, 도 3a 및 도 3b는 각각 줌 트랙 정보로부터 물체 거리를 추정하는 방법 및 제1 패닝 및/또는 틸팅 각도를 추정하는 방법을 나타낸 도면들이고, 도 4a 및 도 4b는 각각 제1 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 벡터를 추정하는 방법 및 줌 트랙 정보로부터 화각을 추정하는 방법을 나타낸 도면들이다. 2 is a flowchart illustrating a camera control method according to an embodiment of the present invention, and FIGS. 3A and 3B are a method of estimating an object distance from zoom track information and a method of estimating a first panning and/or tilting angle, respectively. 4A and 4B are diagrams illustrating a method of estimating a vector between the center coordinates of the first feature points and the center coordinates of the matching points, respectively, and a method of estimating the angle of view from zoom track information.

도 2를 참조하면, 일 실시예에 따른 카메라 제어 방법은, 물체 거리 추정부(도 1, 52)에 의해 제1 카메라(도 1, 10)와 피사체 사이의 거리(r1)를 추정하는 단계(S151)와 추정된 거리(r1)로부터 제1 패닝 및/또는 틸팅 각도(θ1)를 추정하는 단계(S152)를 포함할 수 있다. Referring to FIG. 2 , the method for controlling a camera according to an embodiment includes estimating a distance r 1 between a first camera ( FIGS. 1 and 10 ) and a subject by an object distance estimator ( FIGS. 1 and 52 ). The method may include estimating the first panning and/or tilting angle θ 1 from the ( S151 ) and the estimated distance r1 ( S152 ).

도 3a를 참조하면, 제1 카메라(10)의 주밍에 따른 물체 거리(r1)에 대한 줌 트랙 정보로부터, 물체 거리(r1)를 추정할 수 있다. 도 3a는 줌 트랙과 물체 거리와의 관계를 나타낸 그래프로, 미리 획득되어 메모리에 저장된 데이터일 수 있다.Referring to FIG. 3A , the object distance r1 may be estimated from zoom track information on the object distance r 1 according to the zooming of the first camera 10 . 3A is a graph illustrating a relationship between a zoom track and an object distance, and may be data obtained in advance and stored in a memory.

도 3b를 참조하면, 물체 거리(r1) 및 미리 설정된 값인 제1 카메라(10)와 제2 카메라(20) 사이의 거리(r2)로부터, 제1 패닝 및/또는 틸팅 각도(θ1)를 계산할 수 있다. 제1 패닝 및/또는 틸팅 각도(θ1)는 하기 식에 의해 계산될 수 있다. Referring to FIG. 3B , the first panning and/or tilting angle θ 1 is calculated from the object distance r1 and the distance r2 between the first camera 10 and the second camera 20, which are preset values. can The first panning and/or tilting angle θ 1 may be calculated by the following equation.

<식><expression>

θ1 = tan-1(r2/2r1)θ 1 = tan -1 (r 2 /2r 1 )

도 2, 도 4a 및 도 4b를 참조하면, 카메라 제어 방법은, 제어 벡터 추정부(도 1, 53)에 의해, 제1 카메라(도 1, 10)에 의해 촬영된 영상(IF1)의 중심 좌표(ICP)와 제1 카메라(10)에 의해 촬영된 영상(IF1) 중 제2 카메라(도 1, 20)에 의해 촬영된 영상(IF2)과 중첩되는 영역(MA)의 중심 좌표(MCP) 사이의 벡터(V)를 추정하는 단계(S153)와, 화각 추정부(도 1, 54)에 의해 제1 카메라(10)의 주밍에 따른 화각(FOV)에 대한 줌 트랙 정보로부터, 화각(FOV)을 추정하는 단계(S154)를 포함할 수 있다. 2, 4A and 4B , in the camera control method, the center coordinates of the image IF1 photographed by the first camera ( FIGS. 1 and 10 ) by the control vector estimator ( FIGS. 1 and 53 ) Between the image IF2 captured by the second camera ( FIGS. 1 and 20 ) among the images IF1 captured by the ICP and the first camera 10 and the center coordinates MCP of the overlapping area MA In the step of estimating the vector V of ( S153 ) and the zoom track information for the angle of view (FOV) according to the zooming of the first camera 10 by the angle of view estimator ( FIGS. 1 and 54 ), the angle of view (FOV) It may include the step of estimating (S154).

상기 제1 카메라(10)에 의해 촬영된 영상(IF1)의 중심 좌표(ICP)와 제2 카메라(20)에 의해 촬영된 영상(IF2)과 중첩되는 영역(MA)의 중심 좌표(MCP)는 상술한 바와 같이 영상 처리부(도 1, 60)에 의해 추정될 수 있다. 즉, 제1 카메라(10)에 의해 촬영된 영상(IF1)의 중심 좌표(ICP)는 제1 특징점들의 중심 좌표일 수 있으며, 중첩되는 영역(MA)의 중심 좌표(MCP)는 매칭점들의 중심 좌표일 수 있다. The center coordinate ICP of the image IF1 photographed by the first camera 10 and the center coordinate MCP of the area MA overlapping the image IF2 photographed by the second camera 20 are As described above, it may be estimated by the image processing unit ( FIGS. 1 and 60 ). That is, the center coordinate ICP of the image IF1 captured by the first camera 10 may be the center coordinate of the first feature points, and the center coordinate MCP of the overlapping area MA is the center of the matching points. It can be coordinates.

도 4a는 제어 벡터 추정부(53)에 의해 추정된 벡터(V)가 x축 성분만을 포함하는 경우를 예시하였지만, 본 발명은 이에 제한되지 않으며 벡터(V)는 x축 성분 및 y축 성분을 모두 포함할 수 있다.4A illustrates a case in which the vector V estimated by the control vector estimator 53 includes only the x-axis component, but the present invention is not limited thereto and the vector V includes the x-axis component and the y-axis component. can include all of them.

도 4b는 줌 트랙과 화각(FOV)과의 관계를 나타낸 그래프로, 미리 획득되어 메모리에 저장된 데이터일 수 있다.4B is a graph illustrating a relationship between a zoom track and an angle of view (FOV), and may be data obtained in advance and stored in a memory.

카메라 제어 방법은, 상기 벡터(V)와 화각(FOV)으로부터 제2 패닝 및/또는 틸팅 각도(θ2)를 추정하는 단계(S155)를 포함할 수 있다. 제2 패닝 및/또는 틸팅 각도(θ2)는 하기 식에 의해 계산될 수 있다. The camera control method may include estimating a second panning and/or tilting angle θ 2 from the vector V and the angle of view (FOV) ( S155 ). The second panning and/or tilting angle θ 2 may be calculated by the following equation.

<식><expression>

θ2 = FOV×CV/Ct θ 2 = FOV×C V /C t

여기서, Cv는 벡터(V)에 대응되는 컬럼수 및 Ct는 제1 카메라에 의해 촬영된 영상 전체의 컬럼수를 나타낸다.Here, Cv denotes the number of columns corresponding to the vector V, and Ct denotes the number of columns in the entire image captured by the first camera.

도 4b의 벡터(V)는 x축 성분만을 포함하므로, 제2 패닝 및/또는 틸팅 각도(θ2)가 상기 식과 같이 벡터(V)의 x축 방향의 픽셀수, 즉 컬럼수에 의해 결정되나, 벡터(V)가 y축 성분을 포함하는 경우 y축 성분에 대응되는 제2 패닝 및/또는 틸팅 각도(θ2)는 벡터(V)의 y축 방향의 픽셀수로부터 계산될 수 있다.Since the vector V of FIG. 4B includes only the x-axis component, the second panning and/or tilting angle θ 2 is determined by the number of pixels in the x-axis direction of the vector V, that is, the number of columns as shown in the above equation. , when the vector V includes a y-axis component, the second panning and/or tilting angle θ 2 corresponding to the y-axis component may be calculated from the number of pixels in the y-axis direction of the vector V.

카메라 제어 방법은, 상기 제1 패닝 및/또는 틸팅 각도(θ1)와 제2 패닝 및/또는 틸팅 각도(θ2)로부터 하기 식에 의해 계산된 각도(θ)만큼, 제1 카메라(10)를 제1 구동부(도 1, 30)에 의해 패닝 및/또는 틸팅시키는 단계(S157)를 포함할 수 있다.The camera control method includes the first panning and/or tilting angle (θ 1 ) and the second panning and/or tilting angle (θ 2 ) by an angle (θ) calculated by the following equation from the first camera (10) may include the step of panning and/or tilting by the first driving unit ( FIGS. 1 and 30 ) ( S157 ).

<식><expression>

θ=a×θ1 + (1-a)×θ2 θ=a×θ 1 + (1-a)×θ 2

여기서, θ1은 제1 패닝 및/또는 틸팅 각도, θ2는 제2 패닝 및/또는 틸팅 각도, 및 a는 0이상 1이하의 상수를 나타낸다.Here, θ 1 is a first panning and/or tilting angle, θ 2 is a second panning and/or tilting angle, and a is a constant of 0 or more and 1 or less.

a는 θ1과 θ2에 대한 가중치를 나타내며, 설정된 a값에 따라 제1 카메라(10)의 패닝 및/또는 틸팅 각도(θ)가 달라지며, 따라서 제1 카메라(10) 및 제2 카메라(20)에 의해 각각 촬영된 영상이 중첩(overlap)되는 영역의 넓이는 a값에 따라 달라질 수 있다. a값이 0이 경우 제2 패닝 및/또는 틸팅 각도(θ2)가 패닝 및/또는 틸팅 각도(θ)가 되며, a값이 1인 경우 제1 패닝 및/또는 틸팅 각도(θ1)가 패닝 및/또는 틸팅 각도(θ)가 될 수 있다.a represents the weights for θ 1 and θ 2 , and the panning and/or tilting angle θ of the first camera 10 varies according to the set a value, and thus the first camera 10 and the second camera ( 20), the area of the overlapping area of the images captured by each may vary depending on the value of a. When the value of a is 0, the second panning and/or tilting angle (θ 2 ) becomes the panning and/or tilting angle (θ), and when the value of a is 1, the first panning and/or tilting angle (θ 1 ) is It can be a panning and/or tilting angle θ.

즉, a값을 조정함으로써 제1 카메라(10) 및 제2 카메라(20)에 의해 각각 촬영된 영상의 중첩 영역의 넓이가 최대가 되도록 할 수 있다.That is, by adjusting the a value, the area of the overlapping area of the images captured by the first camera 10 and the second camera 20 can be maximized.

도 5는 본 발명의 다른 실시예에 따른 카메라 제어 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a camera control method according to another embodiment of the present invention.

도 5를 참조하면, 다른 실시예에 따른 카메라 제어 방법은, 물체 거리 추정부(도 1, 52)에 의해 제1 카메라(도 1, 10)와 피사체 사이의 거리(r1)를 추정하는 단계(S251)와 추정된 거리로부터 제1 패닝 및/또는 틸팅 각도(θ1)를 추정하는 단계(S252)를 포함할 수 있다. Referring to FIG. 5 , a camera control method according to another embodiment includes estimating a distance r 1 between a first camera ( FIGS. 1 and 10 ) and a subject by an object distance estimation unit ( FIGS. 1 and 52 ). and estimating the first panning and/or tilting angle (θ 1 ) from the ( S251 ) and the estimated distance ( S252 ).

카메라 제어 방법은, 제어 벡터 추정부(도 1, 53)에 의해 제1 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 제1 벡터를 추정하는 단계(S253a) 및 제2 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 제2 벡터를 추정하는 단계(S253b)를 포함하며, 화각 추정부(도 1, 54)에 의해 제1 카메라(10)의 제1 화각을 추정하는 단계(S254a) 및 제2 카메라(20)의 제2 화각을 추정하는 단계(S254b)를 포함할 수 있다.The camera control method includes estimating a first vector between the center coordinates of the first feature points and the center coordinates of the matching points by the control vector estimator ( FIGS. 1 and 53 ) ( S253a ) and matching with the center coordinates of the second feature points estimating the second vector between the coordinates of the center of the points (S253b), and estimating the first angle of view of the first camera 10 by the angle of view estimator (FIGS. 1 and 54) (S254a) and the second vector 2 It may include estimating the second angle of view of the camera 20 ( S254b ).

상기 제1 벡터와 제1 화각으로부터 제1 카메라(10)의 제2 패닝 및/또는 틸팅 각도(θ21)를 추정(S255a)할 수 있으며, 제2 벡터와 제2 화각으로부터 제2 카메라(20)의 제2 패닝 및/또는 틸팅 각도(θ22)를 추정(S255b)할 수 있다. A second panning and/or tilting angle θ 21 of the first camera 10 may be estimated from the first vector and the first angle of view (S255a), and the second camera 20 may be estimated from the second vector and the second angle of view. ) of the second panning and/or tilting angle θ 22 may be estimated (S255b).

카메라 제어 방법은, 제1 카메라(10)의 제2 패닝 및/또는 틸팅 각도(θ21)와 제2 카메라(20)의 제2 패닝 및/또는 틸팅 각도(θ22)의 평균값(θ2)을 산출하는 단계(S256)을 포함하며, 상기 평균값(θ2)과 제1 패닝 및/또는 틸팅 각도(θ1)로부터 하기 식에 의해 계산된 각도(θ)만큼, 제1 카메라(10) 및 제2 카메라(20)를 각각 제1 구동부(도 1, 30) 및 제2 구동부(도 1, 40)에 의해 패닝 및/또는 틸팅시키는 단계(S257)를 포함할 수 있다.Camera control method, the second pan and / or the mean value of the tilting angle (θ 21) and the second camera 20, a second pan and / or tilt angle (θ 22) of a (θ 2) of the camera 10 and calculating (S256), from the average value θ 2 and the first panning and/or tilting angle θ 1 by the angle θ calculated by the following equation, the first camera 10 and The method may include panning and/or tilting the second camera 20 by the first driving unit ( FIGS. 1 and 30 ) and the second driving unit ( FIGS. 1 and 40 ), respectively ( S257 ).

<식><expression>

θ=a×θ1 + (1-a)×θ2 θ=a×θ 1 + (1-a)×θ 2

여기서, θ1은 제1 패닝 및/또는 틸팅 각도, θ2는 제1 카메라(10)의 제2 패닝 및/또는 틸팅 각도(θ21)와 제2 카메라(20)의 제2 패닝 및/또는 틸팅 각도(θ22)의 평균값, 및 a는 0이상 1이하의 상수를 나타낸다.Here, θ 1 is the first panning and/or tilting angle, θ 2 is the second panning and/or tilting angle θ 21 of the first camera 10 and the second panning and/or tilting angle of the second camera 20 The average value of the tilting angle θ 22 , and a represents a constant of 0 or more and 1 or less.

a는 θ1과 θ2에 대한 가중치를 나타내며, 설정된 a값에 따라 제1 카메라(10) 및 제2 카메라(20)의 패닝 및/또는 틸팅 각도(θ)가 달라지며, 따라서 제1 카메라(10) 및 제2 카메라(20)에 의해 각각 촬영된 영상이 서로 중첩(overlap)되는 영역의 넓이는 a값에 따라 달라질 수 있다.a represents the weights for θ 1 and θ 2 , and the panning and/or tilting angle θ of the first camera 10 and the second camera 20 varies according to the set a value, and thus the first camera ( 10) and the area in which the images captured by the second camera 20 overlap each other may vary according to the value a.

즉, a값을 조정함으로써 제1 카메라(10) 및 제2 카메라(20)에 의해 각각 촬영된 영상의 중첩 영역의 넓이가 최대가 되도록 할 수 있다.That is, by adjusting the a value, the area of the overlapping area of the images captured by the first camera 10 and the second camera 20 can be maximized.

카메라 제어 방법은, 제1 카메라(10) 및 제2 카메라(20)를 각각 제1 구동부(30) 및 제2 구동부(40)에 의해 상기 각도(θ)만큼 패닝 및/또는 틸팅시킨 후, 제1 카메라(10)에 의해 촬영된 영상과 제2 카메라(20)에 의해 촬영된 영상이 중첩되는 영역의 넓이가 소정 값 이상인지 판단하는 단계(S258)를 포함할 수 있다.In the camera control method, after panning and/or tilting the first camera 10 and the second camera 20 by the angle θ by the first driving unit 30 and the second driving unit 40, respectively, the second The method may include determining whether an area of an overlapping region between the image captured by the first camera 10 and the image captured by the second camera 20 is equal to or greater than a predetermined value ( S258 ).

상기 중첩되는 영역의 넓이는, 영상 처리부(도 1, 60)에 의한 영상 처리를 통해 추정될 수 있다.The area of the overlapping region may be estimated through image processing by the image processing unit ( FIGS. 1 and 60 ).

상기 중첩되는 영역의 넓이가 소정 값 이상인 경우, 제1 카메라(10) 및 제2 카메라(20)를 각각 제1 구동부(30) 및 제2 구동부(40)에 의해 구동시켜, 중첩 영역을 증가시키는 제어 단계는 종료될 수 있다.When the area of the overlapping area is greater than or equal to a predetermined value, the first camera 10 and the second camera 20 are driven by the first driving unit 30 and the second driving unit 40, respectively, to increase the overlapping area. The control phase may end.

그러나, 상기 중첩되는 영역의 넓이가 소정 값 이하인 경우, 다시 제1 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 제1 벡터를 추정하는 단계(S253a) 및 제2 특징점들의 중심 좌표와 매칭점들의 중심 좌표 사이의 제2 벡터를 추정하는 단계(S253b)가 실행되고, 그 이후의 단계가 반복될 수 있다.However, when the area of the overlapping region is equal to or less than a predetermined value, the step of estimating the first vector between the center coordinates of the first feature points and the center coordinates of the matching points again (S253a) and the central coordinates of the second feature points and the matching points The step S253b of estimating the second vector between the center coordinates is executed, and the subsequent steps may be repeated.

도 6a 및 도 6b는 각각 제1 카메라와 제2 카메라가 각각 제1 구동부 및 제2 구동부에 의해 패닝 및/또는 틸팅되기 전의 카메라의 배치 및 중첩 영역을 개략적으로 나타낸 도면들이다.6A and 6B are views schematically illustrating the arrangement and overlapping regions of the cameras before the first and second cameras are panned and/or tilted by the first and second drivers, respectively.

도 6a 및 도 6b를 참조하면, 제1 카메라(10)와 제2 카메라(20)의 광축은 서로 실질적으로 평행하게 배치되어 있으며, 제1 카메라(10)에 의해 촬영된 영상(IF1)과 제2 카메라(20)에 의해 촬영된 영상(IF2)은 소정의 넓이를 갖는 중첩 영역(MA)을 가질 수 있다.Referring to FIGS. 6A and 6B , the optical axes of the first camera 10 and the second camera 20 are disposed substantially parallel to each other, and the image IF1 captured by the first camera 10 and the second camera 10 are 2 The image IF2 captured by the camera 20 may have an overlapping area MA having a predetermined area.

상기 중첩 영역(MA)의 넓이는 제1 카메라(10)와 제2 카메라(20)의 이격 거리가 증가함에 따라 더욱 감소할 수 있다. The area of the overlapping area MA may further decrease as the separation distance between the first camera 10 and the second camera 20 increases.

도 7a 및 도 7b는 각각 제1 카메라와 제2 카메라가 각각 제1 구동부 및 제2 구동부에 의해 패닝 및/또는 틸팅된 후의 카메라의 배치 및 중첩 영역을 개략적으로 나타낸 도면들이다.7A and 7B are diagrams schematically illustrating an arrangement and overlapping area of a camera after the first camera and the second camera are panned and/or tilted by the first and second drivers, respectively.

도 7a 및 도 7b를 참조하면, 도 7a는 제1 카메라(10) 및 제2 카메라(20)가 본 발명의 실시예들에 따른 카메라 제어 방법에 따라, 각각 제1 구동부(도 1, 30) 및 제2 구동부(도 1, 40)에 의해 소정의 각도(θ)만큼 패닝 및/또는 틸팅된 상태를 나타내며, 도 7b는 이러한 상태에서 촬영된 제1 카메라(10)에 의해 촬영된 영상(IF1)과 제2 카메라(20)에 의해 촬영된 영상(IF2)이 중첩된 영역(MA)을 나타낸다.7A and 7B , FIG. 7A shows a first camera 10 and a second camera 20 according to a camera control method according to embodiments of the present invention, respectively, a first driving unit ( FIGS. 1 and 30 ) and a state of being panned and/or tilted by a predetermined angle θ by the second driving unit ( FIGS. 1 and 40 ), and FIG. 7B is an image IF1 captured by the first camera 10 photographed in this state. ) and an image IF2 captured by the second camera 20 are overlapped with each other, indicating an area MA.

도 6b 및 도 7b를 비교하면, 중첩 영역(MA), 즉 서로 다른 카메라로부터 서로 복수 개의 정보를 얻을 수 있는 영역의 넓이가 현저히 증가했음을 확인할 수 있다. Comparing FIGS. 6B and 7B , it can be seen that the overlapping area MA, that is, the area in which a plurality of pieces of information can be obtained from different cameras, is significantly increased.

상기 중첩 영역(MA)에 대응되는 두 개의 영상들은 소정의 영상 처리 과정을 통해 정합이 수행될 수 있으며, 이를 통해 중첩 영역(MA)에 대하여 동시에 다양한 정보를 획득할 수 있다.The two images corresponding to the overlapping area MA may be matched through a predetermined image processing process, and through this, various information may be simultaneously acquired with respect to the overlapping area MA.

전술한 실시예들은, 카메라가 2개인 경우를 예시하였지만 본 발명은 이에 제한되지 않으며 카메라는 3개 이상일 수 있으며, 각각의 카메라는 다양한 종류의 동종 또는 이종의 카메라일 수 있다.Although the above-described embodiments exemplify a case in which there are two cameras, the present invention is not limited thereto, and the number of cameras may be three or more, and each camera may be a camera of various types of the same type or of a different type.

본 발명의 실시예들에 따른 카메라 제어 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The camera control method according to the embodiments of the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a computer system connected through a network, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

10: 제1 카메라 20: 제2 카메라
30: 제1 구동부 40: 제2 구동부
50: 제어부 60: 영상 처리부
10: first camera 20: second camera
30: first driving unit 40: second driving unit
50: control unit 60: image processing unit

Claims (6)

피사체를 촬영하는 제1 카메라;
상기 피사체를 촬영하며, 상기 제1 카메라와 소정 간격 이격되도록 배치된 제2 카메라;
상기 제1 카메라 및 상기 제2 카메라 각각에 대하여 패닝(panning) 및 틸팅(tilting) 중 적어도 하나를 수행하는 제1 구동부 및 제2 구동부; 및
상기 제1 구동부 및 상기 제2 구동부를 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 제1 카메라의 기 저장된 줌 트랙(zoom track) 정보로부터 상기 제1 카메라와 상기 피사체 사이의 거리를 추정하는 물체 거리 추정부;
상기 물체 거리 추정부에 의해 추정된 거리로부터, 상기 제1 카메라의 제1 각도를 추정하는 제1 각도 추정부;
상기 제1 카메라에 의해 촬영된 영상의 중심 좌표와, 상기 제1 카메라에 의해 촬영된 영상 중 상기 제2 카메라에 의해 촬영된 영상과 중첩되는 영역의 중심 좌표 사이의 벡터를 추정하는 제어 벡터 추정부;
상기 제1 카메라의 기 저장된 줌 트랙 정보로부터 화각을 추정하는 화각 추정부; 및
상기 제어 벡터 추정부에 의해 추정된 벡터 및 상기 화각 추정부에 의해 추정된 화각으로부터 제2 각도를 추정하는 제2 각도 추정부;를 포함하며,
상기 제2 각도는 하기의 식에 의해 결정되는 카메라 시스템.
<식>
θ2 = FOV×CV/Ct
여기서, FOV는 상기 화각, Cv는 벡터(V)에 대응되는 컬럼수, Ct는 제1 카메라에 의해 촬영된 영상 전체의 컬럼수를 나타낸다.
a first camera for photographing a subject;
a second camera photographing the subject and spaced apart from the first camera by a predetermined distance;
a first driving unit and a second driving unit performing at least one of panning and tilting with respect to each of the first camera and the second camera; and
a control unit for controlling the first driving unit and the second driving unit;
The control unit is
an object distance estimator for estimating a distance between the first camera and the subject from pre-stored zoom track information of the first camera;
a first angle estimator for estimating a first angle of the first camera from the distance estimated by the object distance estimator;
A control vector estimator for estimating a vector between the center coordinates of the image captured by the first camera and the center coordinates of a region overlapping the image captured by the second camera among the images captured by the first camera ;
an angle of view estimator for estimating an angle of view from pre-stored zoom track information of the first camera; and
a second angle estimator for estimating a second angle from the vector estimated by the control vector estimator and the angle of view estimated by the angle of view estimator;
The second angle is determined by the following equation.
<expression>
θ 2 = FOV×C V /C t
Here, FOV is the angle of view, C v is the number of columns corresponding to the vector V, and C t is the number of columns of the entire image captured by the first camera.
삭제delete 제1 항에 있어서,
상기 제1 카메라 및 상기 제2 카메라에 의해 촬영된 영상을 처리하는 영상 처리부를 더 포함하며,
상기 영상 처리부는,
상기 제1 카메라에 의해 촬영된 영상의 제1 특징점들을 검출하는 제1 특징점 검출부;
상기 제2 카메라에 의해 촬영된 영상의 제2 특징점들을 검출하는 제2 특징점 검출부;
상기 제1 특징점들의 중심 좌표를 추정하는 제1 특징점 중심 좌표 추정부;
상기 제1 특징점들과 상기 제2 특징점들이 중첩되는 매칭점들을 검출하는 매칭점 검출부; 및
상기 매칭점들의 중심 좌표를 추정하는 매칭점 중심 좌표 추정부;를 포함하며,
상기 제어 벡터 추정부는, 상기 제1 특징점들의 중심 좌표와 상기 매칭점들의 중심 좌표 사이의 벡터를 추정하는 카메라 시스템.
According to claim 1,
Further comprising an image processing unit for processing the image taken by the first camera and the second camera,
The image processing unit,
a first feature point detector for detecting first feature points of the image captured by the first camera;
a second feature point detector for detecting second feature points of the image captured by the second camera;
a first feature point center coordinate estimator for estimating center coordinates of the first feature points;
a matching point detection unit detecting matching points in which the first feature points and the second feature points overlap; and
and a matching point center coordinate estimator for estimating the center coordinates of the matching points.
The control vector estimator is configured to estimate a vector between the center coordinates of the first feature points and the center coordinates of the matching points.
제1 항 또는 제3 항에 있어서,
상기 제1 카메라는 상기 제1 구동부에 의해, 상기 제1 각도 추정부에 의해 추정된 상기 제1 각도와 상기 제2 각도 추정부에 의해 추정된 상기 제2 각도로부터 하기 식에 의해 계산된 각도만큼 패닝 및 틸팅 중 적어도 하나를 수행하는 카메라 시스템.
<식>
θ=a×θ1 + (1-a)×θ2
여기서, θ1은 제1 각도, θ2는 제2 각도, 및 a는 0이상 1이하의 상수를 나타낸다.
4. The method of claim 1 or 3,
The first camera is configured by the first driving unit by an angle calculated by the following equation from the first angle estimated by the first angle estimator and the second angle estimated by the second angle estimator. A camera system that performs at least one of panning and tilting.
<expression>
θ=a×θ 1 + (1-a)×θ 2
Here, θ 1 is a first angle, θ 2 is a second angle, and a is a constant of 0 or more and 1 or less.
제1 항 또는 제3 항에 있어서,
상기 제1 카메라 및 상기 제2 카메라는 각각 가시광 카메라(visible camera) 및 열상 카메라(thermal camera)인 카메라 시스템.
4. The method of claim 1 or 3,
The first camera and the second camera are a visible camera and a thermal camera, respectively.
카메라 시스템을 이용한 카메라 제어 방법에 있어서,
상기 카메라 시스템은, 피사체를 촬영하며 서로 소정 간격 이격되도록 배치된 제1 카메라 및 제2 카메라, 상기 제1 카메라 및 상기 제2 카메라 각각에 대하여 패닝 및 틸팅 중 적어도 하나를 수행하는 제1 구동부 및 제2 구동부를 포함하며,
상기 카메라 제어 방법은,
물체 거리 추정부에 의해, 상기 제1 카메라의 기 저장된 줌 트랙(zoom track) 정보로부터 상기 제1 카메라와 상기 피사체 사이의 거리를 추정하는 단계; 및
제1 각도 추정부에 의해, 상기 물체 거리 추정부에 의해 추정된 거리로부터 상기 제1 카메라의 제1 각도를 추정하는 단계;
제어 벡터 추정부에 의해, 상기 제1 카메라에 의해 촬영된 영상의 중심 좌표와, 상기 제1 카메라에 의해 촬영된 영상 중 상기 제2 카메라에 의해 촬영된 영상과 중첩되는 영역의 중심 좌표 사이의 벡터를 추정하는 단계;
화각 추정부에 의해, 상기 제1 카메라의 기 저장된 줌 트랙 정보로부터 화각을 추정하는 단계; 및
제2 각도 추정부에 의해, 상기 제어 벡터 추정부에 의해 추정된 벡터 및 상기 화각 추정부에 의해 추정된 화각으로부터 상기 제1 카메라의 제2 각도를 추정하는 단계;를 포함하며,
상기 제2각도는 하기의 식에 의해 결정되는 카메라 제어 방법.
<식>
θ2 = FOV×CV/Ct
여기서, FOV는 상기 화각, Cv는 벡터(V)에 대응되는 컬럼수, Ct는 제1 카메라에 의해 촬영된 영상 전체의 컬럼수를 나타낸다.
In the camera control method using the camera system,
The camera system includes a first camera and a second camera disposed to be spaced apart from each other by a predetermined distance while photographing a subject, a first driving unit and a second camera configured to perform at least one of panning and tilting for each of the first camera and the second camera 2 includes a drive,
The camera control method comprises:
estimating, by an object distance estimator, a distance between the first camera and the subject from pre-stored zoom track information of the first camera; and
estimating, by a first angle estimator, a first angle of the first camera from the distance estimated by the object distance estimator;
A vector between the center coordinates of the image captured by the first camera and the center coordinates of a region overlapping the image captured by the second camera among the images captured by the first camera by the control vector estimator estimating;
estimating, by an angle of view estimator, an angle of view from pre-stored zoom track information of the first camera; and
estimating, by a second angle estimator, a second angle of the first camera from the vector estimated by the control vector estimator and the angle of view estimated by the angle of view estimator;
The second angle is a camera control method determined by the following equation.
<expression>
θ 2 = FOV×C V /C t
Here, FOV is the angle of view, C v is the number of columns corresponding to the vector V, and C t is the number of columns of the entire image captured by the first camera.
KR1020140043683A 2014-04-11 2014-04-11 Camera system and camera controlling method KR102331534B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140043683A KR102331534B1 (en) 2014-04-11 2014-04-11 Camera system and camera controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140043683A KR102331534B1 (en) 2014-04-11 2014-04-11 Camera system and camera controlling method

Publications (2)

Publication Number Publication Date
KR20150117913A KR20150117913A (en) 2015-10-21
KR102331534B1 true KR102331534B1 (en) 2021-11-26

Family

ID=54400231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140043683A KR102331534B1 (en) 2014-04-11 2014-04-11 Camera system and camera controlling method

Country Status (1)

Country Link
KR (1) KR102331534B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102375570B1 (en) * 2020-09-04 2022-03-16 건국대학교 글로컬산학협력단 Apparatus and method for providing longterm care service

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030227555A1 (en) * 2002-06-06 2003-12-11 Hitachi, Ltd. Surveillance camera apparatus, surveillance camera system apparatus, and image-sensed picture masking method
JP2012075060A (en) * 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd Image processing device, and imaging device using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0767024A (en) * 1993-08-26 1995-03-10 Canon Inc Compound eye type image pickup device
EP1748378B1 (en) * 2005-07-26 2009-09-16 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
KR101524548B1 (en) * 2012-07-26 2015-06-02 삼성테크윈 주식회사 Apparatus and method for alignment of images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030227555A1 (en) * 2002-06-06 2003-12-11 Hitachi, Ltd. Surveillance camera apparatus, surveillance camera system apparatus, and image-sensed picture masking method
JP2012075060A (en) * 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd Image processing device, and imaging device using the same

Also Published As

Publication number Publication date
KR20150117913A (en) 2015-10-21

Similar Documents

Publication Publication Date Title
JP6273685B2 (en) Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
CN105979134B (en) Image processing apparatus, image processing method, and image processing system
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
JP6806188B2 (en) Information processing system, information processing method and program
US8928778B2 (en) Camera device, image processing system, image processing method and image processing program
CN108062763B (en) Target tracking method and device and storage medium
KR102144394B1 (en) Apparatus and method for alignment of images
KR20090062881A (en) A moving robot and a moving object detecting method thereof
US10127424B2 (en) Image processing apparatus, image processing method, and image processing system
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
JP2016178608A5 (en)
JP5968379B2 (en) Image processing apparatus and control method thereof
JP2017098613A (en) Imaging apparatus, its control method, and control program
KR102331534B1 (en) Camera system and camera controlling method
JP6577595B2 (en) Vehicle external recognition device
JP2018186397A (en) Information processing device, image monitoring system, information processing method, and program
KR102050418B1 (en) Apparatus and method for alignment of images
US20180150966A1 (en) System and method for estimating object size
CN106454066B (en) Image processing apparatus and control method thereof
JP6668740B2 (en) Road surface estimation device
US9563960B2 (en) Method for detecting foreground
JP2019009574A5 (en)
US12028619B2 (en) Image processing device and image processing method
JP6705486B2 (en) Object detection apparatus, system, method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant