KR101907657B1 - Apparatus securing exposure time of image sensor - Google Patents

Apparatus securing exposure time of image sensor Download PDF

Info

Publication number
KR101907657B1
KR101907657B1 KR1020180058428A KR20180058428A KR101907657B1 KR 101907657 B1 KR101907657 B1 KR 101907657B1 KR 1020180058428 A KR1020180058428 A KR 1020180058428A KR 20180058428 A KR20180058428 A KR 20180058428A KR 101907657 B1 KR101907657 B1 KR 101907657B1
Authority
KR
South Korea
Prior art keywords
exposure time
exposure
image sensor
angle
unit
Prior art date
Application number
KR1020180058428A
Other languages
Korean (ko)
Inventor
최원석
김희수
조영기
김재현
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020180058428A priority Critical patent/KR101907657B1/en
Application granted granted Critical
Publication of KR101907657B1 publication Critical patent/KR101907657B1/en

Links

Images

Classifications

    • H04N5/2353
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N5/23258
    • H04N5/335

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

An apparatus for securing the exposure time of an image sensor according to the present invention secures an exposure time for exposing the image sensor according to a measured exposure angle based on the attitude information of an apparatus for securing an exposure time sensed by using an attitude information sensor in order to solve a problem that an image sensor module becomes large, and a problem that it is difficult to ensure proper exposure time of the image sensor due to the change of light amount when a device having an image sensor to secure the exposure time of the image sensor moves suddenly. Accordingly, even if the posture of the apparatus having the image sensor is suddenly changed, the time of exposure of the image sensor to external light can be controlled in real time, and the brightness of an image can be adjusted. The apparatus includes an image sensor part, an image processing part, an exposure angle measuring part, and an exposure time obtaining part.

Description

이미지 센서의 노출시간 확보 장치 {APPARATUS SECURING EXPOSURE TIME OF IMAGE SENSOR}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an image sensor,

본 발명은 이미지 센서의 노출시간 확보 장치에 관한 것이다. 보다 상세하게는, 본 발명은 이미지 센서가 외부의 광에 노출되는 노출시간을 확보하는 이미지 센서의 노출시간 확보 장치에 관한 것이다.The present invention relates to an exposure time securing apparatus for an image sensor. More particularly, the present invention relates to an exposure time securing apparatus for an image sensor that secures exposure time for exposure of an image sensor to external light.

모든 카메라가 그렇듯이 외부의 영상 데이터를 획득하는 이미지 센서도 화각(Field of View, FOV)이 있다. 따라서, 이미지 센서로부터 외부를 바라볼 수 있는 화각이 무한대가 아니다.As with all cameras, an image sensor that acquires external image data also has a field of view (FOV). Therefore, the angle of view from the image sensor to the outside is not infinite.

비행체에 탑재된 이미지 센서로부터 표적이 포함된 영상 데이터를 획득하면서 전투 임무 수행을 하는 경우 비행체가 비행 중에 몸체를 회전시키거나 다른 곳으로 급 기동하면서 기존에 바라봤던 표적에서 다른 표적을 바라볼 수 있거나 갑작스럽게 해를 바라볼 수도 있다.If you perform combat missions while acquiring image data that includes a target from an image sensor mounted on the aircraft, the aircraft may rotate the body during flight or move to another location to view other targets from the target Suddenly I can look at the sun.

비행체가 지상 또는 상공에 있는 다양한 표적을 바라볼 경우 각각의 표적에서 반사되어 오는 광량이 다를 것이므로 각각의 표적에 해당하는 다양한 노출시간이 요구될 것이다. 노출시간은 입사되는 광으로부터 영상 데이터를 획득하기 위해 이미지 센서가 외부에서 입사되는 광으로부터 노출되는 시간을 나타낸다.If the aircraft is looking at various targets on the ground or over the ground, the amount of light reflected from each target will be different, so different exposure times corresponding to each target will be required. The exposure time represents the time during which the image sensor is exposed from the light incident from outside in order to acquire image data from the incident light.

비행체가 전투임무 수행 중 갑작스러운 비행 중에 급 기동을 할 경우 갑작스러운 광량의 변화로 인해서 이미지 센서의 적절한 노출시간 확보가 어려워 임무를 수행하기 어려운 문제가 있다. 따라서, 이미지 센서가 노출되면서 입사되는 광량이 급작스럽게 변하더라도 실시간으로 선명한 영상을 확보하는 기술의 필요성이 대두되고 있다.If the aircraft suddenly rushes during a combat mission, there is a problem that it is difficult to achieve the mission because it is difficult to secure the proper exposure time of the image sensor due to sudden light intensity change. Therefore, there is a need for a technique for ensuring a clear image in real time even if the amount of incident light suddenly changes while the image sensor is exposed.

최근에는 각각의 이미지 센서 모듈에 자동 노출 모드(Auto exposure mode)라고 해서 자동으로 노출시간을 조절해주는 회로를 내장하는 경우가 많지만 그만큼 이미지 센서 모듈이 커지게 되는 문제점이 있다.In recent years, each image sensor module is often equipped with a circuit for automatically controlling the exposure time in an auto exposure mode, but the image sensor module becomes large.

본 발명은 이미지 센서 모듈이 커지는 문제점을 해결하고, 비행체가 전투임무 수행 중 급 기동할 경우 광량의 변화로 인한 이미지 센서의 적절한 노출시간을 확보하기 어려운 문제점을 해결하도록 이미지 센서의 노출시간을 확보하는 장치의 자세정보를 기초로 이미지 센서로 입사되는 광의 노출각을 측정하여, 측정된 노출각에 따라 이미지 센서가 노출되는 노출시간을 실시간으로 확보하는 노출시간 확보 장치를 제공함에 있다.The present invention solves the problem that the image sensor module becomes large and secures the exposure time of the image sensor so as to solve the problem that it is difficult to secure a proper exposure time of the image sensor due to the change of the light amount when the air vehicle suddenly starts running during the combat mission The present invention provides an exposure time securing apparatus for measuring an exposure angle of light incident on an image sensor based on attitude information of the apparatus and securing an exposure time in which the image sensor is exposed according to the measured exposure angle in real time.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치는 상기 이미지 센서를 이용하여 영상 데이터를 획득하는 이미지 센서부; 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 영상 처리부; 자세정보 센서를 이용하여 센싱된 상기 노출시간 확보 장치의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 노출각 측정부; 및 상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 노출시간 획득부;를 포함할 수 있다.According to an aspect of the present invention, there is provided an exposure time securing apparatus for an image sensor, comprising: an image sensor unit for acquiring image data using the image sensor; An image processor for calculating a representative value from the pixels included in the image data obtained from the image sensor; An exposure angle measuring unit for measuring an exposure angle, which is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit, based on attitude information of the exposure time securing apparatus sensed using the attitude information sensor; And an exposure time acquiring unit for acquiring an exposure time, which is a time during which the image sensor unit is exposed to the light so that the calculated representative value becomes a predetermined data value, according to the measured exposure angle.

상기 노출각에 따라 획득된 노출시간을 저장하는 메모리;를 더 포함할 수 있다.And a memory for storing the exposure time acquired according to the exposure angle.

상기 노출각 측정부가 실시간으로 상기 노출각을 측정하도록 제어하고, 상기 노출시간 획득부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어하여, 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 제어부;를 더 포함할 수 있다.Wherein the control unit controls the exposure angle measuring unit to measure the exposure angle in real time and controls the exposure time acquiring unit to acquire an exposure time according to the exposure angle measured in real time so that the exposure time acquired according to the exposure angle stored in the memory And a controller for comparing the obtained exposure time with the exposure time measured in real time to update the exposure time stored in the memory.

상기 노출시간 확보 장치의 움직임에 따라 자세정보가 변경되는 경우, 상기 노출각 측정부가 상기 자세정보가 변경된 노출시간 확보 장치의 자세정보를 기초로 현재 노출각을 측정하도록 제어하고, 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 제어부;를 더 포함할 수 있다.When the attitude information is changed according to the movement of the exposure time securing device, the exposure angle measuring unit controls to measure the current exposure angle on the basis of the attitude information of the exposure time securing apparatus in which the attitude information is changed, A control unit for determining an exposure angle corresponding to the currently measured exposure angle, loading an exposure time corresponding to the determined exposure angle in the memory, and controlling the exposure of the image sensor unit to the light during the loaded exposure time; As shown in FIG.

상기 대표값은 상기 이미지 센서로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값일 수 있다.The representative value may be an average value of pixel values of pixels included in the image data obtained from the image sensor and operating according to the incident light.

상기 기 설정된 데이터 값은 상기 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다.The predetermined data value may be an intermediate value indicating a number corresponding to the middle of the number of colors that the pixels included in the image data can express.

상기 노출각 측정부는 적어도 두 개의 자세정보 센서를 통해 상기 노출시간 확보 장치의 자세에 대한 측정 데이터를 수집하는 복수 개의 자세정보 센서부; 상기 수집된 측정 데이터를 융합 및 가공하여 상기 노출시간 확보 장치의 자세에 대한 상태변수를 구하는 자세정보 센서 융합부; 상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 노출시간 확보 장치의 자세에 대한 상태정보를 추정하는 필터부; 및 상기 추정된 상태정보에 기반하여 상기 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부;를 포함할 수 있다.Wherein the exposure angle measuring unit comprises: a plurality of posture information sensor units for collecting measurement data on the posture of the exposure time securing apparatus through at least two posture information sensors; An attitude information sensor fusion unit for acquiring state variables for the attitude of the exposure time securing device by fusing and processing the collected measurement data; A filter unit for estimating state information on the attitude of the exposure time securing apparatus by applying a filter for estimating the state of the nonlinear dynamic system to the state variable; And an attitude information calculation unit for calculating attitude information according to motion of the exposure time securing apparatus in real time based on the estimated state information.

상기 복수 개의 자세정보 센서부는 3축 가속도계 센서 1개로부터 상기 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 제1 자세정보 센서부; 및 2축 자이로 센서 2개로부터 상기 노출시간 확보 장치의 각속도 값(p, q, r)을 수집하는 제2 자세정보 센서부;를 포함할 수 있다.Wherein the plurality of attitude information sensor units comprises: a first attitude information sensor unit for collecting acceleration values (X, Y, Z) of the X-axis, Y-axis and Z-axis of the exposure time securing device from one three-axis accelerometer sensor; And a second attitude information sensor unit for collecting the angular velocity values (p, q, r) of the exposure time securing device from two biaxial gyro sensors.

상기 자세정보 센서 융합부는 상기 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 상기 노출시간 확보 장치의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구할 수 있다.Wherein the posture information sensor fusion unit obtains a change rate of the Euler angle of the exposure time securing device using a relational expression between the angular velocity of the exposure time securing device and the Euler angle, Wherein the Euler angle is defined by the rotation angle pie (?) With respect to the X-axis direction, the rotation angle theta (?) With respect to the Y-axis direction, and the rotation angle? Can be obtained as a state variable.

상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 노출시간 확보 장치의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고, 상기 노출각은 상기 회전각 세타(θ)일 수 있다.Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis are all vertical, the Z-axis is perpendicular to the ground, and the rotation- (Pitch angle) is 0 degree, and the exposure angle may be the rotation angle theta ([theta]).

상기 필터부는 상기 상태변수에 확장 칼만 필터를 적용하여, 상기 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 측정하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 이미지 센서부의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.Wherein the filter unit applies an extended Kalman filter to the state variable to measure a predicted value and a predicted error covariance of the state information of the exposure time securing apparatus, calculates a Kalman gain, and uses the Kalman gain and the predicted estimated value The state information of the image sensor unit may be estimated, and the error covariance may be obtained using the Kalman gain and the prediction error covariance.

상기 필터부는 상기 센서 측정값 중 상기 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 필터를 적용하여 상기 노출시간 확보 장치의 상태정보를 추정하는 과정을 반복할 수 있다.Wherein the filter unit updates the pie and theta obtained from the three-axis accelerometer among the sensor measurement values, obtains the state variable according to the update of the sensor measurement value, It is possible to repeat the process of estimating the state information of the secure device.

본 발명의 일 실시 예에 따라 이미지 센서의 노출시간을 확보하도록 이미지 센서가 탑재된 장치의 자세가 급작스럽게 변경되어도 이미지 센서가 외부의 광에 노출되는 시간을 실시간으로 제어할 수 있다. 따라서, 별도의 하드웨어 추가 없이 실시간으로 영상이 선명하도록 영상의 밝기를 조절할 수 있다.According to an embodiment of the present invention, even when the posture of the apparatus on which the image sensor is mounted is suddenly changed to secure the exposure time of the image sensor, the time during which the image sensor is exposed to external light can be controlled in real time. Therefore, the brightness of the image can be adjusted so that the image is vivid in real time without adding any additional hardware.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.

도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.
도 2a는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치의 구성을 개략적으로 도시한 블록도이다.
도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.
도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.
도 3은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치가 노출각에 따라 노출시간을 확보하는 구체적인 방법을 나타낸 것이다.
FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.
FIG. 2A is a block diagram schematically showing the configuration of an exposure time securing apparatus for an image sensor according to an embodiment of the present invention.
FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.
2C is a graph illustrating exposure time according to an embodiment of the present invention.
3 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in the exposure time securing apparatus of an image sensor according to an embodiment of the present invention.
4A and 4B illustrate a specific method for securing an exposure time according to an exposure angle of an exposure time securing apparatus of an image sensor according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms " first ", " second ", and the like in the present specification are for distinguishing one element from another element, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In the present description, the identification codes (e.g., a, b, c, etc.) in each step are used for convenience of explanation, and the identification codes do not describe the order of each step, Unless you specify a specific order, it can happen differently from the order specified. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.As used herein, the expressions " have, " " comprise, " " comprise, " or " comprise may " refer to the presence of a feature (e.g., a numerical value, a function, And does not exclude the presence of additional features.

또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.In addition, the term 'portion' as used herein refers to a hardware component such as software or a field-programmable gate array (FPGA) or an ASIC, and 'part' performs certain roles. However, 'part' is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, by way of example, 'parts' may refer to components such as software components, object-oriented software components, class components and task components, and processes, functions, , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data structures and variables. The functions provided in the components and components may be further combined with a smaller number of components and components or further components and components.

도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.

도 1a 및 1b를 참조하면, 이미지 센서의 종류 중 하나인 CMOS 센서 및 CMOS 센서가 외부에 노출되면서 CMOS 센서에 포함된 픽셀이 영상을 리드아웃 하는 것을 나타낸 것으로, CMOS 센서는 여러 개의 픽셀을 포함할 수 있다. CMOS 센서가 햇빛 또는 물체에 반사된 빛에 노출되면서 각각의 픽셀은 빛에 노출되면서 획득한 값을 아날로그 디지털 변환기(ADC)를 통해 디지털 값으로 출력하여 영상 데이터를 리드아웃 할 수 있다.Referring to FIGS. 1A and 1B, a CMOS sensor and a CMOS sensor, which are one type of image sensor, are exposed to the outside, and pixels included in the CMOS sensor read out an image. The CMOS sensor includes a plurality of pixels . As the CMOS sensor is exposed to sunlight or reflected light from an object, each pixel can be exposed to light and output to a digital value via an analog to digital converter (ADC) to read out the image data.

이미지 센서는 광 에너지를 전기 에너지로 전환하여 디스플레이로 영상을 표시하거나 저장장치에 저장할 수 있게 하는 반도체이다. 일반적으로 사용되는 이미지 센서의 종류로는 전하결합소자(Charge Coupled Device, CCD), 상보성 금속산화막 반도체(CMOS), 밀착형 영상 센서(Contact Image Sensor, CIS) 등의 종류가 있다. Image sensors are semiconductors that convert light energy into electrical energy and display it on a display or store it in a storage device. There are various types of image sensors generally used, such as a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), a contact image sensor (CIS), and the like.

CCD 이미지 센서는 빛을 전하로 변환시켜 화상을 얻어내는 센서로 여러 개의 축전기(Condenser)가 쌍으로 상호 연결되어 있는 회로로 구성되어 있고, 회로 내의 각 축전기는 자신 주변의 축전지로 축적된 전하를 전달한다. 구체적으로 CCD 칩은 많은 광 다이오드들이 모여 있는 칩으로 CCD 이미지 센서는 각각의 광 다이오드에 광이 비추어지면 광량에 따라 전자가 생기고 해당 광 다이오드 각각의 광의 밝기를 나타내는 전자량을 재구성하여 화면을 이루는 이미지 정보를 생성한다.A CCD image sensor is a sensor that converts light into electric charge to acquire an image. It is composed of a circuit in which a plurality of condensers are interconnected in pairs. Each capacitor in the circuit carries charge accumulated in its surrounding accumulator do. Specifically, a CCD chip is a chip in which a lot of photodiodes are gathered. When a light is irradiated to each photodiode, the CCD image sensor generates electrons according to the amount of light, reconstructs an amount of electrons representing the brightness of each of the photodiodes, Information.

CCD 이미지 센서와 동일하게 광 다이오드를 사용하지만 제조 과정과 신호를 읽는 방법이 다른 CMOS 이미지 센서는 CMOS를 이용한 고체 촬상 소자이다. CMOS 이미지 센서는 소형으로 제작이 가능하며 저전력이므로 현재 핸드폰 등 여러분야 에서 많이 사용되고 있다. CMOS 이미지 센서는 단위 셀마다 증폭기를 가지고 있으며 광 변환된 전기 신호의 읽기에 의해서 전기 노이즈의 발생이 적어지는 특징이 있다. CMOS 이미지 센서 광에 의해 발생한 전자를 각 화소 내에서 전압으로 변환한 후에 여러 CMOS 스위치를 통해 출력하는 센서로 CMOS 이미지 센서는 여러 개의 픽셀로 이루어져 있으며 CMOS 이미지 센서를 구성하는 픽셀은 1개의 포토 다이오드와 4개의 트랜지스터로 구성될 수 있다.The CMOS image sensor, which uses a photodiode in the same way as a CCD image sensor, but has different manufacturing methods and methods for reading signals, is a CMOS solid-state image sensor. The CMOS image sensor can be manufactured in a small size and has low power, so it is widely used in various fields such as mobile phones. The CMOS image sensor has an amplifier for each unit cell and has a feature that electric noise is less generated by reading the photo-converted electric signal. CMOS image sensor A CMOS image sensor is composed of several pixels. The pixels constituting the CMOS image sensor are composed of one photodiode and one pixel. And may be composed of four transistors.

도 1c를 참조하면, CMOS 이미지 센서는 물체에 반사된 빛에 노출되고 프레임 오버헤드 시간(Frame Overhead Time, FOT) 이후에 노출된 시간 동안 모은 아날로그 영상을 아날로그디지털 변환기 (analog-digital converter, ADC)를 통해서 디지털로 표현된 영상 데이터를 리드아웃(READOUT) 할 수 있다. 즉, CMOS 센서는 영상 데이터를 리드아웃 하는 동시에 CMOS 센서는 외부의 광에 노출되고 다음에 또 읽을 수 있게 된다.Referring to FIG. 1C, the CMOS image sensor is an analog-to-digital converter (ADC) which is exposed to light reflected from an object and collected during a period of time after a frame overhead time (FOT) It is possible to READOUT the image data expressed in digital form. That is, the CMOS sensor can read out the image data, and the CMOS sensor can be exposed to external light and read out again.

하지만 여기서 CMOS 센서가 한 프레임에 대한 영상 데이터를 읽고 그 값을 분석하여 적절한 노출시간을 구한 후 적용하기 까지는 약 100ms 이상의 지연이 발생한다. 즉, 100ms 이전의 영상 데이터를 분석하여 나온 노출시간 동안 CMOS 센서를 광에 노출시켜 영상을 얻을 수 있지만, 일반적으로 CMOS 센서가 획득하는 영상 데이터는 정지 영상이 아닌 동영상과 같이 실시간으로 변화하는 영상으로 100ms 이상의 지연이 발생하였으므로 분석된 노출시간을 현재 영상에 적용하는 것은 적절하지 않다.However, here, the CMOS sensor reads the image data for one frame, analyzes the value of the image data, and determines a proper exposure time. In other words, the image can be obtained by exposing the CMOS sensor to light during the exposure time analyzed by the image data of 100 ms or earlier. However, in general, the image data acquired by the CMOS sensor is a real- Since a delay of more than 100 ms has occurred, it is not appropriate to apply the analyzed exposure time to the current image.

도 1d를 참조하면, 외부에서 입사되는 광으로부터 CMOS 센서가 오래도록 노출되는 경우 CMOS 센서에 포함된 픽셀 값들은 포화(saturation)될 수 있고, 포화된 픽셀 값들에 의해 전체적으로 영상 데이터는 밝게 나오게 된다. 구체적으로 영상 데이터에서 밝은 부분들은 똑같이 밝아져 조금 밝았던 부분이나 많이 밝았던 부분에 대한 구분이 어려워진다.Referring to FIG. 1D, when the CMOS sensor is exposed for a long time from light incident from the outside, the pixel values included in the CMOS sensor may be saturated, and the image data may be entirely brightened by the saturated pixel values. Specifically, the bright portions of the image data are equally bright, making it difficult to distinguish between a portion that is slightly bright or a portion that is bright.

따라서, 비행체가 전투 임무 수행 중 급작스럽게 회전하는 경우 해를 바라볼 수도 있고, 이 경우 CMOS 센서에 입사되는 광량이 많아 이미지 센서에 포함된 픽셀 값들은 바로 포화되어서 영상이 더욱 하얗게 보일 수 있다.In this case, since the amount of light incident on the CMOS sensor is large, the pixel values included in the image sensor are saturated and the image may appear more whiter.

이에 비해 도 1e를 참조하면, 상술한 도 1d와 반대로 외부에서 입사되는 광으로부터 이미지 센서가 짧게 노출된 경우 영상 데이터에서 조금 어두웠던 부분과 많이 어두웠던 부분에 대한 구분이 어려워진다.On the other hand, referring to FIG. 1E, in contrast to FIG. 1D, when the image sensor is briefly exposed from the light incident from the outside, it is difficult to distinguish between a part that is slightly dark and a part that is dark.

따라서, 비행체가 급작스럽게 회전하면서 광이 비치지 않는 어두운 곳을 바라보는 경우, CMOS 센서에 입사되는 광량이 적어 이미지 센서에 포함된 픽셀 값들은 더욱 어둡게 보일 수 있다.Accordingly, when the airplane suddenly rotates and looks at a dark place where no light is shining, the amount of light incident on the CMOS sensor is small, so that pixel values included in the image sensor may appear darker.

도 2a는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치의 구성을 개략적으로 도시한 블록도이다.FIG. 2A is a block diagram schematically showing the configuration of an exposure time securing apparatus for an image sensor according to an embodiment of the present invention.

도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.

도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.2C is a graph illustrating exposure time according to an embodiment of the present invention.

도 2a를 참조하면, 이미지 센서의 노출시간 확보 장치(200)는 이미지 센서부(210), 노출각 측정부(230), 영상 처리부(220), 노출시간 획득부(240), 메모리(250) 및 제어부(260)를 포함할 수 있다.2A, an exposure time securing apparatus 200 for an image sensor includes an image sensor unit 210, an exposure angle measuring unit 230, an image processing unit 220, an exposure time obtaining unit 240, a memory 250, And a control unit 260.

본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치(200)는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론, 로봇 또는 미사일일 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 상술한 이미지 센서의 노출시간을 확보하는 장치(200)는 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 장치에 적용될 수 있다.The apparatus 200 for securing the exposure time of the image sensor according to an exemplary embodiment of the present invention may be a drone, a robot, or a missile, which is an unmanned aerial vehicle for acquiring images using an image sensor. However, the present invention is not limited thereto. The apparatus 200 for securing the exposure time of the image sensor described above may be configured to acquire images using an image sensor while moving It can be applied to all devices.

또한, 본 발명의 또 다른 일 실시 예에 따른 이미지 센서의 노출시간을 확보하는 장치(200)는 무인 비행체인 드론, 로봇 또는 미사일과 같이 움직임을 가지는 물체의 외부에 장착될 수도 있다.In addition, the apparatus 200 for securing the exposure time of the image sensor according to another embodiment of the present invention may be mounted on the outside of a moving object such as a drone, a robot, or a missile, which is an unmanned aerial vehicle.

이미지 센서부(210)에 포함된 이미지 센서는 외부의 광에 노출되어 이미지 센서로 광이 입사되면서 이미지 센서부(210)는 입사된 광으로부터 영상 데이터를 획득할 수 있다.The image sensor included in the image sensor unit 210 is exposed to external light, and light is incident on the image sensor 210, so that the image sensor unit 210 can acquire image data from the incident light.

본 발명의 일 실시 예에 따른 이미지 센서부(210)는 상술한 CCD, CMOS CIS와 같은 이미지 센서가 사용될 수 있으며, 상술한 이미지 센서부(210)가 해로부터 직접적으로 들어오는 광 또는 물체로부터 반사된 광에 노출되는 경우 이미지 센서부(210)에 포함된 전처리부가 이미지 센서부(210)에 포함된 각각의 픽셀로 입사되는 광을 전기 신호로 변환하고, 변환된 전기 신호를 증폭 및 압축시켜 전처리할 수 있다. 또한, 이미지 센서부(210)에 포함된 아날로그 디지털 변환부가 전처리된 아날로그 신호를 디지털 신호로 변환할 수 있다. 따라서, 본 발명의 일 실시 예에 따라 이미지 센서부(210)로부터 획득되며 픽셀의 값으로 이루어진 픽셀의 집합인 영상 데이터에 포함된 각각의 픽셀은 8BIT, 10BIT, 12BIT 등과 같은 디지털 값으로 표현될 수 있다.The image sensor unit 210 according to an exemplary embodiment of the present invention may be an image sensor such as the CCD or the CMOS CIS described above. The image sensor unit 210 may be configured to reflect light or an object When exposed to light, the preprocessing unit included in the image sensor unit 210 converts the light incident on each pixel included in the image sensor unit 210 into an electrical signal, amplifies and compresses the converted electrical signal, and preprocesses . In addition, the analog-to-digital converter included in the image sensor unit 210 may convert the preprocessed analog signal into a digital signal. Therefore, each pixel included in the image data, which is a set of pixels obtained from the image sensor unit 210 and composed of pixel values, according to an embodiment of the present invention, can be represented by digital values such as 8BIT, 10BIT, 12BIT, have.

영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출할 수 있다.The image processing unit 220 may calculate a representative value from the pixels included in the image data obtained from the image sensor unit 210.

도 2b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서부(210)와 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터를 낮은 전압 차분 신호(Low-voltage differential signaling, LVDS)로 수신할 수 있다. 구체적으로 도 2b는 영상 처리부(220)가 낮은 전압 차분 신호를 이용하여 각각 8BIT, 10BIT 및 12BIT의 픽셀 데이터를 수신하는 것을 나타낸 것이다.2B, the image sensor unit 210 and the image processing unit 220 according to an exemplary embodiment of the present invention may convert image data obtained from the image sensor unit 210 into low-voltage differential signaling LVDS). Specifically, FIG. 2B shows that the image processing unit 220 receives 8-bit, 10-bit, and 12-bit pixel data using a low voltage difference signal, respectively.

LVDS로 신호를 전송하는 방법은 디지털 정보를 구리선을 통해 고속 전송하기 위해 송신측에서 서로 다른 2개의 낮은 전압을 전송하면 수신측에서 전송된 2개의 전압 차이를 비교하여 영상 데이터를 수신하는 방법으로, 본 발명의 일 실시 예에 따르면 이미지 센서부(210)는 서로 다른 2개의 낮은 전압을 전송하고, 영상 처리부(220)에서 2개의 전압 차이를 비교하여 노이즈를 제거시킨 영상 데이터를 고속으로 받을 수 있다.A method of transmitting signals by LVDS is a method of receiving image data by comparing two voltage differences transmitted from a receiving side by transmitting two different low voltages at a transmitting side in order to transmit digital information at high speed through a copper line, According to an embodiment of the present invention, the image sensor unit 210 may transmit two different low voltages, and may compare the two voltage differences in the image processing unit 220 to receive image data with noise removed at a high speed .

따라서, 본 발명의 일 실시 예에 따라 영상 처리부(220)가 LVDS를 이용하여 이미지 센서부(210)로부터 영상 데이터를 전송 받는 경우 영상 데이터를 빠르게 전송 받을 수 있으며, 낮은 전압 신호를 이용하므로 전력 소비가 감소되며, 차분 신호를 이용하므로 노이즈가 제거된 영상 데이터를 전송 받을 수 있는 효과가 있다.Accordingly, when the image processing unit 220 receives the image data from the image sensor unit 210 using the LVDS according to an embodiment of the present invention, the image data can be received quickly and the low voltage signal is used, And since the difference signal is used, the noise-eliminated image data can be received.

다시 도 2a를 참조하면, 본 발명의 일 실시 예에 따른 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 통계적으로 산출될 수 있는 모든 값을 포함하는 대표값을 산출할 수 있다.Referring again to FIG. 2A, the image processing unit 220 according to an exemplary embodiment of the present invention may include a representative (representative) including all values that can be statistically calculated from the pixels included in the image data acquired from the image sensor unit 210 Value can be calculated.

본 발명의 또 다른 일 실시 예에 따른 대표값은 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들 중 이미지 센서부(210)에 포함된 이미지 센서로 광이 입사됨에 따라 영상 데이터를 표현하도록 동작이 가능한 픽셀들로부터 결정된 영상 밝기의 평균값일 수 있다. 구체적으로 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함되며 디지털 값으로 변환된 픽셀값들을 리드할 수 있고, 리드 된 픽셀값들을 연산 처리하여 평균값을 결정할 수 있다. 상술한 리드 된 픽셀값들은 영상 데이터를 표현하도록 동작 가능한 픽셀값들만 리드 될 수 있으나 이에 한정되는 것은 아니며 다양한 조합으로 픽셀값들을 리드할 수 있다.The representative value according to another exemplary embodiment of the present invention is a representative value of the image data of the pixels included in the image data obtained from the image sensor unit 210 as the light is incident on the image sensor included in the image sensor unit 210 May be an average value of the image brightness determined from the pixels operable to represent the image. Specifically, the image processing unit 220 can read the pixel values converted into the digital values included in the image data obtained from the image sensor unit 210, and process the read pixel values to determine an average value. The read pixel values described above may be read only in pixel values that are operable to represent image data, but are not limited thereto and may read pixel values in various combinations.

노출각 측정부(230)는 자세정보 센서를 이용하여 센싱된 이미지 센서가 탑재된 이미지 센서의 노출시간을 확보하는 장치의 자세정보를 기초로 기 설정된 기준 방향 및 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다.The exposure angle measuring unit 230 measures an angle between the predetermined reference direction and the direction of light incident on the image sensor unit based on the attitude information of the apparatus for securing the exposure time of the image sensor mounted with the sensed image sensor using the attitude information sensor. Can be measured.

노출각 측정부(230)가 노출각을 측정하는 구체적인 방법은 도 3에서 후술하기로 한다. A specific method by which the exposure angle measuring unit 230 measures the exposure angle will be described later with reference to FIG.

노출시간 획득부(240)는 영상 처리부(220)에서 산출된 대표값이 기 설정된 데이터 값이 되도록 이미지 센서부(210)가 광에 노출되는 시간인 노출시간을 노출각 측정부(230)에서 측정된 노출각에 따라 획득할 수 있다.The exposure time obtaining unit 240 measures an exposure time which is a time when the image sensor unit 210 is exposed to light so that the representative value calculated by the image processing unit 220 becomes a preset data value, Can be obtained according to the exposure angle.

기 설정된 데이터 값은 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다. 구체적으로, 본 발명의 일 실시 예에 따라 이미지 센서부(210)로부터 획득된 영상 데이터의 크기는 영상 크기가 640 X 480일 수 있고, 영상 크기가 640 X 480인 경우 픽셀의 개수는 307200개 이며, 각각의 픽셀이 12BIT인 경우일 수 있다. 픽셀이 12BIT인 경우 픽셀은 4096가지(=212개)의 색을 표현할 수 있으며, 상술한 중간값은 2048일 수 있으며, 2048에 근접한 값일 수도 있다. The predetermined data value may be an intermediate value indicating the number of the pixels included in the image data obtained from the image sensor unit 210, the number of which corresponds to the middle of the number of colors. More specifically, according to an embodiment of the present invention, the size of the image data obtained from the image sensor unit 210 may be 640 X 480, and the number of pixels is 307200 when the image size is 640 X 480 , And each pixel is 12 bits. If the pixel is 12 bits, the pixel can represent 4096 (= 212) colors, and the above-mentioned intermediate value may be 2048, or a value close to 2048. [

도 2c를 참조하면, 도 2c는 본 발명의 일 실시 예에 따라 상술한 이미지 센서부(210)로부터 획득된 영상 크기가 640 X 480이고, 각각의 픽셀이 12BIT인 경우 총 픽셀들로부터 결정된 영상 밝기의 평균값과 노출시간의 관계를 그래프로 나타낸 것으로 상술한 평균값이 중간값인 2048이 되도록 하는 노출시간은 33ms이다. 따라서, 노출시간 획득부(240)는 영상 처리부(220)에서 산출된 평균값이 기 설정된 데이터 값인 2048이 되도록 만드는 노출시간 33ms를 노출각 측정부(230)에서 측정된 노출각에 따라 획득할 수 있다. 단, 상술한 영상 크기 및 픽셀의 BIT는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 영상의 크기 및 픽셀의 개수일 수 있다.Referring to FIG. 2C, FIG. 2C is a diagram illustrating an example of a case where an image size obtained from the image sensor unit 210 according to an exemplary embodiment of the present invention is 640 X 480 and each pixel is 12 bits, And the exposure time is 20 ms, which is the median value. The exposure time is 33 ms. Accordingly, the exposure time acquisition unit 240 may acquire the exposure time 33 ms to make the average value calculated by the image processing unit 220 2048, which is the predetermined data value, to be 33 ms according to the exposure angle measured by the exposure angle measurement unit 230 . However, the above-described image size and the BIT of the pixels are examples for explaining one embodiment of the present invention, but the present invention is not limited thereto and may be various image sizes and the number of pixels.

다시 도 2a를 참조하면, 메모리(250)는 노출시간 획득부(240)에서 노출각에 따라 획득된 노출시간을 저장할 수 있다.Referring again to FIG. 2A, the memory 250 may store the exposure time acquired in the exposure time acquiring unit 240 according to the exposure angle.

본 발명의 일 실시 예에 따른 제어부(260)는 한 프레임의 영상 데이터에 포함된 픽셀들의 밝기 값을 실시간으로 계속해서 더하고 평균값을 내도록 영상 처리부(220)를 제어할 수 있다.The controller 260 according to an exemplary embodiment of the present invention may control the image processing unit 220 to continuously add brightness values of pixels included in one frame of image data and to provide an average value.

제어부(260)는 노출각 측정부(230)가 실시간으로 기 설정된 기준 방향 및 이미지 센서부(210)로 입사되는 광의 방향 간의 각도인 노출각을 측정하도록 제어할 수 있고, 노출시간 획득부(240)가 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어할 수 있다.The control unit 260 may control the exposure angle measuring unit 230 to measure an exposure angle which is an angle between a preset reference direction and a direction of light incident on the image sensor unit 210, Can be controlled to obtain the exposure time according to the exposure angle measured in real time.

또한, 제어부(260)는 노출시간 획득부(240)가 영상 밝기의 평균값을 계속해서 데이터의 중간값에 유지할 수 있도록 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어할 수 있다.The control unit 260 may control the exposure time acquiring unit 240 to acquire the exposure time according to the exposure angle measured in real time so that the average value of the image brightness can be continuously maintained at the intermediate value of the data.

제어부(260)는 메모리(250)에 저장된 노출각에 따라 획득된 노출시간과 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교할 수 있으며, 비교 결과 메모리(250)에 저장된 노출각과 실시간으로 측정된 노출각이 동일하지만 노출시간이 다른 경우 제어부(260)는 메모리(250)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.The control unit 260 can compare the exposure time acquired according to the exposure angle stored in the memory 250 and the exposure time acquired according to the exposure angle measured in real time, The control unit 260 can update the exposure time stored in the memory 250 to the exposure time measured in real time.

본 발명의 일 실시 예에 따른 제어부(260)는 동기식 시리얼 통신을 통해 메모리(250)에 저장된 노출시간을 실시간으로 업데이트 할 수 있다. 동기식 시리얼 통신은 데이터를 보낼 때 데이터가 전달된다고 알려주는 별도의 클럭(clock) 라인을 사용하는 방법으로 클럭 라인을 통신 참여자가 공유함으로써 데이터 라인으로 언제 데이터가 들어오는지 알 수 있도록 해주는 방법이다. 동기식 통신 방법의 종류로는 I2C, SPI(Serial Peripheral Interface) 통신이 있으며, SPI(Serial Periphal Interface) 통신이란 직렬(Serial)로 데이터 통신을 수행함으로써 임의의 IC에 특정한 정보를 전달하고, 그 IC의 정보를 알 수 있도록 하는 일종의 통신 프로토콜이다.The controller 260 according to an embodiment of the present invention can update the exposure time stored in the memory 250 in real time through the synchronous serial communication. Synchronous serial communication is a method of using a separate clock line to indicate that data is transferred when data is transmitted, so that the communication partner can share the clock line to know when data is coming into the data line. I2C, SPI (Serial Peripheral Interface) communication is a kind of synchronous communication method, and SPI (Serial Peripheral Interface) communication is a serial communication of data, It is a kind of communication protocol that allows information to be known.

따라서, 본 발명의 일 실시 예에 따르면 제어부(260)는 SPI 통신을 통해 메모리(250)에 저장된 노출시간을 실시간으로 업데이트 할 수 있으나 이에 한정되는 것은 아니며 다양한 통신 방법에 의해 제어부(260)는 메모리(250)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.According to an embodiment of the present invention, the control unit 260 may update the exposure time stored in the memory 250 in real time through the SPI communication, but the present invention is not limited thereto. It is possible to update the exposure time stored in the storage unit 250 with the exposure time measured in real time.

또한, 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서의 노출시간 확보 장치(200)가 움직이면서 이미지 센서가 탑재된 이미지 센서의 노출시간을 확보하는 장치(200)의 자세정보가 갑작스럽게 변경되는 경우, 제어부(260)는 노출각 측정부(230)가 상술한 자세정보가 변경된 이미지 센서가 탑재된 노출시간 확보 장치(200)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부(260)는 메모리(250)에 저장된 노출각 중 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있고, 제어부(260)는 결정된 노출각에 따른 노출시간을 메모리(250)에서 로드할 수 있다. 또한, 제어부(260)는 메모리(250)로부터 로드 된 노출시간 동안 이미지 센서부(210)가 광에 노출되도록 제어할 수 있다.According to another embodiment of the present invention, when the device 200 securing the exposure time of the image sensor mounted with the image sensor is suddenly changed as the exposure time securing device 200 of the image sensor moves , The control unit 260 can control the exposure angle measuring unit 230 to measure the current exposure angle based on the posture information of the exposure time securing apparatus 200 on which the image sensor with the above described posture information changed is mounted. The control unit 260 may determine the exposure angle corresponding to the measured exposure angle while changing the posture information among the exposure angles stored in the memory 250. The controller 260 may control the exposure time corresponding to the determined exposure angle to the memory 250, Can be loaded. In addition, the controller 260 may control the image sensor unit 210 to be exposed to light during the exposure time loaded from the memory 250.

도 3은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.3 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in the exposure time securing apparatus of an image sensor according to an embodiment of the present invention.

도 3을 참조하면, 노출각 측정부(230)는 복수 개의 자세정보 센서부(231), 자세정보 센서 융합부(232), 필터부(233) 및 자세정보 산출부(234)를 포함할 수 있다.3, the exposure angle measuring unit 230 may include a plurality of attitude information sensor units 231, an attitude information sensor fusion unit 232, a filter unit 233, and an attitude information calculating unit 234 have.

복수 개의 자세정보 센서부(231)는 적어도 두 개의 자세정보 센서를 통해 이미지 센서를 탑재한 이미지 센서의 노출시간을 확보하는 장치에 대한 측정 데이터를 수집할 수 있다.The plurality of posture information sensor units 231 can collect measurement data for an apparatus that secures the exposure time of the image sensor on which the image sensor is mounted through at least two posture information sensors.

본 발명의 일 실시 예에서 이미지 센서의 노출시간을 확보하는 장치는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론, 로봇 또는 미사일일 수 있으며 본 명세서에서는 군사 상황에서 적용되는 드론을 예로 들었으나 이에 한정하는 것은 아니며 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 다양한 장치에 적용될 수 있다.In an embodiment of the present invention, the apparatus for securing the exposure time of the image sensor may be a drone, a robot, or a missile, which is an unmanned aerial vehicle for acquiring images using an image sensor. In the present specification, The present invention is not limited thereto and can be applied to various apparatuses that acquire images using an image sensor while moving.

본 발명의 일 실시 예에 따른 복수 개의 자세정보 센서부(231)는 제1 자세정보 센서부(231a) 및 제2 자세정보 센서부(231b)를 포함할 수 있으나, 이에 한정되는 것은 아니며 자세정보 센서부의 개수는 2개 보다 더 많을 수 있다.The plurality of attitude information sensor units 231 may include a first attitude information sensor unit 231a and a second attitude information sensor unit 231b according to an embodiment of the present invention, The number of sensor portions may be more than two.

제1 자세정보 센서부(231a)는 3축 가속도계 센서 1개로 구성되어 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집할 수 있으며, 제2 자세정보 센서부(231b)는 2축 자이로 센서 2개로부터 노출시간 확보 장치의 각속도 값(p, q, r)을 수집할 수 있다.The first attitude information sensor unit 231a is constituted by one three-axis accelerometer sensor and can collect the acceleration values (X, Y, Z) of the X axis, Y axis and Z axis of the exposure time securing apparatus, The sensor unit 231b can collect the angular velocity values (p, q, r) of the exposure time securing apparatus from the two biaxial gyro sensors.

자세정보 센서 융합부(232)는 각 자세정보 센서부(231a, 231b)로부터 수집된 데이터를 융합 및 가공하여 노출시간 확보 장치의 자세에 대한 상태변수를 구할 수 있다.The attitude information sensor fusion unit 232 can obtain state variables for the attitude of the exposure time securing apparatus by fusing and processing data collected from the attitude information sensor units 231a and 231b.

구체적으로, 자세정보 센서 융합부(232)는 움직이는 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 이미지 센서부의 오일러 각의 변화율을 결정할 수 있고, 결정된 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 산출할 수 있다. 자세정보 센서 융합부(232)는 자세정보 센서 융합에 기반하여 산출된 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상태변수로서 결정할 수 있다.Specifically, the attitude information sensor fusion unit 232 can determine the rate of change of the Euler angle of the image sensor unit using the relational expression between the angular velocity of the moving time securing apparatus and the Euler angle, The angle can be calculated. The attitude information sensor fusion unit 232 acquires the Euler angles calculated on the basis of the attitude information sensor fusion based on the rotation angle pie? In the X axis direction, the rotation angle theta? In the Y axis direction, Can be determined as a state variable composed of the rotation angle ψ.

여기서 자세정보 센서 융합부(232)는 개별 자세정보 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용할 수 있다. 즉, 자세정보 센서 융합의 목적은 각 자세정보 센서부(231a, 231b)로부터 수집된 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.Here, the attitude information sensor fusion unit 232 may use a series of digital filtering algorithms to supplement the shortcomings of the individual attitude information sensors and output accurate dynamic attitude information. That is, the purpose of the attitude information sensor fusion is to input data collected from the attitude information sensor units 231a and 231b, apply digital filtering, complement each other's values, and output accurate and useful dynamic attitude result values .

자세정보 센서 융합부(232)는 상기 오일러 각의 변화율을 하기 [수학식 1]로 구할 수 있다.The posture information sensor fusion unit 232 can obtain the rate of change of the Euler angle by the following equation (1).

[수학식 1] [Equation 1]

Figure 112018050568917-pat00001
Figure 112018050568917-pat00001

여기서, (p, q, r)은 이미지 센서가 탑재된 노출시간 확보 장치의 각속도계 값이고,

Figure 112018050568917-pat00002
는 오일러 각의 변화율이다. Here, (p, q, r) is the value of each speedometer of the exposure time securing device on which the image sensor is mounted,
Figure 112018050568917-pat00002
Is the rate of change of the Euler angles.

그리고, 상술한 오일러 각의 변화율을 적분함으로써, 하기 [수학식 2]의 오일러 각으로 나타내는 상태변수(Φt, θt, Ψt)를 구할 수 있다.And, to be obtained for the state variables (Φ t, θ t, Ψ t) represented by the Euler angles of the Equation (2) by integrating the rate of change of the above-described Eulerian angles.

[수학식 2]&Quot; (2) "

Figure 112018050568917-pat00003
Figure 112018050568917-pat00003

필터부(233)는 [수학식 2]로부터 결정되는 상태변수(Φt, θt, Ψt)에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 노출시간 확보 장치의 상태정보를 추정할 수 있다. 이를 위해, 필터부(233)는 복수 개의 자세정보 센서부(231)로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구할 수 있다.Filter unit 233 is to apply a filter to estimate the state of the non-linear yeokhakgye for the state variables (Φ t, θ t, Ψ t) is determined from Equation (2) to estimate the state information of the exposure time maintenance apparatus have. For this, the filter unit 233 treats the noise as a random variable in the measurement data collected from the plurality of attitude information sensor units 231, and obtains the state variable such that the expected value of the state information estimation error is minimized by the filter have.

구체적으로, 본 발명의 일 실시 예에 따른 필터부(233)는 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용할 수 있다.Specifically, the exemplary filter unit 233 according to an embodiment of the present invention may be applied to the extended Kalman filter for the state variables (Φ t, θ t, Ψ t).

칼만 필터는 잡음이 포함되어 있는 선형 역학계의 상태를 추적하는 재귀 필터로써, 구체적으로 잡음까지 포함된 입력 데이터를 재귀적으로 처리하는 필터로 현재 상태에 대한 최적의 통계적 예측을 진행할 수 있다. 하지만, 칼만 필터는 기본적으로 시스템이 선형이라는 가정하에 설계된 필터로 비선형 시스템에 적용하면 오차가 오히려 커지거나 발산해버리는 특성이 있어서 문제가 있다. 따라서, 본 발명의 일 실시 예에서는 계산량이 비교적 적으며 비선형 시스템에서 상태 추정이 가능한 확장 칼만 필터를 적용할 수 있다.The Kalman filter is a recursive filter that tracks the state of a linear dynamics system that contains noise. Specifically, it is a filter that recursively processes input data including noise, and can perform optimal statistical prediction of the current state. However, the Kalman filter is basically a filter designed on the assumption that the system is linear. When applied to a nonlinear system, there is a problem that the error becomes rather large or divergence occurs. Accordingly, in an embodiment of the present invention, an extended Kalman filter having a relatively small amount of calculation and capable of state estimation in a nonlinear system can be applied.

확장 칼만 필터를 통해 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산할 수 있으며, 계산된 칼만 이득과 예측 추정값을 이용하여 노출시간 확보 장치의 상태정보를 추정하고, 칼만 이득과 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.The Kalman gain can be calculated by obtaining a predictive value and a prediction error covariance of the state information of the exposure time securing apparatus through the extended Kalman filter. The state information of the exposure time securing apparatus is estimated using the calculated Kalman gain and the predicted value , The error covariance can be obtained using the Kalman gain and the prediction error covariance.

필터부(233)는 복수 개의 자세정보 센서부(231)로부터 측정된 측정값 중 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 업데이트 된 측정값에 따라 상태변수를 구하고, 확장 칼만 필터를 적용하여 이미지 센서부의 상태정보를 추정하는 과정을 반복한다.The filter unit 233 updates the pie? And theta? Obtained from the three-axis accelerometer among the measured values measured from the plurality of attitude information sensor units 231, obtains a state variable according to the updated measurement value , And the process of estimating the state information of the image sensor unit by applying the extended Kalman filter is repeated.

여기서, 확장 칼만 필터에 대해 상세히 설명하자면 다음과 같다.Here, the extended Kalman filter will be described in detail as follows.

확장 칼만 필터는 다음 수학식 3과 같은 상태변화모델과 측정모델을 갖는다.The extended Kalman filter has a state change model and a measurement model as shown in Equation (3).

[수학식 3]&Quot; (3) "

Figure 112018050568917-pat00004
Figure 112018050568917-pat00004

여기서 Xt는 마르코프 프로세스(Markov Process)를 따르는 상태 벡터이고,

Figure 112018050568917-pat00005
Figure 112018050568917-pat00006
는 평균이 0이고, 분산이 각각
Figure 112018050568917-pat00007
,
Figure 112018050568917-pat00008
인 독립 가우시안 백색 잡음이다. 마르코프 프로세스는 상태벡터가 결정될 확률이 과거의 다른 상태 벡터들과 무관하고 그 직전의 결과인 Xt-1에 따라 결정된다는 가정이다. 다음은 수학식 4는 상기 상태방정식에 대한 확장 칼만 필터 알고리즘이다.Where X t is a state vector following the Markov process,
Figure 112018050568917-pat00005
Wow
Figure 112018050568917-pat00006
The average is 0, and the variance is
Figure 112018050568917-pat00007
,
Figure 112018050568917-pat00008
Independent Gaussian white noise. The Markov process assumes that the probability that the state vector is determined is independent of other state vectors of the past and is determined according to X t-1 , which is the result of the previous state vector. Equation (4) is an extended Kalman filter algorithm for the above state equation.

[수학식 4]&Quot; (4) "

Figure 112018050568917-pat00009
Figure 112018050568917-pat00009

여기서,

Figure 112018050568917-pat00010
.는 평균값,
Figure 112018050568917-pat00011
는 분산값,
Figure 112018050568917-pat00012
는 제어값,
Figure 112018050568917-pat00013
는 측정값,
Figure 112018050568917-pat00014
는 칼만 게인, 확장 칼만 필터는 t-1 순간까지의 관측값에 근거하여 X(t|t-1)을 추정하며 알고리즘은 반복형으로 표현된다.
Figure 112018050568917-pat00015
는 시스템에 대한 노이즈의 공분산 값이고
Figure 112018050568917-pat00016
는 센서 측정 값에 대한 노이즈의 공분산 값이다. here,
Figure 112018050568917-pat00010
The average value,
Figure 112018050568917-pat00011
Is a variance value,
Figure 112018050568917-pat00012
Is a control value,
Figure 112018050568917-pat00013
Lt; / RTI >
Figure 112018050568917-pat00014
The Kalman gain and the extended Kalman filter estimate X (t | t-1) based on the observations up to the instant t-1, and the algorithm is expressed in iterative form.
Figure 112018050568917-pat00015
Is the covariance of the noise for the system
Figure 112018050568917-pat00016
Is the covariance of the noise to the sensor measurement.

(10-1), (10-2)번 식은 예측하는 부분이고 (10-3)번 식은 칼만 이득(Kalman Gain)을 나타낸다. 칼만 이득의 물리적 의미는 숫자가 클수록 측정치가 정확하고 숫자가 작을 수록 예측치가 정확하다 할 수 있다.(10-1) and (10-2) are predictive parts and the equation (10-3) expresses Kalman gain. The physical meaning of the Kalman gain is that the larger the number is, the more accurate the measured value, and the smaller the number, the better the predicted value.

(10-4), (10-5)번 식은 측정한 값을 업데이트 하는 부분이다. 확장 칼만 필터를 비선형 시스템에 적용할 수 있는 이유는 바로 테일러 시리즈와 자코비안을 확장 칼만 필터에 적용하였기 때문이다. 테일러 시리즈는 비선형 시스템을 선형화시켜주며 자코비안은 복잡하게 얽혀 있는 식을 미분을 이용하여 선형 근사화시켜 간단한 근사 선형식을 만들어 준다. 확장 칼만 필터는 비선형 시스템에 적용할 수 있으므로 쿼터니언 좌표계를 사용할 필요 없이 오일러 각을 이용한다. (10-4), (10-5) is the part that updates the measured value. The extended Kalman filter can be applied to nonlinear systems because the Taylor series and Jacobian are applied to the extended Kalman filter. The Taylor series linearizes the nonlinear system, and Jacobian creates a simple approximation of the line by approximating complex entangled formulas using derivatives. The extended Kalman filter can be applied to nonlinear systems, so the Euler angles are used without the use of a quaternion coordinate system.

본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 이미지 센서부로 입사되는 광이 일반적으로 해로부터 직접 입사되는 경우 이미지 센서부가 하늘을 바라보는 경우이고 본 발명의 일 실시 예로 지상에 있는 탱크로부터 반사된 광이 입사되는 경우 이미지 센서부가 지상을 바라보는 경우로 이에 대하여 확장 칼만 필터 적용 시 X축 방향에 대한 회전 각 Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이) 중 Y축 방향에 대한 회전 각 θ(세타)만 실시간으로 획득할 수 있다. 단, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각 Φ(파이)도 실시간으로 획득할 수 있으며 이는 프로그램 설계시 제작자의 임의로 또는 사용자의 설정에 따라 변경될 수 있다.In the case where the light incident on the image sensor unit included in the exposure time securing apparatus of the image sensor according to the embodiment of the present invention is directly incident from the sea, the image sensor unit looks at the sky. In an embodiment of the present invention, (Theta) with respect to the Y-axis direction, the rotation angle [theta] (theta) with respect to the Y-axis direction when the image sensor portion looks at the ground when the light reflected from the tank is incident, Only the rotation angle [theta] (theta) with respect to the Y axis direction among the rotation angles [psi] between the Z axis directions can be obtained in real time. However, depending on the special situation or environment, the rotation angle ψ (psi) or the rotation angle Φ (pie) with respect to the X axis direction in the Z axis direction can be acquired in real time. . ≪ / RTI >

따라서, 본 발명의 일 실시 예에 따른 이미지 센서가 탑재된 이미지 세서의 노출시간을 확보하는 장치의 자세 정보 획득을 위한 상태변수는 X축 방향에 대한 회전 각 Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이)으로 구성될 수 있다.Therefore, the state variable for acquiring the posture information of the apparatus for securing the exposure time of the image sensor on which the image sensor is mounted according to the embodiment of the present invention includes the rotation angle? (Pi) with respect to the X axis direction, The rotation angle? (Theta), and the rotation angle? (Pivot) with respect to the Z-axis direction.

상술한 첫 번째 식 (10-1)에 각속도와 오일러각의 관계식을 적용할 수 있으나 비선형식이고, 확장 칼만 필터의 예측하는 첫 번째 식 (10-1)은 제어하는 부분은 없으므로 ut는 삭제하고 다음 수학식 5와 같이 나타낼 수 있다.And the above-described first equation (10-1) can be applied to the relation of the angular speed and Euler angles, but defense type, the first type to predict the extended Kalman filter 10-1 is t u is not deleted is part of controlling And can be expressed by the following equation (5).

[수학식 5]&Quot; (5) "

Figure 112018050568917-pat00017
Figure 112018050568917-pat00017

위 식을 이미지 센서의 노출시간 확보 장치의 자세를 나타내는 오일러 각으로 풀 수 있다.The above equation can be solved with an Euler angle representing the posture of the exposure time securing device of the image sensor.

본 발명의 일 실시 예를 설명하기 위해 이미지 센서의 노출시간 확보 장치의 Φ와 θ 각도만을 고려하고 ψ는 사용하지 않는 경우로 설정하도록 한다. Φ와 θ 각도는

Figure 112018050568917-pat00018
를 적분함으로서 구할 수 있고, 이 식을 적분하면 이미지 센서의 노출시간 확보 장치의 위치 정보를 나타내는 상태모델(state model)이 될 수 있다. 단 상술한 예시는, 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, θ 각도만을 고려하고 Φ와 ψ는 사용하지 않는 경우로 설정할 수 있고, 또한, Φ, θ 및 ψ 각도 모두를 고려할 수도 있다.To explain one embodiment of the present invention, only Φ and θ angle of the exposure time securing apparatus of the image sensor are considered, and ψ is set to the case of not using it. The angles? And?
Figure 112018050568917-pat00018
, And integrating this equation can be a state model representing the position information of the exposure time securing device of the image sensor. However, the present invention is not limited to this, and it is possible to set Φ and ψ not to use Φ, θ and ψ in consideration of θ angle only, You can also consider both angles.

이미지 센서의 노출시간 확보 장치의 자세정보 상태모델은 상술한 수학식 1과 같고, 수학식 1을 적분한 식은 상술한 수학식 2와 같다. 수학식 1과 수학식 2에서 다음 수학식 5가

Figure 112018050568917-pat00019
통용될 수 있다. 여기서, dt는 미소시간을 나타낸다.The posture information state model of the exposure time securing apparatus of the image sensor is as shown in Equation (1), and the equation obtained by integrating Equation (1) is the same as Equation (2). In the equations (1) and (2), the following equation (5)
Figure 112018050568917-pat00019
Can be used. Here, dt represents the minute time.

이미지 센서부의 자세정보 측정모델은 다음 수학식 6과 같다.The attitude information measurement model of the image sensor section is expressed by the following Equation (6).

[수학식 6]&Quot; (6) "

Figure 112018050568917-pat00020
Figure 112018050568917-pat00020

수학식 6은 선형이므로 자코비안을 사용할 필요없이 다음 수학식 7과 같은 측정모델로 사용할 수 있다.Since Equation (6) is linear, it can be used as a measurement model as shown in Equation (7) without using Jacobian.

[수학식 7]&Quot; (7) "

Figure 112018050568917-pat00021
Figure 112018050568917-pat00021

그리고, 측정모델 H는 다음 수학식 8과 같이 구해진다.Then, the measurement model H is obtained by the following equation (8).

[수학식 8]&Quot; (8) "

Figure 112018050568917-pat00022
Figure 112018050568917-pat00022

미분을 통하여 시스템을 선형 근사화시키기 위해서 자코비안을 이용하는데 자코비안은 수학식 9와 같이 구할 수 있다.Jacobian is used to linearly approximate the system through differentiation, Jacobian can be obtained as shown in equation (9).

[수학식 9]&Quot; (9) "

Figure 112018050568917-pat00023
Figure 112018050568917-pat00023

이렇게 구한 자코비안을 이용하여 확장 칼만 필터의 예측단계 아래 두 번째 식인 (10-2)식을 사용하여 예측 공분산값 ?

Figure 112018050568917-pat00024
을 구한다.Using the Jacobian obtained above, the predicted covariance value of the extended Kalman filter is calculated using the second equation (10-2) below.
Figure 112018050568917-pat00024
.

필터부(233)는 칼만 이득인 Kt는 (10-3)식을 사용하여 추정값으로서 측정모델을 계산하고 예측 공분산과 칼만 이득을 이용하여 자세정보 센서 측정 노이즈의 공분산 값을 구할 수 있다.The filter unit 233 can calculate the measurement model as the estimated value using the Kalman gain K t using equation (10-3), and obtain the covariance value of the attitude information sensor measurement noise using the predicted covariance and the Kalman gain.

필터부(233)는 START에서 시작하여 최종적으로

Figure 112018050568917-pat00025
을 구한 뒤 다시 이 값을
Figure 112018050568917-pat00026
값으로 입력하여 확장 칼만 필터 알고리즘을 반복적으로 수행한다.The filter unit 233 starts from START and finally
Figure 112018050568917-pat00025
And then the value
Figure 112018050568917-pat00026
Value to perform the extended Kalman filter algorithm iteratively.

또한 수행하는 과정에서 최신화 된 자세정보 센서 값인 자이로와 가속도계 값을 업데이트하는 것을 확인할 수 있으며 자코비안 값도 계속해서 업데이트를 수행할 수 있다.In addition, it can be confirmed that the gyro and accelerometer value, which are the updated attitude information sensor values, are updated in the course of performing, and the Jacobian value can be continuously updated.

자세정보 산출부(234)는 이미지 센서의 노출시간 확보 장치의 상태정보에 기반하여 이미지 센서의 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출할 수 있다.The posture information calculation unit 234 can calculate the posture information according to the movement of the exposure time securing apparatus of the image sensor in real time based on the state information of the exposure time securing apparatus of the image sensor.

따라서, 노출각 측정부는 이미지 센서의 노출시간 확보 장치의 움직임에 따라 실시간 산출된 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다. 예를 들면, 이미지 센서의 노출시간 확보 장치의 움직임에 따라 노출시간 확보 장치의 자세가 변경되면서 Y축 방향에 대한 회전 각 θ가 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각 Φ(파이)이 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 본 발명의 일 실시 예에 따른 X축, Y축 및 Z축은 각각 직각 관계에 있다.Accordingly, the exposure angle measuring unit can measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident on the image sensor unit based on the real-time calculated posture information in accordance with the movement of the exposure time securing apparatus of the image sensor. For example, it is possible to calculate in real time how much the rotation angle [theta] with respect to the Y-axis direction has changed as the posture of the exposure time securing device is changed according to the movement of the exposure time securing device of the image sensor. However, the present invention is not limited thereto. For example, the rotation angle? (Psi) with respect to the Z-axis direction or the rotation about the X-axis direction It is possible to calculate in real time how much Φ (pi) has changed. The X-axis, the Y-axis, and the Z-axis according to an embodiment of the present invention are respectively in a right angle relation.

도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치가 노출각에 따라 노출시간을 확보하는 구체적인 방법을 나타낸 것이다.4A and 4B illustrate a specific method for securing an exposure time according to an exposure angle of an exposure time securing apparatus of an image sensor according to an embodiment of the present invention.

도 4a 및 도 4b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 확보하는 장치는 무인 비행체인 드론(400)인 경우를 나타낸 것으로, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 이미지 센서의 노출시간을 확보하는 장치는 로봇 또는 미사일일 수 있고, 또한 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 장치에 적용될 수 있다.4A and 4B, an apparatus for securing exposure time of an image sensor according to an embodiment of the present invention is a drone 400, which is an unmanned aerial vehicle, and the above- The apparatus for securing the exposure time of the image sensor may be a robot or a missile and may be applied to all devices that acquire images using an image sensor while moving.

도 4a를 참조하면, 이미지 센서(410)가 탑재된 드론(400)의 좌표축은 도 4a에 도시된 바와 같으며, 이미지 센서(410)가 탑재된 드론(400)의 상태변수가 상술한 도 3에서 설명한 바와 같이 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되며, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 경우 X축을 기준으로 회전하는 경우 Φ는 Roll 각도, Y축을 기준으로 회전하는 경우 θ는 Pitch 각도 및 Z축으로 회전하는 경우 Ψ는 Yaw 각도를 나타낸다.4A, the coordinate axes of the drones 400 on which the image sensor 410 is mounted are as shown in FIG. 4A, and the state variables of the drones 400 on which the image sensors 410 are mounted are as shown in FIG. (?) With respect to the Y-axis direction, and a rotation angle? With respect to the Z-axis direction, as described in the first embodiment of the present invention, In the case of the drone 400 mounted with the image sensor 410 according to the present invention, Φ is a roll angle, θ is a pitch angle when the Y axis is rotated, and ψ is a Yaw angle .

따라서, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 자세정보는 가속도계 센서와 자이로 센서로부터 수집된 데이터 정보를 이용하여 센서 융합을 통해서 Pitch, Yaw, Roll 값을 얻을 수 있다.Accordingly, the attitude information of the drones 400 on which the image sensor 410 is mounted according to an embodiment of the present invention can be obtained by using the data information collected from the accelerometer sensor and the gyro sensor to calculate pitch, yaw and roll values Can be obtained.

본 발명의 일 실시 예에 따른 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서로 사용될 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다.The accelerometer sensor and the gyro sensor according to an exemplary embodiment of the present invention may be used as a low-cost sensor of a microelectromechanical systems (MEMS) type, and may include an SPI communication interface among synchronous communication methods, but the present invention is not limited thereto .

도 4b를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체인 드론(400)은 이륙할 수 있고, 이륙한 드론(400)에 포함된 가속도계 센서 및 자이로 센서로부터 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 획득할 수 있다. 도 3에서 상술한 바와 같이 자세정보가 획득된 드론(400)에 포함된 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도), Θ의 각도(Pitch 각도) 및 Ψ의 각도(Yaw 각도)를 산출할 수 있다.Referring to FIG. 4B, the drone 400, which is an unmanned aerial vehicle according to an exemplary embodiment of the present invention, can take off and can take off from the accelerator sensor and the gyro sensor included in the take- The attitude information of the drones 400 can be obtained. 3, the exposure angle measuring unit included in the drone 400 in which the attitude information is acquired is calculated from the attitude information of the drone 400 on which the image sensor 410 is mounted, the angle (Roll angle) of? (Pitch angle) and the angle of? (Yaw angle).

단, 본 발명의 일 실시 예를 설명하기 위해 도 4b에서는 이미지 센서(410)가 탑재된 드론(400)의 Θ의 각도(Pitch 각도)만을 산출하고, Θ의 각도(Pitch 각도)만을 이용하는 경우를 예를 들어 설명하지만 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 보다 정확한 노출시간을 획득하기 위해 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도) 및 Ψ의 각도(Yaw 각도) 중 적어도 하나를 산출할 수 있다.4B illustrates a case where only the angle (pitch angle) of the drones 400 on which the image sensor 410 is mounted is calculated and only the angle (pitch angle) of the angle? Is used For example, although the above-described exemplary embodiments are described for illustrative purposes only, the present invention is not limited thereto. In order to obtain a more accurate exposure time, the exposure angle measuring unit may include a drones 400 (Roll angle) of the angle? And the angle (Yaw angle) of? From the attitude information of the angle?

본 발명의 일 실시 예에 따른 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)는 상공에서 이미지 센서(410)가 탑재된 드론(400)에 적용되는 중력(gravity 또는 weight)과 양력(lift)의 차이에 따라 달라질 수 있다.The angle of rotation with respect to the Y-axis direction according to an embodiment of the present invention may be determined by gravity or weight applied to the drones 400 on which the image sensor 410 is mounted, . ≪ / RTI >

본 발명의 일 실시 예에 따른 기 설정된 기준 방향은 X축, Y축 및 Z축 방향이 모두 수직적인 관계이고 Z축 방향이 지상과 수직적인 관계이면서, 상공에서 드론(400)에 적용되는 중력과 양력이 동일하여 이미지 센서(410)가 탑재된 드론(400)의 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)가 0 도인 방향을 나타낸다. 즉, 회전각 θ 각도(Pitch 각도)가 0 도로 이미지 센서(410)로 입사되는 광의 방향이 기 설정된 기준 방향을 나타낸다. 중력과 양력이 동일한 채로 상공에서 드론(400)이 비행하는 경우 수평비행이라고 나타낸다.The predetermined reference direction according to an embodiment of the present invention is a relationship in which the X-axis, the Y-axis, and the Z-axis direction are all vertical, the Z-axis direction is perpendicular to the ground, and the gravity applied to the drones 400 (Pitch angle) with respect to the Y-axis direction of the drones 400 on which the image sensor 410 is mounted. That is, the direction of the light incident on the image sensor 410 at zero degree of rotation angle (Pitch angle) indicates a preset reference direction. If the dragon (400) is flying in the sky with the same gravity and lift, it is indicated as horizontal flight.

본 발명의 일 실시 예에 따른 드론(400)에 탑재된 이미지 센서(410)가 Θ1의 각도로 해(430)를 바라보는 경우, 이미지 센서(410)로 입사되는 광이 클 수 밖에 없다. 따라서, 이미지 센서(410)가 Θ1의 각도로 하늘에 위치하는 해(430)를 바라보는 경우 이미지 센서(410)가 광에 노출되는 노출시간을 감소시켜야 하며, 이미지 센서(410)가 Θ2의 각도로 지상에 위치하는 탱크(420)를 바라보는 경우 탱크로부터 반사된 광을 이미지 센서(410)가 입사하므로 해(430)를 바라보는 경우와 달리 노출시간을 상승시켜야 한다.When the image sensor 410 mounted on the drone 400 according to an embodiment of the present invention looks at the solution 430 at an angle of? 1, the light incident on the image sensor 410 can not be large. Accordingly, when the image sensor 410 views the solution 430 located in the sky at an angle of? 1, the exposure time for exposure of the image sensor 410 to light must be reduced, and when the image sensor 410 detects the angle? It is necessary to increase the exposure time unlike the case of looking at the solution 430 because the image sensor 410 receives the light reflected from the tank.

도 2 내지 3에서 노출각을 측정하는 방법 및 노출시간 측정부가 노출시간을 영상 처리부에서 산출된 대표값이 기 설정된 데이터 값이 되도록 산출한다고 설명하였으므로 본 실시 예에서는 이에 대한 설명을 생략하도록 한다.The method of measuring the exposure angle and the exposure time measurement unit of FIGS. 2 to 3 have been described so that the representative value calculated by the image processing unit is a preset data value, so that a description thereof will be omitted in the present embodiment.

따라서, 본 발명의 일 실시 예에서는 날씨에 따라서도 이미지 센서(410)로 입사되는 광량이 다르므로 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경될 경우 영상 처리부를 거쳐 적정한 노출시간을 계산하지 않고 미리 확보된 노출각에 따라 적정한 노출시간을 바로 적용할 수 있도록 먼저 드론(400)을 이륙시켜 테스트 과정을 수행할 수 있다. 구체적으로 먼저 드론(400)을 이륙시킨 후 Θ 각도(Pitch 각도)를 변화시켜 Θ 각도(Pitch 각도)에 따른 이미지 센서(410)가 광에 노출되는 적정한 노출시간을 획득하여 메모리에 저장하는 테스트 과정을 수행할 수 있다.Accordingly, in an embodiment of the present invention, the amount of light incident on the image sensor 410 varies depending on the weather, so that when the posture of the drones 400 on which the image sensor 410 is mounted is suddenly changed, It is possible to perform the test process by taking off the drone 400 so that the proper exposure time can be immediately applied according to the previously secured exposure angle without calculating the exposure time. Specifically, first, a test process is performed in which the proper exposure time for the image sensor 410 to be exposed to light according to the Θ angle (pitch angle) is obtained by changing the Θ angle (pitch angle) after taking off the drone 400, Can be performed.

아래의 표 1은 이미지 센서(410)가 광에 노출되는 노출각에 따라 획득된 노출시간을 나타낸 것이다.Table 1 below shows the exposure time obtained according to the exposure angle at which the image sensor 410 is exposed to light.

Pitch 각도Pitch angle 노출시간Exposure time 20도20 degrees 18ms18ms 21도21 degrees 18.2ms18.2 ms 22도22 degrees 18.5ms18.5 ms 23도23 degrees 19ms19ms 24도24 degrees 19.1ms19.1ms 25도25 degrees 19.5ms19.5ms 26도26 degrees 19.7ms19.7ms

상술한 표 1과 같이 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도를 변화시켜 획득된 Pitch 각도에 따른 노출시간을 제어부가 노출시간 획득부를 제어하여 메모리에 미리 저장할 수 있다. 따라서, 후술하는 바와 같이 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 제어부는 미리 메모리에 저장된 Pitch 각도에 따른 노출시간을 이미지 센서(410)에 바로 적용하여 이미지 센서(410)가 외부의 광에 노출되는 시간을 영상 처리부에 의한 연산처리 없이 바로 제어할 수 있다.The control unit may control the exposure time acquisition unit to store the exposure time according to the acquired pitch angle by changing the pitch angle of the drone 400 on which the image sensor 410 is mounted as shown in Table 1, Therefore, when the posture of the drone 400 on which the image sensor 410 is mounted is changed suddenly as described later, the controller directly applies the exposure time according to the pitch angle stored in the memory to the image sensor 410, It is possible to directly control the time during which the light source 410 is exposed to the external light without performing the arithmetic processing by the image processing unit.

본 발명의 또 다른 일 실시 예에 따르면, 드론(400)에 포함된 제어부는 노출각 측정부가 실시간으로 이미지 센서부의 노출각을 측정할 수 있도록 제어할 수있다.According to another embodiment of the present invention, the controller included in the drone 400 may control the exposure angle measuring unit to measure the exposure angle of the image sensor unit in real time.

본 발명의 일 실시 예에 따른 드론(400)은 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서를 포함할 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다. 따라서, 상술한 자세정보 센서를 사용하는 드론(400)의 자세정보를 실시간으로 획득하여 노출각을 측정할 수 있으며, 노출각에 따른 노출시간을 획득할 수 있다.The drones 400 according to an embodiment of the present invention may include a low-cost sensor of a microelectromechanical systems (MEMS) type, an accelerometer sensor and a gyro sensor, and may take an interface by SPI communication among synchronous communication methods But is not limited thereto. Accordingly, it is possible to acquire the attitude information of the drones 400 using the attitude information sensor in real time to measure the exposure angle, and to obtain the exposure time according to the exposure angle.

일반적으로 상술한 자이로 센서 또는 가속도계 센서가 이용되는 경우 이미지 센서(410)가 탑재된 드론(400)의 자세 정보가 최소 1Khz이상의 속도로 데이터가 실시간으로 업데이트 될 수 있다. 또한, 일반적으로 사용되는 이미지 센서 중 CMOS센서를 통해서 받는 영상 데이터의 갱신율은 약 30Hz를 나타낼 수 있다. 따라서, 이미지 센서부를 통해 결정된 영상 데이터를 갱신하는 속도보다 자세정보 센서를 통해 획득되는 드론(400)의 자세정보에 대한 업데이트 속도가 훨씬 빠르다. 따라서, 본 발명의 일 실시 예에 따른 드론(400)에 포함된 가속도계 센서 및 자이로 센서를 이용하여 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 영상 데이터 갱신보다 더 빠르게 획득하여 드론(400)에 탑재된 이미지 센서(410)가 어디를 바라보고 있는지 빠르게 인지할 수 있다. In general, when the gyro sensor or accelerometer sensor described above is used, the data of the attitude information of the drones 400 on which the image sensor 410 is mounted can be updated at a speed of at least 1 KHz or more in real time. Also, the update rate of image data received through the CMOS sensor among commonly used image sensors can be about 30 Hz. Accordingly, the update rate of the attitude information of the drones 400 acquired through the attitude information sensor is much faster than the speed of updating the image data determined through the image sensor unit. Therefore, by using the accelerometer sensor and the gyro sensor included in the drone 400 according to the embodiment of the present invention, the attitude information of the dron 400 on which the image sensor 410 is mounted can be obtained faster than the image data update, The user can quickly recognize where the image sensor 410 mounted on the camera 400 is looking.

따라서, 본 발명의 일 실시 예에 따른 노출시간 획득부는 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도에 따른 이미지 센서(410)의 노출시간을 실시간으로 획득하고, 제어부는 실시간으로 획득된 Pitch 각도에 따른 노출시간을 메모리에 미리 저장된 Pitch 각도에 따라 획득된 노출시간과 비교하여 메모리 저장된 Pitch 각도에 따라 획득된 노출시간 중 변화된 노출시간을 실시간으로 업데이트 할 수 있다.Accordingly, the exposure time obtaining unit according to an embodiment of the present invention obtains in real time the exposure time of the image sensor 410 according to the pitch angle of the drone 400 on which the image sensor 410 is mounted, It is possible to compare the exposure time according to the stored pitch angle with the exposure time obtained according to the Pitch angle stored in advance in the memory to update the changed exposure time among the obtained exposure time according to the memory stored Pitch angle in real time.

또한, 본 발명의 또 다른 일 실시 예에 따르면 드론(400)이 움직이면서 이미지 센서(410)가 탑재되 드론(400)의 자세정보가 갑작스럽게 변경되는 경우, 제어부는 노출각 측정부가 상술한 자세정보가 변경된 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부는 메모리에 저장된 노출각 중 이미지 센서(410)가 탑재된 드론(400)의 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있다. 또한, 제어부는 메모리에 저장된 노출각에 따른 노출시간 중 상술한 방법에 의해 결정된 노출각에 대응되는 노출시간을 로드할 수 있고, 메모리로부터 로드 된 노출시간 동안 이미지 센서부(410)가 광에 노출되도록 제어할 수 있다.In addition, according to another embodiment of the present invention, when the drones 400 are moved and the posture information of the drones 400 on which the image sensor 410 is loaded is suddenly changed, It is possible to control the current exposure angle to be measured based on the attitude information of the drones 400 on which the image sensor 410 having been changed is mounted. The control unit can determine the exposure angle corresponding to the measured exposure angle while changing the posture information of the drones 400 on which the image sensor 410 is mounted among the exposure angles stored in the memory. In addition, the control unit can load an exposure time corresponding to the exposure angle determined by the above-described method among the exposure time according to the exposure angle stored in the memory, and can prevent the image sensor unit 410 from being exposed to light .

구체적으로 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서(410)가 탑재된 드론(400)은 공중에서 특정한 위치에 정지하여 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있고, 또한 특정한 위치에 정지한 드론(400)이 급작스럽게 이동하면서 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있다. 구체적으로, 드론(400)이 급작스럽게 이동하는 경우 드론(400)에 포함된 노출각 측정부는 시간당 변화하는 드론(400)의 pitch 각도 변화를 측정할 수 있다. 예를 들어 설명하면, 드론(400)에 탑재된 이미지 센서(410)가 30도의 Θ 각도(Pitch 각도)로 외부로부터 입사되는 광을 바라보고 있다가, 드론(400)이 10deg/sec로 2초 동안 움직이는 경우 최종적으로 드론(400)에 탑재된 이미지 센서(410)가 외부로부터 입사되는 광을 바라보는 노출각인 Θ 각도(Pitch 각도)가 원래 30도에서 50도로 변경될 수 있고, 제어부는 메모리에 저장된 노출각이 50도인 경우 노출시간을 바로 로드하여, 로드 된 노출시간 동안 이미지 센서(410)가 광에 노출되도록 제어할 수 있다.Specifically, according to another embodiment of the present invention, the drone 400 on which the image sensor 410 is mounted is stopped at a specific position in the air, and the exposure time of the image sensor 410 according to the exposure angle is determined by the above- And the drone 400 stopped at a specific position suddenly moves, so that the exposure time of the image sensor 410 according to the exposure angle can be obtained by the above-described method. Specifically, when the drone 400 is suddenly moved, the exposure angle measuring unit included in the drone 400 may measure a pitch angle change of the drone 400 that changes with time. For example, if the image sensor 410 mounted on the drone 400 is looking at the light incident from the outside at a Θ angle (pitch angle) of 30 degrees and the drone 400 is rotated at 10 deg / (Pitch angle), which is an exposure angle of the image sensor 410 mounted on the drone 400 and viewed from the outside, may be changed from 30 degrees to 50 degrees, If the stored exposure angle is 50 degrees, the exposure time can be immediately loaded, and the image sensor 410 can be controlled to be exposed to light during the loaded exposure time.

따라서, 종래의 제어부가 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 이미지 센서(410)가 다시 광에 노출되면서 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하고, 대표값이 기 설정된 데이터 값이 되도록 노출시간을 획득하여, 획득된 노출시간 동안 이미지 센서(410)를 외부의 광에 노출시키는 것이 아닌 기존 메모리에 저장된 노출각에 따른 노출시간을 바로 적용하므로 영상 데이터의 밝기를 효과적으로 조절할 수 있다. 따라서, 종래에 영상 처리부를 이용하여 영상 처리를 하는 경우 많은 시간이 소요되었던 문제점을 해결하여 본 발명의 일 실시 예에 따르면 실시간으로 영상이 선명하게 보이도록 조절할 수 있다.Therefore, when the conventional controller changes the posture of the drones 400 on which the image sensor 410 is mounted, the image sensor 410 is exposed to the light again to calculate a representative value from the pixels included in the image data The exposure time corresponding to the exposure angle stored in the existing memory is immediately applied to the image sensor 410 so as not to expose the image sensor 410 to external light during the obtained exposure time, The brightness of the data can be effectively controlled. Therefore, according to the embodiment of the present invention, it is possible to adjust the image so that the image can be seen clearly in real time.

이상에서 설명한 본 발명의 실시 예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록 매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. 컴퓨터 프로그램의 기록 매체로서는 자기기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

200: 노출시간 확보 장치
210: 이미지 센서부
220: 영상 처리부
230: 노출각 측정부
240: 노출시간 획득부
250: 메모리
260: 제어부
200: Exposure time securing device
210: image sensor unit
220:
230: Exposure angle measuring unit
240: exposure time obtaining unit
250: Memory
260:

Claims (12)

이미지 센서의 노출시간 확보 장치에 있어서,
상기 이미지 센서를 이용하여 영상 데이터를 획득하는 이미지 센서부;
상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 영상 처리부;
자세정보 센서를 이용하여 센싱된 상기 노출시간 확보 장치의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 노출각 측정부; 및
상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 노출시간 획득부;를 포함하는 노출시간 확보 장치.
An apparatus for securing an exposure time of an image sensor,
An image sensor unit for acquiring image data using the image sensor;
An image processor for calculating a representative value from the pixels included in the image data obtained from the image sensor;
An exposure angle measuring unit for measuring an exposure angle, which is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit, based on attitude information of the exposure time securing apparatus sensed using the attitude information sensor; And
And an exposure time acquiring unit for acquiring an exposure time, which is a time when the image sensor unit is exposed to the light so that the calculated representative value becomes a predetermined data value, according to the measured exposure angle.
제1항에 있어서,
상기 노출각에 따라 획득된 노출시간을 저장하는 메모리;를 더 포함하는 노출시간 확보 장치.
The method according to claim 1,
And a memory for storing the exposure time acquired according to the exposure angle.
제2항에 있어서,
상기 노출각 측정부가 실시간으로 상기 노출각을 측정하도록 제어하고, 상기 노출시간 획득부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어하여, 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 제어부;를 더 포함하는 노출시간 확보 장치.
3. The method of claim 2,
Wherein the control unit controls the exposure angle measuring unit to measure the exposure angle in real time and controls the exposure time acquiring unit to acquire an exposure time according to the exposure angle measured in real time so that the exposure time acquired according to the exposure angle stored in the memory And a controller for comparing the obtained exposure time with the exposure time measured in real time to update the exposure time stored in the memory.
제2항에 있어서,
상기 노출시간 확보 장치의 움직임에 따라 자세정보가 변경되는 경우,
상기 노출각 측정부가 상기 자세정보가 변경된 노출시간 확보 장치의 자세정보를 기초로 현재 노출각을 측정하도록 제어하고, 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 제어부;를 더 포함하는, 노출시간 확보 장치.
3. The method of claim 2,
When the posture information is changed according to the movement of the exposure time securing device,
The exposure angle measuring unit controls to measure the current exposure angle based on the posture information of the exposure time securing apparatus in which the posture information is changed and determines an exposure angle corresponding to the currently measured exposure angle among the exposure angles stored in the memory And a control unit for loading an exposure time corresponding to the determined exposure angle into the memory and controlling exposure of the image sensor unit to the light during the loaded exposure time.
제1항에 있어서,
상기 대표값은 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값인 것을 특징으로 하는 노출시간 확보 장치.
The method according to claim 1,
Wherein the representative value is an average value of pixel values of pixels included in the image data acquired from the image sensor unit and operating according to the incident light.
제1항에 있어서,
상기 기 설정된 데이터 값은 상기 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값인 것을 특징으로 하는 노출시간 확보 장치.
The method according to claim 1,
Wherein the predetermined data value is an intermediate value indicating a number of the pixels included in the image data in the middle of the number of colors.
제1항에 있어서,
상기 노출각 측정부는,
적어도 두 개의 자세정보 센서를 통해 상기 노출시간 확보 장치의 자세에 대한 측정 데이터를 수집하는 복수 개의 자세정보 센서부;
상기 수집된 측정 데이터를 융합 및 가공하여 상기 노출시간 확보 장치의 자세에 대한 상태변수를 구하는 자세정보 센서 융합부;
상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 노출시간 확보 장치의 자세에 대한 상태정보를 추정하는 필터부; 및
상기 추정된 상태정보에 기반하여 상기 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부;를 포함하는 노출시간 확보 장치.
The method according to claim 1,
Wherein the exposure-
A plurality of posture information sensor units for collecting measurement data on posture of the exposure time securing apparatus through at least two posture information sensors;
An attitude information sensor fusion unit for acquiring state variables for the attitude of the exposure time securing device by fusing and processing the collected measurement data;
A filter unit for estimating state information on the attitude of the exposure time securing apparatus by applying a filter for estimating the state of the nonlinear dynamic system to the state variable; And
And an attitude information calculation unit for calculating attitude information according to a motion of the exposure time securing apparatus in real time based on the estimated state information.
제7항에 있어서,
상기 복수 개의 자세정보 센서부는,
3축 가속도계 센서 1개로부터 상기 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 제1 자세정보 센서부; 및
2축 자이로 센서 2개로부터 상기 노출시간 확보 장치의 각속도 값(p, q, r)을 수집하는 제2 자세정보 센서부;를 포함하는 노출시간 확보 장치.
8. The method of claim 7,
Wherein the plurality of posture information sensor units comprise:
A first posture information sensor unit for collecting acceleration values (X, Y, Z) of the X-axis, Y-axis and Z-axis of the exposure time securing device from one of the three-axis accelerometer sensors; And
And a second attitude information sensor unit for collecting angular velocity values (p, q, r) of the exposure time securing device from two biaxial gyro sensors.
제8항에 있어서,
상기 자세정보 센서 융합부는,
상기 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 상기 노출시간 확보 장치의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구하는 것을 특징으로 하는 노출시간 확보 장치.
9. The method of claim 8,
Wherein the posture information sensor fusion unit comprises:
Wherein the Euler angles of the Euler angles are obtained by integrating the change rates of the Euler angles using the relational expression between the angular velocity of the exposure time securing device and the Euler angles, The above Euler angles are obtained as the above-mentioned state variables composed of the rotation angle pie (?) With respect to the X-axis direction, the rotation angle theta (?) With respect to the Y-axis direction and the rotation angle? Wherein the exposure time securing device comprises:
제9항에 있어서,
상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 노출시간 확보 장치의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고,
상기 노출각은 상기 회전각 세타(θ)인 것을 특징으로 하는 노출시간 확보 장치.
10. The method of claim 9,
Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis are all vertical, the Z-axis is perpendicular to the ground, and the rotation- ([theta]) angle (pitch angle) is 0 degree,
Wherein the exposure angle is the rotation angle theta (&thetas;).
제8항에 있어서,
상기 필터부는,
상기 상태변수에 확장 칼만 필터를 적용하여, 상기 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 측정하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 노출시간 확보 장치의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득하는 것을 특징으로 하는 노출시간 확보 장치.
9. The method of claim 8,
The filter unit includes:
Applying an extended Kalman filter to the state variable to measure a predicted value and a predicted error covariance for the state information of the exposure time securing apparatus and to calculate a Kalman gain and to calculate the exposure time using the Kalman gain and the predicted value Estimating the state information of the ensuring device, and obtaining the error covariance using the Kalman gain and the prediction error covariance.
제11항에 있어서,
상기 필터부는,
상기 복수 개의 자세정보 센서부에서 수집된 측정 데이터 중 상기 3축 가속도계 센서로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 업데이트 된파이(Φ) 및 세타(θ)에 따라 상기 노출시간 확보 장치의 상태변수를 구하고, 상기 확장 칼만 필터를 적용하여 상기 노출시간 확보 장치의 상태정보를 추정하는 과정을 반복하는 것을 특징으로 하는 노출시간 확보 장치.
12. The method of claim 11,
The filter unit includes:
(?) And theta (?) Obtained from the three-axis accelerometer sensor among the measurement data collected by the plurality of attitude information sensor units and updating the pie (?) And theta And estimating state information of the exposure time securing apparatus by applying a state variable of the time securing apparatus and applying the extended Kalman filter.
KR1020180058428A 2018-05-23 2018-05-23 Apparatus securing exposure time of image sensor KR101907657B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180058428A KR101907657B1 (en) 2018-05-23 2018-05-23 Apparatus securing exposure time of image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180058428A KR101907657B1 (en) 2018-05-23 2018-05-23 Apparatus securing exposure time of image sensor

Publications (1)

Publication Number Publication Date
KR101907657B1 true KR101907657B1 (en) 2018-10-12

Family

ID=63876349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180058428A KR101907657B1 (en) 2018-05-23 2018-05-23 Apparatus securing exposure time of image sensor

Country Status (1)

Country Link
KR (1) KR101907657B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080359A (en) 2002-08-16 2004-03-11 Fuji Photo Film Co Ltd Digital camera and photographing system
JP2010219810A (en) 2009-03-16 2010-09-30 Ricoh Co Ltd Imaging device, imaging method, program and recording medium
JP2013160895A (en) 2012-02-03 2013-08-19 Denso Corp Camera exposure setting device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080359A (en) 2002-08-16 2004-03-11 Fuji Photo Film Co Ltd Digital camera and photographing system
JP2010219810A (en) 2009-03-16 2010-09-30 Ricoh Co Ltd Imaging device, imaging method, program and recording medium
JP2013160895A (en) 2012-02-03 2013-08-19 Denso Corp Camera exposure setting device

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
US11205283B2 (en) Camera auto-calibration with gyroscope
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
CN108605098B (en) System and method for rolling shutter correction
WO2017185378A1 (en) Systems and methods for uav transport and data acquisition
US11288824B2 (en) Processing images to obtain environmental information
WO2016106715A1 (en) Selective processing of sensor data
WO2019152149A1 (en) Actively complementing exposure settings for autonomous navigation
EP3360023A1 (en) Salient feature based vehicle positioning
Delaune et al. Thermal-inertial odometry for autonomous flight throughout the night
CN108645401A (en) All-day star sensor star point extraction method based on attitude correlation image superposition
WO2018053785A1 (en) Image processing in an unmanned autonomous vehicle
KR101908021B1 (en) Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium
CN112198903A (en) Modular multifunctional onboard computer system
WO2019019172A1 (en) Adaptive Image Processing in a Robotic Vehicle
CN113465596B (en) Four-rotor unmanned aerial vehicle positioning method based on multi-sensor fusion
KR101907657B1 (en) Apparatus securing exposure time of image sensor
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
CN112154480B (en) Positioning method and device for movable platform, movable platform and storage medium
CN113218394A (en) Indoor visual positioning method and system for flapping wing aircraft
CN112556691B (en) Method for unmanned aerial vehicle autonomous navigation and temperature measurement system
CN110825033A (en) Servo control system
Ma et al. KCF based 3D Object Tracking via RGB-D Camera of a Quadrotor
WO2021217372A1 (en) Control method and device for movable platform
Gupta et al. Digital Image Processing based Cognitive System for Human Detection using Six Rotor Unmanned Airborne Cubot ‘The EAGLE’under the Framework of Mechatronics

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant