KR101908021B1 - Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium - Google Patents

Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium Download PDF

Info

Publication number
KR101908021B1
KR101908021B1 KR1020180058429A KR20180058429A KR101908021B1 KR 101908021 B1 KR101908021 B1 KR 101908021B1 KR 1020180058429 A KR1020180058429 A KR 1020180058429A KR 20180058429 A KR20180058429 A KR 20180058429A KR 101908021 B1 KR101908021 B1 KR 101908021B1
Authority
KR
South Korea
Prior art keywords
image sensor
exposure
angle
exposure time
attitude information
Prior art date
Application number
KR1020180058429A
Other languages
Korean (ko)
Inventor
최원석
김희수
조영기
김재현
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020180058429A priority Critical patent/KR101908021B1/en
Application granted granted Critical
Publication of KR101908021B1 publication Critical patent/KR101908021B1/en

Links

Images

Classifications

    • H04N5/2353
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N5/23258
    • H04N5/335

Abstract

A method for securing an exposure time of an image sensor mounted on an air vehicle using an attitude information sensor solves problem of an image sensor module becoming large and obtains an exposure time that the image sensor is exposed according to a measured exposure angle based on attitude information of the sensed air vehicle using an attitude information sensor to solve problem of having difficulty in securing a proper exposure time of the image sensor due to change of light quantity when the air vehicle suddenly moves. Therefore, the method can control the exposure time of the image sensor to external light in real time even if an attitude of the air vehicle equipped with the image sensor is suddenly changed and the brightness of an image can be adjusted so that the image is vivid in real time without adding any additional hardware.

Description

자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법 및 기록매체에 저장된 컴퓨터 프로그램 {METHOD FOR SECURING IMAGE SENSOR EXPOSURE TIME OF IMAGE SENSOR MOUNTED ON FLIGHT VEHICLE USING ATTITUDE INFORMATION SENOSR AND COMPUTER PROGRAM SOTRED IN RECORDING MEDIUM}Technical Field [0001] The present invention relates to a method of acquiring exposure time of an image sensor mounted on a flight vehicle using an attitude information sensor, and a computer program stored in a recording medium. [0002]

본 발명은 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법에 관한 것이다. 보다 상세하게는, 본 발명은 이미지 센서가 외부의 광에 노출되는 노출시간을 획득하는 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법에 관한 것이다.The present invention relates to a method of acquiring an exposure time of an image sensor mounted on a vehicle using an attitude information sensor. More particularly, the present invention relates to a method of acquiring an exposure time of an image sensor mounted on a vehicle using an attitude information sensor for acquiring an exposure time during which an image sensor is exposed to external light.

모든 카메라가 그렇듯이 외부의 영상 데이터를 획득하는 이미지 센서도 화각(Field of View, FOV)이 있다. 따라서, 이미지 센서로부터 외부를 바라볼 수 있는 화각이 무한대가 아니다.As with all cameras, an image sensor that acquires external image data also has a field of view (FOV). Therefore, the angle of view from the image sensor to the outside is not infinite.

비행체에 탑재된 이미지 센서로부터 표적이 포함된 영상 데이터를 획득하면서 전투 임무 수행을 하는 경우 비행체가 비행 중에 몸체를 회전시키거나 다른 곳으로 급 기동하면서 기존에 바라봤던 표적에서 다른 표적을 바라볼 수 있거나 갑작스럽게 해를 바라볼 수도 있다.If you perform combat missions while acquiring image data that includes a target from an image sensor mounted on the aircraft, the aircraft may rotate the body during flight or move to another location to view other targets from the target Suddenly I can look at the sun.

비행체가 지상 또는 상공에 있는 다양한 표적을 바라볼 경우 각각의 표적에서 반사되어 오는 광량이 다를 것이므로 각각의 표적에 해당하는 다양한 노출시간이 요구될 것이다. 노출시간은 입사되는 광으로부터 영상 데이터를 획득하기 위해 이미지 센서가 외부에서 입사되는 광으로부터 노출되는 시간을 나타낸다.If the aircraft is looking at various targets on the ground or over the ground, the amount of light reflected from each target will be different, so different exposure times corresponding to each target will be required. The exposure time represents the time during which the image sensor is exposed from the light incident from outside in order to acquire image data from the incident light.

비행체가 전투임무 수행 중 갑작스러운 비행 중에 급 기동을 할 경우 갑작스러운 광량의 변화로 인해서 이미지 센서의 적절한 노출시간 확보가 어려워 임무를 수행하기 어려운 문제가 있다. 따라서, 이미지 센서가 노출되면서 입사되는 광량이 급작스럽게 변하더라도 실시간으로 선명한 영상을 확보하는 기술의 필요성이 대두되고 있다.If the aircraft suddenly rushes during a combat mission, there is a problem that it is difficult to achieve the mission because it is difficult to secure the proper exposure time of the image sensor due to sudden light intensity change. Therefore, there is a need for a technique for ensuring a clear image in real time even if the amount of incident light suddenly changes while the image sensor is exposed.

최근에는 각각의 이미지 센서 모듈에 자동 노출 모드(Auto exposure mode)라고 해서 자동으로 노출시간을 조절해주는 회로를 내장하는 경우가 많지만 그만큼 이미지 센서 모듈이 커지게 되는 문제점이 있다.In recent years, each image sensor module is often equipped with a circuit for automatically controlling the exposure time in an auto exposure mode, but the image sensor module becomes large.

본 발명은 이미지 센서 모듈이 커지는 문제점을 해결하고, 비행체가 전투임무 수행 중 급 기동할 경우 광량의 변화로 인한 이미지 센서의 적절한 노출시간을 확보하기 어려운 문제점을 해결하도록 자세정보 센서를 이용하여 비행체의 자세정보를 구하고, 비행체의 자세정보를 기초로 이미지 센서로 입사되는 광의 각도를 측정하여, 측정된 각도에 따라 이미지 센서가 노출되는 노출시간을 실시간으로 획득하는 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법을 제공함에 있다.An object of the present invention is to solve the problem that the image sensor module becomes large and to solve the problem that it is difficult to secure the proper exposure time of the image sensor due to the change of the light amount when the air vehicle is rapidly activated during the execution of the combat mission, A posture information obtaining unit that obtains posture information, measures the angle of light incident on the image sensor based on attitude information of the air vehicle, and acquires exposure time in which the image sensor is exposed according to the measured angle in real time, And a method of acquiring the exposure time of the sensor.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법은 이미지 센서부가 영상 데이터를 획득하는 단계; 영상 처리부가 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 단계; 노출각 측정부가 자세정보 센서를 이용하여 센싱된 상기 비행체의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 단계; 및 노출시간 획득부가 상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 단계;를 포함하고, 상기 영상 데이터를 획득하는 단계는, 전처리부가 상기 이미지 센서부에 포함된 각각의 픽셀로 상기 입사되는 광을 전기 신호로 변환시키고, 상기 변환된 전기 신호를 증폭 및 압축시키는 단계; 및 아날로그 디지털 변환부가 상기 증폭 및 압축된 전기 신호를 디지털 신호로 변환하여 영상 데이터를 획득하는 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of acquiring exposure time of an image sensor mounted on a vehicle using an attitude information sensor, comprising the steps of: acquiring image data of an image sensor; Calculating a representative value from pixels included in the image data obtained from the image sensor unit; Measuring an exposure angle that is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit based on the attitude information of the air object sensed by the exposure angle measuring unit using the attitude information sensor; And obtaining an exposure time, which is a time at which the image sensor unit is exposed to the light so that the calculated representative value becomes a predetermined data value, according to the measured exposure angle, Wherein the acquiring step includes the steps of: a pre-processing unit converting the incident light into an electric signal into each pixel included in the image sensor unit, amplifying and compressing the converted electric signal; And converting the amplified and compressed electrical signal into a digital signal to obtain image data.

제어부가 상기 노출각에 따라 획득된 노출시간을 메모리에 저장하는 단계;를 더 포함할 수 있다.And the control unit may store the exposure time acquired in accordance with the exposure angle in the memory.

상기 제어부가 실시간으로 상기 노출각을 측정하도록 상기 노출각 측정부를 제어하는 단계; 상기 제어부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 상기 노출시간 획득부를 제어하는 단계; 및 상기 제어부가 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 단계;를 더 포함할 수 있다.Controlling the exposure angle measuring unit so that the control unit measures the exposure angle in real time; Controlling the exposure time obtaining unit such that the control unit obtains an exposure time according to the exposure angle measured in real time; And updating the exposure time stored in the memory by comparing the exposure time acquired in accordance with the exposure angle acquired according to the exposure angle stored in the memory and the exposure time acquired according to the exposure angle measured in real time .

상기 비행체의 움직임에 따라 자세정보가 변경되는 경우, 상기 제어부가 상기 자세정보가 변경된 비행체의 자세정보를 기초로 현재 노출각을 측정하도록 상기 노출각 측정부를 제어하는 단계; 및 상기 제어부가 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 단계;를 더 포함할 수 있다.Controlling the exposure angle measuring unit so that the controller measures a current exposure angle based on attitude information of the airplane in which the attitude information is changed when the attitude information changes according to the movement of the airplane; And the control unit determines an exposure angle corresponding to the currently measured exposure angle among the exposure angles stored in the memory, loads an exposure time corresponding to the determined exposure angle in the memory, and controls the image sensor unit And controlling the light to be exposed to the light.

상기 대표값은 상기 이미지 센서로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값일 수 있다.The representative value may be an average value of pixel values of pixels included in the image data obtained from the image sensor and operating according to the incident light.

상기 노출각을 측정하는 단계는, 적어도 두 개의 자세정보 센서를 통해 상기 비행체의 자세에 대한 측정 데이터를 수집하는 단계; 상기 수집된 측정 데이터를 융합 및 가공하여 상기 비행체의 자세에 대한 상태변수를 구하는 단계; 상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 비행체의 자세에 대한 상태정보를 추정하는 단계; 및 상기 추정된 상태정보에 기반하여 상기 비행체의 움직임에 따른 자세정보를 실시간으로 산출하는 단계;를 포함할 수 있다.The step of measuring the exposure angle may include collecting measurement data on the attitude of the air vehicle through at least two attitude information sensors; Obtaining a state variable of the attitude of the air vehicle by fusing and processing the collected measurement data; Estimating state information on the posture of the air vehicle by applying a filter for estimating the state of the nonlinear dynamic system with respect to the state variable; And calculating the posture information according to the motion of the air vehicle based on the estimated state information in real time.

상기 상태정보를 추정하는 단계는, 상기 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 상기 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상기 상태변수를 구할 수 있다.The step of estimating the state information may treat the noise as a random variable in the collected measurement data and obtain the state variable such that the expected value of the state information estimation error is minimized by the filter.

상기 측정 데이터를 수집하는 단계는, 3축 가속도계 센서 1개로부터 상기 비행체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 단계; 및 2축 자이로 센서 2개로부터 상기 비행체의 각속도 값(p, q, r)을 수집하는 단계;를 포함할 수 있다.The collecting of the measurement data may include collecting acceleration values (X, Y, Z) of the X, Y, and Z axes of the flight from one of the three-axis accelerometer sensors; And collecting the angular velocity values (p, q, r) of the air vehicle from two biaxial gyro sensors.

상기 상태변수를 구하는 단계는, 상기 비행체의 각속도와 오일러 각 간의 관계식을 이용하여 상기 비행체의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구할 수 있다.The obtaining of the state variable may include obtaining a change rate of an Euler angle of the air vehicle using a relational expression between an angular velocity of the air vehicle and an Euler angle and then obtaining an Euler angle by integrating the change rate of the Euler angle, , The Euler angles are obtained as the state variables composed of the rotation angle pie (?) With respect to the X axis direction, the rotation angle theta (?) With respect to the Y axis direction, and the rotation angle? With respect to the Z axis direction .

상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 비행체의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고, 상기 노출각은 상기 회전각 세타(θ)일 수 있다.Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis direction are both vertical, the Z-axis direction is perpendicular to the ground, and the rotation angle theta And the exposure angle may be the rotation angle theta (&thetas;).

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법이 컴퓨터에서 실행시키기 위한 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.According to an aspect of the present invention, there is provided a computer program stored in a computer-readable medium for executing an exposure time acquisition method of an image sensor mounted on a vehicle using an attitude information sensor according to an embodiment of the present invention. .

본 발명의 일 실시 예에 따라 이미지 센서가 탑재된 비행체의 자세가 급작스럽게 변경되어도 이미지 센서가 외부의 광에 노출되는 시간을 실시간으로 제어할 수 있다. 따라서, 별도의 하드웨어 추가 없이 실시간으로 영상이 선명하도록 영상의 밝기를 조절할 수 있다.According to an embodiment of the present invention, even when the posture of the air vehicle on which the image sensor is mounted is suddenly changed, the time during which the image sensor is exposed to external light can be controlled in real time. Therefore, the brightness of the image can be adjusted so that the image is vivid in real time without adding any additional hardware.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.

도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.
도 2a는 본 발명의 일 실시 예에 따른 비행체의 자세정보를 이용한 이미지 센서의 노출시간 획득 방법을 설명하기 위한 흐름도이다.
도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.
도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.
도 3은 본 발명의 일 실시 예에 따른 비행체의 자세정보를 이용하여 노출각을 측정하는 방법을 설명하기 위한 흐름도이다.
도 4a 및 도 4b는 본 발명의 또 다른 일 실시 예에 따른 무인 비행체가 노출각에 따라 이미지 센서의 노출시간을 획득하는 구체적인 방법을 나타낸 것이다.
도 5는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 획득하는 비행체의 구성을 개략적으로 도시한 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 획득하는 비행체에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.
FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.
2A is a flowchart illustrating a method of acquiring exposure time of an image sensor using attitude information of a flying object according to an embodiment of the present invention.
FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.
2C is a graph illustrating exposure time according to an embodiment of the present invention.
3 is a flowchart illustrating a method of measuring an exposure angle using attitude information of a flying object according to an embodiment of the present invention.
4A and 4B illustrate a specific method of acquiring the exposure time of the image sensor according to the exposure angle of the unmanned aerial vehicle according to another embodiment of the present invention.
5 is a block diagram schematically showing the configuration of an air vehicle for obtaining exposure time of an image sensor according to an embodiment of the present invention.
6 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in a flight vehicle for obtaining exposure time of an image sensor according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms " first ", " second ", and the like in the present specification are for distinguishing one element from another element, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In the present description, the identification codes (e.g., a, b, c, etc.) in each step are used for convenience of explanation, and the identification codes do not describe the order of each step, Unless you specify a specific order, it can happen differently from the order specified. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.As used herein, the expressions " have, " " comprise, " " comprise, " or " comprise may " refer to the presence of a feature (e.g., a numerical value, a function, And does not exclude the presence of additional features.

또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.In addition, the term 'portion' as used herein refers to a hardware component such as software or a field-programmable gate array (FPGA) or an ASIC, and 'part' performs certain roles. However, 'part' is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, by way of example, 'parts' may refer to components such as software components, object-oriented software components, class components and task components, and processes, functions, , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data structures and variables. The functions provided in the components and components may be further combined with a smaller number of components and components or further components and components.

도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.

도 1a 및 1b를 참조하면, 이미지 센서의 종류 중 하나인 CMOS 센서 및 CMOS 센서가 외부에 노출되면서 CMOS 센서에 포함된 픽셀이 영상을 리드아웃 하는 것을 나타낸 것으로, CMOS 센서는 여러 개의 픽셀을 포함할 수 있다. CMOS 센서가 햇빛 또는 물체에 반사된 빛에 노출되면서 각각의 픽셀은 빛에 노출되면서 획득한 값을 아날로그 디지털 변환기(ADC)를 통해 디지털 값으로 출력하여 영상 데이터를 리드아웃 할 수 있다.Referring to FIGS. 1A and 1B, a CMOS sensor and a CMOS sensor, which are one type of image sensor, are exposed to the outside, and pixels included in the CMOS sensor read out an image. The CMOS sensor includes a plurality of pixels . As the CMOS sensor is exposed to sunlight or reflected light from an object, each pixel can be exposed to light and output to a digital value via an analog to digital converter (ADC) to read out the image data.

이미지 센서는 광 에너지를 전기 에너지로 전환하여 디스플레이로 영상을 표시하거나 저장장치에 저장할 수 있게 하는 반도체이다. 일반적으로 사용되는 이미지 센서의 종류로는 전하결합소자(Charge Coupled Device, CCD), 상보성 금속산화막 반도체(CMOS), 밀착형 영상 센서(Contact Image Sensor, CIS) 등의 종류가 있다. Image sensors are semiconductors that convert light energy into electrical energy and display it on a display or store it in a storage device. There are various types of image sensors generally used, such as a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), a contact image sensor (CIS), and the like.

CCD 이미지 센서는 빛을 전하로 변환시켜 화상을 얻어내는 센서로 여러 개의 축전기(Condenser)가 쌍으로 상호 연결되어 있는 회로로 구성되어 있고, 회로 내의 각 축전기는 자신 주변의 축전지로 축적된 전하를 전달한다. 구체적으로 CCD 칩은 많은 광 다이오드들이 모여 있는 칩으로 CCD 이미지 센서는 각각의 광 다이오드에 광이 비추어지면 광량에 따라 전자가 생기고 해당 광 다이오드 각각의 광의 밝기를 나타내는 전자량을 재구성하여 화면을 이루는 이미지 정보를 생성한다.A CCD image sensor is a sensor that converts light into electric charge to acquire an image. It is composed of a circuit in which a plurality of condensers are interconnected in pairs. Each capacitor in the circuit carries charge accumulated in its surrounding accumulator do. Specifically, a CCD chip is a chip in which a lot of photodiodes are gathered. When a light is irradiated to each photodiode, the CCD image sensor generates electrons according to the amount of light, reconstructs an amount of electrons representing the brightness of each of the photodiodes, Information.

CCD 이미지 센서와 동일하게 광 다이오드를 사용하지만 제조 과정과 신호를 읽는 방법이 다른 CMOS 이미지 센서는 CMOS를 이용한 고체 촬상 소자이다. CMOS 이미지 센서는 소형으로 제작이 가능하며 저전력이므로 현재 핸드폰 등 여러분야 에서 많이 사용되고 있다. CMOS 이미지 센서는 단위 셀마다 증폭기를 가지고 있으며 광 변환된 전기 신호의 읽기에 의해서 전기 노이즈의 발생이 적어지는 특징이 있다. CMOS 이미지 센서 광에 의해 발생한 전자를 각 화소 내에서 전압으로 변환한 후에 여러 CMOS 스위치를 통해 출력하는 센서로 CMOS 이미지 센서는 여러 개의 픽셀로 이루어져 있으며 CMOS 이미지 센서를 구성하는 픽셀은 1개의 포토 다이오드와 4개의 트랜지스터로 구성될 수 있다.The CMOS image sensor, which uses a photodiode in the same way as a CCD image sensor, but has different manufacturing methods and methods for reading signals, is a CMOS solid-state image sensor. The CMOS image sensor can be manufactured in a small size and has low power, so it is widely used in various fields such as mobile phones. The CMOS image sensor has an amplifier for each unit cell and has a feature that electric noise is less generated by reading the photo-converted electric signal. CMOS image sensor A CMOS image sensor is composed of several pixels. The pixels constituting the CMOS image sensor are composed of one photodiode and one pixel. And may be composed of four transistors.

도 1c를 참조하면, CMOS 이미지 센서는 물체에 반사된 빛에 노출되고 프레임 오버헤드 시간(Frame Overhead Time, FOT) 이후에 노출된 시간 동안 모은 아날로그 영상을 아날로그디지털 변환기 (analog-digital converter, ADC)를 통해서 디지털로 표현된 영상 데이터를 리드아웃(READOUT) 할 수 있다. 즉, CMOS 센서는 영상 데이터를 리드아웃 하는 동시에 CMOS 센서는 외부의 광에 노출되고 다음에 또 읽을 수 있게 된다.Referring to FIG. 1C, the CMOS image sensor is an analog-to-digital converter (ADC) which is exposed to light reflected from an object and collected during a period of time after a frame overhead time (FOT) It is possible to READOUT the image data expressed in digital form. That is, the CMOS sensor can read out the image data, and the CMOS sensor can be exposed to external light and read out again.

하지만 여기서 CMOS 센서가 한 프레임에 대한 영상 데이터를 읽고 그 값을 분석하여 적절한 노출시간을 구한 후 적용하기 까지는 약 100ms 이상의 지연이 발생한다. 즉, 100ms 이전의 영상 데이터를 분석하여 나온 노출시간 동안 CMOS 센서를 광에 노출시켜 영상을 얻을 수 있지만, 일반적으로 CMOS 센서가 획득하는 영상 데이터는 정지 영상이 아닌 동영상과 같이 실시간으로 변화하는 영상으로 100ms 이상의 지연이 발생하였으므로 분석된 노출시간을 현재 영상에 적용하는 것은 적절하지 않다.However, here, the CMOS sensor reads the image data for one frame, analyzes the value of the image data, and determines a proper exposure time. In other words, the image can be obtained by exposing the CMOS sensor to light during the exposure time analyzed by the image data of 100 ms or earlier. However, in general, the image data acquired by the CMOS sensor is a real- Since a delay of more than 100 ms has occurred, it is not appropriate to apply the analyzed exposure time to the current image.

도 1d를 참조하면, 외부에서 입사되는 광으로부터 CMOS 센서가 오래도록 노출되는 경우 CMOS 센서에 포함된 픽셀 값들은 포화(saturation)될 수 있고, 포화된 픽셀 값들에 의해 전체적으로 영상 데이터는 밝게 나오게 된다. 구체적으로 영상 데이터에서 밝은 부분들은 똑같이 밝아져 조금 밝았던 부분이나 많이 밝았던 부분에 대한 구분이 어려워진다.Referring to FIG. 1D, when the CMOS sensor is exposed for a long time from light incident from the outside, the pixel values included in the CMOS sensor may be saturated, and the image data may be entirely brightened by the saturated pixel values. Specifically, the bright portions of the image data are equally bright, making it difficult to distinguish between a portion that is slightly bright or a portion that is bright.

따라서, 비행체가 전투 임무 수행 중 급작스럽게 회전하는 경우 해를 바라볼 수도 있고, 이 경우 CMOS 센서에 입사되는 광량이 많아 이미지 센서에 포함된 픽셀 값들은 바로 포화되어서 영상이 더욱 하얗게 보일 수 있다.In this case, since the amount of light incident on the CMOS sensor is large, the pixel values included in the image sensor are saturated and the image may appear more whiter.

이에 비해 도 1e를 참조하면, 상술한 도 1d와 반대로 외부에서 입사되는 광으로부터 이미지 센서가 짧게 노출된 경우 영상 데이터에서 조금 어두웠던 부분과 많이 어두웠던 부분에 대한 구분이 어려워진다.On the other hand, referring to FIG. 1E, in contrast to FIG. 1D, when the image sensor is briefly exposed from the light incident from the outside, it is difficult to distinguish between a part that is slightly dark and a part that is dark.

따라서, 비행체가 급작스럽게 회전하면서 광이 비치지 않는 어두운 곳을 바라보는 경우, CMOS 센서에 입사되는 광량이 적어 이미지 센서에 포함된 픽셀 값들은 더욱 어둡게 보일 수 있다.Accordingly, when the airplane suddenly rotates and looks at a dark place where no light is shining, the amount of light incident on the CMOS sensor is small, so that pixel values included in the image sensor may appear darker.

도 2a는 본 발명의 일 실시 예에 따른 비행체의 자세정보를 이용한 이미지 센서의 노출시간 획득 방법을 설명하기 위한 흐름도이다.2A is a flowchart illustrating a method of acquiring exposure time of an image sensor using attitude information of a flying object according to an embodiment of the present invention.

도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.

도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.2C is a graph illustrating exposure time according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 획득하는 비행체는 이미지 센서를 사용하여 영상을 획득하는 비행기, 헬리콥터, 무인 비행체 또는 미사일일 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 상술한 이미지 센서의 노출시간을 획득하는 비행체는 움직이면서 이미지 영상 센서를 사용하여 영상을 획득할 수 있는 모든 비행체에 적용될 수 있다.The flying object for obtaining the exposure time of the image sensor according to an exemplary embodiment of the present invention may be an airplane, a helicopter, an unmanned air vehicle, or a missile that acquires images using an image sensor. However, the present invention is not limited to the above-described embodiment, and the air vehicle for obtaining the exposure time of the image sensor may be any one capable of acquiring images using the image sensor while moving It can be applied to aircraft.

도 2a를 참조하면, 이미지 센서부가 영상 데이터를 획득한다(S210)Referring to FIG. 2A, the image sensor acquires image data (S210)

이미지 센서부에 포함된 이미지 센서는 외부의 광에 노출되어 이미지 센서로 광이 입사되면서 이미지 센서부는 입사된 광으로부터 영상 데이터를 획득할 수 있다.The image sensor included in the image sensor unit is exposed to external light and is incident on the image sensor, so that the image sensor unit can acquire image data from the incident light.

본 발명의 일 실시 예에 따른 이미지 센서부는 상술한 CCD, CMOS CIS와 같은 이미지 센서가 사용될 수 있으며, 상술한 이미지 센서부가 해로부터 직접적으로 들어오는 광 또는 물체로부터 반사된 광에 노출되는 경우 이미지 센서부가 영상을 획득하는 방법은 이미지 센서부에 포함된 전처리부가 이미지 센서부에 포함된 각각의 픽셀로 입사되는 광을 전기 신호로 변환시키고, 변환된 전기 신호를 증폭 및 압축시킬 수 있다. 또한, 이미지 센서부에 포함된 아날로그 디지털 변환부가 증폭 및 압축된 전기 신호를 디지털 신호로 변환하여 이미지 센서부가 영상 데이터를 획득할 수 있다. 따라서, 본 발명의 일 실시 예에 따라 이미지 센서부로부터 획득되며 픽셀의 값으로 이루어진 픽셀의 집합인 영상 데이터에 포함된 각각의 픽셀은 8BIT, 10BIT, 12BIT 등과 같은 디지털 값으로 표현할 수 있다.The image sensor unit according to an embodiment of the present invention may be an image sensor such as the CCD or CMOS CIS described above. When the image sensor unit described above is exposed to light directly coming from the solution or reflected from the object, In the method of acquiring an image, the preprocessing unit included in the image sensor unit converts light incident on each pixel included in the image sensor unit into an electric signal, and amplifies and compresses the converted electric signal. Also, the analog-to-digital converter included in the image sensor unit can convert the amplified and compressed electrical signal into a digital signal, and the image sensor unit can acquire the image data. Accordingly, each pixel included in the image data, which is a set of pixels obtained from the image sensor unit and composed of pixel values, according to an embodiment of the present invention, can be represented by digital values such as 8BIT, 10BIT, 12BIT and the like.

영상 처리부가 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출한다(S220).The image processing unit calculates a representative value from the pixels included in the image data obtained from the image sensor unit (S220).

도 2b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서부와 영상 처리부는 이미지 센서부로부터 획득된 영상 데이터를 낮은 전압 차분 신호(Low-voltage differential signaling, LVDS)로 수신할 수 있다. 구체적으로 도 2b는 영상 처리부(220)가 낮은 전압 차분 신호를 이용하여 각각 8BIT, 10BIT 및 12BIT의 픽셀 데이터를 수신하는 것을 나타낸 것이다.Referring to FIG. 2B, the image sensor unit and the image processing unit according to an exemplary embodiment of the present invention can receive image data obtained from the image sensor unit using low-voltage differential signaling (LVDS). Specifically, FIG. 2B shows that the image processing unit 220 receives 8-bit, 10-bit, and 12-bit pixel data using a low voltage difference signal, respectively.

LVDS로 신호를 전송하는 방법은 디지털 정보를 구리선을 통해 고속 전송하기 위해 송신측에서 서로 다른 2개의 낮은 전압을 전송하면 수신측에서 전송된 2개의 전압 차이를 비교하여 영상 데이터를 수신하는 방법으로, 본 발명의 일 실시 예에 따르면 이미지 센서부는 서로 다른 2개의 낮은 전압을 전송하고, 영상 처리부에서 2개의 전압 차이를 비교하여 노이즈를 제거시킨 영상 데이터를 고속으로 받을 수 있다.A method of transmitting signals by LVDS is a method of receiving image data by comparing two voltage differences transmitted from a receiving side by transmitting two different low voltages at a transmitting side in order to transmit digital information at high speed through a copper line, According to an embodiment of the present invention, the image sensor unit transmits two different low voltages, and the image processing unit compares the two voltage differences to receive the noise-eliminated image data at a high speed.

따라서, 본 발명의 일 실시 예에 따라 영상 처리부가 LVDS를 이용하여 이미지 센서부로부터 영상 데이터를 전송 받는 경우 영상 데이터를 빠르게 전송 받을 수 있으며, 낮은 전압 신호를 이용하므로 전력 소비가 감소되며, 차분 신호를 이용하므로 노이즈가 제거된 영상 데이터를 전송 받을 수 있는 효과가 있다.Therefore, according to the embodiment of the present invention, when the image processing unit receives image data from the image sensor unit using the LVDS, it can receive the image data quickly. Since the low voltage signal is used, the power consumption is reduced, It is possible to receive the image data from which the noise has been removed.

다시 도 2a를 참조하면, 본 발명의 일 실시 예에 따른 영상 처리부는 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 통계적으로 산출될 수 있는 모든 값을 포함하는 대표값을 산출할 수 있다.Referring again to FIG. 2A, the image processing unit according to an exemplary embodiment of the present invention may calculate a representative value including all values that can be statistically calculated from the pixels included in the image data obtained from the image sensor unit .

본 발명의 또 다른 일 실시 예에 따른 대표값은 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들 중 이미지 센서부에 포함된 이미지 센서로 광이 입사됨에 따라 영상 데이터를 표현하도록 동작이 가능한 픽셀들로부터 결정된 영상 밝기의 평균값일 수 있다. 구체적으로 영상 처리부는 이미지 센서부로부터 획득된 영상 데이터에 포함되며 디지털 값으로 변환된 픽셀값들을 리드할 수 있고, 리드 된 픽셀값들을 연산 처리하여 평균값을 결정할 수 있다. 상술한 리드 된 픽셀값들은 영상 데이터를 표현하도록 동작 가능한 픽셀값들만 리드 될 수 있으나 이에 한정되는 것은 아니며 다양한 조합으로 픽셀값들을 리드할 수 있다.The representative value according to another exemplary embodiment of the present invention is a representative value among pixels included in the image data acquired from the image sensor unit and capable of operating to represent image data as light is incident on the image sensor included in the image sensor unit. May be an average value of image brightness determined from the image brightness. Specifically, the image processing unit can read the pixel values converted into the digital values included in the image data obtained from the image sensor unit, and calculate the average value by calculating the read pixel values. The read pixel values described above may be read only in pixel values that are operable to represent image data, but are not limited thereto and may read pixel values in various combinations.

노출각 측정부가 자세정보 센서를 이용하여 센싱된 이미지 센서가 탑재된 비행체의 자세정보를 기초로 기 설정된 기준 방향 및 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정한다(S230).The exposure angle measuring unit measures an exposure angle, which is an angle between a preset reference direction and a direction of light incident to the image sensor unit, based on the attitude information of the flying object on which the sensed image sensor is mounted using the attitude information sensor in step S230.

노출각 측정부가 노출각을 측정하는 구체적인 방법은 도 3에서 후술하기로 한다. A concrete method for measuring the exposure angle of the exposure angle measuring unit will be described later with reference to FIG.

노출시간 획득부가 산출된 대표값이 기 설정된 데이터 값이 되도록 이미지 센서부가 광에 노출되는 시간인 노출시간을 측정된 노출각에 따라 획득한다(S240).In step S240, the exposure time, which is the exposure time of the image sensor unit to the light so that the representative value calculated by the exposure time acquisition unit becomes the predetermined data value, is acquired according to the measured exposure angle.

본 발명의 일 실시 예에 따른 기 설정된 데이터 값은 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다. 구체적으로, 본 발명의 일 실시 예에 따라 이미지 센서부로부터 획득된 영상 데이터의 크기는 영상 크기가 640 X 480일 수 있고, 영상 크기가 640 X 480인 경우 픽셀의 개수는 307500개 이며, 각각의 픽셀이 12BIT인 경우일 수 있다. 픽셀이 12BIT인 경우 픽셀은 4096가지(=212개)의 색을 표현할 수 있으며, 상술한 중간값은 2048일 수 있으며, 2048에 근접한 값일 수도 있다.The predetermined data value according to an exemplary embodiment of the present invention may be an intermediate value indicating the number of the pixels included in the image data obtained from the image sensor unit in the middle of the number of colors. More specifically, according to an exemplary embodiment of the present invention, the size of the image data obtained from the image sensor unit may be 640 X 480, the number of pixels is 307500 when the image size is 640 X 480, And the pixel is 12 BIT. If the pixel is 12 bits, the pixel can represent 4096 (= 212) colors, and the above-mentioned intermediate value may be 2048, or a value close to 2048. [

도 2c를 참조하면, 도 2c는 본 발명의 일 실시 예에 따라 상술한 이미지 센서부로부터 획득된 영상 크기가 640 X 480이고, 각각의 픽셀이 12BIT인 경우 총 픽셀들로부터 결정된 영상 밝기의 평균값과 노출시간의 관계를 그래프로 나타낸 것으로 상술한 평균값이 중간값인 2048이 되도록 하는 노출시간은 33ms이다. 따라서, 노출시간 획득부는 영상 처리부에서 산출된 평균값이 기 설정된 데이터 값인 2048이 되도록 만드는 노출시간 33ms를 노출각 측정부에서 측정된 노출각에 따라 획득할 수 있다. 단, 상술한 영상 크기 및 픽셀의 BIT는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 영상의 크기 및 픽셀의 개수일 수 있다.Referring to FIG. 2C, FIG. 2C is a graph illustrating an average value of image brightness determined from the total pixels when the image size obtained from the image sensor unit is 640 X 480 and each pixel is 12 bits according to an exemplary embodiment of the present invention. And the exposure time is a graph showing the relationship between the exposure time and the exposure time. Accordingly, the exposure time acquiring unit can acquire the exposure time of 33 ms so that the average value calculated in the image processing unit becomes the preset data value of 2048 according to the exposure angle measured by the exposure angle measuring unit. However, the above-described image size and the BIT of the pixels are examples for explaining one embodiment of the present invention, but the present invention is not limited thereto and may be various image sizes and the number of pixels.

또한, 본 발명의 일 실시 예에 따르면, 제어부가 노출각에 따라 노출시간 획득부에서 획득한 노출시간을 메모리에 저장할 수 있다.Also, according to an embodiment of the present invention, the control unit may store the exposure time acquired in the exposure time acquisition unit according to the exposure angle in a memory.

또한, 본 발명의 일 실시 예에 따른 제어부는 실시간으로 기 설정된 기준 방향 및 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하도록 노출각 측정부를 제어할 수 있고, 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 노출시간 획득부를 제어할 수 있다.In addition, the controller according to an embodiment of the present invention can control the exposure angle measuring unit to measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident to the image sensor unit in real time, It is possible to control the exposure time obtaining section to obtain the exposure time.

또한, 제어부는 영상 밝기의 평균값을 계속해서 데이터의 중간값에 유지할 수 있도록 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 노출시간 획득부를 제어할 수 있다.In addition, the control unit may control the exposure time obtaining unit to obtain the exposure time according to the exposure angle measured in real time so that the average value of the image brightness can be continuously maintained at the intermediate value of the data.

제어부는 메모리에 저장된 노출각에 따라 획득된 노출시간과 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교할 수 있으며, 비교 결과 메모리에 저장된 노출각과 실시간으로 측정된 노출각이 동일하지만 노출시간이 다른 경우 제어부는 메모리에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.The control unit can compare the obtained exposure time according to the exposure angle acquired in accordance with the exposure angle stored in the memory and the acquired exposure time according to the actual exposure angle measured in real time. If the comparison result shows that the exposure angle stored in the memory is equal to the measured exposure angle in real time, In other cases, the control unit may update the exposure time stored in the memory with the exposure time measured in real time.

본 발명의 일 실시 예에 따른 제어부는 동기식 시리얼 통신을 통해 메모리에 저장된 노출시간을 실시간으로 업데이트 할 수 있다. 동기식 시리얼 통신은 데이터를 보낼 때 데이터가 전달된다고 알려주는 별도의 클럭(clock) 라인을 사용하는 방법으로 클럭 라인을 통신 참여자가 공유함으로써 데이터 라인으로 언제 데이터가 들어오는지 알 수 있도록 해주는 방법이다. 동기식 통신 방법의 종류로는 I2C, SPI(Serial Peripheral Interface) 통신이 있으며, SPI(Serial Periphal Interface) 통신이란 직렬(Serial)로 데이터 통신을 수행함으로써 임의의 IC에 특정한 정보를 전달하고, 그 IC의 정보를 알 수 있도록 하는 일종의 통신 프로토콜이다.The controller according to an embodiment of the present invention can update the exposure time stored in the memory in real time through the synchronous serial communication. Synchronous serial communication is a method of using a separate clock line to indicate that data is transferred when data is transmitted, so that the communication partner can share the clock line to know when data is coming into the data line. I2C, SPI (Serial Peripheral Interface) communication is a kind of synchronous communication method, and SPI (Serial Peripheral Interface) communication is a serial communication of data, It is a kind of communication protocol that allows information to be known.

따라서, 본 발명의 일 실시 예에 따르면 제어부는 SPI 통신을 통해 메모리에 저장된 노출시간을 실시간으로 업데이트 할 수 있으나 이에 한정되는 것은 아니며 다양한 통신 방법에 의해 제어부는 메모리에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.Therefore, according to an embodiment of the present invention, the controller can update the exposure time stored in the memory in real time through the SPI communication, but the present invention is not limited thereto, and the controller may control the exposure time stored in the memory in real time You can update the exposure time.

또한, 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서의 노출시간을 획득하도록 이미지 센서가 탑재된 비행체가 움직이면서 비행체의 자세정보가 급작스럽게 변경되는 경우, 제어부는 상술한 자세정보가 변경된 비행체의 자세정보를 기초로 현재 노출각을 측정하도록 노출각 측정부를 제어할 수 있다. 또한, 제어부는 메모리에 저장된 노출각 중 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정하여 결정된 노출각에 따른 노출시간을 메모리에서 로드할 수 있고, 제어부는 로드 된 노출시간 동안 이미지 센서부가 광에 노출되도록 제어할 수 있다.According to another embodiment of the present invention, in a case where the attitude information of the air vehicle is suddenly changed while the air vehicle on which the image sensor is mounted moves to obtain the exposure time of the image sensor, The exposure angle measuring unit can be controlled to measure the current exposure angle based on the information. In addition, the control unit may determine the exposure angle corresponding to the measured exposure angle while changing the posture information among the exposure angles stored in the memory, load the exposure time according to the determined exposure angle in the memory, The sensor unit can be controlled to be exposed to light.

도 3은 본 발명의 일 실시 예에 따른 비행체의 자세정보를 이용하여 노출각을 측정하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of measuring an exposure angle using attitude information of a flying object according to an embodiment of the present invention.

도 3을 참조하면, 복수 개의 자세정보 센서가 비행체의 자세에 대한 측정 데이터를 수집한다(S231).Referring to FIG. 3, a plurality of attitude information sensors collect measurement data on attitudes of a flying object (S231).

본 발명의 일 실시 예에 따른 복수 개의 자세정보 센서부는 제1 자세정보 센서부 및 제2 자세정보 센서부를 포함할 수 있으나, 이에 한정되는 것은 아니며 자세정보 센서부의 개수는 2개 보다 더 많을 수 있다.The plurality of attitude information sensor units may include a first attitude information sensor unit and a second attitude information sensor unit, but the present invention is not limited thereto, and the number of attitude information sensor units may be more than two .

제1 자세정보 센서부는 3축 가속도계 센서 1개로 구성되어 이미지 센서를 탑재한 비행체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집할 수 있으며, 제2 자세정보 센서부는 2축 자이로 센서 2개로부터 이미지 센서를 탑재한 비행체의 각속도 값(p, q, r)을 수집할 수 있다.The first attitude information sensor unit is configured by one triaxial accelerometer sensor and can collect the acceleration values (X, Y, Z) of the X, Y, and Z axes of the air vehicle equipped with the image sensor, From two two-axis gyro sensors, angular velocity values (p, q, r) of a vehicle equipped with an image sensor can be collected.

자세정보 센서 융합부가 수집된 측정 데이터를 융합 및 가공하여 이미지 센서를 탑재한 비행체의 자세에 대한 상태변수를 구한다(S232).The attitude information sensor fusion unit fuses and processes the collected measurement data to obtain a state variable of the posture of the air vehicle on which the image sensor is mounted (S232).

구체적으로, 자세정보 센서 융합부는 움직이는 이미지 센서의 노출시간 획득을 위한 이미지 센서를 탑재한 비행체의 각속도와 오일러 각 간의 관계식을 이용하여 이미지 센서를 탑재한 비행체의 오일러 각의 변화율을 결정할 수 있고, 결정된 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 산출할 수 있다. 자세정보 센서 융합부는 자세정보 센서 융합에 기반하여 산출된 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상태변수로서 결정할 수 있다.Specifically, the posture information sensor fusion unit can determine the rate of change of the Euler angles of the air vehicle equipped with the image sensor using the relation between the angular velocity and the Euler angle of the air vehicle equipped with the image sensor for acquiring the exposure time of the moving image sensor, Euler angles can be calculated by integrating the rate of change of the Euler angles. The posture information sensor fusion unit compares the Euler angles calculated based on the posture information sensor fusion with the rotation angle pie (?) With respect to the X axis direction, the rotation angle theta (?) With respect to the Y axis direction, (Ψ).

여기서 자세정보 센서 융합부는 개별 자세정보 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용할 수 있다. 즉, 자세정보 센서 융합의 목적은 각 자세정보 센서부로부터 수집된 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.Here, the attitude information sensor fusion unit can use a series of digital filtering algorithms to supplement the shortcomings of the individual attitude information sensors and output accurate dynamic attitude information. That is, the purpose of attitude information sensor fusion is to input the data collected from each attitude information sensor part and apply digital filtering to complement each other and output correct and useful dynamic attitude result value.

자세정보 센서 융합부는 상기 오일러 각의 변화율을 하기 [수학식 1]로 구할 수 있다.The posture information sensor fusion unit can obtain the rate of change of the Euler angle by the following equation (1).

[수학식 1] [Equation 1]

Figure 112018050569053-pat00001
Figure 112018050569053-pat00001

여기서, (p, q, r)은 이미지 센서가 탑재된 비행체의 각속도계 값이고,

Figure 112018050569053-pat00002
는 오일러 각의 변화율이다. Here, (p, q, r) is the value of each speedometer of the flying object on which the image sensor is mounted,
Figure 112018050569053-pat00002
Is the rate of change of the Euler angles.

그리고, 상술한 오일러 각의 변화율을 적분함으로써, 하기 [수학식 2]의 오일러 각으로 나타내는 상태변수(Φt, θt, Ψt)를 구할 수 있다.And, to be obtained for the state variables (Φ t, θ t, Ψ t) represented by the Euler angles of the Equation (2) by integrating the rate of change of the above-described Eulerian angles.

[수학식 2]&Quot; (2) "

Figure 112018050569053-pat00003
Figure 112018050569053-pat00003

필터부가 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 비행체의 자세에 대한 상태정보를 추정한다(S233).A filter for estimating the state of the nonlinear dynamics system is applied to the filter addition state variable to estimate the state information of the attitude of the flight body (S233).

구체적으로 필터부는 [수학식 2]로부터 결정되는 상태변수(Φt, θt, Ψt)에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 이미지 센서를 탑재한 비행체의 상태정보를 추정할 수 있다. 이를 위해, 필터부는 복수 개의 자세정보 센서부로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구할 수 있다.More specifically, filter unit Equation (2) by applying a filter to estimate the state of the non-linear yeokhakgye for the state variables (Φ t, θ t, Ψ t) is determined to estimate the status of mounting the image sensor air vehicle from have. To this end, the filter unit can treat the noise as a random variable in the measurement data collected from the plurality of attitude information sensor units, and obtain the state variable such that the expected value of the state information estimation error is minimized by the filter.

구체적으로, 본 발명의 일 실시 예에 따른 필터부는 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용할 수 있다.Specifically, it is possible to apply the extended Kalman filter in the filter unit the state variables (Φ t, θ t, Ψ t) in accordance with one embodiment of the present invention.

칼만 필터는 잡음이 포함되어 있는 선형 역학계의 상태를 추적하는 재귀 필터로써, 구체적으로 잡음까지 포함된 입력 데이터를 재귀적으로 처리하는 필터로 현재 상태에 대한 최적의 통계적 예측을 진행할 수 있다. 하지만, 칼만 필터는 기본적으로 시스템이 선형이라는 가정하에 설계된 필터로 비선형 시스템에 적용하면 오차가 오히려 커지거나 발산해버리는 특성이 있어서 문제가 있다. 따라서, 본 발명의 일 실시 예에서는 계산량이 비교적 적으며 비선형 시스템에서 상태 추정이 가능한 확장 칼만 필터를 적용할 수 있다.The Kalman filter is a recursive filter that tracks the state of a linear dynamics system that contains noise. Specifically, it is a filter that recursively processes input data including noise, and can perform optimal statistical prediction of the current state. However, the Kalman filter is basically a filter designed on the assumption that the system is linear. When applied to a nonlinear system, there is a problem that the error becomes rather large or divergence occurs. Accordingly, in an embodiment of the present invention, an extended Kalman filter having a relatively small amount of calculation and capable of state estimation in a nonlinear system can be applied.

확장 칼만 필터를 통해 이미지 센서부의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산할 수 있으며, 계산된 칼만 이득과 예측 추정값을 이용하여 이미지 센서를 탑재한 비행체의 상태정보를 추정하고, 칼만 이득과 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.The Kalman gain can be calculated by obtaining a predicted value and a prediction error covariance of the state information of the image sensor unit through the extended Kalman filter. The state information of the air vehicle equipped with the image sensor is estimated using the calculated Kalman gain and the predicted value , The error covariance can be obtained using the Kalman gain and the prediction error covariance.

필터부는 복수 개의 자세정보 센서부로부터 측정된 측정값 중 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 업데이트 된 측정값에 따라 상태변수를 구하고, 확장 칼만 필터를 적용하여 이미지 센서를 탑재한 비행체의 상태정보를 추정하는 과정을 반복한다.The filter unit updates the pie and theta obtained from the three-axis accelerometer among the measured values measured from the plurality of attitude information sensor units, obtains the state variable according to the updated measurement value, applies the extended Kalman filter The process of estimating the state information of the air vehicle equipped with the image sensor is repeated.

여기서, 확장 칼만 필터에 대해 상세히 설명하자면 다음과 같다.Here, the extended Kalman filter will be described in detail as follows.

확장 칼만 필터는 다음 수학식 3과 같은 상태변화모델과 측정모델을 갖는다.The extended Kalman filter has a state change model and a measurement model as shown in Equation (3).

[수학식 3]&Quot; (3) "

Figure 112018050569053-pat00004
Figure 112018050569053-pat00004

여기서 Xt는 마르코프 프로세스(Markov Process)를 따르는 상태 벡터이고,

Figure 112018050569053-pat00005
Figure 112018050569053-pat00006
는 평균이 0이고, 분산이 각각
Figure 112018050569053-pat00007
,
Figure 112018050569053-pat00008
인 독립 가우시안 백색 잡음이다. 마르코프 프로세스는 상태벡터가 결정될 확률이 과거의 다른 상태 벡터들과 무관하고 그 직전의 결과인 Xt-1에 따라 결정된다는 가정이다. 다음은 수학식 4는 상기 상태방정식에 대한 확장 칼만 필터 알고리즘이다.Where X t is a state vector following the Markov process,
Figure 112018050569053-pat00005
Wow
Figure 112018050569053-pat00006
The average is 0, and the variance is
Figure 112018050569053-pat00007
,
Figure 112018050569053-pat00008
Independent Gaussian white noise. The Markov process assumes that the probability that the state vector is determined is independent of other state vectors of the past and is determined according to X t-1 , which is the result of the previous state vector. Equation (4) is an extended Kalman filter algorithm for the above state equation.

[수학식 4]&Quot; (4) "

Figure 112018050569053-pat00009
Figure 112018050569053-pat00009

여기서,

Figure 112018050569053-pat00010
.는 평균값,
Figure 112018050569053-pat00011
는 분산값,
Figure 112018050569053-pat00012
는 제어값,
Figure 112018050569053-pat00013
는 측정값,
Figure 112018050569053-pat00014
는 칼만 게인, 확장 칼만 필터는 t-1 순간까지의 관측값에 근거하여 X(t|t-1)을 추정하며 알고리즘은 반복형으로 표현된다.
Figure 112018050569053-pat00015
는 시스템에 대한 노이즈의 공분산 값이고
Figure 112018050569053-pat00016
는 센서 측정 값에 대한 노이즈의 공분산 값이다. here,
Figure 112018050569053-pat00010
The average value,
Figure 112018050569053-pat00011
Is a variance value,
Figure 112018050569053-pat00012
Is a control value,
Figure 112018050569053-pat00013
Lt; / RTI >
Figure 112018050569053-pat00014
The Kalman gain and the extended Kalman filter estimate X (t | t-1) based on the observations up to the instant t-1, and the algorithm is expressed in iterative form.
Figure 112018050569053-pat00015
Is the covariance of the noise for the system
Figure 112018050569053-pat00016
Is the covariance of the noise to the sensor measurement.

(10-1), (10-2)번 식은 예측하는 부분이고 (10-3)번 식은 칼만 이득(Kalman Gain)을 나타낸다. 칼만 이득의 물리적 의미는 숫자가 클수록 측정치가 정확하고 숫자가 작을 수록 예측치가 정확하다 할 수 있다.(10-1) and (10-2) are predictive parts and the equation (10-3) expresses Kalman gain. The physical meaning of the Kalman gain is that the larger the number is, the more accurate the measured value, and the smaller the number, the better the predicted value.

(10-4), (10-5)번 식은 측정한 값을 업데이트 하는 부분이다. 확장 칼만 필터를 비선형 시스템에 적용할 수 있는 이유는 바로 테일러 시리즈와 자코비안을 확장 칼만 필터에 적용하였기 때문이다. 테일러 시리즈는 비선형 시스템을 선형화시켜주며 자코비안은 복잡하게 얽혀 있는 식을 미분을 이용하여 선형 근사화시켜 간단한 근사 선형식을 만들어 준다. 확장 칼만 필터는 비선형 시스템에 적용할 수 있으므로 쿼터니언 좌표계를 사용할 필요 없이 오일러 각을 이용한다. (10-4), (10-5) is the part that updates the measured value. The extended Kalman filter can be applied to nonlinear systems because the Taylor series and Jacobian are applied to the extended Kalman filter. The Taylor series linearizes the nonlinear system, and Jacobian creates a simple approximation of the line by approximating complex entangled formulas using derivatives. The extended Kalman filter can be applied to nonlinear systems, so the Euler angles are used without the use of a quaternion coordinate system.

본 발명의 일 실시 예에 따른 비행체에 탑재된 이미지 센서부로 입사되는 광이 일반적으로 해로부터 직접 입사되는 경우 이미지 센서부가 하늘을 바라보는 경우이고 본 발명의 일 실시 예로 지상에 있는 탱크로부터 반사된 광이 입사되는 경우 이미지 센서부가 지상을 바라보는 경우로 이에 대하여 확장 칼만 필터 적용 시 X축 방향에 대한 회전 각?Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이) 중 Y축 방향에 대한 회전 각 θ(세타)만 실시간으로 획득할 수 있다. 단, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각?Φ(파이)도 실시간으로 획득할 수 있으며 이는 프로그램 설계시 제작자의 임의로 또는 사용자의 설정에 따라 변경될 수 있다.In the case where the light incident on the image sensor unit mounted on the air vehicle according to the embodiment of the present invention is directly incident from the sea, the image sensor unit looks at the sky. In one embodiment of the present invention, (Theta) with respect to the Y-axis direction, the rotation angle? (Theta) with respect to the Y-axis direction, and the Z-axis direction with respect to the X-axis direction when the image sensor portion is viewed on the ground, Only the rotational angle [theta] (theta) with respect to the Y-axis direction among the rotational angles [psi] (psi) can be obtained in real time. However, depending on the special situation or environment, the rotation angle Ψ (psi) or the rotation angle Φ (pi) with respect to the X axis direction in the Z axis direction can be obtained in real time. It can be changed according to the setting.

따라서, 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 획득을 위한 이미지 센서를 탑재한 비행체의 자세 정보 획득을 위한 상태변수는 X축 방향에 대한 회전 각?Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이)으로 구성될 수 있다.Therefore, the state variables for acquiring the attitude information of the air vehicle equipped with the image sensor for acquiring the exposure time of the image sensor according to an embodiment of the present invention include a rotation angle? (Pi) with respect to the X axis direction, A rotation angle? (Theta) with respect to the Z axis direction, and a rotation angle? (Psi) with respect to the Z axis direction.

상술한 첫 번째 식 (10-1)에 각속도와 오일러각의 관계식을 적용할 수 있으나 비선형식이고, 확장 칼만 필터의 예측하는 첫 번째 식 (10-1)은 제어하는 부분은 없으므로 ut는 삭제하고 다음 수학식 5와 같이 나타낼 수 있다.And the above-described first equation (10-1) can be applied to the relation of the angular speed and Euler angles, but defense type, the first type to predict the extended Kalman filter 10-1 is t u is not deleted is part of controlling And can be expressed by the following equation (5).

[수학식 5]&Quot; (5) "

Figure 112018050569053-pat00017
Figure 112018050569053-pat00017

위 식을 이미지 센서를 탑재한 비행체의 자세를 나타내는 오일러 각으로 풀 수 있다.The above equation can be solved by an Euler angle indicating the attitude of the air vehicle equipped with the image sensor.

본 발명의 일 실시 예를 설명하기 위해 이미지 센서를 탑재한 비행체의 Φ와 θ 각도만을 고려하고 ψ는 사용하지 않는 경우로 설정하도록 한다. Φ와 θ 각도는?

Figure 112018050569053-pat00018
를 적분함으로서 구할 수 있고, 이 식을 적분하면 이미지 센서를 탑재한 비행체의 위치 정보를 나타내는 상태모델(state model)이 될 수 있다. 단 상술한 예시는, 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, θ 각도만을 고려하고 Φ와 ψ는 사용하지 않는 경우로 설정할 수 있고, 또한, Φ, θ 및 ψ 각도 모두를 고려할 수도 있다.In order to describe an embodiment of the present invention, only Φ and θ angle of a flying object on which an image sensor is mounted are considered, and ψ is set to be not used. What is Φ and θ angle?
Figure 112018050569053-pat00018
And integrating this equation can be a state model representing the position information of the air vehicle on which the image sensor is mounted. However, the present invention is not limited to this, and it is possible to set Φ and ψ not to use Φ, θ and ψ in consideration of θ angle only, You can also consider both angles.

이미지 센서를 탑재한 비행체의 자세정보 상태모델은 상술한 수학식 1과 같고, 수학식 1을 적분한 식은 상술한 수학식 2와 같다. 수학식 1과 수학식 2에서 다음 수학식 5가

Figure 112018050569053-pat00019
통용될 수 있다. 여기서, dt는 미소시간을 나타낸다.The attitude information state model of the air vehicle equipped with the image sensor is as shown in Equation (1), and the equation obtained by integrating Equation (1) is as shown in Equation (2). In the equations (1) and (2), the following equation (5)
Figure 112018050569053-pat00019
Can be used. Here, dt represents the minute time.

이미지 센서를 탑재한 비행체의 자세정보 측정모델은 다음 수학식 6과 같다.The attitude information measurement model of the air vehicle equipped with the image sensor is expressed by the following equation (6).

[수학식 6]&Quot; (6) "

Figure 112018050569053-pat00020
Figure 112018050569053-pat00020

수학식 6은 선형이므로 자코비안을 사용할 필요없이 다음 수학식 7과 같은 측정모델로 사용할 수 있다.Since Equation (6) is linear, it can be used as a measurement model as shown in Equation (7) without using Jacobian.

[수학식 7]&Quot; (7) "

Figure 112018050569053-pat00021
Figure 112018050569053-pat00021

그리고, 측정모델 H는 다음 수학식 8과 같이 구해진다.Then, the measurement model H is obtained by the following equation (8).

[수학식 8]&Quot; (8) "

Figure 112018050569053-pat00022
Figure 112018050569053-pat00022

미분을 통하여 시스템을 선형 근사화시키기 위해서 자코비안을 이용하는데 자코비안은 수학식 9와 같이 구할 수 있다.Jacobian is used to linearly approximate the system through differentiation, Jacobian can be obtained as shown in equation (9).

[수학식 9]&Quot; (9) "

Figure 112018050569053-pat00023
Figure 112018050569053-pat00023

이렇게 구한 자코비안을 이용하여 확장 칼만 필터의 예측단계 아래 두 번째 식인 (10-2)식을 사용하여 예측 공분산값 ?

Figure 112018050569053-pat00024
을 구한다.Using the Jacobian obtained above, the predicted covariance value of the extended Kalman filter is calculated using the second equation (10-2) below.
Figure 112018050569053-pat00024
.

필터부(233)는 칼만 이득인 Kt는 (10-3)식을 사용하여 추정값으로서 측정모델을 계산하고 예측 공분산과 칼만 이득을 이용하여 자세정보 센서 측정 노이즈의 공분산 값을 구할 수 있다.The filter unit 233 can calculate the measurement model as the estimated value using the Kalman gain K t using equation (10-3), and obtain the covariance value of the attitude information sensor measurement noise using the predicted covariance and the Kalman gain.

필터부(233)는 START에서 시작하여 최종적으로

Figure 112018050569053-pat00025
을 구한 뒤 다시 이 값을
Figure 112018050569053-pat00026
값으로 입력하여 확장 칼만 필터 알고리즘을 반복적으로 수행한다.The filter unit 233 starts from START and finally
Figure 112018050569053-pat00025
And then the value
Figure 112018050569053-pat00026
Value to perform the extended Kalman filter algorithm iteratively.

또한 수행하는 과정에서 최신화 된 자세정보 센서 값인 자이로와 가속도계 값을 업데이트하는 것을 확인할 수 있으며 자코비안 값도 계속해서 업데이트를 수행할 수 있다.In addition, it can be confirmed that the gyro and accelerometer value, which are the updated attitude information sensor values, are updated in the course of performing, and the Jacobian value can be continuously updated.

자세정보 산출부는 이미지 센서를 탑재한 비행체의 상태정보에 기반하여 이미지 센서를 탑재한 비행체의 움직임에 따른 자세정보를 실시간으로 산출할 수 있다. The attitude information calculator can calculate the attitude information according to the motion of the air vehicle equipped with the image sensor in real time based on the state information of the air vehicle equipped with the image sensor.

따라서, 노출각 측정부는 이미지 센서를 탑재한 비행체의 움직임에 따라 실시간 산출된 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다. 예를 들면, 이미지 센서를 탑재한 비행체의 움직임에 따라 비행체의 자세가 변경되면서 Y축 방향에 대한 회전 각 θ가 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각?Φ(파이)이 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 본 발명의 일 실시 예에 따른 X축, Y축 및 Z축은 각각 직각 관계에 있다.Accordingly, the exposure angle measuring unit can measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident to the image sensor unit based on the real-time calculated attitude information according to the motion of the flying object equipped with the image sensor. For example, it is possible to calculate in real time how much the rotational angle [theta] with respect to the Y-axis direction has changed as the posture of the air vehicle is changed according to the movement of the air vehicle equipped with the image sensor. However, the present invention is not limited to the above example, and may be applied to a rotation angle? (Psi) with respect to the Z-axis direction or a rotation It is possible to calculate in real time how much? Φ (pi) has changed. The X-axis, the Y-axis, and the Z-axis according to an embodiment of the present invention are respectively in a right angle relation.

도 4a 및 도 4b는 본 발명의 또 다른 일 실시 예에 따른 무인 비행체가 노출각에 따라 이미지 센서의 노출시간을 획득하는 구체적인 방법을 나타낸 것이다.4A and 4B illustrate a specific method of acquiring the exposure time of the image sensor according to the exposure angle of the unmanned aerial vehicle according to another embodiment of the present invention.

도 4a 및 도 4b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 획득을 위한 이미지 센서를 탑재한 비행체가 무인 비행체인 드론(400)인 경우를 나타낸 것으로, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 비행체는 미사일일 수 있고, 또한 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 비행체에 적용될 수 있다.4A and 4B illustrate a case where the air vehicle equipped with the image sensor for acquiring the exposure time of the image sensor according to the embodiment of the present invention is a drone 400 that is a unmanned aerial vehicle, However, the present invention is not limited thereto. The air vehicle may be a missile, and may be applied to all air vehicles that acquire images using an image sensor while moving.

도 4a를 참조하면, 이미지 센서(410)가 탑재된 드론(400)의 좌표축은 도 4a에 도시된 바와 같으며, 이미지 센서(410)가 탑재된 드론(400)의 상태변수가 상술한 도 3에서 설명한 바와 같이 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되며, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 경우 X축을 기준으로 회전하는 경우 Φ는 Roll 각도, Y축을 기준으로 회전하는 경우 θ는 Pitch 각도 및 Z축으로 회전하는 경우 Ψ는 Yaw 각도를 나타낸다.4A, the coordinate axes of the drones 400 on which the image sensor 410 is mounted are as shown in FIG. 4A, and the state variables of the drones 400 on which the image sensors 410 are mounted are as shown in FIG. (?) With respect to the Y-axis direction, and a rotation angle? With respect to the Z-axis direction, as described in the first embodiment of the present invention, In the case of the drone 400 mounted with the image sensor 410 according to the present invention, Φ is a roll angle, θ is a pitch angle when the Y axis is rotated, and ψ is a Yaw angle .

따라서, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 자세정보는 가속도계 센서와 자이로 센서로부터 수집된 데이터 정보를 이용하여 센서 융합을 통해서 Pitch, Yaw, Roll 값을 얻을 수 있다.Accordingly, the attitude information of the drones 400 on which the image sensor 410 is mounted according to an embodiment of the present invention can be obtained by using the data information collected from the accelerometer sensor and the gyro sensor to calculate pitch, yaw and roll values Can be obtained.

본 발명의 일 실시 예에 따른 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서로 사용될 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다.The accelerometer sensor and the gyro sensor according to an exemplary embodiment of the present invention may be used as a low-cost sensor of a microelectromechanical systems (MEMS) type, and may include an SPI communication interface among synchronous communication methods, but the present invention is not limited thereto .

도 4b를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체인 드론(400)은 이륙할 수 있고, 이륙한 드론(400)에 포함된 가속도계 센서 및 자이로 센서로부터 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 획득할 수 있다. 도 3에서 상술한 바와 같이 획득된 드론(400)에 포함된 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도), Θ의 각도(Pitch 각도) 및 Ψ의 각도(Yaw 각도)를 산출할 수 있다.Referring to FIG. 4B, the drone 400, which is an unmanned aerial vehicle according to an exemplary embodiment of the present invention, can take off and can take off from the accelerator sensor and the gyro sensor included in the take- The attitude information of the drones 400 can be obtained. The exposure angle measuring unit included in the drones 400 obtained as described above with reference to FIG. 3 obtains the angle (Roll angle) of? From the attitude information of the drones 400 on which the image sensor 410 is mounted, ) And the angle (Yaw angle) of [Psi].

단, 본 발명의 일 실시 예를 설명하기 위해 도 4b에서는 이미지 센서(410)가 탑재된 드론(400)의 Θ의 각도(Pitch 각도)만을 산출하고, Θ의 각도(Pitch 각도)만을 이용하는 경우를 예를 들어 설명하지만 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 보다 정확한 노출시간을 획득하기 위해 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도) 및 Ψ의 각도(Yaw 각도) 중 적어도 하나를 산출할 수 있다.4B illustrates a case where only the angle (pitch angle) of the drones 400 on which the image sensor 410 is mounted is calculated and only the angle (pitch angle) of the angle? Is used For example, although the above-described exemplary embodiments are described for illustrative purposes only, the present invention is not limited thereto. In order to obtain a more accurate exposure time, the exposure angle measuring unit may include a drones 400 (Roll angle) of the angle? And the angle (Yaw angle) of? From the attitude information of the angle?

본 발명의 일 실시 예에 따른 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)는 상공에서 이미지 센서(410)가 탑재된 드론(400)에 적용되는 중력(gravity 또는 weight)과 양력(lift)의 차이에 따라 달라질 수 있다.The angle of rotation with respect to the Y-axis direction according to an embodiment of the present invention may be determined by gravity or weight applied to the drones 400 on which the image sensor 410 is mounted, . ≪ / RTI >

본 발명의 일 실시 예에 따른 기 설정된 기준 방향은 X축, Y축 및 Z축 방향이 모두 수직적인 관계이고 Z축 방향이 지상과 수직적인 관계이면서, 상공에서 드론(400)에 적용되는 중력과 양력이 동일하여 이미지 센서(410)가 탑재된 드론(400)의 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)가 0 도인 방향을 나타낸다. 즉, 회전각 θ 각도(Pitch 각도)가 0 도로 이미지 센서(410)로 입사되는 광의 방향이 기 설정된 기준 방향을 나타낸다. 중력과 양력이 동일한 채로 상공에서 드론(400)이 비행하는 경우 수평비행이라고 나타낸다.The predetermined reference direction according to an embodiment of the present invention is a relationship in which the X-axis, the Y-axis, and the Z-axis direction are all vertical, the Z-axis direction is perpendicular to the ground, and the gravity applied to the drones 400 (Pitch angle) with respect to the Y-axis direction of the drones 400 on which the image sensor 410 is mounted. That is, the direction of the light incident on the image sensor 410 at zero degree of rotation angle (Pitch angle) indicates a preset reference direction. If the dragon (400) is flying in the sky with the same gravity and lift, it is indicated as horizontal flight.

본 발명의 일 실시 예에 따른 드론(400)에 탑재된 이미지 센서(410)가 Θ1의 각도로 해(430)를 바라보는 경우, 이미지 센서(410)로 입사되는 광이 클 수 밖에 없다. 따라서, 이미지 센서(410)가 Θ1의 각도로 하늘에 위치하는 해(430)를 바라보는 경우 이미지 센서(410)가 광에 노출되는 노출시간을 감소시켜야 하며, 이미지 센서(410)가 Θ2의 각도로 지상에 위치하는 탱크(420)를 바라보는 경우 탱크로부터 반사된 광을 이미지 센서(410)가 입사하므로 해(430)를 바라보는 경우와 달리 노출시간을 상승시켜야 한다.When the image sensor 410 mounted on the drone 400 according to an embodiment of the present invention looks at the solution 430 at an angle of? 1, the light incident on the image sensor 410 can not be large. Accordingly, when the image sensor 410 views the solution 430 located in the sky at an angle of? 1, the exposure time for exposure of the image sensor 410 to light must be reduced, and when the image sensor 410 detects the angle? It is necessary to increase the exposure time unlike the case of looking at the solution 430 because the image sensor 410 receives the light reflected from the tank.

도 2 내지 3에서 노출각을 측정하는 방법 및 노출시간 측정부가 노출시간을 영상 처리부에서 산출된 대표값이 기 설정된 데이터 값이 되도록 산출한다고 설명하였으므로 본 실시 예에서는 이에 대한 설명을 생략하도록 한다.The method of measuring the exposure angle and the exposure time measurement unit of FIGS. 2 to 3 have been described so that the representative value calculated by the image processing unit is a preset data value, so that a description thereof will be omitted in the present embodiment.

따라서, 본 발명의 일 실시 예에서는 날씨에 따라서도 이미지 센서(410)로 입사되는 광량이 다르므로 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경될 경우 영상 처리부를 거쳐 적정한 노출시간을 계산하지 않고 미리 확보된 노출각에 따라 적정한 노출시간을 바로 적용할 수 있도록 먼저 드론(400)을 이륙시켜 테스트 과정을 수행할 수 있다. 구체적으로 먼저 드론(400)을 이륙시킨 후 Θ 각도(Pitch 각도)를 변화시켜 Θ 각도(Pitch 각도)에 따른 이미지 센서(410)가 광에 노출되는 적정한 노출시간을 획득하여 메모리에 저장하는 테스트 과정을 수행할 수 있다.Accordingly, in an embodiment of the present invention, the amount of light incident on the image sensor 410 varies depending on the weather, so that when the posture of the drones 400 on which the image sensor 410 is mounted is suddenly changed, It is possible to perform the test process by taking off the drone 400 so that the proper exposure time can be immediately applied according to the previously secured exposure angle without calculating the exposure time. Specifically, first, a test process is performed in which the proper exposure time for the image sensor 410 to be exposed to light according to the Θ angle (pitch angle) is obtained by changing the Θ angle (pitch angle) after taking off the drone 400, Can be performed.

아래의 표 1은 이미지 센서(410)가 광에 노출되는 노출각에 따라 획득된 노출시간을 나타낸 것이다.Table 1 below shows the exposure time obtained according to the exposure angle at which the image sensor 410 is exposed to light.

Pitch 각도Pitch angle 노출시간Exposure time 20도20 degrees 18ms18ms 21도21 degrees 18.2ms18.2 ms 22도22 degrees 18.5ms18.5 ms 23도23 degrees 19ms19ms 24도24 degrees 19.1ms19.1ms 25도25 degrees 19.5ms19.5ms 26도26 degrees 19.7ms19.7ms

상술한 표 1과 같이 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도를 변화시켜 획득된 Pitch 각도에 따른 노출시간을 제어부가 노출시간 획득부를 제어하여 메모리에 미리 저장할 수 있다. 따라서, 후술하는 바와 같이 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 제어부는 미리 메모리에 저장된 Pitch 각도에 따른 노출시간을 이미지 센서(410)에 바로 적용하여 이미지 센서(410)가 외부의 광에 노출되는 시간을 영상 처리부에 의한 연산처리 없이 바로 제어할 수 있다.The control unit may control the exposure time acquisition unit to store the exposure time according to the acquired pitch angle by changing the pitch angle of the drone 400 on which the image sensor 410 is mounted as shown in Table 1, Therefore, when the posture of the drone 400 on which the image sensor 410 is mounted is changed suddenly as described later, the controller directly applies the exposure time according to the pitch angle stored in the memory to the image sensor 410, It is possible to directly control the time during which the light source 410 is exposed to the external light without performing the arithmetic processing by the image processing unit.

본 발명의 또 다른 일 실시 예에 따르면, 드론(400)에 포함된 제어부는 노출각 측정부가 실시간으로 이미지 센서부의 노출각을 측정할 수 있도록 제어할 수있다.According to another embodiment of the present invention, the controller included in the drone 400 may control the exposure angle measuring unit to measure the exposure angle of the image sensor unit in real time.

본 발명의 일 실시 예에 따른 드론(400)은 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서를 포함할 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다. 따라서, 상술한 자세정보 센서를 사용하는 드론(400) 의 자세정보를 실시간으로 획득하여 노출각을 측정할 수 있으며, 노출각에 따른 노출시간을 획득할 수 있다.The drones 400 according to an embodiment of the present invention may include a low-cost sensor of a microelectromechanical systems (MEMS) type, an accelerometer sensor and a gyro sensor, and may take an interface by SPI communication among synchronous communication methods But is not limited thereto. Accordingly, it is possible to acquire the attitude information of the drones 400 using the attitude information sensor in real time to measure the exposure angle, and to obtain the exposure time according to the exposure angle.

일반적으로 상술한 자이로 센서 또는 가속도계 센서가 이용되는 경우 이미지 센서(410)가 탑재된 드론(400)의 자세 정보가 최소 1Khz이상의 속도로 데이터가 실시간으로 업데이트 될 수 있다. 또한, 일반적으로 사용되는 이미지 센서 중 CMOS센서를 통해서 받는 영상 데이터의 갱신율은 약 30Hz를 나타낼 수 있다. 따라서, 이미지 센서부를 통해 결정된 영상 데이터를 갱신하는 속도보다 자세정보 센서를 통해 획득되는 드론(400)의 자세정보에 대한 업데이트 속도가 훨씬 빠르다. 따라서, 본 발명의 일 실시 예에 따른 드론(400)에 포함된 가속도계 센서 및 자이로 센서를 이용하여 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 영상 데이터 갱신보다 더 빠르게 획득하여 드론(400)에 탑재된 이미지 센서(410)가 어디를 바라보고 있는지 빠르게 인지할 수 있다. In general, when the gyro sensor or accelerometer sensor described above is used, the data of the attitude information of the drones 400 on which the image sensor 410 is mounted can be updated at a speed of at least 1 KHz or more in real time. Also, the update rate of image data received through the CMOS sensor among commonly used image sensors can be about 30 Hz. Accordingly, the update rate of the attitude information of the drones 400 acquired through the attitude information sensor is much faster than the speed of updating the image data determined through the image sensor unit. Therefore, by using the accelerometer sensor and the gyro sensor included in the drone 400 according to the embodiment of the present invention, the attitude information of the dron 400 on which the image sensor 410 is mounted can be obtained faster than the image data update, The user can quickly recognize where the image sensor 410 mounted on the camera 400 is looking.

따라서, 본 발명의 일 실시 예에 따른 노출시간 획득부는 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도에 따른 이미지 센서(410)의 노출시간을 실시간으로 획득하고, 제어부는 실시간으로 획득된 Pitch 각도에 따른 노출시간을 메모리에 미리 저장된 Pitch 각도에 따라 획득된 노출시간과 비교하여 메모리 저장된 Pitch 각도에 따라 획득된 노출시간 중 변화된 노출시간을 실시간으로 업데이트 할 수 있다.Accordingly, the exposure time obtaining unit according to an embodiment of the present invention obtains in real time the exposure time of the image sensor 410 according to the pitch angle of the drone 400 on which the image sensor 410 is mounted, It is possible to compare the exposure time according to the stored pitch angle with the exposure time obtained according to the Pitch angle stored in advance in the memory to update the changed exposure time among the obtained exposure time according to the memory stored Pitch angle in real time.

또한, 본 발명의 또 다른 일 실시 예에 따르면 드론(400)이 움직이면서 이미지 센서(410)가 탑재된 드론(400)의 자세정보가 갑작스럽게 변경되는 경우, 제어부는 노출각 측정부가 상술한 자세정보가 변경된 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부는 메모리에 저장된 노출각 중 이미지 센서(410)가 탑재된 드론(400)의 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있다. 또한, 제어부는 메모리에 저장된 노출각에 따른 노출시간 중 상술한 방법에 의해 결정된 노출각에 대응되는 노출시간을 로드할 수 있고, 메모리로부터 로드 된 노출시간 동안 이미지 센서부(410)가 광에 노출되도록 제어할 수 있다.In addition, according to another embodiment of the present invention, when the dron 400 moves and the attitude information of the dron 400 on which the image sensor 410 is mounted is suddenly changed, It is possible to control the current exposure angle to be measured based on the attitude information of the drones 400 on which the image sensor 410 having been changed is mounted. The control unit can determine the exposure angle corresponding to the measured exposure angle while changing the posture information of the drones 400 on which the image sensor 410 is mounted among the exposure angles stored in the memory. In addition, the control unit can load an exposure time corresponding to the exposure angle determined by the above-described method among the exposure time according to the exposure angle stored in the memory, and can prevent the image sensor unit 410 from being exposed to light .

구체적으로 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서(410)가 탑재된 드론(400)은 공중에서 특정한 위치에 정지하여 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있고, 또한 특정한 위치에 정지한 드론(400)이 급작스럽게 이동하면서 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있다. 구체적으로, 드론(400)이 급작스럽게 이동하는 경우 드론(400)에 포함된 노출각 측정부는 시간당 변화하는 드론(400)의 pitch 각도 변화를 측정할 수 있다. 예를 들어 설명하면, 드론(400)에 탑재된 이미지 센서(410)가 30도의 Θ 각도(Pitch 각도) 로 외부로부터 입사되는 광을 바라보고 있다가, 드론(400)이 10deg/sec로 2초 동안 움직이는 경우 최종적으로 드론(400)에 탑재된 이미지 센서(410)가 외부로부터 입사되는 광을 바라보는 노출각인 Θ 각도(Pitch 각도)가 원래 30도에서 50도로 변경될 수 있고, 제어부는 메모리에 저장된 노출각이 50도인 경우 노출시간을 바로 로드하여, 로드 된 노출시간 동안 이미지 센서(410)가 광에 노출되도록 제어할 수 있다.Specifically, according to another embodiment of the present invention, the drone 400 on which the image sensor 410 is mounted is stopped at a specific position in the air, and the exposure time of the image sensor 410 according to the exposure angle is determined by the above- And the drone 400 stopped at a specific position suddenly moves, so that the exposure time of the image sensor 410 according to the exposure angle can be obtained by the above-described method. Specifically, when the drone 400 is suddenly moved, the exposure angle measuring unit included in the drone 400 may measure a pitch angle change of the drone 400 that changes with time. For example, if the image sensor 410 mounted on the drone 400 is looking at the light incident from the outside at a Θ angle (pitch angle) of 30 degrees and the drone 400 is rotated at 10 deg / (Pitch angle), which is an exposure angle of the image sensor 410 mounted on the drone 400 and viewed from the outside, may be changed from 30 degrees to 50 degrees, If the stored exposure angle is 50 degrees, the exposure time can be immediately loaded, and the image sensor 410 can be controlled to be exposed to light during the loaded exposure time.

따라서, 종래의 제어부가 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 이미지 센서(410)가 다시 광에 노출되면서 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하고, 대표값이 기 설정된 데이터 값이 되도록 노출시간을 획득하여, 획득된 노출시간 동안 이미지 센서(410)를 외부의 광에 노출시키는 것이 아닌 기존 메모리에 저장된 노출각에 따른 노출시간을 바로 적용하므로 영상 데이터의 밝기를 효과적으로 조절할 수 있다. 따라서, 종래에 영상 처리부를 이용하여 영상 처리를 하는 경우 많은 시간이 소요되었던 문제점을 해결하여 본 발명의 일 실시 예에 따르면 실시간으로 영상이 선명하게 보이도록 조절할 수 있다.Therefore, when the conventional controller changes the posture of the drones 400 on which the image sensor 410 is mounted, the image sensor 410 is exposed to the light again to calculate a representative value from the pixels included in the image data The exposure time corresponding to the exposure angle stored in the existing memory is immediately applied to the image sensor 410 so as not to expose the image sensor 410 to external light during the obtained exposure time, The brightness of the data can be effectively controlled. Therefore, according to the embodiment of the present invention, it is possible to adjust the image so that the image can be seen clearly in real time.

도 5는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 획득하는 장치의 구성을 개략적으로 도시한 블록도이다.5 is a block diagram schematically illustrating the configuration of an apparatus for obtaining exposure time of an image sensor according to an embodiment of the present invention.

도 5를 참조하면, 이미지 센서의 노출시간을 획득하도록 이미지 센서가 탑재된 비행체 (500)는 이미지 센서부(510), 노출각 측정부(530), 영상 처리부(520), 노출시간 획득부(540), 메모리(550) 및 제어부(560)를 포함할 수 있다.5, the air vehicle 500 on which the image sensor is mounted to acquire the exposure time of the image sensor includes an image sensor unit 510, an exposure angle measurement unit 530, an image processing unit 520, an exposure time acquisition unit 540, a memory 550, and a control unit 560.

본 발명의 일 실시 예에 따른 비행체(500)는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론 또는 미사일일 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 상술한 비행체(500)는 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 비행체에 적용될 수 있다.The air vehicle 500 according to an embodiment of the present invention may be a drone or a missile, which is an unmanned aerial vehicle for acquiring images using an image sensor. However, the present invention is not limited thereto. The above-described air vehicle 500 can be applied to all air vehicles that acquire images using an image sensor while moving.

본 발명의 일 실시 예에 따른 이미지 센서부(510)는 상술한 CCD, CMOS CIS와 같은 이미지 센서가 사용될 수 있으며, 이미지 센서부(510)에 포함된 전처리부가 이미지 센서부(510)에 포함된 각각의 픽셀로 입사되는 광을 전기 신호로 변환하고, 변환된 전기 신호를 증폭 및 압축시켜 전처리할 수 있다. 또한, 이미지 센서부(510)에 포함된 아날로그 디지털 변환부가 전처리된 아날로그 신호를 디지털 신호로 변환할 수 있다.The image sensor unit 510 according to an exemplary embodiment of the present invention may be an image sensor such as the CCD or CMOS CIS described above. The preprocessing unit included in the image sensor unit 510 may include the image sensor unit 510 The light incident on each pixel can be converted into an electric signal, and the converted electric signal can be amplified, compressed, and preprocessed. In addition, the analog-to-digital converter included in the image sensor unit 510 may convert the preprocessed analog signal into a digital signal.

영상 처리부(520)는 이미지 센서부(510)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출할 수 있다.The image processing unit 520 may calculate a representative value from the pixels included in the image data obtained from the image sensor unit 510.

구체적으로 영상 처리부(520)는 이미지 센서부(510)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 통계적으로 산출될 수 있는 모든 값을 포함하는 대표값을 산출할 수 있다.Specifically, the image processor 520 may calculate a representative value including all the values that can be statistically calculated from the pixels included in the image data obtained from the image sensor unit 510.

본 발명의 일 실시 예에 따라 영상 처리부(520)가 LVDS를 이용하여 이미지 센서부(510)로부터 영상 데이터를 전송 받는 경우 영상 데이터를 빠르게 전송 받을 수 있다.According to an embodiment of the present invention, when the image processing unit 520 receives image data from the image sensor unit 510 using the LVDS, the image data can be quickly received.

본 발명의 또 다른 일 실시 예에 따른 대표값은 이미지 센서부(510)로부터 획득된 영상 데이터에 포함된 픽셀들 중 이미지 센서부로 광이 입사됨에 따라 영상 데이터를 표현하도록 동작이 가능한 픽셀들로부터 결정된 영상 밝기의 평균값일 수 있다. 이에 대한 구체적인 설명은 전술한 바와 같으므로 생략한다.The representative value according to another exemplary embodiment of the present invention is determined from pixels included in the image data obtained from the image sensor unit 510, which are operable to represent image data as light is incident on the image sensor unit May be an average value of image brightness. A detailed description thereof will be omitted since it is as described above.

노출각 측정부(530)는 자세정보 센서를 이용하여 센싱된 비행체의 자세정보를 기초로 기 설정된 기준 방향 및 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다. 노출각을 측정하는 구체적인 설명은 전술한 바와 같으므로 생략한다.The exposure angle measuring unit 530 may measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident to the image sensor unit, based on the attitude information of the sensed air vehicle using the attitude information sensor. The detailed description of the measurement of the exposure angle is as described above, so it is omitted.

노출시간 획득부(540)는 영상 처리부(520)에서 산출된 대표값이 기 설정된 데이터 값이 되도록 이미지 센서부(510)가 광에 노출되는 시간인 노출시간을 측정된 노출각에 따라 획득할 수 있다.The exposure time acquiring unit 540 may acquire the exposure time which is the exposure time of the image sensor unit 510 so that the representative value calculated by the image processing unit 520 becomes a predetermined data value according to the measured exposure angle have.

본 발명의 일 실시 예에 따른 기 설정된 데이터 값은 이미지 센서부(510)로부터 획득된 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다. 중간값에 대한 구체적인 설명은 전술한 바와 같으므로 생략한다.The predetermined data value according to an exemplary embodiment of the present invention may be an intermediate value indicating a number corresponding to a middle of the number of colors that the pixels included in the image data obtained from the image sensor unit 510 can represent. The detailed description of the intermediate value is omitted since it is the same as described above.

메모리(550)는 노출시간 획득부(540)에서 노출각에 따라 획득된 노출시간을 저장할 수 있다.The memory 550 may store the exposure time acquired according to the exposure angle in the exposure time acquisition unit 540. [

본 발명의 일 실시 예에 따른 제어부(560)는 한 프레임의 영상 데이터에 포함된 픽셀들의 밝기 값을 실시간으로 계속해서 더하고 평균값을 내도록 영상 처리부(520)를 제어할 수 있다.The controller 560 according to an exemplary embodiment of the present invention may control the image processor 520 to continuously add the brightness values of the pixels included in the image data of one frame in real time and to average the brightness values.

제어부(560)는 노출각 측정부(530)가 실시간으로 기 설정된 기준 방향 및 이미지 센서부(510)로 입사되는 광의 방향 간의 각도인 노출각을 측정하도록 제어할 수 있다. The control unit 560 may control the exposure angle measuring unit 530 to measure an exposure angle that is an angle between a preset reference direction and a direction of light incident to the image sensor unit 510 in real time.

제어부(560)는 메모리(550)에 저장된 노출각에 따라 획득된 노출시간과 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교할 수 있으며, 비교 결과 메모리(550)에 저장된 노출각과 실시간으로 측정된 노출각이 동일하지만 노출시간이 다른 경우 제어부(560)는 메모리(550)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.The control unit 560 can compare the exposure time acquired according to the exposure angle stored according to the exposure angle stored in the memory 550 and the exposure time acquired according to the exposure angle measured in real time, The control unit 560 can update the exposure time stored in the memory 550 to the exposure time measured in real time.

본 발명의 일 실시 예에 따른 제어부(560)는 SPI 통신을 통해 메모리(550)에 저장된 노출시간을 실시간으로 업데이트 할 수 있으나 이에 한정되는 것은 아니며 다양한 통신 방법에 의해 제어부(560)는 메모리(550)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.The controller 560 may update the exposure time stored in the memory 550 in real time through the SPI communication, but the present invention is not limited thereto. The controller 560 may control the memory 550 Can be updated with the exposure time measured in real time.

또한, 본 발명의 또 다른 일 실시 예에 따르면 비행체 (500)가 움직이면서 이미지 센서가 탑재된 비행체 (500) 의 자세정보가 갑작스럽게 변경되는 경우, 제어부(560)는 노출각 측정부(530)가 상술한 자세정보가 변경된 비행체(500)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부(560)는 메모리(550)에 저장된 노출각 중 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있고, 제어부(560)는 메모리(550)에 저장된 노출각에 따른 노출시간 중 상술한 방법에 의해 결정된 노출각에 대응되는 노출시간을 로드할 수 있다. 또한, 제어부(560)는 메모리(550)로부터 로드 된 노출시간 동안 이미지 센서부(510)가 광에 노출되도록 제어할 수 있다.According to another embodiment of the present invention, when the attitude information of the air vehicle 500 on which the image sensor is mounted is suddenly changed as the air vehicle 500 moves, the control unit 560 controls the exposure angle measuring unit 530 It is possible to control to measure the current exposure angle on the basis of the attitude information of the air vehicle 500 having the above-described attitude information changed. The control unit 560 may determine the exposure angle corresponding to the measured exposure angle while the attitude information among the exposure angles stored in the memory 550 is changed and the control unit 560 sets the exposure time corresponding to the exposure angle stored in the memory 550 The exposure time corresponding to the exposure angle determined by the above-described method can be loaded. In addition, the controller 560 may control the image sensor unit 510 to be exposed to light during the exposure time loaded from the memory 550.

도 6은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 획득하는 비행체에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.6 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in a flight vehicle for obtaining exposure time of an image sensor according to an embodiment of the present invention.

도 6을 참조하면, 노출각 측정부(530)는 복수 개의 자세정보 센서부(531), 자세정보 센서 융합부(532), 필터부(533) 및 자세정보 산출부(534)를 포함할 수 있다.6, the exposure angle measuring unit 530 may include a plurality of attitude information sensor units 531, an attitude information sensor fusion unit 532, a filter unit 533, and an attitude information calculating unit 534 have.

본 발명의 일 실시 예에서 비행체는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론 또는 미사일일 수 있으며, 본 명세서에서는 군사 상황에서 적용되는 드론을 예로 들었으나 이에 한정하는 것은 아니고, 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 다양한 비행체에 적용될 수 있다.In one embodiment of the present invention, the air vehicle may be a drone or a missile, which is an unmanned aerial vehicle that acquires images using an image sensor. In the present specification, a drone applied in a military situation is exemplified, but the present invention is not limited thereto, And can be applied to various types of vehicles that acquire images using sensors.

복수 개의 자세정보 센서부(531)는 적어도 두 개의 자세정보 센서를 통해 이미지 센서가 탑재된 비행체에 대한 측정 데이터를 수집할 수 있다.The plurality of attitude information sensor units 531 can collect measurement data for the air vehicle on which the image sensor is mounted through at least two attitude information sensors.

구체적으로 복수 개의 자세정보 센서부(531)는 제1 자세정보 센서부(531a) 및 제2 자세정보 센서부(531b)를 포함하고, 제1 자세정보 센서부(531a)는 3축 가속도계 센서 1개로 구성되어 비행체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하며, 제2 자세정보 센서부(531b)는 2축 자이로 센서 2개로부터 비행체의 각속도 값(p, q, r)을 수집할 수 있다.Specifically, the plurality of attitude information sensor units 531 include a first attitude information sensor unit 531a and a second attitude information sensor unit 531b, and the first attitude information sensor unit 531a includes a three-axis accelerometer sensor 1 And the second attitude information sensor unit 531b collects the angular velocity values (p, y, z) of the flying object from the two biaxial gyro sensors, q, r) can be collected.

자세정보 센서 융합부(532)는 각 자세정보 센서부(531a, 531b)로부터 수집된 데이터를 융합 및 가공하여 비행체의 자세에 대한 상태변수를 구할 수 있다.The attitude information sensor fusion unit 532 can obtain state variables for the posture of the air vehicle by fusing and processing the data collected from the respective attitude information sensor units 531a and 531b.

구체적으로, 자세정보 센서 융합부(532)는 움직이는 이미지 센서가 탑재된 비행체의 각속도와 오일러 각 간의 관계식을 이용하여 비행체의 오일러 각의 변화율을 결정할 수 있고, 결정된 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 산출할 수 있다. 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상태변수로서 결정할 수 있다.Specifically, the posture information sensor fusion unit 532 can determine the rate of change of the Euler angle of the air vehicle using the relational expression between the angular velocity of the air vehicle on which the moving image sensor is mounted and the Euler angle, and integrates the determined Euler angle change rate Euler angles can be calculated. (?) Of the Euler angle with respect to the X-axis direction, a rotation angle theta (?) With respect to the Y-axis direction and a rotation angle? With respect to the Z-axis direction based on the sensor fusion, As shown in FIG.

여기서 자세정보 센서 융합부(532)는 개별 자세정보 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용할 수 있다. 즉, 자세정보 센서 융합의 목적은 각 자세정보 센서의 측정 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.Herein, the attitude information sensor fusion unit 532 may use a series of digital filtering algorithms to complement the weak points of the individual attitude information sensors and output accurate dynamic attitude information. That is, the purpose of attitude information sensor fusion is to input the measurement data of each attitude information sensor and apply digital filtering to complement each other and output correct and useful dynamic attitude result.

자세정보 센서 융합부(532)는 결정된 오일러 각의 변화율을 상술한 [수학식 1]로 구하고, 오일러 각의 변화율을 적분함으로써, 상술한 [수학식 2]의 오일러 각으로 나타내는 상태변수(Φt, θt, Ψt)를 구할 수 있다.The attitude information sensor fusion unit 532 obtains the state variable? T (?) Represented by the Euler angles of the above-mentioned expression (2) by integrating the rate of change of the determined Euler angle by the above-described expression ,? t ,? t ) can be obtained.

필터부(533)는 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 비행체의 자세에 대한 상태정보를 추정할 수 있다.The filter unit 533 can estimate the state information on the posture of the air vehicle by applying a filter for estimating the state of the nonlinear dynamic system with respect to the state variable.

이를 위해, 필터부(533)는 복수 개의 자세정보 센서부로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구할 수 있다.For this, the filter unit 533 treats noise as a random variable in the measurement data collected from the plurality of attitude information sensor units, and obtains a state variable such that the expected value of the state information estimation error is minimized by the filter.

구체적으로, 필터부(533)는 상기 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용할 수 있다. 이를 통해 이미지 센서부의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산하며, 칼만 이득과 예측 추정값을 이용하여 비행체의 상태정보를 추정하고, 칼만 이득과 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.Specifically, the filter unit 533 may be applied to the extended Kalman filter for the state variables (Φ t, θ t, Ψ t). The Kalman gain and the predicted value are used to estimate the state information of the vehicle, and the Kalman gain and the prediction error covariance are used to calculate the error Covariance can be obtained.

필터부(533)는 복수 개의 자세정보 센서 측정값 중 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 복수 개의 자세정보 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 확장 칼만 필터를 적용하여 비행체의 상태정보를 추정하는 과정을 반복할 수 있으며, 이에 대한 구체적인 설명은 전술한 바와 같으므로 생략한다.The filter unit 533 updates the pie and theta obtained from the three-axis accelerometer among the plurality of attitude information sensor measured values, obtains the state variable according to the update of the plurality of attitude information sensor measured values, It is possible to repeat the process of estimating the state information of the flying object by applying the extended Kalman filter, and detailed description thereof is omitted since it is as described above.

자세정보 산출부(534)는 비행체의 상태정보에 기반하여 이미지 센서부의 움직임에 따른 자세정보를 실시간으로 산출할 수 있다.The posture information calculation unit 534 can calculate the posture information according to the motion of the image sensor unit in real time based on the state information of the flying object.

따라서, 노출각 측정부(530)는 이미지 센서부의 움직임에 따라 실시간 산출된 비행체의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다.Accordingly, the exposure angle measuring unit 530 can measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident on the image sensor unit, based on attitude information of the air vehicle calculated in real time according to the motion of the image sensor unit.

이상에서 설명한 본 발명의 실시 예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록 매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. 컴퓨터 프로그램의 기록 매체로서는 자기기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

500: 비행체
510: 이미지 센서부
520: 영상 처리부
530: 노출각 측정부
540: 노출시간 획득부
550: 메모리
560: 제어부
500: Aircraft
510: Image sensor section
520:
530: Exposure angle measuring unit
540: Exposure time obtaining section
550: memory
560:

Claims (11)

자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법에 있어서,
이미지 센서부가 영상 데이터를 획득하는 단계;
영상 처리부가 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 단계;
노출각 측정부가 자세정보 센서를 이용하여 센싱된 상기 비행체의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 단계; 및
노출시간 획득부가 상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 단계;를 포함하고,
상기 영상 데이터를 획득하는 단계는,
상기 이미지 센서부에 포함된 각각의 픽셀로 상기 입사되는 광을 전기 신호로 변환시키고, 상기 변환된 전기 신호를 증폭 및 압축시키며, 상기 증폭 및 압축된 전기 신호를 디지털 신호로 변환하는 것을 특징으로 하는 이미지 센서의 노출시간 획득 방법.
A method of acquiring exposure time of an image sensor mounted on a flight vehicle using an attitude information sensor,
Acquiring image data of the image sensor;
Calculating a representative value from pixels included in the image data obtained from the image sensor unit;
Measuring an exposure angle that is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit based on the attitude information of the air object sensed by the exposure angle measuring unit using the attitude information sensor; And
And obtaining an exposure time, which is a time at which the image sensor unit is exposed to the light so that the calculated representative value is a predetermined data value, according to the measured exposure angle,
Wherein the step of acquiring the image data comprises:
The image sensor unit converts the incident light into an electric signal with each pixel included in the image sensor unit, amplifies and compresses the converted electric signal, and converts the amplified and compressed electric signal into a digital signal. A method for acquiring exposure time of an image sensor.
제1항에 있어서,
제어부가 상기 노출각에 따라 획득된 노출시간을 메모리에 저장하는 단계;를 더 포함하는 이미지 센서의 노출시간 획득 방법.
The method according to claim 1,
And storing the exposure time acquired by the control unit in accordance with the exposure angle in a memory.
제2항에 있어서,
상기 제어부가 실시간으로 상기 노출각을 측정하도록 상기 노출각 측정부를 제어하는 단계;
상기 제어부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 상기 노출시간 획득부를 제어하는 단계; 및
상기 제어부가 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 단계;를 더 포함하는 이미지 센서의 노출시간 획득 방법.
3. The method of claim 2,
Controlling the exposure angle measuring unit so that the control unit measures the exposure angle in real time;
Controlling the exposure time obtaining unit such that the control unit obtains an exposure time according to the exposure angle measured in real time; And
Comparing the exposure time obtained according to the exposure angle obtained according to the exposure angle stored in the memory with the exposure angle measured according to the exposure angle measured in real time and updating the exposure time stored in the memory How to obtain exposure time.
제2항에 있어서,
상기 비행체의 움직임에 따라 자세정보가 변경되는 경우,
상기 제어부가 상기 자세정보가 변경된 비행체의 자세정보를 기초로 현재 노출각을 측정하도록 상기 노출각 측정부를 제어하는 단계; 및
상기 제어부가 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 단계;를 더 포함하는 이미지 센서의 노출시간 획득 방법.
3. The method of claim 2,
When the attitude information is changed according to the movement of the flying object,
Controlling the exposure angle measuring unit such that the control unit measures the current exposure angle based on attitude information of the flying object whose attitude information is changed; And
Wherein the control unit determines an exposure angle corresponding to the currently measured exposure angle among the exposure angles stored in the memory, loads an exposure time corresponding to the determined exposure angle in the memory, And controlling exposure of the image sensor to exposure to light.
제1항에 있어서,
상기 대표값은 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값인 것을 특징으로 하는 이미지 센서의 노출시간 획득 방법.
The method according to claim 1,
Wherein the representative value is an average value of pixel values of pixels included in the image data acquired from the image sensor unit and operated according to the incident light.
제1항에 있어서,
상기 노출각을 측정하는 단계는,
적어도 두 개의 자세정보 센서를 통해 상기 비행체의 자세에 대한 측정 데이터를 수집하는 단계;
상기 수집된 측정 데이터를 융합 및 가공하여 상기 비행체의 자세에 대한 상태변수를 구하는 단계;
상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 비행체의 자세에 대한 상태정보를 추정하는 단계; 및
상기 추정된 상태정보에 기반하여 상기 비행체의 움직임에 따른 자세정보를 실시간으로 산출하는 단계;를 포함하는 이미지 센서의 노출시간 획득 방법.
The method according to claim 1,
Wherein measuring the exposure angle comprises:
Collecting measurement data on the attitude of the air vehicle through at least two attitude information sensors;
Obtaining a state variable of the attitude of the air vehicle by fusing and processing the collected measurement data;
Estimating state information on the posture of the air vehicle by applying a filter for estimating the state of the nonlinear dynamic system with respect to the state variable; And
And calculating posture information according to motion of the air vehicle based on the estimated state information in real time.
제6항에 있어서,
상기 상태정보를 추정하는 단계는,
상기 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 상기 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상기 상태변수를 구하는 것을 특징으로 하는 이미지 센서의 노출시간 획득 방법.
The method according to claim 6,
Estimating the state information comprises:
Wherein the state variable is determined such that noise is treated as a random variable in the collected measurement data and the expected value of the state information estimation error is minimized by the filter.
제6항에 있어서,
상기 측정 데이터를 수집하는 단계는,
3축 가속도계 센서 1개로부터 상기 비행체의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 단계; 및
2축 자이로 센서 2개로부터 상기 비행체의 각속도 값(p, q, r)을 수집하는 단계;를 포함하는 이미지 센서의 노출시간 획득 방법.
The method according to claim 6,
Wherein collecting the measurement data comprises:
Collecting acceleration values (X, Y, Z) of the X, Y, and Z axes of the flying object from one of the three-axis accelerometer sensors; And
And collecting the angular velocity values (p, q, r) of the airplane from two biaxial gyro sensors.
제8항에 있어서,
상기 상태변수를 구하는 단계는,
상기 비행체의 각속도와 오일러 각 간의 관계식을 이용하여 상기 비행체의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구하는 것을 특징으로 하는 이미지 센서의 노출시간 획득 방법.
9. The method of claim 8,
The step of obtaining the state variable includes:
Calculating an Euler angle by integrating the change rate of the Euler angle using the relational expression between the angular velocity of the object and the Euler angle, Of the image sensor is obtained as the state variable consisting of the rotational angle? (?) With respect to the Y-axis direction and the rotational angle? With respect to the Z-axis direction, Time acquisition method.
제9항에 있어서,
상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 비행체의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고,
상기 노출각은 상기 회전각 세타(θ)인 것을 특징으로 하는 이미지 센서의 노출시간 획득 방법.
10. The method of claim 9,
Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis direction are both vertical, the Z-axis direction is perpendicular to the ground, and the rotation angle theta The direction in which the angle (pitch angle) is 0 degrees,
Wherein the exposure angle is the rotation angle theta (&thetas;).
컴퓨터로 판독 가능한 기록매체로서, 자세정보 센서를 이용한 비행체에 탑재된 이미지 센서의 노출시간 획득 방법을 수행하기 위하여 제1항 내지 제10항 중 어느 하나의 항에 따른 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium recording a program for executing the method according to any one of claims 1 to 10 to perform an exposure time acquisition method of an image sensor mounted on a flying object using an attitude information sensor A computer readable recording medium.
KR1020180058429A 2018-05-23 2018-05-23 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium KR101908021B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180058429A KR101908021B1 (en) 2018-05-23 2018-05-23 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180058429A KR101908021B1 (en) 2018-05-23 2018-05-23 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium

Publications (1)

Publication Number Publication Date
KR101908021B1 true KR101908021B1 (en) 2018-10-12

Family

ID=63876729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180058429A KR101908021B1 (en) 2018-05-23 2018-05-23 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium

Country Status (1)

Country Link
KR (1) KR101908021B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102194127B1 (en) 2019-08-12 2020-12-22 엘아이지넥스원 주식회사 Drone having MEMS sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080359A (en) 2002-08-16 2004-03-11 Fuji Photo Film Co Ltd Digital camera and photographing system
JP2013160895A (en) 2012-02-03 2013-08-19 Denso Corp Camera exposure setting device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004080359A (en) 2002-08-16 2004-03-11 Fuji Photo Film Co Ltd Digital camera and photographing system
JP2013160895A (en) 2012-02-03 2013-08-19 Denso Corp Camera exposure setting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102194127B1 (en) 2019-08-12 2020-12-22 엘아이지넥스원 주식회사 Drone having MEMS sensor

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
CN108572659B (en) Method for controlling unmanned aerial vehicle and unmanned aerial vehicle supporting same
CN108605098B (en) System and method for rolling shutter correction
US11205283B2 (en) Camera auto-calibration with gyroscope
US11288824B2 (en) Processing images to obtain environmental information
WO2017185378A1 (en) Systems and methods for uav transport and data acquisition
US20190243376A1 (en) Actively Complementing Exposure Settings for Autonomous Navigation
US20120197461A1 (en) Vision Based Hover in Place
WO2016106715A1 (en) Selective processing of sensor data
WO2017136231A1 (en) System and method for utilization of multiple-camera network to capture static and/or motion scenes
Delaune et al. Thermal-inertial odometry for autonomous flight throughout the night
CN109792484A (en) Image procossing in unmanned automated spacecraft
Candan et al. Robust attitude estimation using IMU-only measurements
KR101908021B1 (en) Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium
CN110998235B (en) Image output adjustment in robotic vehicles
CN111094893A (en) Image sensor initialization for robotic vehicles
CN210284637U (en) Three-loading intelligent photoelectric reconnaissance device
CN113465596B (en) Four-rotor unmanned aerial vehicle positioning method based on multi-sensor fusion
WO2019019172A1 (en) Adaptive Image Processing in a Robotic Vehicle
KR101907657B1 (en) Apparatus securing exposure time of image sensor
CN112154480B (en) Positioning method and device for movable platform, movable platform and storage medium
CN113218394A (en) Indoor visual positioning method and system for flapping wing aircraft
CN112556691B (en) Method for unmanned aerial vehicle autonomous navigation and temperature measurement system
Coelho et al. An IoT-enabled modular quadrotor architecture for real-time aerial object tracking
CN111860224A (en) Image processing method and device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant