KR101907657B1 - Apparatus securing exposure time of image sensor - Google Patents
Apparatus securing exposure time of image sensor Download PDFInfo
- Publication number
- KR101907657B1 KR101907657B1 KR1020180058428A KR20180058428A KR101907657B1 KR 101907657 B1 KR101907657 B1 KR 101907657B1 KR 1020180058428 A KR1020180058428 A KR 1020180058428A KR 20180058428 A KR20180058428 A KR 20180058428A KR 101907657 B1 KR101907657 B1 KR 101907657B1
- Authority
- KR
- South Korea
- Prior art keywords
- exposure time
- exposure
- image sensor
- angle
- unit
- Prior art date
Links
Images
Classifications
-
- H04N5/2353—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- H04N5/23258—
-
- H04N5/335—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 이미지 센서의 노출시간 확보 장치에 관한 것이다. 보다 상세하게는, 본 발명은 이미지 센서가 외부의 광에 노출되는 노출시간을 확보하는 이미지 센서의 노출시간 확보 장치에 관한 것이다.The present invention relates to an exposure time securing apparatus for an image sensor. More particularly, the present invention relates to an exposure time securing apparatus for an image sensor that secures exposure time for exposure of an image sensor to external light.
모든 카메라가 그렇듯이 외부의 영상 데이터를 획득하는 이미지 센서도 화각(Field of View, FOV)이 있다. 따라서, 이미지 센서로부터 외부를 바라볼 수 있는 화각이 무한대가 아니다.As with all cameras, an image sensor that acquires external image data also has a field of view (FOV). Therefore, the angle of view from the image sensor to the outside is not infinite.
비행체에 탑재된 이미지 센서로부터 표적이 포함된 영상 데이터를 획득하면서 전투 임무 수행을 하는 경우 비행체가 비행 중에 몸체를 회전시키거나 다른 곳으로 급 기동하면서 기존에 바라봤던 표적에서 다른 표적을 바라볼 수 있거나 갑작스럽게 해를 바라볼 수도 있다.If you perform combat missions while acquiring image data that includes a target from an image sensor mounted on the aircraft, the aircraft may rotate the body during flight or move to another location to view other targets from the target Suddenly I can look at the sun.
비행체가 지상 또는 상공에 있는 다양한 표적을 바라볼 경우 각각의 표적에서 반사되어 오는 광량이 다를 것이므로 각각의 표적에 해당하는 다양한 노출시간이 요구될 것이다. 노출시간은 입사되는 광으로부터 영상 데이터를 획득하기 위해 이미지 센서가 외부에서 입사되는 광으로부터 노출되는 시간을 나타낸다.If the aircraft is looking at various targets on the ground or over the ground, the amount of light reflected from each target will be different, so different exposure times corresponding to each target will be required. The exposure time represents the time during which the image sensor is exposed from the light incident from outside in order to acquire image data from the incident light.
비행체가 전투임무 수행 중 갑작스러운 비행 중에 급 기동을 할 경우 갑작스러운 광량의 변화로 인해서 이미지 센서의 적절한 노출시간 확보가 어려워 임무를 수행하기 어려운 문제가 있다. 따라서, 이미지 센서가 노출되면서 입사되는 광량이 급작스럽게 변하더라도 실시간으로 선명한 영상을 확보하는 기술의 필요성이 대두되고 있다.If the aircraft suddenly rushes during a combat mission, there is a problem that it is difficult to achieve the mission because it is difficult to secure the proper exposure time of the image sensor due to sudden light intensity change. Therefore, there is a need for a technique for ensuring a clear image in real time even if the amount of incident light suddenly changes while the image sensor is exposed.
최근에는 각각의 이미지 센서 모듈에 자동 노출 모드(Auto exposure mode)라고 해서 자동으로 노출시간을 조절해주는 회로를 내장하는 경우가 많지만 그만큼 이미지 센서 모듈이 커지게 되는 문제점이 있다.In recent years, each image sensor module is often equipped with a circuit for automatically controlling the exposure time in an auto exposure mode, but the image sensor module becomes large.
본 발명은 이미지 센서 모듈이 커지는 문제점을 해결하고, 비행체가 전투임무 수행 중 급 기동할 경우 광량의 변화로 인한 이미지 센서의 적절한 노출시간을 확보하기 어려운 문제점을 해결하도록 이미지 센서의 노출시간을 확보하는 장치의 자세정보를 기초로 이미지 센서로 입사되는 광의 노출각을 측정하여, 측정된 노출각에 따라 이미지 센서가 노출되는 노출시간을 실시간으로 확보하는 노출시간 확보 장치를 제공함에 있다.The present invention solves the problem that the image sensor module becomes large and secures the exposure time of the image sensor so as to solve the problem that it is difficult to secure a proper exposure time of the image sensor due to the change of the light amount when the air vehicle suddenly starts running during the combat mission The present invention provides an exposure time securing apparatus for measuring an exposure angle of light incident on an image sensor based on attitude information of the apparatus and securing an exposure time in which the image sensor is exposed according to the measured exposure angle in real time.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치는 상기 이미지 센서를 이용하여 영상 데이터를 획득하는 이미지 센서부; 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 영상 처리부; 자세정보 센서를 이용하여 센싱된 상기 노출시간 확보 장치의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 노출각 측정부; 및 상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 노출시간 획득부;를 포함할 수 있다.According to an aspect of the present invention, there is provided an exposure time securing apparatus for an image sensor, comprising: an image sensor unit for acquiring image data using the image sensor; An image processor for calculating a representative value from the pixels included in the image data obtained from the image sensor; An exposure angle measuring unit for measuring an exposure angle, which is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit, based on attitude information of the exposure time securing apparatus sensed using the attitude information sensor; And an exposure time acquiring unit for acquiring an exposure time, which is a time during which the image sensor unit is exposed to the light so that the calculated representative value becomes a predetermined data value, according to the measured exposure angle.
상기 노출각에 따라 획득된 노출시간을 저장하는 메모리;를 더 포함할 수 있다.And a memory for storing the exposure time acquired according to the exposure angle.
상기 노출각 측정부가 실시간으로 상기 노출각을 측정하도록 제어하고, 상기 노출시간 획득부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어하여, 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 제어부;를 더 포함할 수 있다.Wherein the control unit controls the exposure angle measuring unit to measure the exposure angle in real time and controls the exposure time acquiring unit to acquire an exposure time according to the exposure angle measured in real time so that the exposure time acquired according to the exposure angle stored in the memory And a controller for comparing the obtained exposure time with the exposure time measured in real time to update the exposure time stored in the memory.
상기 노출시간 확보 장치의 움직임에 따라 자세정보가 변경되는 경우, 상기 노출각 측정부가 상기 자세정보가 변경된 노출시간 확보 장치의 자세정보를 기초로 현재 노출각을 측정하도록 제어하고, 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 제어부;를 더 포함할 수 있다.When the attitude information is changed according to the movement of the exposure time securing device, the exposure angle measuring unit controls to measure the current exposure angle on the basis of the attitude information of the exposure time securing apparatus in which the attitude information is changed, A control unit for determining an exposure angle corresponding to the currently measured exposure angle, loading an exposure time corresponding to the determined exposure angle in the memory, and controlling the exposure of the image sensor unit to the light during the loaded exposure time; As shown in FIG.
상기 대표값은 상기 이미지 센서로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값일 수 있다.The representative value may be an average value of pixel values of pixels included in the image data obtained from the image sensor and operating according to the incident light.
상기 기 설정된 데이터 값은 상기 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다.The predetermined data value may be an intermediate value indicating a number corresponding to the middle of the number of colors that the pixels included in the image data can express.
상기 노출각 측정부는 적어도 두 개의 자세정보 센서를 통해 상기 노출시간 확보 장치의 자세에 대한 측정 데이터를 수집하는 복수 개의 자세정보 센서부; 상기 수집된 측정 데이터를 융합 및 가공하여 상기 노출시간 확보 장치의 자세에 대한 상태변수를 구하는 자세정보 센서 융합부; 상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 노출시간 확보 장치의 자세에 대한 상태정보를 추정하는 필터부; 및 상기 추정된 상태정보에 기반하여 상기 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부;를 포함할 수 있다.Wherein the exposure angle measuring unit comprises: a plurality of posture information sensor units for collecting measurement data on the posture of the exposure time securing apparatus through at least two posture information sensors; An attitude information sensor fusion unit for acquiring state variables for the attitude of the exposure time securing device by fusing and processing the collected measurement data; A filter unit for estimating state information on the attitude of the exposure time securing apparatus by applying a filter for estimating the state of the nonlinear dynamic system to the state variable; And an attitude information calculation unit for calculating attitude information according to motion of the exposure time securing apparatus in real time based on the estimated state information.
상기 복수 개의 자세정보 센서부는 3축 가속도계 센서 1개로부터 상기 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 제1 자세정보 센서부; 및 2축 자이로 센서 2개로부터 상기 노출시간 확보 장치의 각속도 값(p, q, r)을 수집하는 제2 자세정보 센서부;를 포함할 수 있다.Wherein the plurality of attitude information sensor units comprises: a first attitude information sensor unit for collecting acceleration values (X, Y, Z) of the X-axis, Y-axis and Z-axis of the exposure time securing device from one three-axis accelerometer sensor; And a second attitude information sensor unit for collecting the angular velocity values (p, q, r) of the exposure time securing device from two biaxial gyro sensors.
상기 자세정보 센서 융합부는 상기 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 상기 노출시간 확보 장치의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구할 수 있다.Wherein the posture information sensor fusion unit obtains a change rate of the Euler angle of the exposure time securing device using a relational expression between the angular velocity of the exposure time securing device and the Euler angle, Wherein the Euler angle is defined by the rotation angle pie (?) With respect to the X-axis direction, the rotation angle theta (?) With respect to the Y-axis direction, and the rotation angle? Can be obtained as a state variable.
상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 노출시간 확보 장치의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고, 상기 노출각은 상기 회전각 세타(θ)일 수 있다.Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis are all vertical, the Z-axis is perpendicular to the ground, and the rotation- (Pitch angle) is 0 degree, and the exposure angle may be the rotation angle theta ([theta]).
상기 필터부는 상기 상태변수에 확장 칼만 필터를 적용하여, 상기 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 측정하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 이미지 센서부의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.Wherein the filter unit applies an extended Kalman filter to the state variable to measure a predicted value and a predicted error covariance of the state information of the exposure time securing apparatus, calculates a Kalman gain, and uses the Kalman gain and the predicted estimated value The state information of the image sensor unit may be estimated, and the error covariance may be obtained using the Kalman gain and the prediction error covariance.
상기 필터부는 상기 센서 측정값 중 상기 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 센서 측정값의 업데이트에 따라 상기 상태변수를 구하고, 상기 필터를 적용하여 상기 노출시간 확보 장치의 상태정보를 추정하는 과정을 반복할 수 있다.Wherein the filter unit updates the pie and theta obtained from the three-axis accelerometer among the sensor measurement values, obtains the state variable according to the update of the sensor measurement value, It is possible to repeat the process of estimating the state information of the secure device.
본 발명의 일 실시 예에 따라 이미지 센서의 노출시간을 확보하도록 이미지 센서가 탑재된 장치의 자세가 급작스럽게 변경되어도 이미지 센서가 외부의 광에 노출되는 시간을 실시간으로 제어할 수 있다. 따라서, 별도의 하드웨어 추가 없이 실시간으로 영상이 선명하도록 영상의 밝기를 조절할 수 있다.According to an embodiment of the present invention, even when the posture of the apparatus on which the image sensor is mounted is suddenly changed to secure the exposure time of the image sensor, the time during which the image sensor is exposed to external light can be controlled in real time. Therefore, the brightness of the image can be adjusted so that the image is vivid in real time without adding any additional hardware.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.
도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.
도 2a는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치의 구성을 개략적으로 도시한 블록도이다.
도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.
도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.
도 3은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치가 노출각에 따라 노출시간을 확보하는 구체적인 방법을 나타낸 것이다.FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.
FIG. 2A is a block diagram schematically showing the configuration of an exposure time securing apparatus for an image sensor according to an embodiment of the present invention.
FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.
2C is a graph illustrating exposure time according to an embodiment of the present invention.
3 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in the exposure time securing apparatus of an image sensor according to an embodiment of the present invention.
4A and 4B illustrate a specific method for securing an exposure time according to an exposure angle of an exposure time securing apparatus of an image sensor according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms " first ", " second ", and the like in the present specification are for distinguishing one element from another element, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In the present description, the identification codes (e.g., a, b, c, etc.) in each step are used for convenience of explanation, and the identification codes do not describe the order of each step, Unless you specify a specific order, it can happen differently from the order specified. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.
본 명세서에서, “가진다”, “가질 수 있다”, “포함한다” 또는 “포함할 수 있다”등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.As used herein, the expressions " have, " " comprise, " " comprise, " or " comprise may " refer to the presence of a feature (e.g., a numerical value, a function, And does not exclude the presence of additional features.
또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.In addition, the term 'portion' as used herein refers to a hardware component such as software or a field-programmable gate array (FPGA) or an ASIC, and 'part' performs certain roles. However, 'part' is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, by way of example, 'parts' may refer to components such as software components, object-oriented software components, class components and task components, and processes, functions, , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data structures and variables. The functions provided in the components and components may be further combined with a smaller number of components and components or further components and components.
도 1a 내지 1e는 본 발명의 일 실시 예에 따른 CMOS 센서가 외부에 노출되는 노출시간에 따라 영상을 획득하는 것을 나타낸 것이다.FIGS. 1A through 1E illustrate that the CMOS sensor according to an embodiment of the present invention acquires an image according to the exposure time when the camera is exposed to the outside.
도 1a 및 1b를 참조하면, 이미지 센서의 종류 중 하나인 CMOS 센서 및 CMOS 센서가 외부에 노출되면서 CMOS 센서에 포함된 픽셀이 영상을 리드아웃 하는 것을 나타낸 것으로, CMOS 센서는 여러 개의 픽셀을 포함할 수 있다. CMOS 센서가 햇빛 또는 물체에 반사된 빛에 노출되면서 각각의 픽셀은 빛에 노출되면서 획득한 값을 아날로그 디지털 변환기(ADC)를 통해 디지털 값으로 출력하여 영상 데이터를 리드아웃 할 수 있다.Referring to FIGS. 1A and 1B, a CMOS sensor and a CMOS sensor, which are one type of image sensor, are exposed to the outside, and pixels included in the CMOS sensor read out an image. The CMOS sensor includes a plurality of pixels . As the CMOS sensor is exposed to sunlight or reflected light from an object, each pixel can be exposed to light and output to a digital value via an analog to digital converter (ADC) to read out the image data.
이미지 센서는 광 에너지를 전기 에너지로 전환하여 디스플레이로 영상을 표시하거나 저장장치에 저장할 수 있게 하는 반도체이다. 일반적으로 사용되는 이미지 센서의 종류로는 전하결합소자(Charge Coupled Device, CCD), 상보성 금속산화막 반도체(CMOS), 밀착형 영상 센서(Contact Image Sensor, CIS) 등의 종류가 있다. Image sensors are semiconductors that convert light energy into electrical energy and display it on a display or store it in a storage device. There are various types of image sensors generally used, such as a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), a contact image sensor (CIS), and the like.
CCD 이미지 센서는 빛을 전하로 변환시켜 화상을 얻어내는 센서로 여러 개의 축전기(Condenser)가 쌍으로 상호 연결되어 있는 회로로 구성되어 있고, 회로 내의 각 축전기는 자신 주변의 축전지로 축적된 전하를 전달한다. 구체적으로 CCD 칩은 많은 광 다이오드들이 모여 있는 칩으로 CCD 이미지 센서는 각각의 광 다이오드에 광이 비추어지면 광량에 따라 전자가 생기고 해당 광 다이오드 각각의 광의 밝기를 나타내는 전자량을 재구성하여 화면을 이루는 이미지 정보를 생성한다.A CCD image sensor is a sensor that converts light into electric charge to acquire an image. It is composed of a circuit in which a plurality of condensers are interconnected in pairs. Each capacitor in the circuit carries charge accumulated in its surrounding accumulator do. Specifically, a CCD chip is a chip in which a lot of photodiodes are gathered. When a light is irradiated to each photodiode, the CCD image sensor generates electrons according to the amount of light, reconstructs an amount of electrons representing the brightness of each of the photodiodes, Information.
CCD 이미지 센서와 동일하게 광 다이오드를 사용하지만 제조 과정과 신호를 읽는 방법이 다른 CMOS 이미지 센서는 CMOS를 이용한 고체 촬상 소자이다. CMOS 이미지 센서는 소형으로 제작이 가능하며 저전력이므로 현재 핸드폰 등 여러분야 에서 많이 사용되고 있다. CMOS 이미지 센서는 단위 셀마다 증폭기를 가지고 있으며 광 변환된 전기 신호의 읽기에 의해서 전기 노이즈의 발생이 적어지는 특징이 있다. CMOS 이미지 센서 광에 의해 발생한 전자를 각 화소 내에서 전압으로 변환한 후에 여러 CMOS 스위치를 통해 출력하는 센서로 CMOS 이미지 센서는 여러 개의 픽셀로 이루어져 있으며 CMOS 이미지 센서를 구성하는 픽셀은 1개의 포토 다이오드와 4개의 트랜지스터로 구성될 수 있다.The CMOS image sensor, which uses a photodiode in the same way as a CCD image sensor, but has different manufacturing methods and methods for reading signals, is a CMOS solid-state image sensor. The CMOS image sensor can be manufactured in a small size and has low power, so it is widely used in various fields such as mobile phones. The CMOS image sensor has an amplifier for each unit cell and has a feature that electric noise is less generated by reading the photo-converted electric signal. CMOS image sensor A CMOS image sensor is composed of several pixels. The pixels constituting the CMOS image sensor are composed of one photodiode and one pixel. And may be composed of four transistors.
도 1c를 참조하면, CMOS 이미지 센서는 물체에 반사된 빛에 노출되고 프레임 오버헤드 시간(Frame Overhead Time, FOT) 이후에 노출된 시간 동안 모은 아날로그 영상을 아날로그디지털 변환기 (analog-digital converter, ADC)를 통해서 디지털로 표현된 영상 데이터를 리드아웃(READOUT) 할 수 있다. 즉, CMOS 센서는 영상 데이터를 리드아웃 하는 동시에 CMOS 센서는 외부의 광에 노출되고 다음에 또 읽을 수 있게 된다.Referring to FIG. 1C, the CMOS image sensor is an analog-to-digital converter (ADC) which is exposed to light reflected from an object and collected during a period of time after a frame overhead time (FOT) It is possible to READOUT the image data expressed in digital form. That is, the CMOS sensor can read out the image data, and the CMOS sensor can be exposed to external light and read out again.
하지만 여기서 CMOS 센서가 한 프레임에 대한 영상 데이터를 읽고 그 값을 분석하여 적절한 노출시간을 구한 후 적용하기 까지는 약 100ms 이상의 지연이 발생한다. 즉, 100ms 이전의 영상 데이터를 분석하여 나온 노출시간 동안 CMOS 센서를 광에 노출시켜 영상을 얻을 수 있지만, 일반적으로 CMOS 센서가 획득하는 영상 데이터는 정지 영상이 아닌 동영상과 같이 실시간으로 변화하는 영상으로 100ms 이상의 지연이 발생하였으므로 분석된 노출시간을 현재 영상에 적용하는 것은 적절하지 않다.However, here, the CMOS sensor reads the image data for one frame, analyzes the value of the image data, and determines a proper exposure time. In other words, the image can be obtained by exposing the CMOS sensor to light during the exposure time analyzed by the image data of 100 ms or earlier. However, in general, the image data acquired by the CMOS sensor is a real- Since a delay of more than 100 ms has occurred, it is not appropriate to apply the analyzed exposure time to the current image.
도 1d를 참조하면, 외부에서 입사되는 광으로부터 CMOS 센서가 오래도록 노출되는 경우 CMOS 센서에 포함된 픽셀 값들은 포화(saturation)될 수 있고, 포화된 픽셀 값들에 의해 전체적으로 영상 데이터는 밝게 나오게 된다. 구체적으로 영상 데이터에서 밝은 부분들은 똑같이 밝아져 조금 밝았던 부분이나 많이 밝았던 부분에 대한 구분이 어려워진다.Referring to FIG. 1D, when the CMOS sensor is exposed for a long time from light incident from the outside, the pixel values included in the CMOS sensor may be saturated, and the image data may be entirely brightened by the saturated pixel values. Specifically, the bright portions of the image data are equally bright, making it difficult to distinguish between a portion that is slightly bright or a portion that is bright.
따라서, 비행체가 전투 임무 수행 중 급작스럽게 회전하는 경우 해를 바라볼 수도 있고, 이 경우 CMOS 센서에 입사되는 광량이 많아 이미지 센서에 포함된 픽셀 값들은 바로 포화되어서 영상이 더욱 하얗게 보일 수 있다.In this case, since the amount of light incident on the CMOS sensor is large, the pixel values included in the image sensor are saturated and the image may appear more whiter.
이에 비해 도 1e를 참조하면, 상술한 도 1d와 반대로 외부에서 입사되는 광으로부터 이미지 센서가 짧게 노출된 경우 영상 데이터에서 조금 어두웠던 부분과 많이 어두웠던 부분에 대한 구분이 어려워진다.On the other hand, referring to FIG. 1E, in contrast to FIG. 1D, when the image sensor is briefly exposed from the light incident from the outside, it is difficult to distinguish between a part that is slightly dark and a part that is dark.
따라서, 비행체가 급작스럽게 회전하면서 광이 비치지 않는 어두운 곳을 바라보는 경우, CMOS 센서에 입사되는 광량이 적어 이미지 센서에 포함된 픽셀 값들은 더욱 어둡게 보일 수 있다.Accordingly, when the airplane suddenly rotates and looks at a dark place where no light is shining, the amount of light incident on the CMOS sensor is small, so that pixel values included in the image sensor may appear darker.
도 2a는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치의 구성을 개략적으로 도시한 블록도이다.FIG. 2A is a block diagram schematically showing the configuration of an exposure time securing apparatus for an image sensor according to an embodiment of the present invention.
도 2b는 본 발명의 일 실시 예에 따른 영상 데이터 전송 방법을 나타낸 것이다.FIG. 2B illustrates a method of transmitting image data according to an exemplary embodiment of the present invention.
도 2c는 본 발명의 일 실시 예에 따른 노출시간을 결정하는 그래프를 나타낸 것이다.2C is a graph illustrating exposure time according to an embodiment of the present invention.
도 2a를 참조하면, 이미지 센서의 노출시간 확보 장치(200)는 이미지 센서부(210), 노출각 측정부(230), 영상 처리부(220), 노출시간 획득부(240), 메모리(250) 및 제어부(260)를 포함할 수 있다.2A, an exposure
본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치(200)는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론, 로봇 또는 미사일일 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 상술한 이미지 센서의 노출시간을 확보하는 장치(200)는 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 장치에 적용될 수 있다.The
또한, 본 발명의 또 다른 일 실시 예에 따른 이미지 센서의 노출시간을 확보하는 장치(200)는 무인 비행체인 드론, 로봇 또는 미사일과 같이 움직임을 가지는 물체의 외부에 장착될 수도 있다.In addition, the
이미지 센서부(210)에 포함된 이미지 센서는 외부의 광에 노출되어 이미지 센서로 광이 입사되면서 이미지 센서부(210)는 입사된 광으로부터 영상 데이터를 획득할 수 있다.The image sensor included in the image sensor unit 210 is exposed to external light, and light is incident on the image sensor 210, so that the image sensor unit 210 can acquire image data from the incident light.
본 발명의 일 실시 예에 따른 이미지 센서부(210)는 상술한 CCD, CMOS CIS와 같은 이미지 센서가 사용될 수 있으며, 상술한 이미지 센서부(210)가 해로부터 직접적으로 들어오는 광 또는 물체로부터 반사된 광에 노출되는 경우 이미지 센서부(210)에 포함된 전처리부가 이미지 센서부(210)에 포함된 각각의 픽셀로 입사되는 광을 전기 신호로 변환하고, 변환된 전기 신호를 증폭 및 압축시켜 전처리할 수 있다. 또한, 이미지 센서부(210)에 포함된 아날로그 디지털 변환부가 전처리된 아날로그 신호를 디지털 신호로 변환할 수 있다. 따라서, 본 발명의 일 실시 예에 따라 이미지 센서부(210)로부터 획득되며 픽셀의 값으로 이루어진 픽셀의 집합인 영상 데이터에 포함된 각각의 픽셀은 8BIT, 10BIT, 12BIT 등과 같은 디지털 값으로 표현될 수 있다.The image sensor unit 210 according to an exemplary embodiment of the present invention may be an image sensor such as the CCD or the CMOS CIS described above. The image sensor unit 210 may be configured to reflect light or an object When exposed to light, the preprocessing unit included in the image sensor unit 210 converts the light incident on each pixel included in the image sensor unit 210 into an electrical signal, amplifies and compresses the converted electrical signal, and preprocesses . In addition, the analog-to-digital converter included in the image sensor unit 210 may convert the preprocessed analog signal into a digital signal. Therefore, each pixel included in the image data, which is a set of pixels obtained from the image sensor unit 210 and composed of pixel values, according to an embodiment of the present invention, can be represented by digital values such as 8BIT, 10BIT, 12BIT, have.
영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출할 수 있다.The
도 2b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서부(210)와 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터를 낮은 전압 차분 신호(Low-voltage differential signaling, LVDS)로 수신할 수 있다. 구체적으로 도 2b는 영상 처리부(220)가 낮은 전압 차분 신호를 이용하여 각각 8BIT, 10BIT 및 12BIT의 픽셀 데이터를 수신하는 것을 나타낸 것이다.2B, the image sensor unit 210 and the
LVDS로 신호를 전송하는 방법은 디지털 정보를 구리선을 통해 고속 전송하기 위해 송신측에서 서로 다른 2개의 낮은 전압을 전송하면 수신측에서 전송된 2개의 전압 차이를 비교하여 영상 데이터를 수신하는 방법으로, 본 발명의 일 실시 예에 따르면 이미지 센서부(210)는 서로 다른 2개의 낮은 전압을 전송하고, 영상 처리부(220)에서 2개의 전압 차이를 비교하여 노이즈를 제거시킨 영상 데이터를 고속으로 받을 수 있다.A method of transmitting signals by LVDS is a method of receiving image data by comparing two voltage differences transmitted from a receiving side by transmitting two different low voltages at a transmitting side in order to transmit digital information at high speed through a copper line, According to an embodiment of the present invention, the image sensor unit 210 may transmit two different low voltages, and may compare the two voltage differences in the
따라서, 본 발명의 일 실시 예에 따라 영상 처리부(220)가 LVDS를 이용하여 이미지 센서부(210)로부터 영상 데이터를 전송 받는 경우 영상 데이터를 빠르게 전송 받을 수 있으며, 낮은 전압 신호를 이용하므로 전력 소비가 감소되며, 차분 신호를 이용하므로 노이즈가 제거된 영상 데이터를 전송 받을 수 있는 효과가 있다.Accordingly, when the
다시 도 2a를 참조하면, 본 발명의 일 실시 예에 따른 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들로부터 통계적으로 산출될 수 있는 모든 값을 포함하는 대표값을 산출할 수 있다.Referring again to FIG. 2A, the
본 발명의 또 다른 일 실시 예에 따른 대표값은 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀들 중 이미지 센서부(210)에 포함된 이미지 센서로 광이 입사됨에 따라 영상 데이터를 표현하도록 동작이 가능한 픽셀들로부터 결정된 영상 밝기의 평균값일 수 있다. 구체적으로 영상 처리부(220)는 이미지 센서부(210)로부터 획득된 영상 데이터에 포함되며 디지털 값으로 변환된 픽셀값들을 리드할 수 있고, 리드 된 픽셀값들을 연산 처리하여 평균값을 결정할 수 있다. 상술한 리드 된 픽셀값들은 영상 데이터를 표현하도록 동작 가능한 픽셀값들만 리드 될 수 있으나 이에 한정되는 것은 아니며 다양한 조합으로 픽셀값들을 리드할 수 있다.The representative value according to another exemplary embodiment of the present invention is a representative value of the image data of the pixels included in the image data obtained from the image sensor unit 210 as the light is incident on the image sensor included in the image sensor unit 210 May be an average value of the image brightness determined from the pixels operable to represent the image. Specifically, the
노출각 측정부(230)는 자세정보 센서를 이용하여 센싱된 이미지 센서가 탑재된 이미지 센서의 노출시간을 확보하는 장치의 자세정보를 기초로 기 설정된 기준 방향 및 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다.The exposure
노출각 측정부(230)가 노출각을 측정하는 구체적인 방법은 도 3에서 후술하기로 한다. A specific method by which the exposure
노출시간 획득부(240)는 영상 처리부(220)에서 산출된 대표값이 기 설정된 데이터 값이 되도록 이미지 센서부(210)가 광에 노출되는 시간인 노출시간을 노출각 측정부(230)에서 측정된 노출각에 따라 획득할 수 있다.The exposure time obtaining unit 240 measures an exposure time which is a time when the image sensor unit 210 is exposed to light so that the representative value calculated by the
기 설정된 데이터 값은 이미지 센서부(210)로부터 획득된 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값일 수 있다. 구체적으로, 본 발명의 일 실시 예에 따라 이미지 센서부(210)로부터 획득된 영상 데이터의 크기는 영상 크기가 640 X 480일 수 있고, 영상 크기가 640 X 480인 경우 픽셀의 개수는 307200개 이며, 각각의 픽셀이 12BIT인 경우일 수 있다. 픽셀이 12BIT인 경우 픽셀은 4096가지(=212개)의 색을 표현할 수 있으며, 상술한 중간값은 2048일 수 있으며, 2048에 근접한 값일 수도 있다. The predetermined data value may be an intermediate value indicating the number of the pixels included in the image data obtained from the image sensor unit 210, the number of which corresponds to the middle of the number of colors. More specifically, according to an embodiment of the present invention, the size of the image data obtained from the image sensor unit 210 may be 640 X 480, and the number of pixels is 307200 when the image size is 640 X 480 , And each pixel is 12 bits. If the pixel is 12 bits, the pixel can represent 4096 (= 212) colors, and the above-mentioned intermediate value may be 2048, or a value close to 2048. [
도 2c를 참조하면, 도 2c는 본 발명의 일 실시 예에 따라 상술한 이미지 센서부(210)로부터 획득된 영상 크기가 640 X 480이고, 각각의 픽셀이 12BIT인 경우 총 픽셀들로부터 결정된 영상 밝기의 평균값과 노출시간의 관계를 그래프로 나타낸 것으로 상술한 평균값이 중간값인 2048이 되도록 하는 노출시간은 33ms이다. 따라서, 노출시간 획득부(240)는 영상 처리부(220)에서 산출된 평균값이 기 설정된 데이터 값인 2048이 되도록 만드는 노출시간 33ms를 노출각 측정부(230)에서 측정된 노출각에 따라 획득할 수 있다. 단, 상술한 영상 크기 및 픽셀의 BIT는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 다양한 영상의 크기 및 픽셀의 개수일 수 있다.Referring to FIG. 2C, FIG. 2C is a diagram illustrating an example of a case where an image size obtained from the image sensor unit 210 according to an exemplary embodiment of the present invention is 640 X 480 and each pixel is 12 bits, And the exposure time is 20 ms, which is the median value. The exposure time is 33 ms. Accordingly, the exposure time acquisition unit 240 may acquire the exposure time 33 ms to make the average value calculated by the
다시 도 2a를 참조하면, 메모리(250)는 노출시간 획득부(240)에서 노출각에 따라 획득된 노출시간을 저장할 수 있다.Referring again to FIG. 2A, the
본 발명의 일 실시 예에 따른 제어부(260)는 한 프레임의 영상 데이터에 포함된 픽셀들의 밝기 값을 실시간으로 계속해서 더하고 평균값을 내도록 영상 처리부(220)를 제어할 수 있다.The controller 260 according to an exemplary embodiment of the present invention may control the
제어부(260)는 노출각 측정부(230)가 실시간으로 기 설정된 기준 방향 및 이미지 센서부(210)로 입사되는 광의 방향 간의 각도인 노출각을 측정하도록 제어할 수 있고, 노출시간 획득부(240)가 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어할 수 있다.The control unit 260 may control the exposure
또한, 제어부(260)는 노출시간 획득부(240)가 영상 밝기의 평균값을 계속해서 데이터의 중간값에 유지할 수 있도록 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어할 수 있다.The control unit 260 may control the exposure time acquiring unit 240 to acquire the exposure time according to the exposure angle measured in real time so that the average value of the image brightness can be continuously maintained at the intermediate value of the data.
제어부(260)는 메모리(250)에 저장된 노출각에 따라 획득된 노출시간과 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교할 수 있으며, 비교 결과 메모리(250)에 저장된 노출각과 실시간으로 측정된 노출각이 동일하지만 노출시간이 다른 경우 제어부(260)는 메모리(250)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.The control unit 260 can compare the exposure time acquired according to the exposure angle stored in the
본 발명의 일 실시 예에 따른 제어부(260)는 동기식 시리얼 통신을 통해 메모리(250)에 저장된 노출시간을 실시간으로 업데이트 할 수 있다. 동기식 시리얼 통신은 데이터를 보낼 때 데이터가 전달된다고 알려주는 별도의 클럭(clock) 라인을 사용하는 방법으로 클럭 라인을 통신 참여자가 공유함으로써 데이터 라인으로 언제 데이터가 들어오는지 알 수 있도록 해주는 방법이다. 동기식 통신 방법의 종류로는 I2C, SPI(Serial Peripheral Interface) 통신이 있으며, SPI(Serial Periphal Interface) 통신이란 직렬(Serial)로 데이터 통신을 수행함으로써 임의의 IC에 특정한 정보를 전달하고, 그 IC의 정보를 알 수 있도록 하는 일종의 통신 프로토콜이다.The controller 260 according to an embodiment of the present invention can update the exposure time stored in the
따라서, 본 발명의 일 실시 예에 따르면 제어부(260)는 SPI 통신을 통해 메모리(250)에 저장된 노출시간을 실시간으로 업데이트 할 수 있으나 이에 한정되는 것은 아니며 다양한 통신 방법에 의해 제어부(260)는 메모리(250)에 저장된 노출시간을 실시간으로 측정된 노출시간으로 업데이트 할 수 있다.According to an embodiment of the present invention, the control unit 260 may update the exposure time stored in the
또한, 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서의 노출시간 확보 장치(200)가 움직이면서 이미지 센서가 탑재된 이미지 센서의 노출시간을 확보하는 장치(200)의 자세정보가 갑작스럽게 변경되는 경우, 제어부(260)는 노출각 측정부(230)가 상술한 자세정보가 변경된 이미지 센서가 탑재된 노출시간 확보 장치(200)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부(260)는 메모리(250)에 저장된 노출각 중 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있고, 제어부(260)는 결정된 노출각에 따른 노출시간을 메모리(250)에서 로드할 수 있다. 또한, 제어부(260)는 메모리(250)로부터 로드 된 노출시간 동안 이미지 센서부(210)가 광에 노출되도록 제어할 수 있다.According to another embodiment of the present invention, when the
도 3은 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 노출각 측정부의 구성을 개략적으로 도시한 블록도이다.3 is a block diagram schematically illustrating the configuration of an exposure angle measuring unit included in the exposure time securing apparatus of an image sensor according to an embodiment of the present invention.
도 3을 참조하면, 노출각 측정부(230)는 복수 개의 자세정보 센서부(231), 자세정보 센서 융합부(232), 필터부(233) 및 자세정보 산출부(234)를 포함할 수 있다.3, the exposure
복수 개의 자세정보 센서부(231)는 적어도 두 개의 자세정보 센서를 통해 이미지 센서를 탑재한 이미지 센서의 노출시간을 확보하는 장치에 대한 측정 데이터를 수집할 수 있다.The plurality of posture
본 발명의 일 실시 예에서 이미지 센서의 노출시간을 확보하는 장치는 이미지 센서를 사용하여 영상을 획득하는 무인 비행체인 드론, 로봇 또는 미사일일 수 있으며 본 명세서에서는 군사 상황에서 적용되는 드론을 예로 들었으나 이에 한정하는 것은 아니며 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 다양한 장치에 적용될 수 있다.In an embodiment of the present invention, the apparatus for securing the exposure time of the image sensor may be a drone, a robot, or a missile, which is an unmanned aerial vehicle for acquiring images using an image sensor. In the present specification, The present invention is not limited thereto and can be applied to various apparatuses that acquire images using an image sensor while moving.
본 발명의 일 실시 예에 따른 복수 개의 자세정보 센서부(231)는 제1 자세정보 센서부(231a) 및 제2 자세정보 센서부(231b)를 포함할 수 있으나, 이에 한정되는 것은 아니며 자세정보 센서부의 개수는 2개 보다 더 많을 수 있다.The plurality of attitude
제1 자세정보 센서부(231a)는 3축 가속도계 센서 1개로 구성되어 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집할 수 있으며, 제2 자세정보 센서부(231b)는 2축 자이로 센서 2개로부터 노출시간 확보 장치의 각속도 값(p, q, r)을 수집할 수 있다.The first attitude information sensor unit 231a is constituted by one three-axis accelerometer sensor and can collect the acceleration values (X, Y, Z) of the X axis, Y axis and Z axis of the exposure time securing apparatus, The sensor unit 231b can collect the angular velocity values (p, q, r) of the exposure time securing apparatus from the two biaxial gyro sensors.
자세정보 센서 융합부(232)는 각 자세정보 센서부(231a, 231b)로부터 수집된 데이터를 융합 및 가공하여 노출시간 확보 장치의 자세에 대한 상태변수를 구할 수 있다.The attitude information sensor fusion unit 232 can obtain state variables for the attitude of the exposure time securing apparatus by fusing and processing data collected from the attitude information sensor units 231a and 231b.
구체적으로, 자세정보 센서 융합부(232)는 움직이는 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 이미지 센서부의 오일러 각의 변화율을 결정할 수 있고, 결정된 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 산출할 수 있다. 자세정보 센서 융합부(232)는 자세정보 센서 융합에 기반하여 산출된 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상태변수로서 결정할 수 있다.Specifically, the attitude information sensor fusion unit 232 can determine the rate of change of the Euler angle of the image sensor unit using the relational expression between the angular velocity of the moving time securing apparatus and the Euler angle, The angle can be calculated. The attitude information sensor fusion unit 232 acquires the Euler angles calculated on the basis of the attitude information sensor fusion based on the rotation angle pie? In the X axis direction, the rotation angle theta? In the Y axis direction, Can be determined as a state variable composed of the rotation angle ψ.
여기서 자세정보 센서 융합부(232)는 개별 자세정보 센서 각각의 단점들을 보완하여 정확한 동적 자세 정보를 출력하기 위해 일련의 디지털 필터링 알고리즘을 이용할 수 있다. 즉, 자세정보 센서 융합의 목적은 각 자세정보 센서부(231a, 231b)로부터 수집된 데이터를 입력으로 하고 디지털 필터링을 적용하여 서로의 값을 보완한 뒤 정확하고 유용한 동적 자세 결과값을 출력하는 것이다.Here, the attitude information sensor fusion unit 232 may use a series of digital filtering algorithms to supplement the shortcomings of the individual attitude information sensors and output accurate dynamic attitude information. That is, the purpose of the attitude information sensor fusion is to input data collected from the attitude information sensor units 231a and 231b, apply digital filtering, complement each other's values, and output accurate and useful dynamic attitude result values .
자세정보 센서 융합부(232)는 상기 오일러 각의 변화율을 하기 [수학식 1]로 구할 수 있다.The posture information sensor fusion unit 232 can obtain the rate of change of the Euler angle by the following equation (1).
[수학식 1] [Equation 1]
여기서, (p, q, r)은 이미지 센서가 탑재된 노출시간 확보 장치의 각속도계 값이고, 는 오일러 각의 변화율이다. Here, (p, q, r) is the value of each speedometer of the exposure time securing device on which the image sensor is mounted, Is the rate of change of the Euler angles.
그리고, 상술한 오일러 각의 변화율을 적분함으로써, 하기 [수학식 2]의 오일러 각으로 나타내는 상태변수(Φt, θt, Ψt)를 구할 수 있다.And, to be obtained for the state variables (Φ t, θ t, Ψ t) represented by the Euler angles of the Equation (2) by integrating the rate of change of the above-described Eulerian angles.
[수학식 2]&Quot; (2) "
필터부(233)는 [수학식 2]로부터 결정되는 상태변수(Φt, θt, Ψt)에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 노출시간 확보 장치의 상태정보를 추정할 수 있다. 이를 위해, 필터부(233)는 복수 개의 자세정보 센서부(231)로부터 수집된 측정 데이터에서 잡음을 확률변수로 취급하고, 필터에 의해 상태정보 추정 오차의 기댓값이 최소가 되도록 상태변수를 구할 수 있다.
구체적으로, 본 발명의 일 실시 예에 따른 필터부(233)는 상태변수(Φt, θt, Ψt)에 확장 칼만 필터를 적용할 수 있다.Specifically, the
칼만 필터는 잡음이 포함되어 있는 선형 역학계의 상태를 추적하는 재귀 필터로써, 구체적으로 잡음까지 포함된 입력 데이터를 재귀적으로 처리하는 필터로 현재 상태에 대한 최적의 통계적 예측을 진행할 수 있다. 하지만, 칼만 필터는 기본적으로 시스템이 선형이라는 가정하에 설계된 필터로 비선형 시스템에 적용하면 오차가 오히려 커지거나 발산해버리는 특성이 있어서 문제가 있다. 따라서, 본 발명의 일 실시 예에서는 계산량이 비교적 적으며 비선형 시스템에서 상태 추정이 가능한 확장 칼만 필터를 적용할 수 있다.The Kalman filter is a recursive filter that tracks the state of a linear dynamics system that contains noise. Specifically, it is a filter that recursively processes input data including noise, and can perform optimal statistical prediction of the current state. However, the Kalman filter is basically a filter designed on the assumption that the system is linear. When applied to a nonlinear system, there is a problem that the error becomes rather large or divergence occurs. Accordingly, in an embodiment of the present invention, an extended Kalman filter having a relatively small amount of calculation and capable of state estimation in a nonlinear system can be applied.
확장 칼만 필터를 통해 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 구하고, 칼만 이득을 계산할 수 있으며, 계산된 칼만 이득과 예측 추정값을 이용하여 노출시간 확보 장치의 상태정보를 추정하고, 칼만 이득과 예측 오차 공분산을 이용하여 오차 공분산을 획득할 수 있다.The Kalman gain can be calculated by obtaining a predictive value and a prediction error covariance of the state information of the exposure time securing apparatus through the extended Kalman filter. The state information of the exposure time securing apparatus is estimated using the calculated Kalman gain and the predicted value , The error covariance can be obtained using the Kalman gain and the prediction error covariance.
필터부(233)는 복수 개의 자세정보 센서부(231)로부터 측정된 측정값 중 3축 가속도계로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 업데이트 된 측정값에 따라 상태변수를 구하고, 확장 칼만 필터를 적용하여 이미지 센서부의 상태정보를 추정하는 과정을 반복한다.The
여기서, 확장 칼만 필터에 대해 상세히 설명하자면 다음과 같다.Here, the extended Kalman filter will be described in detail as follows.
확장 칼만 필터는 다음 수학식 3과 같은 상태변화모델과 측정모델을 갖는다.The extended Kalman filter has a state change model and a measurement model as shown in Equation (3).
[수학식 3]&Quot; (3) "
여기서 Xt는 마르코프 프로세스(Markov Process)를 따르는 상태 벡터이고, 와 는 평균이 0이고, 분산이 각각 , 인 독립 가우시안 백색 잡음이다. 마르코프 프로세스는 상태벡터가 결정될 확률이 과거의 다른 상태 벡터들과 무관하고 그 직전의 결과인 Xt-1에 따라 결정된다는 가정이다. 다음은 수학식 4는 상기 상태방정식에 대한 확장 칼만 필터 알고리즘이다.Where X t is a state vector following the Markov process, Wow The average is 0, and the variance is , Independent Gaussian white noise. The Markov process assumes that the probability that the state vector is determined is independent of other state vectors of the past and is determined according to X t-1 , which is the result of the previous state vector. Equation (4) is an extended Kalman filter algorithm for the above state equation.
[수학식 4]&Quot; (4) "
여기서, .는 평균값, 는 분산값, 는 제어값, 는 측정값, 는 칼만 게인, 확장 칼만 필터는 t-1 순간까지의 관측값에 근거하여 X(t|t-1)을 추정하며 알고리즘은 반복형으로 표현된다. 는 시스템에 대한 노이즈의 공분산 값이고 는 센서 측정 값에 대한 노이즈의 공분산 값이다. here, The average value, Is a variance value, Is a control value, Lt; / RTI > The Kalman gain and the extended Kalman filter estimate X (t | t-1) based on the observations up to the instant t-1, and the algorithm is expressed in iterative form. Is the covariance of the noise for the system Is the covariance of the noise to the sensor measurement.
(10-1), (10-2)번 식은 예측하는 부분이고 (10-3)번 식은 칼만 이득(Kalman Gain)을 나타낸다. 칼만 이득의 물리적 의미는 숫자가 클수록 측정치가 정확하고 숫자가 작을 수록 예측치가 정확하다 할 수 있다.(10-1) and (10-2) are predictive parts and the equation (10-3) expresses Kalman gain. The physical meaning of the Kalman gain is that the larger the number is, the more accurate the measured value, and the smaller the number, the better the predicted value.
(10-4), (10-5)번 식은 측정한 값을 업데이트 하는 부분이다. 확장 칼만 필터를 비선형 시스템에 적용할 수 있는 이유는 바로 테일러 시리즈와 자코비안을 확장 칼만 필터에 적용하였기 때문이다. 테일러 시리즈는 비선형 시스템을 선형화시켜주며 자코비안은 복잡하게 얽혀 있는 식을 미분을 이용하여 선형 근사화시켜 간단한 근사 선형식을 만들어 준다. 확장 칼만 필터는 비선형 시스템에 적용할 수 있으므로 쿼터니언 좌표계를 사용할 필요 없이 오일러 각을 이용한다. (10-4), (10-5) is the part that updates the measured value. The extended Kalman filter can be applied to nonlinear systems because the Taylor series and Jacobian are applied to the extended Kalman filter. The Taylor series linearizes the nonlinear system, and Jacobian creates a simple approximation of the line by approximating complex entangled formulas using derivatives. The extended Kalman filter can be applied to nonlinear systems, so the Euler angles are used without the use of a quaternion coordinate system.
본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치에 포함된 이미지 센서부로 입사되는 광이 일반적으로 해로부터 직접 입사되는 경우 이미지 센서부가 하늘을 바라보는 경우이고 본 발명의 일 실시 예로 지상에 있는 탱크로부터 반사된 광이 입사되는 경우 이미지 센서부가 지상을 바라보는 경우로 이에 대하여 확장 칼만 필터 적용 시 X축 방향에 대한 회전 각 Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이) 중 Y축 방향에 대한 회전 각 θ(세타)만 실시간으로 획득할 수 있다. 단, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각 Φ(파이)도 실시간으로 획득할 수 있으며 이는 프로그램 설계시 제작자의 임의로 또는 사용자의 설정에 따라 변경될 수 있다.In the case where the light incident on the image sensor unit included in the exposure time securing apparatus of the image sensor according to the embodiment of the present invention is directly incident from the sea, the image sensor unit looks at the sky. In an embodiment of the present invention, (Theta) with respect to the Y-axis direction, the rotation angle [theta] (theta) with respect to the Y-axis direction when the image sensor portion looks at the ground when the light reflected from the tank is incident, Only the rotation angle [theta] (theta) with respect to the Y axis direction among the rotation angles [psi] between the Z axis directions can be obtained in real time. However, depending on the special situation or environment, the rotation angle ψ (psi) or the rotation angle Φ (pie) with respect to the X axis direction in the Z axis direction can be acquired in real time. . ≪ / RTI >
따라서, 본 발명의 일 실시 예에 따른 이미지 센서가 탑재된 이미지 세서의 노출시간을 확보하는 장치의 자세 정보 획득을 위한 상태변수는 X축 방향에 대한 회전 각 Φ(파이), Y축 방향에 대한 회전 각 θ(세타), Z축 방향에 대한 회전 각 Ψ(프사이)으로 구성될 수 있다.Therefore, the state variable for acquiring the posture information of the apparatus for securing the exposure time of the image sensor on which the image sensor is mounted according to the embodiment of the present invention includes the rotation angle? (Pi) with respect to the X axis direction, The rotation angle? (Theta), and the rotation angle? (Pivot) with respect to the Z-axis direction.
상술한 첫 번째 식 (10-1)에 각속도와 오일러각의 관계식을 적용할 수 있으나 비선형식이고, 확장 칼만 필터의 예측하는 첫 번째 식 (10-1)은 제어하는 부분은 없으므로 ut는 삭제하고 다음 수학식 5와 같이 나타낼 수 있다.And the above-described first equation (10-1) can be applied to the relation of the angular speed and Euler angles, but defense type, the first type to predict the extended Kalman filter 10-1 is t u is not deleted is part of controlling And can be expressed by the following equation (5).
[수학식 5]&Quot; (5) "
위 식을 이미지 센서의 노출시간 확보 장치의 자세를 나타내는 오일러 각으로 풀 수 있다.The above equation can be solved with an Euler angle representing the posture of the exposure time securing device of the image sensor.
본 발명의 일 실시 예를 설명하기 위해 이미지 센서의 노출시간 확보 장치의 Φ와 θ 각도만을 고려하고 ψ는 사용하지 않는 경우로 설정하도록 한다. Φ와 θ 각도는 를 적분함으로서 구할 수 있고, 이 식을 적분하면 이미지 센서의 노출시간 확보 장치의 위치 정보를 나타내는 상태모델(state model)이 될 수 있다. 단 상술한 예시는, 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, θ 각도만을 고려하고 Φ와 ψ는 사용하지 않는 경우로 설정할 수 있고, 또한, Φ, θ 및 ψ 각도 모두를 고려할 수도 있다.To explain one embodiment of the present invention, only Φ and θ angle of the exposure time securing apparatus of the image sensor are considered, and ψ is set to the case of not using it. The angles? And? , And integrating this equation can be a state model representing the position information of the exposure time securing device of the image sensor. However, the present invention is not limited to this, and it is possible to set Φ and ψ not to use Φ, θ and ψ in consideration of θ angle only, You can also consider both angles.
이미지 센서의 노출시간 확보 장치의 자세정보 상태모델은 상술한 수학식 1과 같고, 수학식 1을 적분한 식은 상술한 수학식 2와 같다. 수학식 1과 수학식 2에서 다음 수학식 5가 통용될 수 있다. 여기서, dt는 미소시간을 나타낸다.The posture information state model of the exposure time securing apparatus of the image sensor is as shown in Equation (1), and the equation obtained by integrating Equation (1) is the same as Equation (2). In the equations (1) and (2), the following equation (5) Can be used. Here, dt represents the minute time.
이미지 센서부의 자세정보 측정모델은 다음 수학식 6과 같다.The attitude information measurement model of the image sensor section is expressed by the following Equation (6).
[수학식 6]&Quot; (6) "
수학식 6은 선형이므로 자코비안을 사용할 필요없이 다음 수학식 7과 같은 측정모델로 사용할 수 있다.Since Equation (6) is linear, it can be used as a measurement model as shown in Equation (7) without using Jacobian.
[수학식 7]&Quot; (7) "
그리고, 측정모델 H는 다음 수학식 8과 같이 구해진다.Then, the measurement model H is obtained by the following equation (8).
[수학식 8]&Quot; (8) "
미분을 통하여 시스템을 선형 근사화시키기 위해서 자코비안을 이용하는데 자코비안은 수학식 9와 같이 구할 수 있다.Jacobian is used to linearly approximate the system through differentiation, Jacobian can be obtained as shown in equation (9).
[수학식 9]&Quot; (9) "
이렇게 구한 자코비안을 이용하여 확장 칼만 필터의 예측단계 아래 두 번째 식인 (10-2)식을 사용하여 예측 공분산값 ?을 구한다.Using the Jacobian obtained above, the predicted covariance value of the extended Kalman filter is calculated using the second equation (10-2) below. .
필터부(233)는 칼만 이득인 Kt는 (10-3)식을 사용하여 추정값으로서 측정모델을 계산하고 예측 공분산과 칼만 이득을 이용하여 자세정보 센서 측정 노이즈의 공분산 값을 구할 수 있다.The
필터부(233)는 START에서 시작하여 최종적으로 을 구한 뒤 다시 이 값을 값으로 입력하여 확장 칼만 필터 알고리즘을 반복적으로 수행한다.The
또한 수행하는 과정에서 최신화 된 자세정보 센서 값인 자이로와 가속도계 값을 업데이트하는 것을 확인할 수 있으며 자코비안 값도 계속해서 업데이트를 수행할 수 있다.In addition, it can be confirmed that the gyro and accelerometer value, which are the updated attitude information sensor values, are updated in the course of performing, and the Jacobian value can be continuously updated.
자세정보 산출부(234)는 이미지 센서의 노출시간 확보 장치의 상태정보에 기반하여 이미지 센서의 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출할 수 있다.The posture information calculation unit 234 can calculate the posture information according to the movement of the exposure time securing apparatus of the image sensor in real time based on the state information of the exposure time securing apparatus of the image sensor.
따라서, 노출각 측정부는 이미지 센서의 노출시간 확보 장치의 움직임에 따라 실시간 산출된 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정할 수 있다. 예를 들면, 이미지 센서의 노출시간 확보 장치의 움직임에 따라 노출시간 확보 장치의 자세가 변경되면서 Y축 방향에 대한 회전 각 θ가 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 단, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 특수 상황이나 환경에 따라 Z축 방향에 대한 회전 각 Ψ(프사이) 또는 X축 방향에 대한 회전 각 Φ(파이)이 얼마만큼 변화했는지 실시간으로 산출할 수 있다. 본 발명의 일 실시 예에 따른 X축, Y축 및 Z축은 각각 직각 관계에 있다.Accordingly, the exposure angle measuring unit can measure an exposure angle, which is an angle between a preset reference direction and a direction of light incident on the image sensor unit based on the real-time calculated posture information in accordance with the movement of the exposure time securing apparatus of the image sensor. For example, it is possible to calculate in real time how much the rotation angle [theta] with respect to the Y-axis direction has changed as the posture of the exposure time securing device is changed according to the movement of the exposure time securing device of the image sensor. However, the present invention is not limited thereto. For example, the rotation angle? (Psi) with respect to the Z-axis direction or the rotation about the X-axis direction It is possible to calculate in real time how much Φ (pi) has changed. The X-axis, the Y-axis, and the Z-axis according to an embodiment of the present invention are respectively in a right angle relation.
도 4a 및 도 4b는 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간 확보 장치가 노출각에 따라 노출시간을 확보하는 구체적인 방법을 나타낸 것이다.4A and 4B illustrate a specific method for securing an exposure time according to an exposure angle of an exposure time securing apparatus of an image sensor according to an embodiment of the present invention.
도 4a 및 도 4b를 참조하면, 본 발명의 일 실시 예에 따른 이미지 센서의 노출시간을 확보하는 장치는 무인 비행체인 드론(400)인 경우를 나타낸 것으로, 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며, 이미지 센서의 노출시간을 확보하는 장치는 로봇 또는 미사일일 수 있고, 또한 움직이면서 이미지 영상 센서를 사용하여 영상을 획득하는 모든 장치에 적용될 수 있다.4A and 4B, an apparatus for securing exposure time of an image sensor according to an embodiment of the present invention is a
도 4a를 참조하면, 이미지 센서(410)가 탑재된 드론(400)의 좌표축은 도 4a에 도시된 바와 같으며, 이미지 센서(410)가 탑재된 드론(400)의 상태변수가 상술한 도 3에서 설명한 바와 같이 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되며, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 경우 X축을 기준으로 회전하는 경우 Φ는 Roll 각도, Y축을 기준으로 회전하는 경우 θ는 Pitch 각도 및 Z축으로 회전하는 경우 Ψ는 Yaw 각도를 나타낸다.4A, the coordinate axes of the
따라서, 본 발명의 일 실시 예에 따른 이미지 센서(410)가 탑재된 드론(400)의 자세정보는 가속도계 센서와 자이로 센서로부터 수집된 데이터 정보를 이용하여 센서 융합을 통해서 Pitch, Yaw, Roll 값을 얻을 수 있다.Accordingly, the attitude information of the
본 발명의 일 실시 예에 따른 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서로 사용될 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다.The accelerometer sensor and the gyro sensor according to an exemplary embodiment of the present invention may be used as a low-cost sensor of a microelectromechanical systems (MEMS) type, and may include an SPI communication interface among synchronous communication methods, but the present invention is not limited thereto .
도 4b를 참조하면, 본 발명의 일 실시 예에 따른 무인 비행체인 드론(400)은 이륙할 수 있고, 이륙한 드론(400)에 포함된 가속도계 센서 및 자이로 센서로부터 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 획득할 수 있다. 도 3에서 상술한 바와 같이 자세정보가 획득된 드론(400)에 포함된 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도), Θ의 각도(Pitch 각도) 및 Ψ의 각도(Yaw 각도)를 산출할 수 있다.Referring to FIG. 4B, the
단, 본 발명의 일 실시 예를 설명하기 위해 도 4b에서는 이미지 센서(410)가 탑재된 드론(400)의 Θ의 각도(Pitch 각도)만을 산출하고, Θ의 각도(Pitch 각도)만을 이용하는 경우를 예를 들어 설명하지만 상술한 예시는 본 발명의 일 실시 예를 설명하기 위한 예시일 뿐 이에 한정되는 것은 아니며 보다 정확한 노출시간을 획득하기 위해 노출각 측정부는 이미지 센서(410)가 탑재된 드론(400)의 자세정보로부터 Φ의 각도(Roll 각도) 및 Ψ의 각도(Yaw 각도) 중 적어도 하나를 산출할 수 있다.4B illustrates a case where only the angle (pitch angle) of the
본 발명의 일 실시 예에 따른 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)는 상공에서 이미지 센서(410)가 탑재된 드론(400)에 적용되는 중력(gravity 또는 weight)과 양력(lift)의 차이에 따라 달라질 수 있다.The angle of rotation with respect to the Y-axis direction according to an embodiment of the present invention may be determined by gravity or weight applied to the
본 발명의 일 실시 예에 따른 기 설정된 기준 방향은 X축, Y축 및 Z축 방향이 모두 수직적인 관계이고 Z축 방향이 지상과 수직적인 관계이면서, 상공에서 드론(400)에 적용되는 중력과 양력이 동일하여 이미지 센서(410)가 탑재된 드론(400)의 Y축 방향에 대한 회전각 θ 각도(Pitch 각도)가 0 도인 방향을 나타낸다. 즉, 회전각 θ 각도(Pitch 각도)가 0 도로 이미지 센서(410)로 입사되는 광의 방향이 기 설정된 기준 방향을 나타낸다. 중력과 양력이 동일한 채로 상공에서 드론(400)이 비행하는 경우 수평비행이라고 나타낸다.The predetermined reference direction according to an embodiment of the present invention is a relationship in which the X-axis, the Y-axis, and the Z-axis direction are all vertical, the Z-axis direction is perpendicular to the ground, and the gravity applied to the drones 400 (Pitch angle) with respect to the Y-axis direction of the
본 발명의 일 실시 예에 따른 드론(400)에 탑재된 이미지 센서(410)가 Θ1의 각도로 해(430)를 바라보는 경우, 이미지 센서(410)로 입사되는 광이 클 수 밖에 없다. 따라서, 이미지 센서(410)가 Θ1의 각도로 하늘에 위치하는 해(430)를 바라보는 경우 이미지 센서(410)가 광에 노출되는 노출시간을 감소시켜야 하며, 이미지 센서(410)가 Θ2의 각도로 지상에 위치하는 탱크(420)를 바라보는 경우 탱크로부터 반사된 광을 이미지 센서(410)가 입사하므로 해(430)를 바라보는 경우와 달리 노출시간을 상승시켜야 한다.When the
도 2 내지 3에서 노출각을 측정하는 방법 및 노출시간 측정부가 노출시간을 영상 처리부에서 산출된 대표값이 기 설정된 데이터 값이 되도록 산출한다고 설명하였으므로 본 실시 예에서는 이에 대한 설명을 생략하도록 한다.The method of measuring the exposure angle and the exposure time measurement unit of FIGS. 2 to 3 have been described so that the representative value calculated by the image processing unit is a preset data value, so that a description thereof will be omitted in the present embodiment.
따라서, 본 발명의 일 실시 예에서는 날씨에 따라서도 이미지 센서(410)로 입사되는 광량이 다르므로 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경될 경우 영상 처리부를 거쳐 적정한 노출시간을 계산하지 않고 미리 확보된 노출각에 따라 적정한 노출시간을 바로 적용할 수 있도록 먼저 드론(400)을 이륙시켜 테스트 과정을 수행할 수 있다. 구체적으로 먼저 드론(400)을 이륙시킨 후 Θ 각도(Pitch 각도)를 변화시켜 Θ 각도(Pitch 각도)에 따른 이미지 센서(410)가 광에 노출되는 적정한 노출시간을 획득하여 메모리에 저장하는 테스트 과정을 수행할 수 있다.Accordingly, in an embodiment of the present invention, the amount of light incident on the
아래의 표 1은 이미지 센서(410)가 광에 노출되는 노출각에 따라 획득된 노출시간을 나타낸 것이다.Table 1 below shows the exposure time obtained according to the exposure angle at which the
상술한 표 1과 같이 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도를 변화시켜 획득된 Pitch 각도에 따른 노출시간을 제어부가 노출시간 획득부를 제어하여 메모리에 미리 저장할 수 있다. 따라서, 후술하는 바와 같이 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 제어부는 미리 메모리에 저장된 Pitch 각도에 따른 노출시간을 이미지 센서(410)에 바로 적용하여 이미지 센서(410)가 외부의 광에 노출되는 시간을 영상 처리부에 의한 연산처리 없이 바로 제어할 수 있다.The control unit may control the exposure time acquisition unit to store the exposure time according to the acquired pitch angle by changing the pitch angle of the
본 발명의 또 다른 일 실시 예에 따르면, 드론(400)에 포함된 제어부는 노출각 측정부가 실시간으로 이미지 센서부의 노출각을 측정할 수 있도록 제어할 수있다.According to another embodiment of the present invention, the controller included in the
본 발명의 일 실시 예에 따른 드론(400)은 가속도계 센서와 자이로 센서는 미세전자기계시스템(Microelectromechanical systems, MEMS) 타입의 저가형 센서를 포함할 수 있으며, 동기식 통신 방법 중 SPI 통신으로 인터페이스를 가져갈 수도 있으나 이에 한정되는 것은 아니다. 따라서, 상술한 자세정보 센서를 사용하는 드론(400)의 자세정보를 실시간으로 획득하여 노출각을 측정할 수 있으며, 노출각에 따른 노출시간을 획득할 수 있다.The
일반적으로 상술한 자이로 센서 또는 가속도계 센서가 이용되는 경우 이미지 센서(410)가 탑재된 드론(400)의 자세 정보가 최소 1Khz이상의 속도로 데이터가 실시간으로 업데이트 될 수 있다. 또한, 일반적으로 사용되는 이미지 센서 중 CMOS센서를 통해서 받는 영상 데이터의 갱신율은 약 30Hz를 나타낼 수 있다. 따라서, 이미지 센서부를 통해 결정된 영상 데이터를 갱신하는 속도보다 자세정보 센서를 통해 획득되는 드론(400)의 자세정보에 대한 업데이트 속도가 훨씬 빠르다. 따라서, 본 발명의 일 실시 예에 따른 드론(400)에 포함된 가속도계 센서 및 자이로 센서를 이용하여 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 영상 데이터 갱신보다 더 빠르게 획득하여 드론(400)에 탑재된 이미지 센서(410)가 어디를 바라보고 있는지 빠르게 인지할 수 있다. In general, when the gyro sensor or accelerometer sensor described above is used, the data of the attitude information of the
따라서, 본 발명의 일 실시 예에 따른 노출시간 획득부는 이미지 센서(410)가 탑재된 드론(400)의 Pitch 각도에 따른 이미지 센서(410)의 노출시간을 실시간으로 획득하고, 제어부는 실시간으로 획득된 Pitch 각도에 따른 노출시간을 메모리에 미리 저장된 Pitch 각도에 따라 획득된 노출시간과 비교하여 메모리 저장된 Pitch 각도에 따라 획득된 노출시간 중 변화된 노출시간을 실시간으로 업데이트 할 수 있다.Accordingly, the exposure time obtaining unit according to an embodiment of the present invention obtains in real time the exposure time of the
또한, 본 발명의 또 다른 일 실시 예에 따르면 드론(400)이 움직이면서 이미지 센서(410)가 탑재되 드론(400)의 자세정보가 갑작스럽게 변경되는 경우, 제어부는 노출각 측정부가 상술한 자세정보가 변경된 이미지 센서(410)가 탑재된 드론(400)의 자세정보를 기초로 현재 노출각을 측정하도록 제어할 수 있다. 제어부는 메모리에 저장된 노출각 중 이미지 센서(410)가 탑재된 드론(400)의 자세정보가 변경되면서 측정된 노출각에 대응되는 노출각을 결정할 수 있다. 또한, 제어부는 메모리에 저장된 노출각에 따른 노출시간 중 상술한 방법에 의해 결정된 노출각에 대응되는 노출시간을 로드할 수 있고, 메모리로부터 로드 된 노출시간 동안 이미지 센서부(410)가 광에 노출되도록 제어할 수 있다.In addition, according to another embodiment of the present invention, when the
구체적으로 본 발명의 또 다른 일 실시 예에 따르면 이미지 센서(410)가 탑재된 드론(400)은 공중에서 특정한 위치에 정지하여 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있고, 또한 특정한 위치에 정지한 드론(400)이 급작스럽게 이동하면서 상술한 방법에 의해 노출각에 따른 이미지 센서(410)의 노출시간을 획득할 수 있다. 구체적으로, 드론(400)이 급작스럽게 이동하는 경우 드론(400)에 포함된 노출각 측정부는 시간당 변화하는 드론(400)의 pitch 각도 변화를 측정할 수 있다. 예를 들어 설명하면, 드론(400)에 탑재된 이미지 센서(410)가 30도의 Θ 각도(Pitch 각도)로 외부로부터 입사되는 광을 바라보고 있다가, 드론(400)이 10deg/sec로 2초 동안 움직이는 경우 최종적으로 드론(400)에 탑재된 이미지 센서(410)가 외부로부터 입사되는 광을 바라보는 노출각인 Θ 각도(Pitch 각도)가 원래 30도에서 50도로 변경될 수 있고, 제어부는 메모리에 저장된 노출각이 50도인 경우 노출시간을 바로 로드하여, 로드 된 노출시간 동안 이미지 센서(410)가 광에 노출되도록 제어할 수 있다.Specifically, according to another embodiment of the present invention, the
따라서, 종래의 제어부가 이미지 센서(410)가 탑재된 드론(400)의 자세가 급작스럽게 변경되는 경우 이미지 센서(410)가 다시 광에 노출되면서 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하고, 대표값이 기 설정된 데이터 값이 되도록 노출시간을 획득하여, 획득된 노출시간 동안 이미지 센서(410)를 외부의 광에 노출시키는 것이 아닌 기존 메모리에 저장된 노출각에 따른 노출시간을 바로 적용하므로 영상 데이터의 밝기를 효과적으로 조절할 수 있다. 따라서, 종래에 영상 처리부를 이용하여 영상 처리를 하는 경우 많은 시간이 소요되었던 문제점을 해결하여 본 발명의 일 실시 예에 따르면 실시간으로 영상이 선명하게 보이도록 조절할 수 있다.Therefore, when the conventional controller changes the posture of the
이상에서 설명한 본 발명의 실시 예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록 매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. 컴퓨터 프로그램의 기록 매체로서는 자기기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
200: 노출시간 확보 장치
210: 이미지 센서부
220: 영상 처리부
230: 노출각 측정부
240: 노출시간 획득부
250: 메모리
260: 제어부200: Exposure time securing device
210: image sensor unit
220:
230: Exposure angle measuring unit
240: exposure time obtaining unit
250: Memory
260:
Claims (12)
상기 이미지 센서를 이용하여 영상 데이터를 획득하는 이미지 센서부;
상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들로부터 대표값을 산출하는 영상 처리부;
자세정보 센서를 이용하여 센싱된 상기 노출시간 확보 장치의 자세정보를 기초로 기 설정된 기준 방향 및 상기 이미지 센서부로 입사되는 광의 방향 간의 각도인 노출각을 측정하는 노출각 측정부; 및
상기 산출된 대표값이 기 설정된 데이터 값이 되도록 상기 이미지 센서부가 상기 광에 노출되는 시간인 노출시간을 상기 측정된 노출각에 따라 획득하는 노출시간 획득부;를 포함하는 노출시간 확보 장치.An apparatus for securing an exposure time of an image sensor,
An image sensor unit for acquiring image data using the image sensor;
An image processor for calculating a representative value from the pixels included in the image data obtained from the image sensor;
An exposure angle measuring unit for measuring an exposure angle, which is an angle between a predetermined reference direction and a direction of light incident to the image sensor unit, based on attitude information of the exposure time securing apparatus sensed using the attitude information sensor; And
And an exposure time acquiring unit for acquiring an exposure time, which is a time when the image sensor unit is exposed to the light so that the calculated representative value becomes a predetermined data value, according to the measured exposure angle.
상기 노출각에 따라 획득된 노출시간을 저장하는 메모리;를 더 포함하는 노출시간 확보 장치.The method according to claim 1,
And a memory for storing the exposure time acquired according to the exposure angle.
상기 노출각 측정부가 실시간으로 상기 노출각을 측정하도록 제어하고, 상기 노출시간 획득부가 상기 실시간으로 측정된 노출각에 따라 노출시간을 획득하도록 제어하여, 상기 메모리에 저장된 노출각에 따라 획득된 노출시간과 상기 실시간으로 측정된 노출각에 따라 획득된 노출시간을 비교하여 상기 메모리에 저장된 노출시간을 업데이트하는 제어부;를 더 포함하는 노출시간 확보 장치.3. The method of claim 2,
Wherein the control unit controls the exposure angle measuring unit to measure the exposure angle in real time and controls the exposure time acquiring unit to acquire an exposure time according to the exposure angle measured in real time so that the exposure time acquired according to the exposure angle stored in the memory And a controller for comparing the obtained exposure time with the exposure time measured in real time to update the exposure time stored in the memory.
상기 노출시간 확보 장치의 움직임에 따라 자세정보가 변경되는 경우,
상기 노출각 측정부가 상기 자세정보가 변경된 노출시간 확보 장치의 자세정보를 기초로 현재 노출각을 측정하도록 제어하고, 상기 메모리에 저장된 노출각 중 상기 현재 측정된 노출각에 대응되는 노출각을 결정하여 상기 결정된 노출각에 따른 노출시간을 상기 메모리에서 로드하고, 상기 로드 된 노출시간 동안 상기 이미지 센서부를 상기 광에 노출하도록 제어하는 제어부;를 더 포함하는, 노출시간 확보 장치.3. The method of claim 2,
When the posture information is changed according to the movement of the exposure time securing device,
The exposure angle measuring unit controls to measure the current exposure angle based on the posture information of the exposure time securing apparatus in which the posture information is changed and determines an exposure angle corresponding to the currently measured exposure angle among the exposure angles stored in the memory And a control unit for loading an exposure time corresponding to the determined exposure angle into the memory and controlling exposure of the image sensor unit to the light during the loaded exposure time.
상기 대표값은 상기 이미지 센서부로부터 획득된 영상 데이터에 포함된 픽셀들 중 상기 광이 입사됨에 따라 동작하는 픽셀들에 해당하는 픽셀값들의 평균값인 것을 특징으로 하는 노출시간 확보 장치.The method according to claim 1,
Wherein the representative value is an average value of pixel values of pixels included in the image data acquired from the image sensor unit and operating according to the incident light.
상기 기 설정된 데이터 값은 상기 영상 데이터에 포함된 픽셀이 색상을 표현할 수 있는 개수 중 중간에 해당하는 개수를 나타내는 중간값인 것을 특징으로 하는 노출시간 확보 장치.The method according to claim 1,
Wherein the predetermined data value is an intermediate value indicating a number of the pixels included in the image data in the middle of the number of colors.
상기 노출각 측정부는,
적어도 두 개의 자세정보 센서를 통해 상기 노출시간 확보 장치의 자세에 대한 측정 데이터를 수집하는 복수 개의 자세정보 센서부;
상기 수집된 측정 데이터를 융합 및 가공하여 상기 노출시간 확보 장치의 자세에 대한 상태변수를 구하는 자세정보 센서 융합부;
상기 상태변수에 대해 비선형 역학계의 상태를 추정하는 필터를 적용하여 상기 노출시간 확보 장치의 자세에 대한 상태정보를 추정하는 필터부; 및
상기 추정된 상태정보에 기반하여 상기 노출시간 확보 장치의 움직임에 따른 자세정보를 실시간으로 산출하는 자세정보 산출부;를 포함하는 노출시간 확보 장치.The method according to claim 1,
Wherein the exposure-
A plurality of posture information sensor units for collecting measurement data on posture of the exposure time securing apparatus through at least two posture information sensors;
An attitude information sensor fusion unit for acquiring state variables for the attitude of the exposure time securing device by fusing and processing the collected measurement data;
A filter unit for estimating state information on the attitude of the exposure time securing apparatus by applying a filter for estimating the state of the nonlinear dynamic system to the state variable; And
And an attitude information calculation unit for calculating attitude information according to a motion of the exposure time securing apparatus in real time based on the estimated state information.
상기 복수 개의 자세정보 센서부는,
3축 가속도계 센서 1개로부터 상기 노출시간 확보 장치의 X축, Y축 및 Z축의 가속도값(X, Y, Z)을 수집하는 제1 자세정보 센서부; 및
2축 자이로 센서 2개로부터 상기 노출시간 확보 장치의 각속도 값(p, q, r)을 수집하는 제2 자세정보 센서부;를 포함하는 노출시간 확보 장치.8. The method of claim 7,
Wherein the plurality of posture information sensor units comprise:
A first posture information sensor unit for collecting acceleration values (X, Y, Z) of the X-axis, Y-axis and Z-axis of the exposure time securing device from one of the three-axis accelerometer sensors; And
And a second attitude information sensor unit for collecting angular velocity values (p, q, r) of the exposure time securing device from two biaxial gyro sensors.
상기 자세정보 센서 융합부는,
상기 노출시간 확보 장치의 각속도와 오일러 각 간의 관계식을 이용하여 상기 노출시간 확보 장치의 오일러 각의 변화율을 구한 뒤, 상기 오일러 각의 변화율에 대한 적분을 통해 오일러 각을 구하고, 상기 센서 융합에 기반하여 상기 오일러 각을 X축 방향에 대한 회전각 파이(Φ), Y축 방향에 대한 회전각 세타(θ) 및 Z축 방향에 대한 회전각 프사이(Ψ)로 구성되는 상기 상태변수로서 구하는 것을 특징으로 하는 노출시간 확보 장치.9. The method of claim 8,
Wherein the posture information sensor fusion unit comprises:
Wherein the Euler angles of the Euler angles are obtained by integrating the change rates of the Euler angles using the relational expression between the angular velocity of the exposure time securing device and the Euler angles, The above Euler angles are obtained as the above-mentioned state variables composed of the rotation angle pie (?) With respect to the X-axis direction, the rotation angle theta (?) With respect to the Y-axis direction and the rotation angle? Wherein the exposure time securing device comprises:
상기 기 설정된 기준 방향은 상기 X축, 상기 Y축 및 상기 Z축 방향이 모두 수직적인 관계이고 상기 Z축 방향이 지상과 수직적인 관계이면서, 상기 노출시간 확보 장치의 Y축 방향에 대한 회전각 세타(θ) 각도(Pitch 각도)가 0도인 방향이고,
상기 노출각은 상기 회전각 세타(θ)인 것을 특징으로 하는 노출시간 확보 장치.10. The method of claim 9,
Wherein the predetermined reference direction is a relationship in which the X-axis, the Y-axis, and the Z-axis are all vertical, the Z-axis is perpendicular to the ground, and the rotation- ([theta]) angle (pitch angle) is 0 degree,
Wherein the exposure angle is the rotation angle theta (&thetas;).
상기 필터부는,
상기 상태변수에 확장 칼만 필터를 적용하여, 상기 노출시간 확보 장치의 상태정보에 대한 예측 추정값과 예측 오차 공분산을 측정하고, 칼만 이득을 계산하며, 상기 칼만 이득과 상기 예측 추정값을 이용하여 상기 노출시간 확보 장치의 상태정보를 추정하고, 상기 칼만 이득과 상기 예측 오차 공분산을 이용하여 오차 공분산을 획득하는 것을 특징으로 하는 노출시간 확보 장치.9. The method of claim 8,
The filter unit includes:
Applying an extended Kalman filter to the state variable to measure a predicted value and a predicted error covariance for the state information of the exposure time securing apparatus and to calculate a Kalman gain and to calculate the exposure time using the Kalman gain and the predicted value Estimating the state information of the ensuring device, and obtaining the error covariance using the Kalman gain and the prediction error covariance.
상기 필터부는,
상기 복수 개의 자세정보 센서부에서 수집된 측정 데이터 중 상기 3축 가속도계 센서로부터 획득한 파이(Φ) 및 세타(θ)를 업데이트하고, 상기 업데이트 된파이(Φ) 및 세타(θ)에 따라 상기 노출시간 확보 장치의 상태변수를 구하고, 상기 확장 칼만 필터를 적용하여 상기 노출시간 확보 장치의 상태정보를 추정하는 과정을 반복하는 것을 특징으로 하는 노출시간 확보 장치.12. The method of claim 11,
The filter unit includes:
(?) And theta (?) Obtained from the three-axis accelerometer sensor among the measurement data collected by the plurality of attitude information sensor units and updating the pie (?) And theta And estimating state information of the exposure time securing apparatus by applying a state variable of the time securing apparatus and applying the extended Kalman filter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180058428A KR101907657B1 (en) | 2018-05-23 | 2018-05-23 | Apparatus securing exposure time of image sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180058428A KR101907657B1 (en) | 2018-05-23 | 2018-05-23 | Apparatus securing exposure time of image sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101907657B1 true KR101907657B1 (en) | 2018-10-12 |
Family
ID=63876349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180058428A KR101907657B1 (en) | 2018-05-23 | 2018-05-23 | Apparatus securing exposure time of image sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101907657B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004080359A (en) | 2002-08-16 | 2004-03-11 | Fuji Photo Film Co Ltd | Digital camera and photographing system |
JP2010219810A (en) | 2009-03-16 | 2010-09-30 | Ricoh Co Ltd | Imaging device, imaging method, program and recording medium |
JP2013160895A (en) | 2012-02-03 | 2013-08-19 | Denso Corp | Camera exposure setting device |
-
2018
- 2018-05-23 KR KR1020180058428A patent/KR101907657B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004080359A (en) | 2002-08-16 | 2004-03-11 | Fuji Photo Film Co Ltd | Digital camera and photographing system |
JP2010219810A (en) | 2009-03-16 | 2010-09-30 | Ricoh Co Ltd | Imaging device, imaging method, program and recording medium |
JP2013160895A (en) | 2012-02-03 | 2013-08-19 | Denso Corp | Camera exposure setting device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11649052B2 (en) | System and method for providing autonomous photography and videography | |
US11205283B2 (en) | Camera auto-calibration with gyroscope | |
US10447912B2 (en) | Systems, methods, and devices for setting camera parameters | |
CN108605098B (en) | System and method for rolling shutter correction | |
WO2017185378A1 (en) | Systems and methods for uav transport and data acquisition | |
US11288824B2 (en) | Processing images to obtain environmental information | |
WO2016106715A1 (en) | Selective processing of sensor data | |
WO2019152149A1 (en) | Actively complementing exposure settings for autonomous navigation | |
EP3360023A1 (en) | Salient feature based vehicle positioning | |
Delaune et al. | Thermal-inertial odometry for autonomous flight throughout the night | |
CN108645401A (en) | All-day star sensor star point extraction method based on attitude correlation image superposition | |
WO2018053785A1 (en) | Image processing in an unmanned autonomous vehicle | |
KR101908021B1 (en) | Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium | |
CN112198903A (en) | Modular multifunctional onboard computer system | |
WO2019019172A1 (en) | Adaptive Image Processing in a Robotic Vehicle | |
CN113465596B (en) | Four-rotor unmanned aerial vehicle positioning method based on multi-sensor fusion | |
KR101907657B1 (en) | Apparatus securing exposure time of image sensor | |
JP2018009918A (en) | Self-position detection device, moving body device, and self-position detection method | |
CN112154480B (en) | Positioning method and device for movable platform, movable platform and storage medium | |
CN113218394A (en) | Indoor visual positioning method and system for flapping wing aircraft | |
CN112556691B (en) | Method for unmanned aerial vehicle autonomous navigation and temperature measurement system | |
CN110825033A (en) | Servo control system | |
Ma et al. | KCF based 3D Object Tracking via RGB-D Camera of a Quadrotor | |
WO2021217372A1 (en) | Control method and device for movable platform | |
Gupta et al. | Digital Image Processing based Cognitive System for Human Detection using Six Rotor Unmanned Airborne Cubot ‘The EAGLE’under the Framework of Mechatronics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |