KR20180082793A - Apparatus and method controlling camera for vehicle - Google Patents

Apparatus and method controlling camera for vehicle Download PDF

Info

Publication number
KR20180082793A
KR20180082793A KR1020170004130A KR20170004130A KR20180082793A KR 20180082793 A KR20180082793 A KR 20180082793A KR 1020170004130 A KR1020170004130 A KR 1020170004130A KR 20170004130 A KR20170004130 A KR 20170004130A KR 20180082793 A KR20180082793 A KR 20180082793A
Authority
KR
South Korea
Prior art keywords
movement distance
feature point
camera
distance
vehicle
Prior art date
Application number
KR1020170004130A
Other languages
Korean (ko)
Other versions
KR101907086B1 (en
Inventor
강용규
이준희
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020170004130A priority Critical patent/KR101907086B1/en
Publication of KR20180082793A publication Critical patent/KR20180082793A/en
Application granted granted Critical
Publication of KR101907086B1 publication Critical patent/KR101907086B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23216
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • H04N5/2251
    • H04N5/2257
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • B60W2550/14
    • B60W2550/22
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Abstract

The present invention relates to an apparatus and a method for controlling a camera for a vehicle, which automatically control the center point of a camera to improve accuracy of lane recognition and calculation of a distance from a front vehicle. According to an embodiment of the present invention, the apparatus for controlling a camera for a vehicle comprises an image generation unit to generate a front image of a user vehicle; a feature point extraction unit to extract road information displayed on a traffic sign or a road surface from the front image as a feature point; a feature point tracking unit to track a feature point in continuous frames of the front image; a first moving distance calculation unit to calculate a first moving distance of the feature point changed in the continuous frames of the front image; a second moving distance calculation unit to sense a wheel speed of the user vehicle and calculate a second moving distance by which the user vehicle has moved; and a camera control unit to compare the first moving distance and the second moving distance to control a center point parameter of a camera.

Description

차량용 카메라 조절 장치 및 방법{Apparatus and method controlling camera for vehicle}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 차량용 카메라 조절 장치 및 방법에 관한 것으로, 보다 자세하게는 카메라의 센터 포인트를 자동으로 조절하여 차선 인식 및 전방 차량과의 거리 산출의 정확도를 향상시킬 수 있는 차량용 카메라 조절 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an apparatus and method for controlling a camera for a vehicle, and more particularly, to an apparatus and method for controlling a camera for a vehicle that can automatically recognize a center point of a camera, .

최근에 차량에는 주행 시 운전자가 주행 차로의 전방, 후방, 측면의 도로 상황을 실시간으로 파악할 수 있도록 하기 위해 복수의 카메라가 배치된다. 운전자는 카메라로 촬영한 영상을 통해 전방차량, 차선, 표지판 등을 인식할 수 있고, 이에 따라 전방차량과의 안전거리를 유지 또는 후방에서 주행해오는 차량의 주행 방향 및 속도를 인식하여 차선을 변경할 수 있다.Recently, a plurality of cameras are disposed in a vehicle to allow the driver to grasp the road conditions of the front, rear, and side of the driving lane in real time during driving. The driver can recognize the vehicle ahead, the lane, the sign, and so on through the image captured by the camera. Thus, the lane can be changed by keeping the safety distance from the preceding vehicle or recognizing the driving direction and speed of the vehicle running in the rear direction have.

그러나, 카메라의 설치 시에 기울어진 상태로 설치되거나 외부의 충격 또는 압력으로 인해 카메라가 기울어지게 되면, 카메라가 기울어진 상태로 촬영을 하게 된다. 따라서, 카메라가 기울어진 초점으로 촬영한 차량의 전방, 후방 및 측면의 영상을 표시하고, 왜곡된 영상 데이터에 기초하여 차선 인식을 수행함으로 차선인식의 오류가 발생하는 문제점이 있다. 또한, 전방차량과의 거리 인식에 오류가 발생하는 문제점이 있다.However, when the camera is installed in an inclined state at the time of installing the camera, or when the camera is inclined due to an external shock or pressure, the camera is tilted. Therefore, there is a problem that the camera displays the images of the front, rear, and side of the vehicle photographed with an inclined focal point, and carries out lane recognition based on the distorted image data, thereby causing an error in lane recognition. In addition, there is a problem that an error occurs in the recognition of the distance to the front vehicle.

본 발명은 앞에서 설명한 문제점을 해결하기 위한 것으로, 카메라의 센터 포인트를 조절하는 차량용 카메라 조절 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and method for controlling a camera for a vehicle that adjusts a center point of the camera.

본 발명은 앞에서 설명한 문제점을 해결하기 위한 것으로, 차선 인식의 정확도를 향상시킬 수 있는 차량용 카메라 조절 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a vehicle camera control apparatus and method capable of improving the accuracy of lane recognition.

본 발명은 앞에서 설명한 문제점을 해결하기 위한 것으로, 자차량과 전방차량 간의 거리 인식의 정확도를 향상시킬 수 있는 차량용 카메라 조절 장치 및 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and method for adjusting a camera for a vehicle that can improve the accuracy of distance recognition between a vehicle and a vehicle ahead.

위에서 언급된 본 발명의 기술적 과제 외에도, 본 발명의 다른 특징 및 이점들이 이하에서 기술되거나, 그러한 기술 및 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Other features and advantages of the invention will be set forth in the description which follows, or may be obvious to those skilled in the art from the description and the claims.

앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 차량용 카메라 조절 장치는, 자차량의 전방영상을 생성하는 영상 생성부와, 전방영상에서 표지판 또는 도로 바닥에 표시된 도로 정보를 특징점으로 추출하는 특징점 추출부와, 전방영상의 연속된 프레임에서 상기 특징점을 추적하는 특징점 추적부와, 전방영상의 연속되는 프레임에서 특징점의 변화된 제1 이동거리를 산출하는 제1 이동거리 산출부와, 자차량의 휠 속도를 감지하여 자차량이 이동한 제2 이동거리를 산출하는 제2 이동거리 산출부와, 제1 이동거리 및 제2 이동거리를 비교하여 카메라의 센터 포인트 파라미터를 조절하는 카메라 조절부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for adjusting a camera for a vehicle, the apparatus comprising: an image generation unit for generating a forward image of the vehicle; a feature point extracting unit for extracting, from the forward image, A feature point tracking unit for tracking the feature points in successive frames of the forward image, a first movement distance calculating unit for calculating a first movement distance of the feature points changed in successive frames of the forward image, A second movement distance calculation unit for calculating a second movement distance of the subject vehicle by detecting the velocity and a camera control unit for adjusting the center point parameter of the camera by comparing the first movement distance and the second movement distance.

여기서, 제1 이동거리 산출부는, 전방영상의 제1 프레임의 중앙에서 특징점까지의 제1 수직거리를 산출하고, 제2 프레임의 중앙에서 변화된 특징점까지의 제2 수직거리를 산출하여 제1 수직거리 및 제2 수직거리의 차이에 기초한 제1 이동거리를 산출한다.Here, the first movement distance calculation unit calculates a first vertical distance from the center of the first frame of the forward image to the feature points, calculates a second vertical distance from the center of the second frame to the changed feature points, And a first vertical distance based on the difference of the first vertical distance and the second vertical distance.

또한, 카메라 조절부는, 제1 이동거리 및 제2 이동거리를 비교한 결과가 상이한 경우 제2 이동거리에 기초하여 카메라의 센터 포인트를 조절한다.In addition, the camera control unit adjusts the center point of the camera based on the second movement distance when the comparison result of the first movement distance and the second movement distance is different.

한편, 앞에서 설명한 목적을 달성하기 위한 본 발명의 실시 예에 따른 차량용 카메라 조절 방법은, 자차량의 전방영상에서 표지판 또는 도로 바닥에 표시된 도로 정보를 특징점으로 추출하여 자차량이 이동한 제1 이동거리를 산출하는 단계와, 자차량의 휠 속도에 기초하여 제2 이동거리를 산출하는 단계와, 제1 이동거리와 제2 이동거리를 비교한 결과에 기초하여 카메라의 센터 파라미터를 조절하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of adjusting a camera for a vehicle, the method comprising: extracting road information displayed on a signboard or a road bottom in a forward image of the vehicle, Calculating a second movement distance based on the wheel speed of the subject vehicle, and adjusting a center parameter of the camera based on a result of comparing the first movement distance and the second movement distance do.

여기서, 제1 이동거리를 산출하는 단계에 있어서, 전방영상의 제1 프레임에서 특징점을 추출하고, 제1 프레임의 중앙에서 특징점까지의 수직거리를 산출하고, 제1 프레임과 연속되는 전방영상의 제2 프레임의 중앙에서 변화된 특징점까지의 제2 수직거리를 산출하여 제1 수직거리 및 상기 제2 수직거리의 차이에 기초한 제1 이동거리를 산출한다.Here, in the step of calculating the first movement distance, the feature point is extracted from the first frame of the forward image, the vertical distance from the center of the first frame to the feature point is calculated, A second vertical distance from the center of the two frames to the changed minutiae is calculated to calculate a first moving distance based on the difference between the first vertical distance and the second vertical distance.

또한, 카메라 파라미터를 조절하는 단계에 있어서, 제1 이동거리 및 제2 이동거리가 상이하면 제2 이동거리에 기초하여 카메라의 센터 포인트 파라미터를 조절한다.Further, in the step of adjusting the camera parameters, the center point parameter of the camera is adjusted based on the second movement distance when the first movement distance and the second movement distance are different.

본 발명의 실시 예에 따른 차량용 카메라 조절 장치 및 방법은 전방영상 및 휠 속도 센서를 이용하여 산출한 자차량의 이동거리를 비교함으로써, 카메라 파라미터를 정밀하게 조절할 수 있다.The apparatus and method for controlling a camera according to an embodiment of the present invention can precisely control camera parameters by comparing movement distances of a vehicle calculated using a front image and a wheel speed sensor.

또한, 카메라 파라미터를 조절하여 전방차량 및 차선 인식의 정확도를 향상시킬 수 있다.In addition, the camera parameters can be adjusted to improve the accuracy of front vehicle and lane recognition.

이 밖에도, 본 발명의 실시 예들을 통해 본 발명의 또 다른 특징 및 이점들이 새롭게 파악될 수도 있을 것이다.In addition, other features and advantages of the present invention may be newly understood through embodiments of the present invention.

도 1은 본 발명의 실시 예에 따른 차량용 카메라 조절 장치의 구성을 나타내는 도면이다.
도 2는 특징점의 추출을 나타내는 도면이다.
도 3은 수직거리의 산출을 나타내는 도면이다.
도 4는 제1 이동거리의 산출을 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따른 차량용 카메라 조절 방법을 나타내는 흐름도이다.
1 is a view showing a configuration of a camera control device for a vehicle according to an embodiment of the present invention.
Fig. 2 is a diagram showing extraction of minutiae points. Fig.
Fig. 3 is a diagram showing the calculation of the vertical distance. Fig.
4 is a diagram showing the calculation of the first movement distance.
5 is a flowchart illustrating a camera camera adjustment method according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being "on" another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being "directly above" another section, no other section is involved.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. The singular forms as used herein include plural forms as long as the phrases do not expressly express the opposite meaning thereto. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as "below "," above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain portions that are described as being "below" other portions are described as being "above " other portions. Thus, an exemplary term "below" includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 1은 본 발명의 실시 예에 따른 차량용 카메라 조절 장치의 구성을 나타내는 도면이다.1 is a view showing a configuration of a camera control device for a vehicle according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 차량용 카메라 조절 장치(100)는 영상 생성부(110), 특징점 추출부(120), 특징점 추적부(130), 제1 이동거리 산출부(140), 제2 이동거리 산출부(150) 및 카메라 조절부(160)를 포함한다.Referring to FIG. 1, a vehicle camera control apparatus 100 according to an embodiment of the present invention includes an image generation unit 110, a feature point extraction unit 120, a feature point tracking unit 130, a first movement distance calculation unit 140 A second moving distance calculating unit 150, and a camera adjusting unit 160.

영상 생성부(110)는 자차량의 전방영상을 생성한다. 구체적으로, 영상 생성부(110)는 자차량에 배치되는 적어도 하나의 카메라를 포함할 수 있으며, 자차량의 전방을 촬영하여 자차량의 전방영상을 생성할 수 있다. 또한, 영상 생성부(110)는 자차량의 전방뿐만 아니라 하나 이상의 방향에 대한 자차량의 주변을 촬영하여 자차량의 주변영상을 생성할 수 있다. 영상 생성부(110)는 전방영상 및 주변영상을 특징점 추출부(120)에 제공한다.The image generation unit 110 generates a forward image of the subject vehicle. Specifically, the image generating unit 110 may include at least one camera disposed in the subject vehicle, and may capture a forward image of the subject vehicle to generate a forward image of the subject vehicle. Also, the image generating unit 110 may generate a peripheral image of the subject vehicle by photographing the periphery of the subject vehicle with respect to at least one direction as well as the front of the subject vehicle. The image generation unit 110 provides the feature point extraction unit 120 with the forward image and the surrounding image.

특징점 추출부(120)는 전방영상에서 특징점(10)을 추출한다. 구체적으로, 특징점 추출부(120)는 도로 바닥에 표시된 주행 방향 표시 및 속도제한 표시, 표지판 등을 특징점(10)으로 추출한다. 여기서, 특징점 추출부(120)는 전방영상의 복수의 프레임에서 동일한 특징점(10)을 추출할 수 있다. 예로서, 전방영상의 제1 프레임에서 주행방향을 나타내는 표지판의 화살표를 특징점(10)으로 추출하면, 전방영상의 제2 프레임, 제3 프레임…제n 프레임에서 동일한 표지판의 화살표를 특징점(10)으로 추출할 수 있다. 특징점 추출부(120)는 추출한 특징점에 대한 특징점 데이터를 생성하고, 상기 특징점 데이터를 특징점 추적부(130)에 제공한다.The feature point extraction unit 120 extracts the feature point 10 from the forward image. Specifically, the minutiae point extracting unit 120 extracts a traveling direction display, a speed limit display, a sign, and the like displayed on the bottom of the road by the minutiae point 10. Here, the feature point extracting unit 120 may extract the same feature point 10 in a plurality of frames of the forward image. For example, if the arrow of the sign indicating the running direction in the first frame of the forward image is extracted as the feature point 10, the second frame, the third frame, In the n-th frame, arrows of the same sign can be extracted as feature points 10. The feature point extraction unit 120 generates the feature point data for the extracted feature points and provides the feature point data to the feature point tracking unit 130.

특징점 추적부(130)는 특징점 추출부(120)에서 수신된 특징점 데이터에 기초하여 전방영상의 연속되는 프레임에서 특징점(10)을 추적한다. 구체적으로, 특징점 추적부(130)는 연속되는 프레임에서 특징점(10)의 변화를 추적한다.The feature point tracking unit 130 tracks the feature point 10 in successive frames of the forward image based on the feature point data received from the feature point extracting unit 120. [ Specifically, the feature point tracking unit 130 tracks the change of the feature point 10 in successive frames.

예로서, 특징점 추출부(120)는 표지판에 표시된 화살표를 특징점(10)으로 추출하고, 특징점 추적부(130)는 추출한 특징점(10)을 추적한다. 이때, 자차량의 주행에 따라 촬영된 전방영상에서 표지판의 크기는 점점 커지고, 표지판에 표시된 화살표의 크기도 커질 수 있다. 이에 따라, 특징점(10)의 위치가 전방영상의 하측으로 변화될 수 있다. 따라서, 동일한 특징점(10)을 추출하더라도 특징점(10)의 위치가 달라질 수 있고, 특징점 추적부(130)는 변화되는 특징점(10)의 위치를 연속되는 프레임에서 추적할 수 있다. 특징점 추적부(130)는 복수의 프레임에서 각각의 특징점(10)의 위치를 제1 이동거리 산출부(140)로 제공한다.For example, the minutiae point extracting unit 120 extracts the arrows displayed on the markers with the minutiae points 10, and the minutiae pointing unit 130 tracks the extracted minutiae 10. At this time, the size of the sign increases and the size of the arrow displayed on the sign increases in the forward image photographed according to the running of the subject vehicle. Accordingly, the position of the feature point 10 can be changed to the lower side of the forward image. Accordingly, even if the same feature point 10 is extracted, the position of the feature point 10 can be changed, and the feature point tracking unit 130 can track the position of the changed feature point 10 in successive frames. The feature point tracking unit 130 provides the first movement distance calculating unit 140 with the position of each feature point 10 in a plurality of frames.

도 2는 특징점의 추출을 나타내는 도면이다.Fig. 2 is a diagram showing extraction of minutiae points. Fig.

도 2를 참조하면, 특징점 추출부(120)는 전방영상에서 표지판을 특징점(10)으로 추출한다. 여기서, 특징점 추출부(120)는 전방영상의 제1 프레임에서 표지판의 주행방향을 나타내는 화살표를 특징점(10)으로 추출하면, 전방영상의 제2 프레임에서 동일한 표지판의 화살표를 특징점(10)으로 추출할 수 있다. 이때, 자차량의 주행에 따라 촬영된 전방영상에서 표지판의 크기는 점점 커지고, 표지판에 표시된 화살표의 크기도 커질 수 있다. 이에 따라, 전방영상에서 특징점(10)의 위치가 변화되고, 특징점 추적부(130)는 변화되는 특징점(10)의 위치를 연속되는 프레임에서 추적할 수 있다.Referring to FIG. 2, the feature point extracting unit 120 extracts a signboard as a feature point 10 in a forward image. Here, when the feature point extracting unit 120 extracts the arrow indicating the direction of travel of the signboard in the first frame of the forward image as the feature point 10, the arrow of the same signboard is extracted as the feature point 10 in the second frame of the forward image can do. At this time, the size of the sign increases and the size of the arrow displayed on the sign increases in the forward image photographed according to the running of the subject vehicle. Accordingly, the position of the feature point 10 is changed in the forward image, and the feature point tracking unit 130 can track the position of the changed feature point 10 in successive frames.

이어서, 제1 이동거리 산출부(140)는 특징점 추적부(130)에서 제공받은 특징점(10)의 위치에 기초하여 전방영상의 연속되는 프레임에서 변화된 특징점(10)의 제1 이동거리를 산출한다.The first moving distance calculating unit 140 calculates a first moving distance of the changed minutiae 10 in successive frames of the forward image based on the positions of the minutiae points 10 provided by the minutiae pointing unit 130 .

구체적으로, 제1 이동거리 산출부(140)는 카메라의 센터 포인트인 전방영상의 중앙과 추출한 특징점(10)과의 수직거리를 산출한다. 여기서, 제1 이동거리 산출부(140)는 연속되는 프레임간의 수직거리의 차이를 산출하여 제1 이동거리를 산출한다.Specifically, the first movement distance calculating unit 140 calculates the vertical distance between the center of the forward image, which is the center point of the camera, and the extracted feature points 10. Here, the first movement distance calculation unit 140 calculates the first movement distance by calculating the difference in vertical distance between consecutive frames.

도 3은 수직거리의 산출을 나타내는 도면이다.Fig. 3 is a diagram showing the calculation of the vertical distance. Fig.

도 3을 참조하면, 제1 이동거리 산출부(130)는 전방영상의 연속되는 프레임에서 특징점(10)의 변화된 이동거리를 산출한다. 제1 이동거리 산출부(130)는 전방영상의 제1 프레임의 중앙을 가로지르는 가상의 제1 선(20a)과 특징점(10)을 가로지르는 가상의 제2 선(20b)을 생성한다. 이때, 제1 선(20a)과 제2 선(20b)은 평행하고, 제1 이동거리 산출부(140)는 제1 선(20a)과 제2 선(20b) 사이의 제1 수직거리(22,

Figure pat00001
)를 산출한다.Referring to FIG. 3, the first movement distance calculation unit 130 calculates the changed movement distance of the feature point 10 in successive frames of the forward image. The first movement distance calculation unit 130 generates a hypothetical first line 20a crossing the center of the first frame of the forward image and a hypothetical second line 20b crossing the feature point 10. [ At this time, the first line 20a and the second line 20b are parallel, and the first movement distance calculating unit 140 calculates the first vertical distance 22 between the first line 20a and the second line 20b ,
Figure pat00001
).

또한, 제1 이동거리 산출부(130)는 전방영상의 제1 프레임과 연속되는 제2 프레임의 중앙을 가로지르는 가상의 제1 선(20a)과 특징점(10)을 가로지르는 가상의 제3 선(20c)을 생성한다. 이때, 제1 선(20a)과 제3 선(20c)은 평행하고, 제1 이동거리 산출부(140)는 제1 선(20a)과 제3 선(20c) 사이의 제2 수직거리(24,

Figure pat00002
)를 산출한다. 그리고, 제1 이동거리 산출부(130)는 제1 수직거리(22,
Figure pat00003
) 및 제2 수직거리(24,
Figure pat00004
)의 차이에 기초하여 제1 이동거리를 산출한다.The first moving distance calculating unit 130 includes an imaginary first line 20a that crosses the center of the second frame that is continuous with the first frame of the forward image and a virtual third line 20b that crosses the characteristic point 10. [ (20c). At this time, the first line 20a and the third line 20c are in parallel, and the first movement distance calculating unit 140 calculates the second vertical distance 24 between the first line 20a and the third line 20c ,
Figure pat00002
). The first movement distance calculating unit 130 calculates the first vertical distance 22,
Figure pat00003
And the second vertical distance 24,
Figure pat00004
To calculate the first movement distance.

도 4는 제1 이동거리의 산출을 나타내는 도면이다.4 is a diagram showing the calculation of the first movement distance.

도 4를 참조하면,

Figure pat00005
,
Figure pat00006
는 특징점의 실제 위치, h는 바닥에서 자차량에 배치된 카메라까지의 높이, f는 카메라의 초점거리이다. 여기서, 카메라의 초점 거리에 따라
Figure pat00007
이 전방영상에 특징점으로 표시(
Figure pat00008
)되고, 카메라 초점으로부터 특징점(
Figure pat00009
)까지의 제1 수직거리(
Figure pat00010
)를 산출할 수 있다. 또한, 카메라의 초점 거리에 따라
Figure pat00011
가 전방영상에 특징점으로 표시(
Figure pat00012
)되고, 카메라의 초점으로부터 특징점(
Figure pat00013
)까지의 제2 수직거리(
Figure pat00014
)를 산출할 수 있다. 이때, 제1 수직거리(
Figure pat00015
)와 제2 수직거리(
Figure pat00016
)의 차이는 제1 이동거리(
Figure pat00017
)가 된다.Referring to Figure 4,
Figure pat00005
,
Figure pat00006
Is the actual position of the feature point, h is the height from the floor to the camera disposed on the vehicle, and f is the focal length of the camera. Here, depending on the focal length of the camera
Figure pat00007
Marked as a feature point on this forward image (
Figure pat00008
), And a feature point (
Figure pat00009
) ≪ / RTI >
Figure pat00010
) Can be calculated. Also, depending on the focal length of the camera
Figure pat00011
Is displayed as a feature point on the forward image (
Figure pat00012
) From the focus of the camera,
Figure pat00013
) To the second vertical distance
Figure pat00014
) Can be calculated. At this time, the first vertical distance (
Figure pat00015
) And the second vertical distance (
Figure pat00016
) Is the first moving distance (
Figure pat00017
).

이어서, 제2 이동거리 산출부(150)는 자차량의 휠 속도를 감지하여 자차량이 이동한 제2 이동거리를 산출한다. 구체적으로, 제2 이동거리 산출부(150)는 휠 속도 센서를 이용하여 자차량의 휠 속도를 감지한다. 또한, 제2 이동거리 산출부(150)는 감지한 휠 속도에 따른 자차량이 이동한 시간을 통해 제2 이동거리를 산출할 수 있다. 제2 이동거리 산출부(150)는 산출한 제2 이동거리를 카메라 조절부(160)에 제공한다.Then, the second movement distance calculation unit 150 detects the wheel speed of the child vehicle and calculates the second movement distance of the child vehicle. Specifically, the second travel distance calculating unit 150 detects the wheel speed of the host vehicle using the wheel speed sensor. In addition, the second movement distance calculating unit 150 can calculate the second movement distance based on the time when the subject vehicle moves according to the sensed wheel speed. The second movement distance calculation unit 150 provides the calculated movement distance to the camera control unit 160.

카메라 조절부(160)는 제1 이동거리 및 제2 이동거리를 비교한 결과가 상이한 경우에 카메라의 센터 포인트 파라미터를 조절한다. 구체적으로, 카메라 조절부(160)는 제1 이동거리 및 제2 이동거리를 비교한 결과, 제1 이동거리와 제2 이동거리가 상이하면, 제1 이동거리와 제2 이동거리가 동일하도록 카메라의 센터 포인트를 조절한다. 이때, 센터 포인트를 이동시킴으로써, 제1 이동거리 및 제2 이동거리가 일정하게 조절되고, 이에 따라 전방차량, 차선, 표지판 등을 더 정확하게 검출할 수 있다.The camera controller 160 adjusts the center point parameter of the camera when the comparison result of the first movement distance and the second movement distance is different. Specifically, when the first moving distance and the second moving distance are different from each other as a result of comparing the first moving distance and the second moving distance, the camera adjusting unit 160 adjusts the first moving distance and the second moving distance To adjust the center point. At this time, by moving the center point, the first movement distance and the second movement distance are adjusted to be constant, and thus the front vehicle, the lane, the sign, etc. can be detected more accurately.

도 5는 본 발명의 실시 예에 따른 차량용 카메라 조절 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a camera camera adjustment method according to an embodiment of the present invention.

도 5를 참조하면, 영상 생성부(110)는 자차량의 전방영상을 생성한다(S510). 영상 생성부(110)는 자차량에 배치된 적어도 하나의 카메라를 통해 자차량의 전방을 실시간으로 촬영하여 자차량의 전방영상을 생성한다. 이때, 자차량의 전방에 한정되지 않고, 자차량의 후방영상 및 측면영상도 생성할 수 있다.Referring to FIG. 5, the image generating unit 110 generates a forward image of the subject vehicle (S510). The image generating unit 110 generates a forward image of the subject vehicle by photographing the front of the subject vehicle in real time through at least one camera disposed in the subject vehicle. At this time, not only the front of the vehicle, but also the rear and side images of the vehicle can be generated.

이어서, 특징점 추출부(120)는 전방영상에서 특징점을 추출한다(S520). 구체적으로, 특징점 추출부(120)는 전방영상에서 표지판, 바닥에 표시된 주행방향표시, 속도 등을 특징점으로 추출한다. 이때, 특징점 추출부(120)는 전방영상의 하나 이상의 프레임에서 동일한 특징점을 추출할 수 있다.Then, the feature point extracting unit 120 extracts feature points from the forward image (S520). Specifically, the minutiae point extracting unit 120 extracts a signboard, a traveling direction display on the floor, a speed, and the like as minutiae in the forward image. At this time, the feature point extracting unit 120 may extract the same feature points in one or more frames of the forward image.

이어서, 특징점 추적부(130)는 전방영상의 복수의 프레임에서 추출한 특징점을 추적한다(S530). 구체적으로, 특징점 추적부(130)는 전방영상의 하나 이상의 프레임에서 추출한 동일한 특징점을 추적한다. 여기서, 자차량이 주행함에 따라 전방영상에서 특징점의 위치가 변화되고, 특징점 추적부(130)는 변화되는 특징점의 위치를 추적한다.Then, the feature point tracking unit 130 tracks the feature points extracted from the plurality of frames of the forward image (S530). Specifically, the feature point tracking unit 130 tracks the same feature points extracted from one or more frames of the forward image. Here, as the vehicle runs, the position of the feature point changes in the forward image, and the feature point tracking unit 130 tracks the position of the changed feature point.

이어서, 제1 이동거리 산출부(140)는 제1 이동거리를 산출한다(S540). 구체적으로, 제1 이동거리 산출부(140)는 전방영상의 복수의 프레임에서 특징점이 이동한 제1 이동거리를 산출한다. 여기서, 제1 이동거리 산출부(140)는 전방영상의 중앙에서 특징점까지의 수직거리를 산출하고, 연속되는 프레임에서 각 수직거리의 차이를 산출하여 제1 이동거리를 산출한다.Subsequently, the first movement distance calculation unit 140 calculates the first movement distance (S540). Specifically, the first movement distance calculation unit 140 calculates a first movement distance in which the feature points move in a plurality of frames of the forward image. Here, the first movement distance calculating unit 140 calculates the vertical distance from the center of the forward image to the minutiae, and calculates the first movement distance by calculating the difference between the vertical distances in successive frames.

이어서, 제2 이동거리 산출부(150)는 제2 이동거리를 산출한다(S550). 제2 이동거리 산출부(150)는 자차량에 배치된 휠 속도 센서를 이용하여 자차량의 휠 속도를 감지하고, 휠 속도에 기초하여 제2 이동거리를 산출한다. 제2 이동거리 산출부(150)는 자차량의 휠 속도에 따른 주행시간을 통해 제2 이동거리를 산출할 수 있다.Subsequently, the second movement distance calculation unit 150 calculates the second movement distance (S550). The second travel distance calculating unit 150 detects the wheel speed of the host vehicle using the wheel speed sensor disposed in the host vehicle, and calculates the second travel distance based on the wheel speed. The second travel distance calculating unit 150 can calculate the second travel distance based on the travel time according to the wheel speed of the host vehicle.

이어서, 카메라 조절부(160)는 제1 이동거리 및 제2 이동거리를 비교하여 카메라 파라미터를 조절한다(S560). 구체적으로, 카메라 조절부(160)는 제1 이동거리 및 제2 이동거리를 비교한다. 제1 이동거리 및 제2 이동거리를 비교한 결과, 제1 이동거리 및 제2 이동거리가 상이하면, 카메라의 센터 포인트 파라미터를 조절하여 제1 이동거리 및 제2 이동거리가 일정하도록 조절한다.Then, the camera controller 160 compares the first movement distance and the second movement distance to adjust camera parameters (S560). Specifically, the camera control unit 160 compares the first movement distance and the second movement distance. As a result of comparing the first movement distance and the second movement distance, if the first movement distance and the second movement distance are different, the first movement distance and the second movement distance are adjusted to be constant by adjusting the center point parameter of the camera.

전술한 바와 같이 본 발명은 카메라의 센터 포인트를 자동으로 조절하여 차선 인식 및 전방 차량과의 거리 산출의 정확도를 향상시킬 수 있는 차량용 카메라 조절 장치 및 방법을 실현할 수 있다.As described above, the present invention can realize a vehicle camera adjusting apparatus and method that can automatically adjust the center point of a camera to improve lane recognition and distance calculation accuracy with respect to a forward vehicle.

본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .

100: 차량용 카메라 조절 장치
110: 영상 생성부
120: 특징점 추출부
130: 특징점 추적부
140: 제1 이동거리 산출부
150: 제2 이동거리 산출부
160: 카메라 조절부
100: Vehicle camera control device
110:
120: Feature point extraction unit
130: Feature point tracking unit
140: First movement distance calculating section
150: second moving distance calculating unit
160: Camera control unit

Claims (6)

자차량의 전방영상을 생성하는 영상 생성부;
상기 전방영상에서 표지판 또는 도로 바닥에 표시된 도로 정보를 특징점으로 추출하는 특징점 추출부;
상기 전방영상의 연속된 프레임에서 상기 특징점을 추적하는 특징점 추적부;
상기 전방영상의 연속되는 프레임에서 상기 특징점의 변화된 제1 이동거리를 산출하는 제1 이동거리 산출부;
상기 자차량의 휠 속도를 감지하여 상기 자차량이 이동한 제2 이동거리를 산출하는 제2 이동거리 산출부; 및
상기 제1 이동거리 및 상기 제2 이동거리를 비교하여 카메라의 센터 포인트 파라미터를 조절하는 카메라 조절부;를 포함하는 차량용 카메라 조절 장치.
An image generating unit for generating a forward image of the subject vehicle;
A feature point extracting unit for extracting road information displayed on a signboard or a road bottom in the forward image as feature points;
A feature point tracking unit for tracking the feature points in successive frames of the forward image;
A first movement distance calculation unit for calculating a first movement distance of the feature point in a continuous frame of the front image;
A second movement distance calculation unit for calculating a second movement distance of the child vehicle by sensing the wheel speed of the child vehicle; And
And a camera controller for adjusting a center point parameter of the camera by comparing the first movement distance and the second movement distance.
제1 항에 있어서, 상기 제1 이동거리 산출부는,
상기 전방영상의 제1 프레임의 중앙에서 상기 특징점까지의 제1 수직거리를 산출하고, 제2 프레임의 중앙에서 변화된 상기 특징점까지의 제2 수직거리를 산출하여 상기 제1 수직거리 및 상기 제2 수직거리의 차이에 기초한 상기 제1 이동거리를 산출하는 차량용 카메라 조절 장치.
The apparatus according to claim 1, wherein the first movement distance calculating unit
Calculating a first vertical distance from the center of the first frame of the forward image to the feature point and calculating a second vertical distance from the center of the second frame to the feature point changed to determine the first vertical distance and the second vertical And calculates the first movement distance based on the difference in distance.
제2 항에 있어서, 상기 카메라 조절부는,
상기 제1 이동거리 및 상기 제2 이동거리를 비교한 결과가 상이한 경우 상기 제2 이동거리에 기초하여 상기 카메라의 센터 포인트를 조절하는 차량용 카메라 조절 장치.
[3] The apparatus of claim 2,
And adjusts the center point of the camera based on the second movement distance when the comparison result of the first movement distance and the second movement distance is different.
자차량의 전방영상에서 표지판 또는 도로 바닥에 표시된 도로 정보를 특징점으로 추출하여 상기 자차량이 이동한 제1 이동거리를 산출하는 단계;
상기 자차량의 휠 속도에 기초하여 제2 이동거리를 산출하는 단계; 및
상기 제1 이동거리와 상기 제2 이동거리를 비교한 결과에 기초하여 카메라의 센터 파라미터를 조절하는 단계;를 포함하는 차량용 카메라 조절 방법.
Extracting the road information displayed on the signboard or the road bottom from the forward image of the subject vehicle as feature points and calculating a first movement distance of the subject vehicle;
Calculating a second travel distance based on the wheel speed of the subject vehicle; And
And adjusting a center parameter of the camera based on a result of comparing the first movement distance and the second movement distance.
제4 항에 있어서, 상기 제1 이동거리를 산출하는 단계에 있어서,
상기 전방영상의 제1 프레임에서 특징점을 추출하고, 상기 제1 프레임의 중앙에서 상기 특징점까지의 수직거리를 산출하고, 상기 제1 프레임과 연속되는 상기 전방영상의 제2 프레임의 중앙에서 변화된 상기 특징점까지의 제2 수직거리를 산출하여 상기 제1 수직거리 및 상기 제2 수직거리의 차이에 기초한 상기 제1 이동거리를 산출하는 차량용 카메라 조절 방법.
5. The method according to claim 4, wherein in the step of calculating the first movement distance,
The method of claim 1, further comprising: extracting a feature point from a first frame of the forward image, calculating a vertical distance from the center of the first frame to the feature point, Calculating the second vertical distance based on the difference between the first vertical distance and the second vertical distance.
제5 항에 있어서, 상기 카메라 파라미터를 조절하는 단계에 있어서,
상기 제1 이동거리 및 상기 제2 이동거리가 상이하면 상기 제2 이동거리에 기초하여 상기 카메라의 센터 포인트 파라미터를 조절하는 차량용 카메라 조절 방법.
6. The method of claim 5, wherein adjusting the camera parameters comprises:
And adjusting the center point parameter of the camera based on the second movement distance when the first movement distance and the second movement distance are different.
KR1020170004130A 2017-01-11 2017-01-11 Apparatus and method controlling camera for vehicle KR101907086B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170004130A KR101907086B1 (en) 2017-01-11 2017-01-11 Apparatus and method controlling camera for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170004130A KR101907086B1 (en) 2017-01-11 2017-01-11 Apparatus and method controlling camera for vehicle

Publications (2)

Publication Number Publication Date
KR20180082793A true KR20180082793A (en) 2018-07-19
KR101907086B1 KR101907086B1 (en) 2018-10-11

Family

ID=63058338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170004130A KR101907086B1 (en) 2017-01-11 2017-01-11 Apparatus and method controlling camera for vehicle

Country Status (1)

Country Link
KR (1) KR101907086B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035443A (en) * 2018-08-24 2020-03-05 株式会社豊田中央研究所 Sensing device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001155A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc Apparatus and method for detecting posture of on-vehicle camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001155A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc Apparatus and method for detecting posture of on-vehicle camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035443A (en) * 2018-08-24 2020-03-05 株式会社豊田中央研究所 Sensing device

Also Published As

Publication number Publication date
KR101907086B1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
EP3183688B1 (en) Recognition and prediction of lane constraints
US9934690B2 (en) Object recognition apparatus and vehicle travel controller using same
JP4801821B2 (en) Road shape estimation device
JP6453192B2 (en) Image recognition processing apparatus and program
JP3711405B2 (en) Method and system for extracting vehicle road information using a camera
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
KR20210115026A (en) Vehicle intelligent driving control method and device, electronic device and storage medium
JP3977802B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
JP6794243B2 (en) Object detector
KR20080024772A (en) Method and apparatus for recognizing parking slot marking by using bird's eye view and parking assist system using same
JP2009133830A (en) Automatic calculation process of inclined angle of slope, and device which performs this process
KR102456626B1 (en) Apparatus and method for traffic lane recognition in automatic steering control of vehilcles
BR112015001865B1 (en) THREE-DIMENSIONAL OBJECT DETECTION DEVICE
CN103129555A (en) Lane tracking system
CN106546257A (en) Vehicle distance measurement method and device, vehicle relative velocity measuring method and device
EP3282389B1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
WO2017154389A1 (en) Image processing device, imaging device, mobile apparatus control system, image processing method, and program
JP6032034B2 (en) Object detection device
KR20110048798A (en) Steering control leading apparatus using landmark and method thereby
JP3857698B2 (en) Driving environment recognition device
JP5974718B2 (en) Vehicle travel support device and vehicle travel support method
JP4755501B2 (en) Lane detection device and lane departure warning device
KR101907086B1 (en) Apparatus and method controlling camera for vehicle
JP5677281B2 (en) Vehicle detection device
JP3227247B2 (en) Roadway detection device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant