KR101613849B1 - Driving Assist System for the Vehicles - Google Patents

Driving Assist System for the Vehicles Download PDF

Info

Publication number
KR101613849B1
KR101613849B1 KR1020140172993A KR20140172993A KR101613849B1 KR 101613849 B1 KR101613849 B1 KR 101613849B1 KR 1020140172993 A KR1020140172993 A KR 1020140172993A KR 20140172993 A KR20140172993 A KR 20140172993A KR 101613849 B1 KR101613849 B1 KR 101613849B1
Authority
KR
South Korea
Prior art keywords
image
map
camera
information
vehicle
Prior art date
Application number
KR1020140172993A
Other languages
Korean (ko)
Inventor
이원오
이정원
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020140172993A priority Critical patent/KR101613849B1/en
Priority to US14/808,289 priority patent/US9940527B2/en
Priority to CN201510441656.1A priority patent/CN105313782B/en
Application granted granted Critical
Publication of KR101613849B1 publication Critical patent/KR101613849B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Abstract

The present invention relates to a vehicle driving assist system, including: a broadband camera to photograph and input images around a vehicle; a map generation part to generate a Depth Map on the basis of the images inputted from the broadband camera; an image generation part to generate a GNF image on the basis of the images inputted from the broadband camera; and a broadband image generation part to generate a three-dimensional map template by receiving data of the map generation part and the image generation part. The broadband camera inputs an image including information of four channels having different wavelengths, and generates a three-dimensional map, and matches a location of the vehicle to the three-dimensional map. Thus, the broadband camera can recognize a road and an obstacle easily during vehicle driving using a smaller number of cameras. Thus, recognition ability as to a driving possible region is improved highly, and positioning of a vehicle navigation is easy, and bio-recognition ability of a driver monitoring camera is improved and thus driver convenience due to improvement of performance of a driving assist apparatus is improved highly.

Description

자동차 주행보조 시스템 {Driving Assist System for the Vehicles}[0001] The present invention relates to a driving assist system,

본 발명은 자동차의 주행보조 시스템에 관한 것으로써, 차량의 도로 주행 시, 공간을 인지하고, 주행로를 정확하게 인식하는 자동차의 주행보조 시스템에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a driving assistance system for an automobile, and more particularly, to a driving assistance system for a vehicle that recognizes a space when driving the vehicle and recognizes the driving course accurately.

최근에는 차량의 주행을 보조하고, 운전자의 편의성을 위해 주변 상황을 인식하여 그 정보를 제공하는 시스템이 차량이 탑재되고 있는 추세이다. Recently, there is a tendency that a vehicle is mounted on a system that assists the running of the vehicle and recognizes the surrounding situation for the convenience of the driver and provides the information.

공간을 인식하는 차량 주행에 따른 도로를 인식하는 기술은 다양한 방법으로 구현되어 왔다. Techniques for recognizing roads in accordance with vehicle driving have been implemented in various ways.

일반적으로 광 다이오드를 이용한 영상의 수집, 협대역의 영상데이터 수집장치, 경계선을 추출하는 장치 등이 구비되어 차량 주행을 보조해 왔다. Generally, a photodiode is used for image acquisition, a narrow band image data collection device, and a device for extracting a boundary line.

그러나, 이러한 장치들은 처리 가능한 범위가 한정되어 있어 그 활용에 한계가 있었다. 예를 들어 가시광선 이외의 대역 (<400nm, >700nm)은 처리하지 않음으로서 이용 대역폭 한정되었고, 또한, 대역폭 한정에 의한 색공간 협소, 경계추출 및 객채인식을 위한 리소스 한정되는 문제가 있었다. However, these devices have a limited range of processing, and their utilization has been limited. For example, bandwidths other than visible light (< 400 nm, > 700 nm) are not processed and thus bandwidth utilization is limited, and resource limitation for color space narrowing, boundary extraction and object recognition due to bandwidth limitation has been a problem.

또한, 경계추출 및 객채인식을 위한 리소스가 한정 되어, 아무리 우수한 후처리 알고리즘을 적용 하여도 처리 색공간 데이터 한정에 의한 인식성능 한계가 있어, 특히 도로주행 환경에 불리하게 작용한다. 도로주행 환경은 주로 무채색으로 가시광선 영역에 한정되면 공간 인식능력 제한적일 수 밖에 없기 때문이다. In addition, resources for boundary extraction and object recognition are limited, and even when an excellent post-processing algorithm is applied, there is a limit in recognition performance due to limitation of the processed color space data, which particularly adversely affects the road driving environment. This is because the driving environment of the road is mostly achromatic and limited to the visible ray region, and the spatial recognition ability is limited.

도로영상을 분할하는 경우, 아스팔트와 시멘트 부분 분할 정밀도 매우 낮다는 문제점도 있었다. When the road image is divided, there is a problem that the accuracy of asphalt and cement part division is very low.

최근에는 3차원의 공간정보를 취득하는 장치 또한 구비되고 있으나, 종래의 3차원 공간정보 취득장치의 경우 3차원 공간정보 취득 (Deph map)을 위해 레이더 센서, TOF 카메라, 스테레오 카메라, 적외선 카메라, 초음파 센서, 레이저 등 다양한 센서와 카메라를 차량에 장착하여 사용하고 있으나, 너무 과다한 장비의 사용으로 비용이 상승하는 문제가 있었다. However, in the case of a conventional three-dimensional spatial information acquiring device, a radar sensor, a TOF camera, a stereo camera, an infrared camera, an ultrasound Sensors, and lasers mounted on a vehicle. However, there is a problem in that the cost is increased due to the use of an excessive amount of equipment.

또한, RGB 카메라와 Depth map을 융합하는 과정에서 Depth map 과 RGB 카메라 간의 픽셀 정보가 상이하므로 신호/영상 처리의 복잡도 향상되고, 고도화된 알고리즘 필요로 인한 하드웨어에 따른 소프트웨어의 부하가 상승하고, 실시간 처리 가 어려워 다양한 문제가 야기되고 있다. In addition, since the pixel information between the depth map and the RGB camera is different in the process of converging the RGB camera and the depth map, the complexity of the signal / image processing is improved, the software load due to the hardware due to the advanced algorithm is increased, And various problems are caused.

차량과 같이, 카메라와 센서 혹은 카메라와 카메라의 위치가 고정되어 있지 않고 움직이는 환경이라면 정합 난이도는 더욱 올라가므로 매우 복잡한 알고리즘을 필요로 하여 그에 따른 처리시간이 상승하고, 정확도도 크게 감소하는 문제가 발생한다. If the camera, sensor, or camera and camera are not fixed in position, such as a vehicle, the matching difficulty is further increased. Therefore, a very complicated algorithm is required, resulting in an increase in processing time and a significant reduction in accuracy do.

따라서 보다 단순하면서 정확도를 향상시키는 시스템이 요구된다.
Therefore, a system that is simpler and improves accuracy is required.

본 발명의 목적은, 차량 주행을 보조하기 위해, 도로주행용 영상 카메라의 공간인식 기능을 향상시키고, 윤곽선을 효과적으로 추출하여 주행로를 정확하게 인식하는 자동차의 주행보조 시스템을 제공함에 있다.It is an object of the present invention to provide a traveling assistance system for a vehicle that improves the spatial recognition function of a road-running video camera and accurately extracts a contour line so as to assist a vehicle running.

본 발명에 따른 자동차의 주행보조 시스템은, 차량 주변의 영상을 촬영하여 입력하는 광대역카메라, 상기 광대역카메라로부터 입력되는 영상을 바탕으로 Depth Map을 생성하는 맵생성부, 상기 광대역카메라로부터 입력되는 영상을 바탕으로 GNF이미지를 생성하는 이미지생성부, 및 상기 맵생성부와 상기 이미지생성부의 데이터를 입력받아 3차원의 지도 탬플릿을 생성하는 광대역이미지 생성부를 포함하고, 상기 광대역카메라는 상이한 파장을 갖는 4채널의 정보를 포함하는 영상을 입력하는 것을 특징으로 한다. A driving assistance system for a vehicle according to the present invention includes a broadband camera for capturing and inputting images of the surroundings of a vehicle, a map generator for generating a Depth Map based on the image input from the wideband camera, And a wideband image generator for receiving the data of the map generator and the image generator and generating a three-dimensional map template, wherein the wideband camera comprises four channels having different wavelengths And an image including the information of the image data.

상기 광대역카메라는 Green, 800nm 대역의 NIR1, 900nm대역의 NIR2, FIR의 4채널의 정보가 포함된 영상을 입력하는 것을 특징으로 한다. The wideband camera is characterized by inputting images including information of four channels of Green, NIR1 of 800 nm band, NIR2 of 900 nm band, and FIR.

또한, 본 발명은 광대역카메라로부터 4채널의 정보가 포함된 영상이 입력되는 단계, 맵생성부가 상기 영상으로부터 채널별 정보를 바탕으로 Depth Map을 생성하는 단계, 이미지생성부가 상기 영상으로부터 GNF이미지를 생성하는 단계, 및 광대역이미지 생성부가 상기 Depth Map과 상기 GNF이미지를 결합하여 3차원의 지도정보를 생성하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of generating a GNF image, the method comprising: inputting an image including four channels of information from a wideband camera; generating a depth map based on channel- And generating a three-dimensional map information by combining the Depth Map and the GNF image by a broadband image generating unit.

차량의 위치를 추정하여 상기 3차원의 지도에 매칭하는 단계를 더 포함한다. Estimating a position of the vehicle and matching the three-dimensional map.

본 발명에 따른 자동차의 주행보조 시스템은, 적은 수의 카메라를 이용하여차량 주행 시 도로 및 장애물을 용이하게 인지 할 수 있고, 주행가능 영역에 대한 인지성능이 크게 향상되고, 차량용 네비게이션의 측위가 용이하며, 운전자 감시 카메라의 생채인식 능력이 향상되므로, 주행보조 장치 성능 향상에 의한 운전자 편의성이 크게 향상되는 효과가 있다.
The driving assistance system of the automobile according to the present invention can easily recognize roads and obstacles when driving the vehicle using a small number of cameras, greatly improve the recognition performance of the travelable area, And the driver's surveillance camera's biometric recognition capability is improved. Therefore, the driver's convenience due to the performance enhancement of the driving assistance device is greatly improved.

도 1은 본 발명에 따른 자동차 주행보조 시스템의 구성이 도시된 블록도이다.
도 2는 본 발명에 따른 자동차 주행보조 시스템의 카메라의 구성이 도시도이다.
도 3은 본 발명에 따른 자동차 주행보조 시스템의 영상 처리에 따른 광대역 영상 맵을 추출하는데에 따른 데이터의 흐름이 도시된 도이다.
도 4는 도 3의 광대역 영상 맵을 추출하는 방법을 설명하는데 참조되는 도이다.
도 3은 본 발명에 따른 자동차 주행보조 시스템의 영상 처리에 따른 광대역 영상 맵을 추출하는데에 따른 데이터의 흐름이 도시된 도이다.
도 4는 도 3의 광대역 영상맵을 추출하는 방법을 설명하는데 참조되는 도이다.
도 5는 도 3의 상이한 파장의 신호를 이용한 이미지 생성을 설명하는데 참조되는 예시도이다.
도 6은 본 발명에 따른 자동차 주행보조 시스템에 의한 장애물 검출의 실시예가 도시된 도이다.
도 7 은 본 발명에 따른 자동차 주행보조 시스템의 보행자 검출에 대한 실시예가 도시된 예시도이다.
도 8 은 본 발명에 따른 자동차 주행보조 시스템의 구성이 도시된 도이다.
도 9 는 본 발명에 따른 3차원 전역지도 생성방법이 도시된 순서도이다.
도 10 내지 도 12는 자동차 주행 시 촬영되는 영상 및 3차원 맵이 도시된 예시도이다.
1 is a block diagram showing a configuration of a vehicle driving assistance system according to the present invention.
FIG. 2 is a block diagram of a camera of a vehicle driving assistance system according to the present invention.
3 is a view illustrating a flow of data in extracting a wideband image map according to image processing of a vehicle driving assistance system according to the present invention.
FIG. 4 is a diagram for explaining a method of extracting the wideband image map of FIG. 3; FIG.
3 is a view illustrating a flow of data in extracting a wideband image map according to image processing of a vehicle driving assistance system according to the present invention.
FIG. 4 is a diagram for explaining a method of extracting the wideband image map of FIG. 3; FIG.
FIG. 5 is an exemplary diagram that is referenced to illustrate image generation using signals of different wavelengths in FIG. 3;
FIG. 6 is a diagram illustrating an embodiment of the obstacle detection by the vehicle travel assistance system according to the present invention.
FIG. 7 is an exemplary diagram illustrating an embodiment of pedestrian detection in a vehicle driving assistance system according to the present invention.
8 is a view illustrating the configuration of a vehicle driving assistance system according to the present invention.
FIG. 9 is a flowchart illustrating a three-dimensional global map generation method according to the present invention.
FIGS. 10 to 12 illustrate an image and a three-dimensional map to be photographed when the vehicle is traveling.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

도 1은 본 발명에 따른 자동차 주행보조 시스템의 구성이 도시된 블록도이다.1 is a block diagram showing a configuration of a vehicle driving assistance system according to the present invention.

도 1을 참조하면, 자동차는 광대역카메라(120), 맵생성부(130), 이미지생성부(140), 광대역이미지생성부(150), 데이터처리부(160), 장애물검출부(170), 주행부(180), 통신부(190), 데이터부(195), 그리고 차량의 동작전반을 제어하는 제어부(110)를 포함한다. 1, an automobile includes a broadband camera 120, a map generation unit 130, an image generation unit 140, a broadband image generation unit 150, a data processing unit 160, an obstacle detection unit 170, A communication unit 190, a data unit 195, and a control unit 110 for controlling overall operation of the vehicle.

또한, 자동차는 차량 구동을 위한 엔진 또는 모터, 미션 등의 구성을 포함하고, 복수의 센서를 더 구비할 수 있으나, 그에 대한 설명은 하기에서 생략하기로 한다. The vehicle includes an engine for driving the vehicle, a motor, and a mission, and may further include a plurality of sensors, but a description thereof will be omitted below.

또한, 자동차는 운전자의 조작에 의해 소정의 신호를 입력하는 복수의 스위치를 포함하는 입력수단(미도시)과, 전기 자동차의 현 상태 동작중 정보를 출력하는 출력수단(미도시), 스티어링 휠, 액셀러레이터, 브레이크와 같은 운전을 위한 조작수단을 포함한다.The vehicle includes input means (not shown) including a plurality of switches for inputting a predetermined signal by an operation of a driver, output means (not shown) for outputting information during a current operation of the electric vehicle, a steering wheel, And an operation means for operation such as an accelerator, a brake, and the like.

이때, 입력수단은 차량 주행에 따름 방향지시등, 테일램프, 헤드램프, 브러시 등의 동작을 위한 복수의 스위치, 버튼 등을 포함한다. At this time, the input means includes a plurality of switches, buttons, and the like for operation of a turn signal lamp, a tail lamp, a head lamp, a brush, etc.,

출력수단은 정보를 표시하는 디스플레이부, 음악, 효과음 및 경고음을 출력하는 스피커, 차량의 계기판, 그리고 각종 상태등을 포함한다. 출력수단은 속도정보, 램프 점등 상황 등, 현재 차량의 동작 전반에 대한 상태정보를 출력한다. 특히 출력수단은 차량 이상 발생 시 그에 대응하는 경고를 출력하며, 디스플레이부를 통해 소정의 이미지를 출력할 수 있다. 이때 차량의 경고는 음향 또는 음성의 경고음, 경고등, 경고메시지, 경고이미지 중 적어도 하나의 형태로 출력할 수 있다. The output means includes a display unit for displaying information, a speaker for outputting music, an effect sound and a warning sound, an instrument panel of the vehicle, and various states. The output means outputs status information on the overall operation of the current vehicle, such as speed information, lamp lighting status, and the like. Particularly, the output means outputs a warning corresponding to the occurrence of a vehicle abnormality, and can output a predetermined image through the display unit. At this time, the warning of the vehicle can be outputted in the form of at least one of a warning sound of an acoustic or voice, a warning light, a warning message, and a warning image.

데이터부(195)에는 차량 운행에 따른 운행데이터, 차량 이상여부를 판단하기 위한 기준데이터, 차량 운행중 생성되는 데이터가 저장된다. 또한 데이터부(195)에는 광대역카메라(120)에 의해 입력되는 영상, 영상을 처리하는 과정에서 생성되는 데이터, 3차원의 이미지데이터, 영상으로부터 추출되는 장애물에 대한 정보가 저장된다. In the data unit 195, operational data according to the vehicle operation, reference data for determining whether the vehicle is abnormal or not, and data generated during vehicle operation are stored. In addition, the data unit 195 stores information on the image input by the wideband camera 120, data generated in the course of processing the image, three-dimensional image data, and obstacles extracted from the image.

주행부(180)는 조작수단에 의한 입력, 그리고 제어부(110)의 제어명령에 따라 차량의 각 구성이 동작하도록 제어하여 차량이 이동하여 운전자의 조작에 따라 주행하도록 한다. 주행부(130)는 제어명령에 따라 엔진, 미션, 브레이크와 같은 차량 구성의 구동을 직접 제어한다. The driving unit 180 controls the respective components of the vehicle to operate according to the input by the operating unit and the control command of the control unit 110 so that the vehicle moves and follows the operation of the driver. The driving unit 130 directly controls driving of the vehicle configuration such as an engine, a mission, and a brake in accordance with a control command.

통신부(190)는 복수의 통신모듈을 포함하여 차량이 외부와 데이터를 송수신하도록 한다. 특히 통신부(190)는 3차원의 지도를 이용한 자율주행에 있어서 차량에 정보를 제공하는 서버(미도시)와 통신한다.The communication unit 190 includes a plurality of communication modules to allow the vehicle to transmit and receive data to and from the outside. In particular, the communication unit 190 communicates with a server (not shown) that provides information to the vehicle in autonomous driving using a three-dimensional map.

제어부(110)는 입력수단의 스위치 조작에 따라 소정 램프가 점등되도록 제어하거나 방향지시등의 점등 및 소등을 제어하고, 엑셀 또는 브레이크의 조작에 대응하여 차량이 가속하거나 감속하도록 차량 속도를 제어한다. 또한 제어부(110)는 차량의 이상을 감지하고, 그에 따른 경고가 출력수단을 통해 출력되도록 한다. The control unit 110 controls the lamps to be turned on or turn on and off according to the switch operation of the input means, and controls the vehicle speed to accelerate or decelerate the vehicle in response to the operation of the excel or brake. Also, the controller 110 detects an abnormality of the vehicle and outputs a warning through the output means.

광대역카메라(120)는 영상을 촬영하여 입력한다. 이때 광대역카메라(120)는 넓은 화각의 렌즈를 포함한다. 또한, 광대역카메라(120)는 4채널의 색상정보를 포함하는 영상을 입력한다. The broadband camera 120 captures and inputs an image. At this time, the wide-angle camera 120 includes a lens having a wide angle of view. In addition, the broadband camera 120 inputs an image including color information of four channels.

맵생성부(130)는 광대역카메라(120)로부터 입력되는 영상을 분석하여 Depth Map을 생성한다. The map generator 130 analyzes a video input from the wideband camera 120 to generate a depth map.

이미지생성부(140)는 광대역카메라(120)로부터 입력되는 영상을 분석하여 GNF 이미지를 생성 한다. The image generator 140 analyzes the image input from the broadband camera 120 to generate a GNF image.

광대역이미지생성부(150)는 맴생성부(130)의 데이터와 이미지생성부(140)의 데이터를 분석하여 3차원의 지도 템플릿을 생성한다. The broadband image generator 150 analyzes the data of the map generator 130 and the data of the image generator 140 to generate a three-dimensional map template.

데이터처리부(160)는 광대역카메라(120)를 분석하여 2.5차원의 구조체를 생성한다. 이때 데이터처리부(160)는 2.5차원의 구조체를 바탕으로 차량의 위치를 판단하고 3차원의 지도에 매칭한다. The data processor 160 analyzes the wideband camera 120 to generate a 2.5-dimensional structure. At this time, the data processing unit 160 determines the position of the vehicle based on the 2.5-dimensional structure and matches the map with the 3-dimensional map.

장애물검출부(170)는 광대역카메라(120)로부터 입력되는 영상을 분석하여 장애물을 검출한다. The obstacle detecting unit 170 analyzes an image input from the wideband camera 120 to detect an obstacle.

제어부(110)는 생성되는 3차원의 지도를 바탕으로 차량이 주행하도록 주행부(180)를 제어한다. 제어부(110)는 생성되는 데이터를 통신부(190)를 통해 서버로 전송하고 서버로부터 위치정보 또는 3차원 지도에 대한 데이터를 수신하여 주행부(180)로 제어명령을 인가하여 차량이 주행하도록 한다. The control unit 110 controls the driving unit 180 to drive the vehicle based on the generated three-dimensional map. The control unit 110 transmits the generated data to the server through the communication unit 190, receives the positional information or the three-dimensional map data from the server, and transmits the control command to the driving unit 180 to drive the vehicle.

3차원의 지도 생성에 대한 설명은 하기에서 도면을 참조하여 보다 자세히 설명하기로 한다. The description of the three-dimensional map generation will be described in more detail with reference to the drawings.

도 2는 본 발명에 따른 자동차 주행보조 시스템의 광대역카메라의 구성이 도시도이다.FIG. 2 is a diagram illustrating a configuration of a broadband camera of a vehicle driving assistance system according to the present invention.

도 2에 도시된 바와 같이, 자동차에 구비되는 광대역카메라(120)는 이미지센서(CCD, Charged Coupling Device)(124), 영상처리부(125)를 포함한다. 이미지센서(124)는 복수의 픽셀(121)(122)로 구성된다. 픽셀의 수는 이미지센서의 화소를 결정한다. 2, the broadband camera 120 provided in the vehicle includes a CCD (Charge Coupling Device) 124 and an image processing unit 125. [ The image sensor 124 is composed of a plurality of pixels 121 and 122. The number of pixels determines the pixels of the image sensor.

각 픽셀(121)(122)에서는 도 2의 a에 도시된 바와 같이, 일정 주파수 이상의 빛이 입사되면, 픽셀의 도체 내부의 광전자가 방출되는 광전효과가 발생한다. In each of the pixels 121 and 122, as shown in FIG. 2 (a), when a light having a predetermined frequency or higher is incident, a photoelectric effect occurs in which photoelectrons inside the pixel are emitted.

각 픽셀에서 발생하는 광전자는 도 2의b에 도시된 바와 같이, 이미지센서 내부의 변환부(123)에 의해 소정 크기의 전압을 갖는 신호로 변환된다.The photoelectrons generated in each pixel are converted into signals having a voltage of a predetermined magnitude by the conversion unit 123 inside the image sensor, as shown in Fig. 2B.

이때, 이미지센서(124)에는 투과밴드의 필터를 적용하여 색상을 결정하게 된다. 이미지센서(124)는 종래의 RGB필터방식이 아니라, Green, 800nm 대역의 NIR1, 900nm대역의 NIR2, FIR의 GN1N2F의 신호 처리 방식으로 색상을 결정한다. At this time, the color of the image sensor 124 is determined by applying a filter of a transmission band. The image sensor 124 determines the color by the signal processing method of Green, NIR1 of 800 nm band, NIR2 of 900 nm band, and GN1N2F of FIR instead of the conventional RGB filter method.

이미지센서(124)의 색상신호와, 각 픽셀의 전압신호는 영상처리부(125)로 입력된다. The color signal of the image sensor 124 and the voltage signal of each pixel are input to the image processing unit 125.

영상처리부(125)는 각 픽셀에 대한 신호를 처리하여 각 시간 별 영상프레임으로 구성하고, 복수의 영상프레임으로 구성된 영상데이터(A)를 출력한다. 출력되는 영상데이터는 300 내지 1100nm 주파수 대역을 갖게 된다. The image processing unit 125 processes signals for each pixel to form image frames for each time, and outputs image data A composed of a plurality of image frames. The output image data has a frequency band of 300 to 1100 nm.

도 3은 본 발명에 따른 자동차 주행보조 시스템의 영상 처리에 따른 광대역 영상 맵을 추출하는데에 따른 데이터의 흐름이 도시된 도이다. 3 is a view illustrating a flow of data in extracting a wideband image map according to image processing of a vehicle driving assistance system according to the present invention.

도 3에 도시된 바와 같이, 이미지센서(124)를 통해 입력되는 영상신호(11)는 이미지센서(124)에 적용되는 색상필터에 의해 각각 빛 파장의 주파수에 따라 각각 Green(21), NIR1(22), NIR2(23), FIR(24) 채널로, 4채널의 색상정보를 포함하는 영상데이터가 생성된다. 즉 광대역카메라(120)에 의해 획득되는 영상데이터는 4채널의 색상정보를 포함하게 된다. 3, the image signal 11 input through the image sensor 124 is converted to green (21), NIR1 (NIR1), and green (NIR1) by the color filters applied to the image sensor 124, 22), NIR2 (23), and FIR (24) channels, image data including color information of four channels is generated. That is, the image data obtained by the wide-band camera 120 includes color information of four channels.

이렇게 구분된 신호는 각각 Depth MAP(31)과 GNF이미지(32)를 생성하는데 사용된다. These separated signals are used to generate Depth MAP 31 and GNF image 32, respectively.

이때, 맵생성부(130)는 영상데이터에서, 800nm 대역의 NIR1 채널을 이용하여 공간정보를 판단한다. 또한, 맵생성부(130)는 영상데이터의 색상신호를 바탕으로, 물체를 구분하는데 있어서, Green, NIR2, FIR 채널의 색상정보의 사용으로 영상에서의 물체를 구분한다. 예를 들어 이와 같은 채널 별 색상정보를 이용하여 아스팔트와 연석을 구분할 수 있다. 또한, Green, NIR2, FIR 채널의 사용으로 인하여 안개 및 빛 반사에 의한 영향이 적어 영역 구분이 용이해진다. At this time, the map generator 130 determines the spatial information using the 800 nm band NIR1 channel from the image data. In addition, the map generating unit 130 distinguishes objects in an image by using color information of Green, NIR2, and FIR channels in distinguishing objects based on color signals of image data. For example, it is possible to distinguish between asphalt and curb using such color information per channel. In addition, due to the use of the green, NIR2, and FIR channels, there is little influence due to fog and light reflection, and the area can be easily distinguished.

도 4는 도 3의 광대역 영상맵을 추출하는 방법을 설명하는데 참조되는 도이다. FIG. 4 is a diagram for explaining a method of extracting the wideband image map of FIG. 3; FIG.

맵생성부(130)는, Depth MAP(31)을 생성하는데 있어서, 영상데이터 중, 800nm 대역의 NIR1채널과, NIR 프로젝터를 사용하여 공간정보를 판단한다. In generating the Depth MAP 31, the map generating unit 130 determines the spatial information using the NIR1 channel of the 800-nm band and the NIR projector among the image data.

NIR프로젝터는 800nm대역의 적외선 빛을 픽셀단위로 내보낸다(S1). 이때, 광대역카메라(120)는 물체에 반사된 적외선 빛이 입사되면, NIR1 채널에서 적외선 빛을 받아들이게 된다(S2). NIR1 채널을 통해 수신한 적외선 빛에 대한 패턴을 분석하여 Depth MAP을 구성할 수 있다(S3). The NIR projector emits infrared light in the 800 nm band on a pixel-by-pixel basis (S1). At this time, when the infrared ray reflected by the object is incident, the broadband camera 120 receives the infrared ray from the NIR1 channel (S2). The Depth MAP can be configured by analyzing the pattern of the infrared light received through the NIR1 channel (S3).

맵생성부(130)는 사전에 참조 영역(reference scene)에서 투영된 적외선 패턴을 추출하고, 제어부(110)는 추출된 적외선 패턴을 데이터부(195)에 저장한다. The map generating unit 130 extracts the infrared pattern projected from the reference scene in advance and the controller 110 stores the extracted infrared pattern in the data unit 195.

맵생성부(130)는 저장된 적외선 패턴을 바탕으로, 대상영역 (Object Plane)에서 반사된 적외선 패턴과 시차 변화를 통해 깊이 정보를 계산한다. 깊이 정보는 삼각 함수에 의거하여 계산되며 다음 수학식에 의해 산출된다. The map generation unit 130 calculates depth information based on the infrared pattern and the parallax change reflected from the object area (Object Plane) based on the stored infrared pattern. The depth information is calculated based on the trigonometric function and is calculated by the following equation.

Figure 112014118180637-pat00001
Figure 112014118180637-pat00001

Figure 112014118180637-pat00002
Figure 112014118180637-pat00002

여기에서, Zk는 포인트 k에서의 광대역카메라(120)와의 거리이고, Z0는 참조 영역에서의 깊이 값, b는 NIR 프로젝터와 광대역카메라 사이의 거리, d는 Image plane에 기록되는 시차, D는 객체 영역에서의 포인트 k의 이동된 시차이다. 제 2 식(2)에서 D 값을 제 1 식(1)에 넣으면 결국 객체의 거리 값 Zk는 아래의 수학식 3과 같이 표현되며, 깊이 정보로 출력된다.Z is the depth value in the reference area, b is the distance between the NIR projector and the broadband camera, d is the parallax recorded in the image plane, D is the distance from the broadband camera at point k, Lt; RTI ID = 0.0 &gt; k &lt; / RTI &gt; When the D value is added to the first equation (1) in the second equation (2), the distance value Zk of the object is expressed as the following equation (3) and output as depth information.

Figure 112014118180637-pat00003
Figure 112014118180637-pat00003

이때, Depth MAP을 생성하는데 있어서, 앞서 설명한 복수의 채널의 색상정보를 이용함에 따라, Depth MAP과 영상의 이미지가 일치하여 3차원의 이미지가 동일한 광학 축 (Optical axis) 상에서 생성된다. 그에 따라 맵생성부(130)는 광대역카메라(120)의 움직임을 고려하면서, 산출되는 깊이 정보와 이미지, Depth Map을 정합하여 3차원의 이미지를 생성할 수 있다. At this time, in generating the Depth MAP, the Depth MAP and the image of the image coincide with each other using the color information of the plurality of channels described above, so that a three-dimensional image is generated on the same optical axis. Accordingly, the map generating unit 130 may generate a three-dimensional image by matching the calculated depth information, the image, and the depth map, while considering the motion of the wide-angle camera 120.

종래의 RGB필터를 사용하는 경우 Depth MAP과 RGB필터의 정보가 상호 일치 하지 않아 3차원의 이미지를 생성하기 위해서는 복잡한 알고리즘이 적용되고 그 연산량 또한 많으므로 처리 시간이 지연되고, 정확도가 낮은 문제가 있었다. In the case of using the conventional RGB filter, since the information of the depth map and the RGB filter do not coincide with each other, a complicated algorithm is applied in order to generate a three-dimensional image, and the processing amount is also delayed, .

그러나 본 발명은 앞서 설명한 바와 같이 광대역카메라(120)를 통해 획득되는 영상데이터가 Green(21), NIR1(22), NIR2(23), FIR(24)의 4개 채널의 정보를 포함하므로 이를 용이하게 정합하여 3차원의 이미지를 생성할 수 있다. However, since the image data obtained through the wideband camera 120 includes information of four channels of Green (21), NIR1 (22), NIR2 (23), and FIR (24) as described above, So that a three-dimensional image can be generated.

도 5는 도 3의 상이한 파장의 신호를 이용한 이미지 생성을 설명하는데 참조되는 예시도이다. 이때, 도 5의 a, d는 가시광 영상이고, 도 5의 b, e는 원적외선 영상이며, 도 5의 c, f 는 가시광 영상과 원적외선 영상을 결합한 영상이다. FIG. 5 is an exemplary diagram that is referenced to illustrate image generation using signals of different wavelengths in FIG. 3; In this case, a and d in FIG. 5 are visible light images, and b and e in FIG. 5 are far infrared ray images, and c and f in FIG. 5 are combined images of a visible light image and a far infrared ray image.

도 5에 도시된 바와 같이, 가시광 영상과 근적외선, 원적외선에의한 영상은 각각 상이한 파장(Wavelength)를 가지기 때문에 표현되는 영상의 정보가 서로 상이하다. 이러한 파장의 차이로 가시광 영상에서 표현하기 힘든 열 정보를 적외선 영상을 통해 표현할 수 있다. 이때, 물체는, 예를 들어 아스팔트는 그 수명에 따라 반사율이 변화할 수 있고, 콘크리트의 경우 혼합하는 재료에 따라서 반사율이 상이하게 나타난다. 이러한 차이에 의해 물체를 보다 파장에 따라 용이하게 구분할 수 있게 된다. As shown in FIG. 5, since the visible light image, the near-infrared light, and the far-infrared light have different wavelengths, the information of the displayed image is different from each other. Due to the difference of the wavelengths, it is possible to express thermal information which can not be expressed in the visible light image through the infrared image. At this time, the reflectance of the object, for example, asphalt may change depending on its lifetime, and in the case of concrete, reflectance differs depending on the material to be mixed. This difference makes it possible to easily distinguish the object according to the wavelength.

특히 원적외선 영상의 경우 안개나 흐린 등의 날씨 변화에도 보다 정확하게 물체를 검출할 수 있으며 보다 긴 파장으로 인해 먼 거리의 물체까지 선명하게 촬영할 수 있다. 또한 근적외선의 경우 아스팔트와 연석 등 가시광선으로 구분하기 힘든 영역을 보다 정확하게 구분할 수 있다. Especially, in case of far infrared ray image, the object can be detected more accurately even in the case of fog or cloudy weather, and the object of long distance can be taken clearly. In the case of near-infrared rays, it is possible to more accurately distinguish areas which are difficult to distinguish asphalt and visible light such as a curb.

이미지생성부(140)는 광대역카메라(120)의 영상데이터에서, 앞서 설명한 3가지 파장대의 영상을 융합하여 GNF 이미지를 생성한다. The image generation unit 140 generates the GNF image by fusing the images of the three wavelength ranges described above from the image data of the wideband camera 120.

광대역이미지 생성부(150) 맵생성부(130)와 이미지생성부(140)로부터 입력되는 Depth map과 GNF 이미지를 결합하여, 지형지물 정보에 대한 3D 템플릿을 생성한다. 그에 따라 3차원의 지도가 생성된다. The broadband image generator 150 combines the depth map input from the map generator 130 and the image generator 140 with the GNF image to generate a 3D template for the feature information. Thus, a three-dimensional map is generated.

이때, 광대역이미지 생성부(150)는 GNF 이미지를 캐니 엣지 검출방식(Canny Edge detection)을 이용하여 그 윤곽선을 하이라이트 시킨다. 이는 연석과 아스팔트와 같이 깊이 정보는 같지만 구분해야 하는 영역을 보다 쉽게 구분해내기 위함이다. At this time, the broadband image generator 150 highlights the contour of the GNF image using a Canny edge detection method. This is to make it easier to distinguish areas where the depth information is the same, such as curb and asphalt.

도 6은 본 발명에 따른 자동차 주행보조 시스템에 의한 장애물 검출의 실시예가 도시된 도이다. FIG. 6 is a diagram illustrating an embodiment of the obstacle detection by the vehicle travel assistance system according to the present invention.

앞서 설명한 바와 같이, 광대역이미지가 생성되면, 광대역이미지는 물체의 외형뿐 아니라 그에 대한 거리정보를 포함하므로, 장애물 검출부(170)는 물체의 유형 및 거리 정보를 기반으로 광대역이미지로부터 장애물을 인식한다. As described above, when the broadband image is generated, the broadband image includes not only the appearance of the object but also distance information on the object, so that the obstacle detecting unit 170 recognizes the obstacle from the wideband image based on the type and distance information of the object.

도 6의 a에 도시된 바와 같이, 광대역이미지의 경우 거리정보에 따라 도로와 장애물을 구분할 수 있게 된다. As shown in FIG. 6A, in the case of a wide-band image, the road and the obstacle can be distinguished according to the distance information.

이때, 장애물 검출부(170)는 광대역 이미지에 대하여, Cubic B-Spline 함수를 기반으로 영상데이터의 물체에 대하여 모델링 하고, 그에 따라 장애물을 구분한다. 이때 거리정보를 이용하여 장애물을 구분한다. At this time, the obstacle detecting unit 170 models the object of the image data based on the Cubic B-Spline function for the wideband image, and identifies obstacles accordingly. At this time, obstacles are classified using distance information.

장애물 검출부(170)는 도로 영역을 제외한 다른 영역을 장애물 영역으로 설정하고, 장애물 영역에 대해서만 장애물을 구분한다. 즉 도로영역에 대한 장애물 구분은 수행하지 않으므로 그에 따른 연산량이 감소하게 된다. The obstacle detecting unit 170 sets the other area except the road area as an obstacle area, and distinguishes the obstacle only to the obstacle area. That is, since the obstacle classification for the road area is not performed, the computation amount is decreased.

또한 도 6의 b에 도시된 바와 같이, 장애물 검출부(170)는 장애물 영역을 구분하여 해당 영역 중 일부 장애물 영역에 대하여 관심영역으로 설정할 수 있다. Also, as shown in FIG. 6B, the obstacle detecting unit 170 may classify the obstacle area and set the obstacle area as an area of interest, among the obstacle areas.

특히 장애물과 도로면에 대해 추정한 결과를 바탕으로, 차량을 거물하면, 적용할 관심 영역을 축소할 수 있어, 관심영역에 대한 장애물 판단이 보다 용이해 진다. 또한, 관심영역이 감소함에 따라 연산량을 줄일 수 있으므로 오검출 비율이 감소된다. Based on the results of estimating obstacles and roads in particular, it is possible to narrow down the area of interest to be applied when the vehicle is hunted, making it easier to determine obstacles to the area of interest. Also, since the amount of computation can be reduced as the area of interest decreases, the erroneous detection rate is reduced.

관심영역 내에서의 움직임에 대응하여 차량에 접근하는 장애물인지 아닌지 판단하게 된다. It is determined whether or not it is an obstacle approaching the vehicle in response to the movement in the area of interest.

도 7 은 본 발명에 따른 자동차 주행보조 시스템의 보행자 검출에 대한 실시예가 도시된 예시도이다. FIG. 7 is an exemplary diagram illustrating an embodiment of pedestrian detection in a vehicle driving assistance system according to the present invention.

도 7에 도시된 바와 같이, 장애물 검출부(170)는 4채널의 정보를 포함하는 광대역 이미지에 대하여, 영상의 밝기, 열, 깊이 정보를 각각 사용하여 장애물, 특히 보행자를 검출한다. As shown in FIG. 7, the obstacle detecting unit 170 detects an obstacle, in particular, a pedestrian by using the brightness, the heat, and the depth information of the image with respect to the wideband image including the information of four channels.

도 7의 a과 같이 장애물 검출부(170)는 열정보를 이용하여 열화상으로부터 보행자의 체온에 따라 SVM기반으로 보행자를 구분할 수 있다. 또한, 장애물 검출부(170)는 도 7의 b와 같이, 광대역 이미지의 밝기 정보를 이용하여 Haar Classifier 기반으로 보행자를 검출할 수 있다. 도 7 의 c와 같이 Depth 정보를 이용한 보행자 검출 또한 가능하다. As shown in FIG. 7A, the obstacle detecting unit 170 can distinguish pedestrians based on the SVM according to the body temperature of a pedestrian from thermal images using thermal information. Also, as shown in FIG. 7B, the obstacle detecting unit 170 can detect the pedestrian based on the Haar classifier using the brightness information of the broadband image. As shown in FIG. 7C, it is also possible to detect the pedestrian using the Depth information.

장애물 검출부(170) 이와 같이 각각의 정보를 바탕으로 검출되는 보행자 정보를 결합하여 최종적으로 보행자 영역을 설정한다. 그에 따라 보행자를 용이하게 검출할 뿐 아니라 그 정확도 또한 향상된다. The obstacle detecting unit 170 combines the pedestrian information detected based on each piece of information as described above to finally set the pedestrian area. Thereby not only detecting the pedestrian easily but also improving its accuracy.

도 8 은 본 발명에 따른 자동차 주행보조 시스템의 구성이 도시된 도이다. 8 is a view illustrating the configuration of a vehicle driving assistance system according to the present invention.

도8에 도시된 바와 같이, 차량(1)은 광대역이미지 생성부(150)에 의해 생성되는 3차원 지도의 탬플릿을 서버(2)로 전송하고, 서버(2)는 이를 수신하여 누적저장한다. As shown in Fig. 8, the vehicle 1 transmits a template of the three-dimensional map generated by the broadband image generation unit 150 to the server 2, and the server 2 receives and accumulates the template.

서버(2)는 누적저장되는 데이터를 바탕으로 복수의 차량으로 3차원의 지도 정보를 제공하고, 차량의 위치를 판단하여 3차원의 지도에 매칭한 후 그 정보를 제공한다. The server 2 provides three-dimensional map information to a plurality of vehicles based on accumulated data, determines the position of the vehicle, matches the three-dimensional map, and provides the information.

이때 차량(1)의 제어부(110)는 광대역이미지생성부(150)에 의해 생성되는 거리 정보 및 주행 환경 정보를 모두 포함하는 광대역의 이미지의 3차원의 지도를 바탕으로, GPS 정보와 결합하여 주행부(180)를 제어함으로써, 차량의 자율 주행이 가능하도록 한다. At this time, the control unit 110 of the vehicle 1, based on the three-dimensional map of the wide-band image including both the distance information and the traveling environment information generated by the broadband image generating unit 150, So that the vehicle can be autonomously driven.

이때, 데이터처리부(160)는 주행 중인 차량의 자세를 지속적으로 갱신하기 위하여, 광대역카메라(120)로부터 촬영되는, 연속하는 영상 프레임에 대한 상대적인 카메라의 모션을 추정한 뒤, 이를 데이터부(195)에 누적 저장한다. The data processor 160 estimates the motion of the camera relative to the continuous image frame photographed from the wideband camera 120 and continuously outputs the motion of the camera relative to the data unit 195, .

데이터처리부(160)는 광대역카메라(120)의 모션을 추정하기 위한 입력 값으로써, t-1시간의 이전영상과 t시간의 현재영상으로부터 생성되는 2.5 차원 거리영상을 사용한다. 여기서 2.5차원 거리영상은 GNF 이미지의 2차원 배열에 N1 채널로 획득한 3차원 거리정보를 결합한 데이터 구조체이다. The data processing unit 160 uses the 2.5-dimensional distance image generated from the previous image at time t-1 and the current image at time t, as an input value for estimating the motion of the broadband camera 120. [ Here, the 2.5-dimensional distance image is a data structure that combines the 2-dimensional array of the GNF image with the 3-dimensional distance information acquired by the N1 channel.

2.5차원 거리영상이 주어졌을 때 연속하는 스테레오 영상 프레임에 대한 광대역카메라의 상대모션 T<t-1,t>은 다음과 같이 연산된다. Given a 2.5-dimensional distance image, the relative motion T <t-1, t> of a broadband camera to successive stereo image frames is calculated as follows.

데이터처리부(160)는 2차원 영상이 입력되면 SURF 알고리즘을 이용하여 t-1과 t시간에서 각각 획득한 영상, 즉 이전영상과 현재영상에 대한 2차원 특징점들을 추출한다. 데이터처리부(160)는 2차원 특징점들 사이를 서로 매칭하여 t-1과 t프레임 사이의 일치점군을 생성한다. 초기 매칭결과는 잘못된 매칭으로 인한 오류를 포함할 수 있으므로 데이터처리부(160)는 에피폴라 기하제약과 RANSAC 알고리즘을 적용하여 외치점(outlier)을 제거한다. When the two-dimensional image is input, the data processing unit 160 extracts two-dimensional feature points of the images obtained at time t-1 and time t, i.e., the previous image and the current image, using the SURF algorithm. The data processing unit 160 generates matching point groups between t-1 and t frames by matching the two-dimensional minutiae points to each other. Since the initial matching result may include errors due to erroneous matching, the data processing unit 160 applies the epipolar geometry constraint and the RANSAC algorithm to remove outliers.

데이터처리부(160)는 외치점이 제거된 일치점군이 생성되면, 깊이정보를 가지고 있는 2.5차원 거리영상을 이용하여 t-1과 t시점 사이의 3차원-3차원 매칭 관계를 산출하여, 이로부터 두 시점 사이의 변환행렬을 연산한다. 이때, 3차원-3차원 매칭 관계가 주어지면 least squre fitting 방법을 사용하여 3차원 상대모션 T<t-1,t>을 산출할 수 있다. 모션추정 과정을 통해 t-1과 t시간 사이의 변환행렬 T<t-1,t>이 결정되면 t시간의 카메라좌표계에서 월드좌표계로 이동하기 위한 변환행렬 Tcw<t>는 이전 시간에 계산된 변환 행렬을 모두 누적하여 산출된다. The data processing unit 160 calculates a 3D-3D matching relationship between t-1 and t using a 2.5-dimensional distance image having depth information when a matching point group from which the external points are removed is calculated, And calculates a transformation matrix between the time points. In this case, given a three-dimensional-3D matching relationship, a three-dimensional relative motion T <t-1, t> can be calculated using a least squre fitting method. When the transformation matrix T <t-1, t> between t-1 and t is determined through the motion estimation process, the transformation matrix Tcw <t> for moving from the camera coordinate system to the world coordinate system at time t is calculated at the previous time And the conversion matrix are all accumulated.

그에 따라 데이터처리부(160)는 광대역카메라(120) 기반으로, 3차원의 지도에서의 차량의 위치를 인식하게 된다. 경우에 따라 이는 서버(2)에 의해 수행될 수 있다. Accordingly, the data processing unit 160 recognizes the position of the vehicle on the three-dimensional map based on the wide-band camera 120. In some cases this can be performed by the server 2.

한편, 앞서 설명한 바와 같이 광대역이미지 생성부(150)는 맴생성부(130)와 이미지 생성부(140)의 데이터를 바탕으로 3차원의 전역지도를 생성한다. As described above, the wideband image generator 150 generates a three-dimensional global map based on the data of the map generator 130 and the image generator 140.

이때 광대역이미지 생성부(150)는 3차원의 전역지도를 생성하기 위해 그래프 이론에 따라 영상 프레임의 모션추정 과정에서 획득한 정보를 노드 단위로 저장하고 관리한다. 연속하는 영상에 대해서 데이터처리부(160)가 카메라 모션을 추정하면, 추정된 모션정보 및 거리정보는 매번 DB화되어 저장된다. 그에 따라 하나의 스테레오 프레임 당 하나의 노드가 할당 된다. 따라서 노드는 하나의 2차원 영상장면(scene)과 영상장면에 대한 3차원 정보로 구성된다. At this time, the broadband image generator 150 stores and manages the information acquired in the motion estimation process of the image frame according to the graph theory to generate a three-dimensional global map. When the data processing unit 160 estimates the camera motion with respect to the continuous images, the estimated motion information and the distance information are DBized and stored every time. Whereby one node is allocated per one stereo frame. Therefore, the node consists of one two-dimensional image scene and three-dimensional information about the image scene.

데이터처리부(160)에 의해 광대역 카메라 기반으로 위치를 인식하여, Tcw<t>가 결정되면 t시간의 노드 ?t에는 수학식4와 같이 SURF 특징점 Ft,k와 Ft,k에 대응하는 3차원 월드 좌표 점 Xwt,k가 저장된다. 3차원 월드좌표 Xwt,k는 수학식 5에 의해 연산된다.When the Tcw < t > is determined by the data processing unit 160 on the basis of the wideband camera, a three-dimensional world corresponding to the SURF feature points Ft, k and Ft, The coordinate point Xwt, k is stored. The three-dimensional world coordinate Xwt, k is calculated by equation (5).

Figure 112014118180637-pat00004
Figure 112014118180637-pat00004

Figure 112014118180637-pat00005
Figure 112014118180637-pat00005

수학식 4에서 Ft,k와 σt,k, 그리고 dt,k는 각각 시간의 k번째에 해당하는 SURF 특징점 Ft,k 의 2차원 영상좌표의 특징점의 회전각, 특징점의 크기, 그리고 특징점 기술자를 뜻하며, Xct,k는 Ft,k 에 대한 카메라좌표계의 3차원 점을 뜻한다. Xct,k 는 2차원 영상좌표 xt,k와 t시간의 거리영상 ITt 에서 수학식6과 같이 획득한다.In Equation (4), Ft, k, σt, k, and dt, k represent the rotation angles of the feature points of the two-dimensional image coordinates of the SURF feature point Ft, k corresponding to the kth time of the time, the size of the feature points, , Xct, k is the 3D point of the camera coordinate system for Ft, k. Xct, k is obtained from the distance image ITt of the two-dimensional image coordinates xt, k and t time as shown in Equation (6).

Figure 112014118180637-pat00006
Figure 112014118180637-pat00006

위와 같은 방법으로 3D 맵을 구축하고, 실시간으로 광대역 카메라에서 입력되는 영상 및 GPS 정보를 융합하여 자율주행에 적용할 수 있다.  The 3D map can be constructed in the same manner as described above, and the image and GPS information input from the broadband camera can be fused in real time for autonomous driving.

도 9 는 본 발명에 따른 3차원 전역지도 생성방법이 도시된 순서도이다. FIG. 9 is a flowchart illustrating a three-dimensional global map generation method according to the present invention.

도 9에 도시된 바와 같이, 광대역카메라(120)가 촬영을 시작하여 영상이 입력되면(310), 맵생성부(130)는 Depth Map을 생성하고(S320), 이미지생성부(140)는 GNF이미지를 생성한다(S330). 9, when the broadband camera 120 starts shooting and an image is input 310, the map generator 130 generates a Depth Map (S320), and the image generator 140 generates a GNF An image is generated (S330).

광대역이미지 생성부(150)는 Depth Map과 GNF이미지를 결합하여 3차원의 지도정보를 생성한다(S340). The broadband image generator 150 combines the Depth Map and the GNF image to generate three-dimensional map information (S340).

한편, 광대역카메라(120)로부터 입력되는 영상에 대하여, 데이터처리부(160)는 시간의 변화에 따른 영상의 변화를 바탕으로 2.5차원의 구조체를 생성한다(S350). 데이터처리부(160)는 SURF특징점을 매칭하고(S360), RANSAC을 이용하여 아웃라이어를 제거한다(S370). 데이터처리부(160)는 변환행렬을 연산하여(S380), 광대역카메라(120)의 영상을 기반으로 3차원 지도에서의 차량의 위치를 인식한다(S390). On the other hand, for the image input from the wideband camera 120, the data processing unit 160 generates a 2.5-dimensional structure based on the change of the image with time (S350). The data processing unit 160 matches the SURF feature points (S360), and removes the outliers using the RANSAC (S370). The data processing unit 160 calculates a transformation matrix (S380), and recognizes the position of the vehicle on the three-dimensional map based on the image of the wideband camera 120 (S390).

이와 같이 저장되는 3차원의 지도에, 현재 입력되는 영상으로부터 차량의 위치를 인식하여 3차원 전역지도가 생성된다. A three-dimensional global map is generated by recognizing the position of the vehicle from the current input image on the three-dimensional map stored as described above.

이렇게 생성되는 3차원 전역지도는 차량의 자율주행에 사용된다. The generated 3D global map is used for autonomous driving of the vehicle.

도 10 내지 도 12는 자동차 주행 시 촬영되는 영상 및 3차원 맵이 도시된 예시도 이다. FIGS. 10 to 12 illustrate an image and a three-dimensional map to be photographed when the vehicle is traveling.

도 10의 a에 도시된 바와 같이, 차량 자율주행을 수행하는 중, 입력되는 영상에 대하여, 도 10의 b와 같이 광대역 영상의 색상기반으로 윤곽선을 추출하고 앞서 설명한 바와 같이 영상을 분할하며 거리정보를 이용하여 3차원의 지도에 대한 탬플릿으로 데이터 베이스를 구축할 수 있다. As shown in FIG. 10A, during the autonomous vehicle running, a contour line is extracted on the basis of the color of the broadband image as shown in FIG. 10B for the input image, the image is divided as described above, A database can be constructed using a template for a three-dimensional map.

그에 따라 도 11에 도시된 바와 같이 3차원의 지도에 대한 정보가 저장된다. As a result, information on a three-dimensional map is stored as shown in FIG.

이때, 3차원의 데이터는 서버(2)에 저장되어 클라우드 방식으로 운용됨에 따라 복수의 차량에 정보를 제공하게 된다. 아스팔트와 시멘트를 부군하고 건물이 없는 시골지역이나 오프로드에서는 주변의 큰 나무나 언덕에 대한 영상을 계절, 시간, 기후에 따라 정보를 취득하여 적용한다. At this time, the three-dimensional data is stored in the server 2 and operated in a cloud manner, thereby providing information to a plurality of vehicles. Asphalt and cement are used. In rural areas and off-roads where buildings are not available, images of surrounding large trees and hills are acquired and applied according to season, time, and climate.

차량 주행 중, 제어부(110)는 광대역카메라(120)로부터 입력되는 영상에 대한 정보가 광대역이미지 생성부(150) 및 데이터처리부(160)에 의해 생성되면, 통신부(190)를 통해 서버 (2)로 실시간 전송한다. The controller 110 controls the operation of the server 2 through the communication unit 190 when the information about the image input from the broadband camera 120 is generated by the broadband image generation unit 150 and the data processing unit 160, In real time.

이때 서버(2)는 수신되는 데이터를 기 저장된 3차원 광대역 펨플릿 데이터에 결합하여 차량의 위치를 측정하고, 맵매칭을 실행한다. 경우에 따라 차량(1)의 데이터처리부(160)에 의해 수행될 수 있다. At this time, the server 2 measures the position of the vehicle by combining the received data with the previously stored three-dimensional wideband pumplet data, and performs map matching. And may be performed by the data processing unit 160 of the vehicle 1 as occasion demands.

서버(2)는 매칭된 정보를 차량으로 전송한다. 이와 같은 과정이 반복되어 차량(1)은 수신 정보를 반영하여 주행하게 된다. 또한 차량(1)은 주행 중, 검출되는 장애물에 대해 회피하여 주행할 수 있다. The server 2 transmits the matched information to the vehicle. This process is repeated and the vehicle 1 travels by reflecting the received information. Also, the vehicle 1 can run while avoiding obstacles detected during running.

그에 따라 도 12에 도시된 바와 같이, 차량은 3차원의 지도정보와 차량의 위치인식을 통해 자율주행이 가능해 진다. Accordingly, as shown in Fig. 12, the vehicle can autonomously travel through three-dimensional map information and vehicle position recognition.

본 발명은 광대역카메라에서 4차원의 색상정보를 취득, 이를 바탕으로 다른 장치의 추가 없이 도로를 인식하고 장애물을 검출할 수 있다. 또한, 광대역카메라의 영상을 바탕으로 3차원의 맵을 생성하고 차량의 위치를 매칭하여 자율 주행에 적용할 수 있다.
The present invention can acquire four-dimensional color information from a broadband camera, and can recognize roads and detect obstacles without adding other devices. In addition, a 3-dimensional map can be generated based on the image of the wideband camera, and the position of the vehicle can be matched and applied to autonomous driving.

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다.It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements.

이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

1: 차량 2: 서버
110: 제어부 120: 광대역카메라
130: 맵생성부 140: 이미지생성부
150: 광대역이미지생성부 160: 데이터처리부
170: 장애물검출부 180: 주행부
190: 통신부 195: 데이터부
1: vehicle 2: server
110: control unit 120: broadband camera
130: map generating unit 140:
150: Broadband image generator 160: Data processor
170: obstacle detection unit 180:
190: communication unit 195: data unit

Claims (20)

차량 주변의 영상을 촬영하여 입력하는 광대역카메라;
상기 광대역카메라로부터 입력되는 영상을 바탕으로 Depth Map을 생성하는 맵생성부;
상기 광대역카메라로부터 입력되는 영상을 바탕으로 GNF이미지를 생성하는 이미지생성부; 및
상기 맵생성부와 상기 이미지생성부의 데이터를 입력받아 3차원의 지도 탬플릿을 생성하는 광대역이미지 생성부;
주행 중인 차량의 자세를 지속적으로 갱신하기 위하여, 상기 광대역카메라로부터 촬영되는, 연속하는 영상 프레임에 대한 상대적인 카메라의 모션을 추정하여 차량의 위치를 판단하는 데이터처리부;
를 포함하고,
상기 데이터처리부는 영상프레임중, t-1시간의 이전영상과 t시간의 현재영상으로부터 특징점을 추출하여 매칭하고, 깊이정보를 바탕으로 3차원의 매칭관계를 산출하여 두 시점 사이의 변환행렬을 연산하여 차량의 위치를 추정하는 것을 특징으로 하는 자동차 주행보조 시스템.
A broadband camera for photographing and inputting images of the surroundings of the vehicle;
A map generator for generating a depth map based on an image input from the wideband camera;
An image generation unit for generating a GNF image based on an image input from the wideband camera; And
A broadband image generation unit receiving the data of the map generation unit and the image generation unit and generating a three-dimensional map template;
A data processing unit for estimating a motion of a camera relative to a continuous image frame, which is photographed from the wideband camera, to continuously update the posture of the vehicle while driving;
Lt; / RTI &gt;
The data processing unit extracts and matches feature points from a previous image at time t-1 and a current image at time t in an image frame, calculates a matching relationship in three dimensions based on the depth information, and calculates a transformation matrix between the two points Thereby estimating the position of the vehicle.
제 1 항에 있어서,
상기 광대역카메라는 Green, 800nm 대역의 NIR1, 900nm대역의 NIR2, FIR의 4채널의 정보가 포함된 영상을 입력하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method according to claim 1,
Wherein the broadband camera inputs images including information of four channels of Green, NIR1 of 800 nm band, NIR2 of 900 nm band, and FIR.
제 1 항에 있어서,
상기 맵생성부는 상기 광대역카메라로부터 입력되는 영상데이터에서, NIR1 채널과 NIR프로젝터을 이용하여 공간정보를 판단하여 Depth Map을 생성하는 것을 특징으로 하는 자동차의 주행보조 시스템.
The method according to claim 1,
Wherein the map generator generates a depth map by determining spatial information using NIR1 channel and NIR projector from the image data input from the wideband camera.
제 1 항에 있어서,
상기 맵생성부는 상기 광대역카메라로부터 입력되는 영상데이터에서, Green, NIR2와 FIR 채널의 색상 정보를 이용하여, 각 채널에 대한 파장의 차이를 바탕으로 물체를 구분하는 것을 특징으로 하는 자동차의 주행보조 시스템.
The method according to claim 1,
Wherein the map generating unit distinguishes an object based on a difference in wavelength for each channel by using color information of Green, NIR2, and FIR channels in the image data input from the wideband camera, .
제 3 항에 있어서,
상기 맵생성부는 상기 광대역카메라로부터 입력되는 영상데이터에서, 4채널의색상정보 중, 800nm 대역의 NIR1 채널을 이용하여 공간정보를 판단하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method of claim 3,
Wherein the map generator is configured to determine spatial information using NIR1 channel of the 800-nm band among 4-channel color information from the image data input from the broadband camera.
제 5 항에 있어서,
상기 맵생성부는 NIR프로젝터로부터 방출된 적외선의 빛이 상기 광대역카메라로 입사되어, 상기 광대역카메라의 NIR1 채널을 통해 수신된 적외선 빛에 대한 패턴을 추출하여 공간정보를 판단하는 것을 특징으로 하는 자동차 주행보조 시스템.
6. The method of claim 5,
Wherein the map generating unit receives the infrared light emitted from the NIR projector into the wideband camera and extracts a pattern of infrared light received through the NIR1 channel of the wideband camera to determine the spatial information system.
제 6 항에 있어서,
상기 맵생성부는 상기 적외선에 대한 패턴과 상기 영상데이터의 시차 변화를 바탕으로 깊이 정보를 산출하여 상기 Depth Map과 매칭하여 3차원의 이미지를 생성하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method according to claim 6,
Wherein the map generating unit calculates depth information based on the pattern of the infrared rays and the parallax change of the image data, and matches the depth information with the depth map to generate a three-dimensional image.
제 1 항에 있어서,
상기 이미지생성부는 상기 광대역카메라의 영상데이터에서, Green, NIR2, FIR 채널의 정보를 바탕으로 상기 GNF 이미지를 생성하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method according to claim 1,
Wherein the image generator generates the GNF image based on information of Green, NIR2, and FIR channels in the image data of the wideband camera.
제 1 항에 있어서,
상기 광대역이미지 생성부는 맵생성부의 Depth Map과, 상기 이미지생성부의 GNF 이미지를 결합하여, 지형지물 정보에 대한 3D 지도 템플릿을 생성하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method according to claim 1,
Wherein the broadband image generator combines the depth map of the map generator and the GNF image of the image generator to generate a 3D map template for the feature information.
제 9 항에 있어서,
상기 광대역이미지 생성부는 상기 이미지생성부의 GNF 이미지를 캐니 엣지 검출방식(Canny Edge detection)을 이용하여 그 윤곽선을 하이라이트 시켜 물체에 대한 영역을 구분하는 것을 특징으로 하는 자동차 주행보조 시스템.
10. The method of claim 9,
Wherein the broadband image generator divides the GNF image of the image generator by using a Canny edge detection method to highlight an outline of the GNF image.
제 1 항에 있어서,
상기 영상 데이터로부터 장애물을 검출하는 장애물검출부를 더 포함하고,
상기 장애물검출부는 상기 광대역이미지생성부의 광대역이미지에 포함된 물체에 대해 모델링하고 거리정보를 바탕으로 장애물을 구분하는 것을 특징으로 하는 자동차 주행보조 시스템.
The method according to claim 1,
Further comprising an obstacle detecting unit for detecting an obstacle from the image data,
Wherein the obstacle detection unit models an object included in the wideband image of the broadband image generator and distinguishes obstacles based on the distance information.
제 11 항에 있어서,
상기 장애물검출부는 상기 광대역이미지로부터 도로 영역을 제외한 다른 영역을 장애물 영역으로 설정하고, 상기 장애물 영역을 관심영역으로 설정하여 상기 관심영역에 대해서만 장애물을 검출하는 것을 특징으로 하는 자동차 주행보조 시스템.
12. The method of claim 11,
Wherein the obstacle detection unit sets an obstacle area other than the road area as an obstacle area from the wideband image and sets the obstacle area as an area of interest and detects an obstacle only to the area of interest.
제 12 항에 있어서,
상기 장애물검출부는 상기 관심영역 내의 물체의 움직임을 추적하여 차량의주행을 방해하는 장애물인지 여부를 판단하는 것을 특징으로 하는 자동차 주행보조 시스템.
13. The method of claim 12,
Wherein the obstacle detection unit tracks movement of an object in the ROI to determine whether the obstacle obstructs the traveling of the vehicle.
삭제delete 삭제delete 제 12 항에 있어서,
상기 광대역이미지 생성부로부터 생성된 3차원의 지도 템플릿을 서버로 전송하는 통신부; 및
상기 통신부를 통해 상기 서버와 데이터를 송수신하여 상기 3차원의 지도와GPS정보를 결합하여 차량의 주행을 제어하는 제어부를 더 포함하는 자동차 주행보조 시스템.
13. The method of claim 12,
A communication unit for transmitting the three-dimensional map template generated from the wideband image generation unit to a server; And
And a control unit for transmitting and receiving data to and from the server through the communication unit and controlling driving of the vehicle by combining the three-dimensional map and GPS information.
광대역카메라로부터 4채널의 정보가 포함된 영상이 입력되는 단계;
맵생성부가 상기 영상으로부터 채널별 정보를 바탕으로 Depth Map을 생성하는 단계;
이미지생성부가 상기 영상으로부터 GNF이미지를 생성하는 단계; 및
광대역이미지 생성부가 상기 Depth Map과 상기 GNF이미지를 결합하여 3차원의 지도정보를 생성하는 단계;
차량의 위치를 추정하여 상기 3차원의 지도정보에 매칭하는 단계;
상기 광대역카메라로부터 입력되는 상기 영상으로부터 시간의 변화에 따른 이전영상과 현재영상의 특징점을 추출하는 단계; 및
깊이정보를 바탕으로 상기 특징점에 대한 매칭관계를 산출하여 상기 이전영상과 상기 현재영상 사이의 변환행렬을 연산하여 차량의 위치를 추정하는 단계;
를 포함하는 자동차 주행보조 시스템의 동작방법.
Inputting an image including information of four channels from a wideband camera;
Generating a depth map based on the channel-by-channel information from the image;
Generating an GNF image from the image generator; And
Generating a three-dimensional map information by combining the Depth Map and the GNF image;
Estimating a position of the vehicle and matching the three-dimensional map information;
Extracting a feature point of a previous image and a current image according to a change in time from the image input from the wideband camera; And
Calculating a matching relation for the feature points based on the depth information and calculating a transformation matrix between the previous image and the current image to estimate a position of the vehicle;
Wherein the vehicle driving assistance system comprises:
제 17 항에 있어서,
상기 광대역이미지생성부로부터 산출되는 광대역이미지로부터 장애물을 검출하는 단계를 더 포함하는 자동차 주행보조 시스템의 동작방법.
18. The method of claim 17,
And detecting an obstacle from the broadband image calculated from the wideband image generator.
삭제delete 삭제delete
KR1020140172993A 2014-07-28 2014-12-04 Driving Assist System for the Vehicles KR101613849B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140172993A KR101613849B1 (en) 2014-12-04 2014-12-04 Driving Assist System for the Vehicles
US14/808,289 US9940527B2 (en) 2014-07-28 2015-07-24 Driving assist system for vehicle and method thereof
CN201510441656.1A CN105313782B (en) 2014-07-28 2015-07-24 Vehicle travel assist system and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140172993A KR101613849B1 (en) 2014-12-04 2014-12-04 Driving Assist System for the Vehicles

Publications (1)

Publication Number Publication Date
KR101613849B1 true KR101613849B1 (en) 2016-04-29

Family

ID=55915875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140172993A KR101613849B1 (en) 2014-07-28 2014-12-04 Driving Assist System for the Vehicles

Country Status (1)

Country Link
KR (1) KR101613849B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180130671A (en) * 2017-05-30 2018-12-10 현대모비스 주식회사 Apparatus and method for controlling automatic driving using 3d grid map
US10303957B2 (en) 2016-05-26 2019-05-28 Hyundai Motor Company Vehicle control system based on user input and method thereof
CN113159044A (en) * 2021-04-01 2021-07-23 中国公路工程咨询集团有限公司 Deep learning-based road material identification method for convolutional neural network
US11255974B2 (en) 2018-04-27 2022-02-22 Samsung Electronics Co., Ltd. Method of determining position of vehicle and vehicle using the same
WO2023282533A1 (en) * 2021-07-05 2023-01-12 주식회사 액손시스 Method and device for identifying vehicle through data and wireless signal analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130132128A (en) * 2012-05-25 2013-12-04 엘지전자 주식회사 Mobile robot and method for controlling the same
KR20130136372A (en) * 2010-05-12 2013-12-12 펠리칸 이매징 코포레이션 Architectures for imager arrays and array cameras
KR20140062801A (en) * 2012-11-15 2014-05-26 엘지전자 주식회사 Array camera, moblie terminal, and method for operating the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130136372A (en) * 2010-05-12 2013-12-12 펠리칸 이매징 코포레이션 Architectures for imager arrays and array cameras
KR20130132128A (en) * 2012-05-25 2013-12-04 엘지전자 주식회사 Mobile robot and method for controlling the same
KR20140062801A (en) * 2012-11-15 2014-05-26 엘지전자 주식회사 Array camera, moblie terminal, and method for operating the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303957B2 (en) 2016-05-26 2019-05-28 Hyundai Motor Company Vehicle control system based on user input and method thereof
KR20180130671A (en) * 2017-05-30 2018-12-10 현대모비스 주식회사 Apparatus and method for controlling automatic driving using 3d grid map
KR102260975B1 (en) 2017-05-30 2021-06-04 현대모비스 주식회사 Apparatus and method for controlling automatic driving using 3d grid map
US11255974B2 (en) 2018-04-27 2022-02-22 Samsung Electronics Co., Ltd. Method of determining position of vehicle and vehicle using the same
CN113159044A (en) * 2021-04-01 2021-07-23 中国公路工程咨询集团有限公司 Deep learning-based road material identification method for convolutional neural network
WO2023282533A1 (en) * 2021-07-05 2023-01-12 주식회사 액손시스 Method and device for identifying vehicle through data and wireless signal analysis
KR20230007021A (en) * 2021-07-05 2023-01-12 주식회사 액손시스 Vehicle identification method and apparatus through data and wireless signal analysis
KR102583397B1 (en) * 2021-07-05 2023-09-27 주식회사 액손시스 Vehicle identification method and apparatus through data and wireless signal analysis

Similar Documents

Publication Publication Date Title
US9940527B2 (en) Driving assist system for vehicle and method thereof
US11836989B2 (en) Vehicular vision system that determines distance to an object
US9823340B2 (en) Method for time of flight modulation frequency detection and illumination modulation frequency adjustment
KR101647370B1 (en) road traffic information management system for g using camera and radar
KR101613849B1 (en) Driving Assist System for the Vehicles
US10650255B2 (en) Vehicular vision system with object detection
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
US8879050B2 (en) Method for dynamically adjusting the operating parameters of a TOF camera according to vehicle speed
KR20240005151A (en) Estimating object properties using visual image data
JP5863536B2 (en) Outside monitoring device
WO2014073322A1 (en) Object detection device and object detection method
US11341614B1 (en) Emirror adaptable stitching
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
US11295145B2 (en) Object detection using vehicular vision system
WO2015156821A1 (en) Vehicle localization system
US10884127B2 (en) System and method for stereo triangulation
US11343485B1 (en) Virtual horizontal stereo camera
US20210027074A1 (en) Vehicle system, space area estimation method, and space area estimation apparatus
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
WO2022158039A1 (en) Combining visible light camera and thermal camera information
Darms et al. Data fusion strategies in advanced driver assistance systems
KR101868293B1 (en) Apparatus for Providing Vehicle LIDAR
JP2018200190A (en) Image processing apparatus, stereo camera system, moving body, road surface shape detection method and program
Sohn et al. Effects of input resolution on LiDAR pedestrian localization using deep learning
JP2019215238A (en) Object detection program, object detection device, and object detection system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190312

Year of fee payment: 4