KR20200070100A - A method for detecting vehicle and device for executing the method - Google Patents

A method for detecting vehicle and device for executing the method Download PDF

Info

Publication number
KR20200070100A
KR20200070100A KR1020190151276A KR20190151276A KR20200070100A KR 20200070100 A KR20200070100 A KR 20200070100A KR 1020190151276 A KR1020190151276 A KR 1020190151276A KR 20190151276 A KR20190151276 A KR 20190151276A KR 20200070100 A KR20200070100 A KR 20200070100A
Authority
KR
South Korea
Prior art keywords
vehicle
image
detected
unit
search area
Prior art date
Application number
KR1020190151276A
Other languages
Korean (ko)
Inventor
김신형
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to CN201911240329.4A priority Critical patent/CN111292351A/en
Priority to US16/705,973 priority patent/US11475576B2/en
Priority to EP19214223.0A priority patent/EP3663978A1/en
Publication of KR20200070100A publication Critical patent/KR20200070100A/en
Priority to US17/939,175 priority patent/US11881030B2/en
Priority to US18/544,988 priority patent/US20240127601A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

The present invention relates to a method for detecting a vehicle. The method includes the steps of: receiving continuously captured front images; setting a search area of the vehicle in a target image based on a location of the vehicle or a vehicle area detected from a previous image among the front images; detecting the vehicle in the search area according to a machine learning model; and tracking the vehicle in the target image by using feature points of the vehicle extracted from the previous image according to a vehicle detection result based on the machine learning model. Since the entire image is not used as a vehicle detection area, a processing speed may be increased, and a forward vehicle tracked in an augmented reality navigation may be continuously displayed without interruption, thereby providing a stable service to a user.

Description

차량 검출 방법 및 이를 수행하는 전자 기기{A method for detecting vehicle and device for executing the method}A method for detecting vehicle and device for executing the method

차량 검출 방법 및 전자 기기에 관한 것이다.It relates to a vehicle detection method and an electronic device.

인터넷 망이 개방되고 위치 데이터와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 위치 기반 서비스의 한 분야로써, 디바이스가 장착된 차량 등의 현재 위치를 측위하거나 목적지까지의 이동 경로를 안내해주는 차량용 내비게이션 관련산업이 활성화 되었으며, 이와 함께 사고나 이벤트가 발생한 경우 원인을 파악하기 위해 차량의 운행 영상을 기록하는 차량용 블랙박스 산업도 활성화되어, 차량용 디지털 비디오 레코더(Digital Video Recorder)나 대쉬보드 카메라(Dashboard camera)가 장착되는 차량이 점차 증가하고 있다. As the Internet network is opened and laws related to location data are in place, industries related to location-based services (LBS) are being activated. As a field of location-based service, a vehicle navigation-related industry has been activated to measure the current location of a device-equipped vehicle, etc., or to guide a travel route to a destination. The vehicle's black box industry for recording driving images has also been activated, and vehicles equipped with a digital video recorder or a dashboard camera for vehicles are gradually increasing.

최근에는 경로 안내와 주행 영상을 촬영하는 1차적인 기능에서 나아가, 다양한 영상 처리 기술을 바탕으로 운전자의 주행을 보조하기 위한 응용 기술들이 개발되고 있으며, 구체적으로 차량에 설치된 다양한 센서를 통해 획득된 영상을 분석하고 영상 내 포함된 객체들을 검출하여 주행과 관련된 정보를 판단하여 운전자에게 제공해 주는 첨단 운전자 지원 시스템(ADAS, Advanced Driver Assistance System)이 개발 및 적용되고 있다.Recently, in addition to the primary function of photographing route guidance and driving images, application technologies for assisting the driver's driving based on various image processing technologies have been developed. Specifically, images obtained through various sensors installed in a vehicle Advanced Driver Assistance System (ADAS) has been developed and applied to analyze and analyze the objects included in the image to determine driving-related information and provide it to the driver.

첨단 운전자 지원 시스템의 경우 다양한 상황에 맞춰서 운전자에게 안내 정보를 제공해주는데, 그 중 하나로 전방의 차량을 인식하고 전방 차량과의 적절한 안전 거리를 유지하도록 안내 정보를 제공해주는 전방 차량 추돌 경고 시스템(FVCWS, Forward Vehicle collision warning system)이 개발되어 적용되고 있다. The advanced driver assistance system provides guidance information to the driver according to various situations. One of them is the front vehicle collision warning system (FVCWS, which recognizes the vehicle in front and provides the guidance information to maintain an appropriate safety distance from the vehicle in front). Forward Vehicle collision warning system) has been developed and applied.

전방 차량 추돌 경고 시스템은 예를 들어, 자차가 운행하는 중에 전방 차량과의 거리가 소정 거리 이내로 가까워져 충돌 위험성이 있거나, 자차가 현재 속도를 유지할 경우 전방 차량과 충돌할 가능성이 있거나, 그 외 전방 차량에 의해 초래되는 돌발적인 요인으로 사고가 발생이 예상되는 경우를 미리 파악하고 이에 대한 경고 정보를 제공해 줄 수 있다. 또한, 전방 차량과의 충돌 외에도 신호대기 상태나 차가 정차 중인 상태에서 전방 차량의 출발을 알려주는 기능과 같이 전방 차량의 인식을 전제로 운전자에게 주행 안내 정보를 제공해 주는 기술들이 계속하여 개발되고 있다. The front vehicle collision warning system may, for example, have a danger of collision due to the distance from the front vehicle being within a predetermined distance while the host vehicle is running, or may collide with the front vehicle if the host vehicle maintains the current speed, or other front vehicle It is possible to identify in advance when an accident is expected as an unexpected factor caused by and provide warning information about it. In addition, technologies that provide driving guidance information to the driver on the premise of recognition of the front vehicle, such as a function of informing a departure of the front vehicle in a signal waiting state or when the vehicle is stopped, are continuously being developed in addition to collision with the front vehicle.

따라서, 이러한 기술들의 정확도를 높이기 위해서는 촬영된 주행 영상으로부터 전방 차량을 정확히 검출하는 것이 필수적이다. Therefore, in order to increase the accuracy of these technologies, it is essential to accurately detect a vehicle in front of the captured driving image.

본 발명은 안정적이고 정확한 전방 차량의 검출을 수행하는 방법을 제안하는 것을 목적으로 한다. 나아가 검출된 전방 차량을 통해 안전 운전이 가능하도록 지원하는 전자 기기 및 전자 기기의 전방 추돌 안내 방법을 제안하는 것을 목적으로 한다.The object of the present invention is to propose a method for performing a stable and accurate detection of a front vehicle. In addition, an object of the present invention is to propose an electronic device and a method for guiding a forward collision of the electronic device to enable safe driving through the detected front vehicle.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 차량 검출 방법은 연속하여 촬영된 전방 이미지를 입력 받는 단계; 상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 단계; 상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계; 및 상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 단계를 포함한다.A vehicle detection method according to an embodiment of the present invention for solving the above technical problem includes receiving a continuously photographed front image; Setting a search area of the vehicle in a target image based on a position of the vehicle or a vehicle area detected in a previous image among the front images; Detecting the vehicle in the search area according to a machine learning model; And tracking the vehicle in the target image using feature points of the vehicle extracted from the previous image according to the vehicle detection result according to the machine learning model.

상기 검색 영역은 상기 이전 이미지에서 검출된 차량 영역을 기준으로 확대 설정되는 것이 바람직하다.Preferably, the search area is enlarged based on the vehicle area detected in the previous image.

상기 검색 영역은 상기 검출된 차량의 크기에 따라 확대 설정되는 것이 바람직하다.It is preferable that the search area is enlarged according to the size of the detected vehicle.

상기 추적하는 단계는 상기 이전 이미지에서 검출된 차량 영역에서 상기 차량의 특징점을 추출하여 상기 차량을 추적하는 것이 바람직하다.In the tracking, it is preferable to track the vehicle by extracting feature points of the vehicle from the vehicle area detected in the previous image.

상기 기계 학습 모델에 따른 차량 검출이 실패하거나 또는 검출된 차량의 신뢰도가 기준 이하인 경우 상기 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량의 위치를 추적하는 것이 바람직하다.When the vehicle detection according to the machine learning model fails or the reliability of the detected vehicle is below a reference, it is preferable to track the location of the vehicle in the target image using feature points of the extracted vehicle.

상기 추적하는 단계는 상기 검출하는 단계의 차량 검출과 병행하여 상기 차량을 추적하되, 상기 검출하는 단계의 기계 학습 모델에 따른 차량 검출이 성공하거나 또는 검출된 차량의 신뢰도가 기준 이상인 경우 상기 차량의 추적을 종료하는 것이 바람직하다.The tracking step tracks the vehicle in parallel with the vehicle detection of the detecting step, but when the vehicle detection according to the machine learning model of the detecting step is successful or the reliability of the detected vehicle is higher than the reference, tracking the vehicle It is desirable to end.

상기 차량 검출 방법은, 상기 검출된 또는 상기 추적된 차량을 미리 결정된 사용자 인터페이스에 따라 표시하는 단계를 더 포함한다.The vehicle detection method further includes displaying the detected or tracked vehicle according to a predetermined user interface.

상기 표시하는 단계는 상기 차량에 따른 전방 추돌 관련 알림을 미리 결정된 사용자 인터페이스에 따라 표시하는 것이 바람직하다.In the displaying step, it is preferable to display a front collision-related notification according to the vehicle according to a predetermined user interface.

상기 검출하는 단계는 복수의 이전 이미지들로부터 상기 차량의 특징점의 움직임 벡터를 획득하고 상기 움직임 벡터와 상기 검색 영역에 기초하여 수정 검색 영역을 생성하는 단계를 더욱 포함하고, 상기 수정 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계를 포함한다.The detecting step further includes obtaining a motion vector of a feature point of the vehicle from a plurality of previous images and generating a modified search area based on the motion vector and the search area, and the vehicle in the modified search area And detecting according to the machine learning model.

상기 움직임 벡터는 복수의 이전 이미지들 각각에서의 상기 차량의 특징점이 표현된 위치들의 관계 에 기초하여 생성되는 것이 바람직하다.Preferably, the motion vector is generated based on a relationship of positions where a feature point of the vehicle is expressed in each of a plurality of previous images.

상기 수정 검색 영역의 중심 위치는 상기 검색 영역의 중심 위치와 상기 움직임 벡터에 기초하여 결정되며, 상기 수정 검색 영역의 너비는 상기 움직임 벡터의 방향 또는 크기에 기초하여 결정되는 것이 바람직하다.The center position of the correction search area is determined based on the center position of the search area and the motion vector, and the width of the correction search area is preferably determined based on the direction or size of the motion vector.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 차량 검출 장치는 연속하여 촬영된 전방 이미지를 입력 받는 영상 입력부; 상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 영역 설정부; 상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 차량 검출부; 및 상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 차량 추적부를 포함한다.A vehicle detection apparatus according to an embodiment of the present invention for solving the above technical problem includes an image input unit that receives a continuously photographed front image; A region setting unit configured to set a search region of the vehicle in a target image based on a location of the vehicle or a vehicle region detected from a previous image among the front images; A vehicle detection unit detecting the vehicle in the search area according to a machine learning model; And a vehicle tracking unit tracking the vehicle in the target image using feature points of the vehicle extracted from the previous image according to the vehicle detection result according to the machine learning model.

상기 검색 영역은 상기 이전 이미지에서 검출된 차량 영역을 기준으로 확대 설정되는 것이 바람직하다.Preferably, the search area is enlarged based on the vehicle area detected in the previous image.

상기 검색 영역은 상기 검출된 차량의 크기에 따라 확대 설정되는 것이 바람직하다.It is preferable that the search area is enlarged according to the size of the detected vehicle.

상기 차량 추적부는 상기 이전 이미지에서 검출된 차량 영역에서 상기 차량의 특징점을 추출하여 상기 차량을 추적하는 것이 바람직하다.It is preferable that the vehicle tracking unit tracks the vehicle by extracting feature points of the vehicle from a vehicle area detected in the previous image.

상기 차량 추적부는 기계 학습 모델에 따른 차량 검출이 실패하거나 또는 검출된 차량의 신뢰도가 기준 이하인 경우 상기 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량의 위치를 추적하는 것이 바람직하다.It is preferable that the vehicle tracking unit tracks the location of the vehicle in the target image using feature points of the extracted vehicle when vehicle detection according to the machine learning model fails or reliability of the detected vehicle is below a reference.

상기 차량 추적부는 상기 차량 검출부의 차량 검출과 병행하여 차량을 추적하되, 상기 차량 검출부의 상기 기계 학습 모델에 따른 차량 검출이 성공하거나 또는 검출된 차량의 신뢰도가 기준 이상인 경우 상기 차량의 추적을 종료하는 것이 바람직하다.The vehicle tracking unit tracks the vehicle in parallel with the vehicle detection of the vehicle detection unit, but when the vehicle detection according to the machine learning model of the vehicle detection unit is successful or the reliability of the detected vehicle is higher than a reference, the vehicle tracking is terminated. It is preferred.

상기 차량 검출 장치는, 상기 검출된 또는 상기 추적된 차량을 미리 결정된 사용자 인터페이스에 따라 표시하는 출력부를 더 포함한다.The vehicle detection apparatus further includes an output unit that displays the detected or tracked vehicle according to a predetermined user interface.

상기 출력부는 상기 차량에 따른 전방 추돌 관련 알림을 미리 결정된 사용자 인터페이스에 따라 표시하는 것이 바람직하다.It is preferable that the output unit displays a notification related to forward collision according to the vehicle according to a predetermined user interface.

상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 차량 추돌 경고 방법에 있어서, 연속하여 촬영된 전방 이미지를 입력 받는 단계; 상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 단계; 상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계; 상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 단계; 및 상기 검출 또는 추적된 차량과의 거리 및 상대 속도에 따라 추돌 가능성을 판단하는 단계를 포함한다.In the vehicle collision warning method according to an embodiment of the present invention for solving the above technical problem, Receiving a continuously photographed front image; Setting a search area of the vehicle in a target image based on a position of the vehicle or a vehicle area detected in a previous image among the front images; Detecting the vehicle in the search area according to a machine learning model; Tracking the vehicle in the target image using feature points of the vehicle extracted from the previous image according to a vehicle detection result according to the machine learning model; And determining a possibility of collision according to the distance and relative speed from the detected or tracked vehicle.

본 출원의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 출원이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solution means of the subject matter of the present application is not limited to the above-described solution means, and the solution means not mentioned will be clearly understood by those skilled in the art from the present specification and the accompanying drawings. Will be able to.

본 발명에 따르면, 영상 전체를 차량 검출영역으로 사용하지 않기 때문에 처리 속도가 빨라지고, 증강현실 네비게이션에서 추적되는 전방차량을 끊김없이 연속적으로 표출이 가능하여 사용자에게 안정된 서비스를 제공해 줄 수 있다.According to the present invention, since the entire image is not used as the vehicle detection area, the processing speed is increased, and the front vehicle tracked in the augmented reality navigation can be continuously displayed continuously, thereby providing a stable service to the user.

또한, 지능형운전자보조시스템(Advanced Driving Assistance System)의 전방 차량 추돌 경고 시스템(FVCWS, Forward Vehicle collision warning system)에 적용하여, 학습된 차량정보를 이용해 전방차량을 검출하는 기계 학습기반의 차량 검출 및 추적의 처리속도를 향상 시킬 수 있다.In addition, the machine learning-based vehicle detection and tracking that detects the front vehicle using the learned vehicle information by applying it to the Forward Vehicle collision warning system (FVCWS) of the Advanced Driving Assistance System. It can improve the processing speed.

도 1은 본 발명의 일 실시예에 따른 전자 기기를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 차량 검출 방법을 나타내는 흐름도이다.
도 3 내지 4c는 본 발명의 일 실시예에 따른 차량 검출 방법을 보다 상세히 나타내는 흐름도이다.
도 5 내지 7은 본 발명의 일 실시예에 따른 적응적 검색 영역의 설정을 나타내는 예시도 이다.
도 8은 본 발명의 일 실시예에 따른 차량 검출 방법에서 기계 학습 모델에 따른 차량 검출과 특징점 추출에 따른 차량 추적을 나타내는 예시도이다.
도 9는 본 발명의 일 실시 예에 따른 시스템을 나타내는 블록도이다.
도 10은 본 발명의 일 실시 예에 따른 시스템과 연결된 시스템 네트워크를 설명하기 위한 도이다.
도 11a 및 11b는 본 발명의 일 실시 예에 따른 시스템의 전방 추돌 경고 안내 화면을 나타내는 도이다.
도 12는 본 발명의 일 실시 예에 따른 시스템이 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도이다.
도 13은 본 발명의 일 실시 예에 따른 시스템이 촬영부를 구비하는 경우 구현 형태를 나타내는 도이다.
도 14는 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도이다.
도 15는 본 발명의 일 실시 예에 따른 자율 주행 차량의 구성을 나타내는 블록도이다.
도 16은 본 발명의 일 실시 예에 따른 제어 장치의 세부 구성을 나타내는 블록도이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a flowchart illustrating a vehicle detection method according to an embodiment of the present invention.
3 to 4c are flowcharts showing in more detail a vehicle detection method according to an embodiment of the present invention.
5 to 7 are exemplary views showing the setting of an adaptive search area according to an embodiment of the present invention.
8 is an exemplary diagram illustrating vehicle detection according to a machine learning model and vehicle tracking according to feature point extraction in a vehicle detection method according to an embodiment of the present invention.
9 is a block diagram illustrating a system according to an embodiment of the present invention.
10 is a diagram illustrating a system network connected to a system according to an embodiment of the present invention.
11A and 11B are views illustrating a front collision warning guide screen of a system according to an embodiment of the present invention.
12 is a view showing an implementation form when the system according to an embodiment of the present invention does not include a photographing unit.
13 is a view showing an implementation form when the system according to an embodiment of the present invention includes a photographing unit.
14 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention.
15 is a block diagram showing the configuration of an autonomous vehicle according to an embodiment of the present invention.
16 is a block diagram showing a detailed configuration of a control device according to an embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Therefore, those skilled in the art can implement various principles included in the concept and scope of the invention and implement the principles of the invention, although not explicitly described or illustrated in the specification. In addition, all the conditional terms and examples listed in this specification are intended to be understood in principle only for the purpose of understanding the concept of the invention, and should be understood as not limited to the examples and states specifically listed in this way. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-described objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, and accordingly, those skilled in the art to which the invention pertains can easily implement the technical spirit of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in the description of the invention, when it is determined that the detailed description of the known technology related to the invention may unnecessarily obscure the subject matter of the invention, the detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명은 생략한다.The above-described objects, features and advantages of the present invention will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, the present invention can be modified in various ways and can have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail. Throughout the specification, the same reference numbers refer to the same components in principle. In addition, when it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 본 발명과 관련된 전자 기기 및 서버의 구성에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는, 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.Hereinafter, a configuration of an electronic device and a server related to the present invention will be described in more detail with reference to the drawings. The suffixes "modules" and "parts" for components used in the following description are given or mixed only in consideration of the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves.

본 명세서에서 설명되는 전자 기기에는 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistant), PMP(Portable Multi-media Player), 내비게이션 단말기 등이 포함될 수 있다. 이하에서는 설명의 편의를 위하여 상기 전자 기기를 내비게이션 단말기로 가정하여 설명한다.Electronic devices described herein may include mobile phones, smart phones, notebook computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multi-media players (PMPs), and navigation terminals. have. Hereinafter, for convenience of description, it is assumed that the electronic device is a navigation terminal.

교통 관련 영상은, 사용자 디바이스 및 기타 장치(예를 들어, CCTV 등)로부터 수집되는 교통 영상으로써, 도로 정체 정보, 노면 상태 정보, 사고 정보, 유고 정보 등을 포함하는 정지 영상, 동영상을 포함하는 영상 데이터일 수 있다.The traffic-related video is a traffic video collected from a user device and other devices (for example, CCTV, etc.), and includes still images and video including road congestion information, road surface status information, accident information, and height information. It can be data.

이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하여 본 발명의 일 실시예에 따른 전자 기기(10)에 대하여 설명한다.An electronic device 10 according to an embodiment of the present invention will be described with reference to FIG. 1.

도 1은, 본 발명의 일 실시예에 따른 전자 기기(10)의 블록 구성도이다.1 is a block diagram of an electronic device 10 according to an embodiment of the present invention.

본 실시예에서 전자 기기(10)는 영상 입력부(12), 영역 설정부(14), 차량 검출부(16) 및 차량 추적부(18)를 포함할 수 있다.In this embodiment, the electronic device 10 may include an image input unit 12, a region setting unit 14, a vehicle detection unit 16, and a vehicle tracking unit 18.

영상 입력부(12)는 차량의 주행 중 촬영된 영상을 입력 받는다.The image input unit 12 receives an image captured while driving the vehicle.

영상 입력부(12)는 전자 기기(10)에 포함된 카메라 모듈로 직접 촬영된 전방 이미지를 입력 받을 수 있다. 또는 외부의 적어도 하나의 카메라(미도시)로부터 직접 차량의 주행과 관련된 영상을 수신하는 것도 가능하다. 예를 들어, 전자 기기(10)가 차량의 내비게이션 장치로 동작하는 경우에는 차량의 블랙박스 장치에서 촬영된 영상을 영상 입력부(12)가 수신하여 입력 받을 수 있다. The image input unit 12 may receive a front image photographed directly by a camera module included in the electronic device 10. Alternatively, it is possible to directly receive an image related to driving of the vehicle from at least one external camera (not shown). For example, when the electronic device 10 operates as a navigation device of a vehicle, the image input unit 12 may receive and input an image captured by the vehicle black box device.

구체적으로, 본 실시예에서 영상 입력부(12)가 획득하는 영상은 연속하여 촬영되는 동영상일 수 있다. 즉 미리 결정된 초당 프레임의 비율로 전방 이미지들을 입력 받을 수 있다. 또한 이때 전방 이미지를 입력 받는 프레임 비율은 차량의 속도, 주변 환경의 날씨 등 다양한 조건들에 의해 변경될 수 있다.Specifically, in this embodiment, the image acquired by the image input unit 12 may be a continuously photographed video. That is, it is possible to receive front images at a predetermined frame rate per second. In addition, at this time, the frame rate of receiving the front image may be changed by various conditions such as the speed of the vehicle and the weather in the surrounding environment.

영역 설정부(14)는 상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정한다.The region setting unit 14 sets a search region of the vehicle in a target image based on a location of the vehicle or a vehicle region detected in a previous image among the front images.

영역 설정부(14)는 후술하는 차량 검출부(16)가 입력된 전방 이미지의 전체를 대상으로 차량을 검색하는 대신 차량이 존재할 것으로 예상되는 영역을 미리 설정하고, 설정된 영역 내에서 차량을 검출할 수 있도록 한다.The region setting unit 14 may set a region in which a vehicle is expected to exist in advance, instead of searching the vehicle for the entire front image input by the vehicle detection unit 16 to be described later, and detect the vehicle within the set region. To make.

구체적으로 영역 설정부(14)는 이전 이미지에서 검출된 차량의 정보를 이용할 수 있다.Specifically, the region setting unit 14 may use the information of the vehicle detected in the previous image.

일반적으로 초당 30프레임 정도의 비율로 영상이 입력되는 경우 차량의 속도를 고려하더라도 전방 차량의 움직임이 매우 크지 않은 이상은 이전 이미지에 존재하였던 위치를 기준으로 일정 영역 안에 여전히 전방 차량이 포함될 수 있다.In general, when an image is input at a rate of about 30 frames per second, even if the vehicle speed is considered, the front vehicle may still be included in a predetermined area based on the location existing in the previous image, unless the movement of the front vehicle is very large.

따라서, 영역 설정부(14)는 이전 이미지에서 검출된 차량의 위치를 기준으로 다음 이미지의 차량을 검출할 후보 영역을 설정할 수 있다.Accordingly, the region setting unit 14 may set a candidate region to detect the vehicle in the next image based on the location of the vehicle detected in the previous image.

또한, 검출된 차량의 영역을 이용하여 후보 영역을 설정하는 것도 가능하다. It is also possible to set the candidate area using the detected area of the vehicle.

구체적으로 본 실시예에서는 검출된 차량의 영역을 통해 전방 차량의 크기를 파악하고 크기를 기준으로 폭과 높이를 확장하여 검색 영역을 설정할 수 있다.Specifically, in this embodiment, the size of the front vehicle can be determined through the detected vehicle area, and the search area may be set by expanding the width and height based on the size.

차량 검출부(16)는 설정된 검색 영역에서 차량을 기계 학습(Machine Learning) 모델에 따라 검출한다. The vehicle detection unit 16 detects a vehicle in a set search area according to a machine learning model.

구체적으로 차량 검출의 처리 속도를 높이기 위해 적응적 검출영역을 생성하는 방법으로 Haar 알고리즘을 학습 방법으로 차량을 검출하고, 검출된 이후부터는 검출된 차량의 영역을 확장하여 다음 이미지의 검출 영역으로 사용할 수 있다.Specifically, as a method of generating an adaptive detection area to speed up the processing of vehicle detection, the Haar algorithm is used to detect the vehicle, and after detection, the area of the detected vehicle can be expanded to be used as the detection area of the next image. have.

본 실시예에서 학습 방법으로 이용하는 Haar 알고리즘은 특정 피쳐(feature)는 명암의 차가 있다는 이론으로써 이미지에서 영역과 영역의 밝기 차를 이용하여 특징을 찾아내는 방법으로, 본 실시예에서는 차량의 특징적인 밝기 차를 학습하고 이를 통해 피쳐를 찾아 내어 전방 차량을 검출할 수 있다.The Haar algorithm used as a learning method in this embodiment is a method of finding a feature by using a difference in brightness between a region and an area in an image as a theory that a specific feature has a difference in contrast, and in this embodiment, a characteristic brightness difference of a vehicle By learning and finding features through this, it is possible to detect a vehicle in front.

본 실시예에서 전방 차량의 검출을 위한 학습에 이용되는 알고리즘은 Haar외에 다양한 영상 처리 방법이 이용될 수 있으며, HOG(Histogram of Oriented Gradient)와 LBP(Local Bit Pattern) 특징점 추출 방법이 이용될 수 있다. 또한 학습 알고리즘으로는 Adaboost와 SVM(Support Vector Machine) 알고리즘이 적용될 수 있다.In this embodiment, various image processing methods other than Haar may be used as an algorithm used for learning to detect a vehicle in front, and a method of extracting a feature point of Histogram of Oriented Gradient (HOG) and Local Bit Pattern (LBP) may be used. . In addition, Adaboost and SVM (Support Vector Machine) algorithms can be applied as learning algorithms.

다만 본 실시예에 따른 검출 방법은 기계 학습에 의한 검출만으로 차량 추적을 하는 경우 발생할 수 있는 문제를 보완하기 위하여 미검출 시 특징점(Feature Point) 기반의 차량 추적을 통해 차량 검출이 끊김 없이 연속될 수 있도록 한다.However, in the detection method according to the present embodiment, in order to compensate for a problem that may occur when the vehicle is tracked only by detection by machine learning, vehicle detection may be continuously performed through the feature point-based vehicle tracking when not detected. To make.

따라서, 차량 추적부(18)는 타겟 이미지에서 설정된 검색 영역 내에서 차량 검출이 실패한 경우에는 이전 전방 이미지, 또는 이전 전방 이미지의 차량 영역에서 특징점을 추출하여 광학 흐름(optical flow)를 이용해 차량 영역을 추적할 수 있다. Accordingly, the vehicle tracking unit 18 extracts a feature point from the previous front image or the vehicle area of the previous front image when the vehicle detection fails within the search area set in the target image, and uses the optical flow to extract the vehicle area. Can be traced.

이때, 본 실시예에서 차량 검출부(16)는 도 8을 참조하면 차량 추적부(18)의 차량 영역의 추적과 동시에 기계 학습 기반의 차량 검출도 지속하여 진행할 수 있다.At this time, in the present embodiment, referring to FIG. 8, the vehicle detection unit 16 may continuously track the vehicle area of the vehicle tracking unit 18 and continue to perform machine learning-based vehicle detection.

즉, 차량 추적부(18)의 추적과정은 차량 검출부에서 차량 검출이 성공하면 멈추게 되고 검출된 차량 영역으로 적응적 검색 영역을 설정하며 계속하여 차량 검출을 수행한다.That is, the tracking process of the vehicle tracking unit 18 stops when the vehicle detection is successful in the vehicle detection unit, sets an adaptive search region as the detected vehicle region, and continuously performs vehicle detection.

또한, 차량 추적부(18)는 광학 흐름을 이용하여 전방 차량의 움직임을 추적할 수 있다. In addition, the vehicle tracking unit 18 may track the movement of the vehicle in front using the optical flow.

이하, 도 2 내지 4를 참고하여 본 발명의 일 실시예에 따른 차량 검출 방법에 대하여 보다 상세히 설명한다.Hereinafter, a vehicle detection method according to an embodiment of the present invention will be described in more detail with reference to FIGS. 2 to 4.

도 2는 본 실시예에 따른 차량 검출 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a vehicle detection method according to the present embodiment.

도 2를 참조하면 영상 입력부는 연속하여 촬영된 전방 이미지를 입력 받는다(S10).Referring to FIG. 2, the image input unit receives a continuously photographed front image (S10).

영상 입력부(12)는 카메라 모듈을 통해 촬영된 전방 이미지를 결정된 프레임 비율에 따라 입력 받는다. The image input unit 12 receives the front image photographed through the camera module according to the determined frame rate.

예를 들어 초당 30프레임의 비율로 촬영된 전방 이미지를 연속하여 입력 받을 수 있으며, 영상의 입력 받는 프레임 비율이 설정된 경우, 설정된 프레임 비율에 따라 촬영된 전방 이미지를 입력 받을 수 있다.For example, a front image photographed at a rate of 30 frames per second may be continuously input, and when a frame rate for receiving an image is set, a front image photographed according to the set frame rate may be input.

영역 설정부(14)는 연속하여 입력된 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정한다(S20).The region setting unit 14 sets the search region of the vehicle in the target image based on the location of the vehicle or the vehicle region detected from the previous image among the continuously input front images (S20 ).

본 실시예에서 이전 이미지는 입력된 전방 이미지 중 적어도 하나의 이미지일 수 있으며, 단일 이미지뿐만 아니라 복수의 이미지를 포함할 수 있다. In this embodiment, the previous image may be at least one of the input front images, and may include a plurality of images as well as a single image.

또한 타겟 이미지는 입력된 전방 이미지 중 객체의 추출의 대상이 되는 이미지 일 수 있다. Also, the target image may be an image that is an object of extraction of an object from among the input front images.

본 실시예에서 영역 설정부(14)는 이전 이미지에서 차량이 검출되면 차량의 위치 또는 차량으로 인식된 영역을 기반하여 검색 영역을 설정할 수 있으며 이때 설정된 검색 영역을 타겟 이미지에 적용시킬 수 있다In this embodiment, when the vehicle is detected in the previous image, the region setting unit 14 may set the search region based on the location of the vehicle or the region recognized as the vehicle, and then apply the set search region to the target image.

구체적으로 도 3을 참조하면, 영역 설정부(14)는 전방 이미지가 입력되면 적응적 검색 영역이 존재하는지 여부를 먼저 확인할 수 있다(S22).Specifically, referring to FIG. 3, when the front image is input, the area setting unit 14 may first check whether an adaptive search area exists (S22).

영역 설정부(14)는 이전의 전방 이미지에 대한 차량 검출이 성공한 경우 이전의 전방 이미지에서 검출된 차량의 정보에 따라 검색 영역을 적응적으로 확장하여 검색 영역을 생성하고, 다음의 타겟 전방 이미지로부터 차량을 검색할 영역으로 설정할 수 있다.The region setting unit 14 adaptively expands the search region according to the information of the vehicle detected in the previous front image when the vehicle detection for the previous front image is successful, generates a search region, and from the next target front image You can set the vehicle as a search area.

따라서, 적응적 검색 영역의 존재의 여부를 확인하고(S22), 존재하는 경우 차량의 검출을 위한 영역으로 설정할 수 있다(S24). Accordingly, it is possible to check whether an adaptive search area exists (S22), and if so, it can be set as an area for detecting a vehicle (S24).

검색 영역이 설정되면 차량 검출부(16)는 검색 영역에서 기계 학습 모델에 따라 차량을 검출한다(S30). When the search area is set, the vehicle detection unit 16 detects the vehicle according to the machine learning model in the search area (S30).

도 3을 참조하면 차량을 검출하는 단계(S30)는 전방 이미지의 검색 영역 내에서 차량을 검출한다. 기계 학습 모델에 따라 전방 차량의 이미지 정보를 학습하고 이에 대응되는 객체를 검색 영역 내에서 검출하고, 객체를 전방 차량으로 인식할 수 있다.Referring to FIG. 3, the step of detecting a vehicle (S30) detects the vehicle within the search area of the front image. According to the machine learning model, image information of a vehicle in front may be learned, an object corresponding thereto may be detected in a search area, and the object may be recognized as a vehicle in front.

또한, 본 실시예에서는 차량을 검출하기 위한 후보 영역을 설정할 때, 그 후보 영역을 검출된 차선을 이용하여 설정할 수 있다(S23). 즉, 본 실시 예에서는 전방 이미지에서 차량을 검출하기 위한 후보 영역을 설정할 때, 그 영역의 범위로 검출된 차선에 따른 진행 차로를 검출 대상 영역으로 설정함으로써, 효율적이고 신속하게 차량을 검출할 수 있다. Further, in this embodiment, when setting a candidate area for detecting a vehicle, the candidate area can be set using the detected lane (S23). That is, in the present embodiment, when setting a candidate area for detecting a vehicle from the front image, it is possible to efficiently and quickly detect the vehicle by setting the traveling lane along the lane detected as the range of the region as the detection target region. .

차선은 차량에 비해 단순하고 일정한 형상으로 정의될 수 있으므로, 보다 쉽게 이미지 내에서 검출될 수 있으며, 차량 검출부(16)는 검출된 차선을 이용하여 차량을 검출하는 것도 가능하다(S30).Since the lane can be defined as a simpler and more uniform shape than the vehicle, it can be more easily detected in the image, and the vehicle detector 16 can also detect the vehicle using the detected lane (S30).

본 실시예에서 검출되는 차량은 전방 차량을 타겟으로 할 수 있으므로 현재 차량이 주행 중인 차로 내의 차량을 전방 차량으로 검출할 수 있도록 차선을 이용할 수 있다. The vehicle detected in this embodiment may target a front vehicle, so a lane may be used to detect a vehicle in a lane in which the current vehicle is running as a front vehicle.

일반적으로 검출 된 차로 내에 차량이 존재하므로 영역 설정부(14)는 검색 영역의 설정을 진행 차로 내로 결정할 수 있다.Generally, since a vehicle is present in the detected lane, the area setting unit 14 may determine the setting of the search area into the progress lane.

나아가, 본 실시예에서 적응적 검색 영역은 적응적으로 차량의 크기를 고려하여 확대 설정될 수 있으므로 차량의 크기를 판단하기 위해 차선과의 차량의 비율을 고려하는데 이용될 수 있다.Furthermore, in this embodiment, the adaptive search area can be adaptively set in consideration of the size of the vehicle, and thus can be used to consider the ratio of the vehicle to the lane to determine the size of the vehicle.

차선의 폭은 일반적인 도로의 기준에 따라 미리 규격화되어 결정될 수 있으므로, 결정된 차선의 폭에서 차량의 너비의 비율을 통해 차량의 종류를 판단하고 이를 통해 검색 영역의 설정에 이용할 수 있다. Since the width of the lane can be determined by being standardized in advance according to the standard of the general road, it is possible to determine the type of the vehicle through the ratio of the width of the vehicle to the determined lane width and use it to set the search area.

차량 검출부(16)는 미리 생성된 적응적 검색 영역이 존재하지 않는 경우에는 검색 영역의 설정 없이 전방 이미지로부터 차량을 기계 학습 모델에 따라 검출할 수 있다(S30).The vehicle detection unit 16 may detect the vehicle from the front image according to the machine learning model without setting the search region when the previously generated adaptive search region does not exist (S30 ).

예를 들어, 사용자가 본 실시예에 따른 전방 차량의 검출 기능을 활성화시킨 경우, 최초 활성화 시점에는 이전의 검색 영역이 생성된 바가 없으므로 전방 이미지 전체를 이용하여 전방 차량을 검출할 수 있다.For example, when the user activates the detection function of the front vehicle according to the present embodiment, since the previous search area has not been generated at the initial activation time, the front vehicle can be detected using the entire front image.

또는, 상술한 바와 같이 전방 이미지 내 차선의 정보를 이용하여 검색 영역을 일부 한정하여 최초 전방 차량의 검출에 이용할 수 있다. Alternatively, as described above, the search area may be partially limited by using the lane information in the front image to be used for the detection of the first front vehicle.

또는, 전방 이미지의 소실점을 기준으로 도로 영역을 인식하고 해당 영역 내에서 전방 차량을 검출하도록 하는 것도 가능하다. Alternatively, it is possible to recognize a road area based on the vanishing point of the front image and to detect a vehicle ahead in the area.

또한, 검색 영역이 존재하지 않고 최초의 전방 이미지로부터 차량을 검출하는 경우에는 전체 이미지로부터 배경 영역과 도로 영역을 구분하고, 도로 영역에 대해서는 차량이 주행하는 주행 차선을 먼저 검출하고 차로 내에 위치하는 객체를 전방 차량으로 검출하는 것도 가능하다. In addition, when the search area does not exist and the vehicle is detected from the first front image, the background area and the road area are distinguished from the entire image, and for the road area, the driving lane in which the vehicle travels is first detected and the object located in the lane It is also possible to detect as a vehicle in front.

차량 검출부(16)가 최초의 전방 이미지 전체로부터 차량을 검출한 경우, 영역 설정부(14)는 이전 이미지에서 검출 된 차량을 기준으로 생성 된 적응적 검색 영역을 이용하여 차량을 검출하고자 하는 타겟 이미지의 검색 영역을 설정할 수 있다.When the vehicle detection unit 16 detects a vehicle from the entire first front image, the region setting unit 14 is a target image to detect a vehicle using an adaptive search region generated based on the vehicle detected in the previous image You can set the search area.

나아가, 본 실시예에서 차량 검출부(16)는 차량의 검출 여부를 판단할 수 있다.Furthermore, in this embodiment, the vehicle detection unit 16 may determine whether to detect the vehicle.

즉, 검색 영역이 존재하더라도 다른 광학적 요인이나, 주변 환경의 변화, 또는 기타 오류에 의해 차량이 검출되지 않는 경우가 발생할 수 있다.That is, even if the search area is present, a vehicle may not be detected due to other optical factors, changes in the surrounding environment, or other errors.

따라서, 본 실시예에서 차량 검출 방법은 전방 차량이 검출 되지 않는 경우, 차량 추적을 통해 차량 검출이 연속되도록 할 수 있다. Therefore, in the present embodiment, the vehicle detection method may enable vehicle detection to be continued through vehicle tracking when a front vehicle is not detected.

전방 차량의 검출은 전방 추돌 상황과 같이 안전 운전을 위한 보조 기능으로 수행될 수 있는데 전방 차량이 존재함에도 불구하고, 전방 차량의 검출에 실패하여 전방 차량이 존재하지 않는 것으로 오인식하게 되면, 잘못된 운행 정보를 사용자에게 제공해 줄 수 있으므로, 본 실시예에 따른 차량 검출 방법은 기능의 안정성을 높이기 위해서 기계 학습 모델에 따라 차량이 검출되지 않는 경우에 보조적으로 차량 검출이 수행될 수 있는 방법을 제안한다.The detection of the front vehicle may be performed as an auxiliary function for safe driving, such as in a front collision situation. If the front vehicle is present, and the detection of the front vehicle fails and the user recognizes that the front vehicle does not exist, incorrect driving information is generated. Since it can be provided to the user, the vehicle detection method according to the present embodiment proposes a method in which vehicle detection can be performed when the vehicle is not detected according to the machine learning model in order to increase the stability of the function.

도 4a를 참조하여 보다 상세히 설명하면, 차량을 검출하는 단계(S30)는 전방 차량의 검출의 성공 여부를 확인하고(S32), 검출이 성공한 경우에는 검출된 차량의 정보를 통해 적응적으로 검색 영역을 생성할 수 있다(S34).Referring to FIG. 4A in more detail, the step of detecting a vehicle (S30) confirms whether or not the detection of the vehicle in front is successful (S32), and if detection is successful, an adaptive search area through information of the detected vehicle Can be generated (S34).

하지만, 차량의 검출이 기계 학습 모델에 의해 실패한 경우에는 부가적으로 차량 추적부(18)가 차량 특징점을 추가적으로 이용하여 차량을 계속하여 추적할 수 있다. However, when the detection of the vehicle fails due to the machine learning model, the vehicle tracking unit 18 may additionally use the vehicle feature point to continuously track the vehicle.

따라서 추적하는 단계(S40)는, 기계 학습 모델에 의한 차량 검출에 실패한 경우 차량 추적부(18)는 이전에 추출된 차량의 이미지로부터 특징점이 존재하는지를 먼저 확인할 수 있다(S42).Therefore, in the step of tracking (S40 ), when the vehicle detection by the machine learning model fails, the vehicle tracking unit 18 may first check whether a feature point exists from an image of the previously extracted vehicle (S42 ).

본 실시예에서 특징점은 광학적으로 특징을 가지는 이미지의 한 픽셀 또는 복수의 픽셀로 구성되는 일 영역일 수 있다. 예를 들어서 최근까지 검출된 전방 차량의 이미지로부터 기준값 이상의 밝기를 갖거나 주변 객체와 비교하여 구분될 수 있는 특징값을 가지는 영역을 특징점으로 이용할 수 있다.In this embodiment, the feature point may be an area composed of one pixel or a plurality of pixels of an optically characteristic image. For example, an area having a brightness higher than a reference value or a feature value that can be distinguished from surrounding objects from an image of a vehicle detected until recently can be used as a feature point.

또한, 특징점은 연속하여 입력되는 전방 이미지의 차량 영역에서 변화가 적은 값으로 설정될 수 있다.Also, the feature point may be set to a value with little change in the vehicle area of the continuously input front image.

즉, 차량 추적부(18)는 주변의 다른 객체와는 구분되고 차량 내에서는 특징값의 변화가 적은 영역을 특징점으로 설정할 수 있다.That is, the vehicle tracking unit 18 may be set as a feature point in a region that is distinguished from other surrounding objects and has a small change in feature values in the vehicle.

이상의 조건을 만족하는 특징점이 미리 설정되어 존재하는 경우에는 특징점의 광학적 흐름(Optical Flow)를 이용하여 차량 영역을 추적할 수 있다(S44).When a feature point that satisfies the above conditions is preset and exists, the vehicle area may be tracked using the optical flow of the feature point (S44).

만약 미리 설정된 특징점이 존재하지 않는 경우에는 이전 전방 이미지의 적응적 검색 영역 내에서 특징점을 추출하고(S46), 후속하여 입력되는 전방 이미지 내의 광학적 흐름에 따라 이전 이미지에서 추출된 특징점을 추적하여 차량을 인식할 수 있다(S44). If the preset feature point does not exist, the feature point is extracted from the adaptive search area of the previous front image (S46), and the feature point extracted from the previous image is tracked according to the optical flow in the subsequently input front image. It can be recognized (S44).

이상에서 상술한 차량의 검출 또는 추적 과정은 전방 이미지의 연속적인 입력(S10)에 따라 반복적으로 수행될 수 있다.The above-described detection or tracking process of the vehicle may be repeatedly performed according to the continuous input S10 of the front image.

본 실시예에서 차량 추적부(18)는 검출된 차량의 신뢰도를 기준 값과 비교하여 차량의 검출이 실패한 경우를 판단할 수 있다. 즉 기계 학습 모델에 의해 차량이 검출되더라도 이전 차량의 이미지와 비교하여 신뢰도가 낮은 경우에는 특징점을 이용하여 차량을 추적하는 것도 가능하다. In this embodiment, the vehicle tracking unit 18 may compare the reliability of the detected vehicle with a reference value to determine a case where detection of the vehicle has failed. That is, even if the vehicle is detected by the machine learning model, it is possible to track the vehicle using the feature point when the reliability is low compared to the image of the previous vehicle.

본 실시예에서 신뢰도는 차량 추적부(18)의 차량 추적의 수행 여부를 결정하기 위한 기준으로 차량 검출부(16)에서 영상에서 검출된 객체가 차량인지 여부를 차량 추적부(18)가 판단하여 차량의 추적 수행 여부를 결정할 수 있다.In this embodiment, the reliability is a reference for determining whether the vehicle tracking unit 18 performs vehicle tracking or not, and the vehicle tracking unit 18 determines whether the object detected in the image by the vehicle detection unit 16 is a vehicle. You can decide whether to perform tracking.

예를 들어, 차량 검출부(16)에서 검출된 이미지 내의 객체가 전방 차량인지를 미리 결정된 차량 판단 기준(예를 들어 객체의 크기, 형상, 색상 또는 이전 이미지 내의 객체와의 일치도 등)과 비교하여 기준에 일치하는 정도를 인식된 객체의 신뢰도로 판단할 수 있다. 따라서 차량 추적부(18)는 검출된 객체의 신뢰도가 예를 들어 50% 미만인 경우에는 차량의 검출에 실패한 것으로 판단하고 차량의 추적을 수행할 수 있다.For example, a criterion by comparing whether an object in the image detected by the vehicle detection unit 16 is a front vehicle with a predetermined vehicle determination criterion (for example, an object's size, shape, color, or consistency with an object in the previous image). The degree of coincidence with can be determined by the reliability of the recognized object. Therefore, the vehicle tracking unit 18 may determine that the detection of the vehicle has failed when the reliability of the detected object is less than 50%, for example, and may perform tracking of the vehicle.

또한, 본 실시예에서 이미지 내 검출된 객체의 신뢰도 판단을 차량 검출부(16)가 직접 수행하는 것도 가능하다. 따라서 차량 검출부(16)가 검출된 객체의 차량에 대한 신뢰도를 판단하고, 기준 이하인 경우 차량 검출에 실패한 것으로 판단 결과를 차량 추적부(18)로 전달하여 차량 추적부(18)에 의한 차량 추적이 수행되도록 하는 것도 가능하다.In addition, in this embodiment, it is also possible for the vehicle detection unit 16 to directly determine the reliability of the detected object in the image. Therefore, the vehicle detection unit 16 determines the reliability of the detected object to the vehicle, and if it is below the standard, the vehicle tracking unit 18 transfers the determination result to the vehicle tracking unit 18 to determine that the vehicle has failed. It is also possible to have it performed.

다만, 본 실시예에 따른 차량 검출 방법은 차량을 검출하는 단계(S30)에서 검출에 실패하여 특징점을 이용하여 차량을 추적하는 단계(S40)가 동작하게 되더라도, 차량을 검출하는 단계(S30)의 기계 학습 모델에 의한 차량의 검출이 지속적으로 수행되도록 한다. However, in the vehicle detection method according to the present embodiment, even if the operation of tracking the vehicle using the feature point fails because the detection fails in step S30 of detecting the vehicle (S40), the operation of detecting the vehicle (S30) The detection of the vehicle by the machine learning model is continuously performed.

즉, 본 실시예에서 차량 검출 방법은 기계 학습 모델에 따른 차량 검출 수행을 기본으로 설정하되, 기계 학습 모델에 따른 차량 검출에 실패한 경우에도 지속적으로 전방 차량의 움직임을 인식하기 위하여 부가적으로 광학 흐름에 따른 차량 추적이 수행되도록 할 수 있다.That is, in the present embodiment, the vehicle detection method is basically set to perform vehicle detection according to the machine learning model, but additionally an optical flow to continuously recognize the movement of the front vehicle even when vehicle detection according to the machine learning model fails. Vehicle tracking according to can be performed.

따라서, 지속적으로 기계 학습 모델에 따른 차량 검출을 수행하는 중에 차량 검출에 실패할 경우, 광학 흐름에 따른 차량 추적을 추가로 수행하고, 다시 기계 학습 모델에 따른 차량 검출에 성공한 경우에는 광학 흐름에 따른 차량 추적을 중지하고 기계 학습 모델에 따른 차량 검출 동작 만을 수행하도록 할 수 있다.Accordingly, if vehicle detection fails while continuously performing vehicle detection according to the machine learning model, vehicle tracking according to the optical flow is additionally performed, and when vehicle detection according to the machine learning model is successful again, according to the optical flow It is possible to stop vehicle tracking and perform only the vehicle detection operation according to the machine learning model.

또한, 본 실시예에서 차량을 검출하는 단계(S30)가 차량을 추적하는 단계(S40)와 함께 수행될 때에는 차량의 추적 결과를 더욱 이용할 수 있다.In addition, when the step of detecting a vehicle in this embodiment (S30) is performed together with the step of tracking a vehicle (S40), the vehicle tracking result may be further used.

즉, 차량을 검출하는 단계(S30)는 차량 검출의 성공률을 높이기 위하여 적응적 검색 영역을 설정할 때 차량의 추적 과정에서 판단된 특징점의 정보를 이용할 수 있다.That is, in the step of detecting the vehicle (S30 ), when setting the adaptive search area to increase the success rate of the vehicle detection, information on the feature points determined in the tracking process of the vehicle may be used.

구체적으로 차량을 검출하는 단계(S30)는 복수의 이전 이미지들로부터 상기 차량의 특징점의 움직임 벡터를 획득할 수 있다. Specifically, in the step of detecting a vehicle (S30 ), a motion vector of a feature point of the vehicle may be obtained from a plurality of previous images.

즉, 영역 설정부(14)는 광학 흐름을 움직임 벡터로 산출하고 이전 이미지에서 생성되었던 적응적 검색 영역에 움직임 벡터를 반영할 수 있다. That is, the region setting unit 14 may calculate the optical flow as a motion vector and reflect the motion vector in the adaptive search region generated in the previous image.

따라서 영역을 설정하는 단계(S20)는 상기 움직임 벡터와 상기 검색 영역에 기초하여 수정 검색 영역을 생성할 수 있다. 구체적으로 움직임 벡터의 크기와 방향에 따라 검색 영역의 확장 값을 결정하고 수정 검색 영역을 생성할 수 있다.Therefore, in the step of setting an area (S20 ), a corrected search area may be generated based on the motion vector and the search area. Specifically, an extended value of the search area may be determined according to the size and direction of the motion vector, and a modified search area may be generated.

이후, 차량을 검출하는 단계(S30)는 수정 검색 영역 내에서 차량 검출을 기계 학습 모델에 따라 수행하고 차량의 검출 확률을 더욱 높일 수 있다. Thereafter, the step of detecting the vehicle (S30) may perform vehicle detection in the modified search area according to the machine learning model and further increase the detection probability of the vehicle.

추가적으로 본 실시예에서 차량을 검출하는 단계(S30)에서 기계 학습 모델에 따라 차량을 검출하는 경우 차량의 크기 또는 전방 차량과의 거리 특성에 따라 분리 학습된 분류기를 이용하는 것도 가능하다.In addition, when detecting a vehicle according to a machine learning model in step S30 of detecting a vehicle in the present embodiment, it is also possible to use a classifier separately learned according to a size of a vehicle or a distance characteristic from a vehicle in front.

구체적으로 기계학습에 따른 차량 검출 성능을 높이기 위해 차량의 이미지를 보관하는 데이터베이스를 일반 승용차량과 대형차량으로 구분하여 학습한 후 만들어진 분류기들을 사용할 수 있다.Specifically, in order to improve vehicle detection performance according to machine learning, classifiers created after learning a database storing an image of a vehicle into a general passenger vehicle and a large vehicle may be used.

또한, 추가적으로 근거리 차량 검출을 높이기 위해 차량 전체 이미지가 아닌 후미등 쪽의 이미지 만을 학습한 분류기를 사용하는 것도 가능하다.In addition, it is also possible to use a classifier that learns only the image of the tail light side, not the entire vehicle image, in order to further increase the detection of a short-distance vehicle.

도 4b를 참고하면, 본 실시예에서는 3가지 분류기를 학습시킬 수 있다.Referring to FIG. 4B, in this embodiment, three classifiers can be trained.

예를 들어 제1 분류기(16a)는 제1 차량 이미지(12a)를 이용하여 학습될 수 있다.For example, the first classifier 16a may be trained using the first vehicle image 12a.

구체적으로 제1 차량 이미지(12a)는 일반 승용차의 이미지로써 제1 분류기(16a)는 일반 승용차의 이미지를 이용하여 기계 학습을 수행하고, 일반 승용차에 대한 분류 성능을 높일 수 있다.Specifically, the first vehicle image 12a is an image of a general passenger car, and the first classifier 16a can perform machine learning using the image of a general passenger car and improve classification performance for the general passenger car.

제2 분류기(16b)는 제2 차량 이미지(12b)를 이용하여 학습될 수 있다.The second classifier 16b may be trained using the second vehicle image 12b.

이때, 제2 차량 이미지(12b)는 제1 차량 이미지(12a)와 달리 대형 차량으로 버스나 트럭과 같은 차량의 후방 이미지일 수 있다.At this time, the second vehicle image 12b is a large vehicle unlike the first vehicle image 12a and may be a rear image of a vehicle such as a bus or a truck.

따라서 제2 차량 이미지(12b)로 학습된 제2 분류기(16b)는 대형 차량에 대한 분류 성능이 높을 수 있다.Therefore, the second classifier 16b learned from the second vehicle image 12b may have high classification performance for a large vehicle.

추가적으로 제3 분류기(16c)는 차량의 크기가 아닌 전방 차량과의 거리에 따른 특징을 고려하여 별도로 학습될 수 있다.Additionally, the third classifier 16c may be separately learned in consideration of characteristics according to the distance from the vehicle in front of the vehicle, not the size of the vehicle.

즉, 매우 근거리에 위치하는 차량에 대하여 획득된 제3 차량 이미지(12c)는 제1 차량 이미지(12a)와 제2 차량 이미지(12b)와 같은 전체 차량의 이미지가 아닌 일부 영역에 대한 정보만을 포함할 수 있다.That is, the third vehicle image 12c obtained for a vehicle located at a very short distance includes only information on a partial area, not an image of the entire vehicle, such as the first vehicle image 12a and the second vehicle image 12b. can do.

따라서, 본 실시예에서는 일부 영역만을 포함하는 별도의 이미지를 학습 이미지로 이용하여 제3 분류기(16c)를 학습 시킬 수 있다.Therefore, in this embodiment, the third classifier 16c may be trained by using a separate image including only a partial region as a learning image.

이상의 과정을 통해 차량 별 크기 또는 전방 차량과의 거리에 따른 이미지 특징에 따라 개별적으로 학습된 분류기를 이용하여 보다 정확하게 차량을 검출할 수 있다.Through the above process, it is possible to more accurately detect a vehicle using a classifier individually learned according to image characteristics according to a size of each vehicle or a distance from a vehicle in front.

구체적인 차량의 검출 방법에 대하여 도 4c를 참조하여 보다 상세히 설명한다.A specific vehicle detection method will be described in more detail with reference to FIG. 4C.

상술한 차량을 검출하는 단계(S30)가 기계 학습된 분류기를 이용하여 검출을 수행하는 경우, 개별적으로 학습된 복수의 분류기를 순차적으로 이용할 수 있다.When the step (S30) of detecting the above-described vehicle performs detection using the machine-trained classifier, a plurality of individually trained classifiers may be sequentially used.

따라서, 먼저 제1 분류기 기반의 검출을 수행한다(S1000).Therefore, first, the first classifier-based detection is performed (S1000).

검출 결과를 확인하고(S1010), 제1 차량 이미지에 따라 학습된 제1 분류기로 제1 차량이 검출된 경우, 검출에 성공하였으므로 차량을 검출하는 단계(S30)는 종료될 수 있다(S5000).When the detection result is checked (S1010), and the first vehicle is detected by the first classifier learned according to the first vehicle image, since the detection was successful, the step of detecting the vehicle (S30) may end (S5000).

하지만, 제1 차량이 검출되지 않은 경우, 제2 분류기 기반의 검출을 수행한다(S2000).However, when the first vehicle is not detected, the second classifier-based detection is performed (S2000).

검출 결과를 확인하고(S2010), 제2 차량 이미지에 따라 학습된 제2 분류기로 제2 차량이 검출된 경우, 검출에 성공하였으므로 차량을 검출하는 단계(S30)는 종료될 수 있다(S5000).하지만, 제2 분류기에 의해서도 제2 차량이 검출되지 않은 경우, 제3 분류기로 검출을 수행한다(S3000).When the detection result is checked (S2010), and when the second vehicle is detected by the second classifier learned according to the second vehicle image, since the detection was successful, the step of detecting the vehicle (S30) may end (S5000). However, when the second vehicle is not detected by the second classifier, detection is performed by the third classifier (S3000).

최종적으로 제3 분류기로 차량이 검출된 경우(S3010), 검출에 성공하였으므로 근거리에 위치하는 제3 차량을 검출하는 단계(S3010)는 종료될 수 있다(S5000).When the vehicle is finally detected by the third classifier (S3010), since the detection is successful, the step of detecting a third vehicle located at a short distance (S3010) may be terminated (S5000).

만약, 제3 분류기에 의해서도 차량이 검출되지 않은 경우, 검출에 실패(S4000)하였으므로 차량을 추적하는 단계(S40)에서 특징점 기반의 차량 추적 과정이 수행될 수 있다.If the vehicle is not detected even by the third classifier, the detection has failed (S4000), so the vehicle tracking process based on the feature point may be performed in step S40 of tracking the vehicle.

또한, 이상의 실시예에서는 각 분류기에 따른 검출 과정이 순차적으로 수행되는 것으로 설명하였으나 병렬 처리가 가능한 경우에 따라서는 동시에 분류기에 입력되고, 분류 결과를 취합하여 최적의 검출 결과를 생성하는 것도 가능하다.Further, in the above embodiments, it has been described that the detection process according to each classifier is performed sequentially, but when parallel processing is possible, it is possible to input the classifiers at the same time, and collect the classification results to generate optimal detection results.

또는 제3 분류기와 같이 근거리에 인접한 차량의 경우 안전 상의 요구에 따라 우선적으로 검출해야 할 필요가 있으므로 제3 분류기에 따른 검출을 우선하여 수행하는 것도 가능하다.Alternatively, in the case of a vehicle adjacent to a short distance, such as a third classifier, it is necessary to preferentially detect according to a safety requirement, so it is possible to preferentially perform detection according to the third classifier.

이하, 도 5 내지 8을 참조하여 본 실시예에 따른 적응적 검색 영역의 설정에 대하여 보다 구체적으로 설명한다. Hereinafter, the setting of the adaptive search area according to this embodiment will be described in more detail with reference to FIGS. 5 to 8.

도 5는 본 발명의 일 실시예에 따라 입력된 전방 이미지(1000)로부터 차량을 검출하는 예를 나타내는 도이다.5 is a diagram illustrating an example of detecting a vehicle from an input front image 1000 according to an embodiment of the present invention.

도 5를 참조하면, 차량 검출부(16)는 입력된 전방 이미지(1000)로부터 차량(1200)을 검출할 수 있다. 본 실시예에서는 적응적 검색 영역 내에서 차량을 검출하나 상술한 바와 같이 최초의 전방 이미지로써 생성된 검색 영역이 존재하지 않는 경우에는 전체 전방 이미지로부터 차량을 검출할 수 있다. Referring to FIG. 5, the vehicle detection unit 16 may detect the vehicle 1200 from the input front image 1000. In this embodiment, the vehicle is detected within the adaptive search area, but as described above, when the search area generated as the first front image does not exist, the vehicle can be detected from the entire front image.

예를 들어, 차량의 검출 기능을 활성화한 최초 시점의 경우에는 적응적 검색 영역이 설정되지 않았으므로 전체 영상에서 전방 차량으로 판단되는 객체를 검출할 수 있다.For example, in the case of the first time when the vehicle's detection function is activated, since the adaptive search area is not set, an object determined to be a front vehicle can be detected from the entire image.

또한 차량 검출부(16)는 상술한 바와 같이 도로 내 차선 정보(1105)를 이용하여 전방 차량을 보다 용이하게 검출할 수 있다.In addition, the vehicle detection unit 16 may more easily detect a front vehicle using the lane information 1105 in the road as described above.

이상의 과정에서 차량이 검출되면 차량 검출부(16)는 차량으로 판단된 객체(1200)의 너비(w)와 높이(h) 정보를 산출할 수 있다. 영역 설정부(14)는 산출된 너비와 높이를 이용하여 적응적 검색 영역을 설정할 수 있다.When a vehicle is detected in the above process, the vehicle detector 16 may calculate width (w) and height (h) information of the object 1200 determined to be a vehicle. The region setting unit 14 may set an adaptive search region using the calculated width and height.

도 6을 참조하면, 본 실시예에서 영역 설정부는 이전 이미지에서 차량(1200)이 존재하는 것으로 판단된 영역(1100)에서 차량의 높이와 너비 값에 따라 검색 영역을 확장하여 전방 이미지 내(1000)에 적응적으로 검색 영역(1300)을 생성할 수 있다.Referring to FIG. 6, in the present embodiment, the area setting unit expands the search area according to the height and width values of the vehicle in the area 1100 in which it is determined that the vehicle 1200 is present in the previous image, so that the area setting unit 1000. To adaptively, the search area 1300 may be generated.

본 실시예에서는 너비의 반 w/2, 높이의 반 h/2만큼 4방으로 확장된 영역을 적응적 검색 영역으로 설정한다. In this embodiment, an area extended by four directions by half w/2 of width and half h/2 of height is set as an adaptive search area.

영역 설정부(14)는 프레임 비율을 고려하여 연속하여 입력된 이미지 내에서 차량의 급격한 속도의 변화가 없는 이상 확장된 적응적 검색 영역 내에 차량이 위치하게 될 것을 가정하고 이에 따라 적응적 검색 영역을 설정할 수 있다. The region setting unit 14 assumes that the vehicle will be located in the extended adaptive search region unless there is a rapid change in the vehicle speed in the continuously input image in consideration of the frame rate, and accordingly sets the adaptive search region. Can be set.

예를 들어 영상 입력부(12)에서 입력 받는 이미지가 초당 30프레임이라고 한다면 전방 차량의 움직임이 아주 크지 않는 이상 이전의 이미지의 영역 범위 안에 포함된다.For example, if the image input from the image input unit 12 is 30 frames per second, the movement of the vehicle in front is included in the range of the previous image unless the movement of the vehicle in front is very large.

따라서, 전방 차량이 처음 출현한 첫 번째 영상에서 차량을 검출하면 검출된 차량 폭 또는 높이에 따라 확대된 검색영역을 설정하고 이 영역은 다음 연속된 영상에서의 차량 검출을 위한 검색영역으로 지정된다. 이 과정이 계속 반복 수행되면 검색영역은 검출된 차량의 크기나 위치에 따라 적응적으로 변화를 갖게 된다.Accordingly, when a vehicle is detected from the first image in which the front vehicle first appears, an enlarged search area is set according to the detected vehicle width or height, and this area is designated as a search area for vehicle detection in the next successive image. If this process is repeatedly performed, the search area adaptively changes according to the size or position of the detected vehicle.

본 실시예에서 설정되는 적응적 검색 영역은 차량의 크기를 기준으로 하되, 입력되는 이미지의 프레임 비율을 이용하여 크기를 결정할 수 있으며 이외에도 차량의 속력, 차량의 주행 방향 등의 정보들을 부가적으로 고려하는 것도 가능하다.The adaptive search area set in this embodiment is based on the size of the vehicle, but the size can be determined using the frame rate of the input image, and additionally considers information such as the speed of the vehicle and the driving direction of the vehicle. It is also possible to do.

예를 들어 전방 차량과의 속도 차이가 큰 경우에는 적응적 검색 영역을 더욱 확대시킬 수 있으며, 차량이 커브를 주행 중이거나 회전하게 되는 경우에도 검색 영역을 확대시킬 수 있다. For example, if the speed difference from the vehicle in front is large, the adaptive search area may be further enlarged, and the search area may be enlarged even when the vehicle is driving or rotating a curve.

나아가, 본 실시예에서 적응적 검색 영역은 커브가 소정 곡률 이상으로 급격한 커브인 경우에는 옆 차선의 차량을 전방 차량으로 인식하는 경우가 발생할 수 있으므로, 적응적 검색 영역과 함께 차선 검출 결과를 활용하여 현재 진행 차로 내에 위치하는 차량을 전방 차량으로 정확히 인식하도록 하는 것도 가능하다. Furthermore, in the present embodiment, the adaptive search area may recognize a vehicle in the next lane as a front vehicle when the curve is a curve that is steeper than a predetermined curvature, so the lane detection result may be used together with the adaptive search area. It is also possible to accurately recognize a vehicle located in the current driving lane as a front vehicle.

이상, 도 7과 같이 차량(1200)이 존재하는 영역(1100)에 따라 적응적 검색 영역(1300)이 설정되면 차량 검출부(16)는 입력된 전방 이미지(1000)의 일부 영역 내에서 차량을 검출하게 된다. As described above, when the adaptive search area 1300 is set according to the area 1100 where the vehicle 1200 is present, the vehicle detection unit 16 detects a vehicle within a partial area of the input front image 1000. Is done.

도 5에 따른 최초 전방 차량 검출에 이용되는 전방 이미지의 검색 영역과 도 7에 따른 전방 이미지 검색 영역을 비교하면, 도 7은 전방 차량이 존재할 것으로 예상되는 후보 영역(1300)을 설정하고 설정된 범위 내에서만 차량의 검출을 기계 학습 모델에 따라 수행하므로 보다 빠르고 정확하게 전방 차량을 검출할 수 있다. When comparing the search area of the front image used for the first front vehicle detection according to FIG. 5 with the front image search area according to FIG. 7, FIG. 7 sets a candidate area 1300 expected to exist in the front vehicle and is within a set range Only vehicle detection is performed according to the machine learning model, so it is possible to detect vehicles ahead and more accurately.

반면, 상술한 바와 같이 전방 이미지에서 설정된 검색영역 내에서 차량 검출이 실패한 경우에는 이전 차량 영역에서 특징점을 추출하여 광학 흐름을 이용해 차량 영역을 추적하고 동시에 기계 학습 기반의 차량 검출도 진행한다.On the other hand, as described above, if the vehicle detection fails within the search region set in the front image, the feature points are extracted from the previous vehicle region to track the vehicle region using optical flow, and at the same time, machine learning-based vehicle detection is also performed.

기계 학습 모델을 이용하여 전방 이미지에서 차량이 다시 검출이 되면 특징점을 이용한 차량 추적은 멈추고 검색영역에서 차량 검출을 계속하여 수행한다. When the vehicle is detected again from the front image using the machine learning model, vehicle tracking using the feature point is stopped and vehicle detection is continuously performed in the search area.

도 8을 참조하면, 기계 학습 모델에 따라 연속적으로 적응적 검색 영역을 설정하며 차량을 검출하되, 전방 이미지에서 차량이 검출되지 않는 시점에는 동시에 특징점 추출을 통한 차량 추적과정을 함께 수행하게 된다(82). Referring to FIG. 8, a vehicle is continuously detected by setting an adaptive search area according to a machine learning model, but when a vehicle is not detected in a front image, a vehicle tracking process through feature point extraction is simultaneously performed (82). ).

이상의 본 실시예에 따른 차량 검출 방법은 영상 전체를 차량 검출영역으로 사용하지 않기 때문에 처리 속도가 빨라지는 장점이 있으며 증강현실 네비게이션에서 추적되는 전방차량을 끊김 없이 연속적으로 표출이 가능하여 사용자에게 안정된 서비스를 제공할 수 있다. The vehicle detection method according to the present embodiment has the advantage that the processing speed is increased because the entire image is not used as the vehicle detection area, and the front vehicle tracked in the augmented reality navigation can be continuously displayed without interruption, thereby providing a stable service to the user. Can provide.

한편, 이러한 전자 기기(10) 는 ADAS(Advanced Driver Assistance System) 또는 자율 주행을 위한 시스템(100)의 일 모듈로 구현되어 경로 안내 및 차량 추돌 경고 시스템(FVCWS, Forward Vehicle collision warning system)를 수행할 수 있다. 이에 대해서는 도 9 내지 10을 참조하여 보다 구체적으로 설명하기로 한다. Meanwhile, the electronic device 10 is implemented as a module of an Advanced Driver Assistance System (ADAS) or a system 100 for autonomous driving to perform a route guidance and a forward vehicle collision warning system (FVCWS). Can be. This will be described in more detail with reference to FIGS. 9 to 10.

도 9은 본 발명의 일 실시 예에 따른 시스템을 나타내는 블록도이다. 도 9을 참조하면, 시스템(100)은 저장부(110), 입력부(120), 출력부(130), 커브 안내부 (140), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.9 is a block diagram illustrating a system according to an embodiment of the present invention. Referring to FIG. 9, the system 100 includes a storage unit 110, an input unit 120, an output unit 130, a curve guide unit 140, an augmented reality providing unit 160, a control unit 170, and a communication unit ( 180), the sensing unit 190, all or part of the power supply unit 195.

여기서, 시스템(100)은 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 차량용 영상 촬영 장치인 Digital Video Recorder, Car dash cam 또는 Car video recorder 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the system 100 is a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart glass, a project glass, a navigation system, which can provide driving guidance to a driver of a vehicle ( navigation), a digital image recorder for a vehicle, a digital video recorder, a car dash cam or a car video recorder, and the like, and may be implemented in various devices.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 차선 유지 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 경고 안내, 차로 변경 안내, 차로 안내, 커브 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. Driving guidance includes a variety of ways to assist the driver of a vehicle, such as route guidance, lane departure guidance, lane maintenance guidance, front vehicle departure guidance, traffic light change guidance, front vehicle collision warning guidance, lane change guidance, lane guidance, curve guidance, etc. It may include guidance.

여기서, 경로 안내는 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. Here, the route guidance is augmented reality route guidance, 2D (2-Dimensional) or 3D (3-Dimensional), which performs route guidance by combining various information such as a user's location and direction with an image photographing the front of a driving vehicle. It may include 2D (2-Dimensional) or 3D (3-Dimensional) route guidance by combining various information such as the user's location and direction with the map data of.

뿐만 아니라, 경로 안내는 항공 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 항공 지도 경로 안내를 포함할 수 있다. 여기서, 경로 안내는 사용자가 차량에 탑승하여 운전하는 경우뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. In addition, the route guidance may include an aerial map route guidance that combines various information such as a user's location and direction in the aerial map data to perform route guidance. Here, the route guidance may be interpreted as a concept including not only the case where the user rides on the vehicle and drives, but also the route guidance when the user walks or jumps and moves.

또한, 차선 이탈 안내는 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be to guide whether the vehicle being driven has left the lane.

또한, 차선 유지 안내는 차량이 본래 주행 중인 차로로 복귀하도록 안내하는 것일 수 있다.In addition, the lane maintenance guidance may be to guide the vehicle to return to the original driving lane.

또한, 전방 차량 출발 안내는 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the front vehicle departure guidance may be to guide the departure of a vehicle located in front of the vehicle being stopped.

또한, 신호등 변경 안내는 정차 중인 차량의 전방에 위치한 신호등의 신호 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간 신호등이 켜진 상태에서 출발 신호를 나타내는 파란 신호등으로 변경되면, 이를 안내하는 것 일 수 있다. In addition, the traffic light change guide may be to guide whether the signal of the traffic light located in front of the vehicle being stopped is changed. For example, when the red traffic light indicating the stop signal is turned on and the blue traffic light indicating the start signal is changed, it may be guided.

또한, 전방 차량 추돌 경고 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, the front vehicle collision warning guide may be to guide a vehicle in front of a vehicle that is stopped or running when the distance to the vehicle is within a predetermined distance to prevent collision with the vehicle in front.

구체적으로 본 실시예에서는 기계 학습 모델 또는 특징점 추출을 통해 인식한 전방 차량과 현재 차량의 거리를 계산하고 이에 따른 추돌 방지 안내를 수행할 수 있다.Specifically, in the present embodiment, the distance between the front vehicle and the current vehicle recognized through the machine learning model or feature point extraction may be calculated, and collision avoidance guidance may be performed accordingly.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. 본 실시예에서는 차로 변경 안내 시 변경되는 차로의 전방 차량 여부를 부가적으로 수행하고 이에 따른 변경 안내를 제공하는 것도 가능하다. In addition, the lane change guide may be to guide a change from the lane where the vehicle is located to another lane to guide the route to the destination. In this embodiment, it is also possible to additionally perform whether or not the vehicle in front of the lane to be changed when the lane change guide is provided, and provide the change guide accordingly.

또한, 차로 안내는 현재 차량이 위치한 차로를 안내하는 것일 수 있다. In addition, the lane guidance may be to guide the lane in which the current vehicle is located.

또한, 커브 안내는 소정 시간 이후에 차량이 주행할 도로가 커브임을 안내하는 것일 수 있다. In addition, the curve guide may be to guide that the road on which the vehicle will travel after a predetermined time is a curve.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 이미지와 같은 운전 관련 영상은 차량에 거치된 카메라 또는 스마트 폰의 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 시스템(100)과 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. Such a driving-related image, such as a front image of a vehicle that enables providing various guidance, may be captured by a camera mounted on a vehicle or a camera of a smart phone. Here, the camera may be a camera that is integrally formed with the system 100 mounted on the vehicle and photographs the front of the vehicle.

다른 예로, 카메라는 시스템(100)과 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 차량용 영상 촬영 장치일 수 있고, 시스템(100)은 별도로 거치된 차량용 영상 촬영 장치와 유/무선 통신을 통하여 촬영 영상을 입력 받거나, 차량용 영상 촬영 장치의 촬영 영상을 저장하는 저장 매체가 시스템(100)에 삽입되면, 시스템(100)은 촬영 영상을 입력 받을 수 있다. As another example, the camera may be a camera mounted on a vehicle separately from the system 100 and photographing the front of the vehicle. In this case, the camera may be a separate vehicle image capturing device mounted toward the front of the vehicle, and the system 100 may receive a captured image through wired/wireless communication with the separately mounted vehicle image capturing device, or take a vehicle image When the storage medium for storing the captured image of the device is inserted into the system 100, the system 100 may receive the captured image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 시스템(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the system 100 according to an embodiment of the present invention will be described in more detail based on the above-described contents.

저장부(110)는 시스템(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히 저장부(110)는 시스템(100)의 동작에 필요한 데이터, 예를 들어 OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한 저장부(110)는 시스템(100)의 동작에 의하여 생성된 데이터, 예를 들어 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The storage unit 110 functions to store various data and applications required for the operation of the system 100. In particular, the storage unit 110 may store data necessary for the operation of the system 100, for example, an OS, a route search application, and map data. In addition, the storage unit 110 may store data generated by the operation of the system 100, for example, searched route data, received images, and the like.

이러한 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 110 includes random access memory (RAM), flash memory, read only memory (ROM), erasable programmable ROM (EPROM), electronically erasable and programmable ROM (EEPROM), registers, hard disk, removable disk, memory It can be implemented as a built-in storage such as a card, a Universal Subscriber Identity Module (USIM), and a removable storage such as a USB memory.

입력부(120)는 시스템(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the system 100 into a specific electrical signal. Here, the input unit 120 may include all or part of the user input unit 121 and the microphone unit 123.

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(121)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 may receive a user input such as a touch or push operation. Here, the user input unit 121 may be implemented using at least one of various types of buttons, a touch sensor receiving a touch input, and a proximity sensor receiving an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 may receive a user's voice and sound generated inside and outside the vehicle.

출력부(130)는 시스템(100)의 데이터를 사용자에게 영상 및/또는 음성으로 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device that outputs data of the system 100 to a user through video and/or audio. Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 133.

디스플레이부(131)는 사용자에게 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 시스템(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 시스템(100)과 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 시스템(100)과 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that can be visually recognized to a user. The display unit 131 may be implemented as a display unit provided on the front surface of the housing of the system 100. In addition, the display unit 131 may be formed integrally with the system 100 to output visual recognition data, and may be installed separately from the system 100, such as a head up display (HUD), to output visual recognition data. have.

오디오 출력부(133)는 시스템(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 시스템(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device that outputs data that the system 100 can perceive acoustically. The audio output unit 133 may be embodied as a speaker expressing sound of data to be informed to a user of the system 100.

커브 안내부(140)는 상술한 커브 안내 장치(10)의 기능을 수행할 수 있다. 구체적으로, 커브 안내부(140)는 차량이 주행하는 도로에 대응되는 링크 정보를 획득하고, 미래 시점에 차량의 링크에서의 위치를 결정하며, 결정된 위치 및 기준 시점에서의 차량 속도를 이용하여 소정 시간 이후에 차량이 주행할 커브 구간의 위험도를 판단할 수 있다. The curve guide unit 140 may perform the functions of the above-described curve guide device 10. Specifically, the curve guide unit 140 obtains link information corresponding to the road on which the vehicle travels, determines a position on the link of the vehicle at a future point in time, and uses the determined position and the vehicle speed at a reference point to determine After the time, it is possible to determine the degree of danger of the curve section in which the vehicle will travel.

증강 현실 제공부(160)는 증강 현실 뷰 모드를 제공할 수 있다. 여기서, 증강 현실이란 사용자가 실제로 보고 있는 현실 세계를 담고 있는 화면에 부가 정보(예를 들면, 관심 지점(Point Of Interest: POI)을 나타내는 그래픽 요소, 커브를 안내하는 그래픽 요소, 운전자의 안전 운전을 돕기 위한 다양한 부가 정보 등)를 시각적으로 중첩하여 제공하는 방법일 수 있다. The augmented reality providing unit 160 may provide an augmented reality view mode. Here, augmented reality means a graphic element representing a point of interest (POI), a graphic element guiding a curve, and a driver's safe driving on a screen that contains the real world that the user is actually viewing. It may be a method of visually superimposing various supplemental information to help).

이러한 증강 현실 제공부(160)는 캘리브레이션부, 3D 공간 생성부, 객체 생성부, 매핑부의 전부 또는 일부를 포함할 수 있다. The augmented reality providing unit 160 may include all or part of a calibration unit, a 3D spatial generating unit, an object generating unit, and a mapping unit.

캘리브레이션부는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사 공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터로, 카메라 외부 파라미터(extrinsic parameters), 카메라 내부 파라미터(intrinsic parameters)를 포함할 수 있다. The calibration unit may perform calibration for estimating camera parameters corresponding to the camera from the captured image taken by the camera. Here, the camera parameter is a parameter constituting a camera matrix that is information representing a relationship that a photorealistic space is formed on a photo, and may include external camera parameters and intrinsic parameters.

3D 공간 생성부는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 공간 생성부는 캘리브레이션부가 추정한 카메라 파라미터를 2D의 촬영 영상에 적용하여 가상 3D 공간을 생성할 수 있다.The 3D space generating unit may generate a virtual 3D space based on the captured image captured by the camera. Specifically, the 3D space generator may generate a virtual 3D space by applying the camera parameters estimated by the calibration unit to the 2D captured image.

객체 생성부는 증강 현실 상에서 안내를 위한 객체, 예를 들어, 경로 안내 객체, 전방 추돌 경고 안내 객체, 차로 변경 안내 객체, 차선 이탈 안내 객체, 커브 안내 객체 등을 생성할 수 있다. The object generating unit may generate an object for guiding in augmented reality, for example, a route guiding object, a forward collision warning guiding object, a lane changing guiding object, a lane departure guiding object, a curve guiding object, and the like.

매핑부는 3D 공간 생성부에서 생성된 가상 3D 공간에 객체 생성부에서 생성된 객체를 매핑할 수 있다. 구체적으로, 매핑부는 객체 생성부에서 생성된 객체의 가상 3D 공간에서의 위치를 결정하고, 결정된 위치에 객체의 매핑을 수행할 수 있다. The mapping unit may map the object generated by the object generator to the virtual 3D space created by the 3D space generator. Specifically, the mapping unit may determine the location of the object generated by the object creation unit in the virtual 3D space, and perform mapping of the object to the determined location.

한편, 통신부(180)는 시스템(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는 위치 데이터부(181), 무선 인터넷부(183), 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. Meanwhile, the communication unit 180 may be provided for the system 100 to communicate with other devices. The communication unit 180 may include all or part of the location data unit 181, the wireless Internet unit 183, the broadcast transmission/reception unit 185, the mobile communication unit 186, the local area communication unit 187, and the wired communication unit 189. Can be.

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시 예에 따른 시스템(100)의 위치 데이터부(181)는 시스템(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 또는, 위치 데이터부(181)는 GNSS 외에도 기지국 또는 AP(Access Point)와의 통신을 통해 위치 데이터를 획득할 수도 있다.The location data unit 181 is a device that acquires location data through a Global Navigation Satellite System (GNSS). GNSS refers to a navigation system capable of calculating the location of a receiving terminal using a radio wave signal received from a satellite. Specific examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRSSS), and Quasi-Zenith Satellite System (QZSS) depending on the operating entity. Can be. The location data unit 181 of the system 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serving in an area where the system 100 is used. Alternatively, the location data unit 181 may acquire location data through communication with a base station or an AP (Access Point) in addition to the GNSS.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)는 WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access)의 무선 데이터 송수신을 수행하도록 정의된 다양한 통신 프로토콜을 통해 인터넷 망에 접속할 수 있다.The wireless Internet unit 183 is a device that connects to the wireless Internet to acquire or transmit data. The wireless internet unit 183 is provided through various communication protocols defined to perform wireless data transmission and reception of wireless LAN (WLAN), wireless broadband (Wibro), world interoperability for microwave access (Wimax), and high speed downlink packet access (HSDPA). You can connect to the Internet network.

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은 DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmission/reception unit 185 is a device for transmitting and receiving broadcast signals through various broadcast systems. Broadcasting systems that can be transmitted and received through the broadcast transmitting and receiving unit 185 include Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Forward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and Integrated SDTV (ISDBT) Services Digital Broadcast Terrestrial). The broadcast signal transmitted/received through the broadcast transmitting/receiving unit 185 may include traffic data, living data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신망에 접속하여 음성 및 데이터 통신할 수 있다.The mobile communication unit 186 may connect to a mobile communication network according to various mobile communication standards such as 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE) to communicate with voice and data.

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WideBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-range communication unit 187 is a device for short-range communication. The short-range communication unit 187, as described above, Bluetooth (Bluetooth), Radio Frequency Identification (RFID), infrared communication (IrDA, Infrared Data Association), UWB (Ultra WideBand), ZigBee, NFC (Near Field Communication), Wi It can communicate through -Fi (Wireless-Fidelity).

유선 통신부(189)는 시스템(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(189)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device that can connect the system 100 to other devices by wire. The wired communication unit 189 may be a USB module that can communicate through a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of a location data unit 181, a wireless Internet unit 183, a broadcast transmission/reception unit 185, a mobile communication unit 186, a local area communication unit 187, and a wired communication unit 189. Use to communicate with other devices.

일 예로, 시스템(100)가 카메라 기능을 포함하지 않는 경우, Digital Video Recorder 나 Car dash cam이나 Car video recorder와 같은 차량용 영상 촬영 장치에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.As an example, when the system 100 does not include a camera function, the short-distance communication unit 187 and the wired communication unit 189 are used to record an image captured by a vehicle video recording device such as a digital video recorder, a car dash cam, or a car video recorder. It can be received using at least one.

다른 예로, 복수의 디바이스와 통신하는 경우에 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, when communicating with a plurality of devices, one may communicate with the local area communication unit 187 and the other may communicate with the wired communication unit 119.

센싱부(190)는 시스템(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of detecting the current state of the system 100. The sensing unit 190 may include all or part of the motion sensing unit 191 and the light sensing unit 193.

모션 센싱부(191)는 시스템(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 시스템(100)를 부착한 차량의 궤적을 보다 정확하게 산출할 수 있다.The motion sensing unit 191 may detect motion in the 3D space of the system 100. The motion sensing unit 191 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. By combining the motion data obtained through the motion sensing unit 191 with the position data obtained through the position data unit 181, the trajectory of the vehicle to which the system 100 is attached can be more accurately calculated.

광 센싱부(193)는 시스템(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The optical sensing unit 193 is a device for measuring the ambient illumination of the system 100. By using the illuminance data acquired through the light sensing unit 193, the brightness of the display unit 131 may be changed to correspond to the ambient brightness.

전원부(195)는 시스템(100)의 동작 또는 시스템(100)과 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는 시스템(100)에 내장된 배터리 또는 차량 등의 외부 전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is an apparatus that supplies power required for the operation of the system 100 or other devices connected to the system 100. The power supply unit 195 may be a device that receives power from an external power source such as a battery or a vehicle built into the system 100. In addition, the power supply unit 195 may be implemented as a wired communication module 119 or a wirelessly supplied device depending on the form of receiving power.

제어부(170)는 시스템(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 커브 안내부(140), 증강 현실 제공부(160), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다. The control unit 170 controls the overall operation of the system 100. Specifically, the control unit 170 includes a storage unit 110, an input unit 120, an output unit 130, a curve guide unit 140, an augmented reality providing unit 160, a communication unit 180, a sensing unit 190, All or part of the power supply unit 195 can be controlled.

특히, 제어부(170)는 이후에 차량이 주행할 도로에 대응되는 링크 정보를 획득할 수 있다. 여기서, 링크 정보는 목적지까지의 경로 안내를 위한 경로 안내 데이터로부터 획득될 수 있다. In particular, the control unit 170 may acquire link information corresponding to a road on which the vehicle will run later. Here, the link information may be obtained from route guidance data for route guidance to a destination.

일 예로, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 저장부(110)에 기저장된 지도 데이터를 이용하여 목적지까지의 경로 안내 데이터를 생성할 수 있다. 또는, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 현재 위치 정보, 목적지 정보 중 적어도 하나를 포함하는 경로 안내 요청을 서버에 전송할 수 있다. 그리고, 상기 경로 안내 요청에 따라 서버로부터 경로 안내 데이터를 수신할 수 있다. 이 경우, 제어부(170)는 상기 경로 안내 데이터로부터 차량이 주행하는 도로에 대응되는 링크 정보를 획득할 수 있다. For example, when destination information is input through the input unit 120, the control unit 170 may generate route guidance data to a destination using map data previously stored in the storage unit 110. Alternatively, when destination information is input through the input unit 120, the control unit 170 may transmit a route guidance request including at least one of current location information and destination information to the server. In addition, route guidance data may be received from a server according to the route guidance request. In this case, the control unit 170 may obtain link information corresponding to a road on which the vehicle travels from the route guidance data.

또한, 제어부(170)는 차량의 실시간 위치 정보를 기초로 차량의 주행 예상 경로 정보가 생성되면, 이를 기초로 링크 정보를 획득할 수 있다. In addition, when the predicted route information of the vehicle is generated based on the real-time location information of the vehicle, the controller 170 may obtain link information based on this.

한편, 제어부(170)는 본 발명의 일 실시예에 따른 전방 차량 추돌 경고 안내 정보를 제공할 수 있다. 즉, 입력된 전방 이미지로부터 전방 차량을 검출하고 검출된 전방 차량의 거리와 현재 차량 및 전방 차량의 속도에 따른 안내 정보를 제공할 수 있다. 이 경우, 제어부(170)는 상술한 도 1 내지 4의 판단 과정에서 부가적으로 거리와 상대 속도를 산출하는 단계를 더욱 수행할 수 있다. Meanwhile, the control unit 170 may provide the front vehicle collision warning guidance information according to an embodiment of the present invention. That is, it is possible to detect a front vehicle from the input front image and provide guidance information according to the detected distance of the front vehicle and the speed of the current vehicle and the front vehicle. In this case, the control unit 170 may further perform the step of calculating the distance and the relative speed in the determination process of FIGS. 1 to 4 described above.

즉, 입력되는 전방 이미지 내 차량과의 거리의 변화와 프레임 비율을 고려하여 전방 차량의 상대 속도를 산출하고 현재 차량의 속도와 비교하여 전방 추돌 경고 안내 정보를 생성할 수 있다.That is, it is possible to calculate the relative speed of the front vehicle in consideration of the change in the distance to the vehicle in the input front image and the frame rate, and generate front collision warning guidance information by comparing with the speed of the current vehicle.

제어부(170)는 판단 결과에 따라 감속 필요 정보를 출력하도록 출력부(130)를 제어할 수 있다. 또한, 제어부(170)는 구체적인 감속을 위해 필요한 가속도 정보를 산출할 수 있다.The control unit 170 may control the output unit 130 to output the deceleration required information according to the determination result. Also, the control unit 170 may calculate acceleration information required for specific deceleration.

본 실시예에서 현재 시간 t에서 감속을 위한 필요 가속도(Areq(t))는 전방 차량(VTV)의 가속도(ATV)와, 전방 차량(VTV)과 주행 차량(VSV) 간의 상대 속도(Vr(t), Vr(t)= VTV(t)- VSV(t)) 및 전방 차량과 주행 차량 간의 거리(Xc(t))를 이용하여 산출될 수 있다(수학식 참고).Required acceleration for deceleration at the current time t in the present embodiment (A req (t)) is the one person between the preceding vehicle acceleration in the (V TV) (A TV), and a preceding vehicle (V TV) and the source vehicle (V SV) It can be calculated using the speed (V r (t), V r (t) = V TV (t)-V SV (t)) and the distance between the vehicle in front and the driving vehicle (X c (t)) (math Expression).

[수학식][Mathematics]

Figure pat00001
Figure pat00001

나아가, 전방 차량과의 거리는 운전자가 감속을 위해 브레이크를 제어하는 데까지 반응하는 시간 동안의 주행 거리(Xr(t))를 더욱 고려하여 산출될 수 있다.Furthermore, the distance from the vehicle in front may be calculated by further taking into consideration the driving distance X r (t) during a time when the driver reacts to controlling the brake for deceleration.

또한, 본 실시예에서 제어부는 주행 차량의 진행 차로 내 전방 차량 외, 주행 차선으로 차선을 변경하는 전방 차량(cut-in vehicle)의 경우 주행 차량과 전방 차량의 측면 거리를 고려하여 전방 추돌의 경고를 위한 필요 가속도 산출 여부를 결정할 수 있다.In addition, in the present embodiment, the control unit warns of a front collision in consideration of the side distance between the driving vehicle and the front vehicle in the case of a cut-in vehicle that changes lanes to the driving lane other than the front vehicle in the traveling lane of the traveling vehicle. You can decide whether to calculate the required acceleration for

구체적으로 차선을 변경하는 전방 차량을 검출한 경우는 주행 차량의 차량 너비와 양 차량의 중심선 간의 측면 거리를 상호 비교하여 필요 가속도의 산출 여부를 결정할 수 있다.Specifically, when a front vehicle changing a lane is detected, it is possible to determine whether to calculate the required acceleration by comparing the vehicle width of the driving vehicle and the lateral distance between the center lines of both vehicles.

이상의 과정을 통해 산출된 필요 가속도에 따라 제어부(170)는 출력부(130)를 단계적으로 제어할 수 있다.The control unit 170 may control the output unit 130 stepwise according to the required acceleration calculated through the above process.

만약, 필요 가속도가 제1 레벨인 경우, 제어부(170)는 제1 감속 안내를 출력하도록 출력부(130)를 제어할 수 있다. 여기서 제1 레벨은 사용자에게 예비적으로 감속이 필요한 상태임을 나타내는 수치일 수 있다. If the required acceleration is the first level, the control unit 170 may control the output unit 130 to output the first deceleration guide. Here, the first level may be a value indicating that the user needs to decelerate preliminarily.

이때의 감속의 필요도를 나타내는 수치는 주행 차량과 전방 차량의 거리, 차량의 속도, 차선의 수를 고려하여 산출될 수 있다.At this time, a numerical value indicating the necessity of deceleration may be calculated in consideration of the distance between the driving vehicle and the front vehicle, the speed of the vehicle, and the number of lanes.

만약, 필요 가속도가 제2 레벨인 경우, 제어부(170)는 제2 감속 안내를 출력하도록 출력부(130)를 제어할 수 있다. 여기서, 제2 레벨은 사용자의 보다 높은 정도의 감속이 필요한 상태임을 나타내는 수치일 수 있다. If the required acceleration is the second level, the control unit 170 may control the output unit 130 to output the second deceleration guide. Here, the second level may be a value indicating that a higher degree of deceleration of the user is required.

만약, 필요 가속도가 제1 레벨 보다 낮거나, 주행 차량의 속도가 기준 속도보다 낮은 경우, 제어부(170)는 감속 안내를 출력하지 않도록 출력부(130)를 제어할 수 있다. If the required acceleration is lower than the first level or the speed of the driving vehicle is lower than the reference speed, the controller 170 may control the output unit 130 to not output the deceleration guidance.

또한, 제어부(170)는 필요 가속도를 3단계 이상으로 구분하여, 사용자에게 각 단계별로 상황에 적합한 감속안내를 제공할 수도 있다. In addition, the controller 170 may divide the required acceleration into three or more stages, and provide the user with a deceleration guide suitable for the situation in each stage.

또한, 제어부(170)는 전방 차량의 추돌 경고 보다 우선하는 조건을 판단하여 결정된 레벨을 초과하더라도 감속 안내를 출력하지 않도록 출력부(130)를 제어할 수 있다.In addition, the control unit 170 may control the output unit 130 so as not to output the deceleration guidance even if it exceeds the determined level by determining a condition that precedes the collision warning of the vehicle in front.

구체적으로 우선하는 조건은 전방 차량이 차선을 변경하는 경우, 또는 경로의 재탐색이 발생하는 경우, 분기 후 주행 차로에서 이벤트가 발생한 경우에는 이를 우선하여 고려할 수 있다.Specifically, the preferential condition may be considered as a priority when the vehicle in front changes the lane, or when the re-navigation of the route occurs, or when an event occurs in the driving lane after branching.

한편, 이러한 감속 안내는 증강 현실 화면 내에서 수행될 수 있다. 구체적으로, 증강 현실 제공부(160)는 전방 차량 추돌 경고 안내 객체를 생성하고, 이를 가상 3D 공간에 매핑하여 증강 현실 화면을 생성할 수 있고, 제어부(170)는 상기 생성된 증강 현실 화면을 표시하도록 디스플레이부(131)를 제어할 수 있다. Meanwhile, such deceleration guidance may be performed within the augmented reality screen. Specifically, the augmented reality providing unit 160 may generate a front vehicle collision warning guide object and map it to a virtual 3D space to generate an augmented reality screen, and the controller 170 displays the generated augmented reality screen The display unit 131 can be controlled to do so.

도 10은 본 발명의 일 실시 예에 따른 시스템과 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 10를 참조하면, 본 발명의 일 실시 예에 따른 시스템(100)은 내비게이션, 차량용 영상 촬영 장치, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.10 is a view for explaining a system network connected to a system according to an embodiment of the present invention. Referring to FIG. 10, the system 100 according to an embodiment of the present invention may be implemented as various devices provided in a vehicle, such as a navigation device, an image capturing device for a vehicle, a smart phone, or other augmented reality interface providing device for a vehicle, It can be connected to various communication networks and other electronic devices 61 to 64.

또한, 시스템(100)은 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the system 100 may calculate the current location and the current time zone by interlocking the GPS module according to the radio wave signal received from the satellite 20.

각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 시스템(100)은 각각의 인공위성(20)에서 송신된 L밴드 주파수가 시스템(100)에 도달하기까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each satellite 20 may transmit L band frequencies with different frequency bands. The system 100 may calculate the current position based on the time taken for the L-band frequency transmitted from each satellite 20 to reach the system 100.

한편, 시스템(100)은 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS), AP(Access Point) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 시스템(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the system 100 may wirelessly access the network 30 through the control unit 180 through the control station 40, ACR, base station 50, RAS, and access point (AP). When the system 100 connects to the network 30, data can be exchanged by indirectly connecting to other electronic devices 61 and 62 connected to the network 30.

한편, 시스템(100)은 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 시스템(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the system 100 may indirectly connect to the network 30 through another device 63 having a communication function. For example, when a module that can connect to the network 30 is not provided in the system 100, it may communicate with another device 63 having a communication function through a short-range communication module.

도 11a 및 도 11b는 본 발명의 일 실시 예에 따른 시스템의 전방 차량 추돌 경고 화면을 나타내는 도면이다. 도 11a 및 11b를 참조하면, 시스템(100)은 전방 차량 추돌의 위험도를 나타내는 안내 객체를 생성하고, 생성된 안내 객체(1001,1003)를 증강 현실을 통하여 출력할 수 있다.11A and 11B are views illustrating a front vehicle collision warning screen of a system according to an embodiment of the present invention. Referring to FIGS. 11A and 11B, the system 100 may generate a guide object indicating a danger level of a vehicle collision in front and output the generated guide objects 1001 and 1003 through augmented reality.

여기서, 안내 객체(1001,1003)는 사용자 주의가 필요한 상태임을 안내하는 객체일 수 있다. 즉, 전방 차량 추돌 경고 안내는 차량이 전방 추돌 상황이 발생할 수 있음을 알리기 위한 주의(attention) 안내일 수 있다. 또한, 도 11b를 참조하면 본 실시예에서 경로 안내 객체(1002)는 텍스처(texture) 이미지로 구현되어 증강 현실을 통하여 표출될 수 있다. 이에 따라 운전자는 자차가 주행 중인 도로를 용이하게 인식할 수 있다.Here, the guide objects 1001 and 1003 may be objects that guide a user in need of attention. That is, the front vehicle collision warning guide may be an attention guide for informing the vehicle that a front collision situation may occur. Also, referring to FIG. 11B, in this embodiment, the path guide object 1002 may be implemented as a texture image and expressed through augmented reality. Accordingly, the driver can easily recognize the road on which the host vehicle is driving.

또한, 시스템(100)은 안내 객체(1001,1003) 를 음성을 통해서도 출력할 수 있다. 또는 햅틱요소를 통해 출력하는 것도 가능하다.In addition, the system 100 may output guide objects 1001 and 1003 through voice. Alternatively, it is possible to output through a haptic element.

도 12은 본 발명의 일 실시 예에 따른 시스템이 촬영부를 구비하지 않는 경우의 구현 형태를 나타내는 도면이다. 도 12를 참조하면, 차량용 시스템(100)과 별도로 마련된 차량용 영상 촬영 장치 (200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 12 is a view showing an implementation form when the system according to an embodiment of the present invention does not include a photographing unit. Referring to FIG. 12, a vehicle image photographing apparatus 200 provided separately from the vehicle system 100 may configure a system according to an embodiment of the present invention using a wired/wireless communication method.

차량용 시스템(100)은 하우징(191)의 전면에 마련된 디스플레이부(131)와, 사용자 입력부(121)와, 마이크(123)를 포함할 수 있다.The vehicle system 100 may include a display unit 131 provided on the front surface of the housing 191, a user input unit 121, and a microphone 123.

차량용 영상 촬영 장치 (200)는 카메라(222)와 마이크(224), 부착부(281)를 포함할 수 있다.The vehicle image capturing apparatus 200 may include a camera 222, a microphone 224, and an attachment portion 281.

도 13는 본 발명의 일 실시 예에 따른 시스템이 촬영부를 구비하는 경우 구현 형태를 나타내는 도면이다. 도 13를 참조하면, 시스템(100)가 촬영부(150)를 포함하는 경우, 사용자는 시스템(100)의 촬영부(150)가 차량의 전방을 촬영하고, 시스템(100)의 디스플레이 부분을 사용자가 인식 할 수 있도록 하는 장치일 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 13 is a view showing an implementation form when the system according to an embodiment of the present invention includes a photographing unit. Referring to FIG. 13, when the system 100 includes the photographing unit 150, the user photographs the front of the vehicle by the photographing unit 150 of the system 100 and the user displays the display portion of the system 100. It may be a device that can be recognized. Accordingly, a system according to an embodiment of the present invention can be implemented.

도 14은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도면이다. 도 14을 참조하면, HUD는 다른 디바이스들과의 유/무선 통신을 통하여 증강 현실 안내 화면을 HUD 상에서 표시할 수 있다. 14 is a view showing an implementation form using a head-up display (HUD) according to an embodiment of the present invention. Referring to FIG. 14, the HUD may display the augmented reality guide screen on the HUD through wired/wireless communication with other devices.

일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 내비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다.For example, augmented reality may be provided through a HUD using a windshield of a vehicle or an image overlay using a separate image output device, and the augmented reality providing unit 160 may interface with a real image or an overlay on the glass. Can generate Through this, an augmented reality navigation or a vehicle infotainment system may be implemented.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 전방 차량 추돌 경고 안내 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the method for guiding a front vehicle collision warning according to various embodiments of the present invention may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing a server or device in which the program is stored.

한편, 다른 실시예로 본 발명에 따른 전방 차량 검출 방법 또는 전방 추돌 경고 안내 방법은 자율 주행 차량(2000)의 제어 장치(2100) 내 모듈로 구성될 수 있다. 즉, 제어 장치(2100)의 메모리(2122)와 프로세서(2124)가 본 발명에 따른 전방 차량 검출 방법 또는 전방 추돌 경고 안내 방법을 소프트웨어적으로 구현하도록 할 수 있다. On the other hand, in another embodiment, the front vehicle detection method or the front collision warning guidance method according to the present invention may be configured as a module in the control device 2100 of the autonomous vehicle 2000. That is, the memory 2122 and the processor 2124 of the control device 2100 can implement a software for implementing a vehicle detection method or a vehicle collision warning guidance method according to the present invention.

이하, 도 15를 참조하여 보다 상세히 설명한다. Hereinafter, it will be described in more detail with reference to FIG. 15.

도 15는 본 발명의 일 실시예에 따른 자율 주행 차량(2000)의 구성을 나타내는 블록도이다.15 is a block diagram showing the configuration of an autonomous vehicle 2000 according to an embodiment of the present invention.

도 15를 참조하면, 본 실시예에 따른 자율 주행 차량(2000)은 제어 장치(2100), 센싱모듈(2004a, 2004b, 2004c, 2004d), 엔진(2006), 및 사용자 인터페이스(2008)를 포함할 수 있다.15, the autonomous vehicle 2000 according to the present embodiment may include a control device 2100, a sensing module 2004a, 2004b, 2004c, 2004d, an engine 2006, and a user interface 2008. Can be.

본 실시예에서 제어 장치(2100)는 메모리(2122)와 프로세서(2124)를 포함하는 컨트롤러(2120), 센서(2110), 무선 통신 장치(2130), LIDAR(2140) 및 카메라 모듈(2150)를 포함할 수 있다.In this embodiment, the control device 2100 includes a controller 2120, a sensor 2110, a wireless communication device 2130, a LIDAR 2140, and a camera module 2150 including a memory 2122 and a processor 2124. It can contain.

본 실시예에서 컨트롤러(2120)는 차량의 제조사에 의해 제조 시 구성되거나 또는 제조 후에 자율 주행의 기능 수행을 위해 추가 구성될 수 있다. 또는 제조시 구성된 컨트롤러(2120)의 업그레이드를 통해 지속적인 부가 기능 수행을 위한 구성이 포함될 수 있다. In this embodiment, the controller 2120 may be configured at the time of manufacture by the manufacturer of the vehicle, or additionally configured to perform the function of autonomous driving after manufacturing. Alternatively, a configuration for continuously performing additional functions may be included through an upgrade of the controller 2120 configured at the time of manufacture.

컨트롤러(2120)는 제어 신호를 차량 내 다른 구성들로 포함된 센서(2110), 엔진(2006), 사용자 인터페이스(2008), 무선 통신 장치(2130), LIDAR(2140), 및 카메라 모듈(2150)에 전달할 수 있다. 또한 도시되지는 않았으나 차량의 주행과 관련되는 가속 장치, 브레이킹 시스템, 조향 장치, 또는 네비게이션 장치에도 제어 신호를 전달할 수 있다.The controller 2120 includes a control signal 2110, an engine 2006, a user interface 2008, a wireless communication device 2130, a LIDAR 2140, and a camera module 2150, which include control signals in other components in the vehicle. Can be delivered to. In addition, although not shown, a control signal may be transmitted to an acceleration device, a braking system, a steering device, or a navigation device related to driving of a vehicle.

본 실시예에서, 컨트롤러(2120)는 엔진(2006)을 제어할 수 있으며 예를 들어 자율 주행 차량(2000)이 주행 중인 도로의 제한 속도를 감지하고 주행 속도가 제한 속도를 초과하지 않도록 엔진(2006)을 제어하거나, 제한 속도를 초과하지 않는 범위 내에서 자율 주행 차량(2000)의 주행 속도를 가속하도록 엔진(2006)을 제어할 수 있다. 또한 부가적으로 차량 외부의 환경을 센싱모듈(2004a, 2004b, 2004c, 2004d) 이 감지하여 센서(2110)로 전달하면 컨트롤러(2120)는 이를 수신하여 엔진(2006) 또는 조향 장치(미도시)를 제어하는 신호를 생성하여 차량의 주행을 제어할 수 있다.In this embodiment, the controller 2120 may control the engine 2006 and, for example, the engine 2006 such that the autonomous vehicle 2000 detects the speed limit of the road on which it is driving and does not exceed the speed limit. ), or may control the engine 2006 to accelerate the driving speed of the autonomous vehicle 2000 within a range not exceeding the speed limit. In addition, when the sensing module (2004a, 2004b, 2004c, 2004d) detects the environment outside the vehicle and transmits it to the sensor 2110, the controller 2120 receives it and receives an engine 2006 or a steering device (not shown). The driving of the vehicle can be controlled by generating a control signal.

컨트롤러(2120)는 차량의 전방에 다른 차량 또는 방해물이 존재하는 경우에는 주행 차량을 감속하도록 엔진(2006) 또는 브레이킹 시스템을 제어할 수 있으며, 속도 외에도 궤적, 운행 경로, 조향 각을 제어할 수 있다. 또는 컨트롤러(2120)는 차량의 주행 차선, 주행 신호 등 기타 외부 환경의 인식 정보에 따라 필요한 제어 신호를 생성하여 차량의 주행을 제어할 수 있다.The controller 2120 may control the engine 2006 or the braking system to decelerate the driving vehicle when another vehicle or an obstacle is in front of the vehicle, and may control trajectory, driving path, and steering angle in addition to the speed. . Alternatively, the controller 2120 may control driving of the vehicle by generating a necessary control signal according to recognition information of other external environments such as the driving lane of the vehicle, a driving signal, and the like.

컨트롤러(2120)는 자체적인 제어 신호의 생성 외에 주변 차량 또는 중앙 서버와의 통신을 수행하고 수신된 정보를 통해 주변 장치들을 제어하기 위한 명령을 전송함으로써, 차량의 주행을 제어하는 것도 가능하다.In addition to the generation of its own control signal, the controller 2120 can also control the driving of the vehicle by performing communication with the surrounding vehicle or the central server and transmitting a command for controlling the peripheral devices through the received information.

또한, 컨트롤러(2120)는 카메라 모듈(2150)의 위치가 변경되거나 화각이 변경될 경우, 본 실시예에 따른 정확한 차량 또는 차선 인식이 어려울 수 있으므로, 이를 방지하기 위해 카메라 모듈(2150)의 캘리브레이션(calibration)을 수행하도록 제어하는 제어 신호를 생성할 수도 있다. 따라서, 본 실시예에서는 컨트롤러(2120)는 카메라 모듈(2150)로 캘리브레이션 제어 신호를 발생시킴으로써, 자율주행차량(2000)의 움직임에 따라 발생되는 진동 또는 충격 등에 의해 카메라 모듈(2150)의 장착 위치가 변경되더라도, 카메라 모듈(2150)의 정상적인 장착 위치, 방향, 화각 등을 지속적으로 유지할 수 있다. 컨트롤러(2120)는 미리 저장된 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보와 자율주행차량(2000)의 주행 중에 측정되는 카메라 모듈(2120)의 최초 장착 위치, 방향, 화각 정보 등이 임계 값 이상으로 달라질 경우, 카메라 모듈(2120)의 캘리브레이션을 수행하도록 제어 신호를 발생할 수 있다. In addition, since the controller 2120 may be difficult to recognize an accurate vehicle or lane according to the present embodiment when the position of the camera module 2150 is changed or the angle of view is changed, calibration of the camera module 2150 to prevent this ( It is also possible to generate control signals that control the calibration. Therefore, in this embodiment, the controller 2120 generates a calibration control signal to the camera module 2150, so that the mounting position of the camera module 2150 is caused by vibration or shock generated according to the movement of the autonomous vehicle 2000. Even if changed, it is possible to continuously maintain the normal mounting position, direction, angle of view, etc. of the camera module 2150. In the controller 2120, the initial mounting position, direction, and angle of view information of the pre-stored camera module 2120 and the initial mounting position, direction, and angle of view information of the camera module 2120 measured during driving of the autonomous vehicle 2000 are critical. If it is more than the value, a control signal may be generated to perform calibration of the camera module 2120.

본 실시예에서 컨트롤러(2120)는 메모리(2122)와 프로세서(2124)를 포함할 수 있다. 프로세서(2124)는 메모리(2122)에 저장된 소프트웨어를 컨트롤러(2120)의 제어 신호에 따라 실행시킬 수 있다. 구체적으로 컨트롤러(2120)는 본 발명에 따른 차선 표시 방법 또는 차선 이탈 안내 방법을 수행하기 위한 데이터 및 명령들은 메모리(2122)에 저장하고, 명령들은 여기에 개시된 하나 이상의 방법들을 구현하기 위해 프로세서(2124)에 의해 실행될 수 있다. In this embodiment, the controller 2120 may include a memory 2122 and a processor 2124. The processor 2124 may execute software stored in the memory 2122 according to a control signal of the controller 2120. Specifically, the controller 2120 stores data and instructions for performing the lane marking method or the lane departure guidance method according to the present invention in the memory 2122, and the instructions 2124 to implement one or more methods disclosed herein. ).

이때, 메모리(2122)는 비 휘발성의 프로세서(2124)에서 실행 가능한 기록 매체에 저장될 수 있다. 메모리(2122)는 적절한 내 외부 장치를 통해 소프트웨어와 데이터를 저장할 수 있다. 메모리(2122)는 RAM(random access memory), ROM(read only memory), 하드디스크, 동글과 연결된 메모리(2122) 장치로 구성될 수 있다. At this time, the memory 2122 may be stored in a recording medium executable on the nonvolatile processor 2124. The memory 2122 can store software and data through appropriate internal and external devices. The memory 2122 may include a random access memory (RAM), a read only memory (ROM), a hard disk, and a memory 2122 device connected to a dongle.

메모리(2122)는 운영체제(OS, Operating system), 사용자 어플리케이션, 실행 가능한 명령들을 적어도 저장할 수 있다. 메모리(2122)는 어플리케이션 데이터, 배열 데이터 구조들도 저장할 수 있다.The memory 2122 may store at least operating system (OS), user application, and executable commands. The memory 2122 may also store application data and array data structures.

프로세서(2124)는 마이크로 프로세서 또는 적절한 전자적 프로세서로 컨트롤러, 마이크로 컨트롤러 또는 스테이트 머신 일 수 있다.The processor 2124 may be a microprocessor or a suitable electronic processor, which may be a controller, microcontroller, or state machine.

프로세서(2124)는 컴퓨팅 장치들의 조합으로 구현될 수 있으며, 컴퓨팅 장치는 디지털 신호 프로세서, 마이크로프로세서 이거나 이들의 적절한 조합으로 구성될 수 있다.The processor 2124 may be implemented as a combination of computing devices, and the computing device may be a digital signal processor, a microprocessor, or an appropriate combination thereof.

또한, 본 실시예에서 제어 장치(2100)는 적어도 하나 이상의 센서(2110)로 자율 주행 차량(2000)의 내외부의 특징을 모니터링하고 상태를 감지할 수 있다.In addition, in the present embodiment, the control device 2100 may monitor characteristics of the inside and outside of the autonomous vehicle 2000 and sense a state using at least one sensor 2110.

센서(2110)는 적어도 하나 이상의 센싱모듈(2004)로 구성될 수 있으며, 센싱모듈(2004)은, 감지 목적에 따라 자율 주행 차량(2000)의 특정 위치에 구현될 수 있다. 자율 주행 차량(2000)의 하부, 후단, 전단, 상단, 또는 측단에 위치할 수 있으며, 차량의 내부 부품 또는 타이어 등에도 위치될 수 있다.The sensor 2110 may be composed of at least one sensing module 2004, and the sensing module 2004 may be implemented at a specific location of the autonomous vehicle 2000 according to the detection purpose. The autonomous vehicle 2000 may be located at a lower portion, a rear end, a front end, an upper end, or a side end of the autonomous vehicle, and may also be located in an internal part of a vehicle or a tire.

이를 통해 센싱모듈(2004)은 차량의 내부 정보로서 엔진(2006), 타이어, 조향각, 속도, 차량의 무게 등 주행과 관련된 정보들을 감지할 수 있다. 또한, 적어도 하나 이상의 센싱모듈(2004)은 가속도 센서(2110), 자이로스코프, 이미지 센서(2110), RADAR, 초음파 센서, LiDAR 센서 등으로 구성될 수 있으며, 자율 주행 차량(2000)의 움직임 정보를 감지할 수 있다.Through this, the sensing module 2004 can detect information related to driving, such as engine 2006, tires, steering angle, speed, and weight of the vehicle, as internal information of the vehicle. In addition, the at least one sensing module 2004 may be configured as an acceleration sensor 2110, a gyroscope, an image sensor 2110, a RADAR, an ultrasonic sensor, a LiDAR sensor, and the like, and display motion information of the autonomous vehicle 2000. Can be detected.

센싱모듈(2004)은 외부 정보로서 자율 주행 차량(2000)이 위치하는 도로의 상태 정보, 주변 차량 정보, 날씨 등 외부 환경 상태에 대한 특정 데이터를 수신하고, 이에 따른 차량의 파라미터를 감지하는 것도 가능하다. 감지된 정보는 일시적 또는 장기적으로 목적에 따라 메모리(2122)에 저장할 수 있다.The sensing module 2004 may receive specific data about the external environment state, such as the state information of the road on which the autonomous vehicle 2000 is located, the surrounding vehicle information, the weather as external information, and detect the vehicle parameters accordingly. Do. The sensed information may be temporarily or long-term stored in the memory 2122 according to the purpose.

본 실시예에서 센서(2110)는 자율 주행 차량(2000)의 내 외부에서 발생되는 정보를 수집하기 위한 센싱모듈(2004)들의 정보를 통합하여 수집할 수 있다. In this embodiment, the sensor 2110 may collect and collect information of sensing modules 2004 for collecting information generated from inside and outside of the autonomous vehicle 2000.

제어 장치(2100)는 무선 통신 장치(2130)를 더 포함할 수 있다.The control device 2100 may further include a wireless communication device 2130.

무선 통신 장치(2130)는 자율 주행 차량(2000) 간의 무선 통신을 구현하기 위해 구성된다. 예를 들어, 사용자의 모바일 폰, 또는 다른 무선 통신 장치(2130), 다른 차량, 중앙 장치(교통 제어 장치), 서버 등과 자율 주행 차량(2000)이 통신할 수 있도록 한다. 무선 통신 장치(2130)는 무선 신호를 접속 무선 프로토콜에 따라 송수신할 수 있다. 무선 통신 프로토콜은 Wi-Fi, Bluetooth, Long-Term Evolution (LTE), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global Systems for Mobile Communications (GSM)일 수 있으며, 통신 프로토콜은 이에 제한되지 않는다.The wireless communication device 2130 is configured to implement wireless communication between the autonomous vehicles 2000. For example, the user's mobile phone or other wireless communication device 2130, another vehicle, a central device (traffic control device), a server, and the like, enables the autonomous vehicle 2000 to communicate. The wireless communication device 2130 may transmit and receive a wireless signal according to an access wireless protocol. The wireless communication protocol may be Wi-Fi, Bluetooth, Long-Term Evolution (LTE), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), Global Systems for Mobile Communications (GSM). It is not limited to this.

또한 본 실시예에서 자율 주행 차량(2000)은 무선 통신 장치(2130)를 통해 차량 간 통신을 구현하는 것도 가능하다. 즉, 무선 통신 장치(2130)는 차량 대 차량 간(V2V) 통신(vehicle-to-vehicle communication)으로 도로 상의 다른 차량 및 다른 차량들과 통신을 수행할 수 있다. 자율 주행 차량(2000)은 주행 경고, 교통 정보와 같은 정보를 챠량 간 통신으로 통해 송수신할 수 있으며, 다른 차량에게 정보를 요청하거나 요청을 수신하는 것도 가능하다. 예를 들어, 무선 통신 장치(2130)는 V2V 통신을 지정 단 거리 통신(DSRC, dedicated short-range communication) 장치 또는 C-V2V(Celluar-V2V) 장치로 수행할 수 있다. 또한 차량 간의 통신 외에 차량과 다른 사물(예컨대 보행자가 휴대하는 전자 기기 등) 간의 통신(V2X, Vehicle to Everything communication)도 무선 통신 장치(2130)를 통해 구현할 수 있다.Also, in the present embodiment, the autonomous vehicle 2000 may implement communication between vehicles through the wireless communication device 2130. That is, the wireless communication device 2130 may perform communication with other vehicles and other vehicles on the road through vehicle-to-vehicle communication (V2V) communication. The autonomous vehicle 2000 may transmit and receive information such as driving warnings and traffic information through communication between vehicles, and may request or receive information from other vehicles. For example, the wireless communication device 2130 may perform V2V communication as a designated short-range communication (DSRC) device or a C-V2V (Celluar-V2V) device. In addition, communication between the vehicle and other objects (for example, electronic devices carried by pedestrians, etc.) in addition to communication between vehicles (V2X, Vehicle to Everything communication) may also be implemented through the wireless communication device 2130.

또한, 제어 장치(2100)는 LIDAR 장치(2140)를 포함할 수 있다. LIDAR 장치(2140)는 LIDAR 센서를 통해 센싱된 데이터를 이용하여 자율 주행 차량(2000) 주변의 객체를 동작 중에 탐지할 수 있다. LIDAR 장치(2140)는 탐지된 정보를 컨트롤러(2120)로 전송하고, 컨트롤러(2120)는 탐지 정보에 따라 자율 주행 차량(2000)을 동작시킬 수 있다. 예를 들어 컨트롤러(2120)는 탐지 정보에 저속 주행하는 전방 차량이 있는 경우 엔진(2006)을 통해 차량이 속도를 줄이도록 명령할 수 있다. 또는 차량이 진입하는 커브의 곡률에 따라 진입 속도를 줄이도록 명령할 수 있다.Also, the control device 2100 may include a LIDAR device 2140. The LIDAR device 2140 may detect an object around the autonomous vehicle 2000 during operation using data sensed through the LIDAR sensor. The LIDAR device 2140 may transmit the detected information to the controller 2120, and the controller 2120 may operate the autonomous vehicle 2000 according to the detection information. For example, the controller 2120 may command the vehicle to reduce the speed through the engine 2006 when there is a forward vehicle traveling at a low speed in the detection information. Alternatively, the vehicle may be commanded to reduce the entry speed according to the curvature of the entering curve.

제어 장치(2100)는 카메라 모듈(2150)을 더 포함할 수 있다. 컨트롤러(2120)는 카메라 모듈(2150)에서 촬영되는 외부 이미지로부터 객체 정보를 추출하고 이에 대한 정보를 컨트롤러(2120)가 처리하도록 할 수 있다.The control device 2100 may further include a camera module 2150. The controller 2120 may extract object information from an external image photographed by the camera module 2150 and allow the controller 2120 to process the information.

또한, 제어 장치(2100)는 외부 환경을 인식하기 위한 이미징 장치들이 더욱 포함할 수 있다. LIDAR(2140) 외에 RADAR, GPS 장치, 주행 거리 측정 장치(Odometry) 및 기타 컴퓨터 비전 장치 들이 이용될 수 있으며, 이들의 장치는 필요에 따라 선택 또는 동시에 동작하여 보다 정밀한 감지가 가능하도록 한다. In addition, the control device 2100 may further include imaging devices for recognizing an external environment. In addition to the LIDAR 2140, a RADAR, GPS device, odometer, and other computer vision devices can be used, and these devices can be selected or operated as needed to enable more precise detection.

자율 주행 차량(2000)은 상술한 제어 장치(2100)에 대한 사용자의 입력을 위한 사용자 인터페이스(2008)를 더 포함할 수 있다. 사용자 인터페이스(2008)는 적절한 상호작용으로 사용자가 정보를 입력하도록 할 수 있다. 예를 들어 터치스크린, 키패드, 조작 버튼 등으로 구현될 수 있다. 사용자 인터페이스(2008)는 입력 또는 명령을 컨트롤러(2120)에 전송하고, 컨트롤러(2120)는 입력 또는 명령에 대한 응답으로 차량의 제어 동작을 수행할 수 있다.The autonomous vehicle 2000 may further include a user interface 2008 for a user input to the above-described control device 2100. The user interface 2008 may allow the user to enter information through appropriate interaction. For example, it may be implemented with a touch screen, a keypad, and operation buttons. The user interface 2008 may transmit an input or command to the controller 2120, and the controller 2120 may perform a control operation of the vehicle in response to the input or command.

또한, 사용자 인터페이스(2008)는 자율 주행 차량(2000) 외부의 장치로 무선 통신 장치(2130)를 통해 자율 주행 차량(2000)과 통신을 수행하도록 할 수 있다. 예를 들어 사용자 인터페이스(2008)는 모바일 폰, 태블릿, 또는 기타 컴퓨터 장치와 연동 가능하도록 할 수 있다.In addition, the user interface 2008 may communicate with the autonomous vehicle 2000 through a wireless communication device 2130 as a device external to the autonomous vehicle 2000. For example, the user interface 2008 may enable interworking with a mobile phone, tablet, or other computer device.

나아가, 본 실시예에서 자율 주행 차량(2000)은 엔진(2006)을 포함하는 것으로 설명하였으나, 다른 타입의 추진 시스템을 포함하는 것도 가능하다. 예를 들어 차량은 전기 에너지로 운행될 수 있으며, 수소 에너지 또는 이들을 조합한 하이브리드 시스템을 통해 운행될 수 있다. 따라서 컨트롤러(2120)는 자율 주행 차량(2000)의 추진 시스템에 따른 추진 메커니즘을 포함하고, 이에 따른 제어 신호를 각 추진 메커니즘의 구성들에 제공할 수 있다.Furthermore, in this embodiment, the autonomous vehicle 2000 has been described as including the engine 2006, but it is also possible to include other types of propulsion systems. For example, the vehicle may be driven by electric energy, and may be driven by hydrogen energy or a hybrid system combining them. Accordingly, the controller 2120 may include a propulsion mechanism according to the propulsion system of the autonomous vehicle 2000, and may provide control signals to the components of each propulsion mechanism.

이하, 도 16을 참조하여 본 실시예에 따른 본 발명에 따른 전방 차량 검출 방법 또는 전방 추돌 경고 안내 방법을 수행하는 제어 장치(2100)의 세부 구성에 대하여 보다 상세히 설명한다. Hereinafter, with reference to FIG. 16, a detailed configuration of the control apparatus 2100 performing the front vehicle detection method or the front collision warning guidance method according to the present invention according to this embodiment will be described in more detail.

제어 장치(2100)는 프로세서(2124)를 포함한다. 프로세서(2124)는 범용 단일 또는 다중 칩 마이크로프로세서, 전용 마이크로프로세서, 마이크로제어기, 프로그램가능 게이트 어레이 등일 수도 있다. 프로세서는 중앙 처리 장치(CPU) 로 지칭될 수도 있다. 또한 본 실시예에서 프로세서(2124)는 복수의 프로세서들의 조합으로 사용되는 것도 가능하다.The control device 2100 includes a processor 2124. The processor 2124 may be a general purpose single or multi-chip microprocessor, dedicated microprocessor, microcontroller, programmable gate array, or the like. The processor may also be referred to as a central processing unit (CPU). Also, in the present embodiment, the processor 2124 may be used in combination of a plurality of processors.

제어 장치(2100)는 또한 메모리(2122)를 포함한다. 메모리(2122)는 전자 정보를 저장할 수 있는 임의의 전자 컴포넌트일 수도 있다. 메모리(2122) 역시 단일 메모리 외에 메모리(2122)들의 조합을 포함할 수 있다.The control device 2100 also includes a memory 2122. The memory 2122 may be any electronic component capable of storing electronic information. Memory 2122 may also include a combination of memories 2122 in addition to a single memory.

본 발명에 따른 전방 차량 검출 방법 또는 전방 추돌 경고 안내 방법을 수행하기 위한 데이터 및 명령어(2122a)들은 메모리(2122)에 저장될 수도 있다. 프로세서(2124)가 명령어(2122a)들을 실행할 때, 명령어(2122a)들과 명령의 수행에 필요한 데이터(2122b)의 전부 또는 일부가 프로세서(2124)상으로 로딩(2124a, 2124b)될 수도 있다.Data and instructions 2122a for performing the front vehicle detection method or the front collision warning guidance method according to the present invention may be stored in the memory 2122. When the processor 2124 executes the instructions 2122a, the instructions 2122a and all or part of the data 2122b necessary for the execution of the instructions may be loaded 2124a, 2124b onto the processor 2124.

제어 장치(2100)는 신호들의 송신 및 수신을 허용하기 위한 송신기(2130a), 수신기(2130b) 또는 트랜시버(2130c)를 포함할 수도 있다. 하나 이상의 안테나(2132a, 2132b)들은 송신기(2130a), 수신기(2130b) 또는 각 트랜시버(2130c)에 전기적으로 연결될 수도 있으며 추가적으로 안테나들을 포함할 수도 있다.The control device 2100 may include a transmitter 2130a, a receiver 2130b, or a transceiver 2130c to allow transmission and reception of signals. The one or more antennas 2132a and 2132b may be electrically connected to the transmitter 2130a, the receiver 2130b, or each transceiver 2130c, and may additionally include antennas.

제어 장치(2100)는 디지털 신호 프로세서(DSP)(2170)를 포함할 수도 있다. DSP(2170)를 통해 디지털 신호를 차량이 빠르게 처리할 수 있도록 할 수 있다.The control device 2100 may include a digital signal processor (DSP) 2170. Through the DSP 2170, a digital signal can be quickly processed by the vehicle.

제어 장치(2100)는 통신 인터페이스(2180)를 포함할 수도 있다. 통신 인터페이스(2180)는 다른 장치들을 제어 장치(2100)와 연결하기 위한 하나 이상의 포트들 및/또는 통신 모듈 들을 포함할 수도 있다. 통신 인터페이스(2180)는 사용자와 제어 장치(2100)가 상호작용할 수 있게 할 수 있다.The control device 2100 may also include a communication interface 2180. The communication interface 2180 may include one or more ports and/or communication modules for connecting other devices to the control device 2100. The communication interface 2180 may enable the user and the control device 2100 to interact.

제어 장치(2100)의 다양한 구성들은 함께 하나 이상의 버스(2190)들에 의해 연결될 수도 있고, 버스(2190)들은 전력 버스, 제어 신호 버스, 상태 신호 버스, 데이터 버스 등을 포함할 수도 있다. 프로세서(2124)의 제어에 따라 구성들은 버스(2190)를 통해 상호 정보를 전달하고 목적하는 기능을 수행하도록 할 수 있다.Various configurations of the control device 2100 may be connected together by one or more buses 2190, and the buses 2190 may include a power bus, a control signal bus, a status signal bus, a data bus, and the like. Under the control of the processor 2124, the components may transfer mutual information through the bus 2190 and perform a desired function.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. The device described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, field programmable gate arrays (FPGAs). , A programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers.

처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로써, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and those skilled in the art to which the present invention pertains may make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention. It will be possible.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention, but to explain the scope of the technical spirit of the present invention. . The scope of protection of the present invention should be interpreted by the claims below, and all technical spirits within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

Claims (24)

차량 검출 방법에 있어서,
연속하여 촬영된 전방 이미지를 입력 받는 단계;
상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 단계;
상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계; 및
상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 단계를 포함하는 차량 검출 방법.
In the vehicle detection method,
Receiving the continuously photographed front images;
Setting a search area of the vehicle in a target image based on a position of the vehicle or a vehicle area detected in a previous image among the front images;
Detecting the vehicle in the search area according to a machine learning model; And
And tracking the vehicle in the target image using feature points of a vehicle extracted from the previous image according to a vehicle detection result according to the machine learning model.
제 1 항에 있어서,
상기 검색 영역은 상기 이전 이미지에서 검출된 차량 영역을 기준으로 확대 설정되는 것을 특징으로 하는 차량 검출 방법.
According to claim 1,
The search area is a vehicle detection method characterized in that the enlargement is set based on the vehicle area detected in the previous image.
제 2 항에 있어서,
상기 검색 영역은 상기 검출된 차량의 크기에 따라 확대 설정되는 것을 특징으로 하는 차량 검출 방법.
According to claim 2,
The search area is enlarged according to the size of the detected vehicle Vehicle detection method.
제 1 항에 있어서,
상기 추적하는 단계는 상기 이전 이미지에서 검출된 차량 영역에서 상기 차량의 특징점을 추출하여 상기 차량을 추적하는 것을 특징으로 하는 차량 검출 방법.
According to claim 1,
The tracking includes extracting a feature point of the vehicle from a vehicle area detected in the previous image, and tracking the vehicle.
제 1 항에 있어서,
상기 기계 학습 모델에 따른 차량 검출이 실패하거나 또는 검출된 차량의 신뢰도가 기준 이하인 경우 상기 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량의 위치를 추적하는 것을 특징으로 하는 차량 검출 방법.
According to claim 1,
A vehicle detection method comprising tracking the position of the vehicle in the target image using feature points of the extracted vehicle when vehicle detection according to the machine learning model fails or reliability of the detected vehicle is below a reference.
제 1 항에 있어서,
상기 추적하는 단계는 상기 검출하는 단계의 차량 검출과 병행하여 상기 차량을 추적하되, 상기 검출하는 단계의 기계 학습 모델에 따른 차량 검출이 성공하거나 또는 검출된 차량의 신뢰도가 기준 이상인 경우 상기 차량의 추적을 종료하는 것을 특징으로 하는 차량 검출 방법.
According to claim 1,
The tracking step tracks the vehicle in parallel with the detection of the vehicle in the detecting step, but when the vehicle detection according to the machine learning model of the detecting step is successful or the reliability of the detected vehicle is higher than the reference, the tracking of the vehicle Vehicle detection method characterized in that the end.
제 1 항에 있어서,
상기 차량 검출 방법은,
상기 검출된 또는 상기 추적된 차량을 미리 결정된 사용자 인터페이스에 따라 표시하는 단계를 더 포함하는 차량 검출 방법.
According to claim 1,
The vehicle detection method,
And displaying the detected or tracked vehicle according to a predetermined user interface.
제 7 항에 있어서,
상기 표시하는 단계는 상기 차량에 따른 전방 추돌 관련 알림을 미리 결정된 사용자 인터페이스에 따라 표시하는 것을 특징으로 하는 차량 검출 방법.
The method of claim 7,
The displaying step is a vehicle detection method characterized in that the front collision related notification according to the vehicle is displayed according to a predetermined user interface.
제 1 항에 있어서,
상기 검출하는 단계는 복수의 이전 이미지들로부터 상기 차량의 특징점의 움직임 벡터를 획득하고 상기 움직임 벡터와 상기 검색 영역에 기초하여 수정 검색 영역을 생성하는 단계를 더욱 포함하고,
상기 수정 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계를 포함하는 차량 검출 방법.
According to claim 1,
The detecting step further includes obtaining a motion vector of a feature point of the vehicle from a plurality of previous images and generating a modified search area based on the motion vector and the search area,
And detecting the vehicle in the modified search area according to a machine learning model.
제 9 항에 있어서,
상기 움직임 벡터는 복수의 이전 이미지들 각각에서의 상기 차량의 특징점이 표현된 위치들의 관계에 기초하여 생성되는 것을 특징으로 하는 차량 검출 방법.
The method of claim 9,
The motion vector is a vehicle detection method characterized in that the feature point of the vehicle in each of the plurality of previous images is generated based on the relationship of the expressed positions.
제 9 항에 있어서,
상기 수정 검색 영역의 중심 위치는 상기 검색 영역의 중심 위치와 상기 움직임 벡터에 기초하여 결정되며,
상기 수정 검색 영역의 너비는 상기 움직임 벡터의 방향 또는 크기에 기초하여 결정되는 것을 특징으로 하는 차량 검출 방법.
The method of claim 9,
The center position of the modified search area is determined based on the center position of the search area and the motion vector,
The width of the modified search area is determined based on the direction or size of the motion vector.
연속하여 촬영된 전방 이미지를 입력 받는 영상 입력부;
상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 영역 설정부;
상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 차량 검출부; 및
상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 차량 추적부를 포함하는 차량 검출 장치.
An image input unit that receives continuously photographed front images;
A region setting unit configured to set a search region of the vehicle in a target image based on a location of the vehicle or a vehicle region detected from a previous image among the front images;
A vehicle detection unit detecting the vehicle in the search area according to a machine learning model; And
And a vehicle tracking unit tracking the vehicle in the target image using feature points of a vehicle extracted from the previous image according to a vehicle detection result according to the machine learning model.
제 12 항에 있어서,
상기 검색 영역은 상기 이전 이미지에서 검출된 차량 영역을 기준으로 확대 설정되는 것을 특징으로 하는 차량 검출 장치.
The method of claim 12,
The search area is a vehicle detection device characterized in that the enlargement is set based on the vehicle area detected in the previous image.
제 13 항에 있어서,
상기 검색 영역은 상기 검출된 차량의 크기에 따라 확대 설정되는 것을 특징으로 하는 차량 검출 장치.
The method of claim 13,
The search area is a vehicle detection device characterized in that the magnification is set according to the size of the detected vehicle.
제 12 항에 있어서,
상기 차량 추적부는 상기 이전 이미지에서 검출된 차량 영역에서 상기 차량의 특징점을 추출하여 상기 차량을 추적하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 12,
The vehicle tracking unit tracks the vehicle by extracting feature points of the vehicle from the vehicle area detected in the previous image.
제 12 항에 있어서,
상기 차량 추적부는 기계 학습 모델에 따른 차량 검출이 실패하거나 또는 검출된 차량의 신뢰도가 기준 이하인 경우 상기 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량의 위치를 추적하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 12,
The vehicle tracking unit tracks the position of the vehicle in the target image using feature points of the extracted vehicle when vehicle detection according to the machine learning model fails or reliability of the detected vehicle is below a reference. Device.
제 12 항에 있어서,
상기 차량 추적부는 상기 차량 검출부의 차량 검출과 병행하여 차량을 추적하되, 상기 차량 검출부의 상기 기계 학습 모델에 따른 차량 검출이 성공하거나 또는 검출된 차량의 신뢰도가 기준 이상인 경우 상기 차량의 추적을 종료하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 12,
The vehicle tracking unit tracks the vehicle in parallel with the vehicle detection of the vehicle detection unit, and when the vehicle detection according to the machine learning model of the vehicle detection unit is successful or the reliability of the detected vehicle is higher than a reference, the vehicle tracking is terminated. Vehicle detection device characterized in that.
제 12 항에 있어서,
상기 차량 검출 장치는,
상기 검출된 또는 상기 추적된 차량을 미리 결정된 사용자 인터페이스에 따라 표시하는 출력부를 더 포함하는 차량 검출 장치.
The method of claim 12,
The vehicle detection device,
And an output unit configured to display the detected or tracked vehicle according to a predetermined user interface.
제 18 항에 있어서,
상기 출력부는 상기 차량에 따른 전방 추돌 관련 알림을 미리 결정된 사용자 인터페이스에 따라 표시하는 것을 특징으로 하는 차량 검출 장치.
The method of claim 18,
The output unit is a vehicle detection device, characterized in that for displaying a front collision related notification according to the vehicle according to a predetermined user interface.
차량 추돌 경고 방법에 있어서,
연속하여 촬영된 전방 이미지를 입력 받는 단계;
상기 전방 이미지 중 이전 이미지에서 검출된 차량의 위치 또는 차량 영역에 기반하여 타겟 이미지 내 상기 차량의 검색 영역을 설정하는 단계;
상기 검색 영역에서 상기 차량을 기계 학습 모델에 따라 검출하는 단계;
상기 기계 학습 모델에 따른 차량 검출 결과에 따라 상기 이전 이미지에서 추출된 차량의 특징점을 이용하여 상기 타겟 이미지에서 상기 차량을 추적하는 단계; 및
상기 검출 또는 추적된 차량과의 거리 및 상대 속도에 따라 추돌 가능성을 판단하는 단계를 포함하는 차량 추돌 경고 방법.
In the vehicle collision warning method,
Receiving the continuously photographed front images;
Setting a search area of the vehicle in a target image based on a position of the vehicle or a vehicle area detected in a previous image among the front images;
Detecting the vehicle in the search area according to a machine learning model;
Tracking the vehicle in the target image using feature points of the vehicle extracted from the previous image according to a vehicle detection result according to the machine learning model; And
And determining a possibility of collision according to a distance and a relative speed with the detected or tracked vehicle.
제 1 항 내지 제 11 항 중 어느 한 항에 따른 차량 검출 방법을 수행하기 위한 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing the vehicle detection method according to any one of claims 1 to 11. 제 1 항 내지 제 11 항 중 어느 한 항에 따른 차량 검출 방법을 수행하기 위한 컴퓨터가 판독 가능한 기록 매체에 저장된 프로그램.A program stored in a computer-readable recording medium for performing the vehicle detection method according to any one of claims 1 to 11. 제 20 항에 따른 차량 추돌 경고 방법을 수행하기 위한 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체.A computer-readable recording medium storing a program for performing the vehicle collision warning method according to claim 20. 제 20 항에 따른 차량 추돌 경고 방법을 수행하기 위한 컴퓨터가 판독 가능한 기록 매체에 저장된 프로그램.A program stored in a computer-readable recording medium for performing the vehicle collision warning method according to claim 20.
KR1020190151276A 2018-12-07 2019-11-22 A method for detecting vehicle and device for executing the method KR20200070100A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201911240329.4A CN111292351A (en) 2018-12-07 2019-12-06 Vehicle detection method and electronic device for executing same
US16/705,973 US11475576B2 (en) 2018-12-07 2019-12-06 Method for detecting vehicle and device for executing the same
EP19214223.0A EP3663978A1 (en) 2018-12-07 2019-12-06 Method for detecting vehicle and device for executing the same
US17/939,175 US11881030B2 (en) 2018-12-07 2022-09-07 Method for detecting vehicle and device for executing the same
US18/544,988 US20240127601A1 (en) 2018-12-07 2023-12-19 Method for detecting vehicle and device for executing the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180156746 2018-12-07
KR20180156746 2018-12-07

Publications (1)

Publication Number Publication Date
KR20200070100A true KR20200070100A (en) 2020-06-17

Family

ID=71406075

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190151276A KR20200070100A (en) 2018-12-07 2019-11-22 A method for detecting vehicle and device for executing the method

Country Status (1)

Country Link
KR (1) KR20200070100A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220159585A (en) * 2021-05-26 2022-12-05 (주)블루컴 System for tracking suspicious vehicle and mehtod for tracking suspicious vehicle using therewith
KR102510122B1 (en) * 2021-11-24 2023-03-15 (주)카네비모빌리티 Vision-based real-time vehicle detection, tracking method for forward collision warning and apparatus therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220159585A (en) * 2021-05-26 2022-12-05 (주)블루컴 System for tracking suspicious vehicle and mehtod for tracking suspicious vehicle using therewith
KR102510122B1 (en) * 2021-11-24 2023-03-15 (주)카네비모빌리티 Vision-based real-time vehicle detection, tracking method for forward collision warning and apparatus therefor

Similar Documents

Publication Publication Date Title
US11881030B2 (en) Method for detecting vehicle and device for executing the same
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
KR102622169B1 (en) Method, apparatus, electronic device, computer program and computer readable recording medium for measuring a distance between front vehicle and rear vehicle
US11680813B2 (en) Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
US11227493B2 (en) Road speed limit identification method, road speed limit identification apparatus, electronic apparatus, computer program, and computer readable recording medium
CN110390240B (en) Lane post-processing in an autonomous vehicle
US11587435B2 (en) Method for guiding path by extracting guiding information in lane and electronic device for executing the method
US11828615B2 (en) AR processing device, augmented reality-based route guidance method and electronic device
US11727693B2 (en) Method, apparatus, electronic device, computer program and computer-readable recording medium for detecting lane marking based on vehicle image
KR20200070100A (en) A method for detecting vehicle and device for executing the method
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
US20230273033A1 (en) Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
KR20200070101A (en) Method for displaying lane information and apparatus for executing the method

Legal Events

Date Code Title Description
A201 Request for examination