KR102322815B1 - Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera - Google Patents
Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera Download PDFInfo
- Publication number
- KR102322815B1 KR102322815B1 KR1020190112768A KR20190112768A KR102322815B1 KR 102322815 B1 KR102322815 B1 KR 102322815B1 KR 1020190112768 A KR1020190112768 A KR 1020190112768A KR 20190112768 A KR20190112768 A KR 20190112768A KR 102322815 B1 KR102322815 B1 KR 102322815B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- road
- road event
- event
- occupied
- Prior art date
Links
Images
Classifications
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G06K9/6201—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
- G08B7/06—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Abstract
본 발명에 따른 도로이벤트 점유차로 검출 장치는, 차량의 주변 도로를 촬영하여 영상을 생성하는 카메라; 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리; 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함에 따라, 상기 카메라로부터 차량의 주변 도로를 촬영한 영상을 획득하고, 상기 영상으로부터 주변 도로 상에 위험 요소로 작용하는 도로이벤트를 인식하고, 상기 도로이벤트가 인식되면, 영상에서 기준선과 상기 도로이벤트 간의 각도 및 상기 기준선과 차선 간의 각도를 서로 비교하여 상기 도로이벤트가 점유한 도로이벤트 점유차로를 결정할 수 있다.
본 발명에 따르면, GNSS(Global Navigation Satellite System)나 지도정보의 도움없이도 카메라로 촬영된 영상만을 이용하여 차량의 주변 도로에 발생한 도로이벤트가 점유하고 있는 차로를 용이하게 검출함으로써, 차량의 자율주행에 많은 도움을 줄 수 있다. An apparatus for detecting a road event occupied lane according to the present invention includes: a camera for generating an image by photographing a road around a vehicle; a memory storing at least one instruction; and a processor, wherein, as the at least one instruction is executed, an image obtained by photographing a surrounding road of the vehicle from the camera is acquired, and a road event acting as a risk factor on the surrounding road from the image When the road event is recognized, the road event occupied lane occupied by the road event may be determined by comparing the angle between the reference line and the road event and the angle between the reference line and the lane in the image.
According to the present invention, a lane occupied by a road event occurring on a road around the vehicle can be easily detected using only images captured by a camera without the aid of a Global Navigation Satellite System (GNSS) or map information, thereby improving the autonomous driving of the vehicle. It can help a lot.
Description
본 발명은, GNSS(Global Navigation Satellite System)나 지도정보의 도움없이 차량에 설치된 카메라로 촬영된 영상을 바탕으로 도로에서 발생할 수 있는 다양한 도로이벤트들이 점유하고 있는 점유차로를 검출하는 기술에 관한 것이다.The present invention relates to a technology for detecting an occupied lane occupied by various road events that may occur on a road based on an image captured by a camera installed in a vehicle without the aid of a Global Navigation Satellite System (GNSS) or map information.
자율 주행 차량에 대한 연구들이 활발히 진행되고 있다. 자율 주행 차량은 운전자의 개입 없이 차로와 주변 물체(예: 차량, 보행자)를 인식하고, 상기 인식에 기반하여 설정된 목적지까지 주행할 수 있다. 자율 주행 차량은 운전자 개입의 정도에 따라 레벨(level) 1부터 레벨 4까지 구분되고, 그 중 레벨 4는 가속, 조향 및 제동을 포함하는 조작을 모두 시스템이 수행하는 완전 자율 주행 상태를 지원할 수 있다. Research on autonomous vehicles is being actively conducted. The autonomous vehicle may recognize a lane and surrounding objects (eg, a vehicle, a pedestrian) without driver intervention, and drive to a set destination based on the recognition. Autonomous vehicles are classified from
자율 주행 차량은 사고 방지를 위해 도로 규정 하에서 주변 차량과 주변 물체에 의해 발생할 수 있는 다양한 상황에 대비할 수 있는 차량 제어 기법을 필요로 한다. 예를 들어, 자율 주행 차량은 도로 상의 위험요소를 빠르게 인식하고, 인식된 위험요소를 회피할 필요가 있다. Autonomous vehicles require vehicle control techniques that can prepare for various situations that may be caused by surrounding vehicles and surrounding objects under road regulations to prevent accidents. For example, autonomous vehicles need to quickly recognize hazards on the road and avoid the recognized hazards.
본 문서에 개시되는 다양한 실시 예들은 카메라로 촬영된 영상을 분석하여 차량의 주변 도로에 발생한 도로이벤트가 점유하고 있는 차로를 검출할 수 있는 카메라 기반의 도로이벤트 점유차로 검출 장치 및 그 방법을 제공할 수 있다.Various embodiments disclosed in this document provide a camera-based road event occupied lane detection apparatus and method capable of detecting a lane occupied by a road event occurring on a road around the vehicle by analyzing an image captured by a camera. can
본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 장치는, 차량의 주변 도로를 촬영하여 영상을 생성하는 카메라; 적어도 하나의 인스트럭션(instruction)을 저장하는 메모리; 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함에 따라, 상기 카메라로부터 차량의 주변 도로를 촬영한 영상을 획득하고, 상기 영상으로부터 주변 도로 상에 위험 요소로 작용하는 도로이벤트 및 차선을 인식하고, 상기 도로이벤트가 인식되면, 영상에서 기준선과 상기 도로이벤트 간의 각도 및 상기 기준선과 차선 간의 각도를 비교하여 상기 도로이벤트가 점유한 도로이벤트 점유차로를 결정하되, 상기 기준선은 차선의 소실점을 지나는 영상의 수직선에서 소실점 상단의 선일 수 있다.According to the present invention, there is provided an apparatus for detecting a road event occupied lane based on a camera, comprising: a camera for generating an image by photographing a road around a vehicle; a memory storing at least one instruction; and a processor, wherein, as the at least one instruction is executed, an image obtained by photographing a surrounding road of the vehicle from the camera is obtained, and a road event acting as a risk factor on the surrounding road from the image; When a lane is recognized and the road event is recognized, the angle between the reference line and the road event and the angle between the reference line and the lane are compared in the image to determine the road event occupied lane occupied by the road event, wherein the reference line is the lane It may be a line above the vanishing point in a vertical line of the image passing through the vanishing point.
상기 프로세서는, 상기 프로세서는, 상기 영상에서 차선을 인식하고, 인식된 차선으로부터 전체 차로 수 및 주행 차로를 검출할 수 있다.The processor may recognize a lane in the image, and detect the total number of lanes and a driving lane from the recognized lane.
상기 프로세서는, 상기 소실점과 상기 도로이벤트의 우측 에지를 연결한 제1 에지선과, 상기 소실점과 상기 도로이벤트의 좌측 에지를 연결한 제2 에지선을 검출하고, 상기 제1 및 제2 에지선과 상기 기준선 간의 각도인 도로이벤트 점유각도를 검출하고, 상기 차선과 상기 기준선 간의 차선 각도를 검출하며, 상기 도로이벤트 점유각도와 상기 차선 각도를 비교하여 상기 도로이벤트 점유차로를 결정할 수 있다.The processor is configured to detect a first edge line connecting the vanishing point and a right edge of the road event and a second edge line connecting the vanishing point and a left edge of the road event, and the first and second edge lines and the The road event occupation lane may be determined by detecting a road event occupancy angle that is an angle between reference lines, detecting a lane angle between the lane and the reference line, and comparing the road event occupation angle with the lane angle.
상기 도로이벤트는, 상기 주변 도로 상에 도로 상에 떨어진 낙하물, 도로 상에 발생한 홀, 사고 차량, 공사 지역이나 사고 지역을 표시하는 러버콘(rubber cone) 중 어느 하나를 포함할 수 있다.The road event may include any one of a falling object falling on the road around the road, a hole occurring on the road, an accident vehicle, and a rubber cone indicating a construction area or an accident area.
상기 메모리는, 객체와 관련된 데이터를 저장하고, 상기 프로세서는, 상기 데이터에 기반하여 상기 영상으로부터 상기 객체를 검출하고, 상기 검출된 객체 중 지정된 종류의 객체에 대하여, 이동 속도, 이동 방향 및 크기 중 적어도 하나의 변수를 확인하고, 상기 적어도 하나의 변수에 기반하여 상기 도로이벤트에 해당하는지를 확인할 수 있다.The memory stores data related to the object, the processor detects the object from the image based on the data, and for a designated type of object among the detected objects, among a movement speed, a movement direction, and a size At least one variable may be checked, and it may be determined whether the road event corresponds to the at least one variable based on the at least one variable.
상기 도로이벤트 점유차로 검출 장치는 출력 장치를 더 포함하고, 상기 프로세서는 상기 도로이벤트 점유차로에 관한 영상 또는 소리를 상기 출력 장치를 통해 출력할 수 있다.The road event occupied lane detecting device may further include an output device, and the processor may output an image or sound related to the road event occupied lane through the output device.
상기 도로이벤트 점유차로 검출 장치는 통신 회로를 더 포함하고, 상기 프로세서는 상기 통신 회로를 이용하여 상기 도로이벤트 점유차로에 관한 정보를 외부로 송신하거나 외부로부터 수신할 수 있다.The road event occupied lane detecting apparatus may further include a communication circuit, and the processor may transmit or receive information about the road event occupied lane to the outside using the communication circuit.
또한, 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 방법은, (a) 카메라로부터 차량의 주변 도로를 촬영한 영상을 획득하는 단계; (b) 상기 영상으로부터 주변 도로 상에 위험 요소로 작용하는 도로이벤트 및 차선을 인식하는 단계; 및 (c) 상기 도로이벤트가 인식되면, 영상에서 기준선과 상기 도로이벤트 간의 각도 및 상기 기준선과 차선 간의 각도를 비교하여 상기 도로이벤트가 점유한 도로이벤트 점유차로를 결정하는 단계를 포함하되, 상기 기준선은 차선의 소실점을 지나는 영상의 수직선에서 소실점 상단의 선일 수 있다.In addition, the method for detecting a road event occupied lane based on a camera according to the present invention comprises the steps of: (a) acquiring an image of a road around the vehicle from a camera; (b) recognizing a road event and lane acting as a risk factor on a surrounding road from the image; and (c) when the road event is recognized, comparing the angle between the reference line and the road event and the angle between the reference line and the lane in the image to determine the road event occupied lane occupied by the road event, wherein the reference line may be a line above the vanishing point in a vertical line of the image passing through the vanishing point of the lane.
본 문서에 개시되는 다양한 실시 예들에 따르면, GNSS(Global Navigation Satellite System)나 지도정보의 도움없이도 카메라로 촬영된 영상만을 이용하여 차량의 주변 도로에 발생한 도로이벤트가 점유하고 있는 차로를 용이하게 검출함으로써, 차량의 자율주행에 많은 도움을 줄 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.According to various embodiments disclosed in this document, it is possible to easily detect a lane occupied by a road event occurring on a road around a vehicle using only an image captured by a camera without the aid of a Global Navigation Satellite System (GNSS) or map information. , can help a lot in autonomous driving of vehicles. In addition, various effects directly or indirectly identified through this document may be provided.
도 1은 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 방법을 설명하기 위한 도면이다.
도 2는 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 장치의 구성도를 나타낸다.
도 3은 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 방법의 개략 흐름도를 나타낸다.
도 4는 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 방법의 세부 흐름도를 나타낸다.
도 5는 일 실시예에 따른 차량 좌측 방향의 도로이벤트 점유차로 검출 방법을 나타낸다.
도 6은 일 실시예에 따른 차량 우측 방향의 도로이벤트 점유차로 검출 방법을 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.1 is a diagram for explaining a camera-based road event occupied lane detection method according to the present invention.
2 is a block diagram of a camera-based road event occupied lane detection apparatus according to the present invention.
3 is a schematic flowchart of a camera-based road event occupied lane detection method according to the present invention.
4 is a detailed flowchart of a camera-based road event occupied lane detection method according to the present invention.
5 illustrates a method of detecting a road event occupied lane in a left direction of a vehicle according to an exemplary embodiment.
6 illustrates a method for detecting a road event occupied lane in a right direction of a vehicle according to an exemplary embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
도 1은 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 방법을 설명하기 위한 도면이다.1 is a diagram for explaining a camera-based road event occupied lane detection method according to the present invention.
도 1을 참조하면, 도로이벤트 점유차로 검출 장치(110)는 카메라를 이용하여 적어도 하나 이상의 차량의 주행 방향에 대한 영상(정지영상 또는 동영상)을 획득할 수 있다. 상기 카메라는 예를 들면, 차량의 전방, 후방 및 좌우측 중 적어도 어느 하나 이상의 방향을 촬영할 수 있다. Referring to FIG. 1 , the road event occupied
도로이벤트 점유차로 검출 장치(110)는 카메라로 촬영된 영상에 컴퓨터 비젼 영상처리 기법을 적용하여 차선(traffic line, traffic lane)을 인식하고, 이러한 차선 인식 결과에 기반하여 차로(traffic path)를 검출할 수 있다. 나아가, 도로이벤트 점유차로 검출 장치(110)는 검출된 차로에 대한 정보를 이용하여 전체 차로 수 및 차량이 주행하고 있는 차로인 주행차로 정보를 획득할 수 있다. The road event occupied
본 발명에 따르면, 도로이벤트 점유차로 검출 장치(110)는 카메라로 촬영된 영상에 허프변환 (Hough Transform) 방식, 역변환매핑 (IPM, Inverse Perspective Mapping) 방식, RANSAC line Fitting (RAndom SAmple Consensus) 방식, 베이지어 곡선 정합(Beizer Spline Fitting) 방식 중 적어도 하나 이상의 알고리즘을 적용하여 차선을 인식할 수 있다. 그러나 이에 한정되는 것은 아니며 그 외의 다양한 방식이나 알고리즘을 이용하여 차선을 인식할 수 있음은 물론이다. According to the present invention, the road event occupancy
도로이벤트 점유차로 검출 장치(110)는 획득된 영상에 포함된 객체를 비지도 학습(unsupervised learning) 기반 인공지능 기술에 따라 분석하고, 분석된 객체에 기반하여 주변 도로 상에 사고 위험성이 있는 도로이벤트(120)가 존재하는지를 확인할 수 있다. 도로이벤트 점유차로 검출 장치(110)는 차량의 전방 및/또는 후방에 탑재되는 카메라로부터 획득된 영상을 이용하여 차선과 차로를 검출하고 도로이벤트를 인식할 수 있다. 물론 도로이벤트 점유차로 검출 장치(110)는 좌측 및/또는 우측에 탑재된 카메라로부터 획득된 영상을 이용하여 차선과 차로를 검출하고 도로이벤트를 인식할 수 있을 뿐만 아니라, 전후좌우 중의 적어도 하나에 탑재된 카메라로부터 획득된 영상을 이용하여 차선과 차로를 검출하고 도로이벤트를 인식할 수 있음은 물론이다.The road event occupied
상기 비지도 학습은 학습 결과에 대한 목표 값이 없을 때, 학습 데이터의 관계에 따른 추론을 학습시킴에 따라 원하는 대상(예: 객체)을 분석하는 방법일 수 있다. 상기 도로는 예를 들면, 적어도 하나의 차로(traffic path)를 포함하는 차량이 주행할 수 있는 도로를 포함할 수 있다. 차량이 주행하는 도로에서 차선(traffic lane, traffic line)으로 구분한 차도의 부분을 차로(traffic path)라 한다. 차로는 예를 들면, 중앙선(예: 노란색 실선) 및 차선(예: 흰색 점선) 중 적어도 하나의 선으로 구분되는 길일 수 있다. The unsupervised learning may be a method of analyzing a desired object (eg, an object) by learning inference according to a relationship between learning data when there is no target value for a learning result. The road may include, for example, a road on which a vehicle including at least one traffic path can travel. A portion of a road divided into traffic lanes (traffic lanes) on a road on which a vehicle travels is called a traffic path. The lane may be, for example, a road divided by at least one of a center line (eg, a solid yellow line) and a lane (eg, a dotted white line).
한편, 본 발명에서 도로이벤트(120)란 주행 중인 차량을 제외하고 도로 상에 나타날 수 있는 객체를 의미하며, 예를 들면, 도로 상에 떨어진 낙하물, 도로 상에 발생한 홀(hole)(예: 싱크홀(sinkhole), 포트홀(porthole)), 사고 차량, 공사 지역이나 사고 지역을 표시하는 러버콘(rubber cone) 중 어느 하나를 포함할 수 있다. On the other hand, in the present invention, the
소실점(vanishing point)은 물리공간에서 평행한 직선들이 영상에 투영되어 원근효과(perspective effect)에 의해 마치 한 점에서 만나는 것처럼 보이는 점이다. 그리고, 소실선(vanishing line)은 소실점들이 모여서 이루어진 직선이다. 평행한 평면에 속한 직선들의 소실점들은 일직선을 이룬다. 또한 어떤 평면에 대한 소실선(vanishing line)은 이 평면과 수평이고 카메라 원점을 지나는 평면이 이미지 평면과 만나서 생기는 교선이다. A vanishing point is a point where parallel straight lines in physical space are projected onto an image and appear to meet at one point by a perspective effect. And, the vanishing line is a straight line formed by gathering vanishing points. Vanishing points of straight lines in a parallel plane form a straight line. Also, a vanishing line for a plane is an intersection that is formed when a plane that is horizontal to this plane and passes through the camera origin meets the image plane.
즉, 지면 위의 한 직선을 이미지에 투영해 보면 직선을 무한히 확장하였을 경우 결국 소실선 상의 어느 한 점으로 수렴하게 됨을 쉽게 상상할 수 있다.That is, if a straight line on the ground is projected onto an image, it can be easily imagined that if the straight line is extended infinitely, it will eventually converge to a point on the vanishing line.
영상에서 소실선의 위치는 카메라의 평행이동과는 무관하며 오직 카메라의 자세(3D 회전)에만 영향을 받는다. 따라서 카메라로 촬영된 촬영 영상에서 소실선의 위치를 알면 캘리브레이션을 하지 않고도 카메라의 팬(pan), 틸트(tilt), 롤(roll)을 알아낼 수 있다. 즉, 소실점/소실선을 이용한 카메라의 3D 자세측정이 가능하다. 그런데, 영상에서 소실점/소실선을 이용하면 이러한 외부 파라미터(extrinsic parameter) 뿐만 아니라 카메라의 내부 파라미터 추정도 가능하다. 즉, 카메라의 초점거리 및 주점의 추정이 가능하다. The position of the vanishing line in the image is independent of the camera's translation and is affected only by the camera's posture (3D rotation). Therefore, if the position of the vanishing line in the captured image taken with the camera is known, the pan, tilt, and roll of the camera can be determined without calibration. That is, it is possible to measure the 3D posture of the camera using the vanishing point/vanishing line. However, by using the vanishing point/vanishing line in the image, it is possible to estimate not only these external parameters but also the internal parameters of the camera. That is, it is possible to estimate the focal length and main point of the camera.
결국, 도로이벤트 점유차로 검출 장치(110)는 차량에 탑재되는 카메라로 촬영된 촬영 영상에서 차선을 인식한 후 인식된 차선으로부터 차로를 검출하고, 차선이 도로상에서 평행하기 때문에 차선이 소실점으로 모이는 성질을 이용하여 차선의 소실점을 검출할 수 있다.As a result, the road event occupied
도로이벤트 점유차로 검출 장치(110)는 주변 도로 상의 도로이벤트(120)를 확인하면, 소실점에 기준하여(예: 소실점을 구심점으로 하여) 획득된 영상으로부터 차량과 도로이벤트(120) 간의 2개의 도로이벤트 점유각도 및 모든 차선에 대한 차선각도를 확인할 수 있다. 차선은 예를 들면, 각 차로를 구분하는 차선 및 중앙선을 포함할 수 있다. When the road event occupied
여기서 도로이벤트 점유각도는 제1 점유각도 및 제2 점유각도를 포함한다.Here, the road event occupancy angle includes a first occupancy angle and a second occupancy angle.
차선의 소실점을 지나는 영상의 수직선에서 상단의 선을 기준선(A)이라고 하면, 제1 점유각도(β1)는 소실점과 도로이벤트의 우측 에지를 연결한 제1 에지선(B1) 및 기준선(A) 간의 각도이고, 제2 점유각도(β2)는 소실점과 도로이벤트의 좌측 에지를 연결한 제2 에지선(B2) 및 기준선(A) 간의 각도이다.If the upper line in the vertical line of the image passing through the vanishing point of the lane is the reference line (A), the first occupancy angle (β1) is the first edge line (B1) and the reference line (A) connecting the vanishing point and the right edge of the road event. and the second occupancy angle β2 is an angle between the second edge line B2 connecting the vanishing point and the left edge of the road event and the reference line A.
그리고, 차선각도는 모든 차선 및 기준선(A)과 이루는 각도(α1, α2, α3)이다. 주행중인 차로를 기준으로 좌측 차선과 우측 차선이 있을 수 있으며, 제일 우측 차선부터 순서대로 각각의 차선들이 기준선과 이루는 각도가 차선각도가 된다.And, the lane angle is the angle (α1, α2, α3) formed with all the lanes and the reference line A. There may be a left lane and a right lane based on the driving lane, and the angle formed by the respective lanes with the reference line in order from the rightmost lane becomes the lane angle.
도로이벤트 점유차로 검출 장치(110)는 2개의 도로이벤트 점유각도 및 차선각도를 서로 비교하여 도로이벤트(120)가 점유한 차로를 결정할 수 있다. The road event occupied
예를 들어, 도 1에서처럼, 차량이 2차선 도로에서 1차로로 전방 방향으로 주행 중이고, 도로이벤트(120)가 차량의 우측 방향에 존재할 수 있다. 이 경우, 도로이벤트 점유차로 검출 장치(110)는 차선의 소실점을 지나는 영상의 수직선에서 소실점 상단의 선인 기준선(A) 및 소실점과 도로이벤트(120)의 우측과 좌측 에지를 잇는 2개의 에지선(B1, B2)을 결정하고, 결정된 기준선 및 2개 에지선 간의 도로이벤트 점유각도(β1, β2)를 각각 확인할 수 있다. For example, as shown in FIG. 1 , the vehicle is traveling in the forward direction from the two-lane road to the first lane, and the
도 1의 경우, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상으로부터 소실점과 기준선(A)을 결정하고, 소실점과 가장 우측의 차선 간을 잇는 제1 직선(이하, '비교선'이라 함), 소실점과 상기 제1 직선의 좌측에 있는 차선을 잇는 제2 직선, 및 소실점과 제2 직선의 좌측에 있는 차선을 잇는 제3 직선을 결정하고, 결정된 기준선(A)과 제1 직선 간의 제1 차선각도(α1), 기준선(A)과 제2 직선 간의 제2 차선각도(α2), 및 기준선(A)과 제3 직선 간의 제2 차선각도(α3)를 각각 확인할 수 있다. 도로는 복수 개의 차로로 이뤄질 수 있으므로, 기준선과 차선 간의 차선각도에서 가장 우측 차선에서부터 순차적으로 제1 내지 제n 차선각도를 부여할 수 있다.In the case of FIG. 1 , the road event occupied
도로이벤트(120)는 차량의 주행방향에서 좌측 또는 우측에 존재할 수 있고, 복수 개가 존재할 수도 있으므로, 도로이벤트 점유차로 검출 장치(110)는 각각의 이벤트를 독립적으로 확인하는 동시에 각 도로이벤트에 대하여 도로이벤트 점유각도 및 차선각도를 모두 결정할 수 있다.Since the
도로이벤트 점유차로 검출 장치(110)는 도로이벤트 점유각도(β1, β2), 제1 차선각도(α1), 제2 차선각도(α2), 및 제3 차선각도(α3)를 서로 비교하여 도로이벤트(120)가 점유한 차로를 결정할 수 있다. 예를 들어, 도로이벤트에 대응하는 도로이벤트 점유각도(β1, β2)가 각 차선에 대응하는 제1 차선각도(α1)보다 크고 제2 차선각도(α2)보다 작으므로, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 2차로로 결정할 수 있다. The road event occupied
물론, 도로이벤트는 하나의 차로 내에 있을 수도 있고, 여러 차로를 모두 점유하고 있을 수도 있다. 도 1에서, 도로이벤트 점유각도 중의 제1 점유각도(β1)가 제2 차선각도(α2)보다 작고 제2 점유각도(β2)가 제2 차선각도(α2)보다 큰 경우, 도로이벤트(120)는 주행중인 차로 및 그 우측 차로에 걸쳐 존재하는 것으로 결정될 수 있다.Of course, the road event may be within one lane, or may occupy all of several lanes. In FIG. 1, when the first occupancy angle β1 among the road event occupancy angles is smaller than the second lane angle α2 and the second occupancy angle β2 is greater than the second lane angle α2, the
도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 결정하면, 도로이벤트로 인한 차량 사고를 방지하기 위해 도로이벤트(120)가 점유한 차로를 우회하도록 차량을 제어또는 지원할 수 있다. 부가적으로 또는, 대체적으로, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)의 위치(예:도로이벤트가 점유한 차로)를 출력 장치(예: 디스플레이 또는 스피커 중 적어도 하나)를 통해 안내할 수 있다.When the road event occupied
일 실시예에 따르면, 도로이벤트 점유차로 검출 장치(110)는, 차량 내 헤드 유닛, 임베디드 보드, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 차량, 미디어 플레이어, 마이크로 서버, GGNSS(Global Navigation Satellite System) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전 기기 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 한정되지 않는다. 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 카메라로부터 영상(예를 들어, 동영상(video) 및 정지 영상(still image))를 획득하고, 획득된 영상에 기초하여 사용자에게 알림 메시지를 제공할 수 있는 모든 종류의 기기를 포함할 수 있다. According to an embodiment, the road event occupancy
도로이벤트 점유차로 검출 장치(110)는 차량에 설치된 모듈로서, 차량의 동작을 제어할 수 있으며, 소정의 네트워크를 통하여 차량에 설치된 다른 모듈과 통신하며 도로이벤트 점유차로에 대한 정보를 주고받을 수 있다. 도로이벤트 점유차로 검출 장치(110)는 스마트폰과 같은 차량과 별개의 장치일 수 있으며, 도로이벤트 점유차로 검출 장치(110)의 카메라 또는 차량에 설치된 다른 장치의 카메라로부터 이용하여 영상을 획득할 수 있고, 지정된 네트워크를 통하여 차량의 주변을 촬영할 수 있는 카메라로부터 영상을 수신할 수도 있다. 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있다. 차량(vehicle)은, 통신 기능, 데이터 처리 기능, 및 운송 기능을 구비한 자동차, 버스, 트럭, 기차, 자전거, 오토바이 등의 교통 수단일 수 있다. 차량은 가상현실과 실시간 차량해석 프로그램을 이용하여 차량의 도로이벤트를 검출할 수 있도록 하는 드라이빙 시뮬레이터 시스템일 수 있다. 시뮬레이터는 실제 또는 가상의 동적 시스템 모형을 제작한 다음 컴퓨터 프로그램을 통해 시험 및 평가하는 것으로, 가상현실에서의 차량의 이동에 따른 주행데이터를 효율적으로 확보하기 위하여 이용될 수 있다.The road event occupied
상술한 실시예에 따르면, 도로이벤트 점유차로 검출 장치(110)는 차량 주변을 촬영한 영상에서 확인된 소실점에 기준한 도로이벤트 점유각도 및 차선 간의 각도에 기반하여, 사고 위험성이 있는 도로이벤트가 점유한 차로를 빠르게 검출할 수 있다. 또한, 도로이벤트 점유차로 검출 장치(110)는 차량에 기준한 도로이벤트의 위치 방향(예: 좌측 또는 우측)에 대한 각도만을 이용하여 도로이벤트가 점유한 차로를 검출할 수 있어, 도로이벤트 위치 검출을 위한 연산을 줄이고 처리 속도를 높일 수 있다.According to the above-described embodiment, the road event occupied
도 2는 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 장치의 구성도를 나타낸다.2 is a block diagram of a camera-based road event occupied lane detection apparatus according to the present invention.
도 2를 참조하면, 본 발명에 따른 카메라 기반의 도로이벤트 점유차로 검출 장치(110)는 카메라(111), 메모리(113) 및 프로세서(119)를 포함할 수 있다. 일 실시 예에서, 도로이벤트 점유차로 검출 장치(110)는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 통신 회로(115) 및 출력 장치(117) 중의 적어도 하나를 더 포함할 수 있다. Referring to FIG. 2 , the camera-based road event occupied
다른 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 카메라(111)를 포함하지 않고, 다른 장치(예: 어라운드 뷰(around view) 시스템)나 애프터마켓 제품에 구비된 카메라(111)로부터 영상을 획득(예: 수신)할 수 있다. 또한, 도로이벤트 점유차로 검출 장치(110)의 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다. For another example, the road event occupancy
카메라(111)는 프로세서(119)의 명령(commend)에 따라 정지 영상 또는 동영상을 촬영하고, 촬영된 정지 영상 또는 동영상을 출력할 수 있다. 카메라(111)는 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서에 기반하여 구현될 수 있다. 카메라(111)는 차량의 전방, 후방, 및 좌우측방 중의 적어도 하나를 촬영 가능하도록 마련될 수 있다.The
메모리(113)는 예를 들면, 도로이벤트 점유차로 검출 장치(110)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 메모리(113)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. 메모리(113)는 실행 시에 프로세서(119)가 도로이벤트를 검출하도록 하는 적어도 하나의 인스트럭션을 저장할 수 있다. 상기 적어도 하나의 인스트럭션은 예를 들면, 영상에 포함된 객체를 인식하여 검출하고, 검출된 객체의 종류를 확인하고, 지정된 객체에 대하여 이동 속도, 이동 방향 및 크기 중 적어도 하나의 변수를 확인 가능한 것일 수 있다. 메모리(113)는 객체 및 도로이벤트의 종류를 검출하기 위한 객체 관련 데이터 및/또는 도로이벤트 관련 데이터를 저장할 수 있다. 상기 객체의 종류는 예를 들면, 차도, 인도, 빌딩, 벽, 가드레일, 기둥, 신호등, 교통 표지판, 지주, 식물, 하늘, 사람, 자동차, 트럭, 버스, 기차, 오토바이, 자전거 및 안전 삼각대 중의 적어도 하나를 포함할 수 있으며, 도로이벤트의 종류는 도로 상에 떨어진 낙하물, 도로 상에 발생한 홀(예: 싱크홀, 포트홀), 사고 차량, 및 공사 지역이나 사고 지역을 표시하는 러버콘(rubber cone) 중의 적어도 하나를 포함할 수 있다.The
통신 회로(115)는 도로이벤트 점유차로 검출 장치(110)와 다른 장치(예: 차량 내 다른 장치) 간의 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 상기 통신 채널은 차량 네트워크 예를 들면, CAN(controller area network) 및 MOST(media oriented systems transport)를 포함하는 통신 채널일 수 있다. 상기 통신 채널은 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합에 따른 통신 채널을 포함할 수 있다. 통신 회로(115)는 본 발명에 따라 획득된 도로이벤트 점유차로에 대한 정보를 외부의 장치와 서로 교환할 수 있으며, GNSS(Global Navigation Satellite System) 신호를 수신하고 차량 현 위치를 산출하는 GNSS 모듈을 포함할 수 있다.The
출력 장치(117)는 프로세서(119)의 명령에 따라 소리를 출력 가능한 스피커 또는 영상을 출력 가능한 디스플레이 중 적어도 하나를 포함할 수 있으며, 도로이벤트 점유차로에 대한 정보를 영상이나 소리로 출력할 수 있다.The
프로세서(119)는 메모리(113)에 저장된 인스트럭션들을 이용하여 도로이벤트 점유차로 검출 장치(110)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(119)는 예를 들어, 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 애플리케이션 프로세서(application processor), 주문형 반도체(ASIC(application specific integrated circuit), FPGA(field programmable gate arrays)) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.The
프로세서(119)는 카메라(111)를 이용하여 차량의 주변 도로를 포함하는 영상(예: 전방 영상)을 획득하고, 획득된 영상에서 도로 영역으로 예상되는 관심 영역(ROI: region of interest)을 추출할 수 있다. The
프로세서(119)는 카메라로 촬영된 영상에 컴퓨터 비젼 영상처리 기법을 적용하여 차선을 인식하고, 이러한 차선 인식 결과에 기반하여 소실점(vanishing point) 및 차로(traffic path)를 검출할 수 있다. The
또한, 프로세서(119)는 주행중인 도로에서 전체 차로 수 및 주행차로 정보를 검출할 수 있다. 이러한 전체 차로 수 및 주행차로 정보는 프로세서(119)가 직접 인식하여 검출할 수도 있으며, 다른 외부의 장치나 모듈로부터 전체 차로 수 및 주행차로 정보를 획득할 수도 있음은 물론이다.In addition, the
프로세서(119)는 비지도 학습 기반 인공지능 기술에 따라 영상에서 검출된 객체를 분석 및 분류하여 차량의 주변 도로 상에 존재하는 도로이벤트를 검출할 수 있다. 예를 들어, 프로세서(119)는 머신러닝 또는 딥러닝 분석 모듈을 이용하여 도로 상 객체의 종류를 분류하고, 객체의 종류를 분류 가능한 대상(예: 차량, 차선, 노면 표지)을 제외한 나머지를 사고 위험이 있는 도로이벤트로 검출할 수 있다. 다른 예를 들어, 프로세서(119)는 객체 관련 데이터에 기반하여 주변 도로 상에 종류 미상(未詳) 객체가 존재하는 것을 확인하면, 상기 미상 객체를 사고 위험이 있는 도로이벤트로 결정할 수 있다. The
상기 머신러닝 또는 딥러닝 분석 모듈은 객체 관련 데이터에 따른 비지도 학습을 통해 학습된 도로 위 객체를 군집화 알고리즘(clustering algorithm)에 기반하여 분류하는 모듈로서, 프로세서(119)에 의해 구현되는 소프트웨어 모듈일 수 있다. 상기 비지도 학습은 예를 들면, 학습 결과에 대한 목표 값이 없을 때, 학습 데이터의 관계에 따른 추론을 학습시킴에 따라 원하는 대상(예: 객체)을 분석 또는 분류하는 방법일 수 있다. 상기 비지도 학습은 형태나 모양이 정해져 있지 않아, 학습 지도를 위한 학습 데이터를 구성하는 것이 어려운 대상(예: 도로 상 낙하물, 홀, 사고 지점, 위험 지점)을 분류하는데 효율적일 수 있다.The machine learning or deep learning analysis module is a module for classifying objects on the road learned through unsupervised learning according to object-related data based on a clustering algorithm, and is a software module implemented by the
프로세서(119)는 상기 검출된 도로이벤트 중에서 예외 상황에 있는 객체를 제외시킬 수 있다. 상기 예외 상황에 있는 객체는 예를 들면, 횡단보도 상에 위치한 사람 객체를 포함할 수 있다.The
프로세서(119)는 분류된 객체의 종류에 기반하여 도로의 차선(예: 점선 차선 및 중앙선)을 인식할 수 있다. 예를 들어, 프로세서(119)는 영상에서 객체 관련 데이터에 따른 차선의 패턴에 대응하는 객체를 인식하면, 인식된 객체를 차선으로 판단할 수 있다. The
추가적으로, 또는 대체적으로, 프로세서(119)는 전체 차로 수에 대한 정보 및/또는 영상에서 검출된 객체에 기반하여 차선을 인식할 수 있다. 상기 전체 차로 수 정보는 예를 들면, 통신 회로(115)를 통해 확인된 차량의 현 위치에 대응하는 메모리(113)에 저장된 차로 정보(예: 맵 정보에 포함될 수 있음)일 수 있다. 예를 들어, 프로세서(119)는 영상으로부터 검출된 객체(예: 가드레일, 건물, 나무)와 차량 간의 거리에 기반하여 도로 영역을 결정하고, 도로 영역 및 전체 차로 수 정보에 기반하여 영상에서 차로 폭을 추정할 수 있다. 프로세서(119)는 추정된 차로 폭에 기반하여 차량의 주변 도로에 존재하는 차선을 인식할 수 있다. 프로세서(119)는 인식된 도로 영역 또는 인식된 차선에 기반하여 주변 도로를 인식할 수 있다. 상기 주변 도로는 차량이 주행중인 차로 및 적어도 하나의 인접 차로를 포함할 수 있다.Additionally or alternatively, the
프로세서(119)는 주변 도로에 존재하는 도로이벤트를 확인하면, 도로이벤트가 점유한 차로를 결정하기 위하여, 영상의 소실점에 기준하여(예: 소실점을 구심점으로 하여) 차량과 도로이벤트(120) 간의 2개의 도로이벤트 점유각도 및 모든 차선에 대한 차선각도를 결정할 수 있다. When the
프로세서(119)는 예를 들면, 에지 검출 알고리즘(예: 캐니 에지(canny edge) 검출기)을 이용하여 카메라(111)로부터 획득된 영상에서 에지를 검출하고, 예컨대, 허프 변환(hough transform)을 이용하여 검출된 에지에서 직선 성분들이 가장 많이 모이는 점을 영상의 소실점으로 결정할 수 있다. 상기 허프 변환은 에지 외의 잡음이 제거된 영상에서 픽셀 들을 직선으로 변환하는 것일 수 있다. The
예를 들어, 프로세서(119)는 기준선(A) 및 도로이벤트 점유각도를 확인할 수 있다. 여기서 도로이벤트 점유각도는 제1 점유각도 및 제2 점유각도를 포함하며, 제1 점유각도(β1)는 소실점과 도로이벤트의 우측 에지를 연결한 제1 에지선(B1)과 기준선(A) 간의 각도이고, 제2 점유각도(β2)는 소실점과 도로이벤트의 좌측 에지를 연결한 제2 에지선(B2)과 기준선(A) 간의 각도이다.For example, the
프로세서(119)는 2개의 도로이벤트 점유각도와 차선각도를 각각 비교하여 도로에서 도로이벤트가 점유한 차로를 결정할 수 있다. The
이처럼, 2개의 도로이벤트 점유각도와 각 차선에 따른 차선각도를 서로 비교하면, 프로세서(119)는 도로이벤트가 점유한 차로를 판단할 수 있다. 물론, 도로이벤트가 커서 여러 개의 차로를 함께 점유할 수도 있으며, 프로세서(119)는 이러한 경우까지도 판단할 수 있음은 물론이다.As such, when the occupancy angles of the two road events are compared with the lane angles according to each lane, the
상술한 실시예에서, 프로세서(119)는 도로이벤트가 주행중인 차량의 차로 상에 존재하는 것을 확인할 수도 있다. 이 경우, 프로세서(119)는 차량이 주행중인 차선을 도로이벤트가 점유한 차로로 결정할 수 있다.In the above-described embodiment, the
프로세서(119)는 도로이벤트가 점유한 차로를 결정하면, 도로이벤트를 우회하도록 차량의 주행을 제어할 수 있다. 프로세서(119)는 도로이벤트 점유차로 관련 정보(예: 영상 또는 소리)를 출력 장치(117)를 통하여 출력할 수 있다. 예를 들어, 프로세서(119)는 "전방에 사고 위험성이 있는 도로이벤트가 있습니다."라는 소리를 스피커를 통해 출력할 수 있다. 도로이벤트의 방향 및 점유차로에 대한 정보도 함께 출력할 수 있음은 물론이다.When the
다양한 실시예에 따르면, 프로세서(119)는 검출된 객체의 이동 속도, 이동 방향 및 크기 중 적어도 하나의 변수에 기반하여 차량의 주변 도로 상에 존재하는 도로이벤트를 검출할 수 있다. 예를 들어, 프로세서(119)는 카메라(111)로부터 연속하는 복수의 영상들을 획득한 후 복수의 영상들에서 검출된 객체의 위치 변화에 기반하여 차로 상에 도로이벤트가 존재하는지를 확인할 수 있다. 프로세서(119)는 예를 들면, 복수의 영상들에서 객체의 위치 변화를 확인하고, 차량의 현재 속도 및 확인된 객체의 위치 변화에 기반하여 객체의 이동 속도, 이동 방향 및 크기 중 적어도 하나를 확인할 수 있다. According to various embodiments, the
프로세서(119)는 예를 들면, 도로의 차로 폭에 기반하여 객체의 크기를 추정할 수 있다. 프로세서(119)는 예를 들면, 영상에 포함된 객체의 위치 변화에 기반하여 객체의 이동 속도를 결정할 수 있다. 프로세서(119)는 예를 들면, 영상에 포함된 객체의 크기를 확인하고, 크기/거리 관련 데이터(메모리(113)에 저장됨)에 기반하여 객체의 크기에 따른 객체와의 거리를 결정할 수 있다. 상술한 실시예에 따르면, 프로세서(119)는 객체의 종류를 인식한 객체라도 해당 객체의 변화에 이상이 있으면(예: 도로 상에 멈춰있는 차량에 관련된 객체), 인식한 객체를 도로이벤트로 검출할 수 있다.The
다양한 실시예에 따르면, 영상에 기반하여 인식된 차선 중 적어도 일부(예: 소실점과 근접한 영역)는 곡선 차선일 수 있다. 이 경우, 프로세서(119)는 소실점에 기준하여 인식된 차선 중 도로이벤트에 대응하는 방향(예: 기준선에 대한 도로이벤트의 방향)의 차선을 직선 차선으로 변환하고, 변환된 직선 차선에 기반하여 도로이벤트가 위치한 차로를 검출할 수 있다. According to various embodiments, at least some of the lanes recognized based on the image (eg, an area close to the vanishing point) may be curved lanes. In this case, the
다양한 실시예에 따르면, 프로세서(119)는 통신 회로(115)를 통해 다른 장치(예: 교통 정보 제공 서버)로부터 도로이벤트 정보를 수신하고, 수신된 도로이벤트 정보로부터 검출된 도로이벤트를 확인 가능한 경우에는 도로이벤트가 점유한 차로를 확인하지 않을 수 있다. 수신된 도로이벤트 정보로부터 검출된 도로이벤트를 확인 가능한 경우, 프로세서(119)는 상술한 바와 같이 도로이벤트가 점유한 차로를 결정하고 통신 회로(115)를 통해 다른 장치에 도로이벤트가 점유한 차로 정보를 송신할 수 있다.According to various embodiments, when the
상술한 실시예에서는 도로이벤트 점유차로 검출 장치(110)가 자율 주행 시에 카메라(111)의 영상에 기반하여 주행 도로 상의 도로이벤트를 검출하는 것을 예로 들어 설명하였다. 하지만, 이에 한정되지 않는다. 예를 들면, 도로이벤트 점유차로 검출 장치(110)는 네비게이션을 통해 경로 안내 기능을 제공할 때에 카메라(111)를 이용하여 획득된 영상에 기반하여 주행 도로 상 도로이벤트를 검출할 수 있다.In the above-described embodiment, it has been described as an example that the road event occupied
상술한 실시예에 따르면, 도로이벤트 점유차로 검출 장치(110)는 차량 주변을 촬영한 영상에서 확인된 소실점에 기준한 도로이벤트 및 차선 간의 각도에 기반하여 도로이벤트가 점유한 차로를 빠르게 검출할 수 있다. 또한, 도로이벤트 점유차로 검출 장치(110)는 차량에 대한 도로이벤트의 방향 및 도로이벤트 점유각도를 이용하여 도로이벤트가 점유한 차로를 검출할 수 있어, 연산량을 줄이고 처리 속도를 높일 수 있다.According to the above-described embodiment, the road event occupied
도 3은 본 발명에 따른 도로이벤트 점유차로 검출 방법의 개략 흐름도를 나타낸다.3 is a schematic flowchart of a method for detecting a road event occupied lane according to the present invention.
본 발명에 따른 도로이벤트 점유차로 검출 방법은 전술한 본 발명에 따른 도로이벤트 점유차로 검출 장치에 의해 수행되는 방법으로서, 실질적으로 동일한 발명이므로 중복되는 설명은 생략하도록 한다.The method for detecting a road event occupied lane according to the present invention is a method performed by the above-described device for detecting a road event occupied lane according to the present invention, and since it is substantially the same invention, the overlapping description will be omitted.
도 3을 참조하면, S100에서, 도로이벤트 점유차로 검출 장치(예: 도 2의 도로이벤트 점유차로 검출 장치(110))는 카메라(예: 도 2의 카메라(111))에 의해 촬영된 주변 도로를 포함하는 영상을 획득할 수 있다. 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 카메라(111)로부터 차량 주행 방향의 주변 도로를 포함하는 영상을 획득할 수 있다. 다른 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 차량의 전방, 후방 및 측방 중의 적어도 하나에 탑제된 카메라(111)로부터 차량 주변 도로를 포함하는 영상을 획득할 수 있다.Referring to FIG. 3 , in S100 , the road event occupied lane detecting device (eg, the road event occupied
S200에서, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상에서 도로이벤트를 인식하여 차량의 주변 도로 상에 사고 위험성이 있는 도로이벤트가 존재하는지를 확인할 수 있다. 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상 내에 지정된 조건에 부합하는 도로이벤트가 존재하는지를 확인할 수 있다. 상기 지정된 조건은 예를 들면, 주변 도로 상에 존재하는 객체의 종류를 확인할 수 없는 경우 및 주변 도로 상에 존재하는 객체가 지정된 크기 이상이면서 지정된 속도 이하이고 차량을 향하는 방향으로 이동중인 경우 중 적어도 하나를 포함할 수 있다.In S200 , the road event occupied
S300에서, 도로이벤트가 인식되면, 도로이벤트 점유차로 검출 장치(110)는 2개의 도로이벤트 점유각도와 차선각도를 각각 비교하여 도로에서 도로이벤트 점유차로를 결정할 수 있다. In S300 , when a road event is recognized, the road event occupied
예를 들어, 도로이벤트 점유차로 검출 장치(110)는 소실점에 기준하여 제1 점유각도와 제2 점유각도를 포함하는 도로이벤트 점유각도를 확인할 수 있다. 제1 점유각도(β1)는 소실점과 도로이벤트의 우측 에지를 연결한 제1 에지선(B1) 및 기준선(A) 간의 각도이고, 제2 점유각도(β2)는 소실점과 도로이벤트의 좌측 에지를 연결한 제2 에지선(B2) 및 기준선(A) 간의 각도이다.For example, the road event occupied
도로이벤트 점유차로 검출 장치(110)는 상기 기준선에 대하여 도로이벤트가 위치한 방향을 확인하고, 소실점에 기준하여 확인된 방향에 존재하는 모든 차선과 기준선 간의 차선각도를 확인할 수 있다. 프로세서(119)는 2개의 도로이벤트 점유각도와 각 차선각도를 비교하여 도로에서 도로이벤트가 점유한 차로를 결정할 수 있다. The road event occupied
도 4는 일 실시예에 따른 도로이벤트 점유차로 검출 방법의 세부 흐름도를 나타낸다.4 is a detailed flowchart of a method for detecting a road event occupied lane according to an embodiment.
도 4를 참조하면, S400에서, 도로이벤트 점유차로 검출 장치(예: 도 2의 도로이벤트 점유차로 검출 장치(110))는 카메라(예: 도 2의 카메라(111))로부터 주변 도로를 포함하는 영상을 획득할 수 있다. 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 카메라(111)로부터 차량 주행 방향의 주변 도로를 포함하는 영상을 획득할 수 있다. 다른 예를 들어, 도로이벤트 점유차로 검출 장치(110)는 차량의 전방, 후방 및 측방 중의 적어도 하나에 탑재된 카메라(111)로부터 차주변 도로를 포함하는 영상을 획득할 수 있다.Referring to FIG. 4 , in S400 , the road event occupied lane detecting device (eg, the road event occupied
S410에서, 도로이벤트 점유차로 검출 장치(110)는 영상으로부터 차선을 인식하고 차로를 검출하여, 전체 차로 수 및 차량이 주행하고 있는 주행차로 정보를 획득할 수 있다. In S410 , the road event occupied
S420에서, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상에서 소실점과 기준선을 결정하고, 도로이벤트를 인식한다. 이때, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상을 분석하여 차량의 주변 도로 상에 위험요소로 작용할 수 있는 도로이벤트가 존재하는지를 확인할 수 있다. In S420, the road event occupied
예를 들어, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상으로부터 검출된 차량의 주변 도로 상에 지정된 조건에 부합하는 도로이벤트가 존재하는지를 확인할 수 있다. 상기 지정된 조건은 예를 들면, 주변 도로 상에 존재하는 객체의 종류를 확인할 수 없는 경우 및 주변 도로 상에 존재하는 객체가 지정된 크기 이상이면서 지정된 속도 이하이고 차량을 향하는 방향으로 이동중인 경우 중 적어도 하나를 포함할 수 있다.For example, the road event occupied
도 4에서 S420 단계는 S410 단계 이후에 수행되는 것으로 도시되었지만, S410 단계와 S420 단계는 동시에 수행되거나 서로 순서가 변경될 수 있음은 물론이며 서로 독립적으로 수행될 수도 있다.Although step S420 is shown to be performed after step S410 in FIG. 4 , steps S410 and S420 may be performed simultaneously or the order of each other may be changed, and may also be performed independently of each other.
그리고 나서, 도로이벤트 점유차로 검출 장치(110)는 S430에서, 영상으로부터 기준선과 도로이벤트 간에 이뤄지는 2개의 도로이벤트 점유각도를 검출할 수 있다. Then, the road event occupied
S440에서, 도로이벤트 점유차로 검출 장치(110)는 모든 차선과 기준선 간의 차선각도를 검출할 수 있다. In S440 , the road event occupied
S450에서, 도로이벤트 점유차로 검출 장치(110)는 2개의 도로이벤트 점유각도와 각 차선각도를 서로 비교하여 도로에서 도로이벤트가 점유한 차로인 도로이벤트 점유차로를 결정할 수 있다. In S450, the road event occupied
이처럼, 2개의 도로이벤트 점유각도와 각 차선에 따른 차선각도를 서로 비교하면, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트가 점유한 차로를 판단할 수 있다. 물론, 도로이벤트가 커서 여러 개의 차로를 함께 점유할 수도 있으며, 도로이벤트 점유차로 검출 장치(110)는 이러한 경우까지도 판단할 수 있음은 물론이다. As such, by comparing two road event occupancy angles with each lane angle according to each lane, the road event occupied
도 5는 일 실시예에 따른 차량 좌측 방향의 도로 상 도로이벤트 점유차로 검출 방법을 나타낸다.5 illustrates a method for detecting a road event occupied lane on a road in a left direction of a vehicle according to an exemplary embodiment.
도 5를 참조하면, 차량은 5차선 도로 중에서 3차로를 주행중이고, 도로이벤트(120)(예: 도 1의 도로이벤트(120))는 차량(110)의 좌측 방향에 존재할 수 있다. Referring to FIG. 5 , the vehicle is traveling on the third lane among the 5-lane roads, and the road event 120 (eg, the
이 경우, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상에서 소실점(0)과 도로이벤트(120)의 우측 에지를 연결한 제1 에지선(B1) 및 소실점(0)과 도로이벤트(120)의 좌측 에지를 연결한 제2 에지선(B2)를 결정하고, 기준선(A)과 제1 에지선(B1) 간의 각도인 제1 점유각도(β1), 및 기준선과 제2 에지선(B2) 간의 각도인 제2 점유각도(β2)를 확인할 수 있다.In this case, the road event occupied
또한, 도로이벤트 점유차로 검출 장치(110)는 기준선에 기준하여, 가장 우측 차로의 우측 차선과 기준선(A) 간의 제1 차선각도(α1)를 확인하고, 시계 방향으로 순차적으로 제2 차선각도(α2), 제3 차선각도(α3), 제4 차선각도(α4), 제5 차선각도(α5), 및 제6 차선각도(α6)를 각각 확인할 수 있다. In addition, the road event occupied
도로이벤트 점유각도(β1, β2)가 제6 차선각도(α6) 이하이고 제5 차선각도(α5) 초과이면, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 1차로로 결정할 수 있다. 도로이벤트 점유각도(β1, β2)가 제5 차선각도(α5) 이하이고 제4 차선각도(α4) 초과이면, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 2차로로 결정할 수 있다. If the road event occupancy angles β1 and β2 are less than or equal to the sixth lane angle α6 and greater than the fifth lane angle α5, the road event occupied
물론, 도로이벤트가 적어도 하나 이상의 차로에 걸쳐서 존재할 수 있으며, 도로이벤트 점유차로 검출 장치(110)는 2개의 도로이벤트 점유각도와 각 차선각도를 서로 비교하여 도로이벤트의 방향 및 점유한 차로를 모두 판단할 수 있다.Of course, a road event may exist across at least one lane, and the road event occupied
도 5의 경우, 도로이벤트 점유각도(β1, β2)가 모두 제5 차선각도(α5) 미만이고 제4 차선각도(α4)를 초과하므로, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 2차로로 결정할 수 있다. In the case of FIG. 5, since the road event occupancy angles β1 and β2 are both less than the fifth lane angle α5 and exceed the fourth lane angle α4, the road event occupied
상술한 실시예에 따르면, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 위치한 방향에 대응하는 차로를 이용하여 도로이벤트(120)가 점유한 차로를 결정할 수 있으므로, 도로이벤트 위치 검출 시에 도로이벤트(120)가 위치하지 않은 방향의 차로를 불필요하게 분석함으로 인한 처리 부하 및 연산을 줄일 수 있다.According to the above-described embodiment, the road event occupied
도 6은 일 실시예에 따른 차량 우측 방향의 도로 상 도로이벤트 점유차로 검출 방법을 나타낸다.6 illustrates a method for detecting a road event occupied lane on a road in a right direction of a vehicle according to an exemplary embodiment.
도 6을 참조하면, 차량은 5차선 도로를 주행중이고, 도로이벤트(120)(예: 도 1의 도로이벤트(120))는 차량(110)의 우측 방향에 존재할 수 있다. Referring to FIG. 6 , the vehicle is traveling on a five-lane road, and the road event 120 (eg, the
이 경우, 도로이벤트 점유차로 검출 장치(110)는 획득된 영상에서 소실점(0)과 도로이벤트(120)의 우측 에지를 연결한 제1 에지선(B1) 및 소실점(0)과 도로이벤트(120)의 좌측 에지를 연결한 제2 에지선(B2)를 결정하고, 기준선(A)과 제1 에지선(B1) 간의 각도인 제1 점유각도(β1) 및 기준선과 제2 에지선(B2) 간의 각도인 제2 점유각도(β2)를 확인할 수 있다.In this case, the road event occupied
또한, 도로이벤트 점유차로 검출 장치(110)는 기준선에 기준하여, 가장 우측 차로의 우측 차선과 기준선(A) 간의 제1 차선각도(α1)를 확인하고, 시계 방향으로 순차적으로 제2 차선각도(α2), 제3 차선각도(α3), 제4 차선각도(α4), 제5 차선각도(α5), 및 제6 차선각도(α6)를 각각 확인할 수 있다. In addition, the road event occupied
도로이벤트의 제1 점유각도(β1)가 제1 차선각도(α1)를 초과하고 제2 차선각도(α2) 미만이며, 도로이벤트의 제2 점유각도(β2)가 제2 차선각도(α2)를 초과하고 제3 차선각도(α3) 미만이므로, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 4차로와 5차로를 함께 점유한 것으로 결정할 수 있다.The first occupancy angle β1 of the road event exceeds the first lane angle α1 and is less than the second lane angle α2, and the second occupancy angle β2 of the road event exceeds the second lane angle α2 Since it exceeds and is less than the third lane angle α3, the road event occupied
만일, 도로이벤트 점유각도(β1, β2)가 제6 차선각도(α6) 이하이고 제5 차선각도(α5) 초과이면, 도로이벤트 점유차로 검출 장치(110)는 도로이벤트(120)가 점유한 차로를 5차로로 결정할 수 있을 것 이다. If the road event occupancy angles β1 and β2 are less than or equal to the sixth lane angle α6 and greater than the fifth lane angle α5, the road event occupied
도 6에서처럼, 도로이벤트가 적어도 하나 이상의 차로에 걸쳐서 존재할 수 있으며, 도로이벤트 점유차로 검출 장치(110)는 2개의 도로이벤트 점유각도와 각 차선각도를 서로 비교하여 도로이벤트의 방향 및 점유한 차로를 모두 판단할 수 있다.As shown in FIG. 6 , a road event may exist over at least one lane, and the road event occupied
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terms used therein are not intended to limit the technical features described in this document to specific embodiments, and include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C" and "A; Each of the phrases "at least one of B, or C" may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases. Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is "coupled" or "connected" to another (eg, second) component, with or without the terms "functionally" or "communicatively". When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. As used herein, the term “module” may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 도로이벤트 점유차로 검출 장치(1401)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1436) 또는 외장 메모리(1438))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1440))로서 구현될 수 있다. 예를 들면, 기기(예: 도로이벤트 점유차로 검출 장치(1401))의 프로세서(예: 프로세서(1420))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are stored in a storage medium (eg, internal memory 1436 or external memory 1438) readable by a machine (eg, road event occupied lane detection device 1401). It may be implemented as software (eg, program 1440) including one or more stored instructions. For example, the processor (eg, the processor 1420) of the device (eg, the road event occupancy lane detecting device 1401) may call at least one of the one or more instructions stored from the storage medium and execute it. have. This makes it possible for the device to be operated to perform at least one function according to the at least one command called. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, a module or a program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.
110: 도로이벤트 점유차로 검출 장치
111: 카메라
113 : 메모리
115: 통신 회로
117: 출력 장치
119: 프로세서110: road event occupied lane detection device
111: camera
113: memory
115: communication circuit
117: output device
119: processor
Claims (14)
적어도 하나의 인스트럭션(instruction)을 저장하는 메모리; 및
프로세서를 포함하고,
상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함에 따라,
상기 카메라로부터 차량의 주변 도로를 촬영한 영상을 획득하고,
상기 영상으로부터 주변 도로 상에 위험 요소로 작용하는 도로이벤트 및 차선을 인식하되, 상기 도로이벤트는 머신 러닝 또는 딥러닝에 의해 인식되고,
상기 도로이벤트가 인식되면, 상기 영상에서 기준선과 상기 도로이벤트 간의 각도 및 상기 기준선과 상기 인식된 차선 간의 각도를 비교하여 상기 도로이벤트가 점유한 도로이벤트 점유차로를 결정하되,
상기 기준선은 차선의 소실점을 지나는 영상의 수직선에서 소실점 상단의 선이고,
상기 프로세서는,
상기 소실점과 상기 도로이벤트의 우측 에지를 연결한 제1 에지선과, 상기 소실점과 상기 도로이벤트의 좌측 에지를 연결한 제2 에지선을 검출하고, 상기 제1 및 제2 에지선과 상기 기준선 간의 각도인 도로이벤트 점유각도를 검출하고, 상기 기준선과 상기 인식된 차선 간의 차선 각도를 검출하고, 상기 도로이벤트 점유각도와 상기 차선 각도를 각각 비교하여 상기 도로이벤트 점유차로를 결정하며, 상기 인식된 차선으로부터 전체 차로 수 및 주행 차로를 검출하는 것을 특징으로 하는, 카메라 기반의 도로이벤트 점유차로 검출 장치.A camera for generating an image by photographing the surrounding road of the vehicle;
a memory storing at least one instruction; and
including a processor;
As the processor executes the at least one instruction,
Obtaining an image of the surrounding road of the vehicle from the camera,
Recognizing a road event and lane acting as a risk factor on the surrounding road from the image, the road event is recognized by machine learning or deep learning,
When the road event is recognized, the road event occupied lane occupied by the road event is determined by comparing the angle between the reference line and the road event in the image and the angle between the reference line and the recognized lane,
The reference line is a line at the top of the vanishing point in the vertical line of the image passing through the vanishing point of the lane,
The processor is
A first edge line connecting the vanishing point and the right edge of the road event and a second edge line connecting the vanishing point and the left edge of the road event are detected, and the angle between the first and second edge lines and the reference line is Detecting a road event occupancy angle, detecting a lane angle between the reference line and the recognized lane, comparing the road event occupancy angle with the lane angle, respectively, to determine the road event occupied lane, A camera-based road event occupied lane detection device, characterized in that it detects the number of lanes and driving lanes.
상기 주변 도로 상에 도로 상에 떨어진 낙하물, 도로 상에 발생한 홀, 사고 차량, 공사 지역이나 사고 지역을 표시하는 러버콘(rubber cone) 중 어느 하나를 포함하는, 카메라 기반의 도로이벤트 점유차로 검출 장치.The method according to claim 1, The road event,
A camera-based road event occupancy lane detection device including any one of a falling object falling on the road on the surrounding road, a hole occurring on the road, an accident vehicle, and a rubber cone indicating a construction area or an accident area .
상기 메모리는, 객체와 관련된 데이터를 저장하고,
상기 프로세서는,
상기 데이터에 기반하여 상기 영상으로부터 상기 객체를 검출하고,
상기 검출된 객체 중 지정된 종류의 객체에 대하여, 이동 속도, 이동 방향 및 크기 중 적어도 하나의 변수를 확인하고,
상기 적어도 하나의 변수에 기반하여 상기 도로이벤트에 해당하는지를 확인하는, 카메라 기반의 도로이벤트 점유차로 검출 장치.The method according to claim 1,
The memory stores data related to the object,
The processor is
detecting the object from the image based on the data;
Checking at least one variable among a moving speed, a moving direction, and a size for a specified type of object among the detected objects,
A camera-based road event occupancy lane detection apparatus for checking whether the road event corresponds to the road event based on the at least one variable.
출력 장치를 더 포함하고,
상기 프로세서는, 상기 도로이벤트 점유차로에 관한 영상 또는 소리를 상기 출력 장치를 통해 출력하는, 카메라 기반의 도로이벤트 점유차로 검출 장치.The method according to claim 1, wherein the device,
further comprising an output device;
The processor is configured to output an image or sound related to the road event occupied lane through the output device, a camera-based road event occupied lane detection device.
통신 회로를 더 포함하고,
상기 프로세서는, 상기 통신 회로를 이용하여 상기 도로이벤트 점유차로에 관한 정보를 외부로 송신하거나 외부로부터 수신하는, 카메라 기반의 도로이벤트 점유차로 검출 장치.The method according to claim 1, wherein the device,
further comprising a communication circuit;
wherein the processor transmits or receives information about the road event occupied lane to the outside using the communication circuit or receives from the outside, a camera-based road event occupied lane detecting device.
(b) 상기 영상으로부터 주변 도로 상에 위험 요소로 작용하는 도로이벤트 및 차선을 인식하는 단계;
(c) 상기 인식된 차선으로부터 전체 차로 수 및 주행 차로를 검출하는 단계; 및
(d) 상기 도로이벤트가 인식되면, 영상에서 기준선과 상기 도로이벤트 간의 각도 및 상기 기준선과 상기 인식된 차선 간의 각도를 비교하여 상기 도로이벤트가 점유한 도로이벤트 점유차로를 결정하는 단계를 포함하되,
상기 기준선은 차선의 소실점을 지나는 영상의 수직선에서 소실점 상단의 선이고, 상기 도로이벤트는 머신 러닝 또는 딥러닝에 의해 인식되며,
상기 (d) 단계는,
상기 소실점과 상기 도로이벤트의 우측 에지를 연결한 제1 에지선과, 상기 소실점과 상기 도로이벤트의 좌측 에지를 연결한 제2 에지선을 검출하는 단계;
상기 제1 및 제2 에지선과 상기 기준선 간의 각도인 도로이벤트 점유각도를 검출하는 단계;
상기 기준선과 상기 인식된 차선 간의 차선 각도를 검출하는 단계; 및
상기 도로이벤트 점유각도와 상기 차선 각도를 각각 비교하여 상기 도로이벤트 점유차로를 결정하는 단계를 포함하는 것을 특징으로 하는, 카메라 기반의 도로이벤트 점유차로 검출 방법.(a) obtaining an image of the vehicle surrounding the road from the camera;
(b) recognizing a road event and lane acting as a risk factor on the surrounding road from the image;
(c) detecting the total number of lanes and driving lanes from the recognized lanes; and
(d) when the road event is recognized, determining the road event occupied lane occupied by the road event by comparing the angle between the reference line and the road event in the image and the angle between the reference line and the recognized lane,
The reference line is a line at the top of the vanishing point in the vertical line of the image passing the vanishing point of the lane, and the road event is recognized by machine learning or deep learning,
Step (d) is,
detecting a first edge line connecting the vanishing point and a right edge of the road event and a second edge line connecting the vanishing point and a left edge of the road event;
detecting a road event occupancy angle that is an angle between the first and second edge lines and the reference line;
detecting a lane angle between the reference line and the recognized lane; and
and determining the road event occupied lane by comparing the road event occupancy angle with the lane angle, respectively.
상기 주변 도로 상에 도로 상에 떨어진 낙하물, 도로 상에 발생한 홀, 사고 차량, 공사 지역이나 사고 지역을 표시하는 러버콘(rubber cone) 중 어느 하나를 포함하는, 카메라 기반의 도로이벤트 점유차로 검출 방법.The method according to claim 8, The road event,
A camera-based road event occupancy detection method, including any one of a falling object falling on the road on the surrounding road, a hole occurring on the road, an accident vehicle, and a rubber cone indicating a construction area or an accident area .
메모리에 저장된 객체와 관련된 데이터에 기반하여 상기 영상으로부터 상기 객체를 검출하는 단계;
상기 검출된 객체 중 지정된 종류의 객체에 대하여, 이동 속도, 이동 방향 및 크기 중 적어도 하나의 변수를 확인하는 단계; 및
상기 적어도 하나의 변수에 기반하여 상기 도로이벤트에 해당하는지를 확인하여 도로이벤트를 인식하는 단계를 포함하는, 카메라 기반의 도로이벤트 점유차로 검출 방법.The method according to claim 8, wherein the step (b),
detecting the object from the image based on data related to the object stored in a memory;
checking at least one variable among a moving speed, a moving direction, and a size with respect to a specified type of object among the detected objects; and
and recognizing a road event by checking whether the road event corresponds to the road event based on the at least one variable.
출력 장치를 이용하여 상기 도로이벤트 점유차로에 관한 영상 또는 소리를 출력하는 단계를 더 포함하는, 카메라 기반의 도로이벤트 점유차로 검출 방법.The method of claim 8, wherein the method comprises:
The method of claim 1, further comprising outputting an image or sound related to the road event occupied lane using an output device.
통신 회로를 이용하여 상기 도로이벤트 점유차로에 관한 정보를 외부로 송신하거나 외부로부터 수신하는 단계를 더 포함하는, 카메라 기반의 도로이벤트 점유차로 검출 방법.The method of claim 8, wherein the method comprises:
The method of detecting a road event occupied lane based on a camera further comprising the step of transmitting or receiving information about the occupied lane to the outside using a communication circuit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190112768A KR102322815B1 (en) | 2019-09-11 | 2019-09-11 | Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190112768A KR102322815B1 (en) | 2019-09-11 | 2019-09-11 | Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210031165A KR20210031165A (en) | 2021-03-19 |
KR102322815B1 true KR102322815B1 (en) | 2021-11-10 |
Family
ID=75261979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190112768A KR102322815B1 (en) | 2019-09-11 | 2019-09-11 | Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102322815B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005180196A (en) * | 2003-12-16 | 2005-07-07 | Nissan Motor Co Ltd | Vehicular driving operation assist device and vehicle provided with vehicular driving operation assist device |
WO2013098995A1 (en) * | 2011-12-28 | 2013-07-04 | トヨタ自動車株式会社 | Obstruction determination device |
JP2013160700A (en) * | 2012-02-08 | 2013-08-19 | Mitsubishi Electric Corp | Vehicle surroundings monitor |
JP2018103667A (en) * | 2016-12-22 | 2018-07-05 | トヨタ自動車株式会社 | Automatic driving system |
KR101951683B1 (en) * | 2017-09-08 | 2019-02-26 | 충북대학교 산학협력단 | System and method for lane detcet for self-driving car |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150092903A (en) * | 2014-02-06 | 2015-08-17 | 주식회사 만도 | System for providing road information and method thereof |
KR102060662B1 (en) | 2017-05-16 | 2019-12-30 | 삼성전자주식회사 | Electronic device and method for detecting a driving event of vehicle |
-
2019
- 2019-09-11 KR KR1020190112768A patent/KR102322815B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005180196A (en) * | 2003-12-16 | 2005-07-07 | Nissan Motor Co Ltd | Vehicular driving operation assist device and vehicle provided with vehicular driving operation assist device |
WO2013098995A1 (en) * | 2011-12-28 | 2013-07-04 | トヨタ自動車株式会社 | Obstruction determination device |
JP2013160700A (en) * | 2012-02-08 | 2013-08-19 | Mitsubishi Electric Corp | Vehicle surroundings monitor |
JP2018103667A (en) * | 2016-12-22 | 2018-07-05 | トヨタ自動車株式会社 | Automatic driving system |
KR101951683B1 (en) * | 2017-09-08 | 2019-02-26 | 충북대학교 산학협력단 | System and method for lane detcet for self-driving car |
Also Published As
Publication number | Publication date |
---|---|
KR20210031165A (en) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106485233B (en) | Method and device for detecting travelable area and electronic equipment | |
US11461595B2 (en) | Image processing apparatus and external environment recognition apparatus | |
US10223910B2 (en) | Method and apparatus for collecting traffic information from big data of outside image of vehicle | |
CN110430401B (en) | Vehicle blind area early warning method, early warning device, MEC platform and storage medium | |
US9947228B1 (en) | Method for monitoring blind spot of vehicle and blind spot monitor using the same | |
JP5690688B2 (en) | Outside world recognition method, apparatus, and vehicle system | |
US10354152B2 (en) | Driving assistance systems and methods | |
US20170259814A1 (en) | Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object | |
CN108248602B (en) | Information processing apparatus, information processing method, and recording medium | |
CN108242182B (en) | Information processing apparatus, information processing method, and recording medium | |
US20190303688A1 (en) | System and method for advanced highway lane detection | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
JP4937844B2 (en) | Pedestrian detection device | |
JP7195200B2 (en) | In-vehicle device, in-vehicle system, and surrounding monitoring method | |
JP2018106667A (en) | Information processor, information processing method and program | |
KR102322815B1 (en) | Electronic Device and the Method for Detecting Occupancy Lane of Road Event Based on Camera | |
JP5145138B2 (en) | Driving support device, driving support control method, and driving support control processing program | |
JP4269862B2 (en) | On-vehicle moving body detection device | |
JP6953228B2 (en) | Information processing equipment, information processing methods and programs | |
US20220036099A1 (en) | Moving body obstruction detection device, moving body obstruction detection system, moving body obstruction detection method, and storage medium | |
JP6901937B2 (en) | Information processing equipment, information processing methods and programs | |
US11654897B2 (en) | System and method for controlling autonomous parking of vehicle | |
WO2023095397A1 (en) | Driving assistance device, driving assistance method | |
JP7005762B2 (en) | Sign recognition method of camera device and sign recognition device | |
WO2022163544A1 (en) | Observation device and observation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |