KR101646495B1 - 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법 - Google Patents

차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법 Download PDF

Info

Publication number
KR101646495B1
KR101646495B1 KR1020140160641A KR20140160641A KR101646495B1 KR 101646495 B1 KR101646495 B1 KR 101646495B1 KR 1020140160641 A KR1020140160641 A KR 1020140160641A KR 20140160641 A KR20140160641 A KR 20140160641A KR 101646495 B1 KR101646495 B1 KR 101646495B1
Authority
KR
South Korea
Prior art keywords
information
image information
reference line
road
vehicle
Prior art date
Application number
KR1020140160641A
Other languages
English (en)
Other versions
KR20160059149A (ko
Inventor
김진수
조현식
박도현
손유진
이범용
김영준
Original Assignee
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단 filed Critical 한밭대학교 산학협력단
Priority to KR1020140160641A priority Critical patent/KR101646495B1/ko
Publication of KR20160059149A publication Critical patent/KR20160059149A/ko
Application granted granted Critical
Publication of KR101646495B1 publication Critical patent/KR101646495B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Operations Research (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Algebra (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에 관한 것으로, 더욱 상세하게는 차량에 부착된 카메라를 통하여 입력되는 영상 정보를 이용하여 전방 도로 상의 거리를 예측하는 방법으로서, 차량에 부착된 카메라를 이용하여 차량 전방의 영상 정보를 입력받는 영상 입력 단계(S100), 상기 영상 입력 단계(S100)로부터 입력받은 영상 정보를 이용하여, 실제 차선 또는, 가상 차선의 정보를 분석하는 영상 정보 분석 단계(S200), 상기 영상 정보 분석 단계(S200)에서 분석하여 실제 차선 또는, 가상 차선의 정보를 토대로 도로 거리 정보를 예측하는 도로 거리 정보 예측 단계(S300) 및 상기 도로 거리 예측 단계(S300)에서 예측한 도로 거리 정보를 영상 정보에 표시하여 사용자에게 제공하는 표시 단계(S400)로 이루어지는 것을 특징으로 하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에 관한 것이다.

Description

차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법{Road distance estimation method using image information of black box camera}
본 발명은 차량에 부착된 카메라를 통하여 입력되는 영상 정보를 이용하여 전방 도로 상의 거리를 예측하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에 관한 것으로, 더욱 상세하게는 차량에 부착된 카메라인 블랙박스 카메라를 이용하여 카메라가 주시하고 있는 차량 진행 방향, 즉, 전방 도로 상의 영상 정보를 획득하여, 전방 도로 상의 거리를 예측하기 위하여 실제 차선 또는 가상 차선 정보를 산출함으로써, 도로 상의 거리, 즉, 기준선에서 적어도 하나의 관측선까지의 실제 거리를 예측하는 방법에 관한 것이다.
최근들어 무인자동차 기술 또는, 자율주행 차량에 관한 매우 다양한 기술들이 개발되고 있다.
이러한 기술과 관련하여, 운전자의 조작없이 차량 스스로 주행하는 방향, 즉, 전방의 주행환경을 인식하여 목표지점까지 자동적으로 운행할 수 있는 기초 및 응용 기술을 필요로 하고 있다.
특히, 차량에 부착된 카메라, 즉, 블랙박스 카메라를 활용하여 이를 통해서 입력되는 영상 정보로부터 전방에 위치한 장애물을 인식하거나, 교통 표지판을 인식, 신호등 및 보행자를 인식하거나, 이륜차, 차선 및 정지석 등을 인식하여 운전자에게 필요한 정보를 자동적으로 분석하고 이를 활용하는 기술이 요구되고 있는 실정이다.
기존의 차량 부착 카메라를 통한 영상 정보를 분석하여 활용한 기술로는, 신호등 인식 기술 및 교통 표지판 인식 기술이 대표적이며,
신호등 인식 이술은 주로 카메라에 입력되는 영상에서 색깔을 분석하여 이에 따른 신호를 판단하는 것이며,
교통 표지판 인식 기술은 표지판의 패턴에 대한 특징 점을 추출하여 인공지능망 기술을 활용하여 표지판을 인식하는 것이다.
더불어, 보행자 인식, 장애물 인식, 이륜차 인식 등과 관련된 기술 등과 같이, 움직임을 분석해서 인식하는 기술이 개발되고 있다.
이에 따른, 본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은, 차량에 부착된 카메라인 블랙박스 카메라를 이용하여 획득한 차량 주행 방향 즉, 차량 전방의 영상 정보를 분석하여 도로 거리 정보를 예측하는 방법이다.
상세하게는, 카메라의 지면 상의 설치 높이 등의 값을 미리 설정하고, 이를 이용하여 획득한 영상 정보 내에서 기준선의 폭, 관찰선의 폭, 기준선에서 관찰선까지의 거리 등을 산출하고 실제 관찰선까지의 도로 거리를 정확하게 예측하여 사용자가 인지하기 용이하도록 영상 정보에 표현하는 방법에 관한 것이다.
국내 공개 실용신안 제1998-039070호("영상인식을 통한 거리차이 감지장치", 이하 선행문헌1)에서는 비디오 카메라를 이용하여 전후방 차량과 상대거리를 감지하고 일정거리이상 접근하면 경보를 행하도록 하여 차량 충돌을 방지토록 하는 영상인식을 통한 거리차이 감지 장치를 개시하고 있다.
국내공개실용신안 제1998-039070호 (공개일자 1998.09.15.)
본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 차량에 부착된 카메라를 통하여 입력되는 영상 정보를 이용하여 전방 도로 상의 거리를 예측하는 방법을 제공하는 것으로서, 상세하게는, 차량에 부착된 카메라인 블랙박스 카메라를 이용하여 카메라가 주시하고 있는 차량 진행 방향즉, 전방 도로 상의 영상 정보를 획득하여, 전방 도로 상의 거리를 예측하기 위하여 실제 차선 또는 가상 차선 정보를 산출함으로써, 도로 상의 거리, 즉, 기준선에서 적어도 하나의 관측선까지의 실제 거리를 예측할 수 있는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법 및 이를 활용한 도로 거리 예측 시스템을 제공함에 있다.
본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은, 차량에 부착된 카메라를 이용하여 차량 전방의 영상 정보를 입력받는 영상 입력 단계(S100), 상기 영상 입력 단계(S100)로부터 입력받은 영상 정보를 이용하여, 실제 차선 또는, 가상 차선의 정보를 분석하는 영상 정보 분석 단계(S200), 상기 영상 정보 분석 단계(S200)에서 분석하여 실제 차선 또는, 가상 차선의 정보를 토대로 도로 거리 정보를 예측하는 도로 거리 정보 예측 단계(S300) 및 상기 도로 거리 예측 단계(S300)에서 예측한 도로 거리 정보를 영상 정보에 표시하여 사용자에게 제공하는 표시 단계(S400)로 이루어지는 것을 특징으로 한다.
여기서, 상기 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 상기 영상 입력 단계(S100)는 수행하기 전, 차량에 부착된 카메라의 사용자로부터 차량에 부착된 카메라의 높이 정보를 입력받아, 영상 정보의 기본 조건을 관리하는 것을 특징으로 한다.
더 나아가, 상기 영상 정보 분석 단계(S200)는 상기 영상 정보가 3차원 영상 정보로 입력될 경우, 영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정하는 기준선 설정 단계(S201), 영상 정보의 화면 상에서, 상기 기준선 설정 단계(S201)에서 설정한 기준선과 일정 거리 이격되며 상기 기준선과 수평되도록 관찰선을 설정하는 관찰선 설정 단계(S202), 영상 정보의 화면 상에서, 상기 기준선 설정 단계(S201)에서 설정한 기준선이 위치한 도로의 폭 정보를 획득하는 기준선 폭 설정 단계(S203), 입력받은 차량에 부착된 카메라의 높이 정보를 획득하는 카메라 높이 설정 단계(S204), 영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리 정보를 획득하는 거리 설정 단계(S205) 및 영상 정보의 화면 상에서, 실제 차선 또는, 가상 차선의 종단점인 소실점의 위치 정보를 획득하는 소실점 설정 단계(S206)로 이루어지며, 실제 차선 또는, 가상 차선의 정보를 3차원 파라미터의 상기 기준선, 관찰선, 도로의 폭, 카메라 높이, 거리 정보 및 소실점의 위치 정보로 분석하거나,
또는, 상기 영상 정보가 2차원 영상 정보로 입력될 경우, 영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정하고, 상기 기준선의 폭을 설정하는 기준선 설정 단계(S210), 영상 정보의 화면 상에서, 상기 기준선 설정 단계(S210)에서 설정한 기준선과 일정 거리 이격되며 상기 기준선과 수평되도록 관찰선을 설정하고, 상기 관찰선의 폭을 설정하는 관찰선 설정 단계(S220), 영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리 정보를 획득하는 거리 설정 단계(S230) 및 영상 정보의 화면 상에서, 설정한 상기 기준선에서 실제 차선 또는, 가상 차선의 종단점인 소실점의 위치 정보를 획득하고, 상기 기준선에서 상기 소실점까지 이루는 각인 소실각의 정보를 획득하는 소실점 설정 단계(S240)로 이루어지며, 실제 차선 또는, 가상 차선의 정보를 2차원 파라미터의 상기 기준선, 기준선의 폭, 관찰선, 관찰선의 폭, 거리 정보, 소실점의 위치 정보 및 소실각의 정보로 분석하는 것을 특징으로 한다.
더불어, 상기 도로 거리 정보 예측 단계(S300)는 상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 실제 차선의 도로 거리 정보를 예측하기 위하여, 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 포함하는 상기 영상 정보에 에지검출을 수행하는 에지검출 단계(S301), 상기 영상 정보에 설정된 기준선으로부터 마스킹을 수행하는 마스킹 단계(S302), 상기 마스킹 단계(S302)에서 마스킹이 적용된 범위 내에서 차선을 검출하는 차선 검출 단계(S303), 상기 차선 검출 단계(S303)에서 검출한 차선에 허프 변환(Hough Transform)을 수행하여 직선을 산출하는 허프 변환 단계(S304) 및 상기 허프 변환 단계(S304)에서 산출한 직선을 이용하여, 직선에 대한 종단점인 소실점(vanishing point)을 산출하는 소실점 산출 단계(S305)로 이루어지거나,
또는, 상기 도로 거리 정보 예측 단계(S300)는 상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 가상 차선의 도로 거리 정보를 예측하기 위하여, 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수식에 대입하여 소실각을 산출하는 소실각 산출 단계(S310),
Figure 112014110835647-pat00001
(여기서, α는 소실각,
W는 기준선의 도로 폭 정보(cm),
H는 차량에 부착된 카메라의 높이 정보(cm))
상기 소실각 산출 단계(S310)에서 산출한 소실각을 이용하여, 가상의 차선을 산출하는 가상 차선 산출 단계(S320) 및 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수식에 대입하여 상기 기준선에서 상기 관찰선까지의 거리 정보를 산출하는 거리 정보 산출 단계(S330)
Figure 112014110835647-pat00002
(여기서, L(x)는 기준선에서 관찰선까지의 거리 정보(m),
w1는 기준선의 폭,
w2는 관찰선의 폭,
Ω는 차량에 부착된 카메라에서 지면에 수선을 내린 후, 그 지점에서 전방의 기준선까지의 거리(m))로 이루어지는 것을 특징으로 한다.
상기와 같은 구성에 의한 본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 차량에 부착된 카메라를 통하여 입력되는 영상 정보를 이용하여 전방 도로 상의 거리를 예측하는 방법이다.
즉, 다시 말하자면, 차량에 부착된 카메라인 블랙박스 카메라를 이용하여 카메라가 주시하고 있는 차량 진행 방향의 영상 정보를 획득하여, 전방 도로 상의 거리를 예측하기 위하여 실제 차선 또는 가상 차선 정보를 산출함으로써, 도로 상의 거리, 즉, 기준선에서 적어도 하나의 관측선까지의 실제 거리를 정확도 높게 예측할 수 있는 효과가 있다.
상세하게는, 차량 부착 카메라를 통해서 입력되는 영상에 영상처리 기법을 수행하여 실제 차선을 예측하여 사용자가 용이하게 확인할 수 있도록 영상에 표현하거나, 가상의 차선을 예측하여 표현할 수도 있다.
이를 통해서 차량 전방의 거리 예측이 가능하여 운전자로 하여금 다양한 차량 전방의 도로 및 거리의 정보를 인지할 수 있는 효과가 있다.
더 나아가, 무인 자동차나 자율주행 차량에 적용시킴으로써, 전방 거리 예측을 통해 다양한 제어 및 표현이 가능한 장점이 있다.
즉, 본 발명은 차량 내부에 부착되어 사용되는 카메라, 즉, 차량용 블랙박스 카메라에 사용될 수 있는 기술로서 전방 도로상에 존재하는 보행자, 정지선, 신호등, 교통 표지판, 이륜차 등을 인식하는 부분에 용이하게 활용이 가능하고, 특히, 자율주행 차량 또는 무인자동차 기술에 직접 활용함으로써 일정 거리를 예측하여 이에 따른 영상 정보를 적절히 이용하도록 제공할 수 있는 특징이 있다.
도 1은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법을 나타낸 순서도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 영상 정보 분석 단계(S200)를 나타낸 순서도이다.
도 4는 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에서의 3차원 영상 정보를 나타낸 예시도이다.
도 5는 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에서의 2차원 영상 정보를 나타낸 예시도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 도로 거리 정보 예측 단계(S300)를 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 에지검출 단계(S301)를 나타낸 예시도이다.
도 9는 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 마스킹 단계(S302)를 나타낸 예시도이다.
도 10은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 소실점 산출 단계(S305)를 나타낸 예시도이다.
도 11은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 표시 단계(S400)에 의해 도로 거리 정보가 포함된 영상 정보를 나타낸 예시도이다.
이하 첨부한 도면들을 참조하여 본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 차량에 장착되는 블랙박스 카메라 또는, 이와 동일한 목적의 카메라를 이용하여 차량이 진행하는 방향, 즉, 전방에 위치한 도로 상의 거리를 예측하고 이를 영상 정보에 표현하는 방법에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법을 나타낸 순서도이다. 도 1을 참조로 하여 본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법을 상세히 설명한다.
본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 도 1에 도시된 바와 같이, 영상 입력 단계(S100), 영상 정보 분석 단계(S200), 도로 거리 정보 예측 단계(S300) 및 표시 단계(S400)로 이루어질 수 있다.
본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 차량 부착 카메라로부터 차량 전방 영상을 입력받고, 입력받은 영상을 분석하여 기준선, 관찰선, 실제 차선(또는 가상 차선) 및 소실점을 산출하고 이를 입력받은 영상 정보에 도시하게 된다.
여기서, 기준선이란 차량이 진행하는 방향, 즉, 전방 도로의 거리를 측정하기 위해서 참고하는 선을 의미하며, 실제 카메라를 부착할 당시 관찰하여 측정이 가능한 가장 가까운 거리를 설정하는 것이 바람직하다.
일 예를 들자면, 기준선은 차량 번호판 앞부분 1~2m 정도로서 카메라 부착위치에서 약 3m 정도로 설정하는 것이 바람직하다.
또한, 관찰선이란 기준선으로부터 일정 거리 떨어져있는 전방의 예측하고자 하는 위치를 의미하며, 한 개 또는 그 이상을 설정하여 기준선으로부터 떨어진 거리를 예측하도록 설정하는 것이 바람직하다.
실제 카메라로부터 기준선까지의 거리를 누적시킴으로써, 실제 관찰선까지의 거리를 예측하여 산출할 수 있다.
도 4, 도 5 및 도 11에 도시된 바와 같이, 기준선과 관찰선은 각각 평행하게 도시되며 기준선과 관찰선 사이의 차선은 실제 도로 상의 차선을 인식하여 도시하거나, 카메라의 부착 높이와 도로 폭 정보를 활용하여 가상 도로 상의 차선을 산출하여 도시할 수도 있다. 이 때, 차량 왼편과 오른편에 형성되는 차선은 종단점 즉, 소실점(vanishing point)에서 만나도록 도시하는 것이 바람직하다.
각 단계에 대해서 자세히 알아보자면,
상기 영상 입력 단계(S100)는 차량에 부착된 카메라를 이용하여 차량 전방의 영상 정보를 입력받을 수 있다.
차량 전방이 영상 정보는 2차원 영상 또는, 3차원 영상으로서 이에 따라 각각 상이하게 상기 영상 정보 분석 단계(S200)를 수행하게 된다.
더불어, 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은 상기 영상 입력 단계(S100)를 수행하기 앞서서, 사용자로부터 차량에 부착된 카메라의 높이 정보를 입력받게 된다.
이를 통해서, 영상 정보의 기본 조건을 관리할 수 있으며, 이 과정은 가상의 도로 차선을 산출하여 도로 거리 정보를 예측할 경우 필요치 않을 수도 있다.
상기 영상 정보 분석 단계(S200)는 상기 영상 입력 단계(S100)로부터 입력받은 영상 정보를 이용하여, 실제 차선 또는, 가상 차선의 정보를 분석할 수 있다.
상술한 바와 같이, 영상 정보는 도 4에 도시된 바와 같이 3차원 영상 정보이거나, 도 5에 도시된 바와 같이 2차원 영상 정보일 수 있다.
상기 영상 정보 분석 단계(S200)는 상기 영상 정보가 3차원 영상 정보로 입력될 경우, 도 2에 도시된 바와 같이, 기준선 설정 단계(S201), 관찰선 설정 단계(S202), 기준선 폭 설정 단계(S203), 카메라 높이 설정 단계(S204), 거리 설정 단계(S205) 및 소실점 설정 단계(S206)로 이루어질 수 있다.
상기 기준선 설정 단계(S201)는 영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정할 수 있다.
이 때, 기준선은 도 4에 도시된 바와 같이, 가상적으로 카메라 화면 상에서 일정한 거리에 떨어져 설정되게 된다.
상기 관찰선 설정 단계(S202)는 상기 기준선 설정 단계(S201)에서 설정된 기준선을 바탕으로 영상 정보의 화면 상에서 기준선과 일정 거리 이격되며 기준선과 수평되도록 관찰선을 설정할 수 있다.
상기 기준선 폭 설정 단계(S203)는 영상 정보의 화면 상에서 상기 기준선 설정 단계(S201)에서 설정한 기준선이 위치한 도로의 폭(W) 정보를 획득할 수 있으며,
상기 카메라 높이 설정 단계(S204)는 상술한 바와 같이, 상기 영상 입력 단계(S100)를 수행하기 전 사용자로부터 입력받은 차량에 부착된 카메라의 높이(H) 정보를 전달받아 설정할 수 있다.
상기 거리 설정 단계(S205)는 영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리(D) 정보를 획득하여 설정할 수 있다.
상기 소실점 설정 단계(S206)는 영상 정보의 화면 상에서, 실제 차선 또는, 가상 차선의 종단점인 소실점(vanishing point), 다시 말하자면, 차량 왼편과 오른편의 차선이 만나는 소실점의 위치 정보를 획득할 수 있다.
이를 통해서, 실제 차선 또는, 가상 차선의 정보를 3차원 파라미터의 기준선, 관찰선, 기준선이 위치한 도로의 폭, 차량에 부착된 카메라의 높이 및 소실점의 위치 정보로 분석하게 된다.
또다른 일 실시예에 따른 상기 영상 정보 분석 단계(S200)는 상기 영상 정보가 2차원 영상 정보로 입력될 경우, 도 3에 도시된 바와 같이, 기준선 설정 단계(S210), 관찰선 설정 단계(S220), 거리 설정 단계(S230) 및 소실점 설정 단계(S240)로 이루어질 수 있다.
상기 기준선 설정 단계(S210)는 도 5에 도시된 바와 같이, 영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정하고, 설정한 기준선의 폭(w1)을 설정할 수 있다.
상기 관찰선 설정 단계(S220)는 기준선에서 관찰하고자 하는 관찰선, 다시 말하자면, 영상 정보의 화면 상에서, 상기 기준선 설정 단계(S210)에서 설정한 기준선과 일정 거리 이격되며 기준선과 수평되도록 관찰선을 설정하고, 설정한 관찰선의 폭(w2)을 설정할 수 있다.
상기 거리 설정 단계(S230)는 영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리 정보를 획득할 수 있다.
이 때, 거리 정보는 기준선에서 관찰선까지의 화소개수 단위로의 깊이(d)를 의미한다.
상기 소실점 설정 단계(S240)는 영상 정보의 화면 상에서, 설정한 상기 기준선에서 실제 차선 또는, 가상 차선의 종단점인 소실점의 위치 정보를 획득하고, 상기 기준선에서 상기 소실점까지의 이루는 각인 소실각의 정보를 획득할 수 있다.
다시 말하자면, 도 5에 도시된 바와 같이, 차량 왼편과 오른편의 차선이 만나는 소실점의 위치 정보를 획득할 수 있으며, 차량의 왼편 또는, 오른편의 차선과 기준선이 만나는 접점에서 소실점까지 직선이 이루는 각인 소실각의 정보를 획득할 수 있다.
이를 통해서, 실제 차선 또는, 가상 차선의 정보를 2차원 파라미터의 기준선, 기준선의 폭, 관찰선, 관찰선의 폭, 기준선에서 관찰선까지의 거리, 소실점의 위치 정보 및 소실각의 정보로 분석하게 된다.
상기 도로 거리 정보 예측 단계(S300)는 상기 영상 정보 분석 단계(S200)에서 분석하여 실제 차선 또는, 가상 차선의 정보를 토대로 도로 거리 정보를 예측할 수 있다.
상세하게는, 상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 실제 차선의 도로 거리 정보를 예측하기 위해서는 도 6에 도시된 바와 같이, 에지검출 단계(S301), 마스킹 단계(S302), 차선 검출 단계(S303), 허프 변환 단계(S304) 및 소실점 산출 단계(S305)로 이루어질 수 있다.
상기 에지검출 단계(S301)는 도 8에 도시된 바와 같이, 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 포함한 상기 영상 정보에 에지검출을 수행할 수 있다. 이 때, 에지검출은 캐미에지 검출이나 소벨 연산자 등을 적용하여 수행하는 것이 바람직하다.
상기 마스킹 단계(S302)는 도 9에 도시된 바와 같이, 상기 영상 정보에 설정된 기준선으로부터 마스킹을 수행할 수 있다.
즉, 에지검출이 수행되고 나면 기준선으로부터 마스킹을 적용하는 것이 바람직하다.
상기 차선 검출 단계(S303)는 상기 마스킹 단계(S302)에서 마스킹이 적용된 범위 내에서 차선을 검출할 수 있다. 즉, 기준선의 가운데 지점을 중심으로 이등변 삼각형 형태로 마스킹을 취하고 이 때, 마스킹이 적용된 범위 내에서 차선을 검출할 수 있다.
상기 허프 변환 단계(S304)는 상기 차선 검출 단계(S303)에서 검출한 차선에 허프 변환(Hough Transform)을 수행하여 직선을 산출할 수 있으며, 도 10에 도시된 바와 같이, 허프 변환을 수행하여 산출한 직선을 이용하여, 직선에 대한 종단점인 소실점을 산출할 수 있다.
즉, 마스킹이 적용된 범위 내에서 검출한 차선에 허프 변환을 수행하여 직선을 산출하고 이에 대해 소실점을 산출하는 것이 바람직하다.
상기 도로 거리 정보 예측 단계(S300)의 또다른 일 실시예에 따른, 다시 말하자면, 상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 가상 차선의 도로 거리 정보를 예측하기 위해서는 도 7에 도시된 바와 같이, 소실각 산출 단계(S310), 가상 차선 산출 단계(S320) 및 거리 정보 산출 단계(S330)로 이루어질 수 있다.
이는 실제 차선이 아니라 차량이 주행할 때, 전방으로의 깊이와 거리를 예측 가능하도록 가상적으로 차선을 예측하는 방법으로서 가상의 차선을 도시하기 위해서 가장 중요한 파라미터는 소실각(??)이다.
상술한 바와 같이, 소실각이란 실제 차선 또는, 가상 차선이 기준선과 이루는 각을 의미하며, 소실각의 크기는 기준선의 폭과 카메라의 부착 높이에 의해 결정된다.
이에 따라서, 상기 소실각 산출 단계(S310)는 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수학식 1에 대입하여 소실각을 산출할 수 있다.
Figure 112014110835647-pat00003
(여기서, α는 소실각,
W는 기준선의 도로 폭 정보(cm),
H는 차량에 부착된 카메라의 높이 정보(cm))
상세하게는, 차량에 부착된 카메라 위치에서 전방에 약 3 m에서 도로가 되는 부분에 대해 수평으로 일정하게 기준선을 설정한 후, 이와 수평방향으로 일정 거리 이격되는 부분에 관찰선을 설정하여 가상의 도로 폭(W)을 설정할 수 있다.
가상 차선의 형태는 카메라의 장착 높이(H)에 의존하는 것이 바람직하다.
상기 수학식 1에서 사용되는 기준선의 도로 폭 정보와, 차량에 부착된 카메라의 높이 정보는 각각 cm 단위로 측정되는 것이 바람직하다.
상기 가상 차선 산출 단계(S320)는 상기 소실각 산출 단계(S310)에서 산출한 소실각을 이용하여 가상의 차선을 산출할 수 있다.
자세하게는, 기준선의 가운데 지점을 향해 기준선의 좌측과 우측에 소실각을 갖는 직선을 도시할 경우, 소실점에서 두 개의 직선이 만나게 된다.
이러한 가상의 차선을 산출한 후, 적어도 하나의 관찰선을 가상의 차선에 설정할 수 있다. 이러한 적어도 하나의 관찰선을 기초로 도로 거리를 예측할 수 있다.
상기 거리 정보 산출 단계(S330)는 상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수학식 2에 대입하여 상기 기준선에서 상기 관찰선까지의 거리 정보를 산출할 수 있다.
Figure 112014110835647-pat00004
(여기서, L(x)는 기준선에서 관찰선까지의 거리 정보(m),
w1는 기준선의 폭,
w2는 관찰선의 폭,
Ω는 차량에 부착된 카메라에서 지면에 수선을 내린 후, 그 지점에서 전방의 기준선까지의 거리(m))
상기의 수학식 2는 관찰선의 폭(w2)에 대한 기준선의 폭(w1)의 비율에 대한 선형 관계식으로서 결과 값의 단위는 m 이다.
Ω는 차량에 부착된 카메라에서 지면에 수선을 내린 후, 그 지점에서 전방의 기준선까지의 거리를 의미하며, 수학식 2를 적용하기 위해서는 기준선은 반드시 차량 번호판에서 전방 1 ~ 2m의 도로 상에 또는, 카메라 부착 위치에서 전방 2 ~ 3 m의 도로 상에 설정되어야 한다.
상기 표시 단계(S400)는 상기 도로 거리 예측 단계(S300)에서 예측한 도로 거리 정보를 영상 정보에 표시하여 사용자에게 제공할 수 있다.
상세하게는, 도 11에 도시된 바와 같이, 차량에 부착된 카메라에서 일정 거리 전방의 기준선이 위치하고, 이 기준선을 토대로 평행한 직선을 각각 위치시켜서 이를 관찰선으로 설정할 수 있다.
이러한 관찰선은 적어도 한 개 또는, 그 이상의 개수로 기준선과 평행하게 설정하여 기준선으로부터 예측된 거리와 기준선까지의 거리를 누적하여 예측된 값을 표시할 수 있다.
관찰선까지의 거리를 얻기 위한 차선은 영상 정보에 공지된 기술인 영상 처리 기법을 수행하여 실제 차선을 표현할 수 있으며, 카메라의 높이에 따라 가상 차선을 표현할 수도 있다.
즉, 다시 말하자면, 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법은, 차량 내부에 부착된 카메라를 이용하여 입력된 차량 전방의 영상 정보는 분석하여 실제 또는, 가상의 차선을 도시하고 차선에 대해 관찰선을 설정하여 카메라로부터 떨어져 있는 거리 정보를 예측하여 영상 정보에 도시할 수 있다.
즉, 인간의 시각 인지구조에 의해 보여지는 3차원 입체 구조에 대해 파라미터를 설정할 수 있으며, 이를 위해서 차량의 앞 번호판에서 1m 전방 또는 차량 내부의 카메라 부착위치에서 전방 2~3m에 기준선을 설정하고, 이를 바탕으로 전방 관찰선까지의 거리를 예측할 수 있다.
또한, 영상 정보를 분석하여 실제 차선을 인지하여 기준선과 관찰선을 설정하는 것이 바람직하나,
어려울 경우, 가상 차선을 설정하여 이에 기준선을 설정하고 상기의 수학식 1을 통해서 소실점을 계산하여 이를 토대로 기준선과 평행한 직선들로 이루어지는 관찰선을 설정할 수 있다.
기준선과 관찰선까지의 거리를 예측하기 위한 관찰선의 폭 대비 기준선의 폭 비율은 상기의 수학식 2의 선형관계식을 이용하여 실제 도로 상에서의 기준선으로부터 관찰선까지의 거리를 예측하는 것이 가능한 장점이 있다.
이상에서 본 발명의 일 실시예에 따른 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법에 대하여 설명하였지만, 상술한 오픈 소스 기반의 전산 유체 역학을 이용한 항공기 공력해석 시스템 및 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공되거나 또는, 컴퓨터 명령어로 작성된 컴퓨터 프로그램으로 제공될 수도 있음을 당업자들이 쉽게 이해할 수 있을 것이다. 다시 말해, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능한 기록매체에 기록될 수 있으며, 명령어로 작성된 컴퓨터 프로그램일 수 있다. 상기 컴퓨터 판독가능한 기록매체 또는, 컴퓨터 프로그램은 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독가능한 기록매체 또는, 컴퓨터 프로그램에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터 판독가능한 기록매체 또는, 컴퓨터 프로그램의 예에는 하드 디스크, 플로피 디스크 및 자기테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 컴퓨터 판독가능한 기록매체 또는, 컴퓨터 프로그램는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
S100 내지 S400 : 본 발명의 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법의 각 단계

Claims (6)

  1. 삭제
  2. 삭제
  3. 차량에 부착된 카메라를 이용하여 차량 전방의 영상 정보를 입력받는 영상 입력 단계(S100);
    상기 영상 입력 단계(S100)로부터 입력받은 영상 정보를 이용하여, 실제 차선 또는, 가상 차선의 정보를 분석하는 영상 정보 분석 단계(S200);
    상기 영상 정보 분석 단계(S200)에서 분석하여 실제 차선 또는, 가상 차선의 정보를 토대로 도로 거리 정보를 예측하는 도로 거리 정보 예측 단계(S300); 및
    상기 도로 거리 예측 단계(S300)에서 예측한 도로 거리 정보를 영상 정보에 표시하여 사용자에게 제공하는 표시 단계(S400);
    로 이루어지며,
    상기 영상 입력 단계(S100)를 수행하기 전, 차량에 부착된 카메라의 사용자로부터 차량에 부착된 카메라의 높이 정보를 입력받아, 영상 정보의 기본 조건을 관리하고,
    상기 영상 정보 분석 단계(S200)는
    상기 영상 정보가 3차원 영상 정보로 입력될 경우,
    영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정하는 기준선 설정 단계(S201);
    영상 정보의 화면 상에서, 상기 기준선 설정 단계(S201)에서 설정한 기준선과 일정 거리 이격되며 상기 기준선과 수평되도록 관찰선을 설정하는 관찰선 설정 단계(S202);
    영상 정보의 화면 상에서, 상기 기준선 설정 단계(S201)에서 설정한 기준선이 위치한 도로의 폭 정보를 획득하는 기준선 폭 설정 단계(S203);
    입력받은 차량에 부착된 카메라의 높이 정보를 획득하는 카메라 높이 설정 단계(S204);
    영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리 정보를 획득하는 거리 설정 단계(S205); 및
    영상 정보의 화면 상에서, 실제 차선 또는, 가상 차선의 종단점인 소실점의 위치 정보를 획득하는 소실점 설정 단계(S206);
    로 이루어지며,
    실제 차선 또는, 가상 차선의 정보를 3차원 파라미터의 상기 기준선, 관찰선, 도로의 폭, 카메라 높이, 거리 정보 및 소실점의 위치 정보로 분석하는 것을 특징으로 하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법.

  4. 차량에 부착된 카메라를 이용하여 차량 전방의 영상 정보를 입력받는 영상 입력 단계(S100);
    상기 영상 입력 단계(S100)로부터 입력받은 영상 정보를 이용하여, 실제 차선 또는, 가상 차선의 정보를 분석하는 영상 정보 분석 단계(S200);
    상기 영상 정보 분석 단계(S200)에서 분석하여 실제 차선 또는, 가상 차선의 정보를 토대로 도로 거리 정보를 예측하는 도로 거리 정보 예측 단계(S300); 및
    상기 도로 거리 예측 단계(S300)에서 예측한 도로 거리 정보를 영상 정보에 표시하여 사용자에게 제공하는 표시 단계(S400);
    로 이루어지며,
    상기 영상 입력 단계(S100)를 수행하기 전, 차량에 부착된 카메라의 사용자로부터 차량에 부착된 카메라의 높이 정보를 입력받아, 영상 정보의 기본 조건을 관리하고,
    상기 영상 정보 분석 단계(S200)는
    상기 영상 정보가 2차원 영상 정보로 입력될 경우,
    영상 정보의 화면 상에서, 차량의 진행 방향과 수직되도록 기준선을 설정하고, 상기 기준선의 폭을 설정하는 기준선 설정 단계(S210);
    영상 정보의 화면 상에서, 상기 기준선 설정 단계(S210)에서 설정한 기준선과 일정 거리 이격되며 상기 기준선과 수평되도록 관찰선을 설정하고, 상기 관찰선의 폭을 설정하는 관찰선 설정 단계(S220);
    영상 정보의 화면 상에서, 설정한 상기 기준선에서 상기 관찰선까지의 거리 정보를 획득하는 거리 설정 단계(S230); 및
    영상 정보의 화면 상에서, 설정한 상기 기준선에서 실제 차선 또는, 가상 차선의 종단점인 소실점의 위치 정보를 획득하고, 상기 기준선에서 상기 소실점까지 이루는 각인 소실각의 정보를 획득하는 소실점 설정 단계(S240);
    로 이루어지며,
    실제 차선 또는, 가상 차선의 정보를 2차원 파라미터의 상기 기준선, 기준선의 폭, 관찰선, 관찰선의 폭, 거리 정보, 소실점의 위치 정보 및 소실각의 정보로 분석하는 것을 특징으로 하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법.
  5. 제 3항 또는 제 4항에 있어서,
    상기 도로 거리 정보 예측 단계(S300)는
    상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 실제 차선의 도로 거리 정보를 예측하기 위하여,
    상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 포함하는 상기 영상 정보에 에지검출을 수행하는 에지검출 단계(S301);
    상기 영상 정보에 설정된 기준선으로부터 마스킹을 수행하는 마스킹 단계(S302);
    상기 마스킹 단계(S302)에서 마스킹이 적용된 범위 내에서 차선을 검출하는 차선 검출 단계(S303);
    상기 차선 검출 단계(S303)에서 검출한 차선에 허프 변환(Hough Transform)을 수행하여 직선을 산출하는 허프 변환 단계(S304); 및
    상기 허프 변환 단계(S304)에서 산출한 직선을 이용하여, 직선에 대한 종단점인 소실점(vanishing point)을 산출하는 소실점 산출 단계(S305);
    로 이루어지는 것을 특징으로 하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법.
  6. 제 3항 또는 제 4항에 있어서,
    상기 도로 거리 정보 예측 단계(S300)는
    상기 영상 정보 분석 단계(S200)에서 분석한 실제 차선 또는, 가상 차선의 정보를 토대로 가상 차선의 도로 거리 정보를 예측하기 위하여,
    상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수식에 대입하여 소실각을 산출하는 소실각 산출 단계(S310);

    Figure 112014110835647-pat00005

    (여기서, α는 소실각,
    W는 기준선의 도로 폭 정보(cm),
    H는 차량에 부착된 카메라의 높이 정보(cm))

    상기 소실각 산출 단계(S310)에서 산출한 소실각을 이용하여, 가상의 차선을 산출하는 가상 차선 산출 단계(S320); 및
    상기 영상 정보 분석 단계(S200)에 의해 분석한 정보들을 하기의 수식에 대입하여 상기 기준선에서 상기 관찰선까지의 거리 정보를 산출하는 거리 정보 산출 단계(S330);

    Figure 112014110835647-pat00006

    (여기서, L(x)는 기준선에서 관찰선까지의 거리 정보(m),
    w1는 기준선의 폭,
    w2는 관찰선의 폭,
    Ω는 차량에 부착된 카메라에서 지면에 수선을 내린 후, 그 지점에서 전방의 기준선까지의 거리(m))
    로 이루어지는 것을 특징으로 하는 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법.
KR1020140160641A 2014-11-18 2014-11-18 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법 KR101646495B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140160641A KR101646495B1 (ko) 2014-11-18 2014-11-18 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140160641A KR101646495B1 (ko) 2014-11-18 2014-11-18 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법

Publications (2)

Publication Number Publication Date
KR20160059149A KR20160059149A (ko) 2016-05-26
KR101646495B1 true KR101646495B1 (ko) 2016-08-08

Family

ID=56104574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140160641A KR101646495B1 (ko) 2014-11-18 2014-11-18 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법

Country Status (1)

Country Link
KR (1) KR101646495B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138750B2 (en) 2018-10-10 2021-10-05 Samsung Electronics Co., Ltd. Distance estimating method and apparatus

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106289159B (zh) * 2016-07-28 2019-12-10 北京智芯原动科技有限公司 基于测距补偿的车辆测距方法及装置
CN110362077B (zh) * 2019-07-03 2020-09-04 上海交通大学 无人驾驶车辆紧急避险决策系统、方法及介质
KR20210034253A (ko) 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117811A (ja) * 2011-12-02 2013-06-13 Fujitsu Ltd 道路形状推定装置及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100242063B1 (ko) 1996-11-27 2000-03-02 정몽규 차량용 무단 변속장치
KR20140071174A (ko) * 2012-12-03 2014-06-11 현대자동차주식회사 차량의 차선 가이드 장치 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117811A (ja) * 2011-12-02 2013-06-13 Fujitsu Ltd 道路形状推定装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138750B2 (en) 2018-10-10 2021-10-05 Samsung Electronics Co., Ltd. Distance estimating method and apparatus

Also Published As

Publication number Publication date
KR20160059149A (ko) 2016-05-26

Similar Documents

Publication Publication Date Title
US10635912B2 (en) Virtual sensor data generation for wheel stop detection
CN107031622B (zh) 用于碰撞避免的训练算法
CN105922991B (zh) 基于生成虚拟车道线的车道偏离预警方法及系统
US10032085B2 (en) Method and system to identify traffic lights by an autonomous vehicle
KR100819047B1 (ko) 교차로 중심선 예측 장치 및 방법
US11182628B2 (en) Automatically perceiving travel signals
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
EP3640890A1 (en) Systems and methods for braking a vehicle based on a detected object
US10650256B2 (en) Automatically perceiving travel signals
KR101982298B1 (ko) 차량에서의 돌발적으로 출현한 이동 객체를 탐지하는 방법 및 장치
US20180299893A1 (en) Automatically perceiving travel signals
KR101646495B1 (ko) 차량 부착 카메라의 영상 정보를 이용한 도로 거리 예측 방법
US20180011953A1 (en) Virtual Sensor Data Generation for Bollard Receiver Detection
JP2014528063A (ja) 車両があるオブジェクトを通過可能であるかを判断するための3dカメラを用いた方法
CN111094095B (zh) 自动地感知行驶信号的方法、装置及运载工具
JP2015069289A (ja) 車線認識装置
KR20220109526A (ko) 차량 주행 위험 예측 시스템 및 그 방법
US20240127416A1 (en) Systems and methods for creating and/or analyzing three-dimensional models of infrastructure assets
US20180300566A1 (en) Automatically perceiving travel signals
JP6982865B2 (ja) 動画像距離算出装置および動画像距離算出用プログラム
JP2023511454A (ja) 車両走行路内のデブリの検出
CN114729810A (zh) 人行横道检测
CN114596706B (zh) 路侧感知系统的检测方法及装置、电子设备和路侧设备
KR101706455B1 (ko) 도로표지판 검출 기반 주행 차로 추정 방법 및 장치
CN108428356B (zh) 一种基于流体密度场的路况图展示及辅助驾驶应用方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190730

Year of fee payment: 4