KR20210098276A - 노면 상태 식별 장치 및 제어 방법 - Google Patents

노면 상태 식별 장치 및 제어 방법 Download PDF

Info

Publication number
KR20210098276A
KR20210098276A KR1020200012265A KR20200012265A KR20210098276A KR 20210098276 A KR20210098276 A KR 20210098276A KR 1020200012265 A KR1020200012265 A KR 1020200012265A KR 20200012265 A KR20200012265 A KR 20200012265A KR 20210098276 A KR20210098276 A KR 20210098276A
Authority
KR
South Korea
Prior art keywords
road surface
point
image
data
surface condition
Prior art date
Application number
KR1020200012265A
Other languages
English (en)
Inventor
김민영
이규호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020200012265A priority Critical patent/KR20210098276A/ko
Publication of KR20210098276A publication Critical patent/KR20210098276A/ko

Links

Images

Classifications

    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

노면 상태 식별 장치 및 제어 방법이 개시된다. 차량에 배치된 노면 상태 식별 장치는 2D 이미지를 획득하는 영상 카메라, 3D 데이터를 획득하는 라이다 센서 및 2D 이미지와 3D 데이터의 좌표계를 매칭시키는 프로세서를 포함하며, 프로세서는 3D 데이터를 2D 이미지에 투영시켜 2D 이미지로부터 노면 영역을 식별하고, 식별된 노면 영역에 포함되는 3D 데이터의 3D 포인트와 2D 이미지의 2D 포인트를 추출하며, 추출된 3D 포인트에 대응되는 2D 포인트를 매칭시켜 매칭 쌍을 추출하고, 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별한다.

Description

노면 상태 식별 장치 및 제어 방법{DEVICE FOR DETERMINING ROAD SURFACE CONDITION AND CONTROLLING MMTHOD THEREOF}
본 발명은 노면 상태 식별 장치 및 제어 방법에 관한 것으로, 더욱 상세하게는 복수의 센서를 이용하여 감지된 정보와 기계 학습된 알고리즘을 이용하여 노면의 상태를 판단하는 차량 위치 인식 장치 및 제어 방법에 관한 것이다.
최근 자율 주행 자동차에 대한 관심이 높아지면서 멀티 센서를 이용한 비전 분야의 연구가 활발히 진행되고 있다. 예를 들어, 멀티 센서는 라이다 센서, 영상 센서를 포함한다. 라이다 센서는 물체에 대한 3D 위치 정보와 깊이 정보를 제공할 수 있다. 영상 센서는 컬러 특징 정보를 제공할 수 있다.
자율 주행 자동차는 노면의 상태에 적절하게 주행 모드나 주행 조건을 제어해야 하므로 아스팔트 도로, 비포장 도로, 비에 젖은 도로 등과 같은 노면의 상태를 파악하는 것이 중요하다. 또한, 자율 주행 자동차가 아닌 일반 자동차를 운전하는 운전자에게도 노면의 상태를 인지하는 것은 매우 중요하다. 특히, 노면에 존재하는 포트홀이나 블랙 아이스 같은 경우, 운전자가 미리 육안으로 인지하는 것이 거의 불가능하다. 따라서, 운전자가 미리 인지하지 못한 포트홀이나 블랙 아이스로 인해 빈번히 교통 사고가 발생하고 있다.
따라서, 자율 주행 자동차 또는 일반 자동차의 운전자가 노면의 상태를 판단하고, 판단된 노면의 상태에 따라 적절하게 운행 상태를 제어할 수 있는 기술에 대한 필요성이 존재한다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 주행중인 도로의 노면 상태를 식별하는 노면 상태 식별 장치 및 제어 방법에 관한 것이다.
이상과 같은 목적을 달성하기 위한 일 실시 예에 따르면, 차량에 배치된 노면 상태 식별 장치는 2D 이미지를 획득하는 영상 카메라, 3D 데이터를 획득하는 라이다 센서 및 상기 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 프로세서를 포함하며, 상기 프로세서는 상기 3D 데이터를 2D 이미지에 투영시켜 상기 2D 이미지로부터 노면 영역을 식별하고, 상기 식별된 노면 영역에 포함되는 상기 3D 데이터의 3D 포인트와 상기 2D 이미지의 2D 포인트를 추출하며, 상기 추출된 3D 포인트에 대응되는 상기 2D 포인트를 매칭시켜 매칭 쌍을 추출하고, 상기 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별할 수 있다.
그리고, 상기 매칭 쌍의 정보는 상기 3D 포인트의 좌표, 상기 3D 포인트의 반사율의 강도 및 상기 2D 포인트의 RGB 값을 포함할 수 있다.
또한, 상기 프로세서는 상기 3D 포인트의 반사율의 강도 및 상기 2D 포인트의 RGB 값을 입력하여 기계 학습된 알고리즘에 기초하여 비포장 노면, 젖은 노면, 포트홀 또는 블랙 아이스 노면을 판단할 수 있다.
한편, 노면 상태 식별 장치는 상기 판단된 비포장 노면, 젖은 노면, 포트홀 또는 블랙 아이스 노면에 대한 정보를 출력하는 출력부를 더 포함할 수 있다.
이상과 같은 목적을 달성하기 위한 일 실시 예에 따르면, 차량에 배치된 노면 상태 식별 장치의 제어 방법은 2D 이미지를 획득하는 단계, 3D 데이터를 획득하는 단계, 상기 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계, 상기 3D 데이터를 2D 이미지에 투영시켜 상기 2D 이미지로부터 노면 영역을 식별하는 단계, 상기 식별된 노면 영역에 포함되는 상기 3D 데이터의 3D 포인트와 상기 2D 이미지의 2D 포인트를 추출하는 단계, 상기 추출된 3D 포인트에 대응되는 상기 2D 포인트를 매칭시켜 매칭 쌍을 추출하는 단계 및 상기 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별하는 단계를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 노면 상태 식별 장치 및 제어 방법은 주행중인 도로의 노면 상태를 식별하여 운행 조건을 제어하거나 사고를 미연에 방지할 수 있도록 도움을 줄 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 노면 상태 식별 장치를 설명하는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치의 블록도이다.
도 3은 3D 데이터와 2D 이미지를 매칭시키는 일 실시 예를 설명하는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치 제어 방법의 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치가 노면 상태를 식별하는 과정을 설명하는 도면이다.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 발명의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다. 그리고 본 명세서에서 "A 또는 B"라고 기재한 것은 A와 B 중 어느 하나를 선택적으로 가리키는 것뿐만 아니라 A와 B 모두를 포함하는 것도 의미하는 것으로 정의된다. 또한, 본 명세서에서 "포함"이라는 용어는 포함하는 것으로 나열된 요소 이외에 추가로 다른 구성요소를 더 포함하는 것도 포괄하는 의미를 가진다.
본 명세서에서 수행되는 정보(데이터) 전송 과정은 필요에 따라서 암호화/복호화가 적용될 수 있으며, 본 명세서 및 특허청구범위에서 정보(데이터) 전송 과정을 설명하는 표현은 별도로 언급되지 않더라도 모두 암호화/복호화하는 경우도 포함하는 것으로 해석되어야 한다. 본 명세서에서 "A로부터 B로 전송(전달)" 또는 "A가 B로부터 수신"과 같은 형태의 표현은 중간에 다른 매개체가 포함되어 전송(전달) 또는 수신되는 것도 포함하며, 반드시 A로부터 B까지 직접 전송(전달) 또는 수신되는 것만을 표현하는 것은 아니다.
본 명세서에서는 본 발명의 설명에 필요한 필수적인 구성요소만을 설명하며, 본 발명의 본질과 관계가 없는 구성요소는 언급하지 아니한다. 그리고 언급되는 구성요소만을 포함하는 배타적인 의미로 해석되어서는 아니되며 다른 구성요소도 포함할 수 있는 비배타적인 의미로 해석되어야 한다.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.
도 1은 본 발명의 일 실시 예에 따른 노면 상태 식별 장치를 설명하는 도면이다.
도 1을 참조하면, 차량(1)에 배치된 노면 상태 식별 장치의 각 구성이 도시되어 있다. 노면 상태 식별 장치는 영상 카메라(110), 라이다(LIDAR) 센서(120) 및 프로세서를 포함할 수 있다. 영상 카메라(110)는 RGB 값을 포함하는 2D 이미지를 촬영하는 카메라일 수 있다. 일 실시 예로서, 영상 카메라(110)는 차량의 전면부에 배치될 수 있다. 영상 카메라(110)가 차량의 전면부에 배치되는 경우, 영상 카메라(110)는 광각 카메라일 수 있다. 또는, 복수 개의 영상 카메라(110)가 차량에 배치될 수도 있다. 영상 카메라(110)가 차량에 복수 개 배치되는 경우, 영상 카메라(110)는 차량의 전면부에 배치되거나 전면 좌측부 및 전면 우측부에 배치될 수 있다. 차량의 전면부에 배치된 영상 카메라(110)는 차량 전면부에 위치하는 물체 및 노면을 2D 이미지로 촬영할 수 있다.
한편, 노면 상태 식별 장치는 열화상 카메라(미도시)를 더 포함할 수도 있다. 열화상 카메라는 2D 열화상 이미지를 촬영하는 카메라일 수 있다. 예를 들어, 열화상 카메라는 IR 카메라를 포함할 수 있다. 일 실시 예로서, 열화상 카메라는 영상 카메라(110)와 인접하는 위치에 배치될 수 있다.
라이다 센서(120)는 차량 주변의 물체를 스캔하고 3D 데이터를 획득할 수 있다. 라이다 센서(120)는 주변에 빛(또는, 레이저)을 조사하고 물체에 반사되는 신호를 포착함으로써 차량 주변의 물체에 대한 3D 데이터를 획득할 수 있다. 또한, 라이다 센서(120)는 노면 영역에 대한 반사 신호를 수신하여 노면 영역에 대한 3D 데이터를 획득할 수도 있다. 일 실시 예로서, 라이다 센서(120)는 차량의 루프에 배치되고 360도 모든 방향에 위치하는 물체 및 노면 영역에 대한 3D 데이터를 획득할 수 있다.
영상 카메라(110) 및 라이다 센서(120)에서 획득된 데이터는 프로세서로 전달될 수 있다. 프로세서는 차량 내부에 위치할 수 있고, 영상 카메라(110) 및 라이다 센서(120)로부터 전달받은 2D 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다.
한편, 노면 상태 식별 장치가 열화상 카메라를 포함하는 경우, 영상 카메라(110)에서 획득된 2D 이미지와 열화상 카메라에서 획득된 2D 열화상 이미지의 좌표계를 통합할 수 있다. 영상 카메라(110)에서 촬영된 이미지와 열화상 카메라에서 촬영된 이미지는 모두 2D이고, 거의 유사한 물체 및 노면을 포함한다. 따라서, 일 실시 예로서, 프로세서는 영상 카메라(110)에서 촬영된 2D 이미지를 기준으로 열화상 카메라에서 촬영된 2D 열화상 이미지의 좌표를 쉬프트시키는 방식으로 2D 이미지의 좌표와 2D 열화상 이미지의 좌표를 동일한 좌표계로 통합할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치의 블록도이다.
도 2를 참조하면, 노면 상태 식별 장치(100)는 영상 카메라(110), 라이다 센서(120) 및 프로세서(130)를 포함한다.
영상 카메라(110)는 2D 이미지를 획득할 수 있다. 영상 카메라(110)에서 획득된 2D 이미지에는 차량 전방의 물체 및 노면 영역이 포함될 수 있다. 라이다 센서(130)는 3D 데이터를 획득할 수 있다. 라이다 센서(130)는 주변에 빛을 조사하고 물체에 반사되는 신호를 포착함으로써 3D 데이터를 획득할 수 있다. 예를 들어, 라이다 센서(130)와 가까운 곳의 물체에 반사된 빛은 상대적으로 빠르게 강한 강도로 라이다 센서(130)에서 획득되고, 먼 곳의 물체에 반사된 빛은 상대적으로 느리게 약한 강도로 라이다 센서(130)에서 획득될 수 있다. 라이다 센서(130)는 해상도에 따라 주변의 각 지점으로부터 반사된 빛이 도달하는 시간 및 강도에 기초하여 복수의 점군으로 형성되는 3D 데이터를 획득할 수 있다. 3D 데이터에도 차량 전방의 물체 및 지면 영역에 대응되는 점군을 포함할 수 있고, 3D 좌표 및 강도(intensity)의 정보를 포함할 수 있다.
프로세서(130)는 2D 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다. 그리고, 프로세서(130)는 3D 데이터를 2D 이미지에 투영시킨 후, 2D 이미지로부터 노면 영역을 추출할 수 있다. 프로세서(130)는 추출된 노면 영역에 포함되는 3D 데이터의 3D 포인트와 2D 이미지와 2D 포인트를 추출할 수 있다. 그리고, 프로세서(130)는 3D 포인트에 대응되는 2D 포인트를 매칭시켜 매칭 쌍을 추출할 수 있다. 매칭 쌍에는 3D 포인트의 좌표, 3D 포인트의 반사율의 강도, 2D 포인트의 좌표 및 2D 포인트의 RGB 값의 정보 등을 포함할 수 있다. 프로세서(130)는 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별할 수 있다.
예를 들어, 기계 학습된 알고리즘은 이진 분류 알고리즘, CNN 또는 RNN 등의 딥러닝 알고리즘을 포함할 수 있다. 상술한 바와 같이, 3D 데이터에 포함되는 3D 포인트의 강도는 노면 상태에 따라 서로 다른 반사율을 포함할 수 있다. 예를 들어, 기계 학습 알고리즘이 딥러닝 알고리즘인 경우, 프로세서(130)(또는, 별도의 기계 학습 장치)는 포트홀에 대응되는 3D 포인트 그룹의 반사율(또는, 강도)에 대한 딥러닝 알고리즘을 학습할 수 있다. 포트홀에 대해 학습된 딥러닝 알고리즘은 이후 입력되는 3D 포인트 그룹의 데이터에 기초하여 노면 상태가 포트홀인지 여부를 판단할 수 있다. 포트홀에 대해 학습된 딥러닝 알고리즘은 노면 상태 식별 장치(100)의 메모리(미도시)에 저장될 수 있고, 노면 상태 식별 장치(100)는 노면 상태가 포트홀인지 여부를 판단하기 위해 포트홀에 대해 학습된 딥러닝 알고리즘을 프로세서(130)로 로딩할 수 있다. 프로세서(130)는 추출된 매칭 쌍에 포함된 3D 포인트(또는, 포인트 그룹)의 반사율의 강도 및 포트홀에 대해 학습된 딥러닝 알고리즘에 기초하여 노면에 포트홀이 존재하는지 여부를 판단할 수 있다. 다른 예로서, 기계 학습 알고리즘이 이진 분류 알고리즘인 경우, 프로세서(130)는 (식 1)의 로지스틱 회귀식에 매칭 쌍 데이터를 입력하여 최적의 임계값을 판단할 수 있다.
(식 1)
Figure pat00001
로지스틱 회귀식에 입력되는 매칭 쌍의 데이터는 3D 포인트의 좌표, 3D 포인트의 반사율의 강도 및 2D 포인트의 RGB 값의 정보 등을 포함할 수 있다. 프로세서(130)는 임계값이 판단된 후 SVM(Support Vector Machine)과 같은 기계학습 알고리즘에 기초하여 임계값을 기준으로 결정 경계를 라그랑주 승수법 등을 이용하여 최적해를 산출할 수 있다. 최적해는 임계값을 기준으로 일정한 마진(margine)을 가지는 경계를 판단할 수 있고, 마진이 클수록 노면 상태 판단의 정확도가 높아질 수 있다. 노면 상태 식별 장치가 매칭 쌍 데이터에 기초하여 노면의 포트홀을 판단하는 실시 예를 설명하였다. 노면 상태 식별 장치는 블랙 아이스, 비포장 도로, 아스팔트 도로, 시멘트 도로, 젖은 도로 등에 대해서도 상술한 방법과 유사하게 노면 상태를 식별할 수 있다.
한편, 노면 상태 식별 장치는 출력부(미도시)를 더 포함하여 식별된 노면 상태에 대한 정보를 출력할 수 있다. 예를 들어, 출력부가 디스플레이로 구현되는 경우, 출력부는 노면 상태에 대한 정보, 경고 메시지 등을 이미지 형태로 출력할 수 있다. 출력부가 스피커로 구현되는 경우, 출력부는 상술한 정보 또는 메시지 등을 사운드 형태로 출력할 수 있다.
지금까지 노면 상태 식별 장치의 구성에 대해 설명하였다. 노면 데이터를 획득하는 과정을 설명한다.
도 3은 3D 데이터와 2D 이미지를 매칭시키는 일 실시 예를 설명하는 도면이다. 도 3(a)를 참조하면, 영상 카메라에서 획득된 2D 이미지가 도시되어 있고, 도 3(b)를 참조하면, 라이다 센서에서 획득된 3D 데이터가 도시되어 있으며, 도 3(c)를 참조하면, 3D 데이터와 2D 이미지가 매칭된 도면이 도시되어 있다. 도 3(a) 내지 도 3(c)를 참조하여 노면 데이터 획득 과정을 설명한다. 영상 카메라는 도 3(a)와 같은 2D 이미지를 획득할 수 있다. 그리고, 라이다 센서는 동일한 영역 및 주변 영역에 대해 도 3(b)에 도시된 바와 같은 3D 데이터를 획득될 수 있다. 상술한 바와 같이, 라이다 센서는 레이저(또는, 빛)을 조사하고 물체 또는 지면에 반사된 신호를 수신하여 3D 데이터를 획득할 수 있다. 3D 데이터의 각 포인트는 물체 또는 지면의 표면, 거리 등에 따라 서로 다른 반사율을 가질 수 있다. 그리고, 반사율의 정도는 색상으로 표현될 수도 있다. 노면 상태 식별 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키기 때문에 2D 이미지에 3D 데이터를 투영시킬 수 있다. 2D 이미지에 투영된 3D 데이터의 각 포인트는 대응되는 2D 포인트와 매칭 쌍을 추출할 수 있다. 매칭 쌍에는 3D 포인트의 좌표, 3D 포인트의 반사율의 강도 및 2D 포인트의 RGB 값을 포함할 수 있다. 즉, 도 3(c)에 도시된 바와 같이, 2D 이미지에 투영된 3D 포인트는 3D 포인트 (X, Y, Z)의 좌표 정보, RGB 값 정보 및 반사율(강도) 정보를 포함할 수 있다.
노면 상태 식별 장치는 추출된 매칭 쌍을 상술한 기계 학습된 알고리즘에 입력할 수 있다. 기계 학습된 알고리즘은 포트홀에 대해 학습된 알고리즘, 블랙 아이스에 대해 학습된 알고리즘, 비포장 도로에 대해 학습된 알고리즘, 아스팔트 도로에 대해 학습된 알고리즘, 시멘트 도로에 대해 학습된 알고리즘, 젖은 도로에 대해 학습된 알고리즘 등을 포함할 수 있다. 각 노면 상태에 대해 학습된 알고리즘은 각각 별도의 모듈로 구현될 수 있고, 하나의 모듈로 구현될 수도 있다. 노면 상태 식별 장치는 매칭 쌍의 정보가 입력된 기계 학습된 알고리즘에 기초하여 노면 상태를 식별할 수 있다. 그리고, 노면 상태 식별 장치는 식별된 노면 상태에 대한 정보를 출력할 수 있다.
지금까지 노면 상태 식별 장치의 다양한 실시 예를 설명하였다. 아래에서는 노면 상태 식별 장치의 제어 방법을 설명한다.
도 4는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치 제어 방법의 흐름도이다.
도 4를 참조하면, 노면 상태 식별 장치는 영상 카메라를 통해 2D 이미지를 획득하고(S410), 라이다 센서를 통해 3D 데이터를 획득할 수 있다(S420). 2D 이미지는 각 픽셀의 좌표 정보 및 RGB 값을 포함할 수 있다. 그리고, 3D 데이터는 각 포인트의 3D 좌표 정보 및 반사율의 강도 정보를 포함할 수 있다.
노면 상태 식별 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키고(S430), 3D 데이터를 2D 이미지에 투영시켜 2D 이미지로부터 노면 영역을 식별할 수 있다(S440). 3D 데이터로부터 추출된 노면 영역은 포인트 그룹을 포함할 수 있다. 노면 상태 식별 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시켰으므로 3D 데이터에서 추출된 노면 영역의 포인트 그룹은 2D 이미지에 투영시킬 수 있다. 노면 상태 식별 장치는 2D 이미지에 투영된 지면 영역의 포인트 그룹의 영역을 노면 영역으로 추출할 수 있다.
노면 상태 식별 장치는 식별된 노면 영역에 포함되는 3D 데이터의 3D 포인트와 2D 이미지의 2D 포인트를 추출하고(S450), 추출된 3D 포인트에 대응되는 2D 포인트를 매칭시켜 매칭 쌍을 추출할 수 있다(S460). 노면 상태 식별 장치는 2D 이미지의 픽셀의 좌표와 3D 데이터의 3D 좌표에 기초하여 변환 행렬을 산출하고, 변환 행렬에 기초하여 2D 픽셀의 좌표와 대응되는 3D 포인트의 좌표를 매칭시켜 매칭 쌍을 추출할 수 있다. 추출된 매칭 쌍에는 3D 포인트의 좌표, 3D 포인트의 반사율의 강도 및 2D 포인트의 RGB 값을 포함할 수 있다.
노면 상태 식별 장치는 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별할 수 있다(S470). 노면 상태 식별 장치는 포트홀, 블랙 아이스, 비포장 노면, 젖은 노면 등과 같은 각각의 노면 상태에 대해 기계 학습된 알고리즘을 포함할 수 있다. 그리고, 노면 상태 식별 장치는 추출된 매칭 쌍을 기계 학습된 알고리즘에 입력할 수 있다. 노면 상태 식별 장치는 기계 학습된 알고리즘에 기초하여 포트홀, 블랙 아이스, 비포장 노면, 젖은 노면 등과 같은 노면 상태를 판단할 수 있다. 노면 상태 식별 장치는 판단된 노면 상태에 대한 정보를 출력할 수도 있다.
도 5는 본 발명의 일 실시 예에 따른 노면 상태 식별 장치가 노면 상태를 식별하는 과정을 설명하는 도면이다.
도 5를 참조하면, 노면 상태 식별 장치는 영상 카메라로부터 2D 이미지 획득하고(S510), 라이다 센서로부터 3D 데이터 획득할 수 있다(S520). 노면 상태 식별 장치는 획득된 2D 이미지와 3D 데이터의 좌표계를 매칭시키는 캘리브레이션 과정을 수행할 수 있다(S530).
노면 상태 식별 장치는 획득된 3D 데이터로부터 노면 포인트를 추출하고, 추출된 노면 포인트를 2D 이미지에 투영시켜 2D 이미지로부터 노면 픽셀을 추출하여 노면 영역을 식별할 수 있다(S540). 노면 상태 식별 장치는 식별된 노면 영역으로부터 3D/2D 포인트 추출하고(S550), 추출된 3D/2D 포인트를 매칭시켜 매칭 쌍을 추출할 수 있다(S560). 매칭 쌍은 3D 포인트의 좌표, 3D 포인트의 반사율의 강도 및 2D 포인트의 RGB 값의 정보를 포함할 수 있다.
노면 상태 식별 장치는 각 노면 상태에 대해 학습된 기계 학습 알고리즘에 추출된 매칭 쌍 정보를 입력하여 노면 상태를 식별할 수 있다(S570). 노면 상태 식별 장치는 식별된 노면 상태에 대한 정보를 출력할 수 있다.
상술한 다양한 실시 예에 따른 노면 상태 식별 장치는 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 노면 상태 식별 장치 110: 영상 카메라
120: 라이다 센서 130: 프로세서

Claims (5)

  1. 차량에 배치된 노면 상태 식별 장치에 있어서,
    2D 이미지를 획득하는 영상 카메라;
    3D 데이터를 획득하는 라이다 센서; 및
    상기 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 프로세서;를 포함하며,
    상기 프로세서는,
    상기 3D 데이터를 2D 이미지에 투영시켜 상기 2D 이미지로부터 노면 영역을 식별하고, 상기 식별된 노면 영역에 포함되는 상기 3D 데이터의 3D 포인트와 상기 2D 이미지의 2D 포인트를 추출하며, 상기 추출된 3D 포인트에 대응되는 상기 2D 포인트를 매칭시켜 매칭 쌍을 추출하고, 상기 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별하는, 노면 상태 식별 장치.
  2. 제1항에 있어서,
    상기 매칭 쌍의 정보는,
    상기 3D 포인트의 좌표, 상기 3D 포인트의 반사율의 강도 및 상기 2D 포인트의 RGB 값을 포함하는, 노면 상태 식별 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 3D 포인트의 반사율의 강도 및 상기 2D 포인트의 RGB 값을 입력하여 기계 학습된 알고리즘에 기초하여 비포장 노면, 젖은 노면, 포트홀 또는 블랙 아이스 노면을 판단하는, 노면 상태 식별 장치.
  4. 제3항에 있어서,
    상기 판단된 비포장 노면, 젖은 노면, 포트홀 또는 블랙 아이스 노면에 대한 정보를 출력하는 출력부;를 더 포함하는 노면 상태 식별 장치.
  5. 차량에 배치된 노면 상태 식별 장치의 제어 방법에 있어서,
    2D 이미지를 획득하는 단계;
    3D 데이터를 획득하는 단계;
    상기 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계;
    상기 3D 데이터를 2D 이미지에 투영시켜 상기 2D 이미지로부터 노면 영역을 식별하는 단계;
    상기 식별된 노면 영역에 포함되는 상기 3D 데이터의 3D 포인트와 상기 2D 이미지의 2D 포인트를 추출하는 단계;
    상기 추출된 3D 포인트에 대응되는 상기 2D 포인트를 매칭시켜 매칭 쌍을 추출하는 단계; 및
    상기 추출된 매칭 쌍의 정보를 기계 학습된 알고리즘에 입력하여 노면의 상태를 식별하는 단계;를 포함하는 노면 상태 식별 장치의 제어 방법.
KR1020200012265A 2020-01-31 2020-01-31 노면 상태 식별 장치 및 제어 방법 KR20210098276A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200012265A KR20210098276A (ko) 2020-01-31 2020-01-31 노면 상태 식별 장치 및 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200012265A KR20210098276A (ko) 2020-01-31 2020-01-31 노면 상태 식별 장치 및 제어 방법

Publications (1)

Publication Number Publication Date
KR20210098276A true KR20210098276A (ko) 2021-08-10

Family

ID=77315965

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200012265A KR20210098276A (ko) 2020-01-31 2020-01-31 노면 상태 식별 장치 및 제어 방법

Country Status (1)

Country Link
KR (1) KR20210098276A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119998A (zh) * 2021-12-01 2022-03-01 成都理工大学 一种车载点云地面点提取方法及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119998A (zh) * 2021-12-01 2022-03-01 成都理工大学 一种车载点云地面点提取方法及存储介质
CN114119998B (zh) * 2021-12-01 2023-04-18 成都理工大学 一种车载点云地面点提取方法及存储介质

Similar Documents

Publication Publication Date Title
US11836989B2 (en) Vehicular vision system that determines distance to an object
US11679635B2 (en) Vehicular trailer hitching assist system with coupler height and location estimation
US10078789B2 (en) Vehicle parking assist system with vision-based parking space detection
US10719699B2 (en) Pedestrian detection method and system in vehicle
JP5012718B2 (ja) 画像処理装置
US11648877B2 (en) Method for detecting an object via a vehicular vision system
US9030558B2 (en) Image processing method for a driver assistance system of a motor vehicle for detecting and classifying at least one portion of at least one predefined image element
JP4263737B2 (ja) 歩行者検知装置
US10442438B2 (en) Method and apparatus for detecting and assessing road reflections
US10268904B2 (en) Vehicle vision system with object and lane fusion
KR20180068578A (ko) 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US20240190342A1 (en) Trailer hitching assist system with trailer coupler detection
JP2015143979A (ja) 画像処理装置、画像処理方法、プログラム、画像処理システム
JP2012138077A (ja) 車両識別装置
US11081008B2 (en) Vehicle vision system with cross traffic detection
CN102713988A (zh) 车辆周围监测装置
JPWO2013047088A1 (ja) 生体認識装置
US11069049B2 (en) Division line detection device and division line detection method
US11663832B2 (en) Method and system for detecting and analyzing objects
KR20210098276A (ko) 노면 상태 식별 장치 및 제어 방법
JP2008022454A (ja) 障害物検出システム及び障害物検出方法
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
KR102371749B1 (ko) 차량 위치 정보 획득 장치 및 제어 방법
JP2008165595A (ja) 障害物検出方法、障害物検出装置、障害物検出システム
JP2005242914A (ja) 人間認識システム及び画像処理装置

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E601 Decision to refuse application