KR102371749B1 - 차량 위치 정보 획득 장치 및 제어 방법 - Google Patents

차량 위치 정보 획득 장치 및 제어 방법 Download PDF

Info

Publication number
KR102371749B1
KR102371749B1 KR1020200012254A KR20200012254A KR102371749B1 KR 102371749 B1 KR102371749 B1 KR 102371749B1 KR 1020200012254 A KR1020200012254 A KR 1020200012254A KR 20200012254 A KR20200012254 A KR 20200012254A KR 102371749 B1 KR102371749 B1 KR 102371749B1
Authority
KR
South Korea
Prior art keywords
image
point
vehicle
data
coordinate system
Prior art date
Application number
KR1020200012254A
Other languages
English (en)
Other versions
KR20210098594A (ko
Inventor
김민영
이규호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020200012254A priority Critical patent/KR102371749B1/ko
Publication of KR20210098594A publication Critical patent/KR20210098594A/ko
Application granted granted Critical
Publication of KR102371749B1 publication Critical patent/KR102371749B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

차량 위치 정보 획득 장치 및 제어 방법이 개시된다. 차량에 위치한 차량 위치 정보 획득 장치는 2D 이미지를 획득하는 영상 카메라, 2D 열화상 이미지를 획득하는 열화상 카메라, 3D 데이터를 획득하는 라이다 센서 및 획득된 2D 이미지와 3D 데이터의 좌표계를 매칭시키고, 획득된 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시키는 프로세서를 포함하고, 프로세서는 3D 데이터를 2D 이미지의 평면으로 투영하고, 2D 이미지의 평면으로 투영된 3D 데이터의 3D 포인트를 대응되는 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출하며, 산출된 매칭 쌍에 기초하여 차량 주변의 물체를 판단하며, 2D 이미지의 좌표계와 2D 열화상 이미지의 좌표계는 각각 3D 데이터의 좌표계와 매칭되어 동일한 좌표계로 통합된다.

Description

차량 위치 정보 획득 장치 및 제어 방법{DEVICE FOR ACQURIING VEHICLE POSITION INFORMATION AND CONTROLLING MMTHOD THEREOF}
본 발명은 차량 위치 정보 획득 장치 및 제어 방법에 관한 것으로, 더욱 상세하게는 복수의 센서를 이용하여 차량 주변 물체를 인식하고 차량의 위치 정보를 획득하는 차량 위치 정보 획득 장치 및 제어 방법에 관한 것이다.
최근 자율 주행 자동차에 대한 관심이 높아지면서 멀티 센서를 이용한 비전 분야의 연구가 활발히 진행되고 있다. 예를 들어, 멀티 센서는 라이다 센서, 영상 센서를 포함한다. 라이다 센서는 물체에 대한 3D 위치 정보와 깊이 정보를 제공할 수 있다. 영상 센서는 컬러 특징 정보를 제공할 수 있다. 따라서, 라이다 센서에서 획득된 정보와 영상 센서에서 획득된 정보에 의해 사용자는 물체에 대한 실제적인 뷰를 제공받을 수 있다. 멀티 센서를 포함하는 장치는 단일 센서를 이용하여 주변을 감지하는 경우보다 정확한 감지 결과를 얻을 수 있는 장점이 있다.
그러나, 멀티 센서를 이용하는 경우라도 특정한 상황에서는 영상 센서의 감지 데이터가 안 좋을 수 있고, 라이다 센서의 감지 데이터가 안 좋을 수가 있다. 영상 센서 또는 라이다 센서의 감지 데이터가 안 좋은 경우, 멀티 센서를 포함하는 장치는 단일 센서를 이용하여 주변을 감지하는 것과 동일한 결과를 얻게 될 수 있다.
한편, 기존의 네비게이션 기술은 지도 상에서 차량의 위치를 확인할 수 있지만, 차량이 음영 지역 등에 위치한 경우, 차량의 위치에 대한 오차가 존재한다. 음영 지역 등에서 정확한 차량의 위치를 인식하는 기술에 대한 연구가 진행되고 있으나, 대부분의 연구는 상술한 멀티 센서와 별도의 센서를 이용하기 때문에 별도의 장치를 추가해야 하는 단점이 존재한다.
따라서, 복수의 센서를 효율적으로 이용하고 단점을 극복하며, 동시에 지도 상에서 차량의 위치를 정확하게 인식할 수 있는 기술에 대한 필요성이 존재한다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 주변 상황에 영향을 받지 않고, 복수의 센서를 이용하여 주변 물체를 정확히 인식하고, 차량의 위치에 대한 오차를 보정할 수 있는 차량 위치 정보 획득 장치 및 제어 방법을 제공하는 것이다.
이상과 같은 목적을 달성하기 위한 일 실시 예에 따르면, 차량에 위치한 차량 위치 정보 획득 장치는 2D 이미지를 획득하는 영상 카메라, 2D 열화상 이미지를 획득하는 열화상 카메라, 3D 데이터를 획득하는 라이다 센서 및 상기 획득된 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키고, 상기 획득된 2D 열화상 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 프로세서를 포함하고, 상기 프로세서는 상기 3D 데이터를 상기 2D 이미지의 평면으로 투영하고, 상기 2D 이미지의 평면으로 투영된 상기 3D 데이터의 3D 포인트를 대응되는 상기 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출하며, 상기 추출된 매칭 쌍에 기초하여 차량의 주변 물체를 인식하며, 상기 2D 이미지의 좌표계와 상기 2D 열화상 이미지의 좌표계는 각각 상기 3D 데이터의 좌표계와 매칭되어 동일한 좌표계로 통합될 수 있다.
그리고, 상기 프로세서는 상기 획득된 3D 데이터로부터 지면 영역의 3D 포인트 그룹과 비지면 영역의 3D 포인트 그룹을 판단하고, 상기 비지면 영역의 3D 포인트 그룹의 좌표계를 상기 2D 이미지의 좌표계와 매칭시킬 수 있다.
또한, 상기 매칭 쌍은 상기 3D 포인트의 좌표, 상기 3D 포인트의 반사율의 강도, 상기 2D 포인트의 좌표, 상기 2D 포인트의 RGB 값, 및 2D 열화상 포인트의 RGB 값을 포함할 수 있다.
또한, 상기 프로세서는 상기 3D 포인트의 좌표 및 상기 2D 포인트의 좌표에 기초하여 상기 차량 주변의 물체의 위치를 판단하고, 상기 3D 포인트의 반사율의 강도, 상기 2D 포인트의 RGB 값 및 상기 2D 열화상 포인트의 RGB 값에 기초하여 상기 물체를 인식할 수 있다.
한편, 차량 위치 정보 획득 장치는 상기 차량의 위치 정보를 수신하는 통신부 및 지도 정보를 저장하는 메모리를 더 포함하고, 상기 프로세서는 상기 저장된 지도 정보 및 상기 수신된 차량의 위치 정보에 기초하여 상기 차량의 위치를 판단하고, 상기 판단된 차량의 위치, 상기 저장된 지도 정보에 포함된 물체의 정보 및 상기 인식된 차량 주변의 물체에 기초하여 상기 판단된 차량의 위치를 보정할 수 있다.
이상과 같은 목적을 달성하기 위한 일 실시 예에 따르면, 차량에 위치한 차량 위치 정보 획득 장치의 제어 방법은 2D 이미지를 획득하는 단계, 2D 열화상 이미지를 획득하는 단계, 3D 데이터를 획득하는 단계, 상기 획득된 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계, 상기 획득된 2D 열화상 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계, 상기 3D 데이터를 상기 2D 이미지의 평면으로 투영하는 단계, 상기 2D 이미지의 평면으로 투영된 상기 3D 데이터의 3D 포인트를 대응되는 상기 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출하는 단계 및 상기 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식하는 단계를 포함하고, 상기 2D 이미지의 좌표계와 상기 2D 열화상 이미지의 좌표계는 각각 상기 3D 데이터이 좌표계와 매칭되어 동일한 좌표계로 통합될 수 있다.
본 발명의 다양한 실시 예에 따르면, 차량 위치 정보 획득 장치 및 제어 방법은 주변 상황에 영향을 받지 않고, 복수의 센서를 이용하여 주변 물체를 정확히 인식할 수 있다.
그리고, 차량 위치 정보 획득 장치 및 제어 방법은 차량의 위치에 대한 오차를 보정할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치를 설명하는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 캘리브레이션 과정을 설명하는 도면이다.
도 4는 복수의 센서를 이용하여 차량의 주변에 위치하는 물체를 식별하는 일 실시 예를 설명하는 도면이다.
도 5는 지도상에서 차량의 위치를 보정하는 일 실시 예를 설명하는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치 제어 방법의 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치가 차량의 위치 정보를 보정하는 과정을 설명하는 도면이다.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 발명의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다. 그리고 본 명세서에서 "A 또는 B"라고 기재한 것은 A와 B 중 어느 하나를 선택적으로 가리키는 것뿐만 아니라 A와 B 모두를 포함하는 것도 의미하는 것으로 정의된다. 또한, 본 명세서에서 "포함"이라는 용어는 포함하는 것으로 나열된 요소 이외에 추가로 다른 구성요소를 더 포함하는 것도 포괄하는 의미를 가진다.
본 명세서에서 수행되는 정보(데이터) 전송 과정은 필요에 따라서 암호화/복호화가 적용될 수 있으며, 본 명세서 및 특허청구범위에서 정보(데이터) 전송 과정을 설명하는 표현은 별도로 언급되지 않더라도 모두 암호화/복호화하는 경우도 포함하는 것으로 해석되어야 한다. 본 명세서에서 "A로부터 B로 전송(전달)" 또는 "A가 B로부터 수신"과 같은 형태의 표현은 중간에 다른 매개체가 포함되어 전송(전달) 또는 수신되는 것도 포함하며, 반드시 A로부터 B까지 직접 전송(전달) 또는 수신되는 것만을 표현하는 것은 아니다.
본 명세서에서는 본 발명의 설명에 필요한 필수적인 구성요소만을 설명하며, 본 발명의 본질과 관계가 없는 구성요소는 언급하지 아니한다. 그리고 언급되는 구성요소만을 포함하는 배타적인 의미로 해석되어서는 아니되며 다른 구성요소도 포함할 수 있는 비배타적인 의미로 해석되어야 한다.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.
도 1은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치를 설명하는 도면이다.
도 1을 참조하면, 차량(1)에 배치된 차량 위치 정보 획득 장치의 각 구성이 도시되어 있다. 차량 위치 정보 획득 장치는 영상 카메라(110), 열화상 카메라(120), 라이다(LIDAR) 센서(130) 및 프로세서를 포함할 수 있다. 영상 카메라(110)는 RGB 값을 포함하는 2D 이미지를 촬영하는 카메라일 수 있다. 예를 들어, 영상 카메라(110)는 CCD 센서, CMOS 센서 또는 포토 센서를 포함할 수 있다. 열화상 카메라(120)는 2D 열화상 이미지를 촬영하는 카메라일 수 있다. 예를 들어, 열화상 카메라(120)는 IR 카메라를 포함할 수 있다. 일 실시 예로서, 영상 카메라(110) 및 열화상 카메라(120)는 차량의 전면부에 배치될 수 있다. 한편, 복수 개의 영상 카메라(110) 또는 열화상 카메라(120)가 차량에 배치될 수도 있다. 영상 카메라(110) 또는 열화상 카메라(120)가 차량에 복수 개 배치되는 경우, 영상 카메라(110) 또는 열화상 카메라(120)는 차량의 전면부, 좌우측 또는 후면부에 배치될 수 있다. 차량의 전면부에 배치된 영상 카메라(110) 및 열화상 카메라(120)는 각각 차량 전면부에 위치하는 물체 및 배경을 2D 이미지로 촬영할 수 있다.
라이다 센서(130)는 차량 주변의 물체를 스캔하고 3D 데이터를 획득할 수 있다. 라이다 센서(130)는 주변에 빛(또는, 레이저)을 조사하고 물체에 반사되는 신호를 포착함으로써 차량 주변의 물체에 대한 3D 데이터를 획득할 수 있다. 일 실시 예로서, 라이다 센서(130)는 차량의 루프에 배치되고 360도 모든 방향에 위치하는 물체에 대한 3D 데이터를 획득할 수 있다.
영상 카메라(110), 열화상 카메라(120) 및 라이다 센서(130)에서 획득된 데이터는 프로세서로 전달될 수 있다. 프로세서는 차량 내부에 위치할 수 있다. 프로세서는 영상 카메라(110)로부터 전달받은 2D 이미지와 라이다 센서(130)로부터 전달받은 3D 데이터의 좌표계를 매칭시키고, 열화상 카메라(120)로부터 전달받은 2D 열화상 이미지와 라이다 센서(130)로부터 전달받은 3D 데이터의 좌표계를 매칭시킬 수 있다. 2D 이미지의 좌표계와 3D 데이터의 좌표계가 매칭되고, 3D 데이터의 좌표계와 2D 열화상 이미지의 좌표계가 매칭되므로, 결국 2D 이미지의 좌표계와 2D 열화상 이미지의 좌표계는 동일한 좌표계로 통합될 수 있다.
도 2는 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치의 블록도이다.
도 2를 참조하면, 차량 위치 정보 획득 장치(100)는 영상 카메라(110), 열화상 카메라(120), 라이다 센서(130) 및 프로세서(140)를 포함한다.
영상 카메라(110)는 2D 이미지를 획득할 수 있다. 주행 중인 차량에 설치된 영상 카메라(110)는 차량 주변의 물체, 도로 및 배경을 촬영하여 2D 이미지를 획득할 수 있다. 센서(또는, 카메라) 간의 캘리브레이션 단계에서 영상 카메라(110)는 평면 보드를 촬영할 수 있다. 예를 들어, 평면 보드는 바둑판 형태의 체커 보드 또는 단색 다각 평면 보드일 수 있다. 다각 평면 보드는 삼각형, 사각형, 오각형 등 다양한 형태일 수 있다. 본 발명에서는 다각 평면 보드가 삼각형인 예를 설명한다. 평면 보드는 삼각형, 사각형, 오각형 등 다양한 형태일 수 있다. 본 발명에서는 평면 보드가 삼각형인 예를 설명한다. 열화상 카메라(120)는 2D 열화상 이미지를 획득할 수 있다. 주행 중인 차량에 설치된 열화상 카메라(120)는 차량 주변의 물체, 도로 및 배경을 촬영하여 2D 열화상 이미지를 획득할 수 있다. 센서 간의 캘리브레이션 단계에서 열화상 카메라(120)는 평면 보드를 촬영할 수 있다. 열화상 카메라(120)가 촬영한 2D 열화상 이미지는 영상 카메라(110)가 촬영한 2D 이미지와 유사할 수 있다. 다만, 영상 카메라(110)가 촬영한 2D 이미지는 각 픽셀에 대한 RGB 정보를 포함하고, 열화상 카메라(120)가 촬영한 2D 열화상 이미지는 각 픽셀에 대한 온도 정보를 포함할 수 있다.
영상 카메라(110)와 열화상 카메라(120)는 인접하게 배치될 수 있다. 따라서, 영상 카메라(110) 및 열화상 카메라(120)는 거의 유사한 이미지를 촬영할 수 있다. 다만,
한편, 라이다 센서(130)는 3D 데이터를 획득할 수 있다. 라이다 센서(130)는 주변에 빛을 조사하고 물체에 반사되는 신호를 포착함으로써 3D 데이터를 획득할 수 있다. 예를 들어, 라이다 센서(130)와 가까운 곳의 물체에 반사된 빛은 상대적으로 빠르게 강한 강도로 라이다 센서(130)에서 획득되고, 먼 곳의 물체에 반사된 빛은 상대적으로 느리게 약한 강도로 라이다 센서(130)에서 획득될 수 있다. 라이다 센서(130)는 해상도에 따라 주변의 각 지점으로부터 반사된 빛이 도달하는 시간 및 강도에 기초하여 복수의 포인트(또는, 점군)으로 형성되는 3D 데이터를 획득할 수 있다. 3D 데이터에는 3D 좌표 및 강도(intensity)의 정보를 포함할 수 있다. 주행 중인 차량에 설치된 라이다 센서(130)는 차량 주변의 물체, 도로 및 배경을 스캔하여 3D 데이터를 획득할 수 있다. 프로세서(140)는 획득된 3D 데이터로부터 지면 영역과 비지면 영역을 판단할 수 있다. 상술한 바와 같이, 라이다 센서(130)에서 획득된 3D 데이터는 3D 좌표와 강도 정보를 포함할 수 있다. 따라서, 프로세서(140)는 3D 좌표와 강도 정보에 기초하여 지면 영역의 3D 포인트 그룹과 비지면 영역의 3D 포인트 그룹을 판단할 수 있다. 예를 들어, 라이다 센서(130)가 배치된 위치는 일정하기 때문에 프로세서(140)는 일정 영역 이하 영역의 좌표를 가지는 포인트를 지면 영역으로 판단할 수 있고, 지면 영역은 대부분 유사한 강도의 정보를 포함할 수 있으므로 강도 정보에 기초하여 지면 영역을 판단할 수 있다. 따라서, 프로세서(140)는 3D 데이터에 포함된 정보에 기초하여 지면 영역을 판단하고 지면 영역이 아닌 영역을 비지면 영역으로 판단할 수 있다. 프로세서(140)는 3D 데이터 중에서 비지면 영역의 3D 포인트 그룹을 추출할 수 있다. 센서 간의 캘리브레이션 단계에서 라이다 센서(130)는 평면 보드를 스캔할 수 있다.
프로세서(140)는 2D 이미지와 3D 데이터의 좌표계를 매칭시키고, 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다. 프로세서(140)는 3D 데이터 중에서 비지면 영역을 추출하였으므로 3D 데이터의 비지면 영역과 2D 이미지의 비지면 영역에 대한 좌표계를 매칭시킬 수 있다. 또한, 프로세서(140)는 3D 데이터의 비지면 영역과 2D 열화상 이미지의 비지면 영역에 대한 좌표계를 매칭시킬 수 있다. 프로세서(140)가 영상 카메라(110)로 촬영된 2D 이미지와 라이다 센서(130)에서 획득된 3D 데이터의 좌표계를 매칭시키고, 열화상 카메라(120)로 촬영된 2D 열화상 이미지와 라이다 센서(130)에서 획득된 3D 데이터의 좌표계를 매칭시켰기 때문에 2D 이미지와 2D 열화상 이미지의 좌표계는 동일한 좌표계로 자동적으로 통합될 수 있다. 프로세서(140)가 2D 이미지와 3D 데이터의 좌표계를 매칭시키는 구체적인 과정은 후술한다. 좌표계가 매칭되는 경우, 3D 데이터의 3D 포인트 각각은 2D 이미지의 2D 포인트와 대응될 수 있다. 프로세서(140)는 3D 포인트에 대응되는 2D 포인트를 매칭시켜 매칭 쌍을 추출할 수 있다. 그리고, 프로세서(140)는 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식할 수 있다. 예를 들어, 매칭 쌍에는 3D 포인트의 좌표, 3D 포인트의 반사율의 강도, 2D 포인트의 좌표, 2D 포인트의 RGB 값 및 2D 열화상 포인트의 RGB 값의 정보를 포함할 수 있다. 프로세서(140)는 3D 포인트의 좌표 및 2D 포인트의 좌표에 기초하여 차량 주변의 물체의 위치를 판단하고, 3D 포인트의 반사율의 강도, 2D 포인트의 RGB 값 및 2D 열화상 포인트이 RGB 값에 기초하여 차량 주변의 물체가 무슨 물체인지 판단할 수 있다.
한편, 프로세서(140)는 캘리브레이션 단계에서 영상 카메라(110)가 촬영한 2D 이미지, 열화상 카메라(120)가 촬영한 2D 열화상 이미지 및 라이다 센서(130)가 획득한 3D 데이터의 좌표계를 매칭시켰기 때문에 이후 2D 이미지, 2D 열화상 이미지 및 3D 데이터의 정보를 종합하여 주변 물체를 판단할 수 있다. 또는, 프로세서(140)는 낮이나 화창한 날과 같이 2D 이미지가 선명한 경우, 2D 이미지와 3D 데이터에 기초하여 주변 물체를 판단하고, 흐린 날과 같이 2D 이미지가 선명하지 못한 경우, 2D 이미지, 2D 열화상 이미지 및 3D 데이터에 기초하여 주변 물체를 판단하며, 밤과 같이 2D 이미지로 물체 식별이 불가능한 경우, 2D 열화상 이미지 및 3D 데이터에 기초하여 주변 물체를 판단할 수 있다. 즉, 본 발명의 차량 위치 정보 획득 장치는 영상 카메라(110), 열화상 카메라(120) 및 라이다 센서(130)를 모두 이용하고 좌표계를 통합함으로써 밝기나 날씨 등에 관계없이 항상 정확하게 주변 물체를 판단할 수 있다.
한편, 차량 위치 정보 획득 장치(100)는 통신부(미도시) 및 메모리(미도시)를 더 포함할 수 있다. 예를 들어, 통신부는 GPS 모듈을 포함하여 위성으로부터 차량의 위치 정보를 수신할 수 있고, 메모리는 지도 정보를 저장할 수 있다. 프로세서(140)는 수신된 위치 정보 및 저장된 지도 정보에 기초하여 지도 상에서 차량의 위치를 표시할 수 있다. 차량의 위치는 지도 상에서 표시될 수 있지만, 터널이나 높은 건물이 많은 지역과 같이 음영 지역에서는 정확한 차량의 위치가 표시되지 않을 수도 있다. 또한, 차량의 위치가 비교적 정확하게 지도 상에 표시되긴 하지만, 실제 차량의 위치와 수십 m 정도의 오차가 발생하는 경우가 빈번하다. 따라서, 프로세서(140)는 주변 물체를 판단하고, 판단된 주변 물체 및 지도 정보에 기초하여 실제 차량의 정확한 위치를 판단할 수 있다. 그리고, 프로세서(140)는 수신된 차량의 위치 정보에 기초하여 지도에 표시된 차량의 위치와 판단된 실제 차량의 위치를 비교하여 지도에 표시된 차량의 위치를 보정할 수 있다. 프로세서(140)가 차량의 위치를 보정하는 구체적인 실시 예는 후술한다.
지금까지 차량 위치 정보 획득 장치의 구성에 대해 설명하였다. 아래에서는 캘리브레이션 하는 과정에 대해 설명한다.
도 3은 본 발명의 일 실시 예에 따른 캘리브레이션 과정을 설명하는 도면이다.
캘리브레이션 과정에서 다각형 평면 보드가 사용됨으로써 라이다 센서의 스캔 데이터로부터 모서리(또는, 꼭지점)가 추정되고, 추정된 모서리(또는, 꼭지점)는 2D 이미지와 3D 데이터의 좌표계 매칭의 기준점이 될 수 있다. 따라서, 본 발명의 다각 평면 보드를 사용한 캘리브레이션 과정은 측정 오차를 감소시킬 수 있고, 빠르고 정확하게 수행될 수 있다.
상술한 바와 같이, 영상 카메라의 2D 이미지와 라이다 센서의 3D 데이터의 좌표계가 매칭되고, 열화상 카메라의 2D 열화상 이미지와 라이다 센서의 3D 데이터의 좌표계도 매칭될 수 있다. 따라서, 2D 이미지와 2D 열화상 이미지의 좌표계는 동일한 좌표계로 통합될 수 있다. 본 발명에서는 영상 카메라의 2D 이미지와 라이다 센서의 3D 데이터를 매칭시키는 과정을 설명한다.
영상 카메라는 평면 보드를 촬영하여 평면 보드를 포함하는 2D 이미지를 획득할 수 있다. 2D 이미지는 각 픽셀의 2D 좌표와 RGB 값을 포함할 수 있다. 라이다 센서는 평면 보드를 스캔하여 3D 데이터를 획득할 수 있다. 3D 데이터는 각 지점의 3D 좌표와 강도 값을 포함할 수 있다. 강도는 3D 포인트의 반사율의 강도를 의미할 수 있다.
평면 보드는 삼각형, 사각형 등 다양한 형태일 수 있다. 다만, 라이다 센서의 측정 오류를 줄이고, 라이다 센서가 꼭지점(또는, 모서리)를 용이하게 감지할 수 있도록 평면 보드는 배경과 구별되는 밝은 단색이 바람직하며, 다수의 스캐닝 라인을 포함할 수 있을 정도의 크기가 바람직하다. 라이다 센서에서 감지된 3D 데이터의 각 포인트는 동일한 깊이의 라인 선상에 위치할 수 있도록 2D 이미지의 단색 다각 평면 보드에 투영될 수 있다.
2D 이미지는 각 픽셀에 대한 (U, V)의 2D 좌표 정보를 포함할 수 있다. 그리고, 3D 데이터의 각 지점에 대한 (X, Y, Z)의 3D 좌표 정보를 포함할 수 있다. 2D 좌표와 3D 좌표는 내부(intrinsic) 및 외부(extrinsic) 파라미터의 (식 1)과 같은 변환 행렬의 관계로 표현될 수 있다.
(식 1)
Figure 112020010741212-pat00001
여기서, fu 및 fv는 각각 수평 및 수직 방향의 효과적인 초점 거리(effective focal lengths)를 의미할 수 있고, (u0, v0)는 이미지 평면의 중심점을 의미할 수 있다. 그리고, R과 t는 영상 카메라와 라이다 센서 간의 회전(rotation) 및 병진(translation) 행렬(matrices)일 수 있다. 즉, 변환 행렬 M은 내부적 카메라 파라미터 (fu, fv, u0, v0)와 외부적 파라미터 (R, t), 그리고, (u, v)와 (x, y, z)의 대응되는 쌍에 의해 결정될 수 있는 mpq의 융합(fusion)으로 표현될 수 있다. (식 1)은 (식 2) 내지 (식 4)로 표현될 수 있다.
(식 2)
Figure 112020010741212-pat00002
(식 3)
Figure 112020010741212-pat00003
(식 4)
Figure 112020010741212-pat00004
각각의 대응 쌍은 (식 4)로부터 산출될 수 있고, 계수 mpq를 결정하기 위해 충분한 개수의 대응 쌍을 산출할 수 있다. 따라서, 본 발명은 한 번의 과정을 통해 내부(intrinsic) 및 외부(extrinsic) 파라미터를 고려한 캘리브레이션을 수행할 수 있다.
도 3(a)를 참조하면 2D 이미지 내의 평면 보드 상에 3D 데이터의 포인트를 투영시킨 도면이 도시되어 있다. 차량 위치 정보 획득 장치는 상술한 변환 행렬에 기초하여 3D 데이터의 3D 스캔 라인(또는, 3D 포인트)를 2D 이미지 평면으로 투영시킬 수 있다.
도 3(b)를 참조하면, 중앙 꼭지점을 추출하는 도면이 도시되어 있다. 차량 위치 정보 획득 장치는 3D 스캔 라인이 투영된 2D 이미지 평면에서 평면 보드의 꼭지점(Vc)을 식별할 수 있다. 그리고, 차량 위치 정보 획득 장치는 평면 보드의 인접한 두 면이 만나는 지점을 추정하고, 라이다 센스에서 스캔된 3D 데이터에서 꼭지점(Vc)에 해당하는 3D 포인트를 식별할 수 있다.
도 3(c)를 참조하면, 차량 위치 정보 획득 장치는 3D 데이터의 포인트와 2D 이미지의 포인트 간의 매개 변수를 추정하고 3D 데이터의 포인트 좌표에 대응되는 2D 이미지의 포인트 좌표의 관계에 기초하여 2D 이미지와 3D 데이터 간의 캘리브레이션 과정을 수행할 수 있다. 3D 데이터의 포인트에 대응되는 2D 이미지의 포인트는 하나의 매칭 쌍으로 추출될 수 있다. 즉, 하나의 매칭 쌍은 해당 포인트의 3D 포인트의 좌표, 3D 포인트의 반사율의 강도, 2D 포인트의 좌표, 2D 포인트의 RGB 값을 포함할 수 있다.
상술한 캘리브레이션 과정을 통해 차량 위치 정보 획득 장치는 2D 이미지(또는, 2D 열화상 이미지)와 3D 데이터의 좌표를 매칭시킬 수 있다. 차량 위치 정보 획득 장치는 매칭된 매칭 쌍에 기초하여 차량 주변에 위치하는 물체를 판단할 수 있다.
도 4는 복수의 센서를 이용하여 차량의 주변에 위치하는 물체를 식별하는 일 실시 예를 설명하는 도면이다.
도 4를 참조하면, 주행 중인 차량 전방에 표지판(11), 경고판(12) 및 터널(13)이 위치하는 도면이 도시되어 있다. 상술한 바와 같이, 차량 위치 정보 획득 장치는 차량(1)에 배치될 수 있다. 그리고, 차량 위치 정보 획득 장치는 영상 카메라로 2D 이미지를 획득하고, 열화상 카메라로 2D 열화상 이미지를 획득하며, 라이다 센서로 3D 데이터를 획득할 수 있다. 차량 위치 정보 획득 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키고, 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다. 따라서, 차량 위치 정보 획득 장치는 라이다 센서와 함께 영상 카메라 및/또는 열화상 카메라를 이용하여 2D 이미지와 3D 데이터에 기초하여 차량(1)의 전방에 위치하는 표지판(11), 경고판(12) 및 터널(13)을 인식할 수 있다.
한편, 차량 위치 정보 획득 장치는 차량의 위치를 보정할 수 있다.
도 5는 지도상에서 차량의 위치를 보정하는 일 실시 예를 설명하는 도면이다.
도 5(a)를 참조하면, 지도 상에 차량의 위치(21)가 표시된 도면이 도시되어 있다. 차량 위치 정보 획득 장치는 지도 정보를 저장하고, GPS 모듈을 통해 위성으로부터 차량의 위치 정보를 수신할 수 있다. 그리고, 차량 위치 정보 획득 장치는 디스플레이를 포함하고, 수신된 차량의 위치 정보에 기초하여 저장된 지도 상에 차량의 위치(21)를 디스플레이를 통해 표시할 수 있다. 지도 상에 표시된 차량의 위치(21)는 통신 음영 지역 또는 차량 위치 정보의 오차 등으로 인해 실제 차량의 위치와 다를 수 있다.
상술한 바와 같이, 차량 위치 정보 획득 장치는 영상 카메라(또는, 열화상 카메라) 및 라이다 센서를 통해 차량 전방부에 위치하는 물체를 판단할 수 있다. 또한, 주요 물체와의 거리도 판단할 수 있다.
도 5(b)를 참조하면, 보정된 차량의 위치(22)가 표시된 도면이 도시되어 있다. 도 4에 따르면, 현재 차량(1)은 터널(13)을 기준으로 표지판(11) 뒤쪽에 위치하고 있다. 그러나, 도 5(a)에 따르면 지도 상에 표시된 차량의 위치(21)는 표지판(11) 근처에 위치하고 있다. 즉, 지도 상에 표시된 차량의 위치(21)와 현재 차량(1)의 위치 간에는 오차가 존재한다. 따라서, 차량 위치 정보 획득 장치는 매칭 쌍의 정보로 판단된 차량 주변의 물체에 기초하여 지도 상에 표시되는 차량의 위치(22)를 보정할 수 있다.
지금까지 차량 위치 정보 획득 장치의 다양한 실시 예를 설명하였다. 아래에서는 차량 위치 정보 획득 장치의 제어 방법을 설명한다.
도 6은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치 제어 방법의 흐름도이다.
도 6을 참조하면, 차량 위치 정보 획득 장치는 2D 이미지를 획득하고(S610), 2D 열화상 이미지를 획득한다(S620). 2D 이미지는 각 픽셀의 좌표 정보 및 RGB 값 정보를 포함할 수 있고, 2D 열화상 이미지는 각 픽셀의 좌표 정보 및 감지된 열에 대응되는 RGB 값 정보를 포함할 수 있다.
차량 위치 정보 획득 장치는 3D 데이터를 획득한다(S630). 3D 데이터는 3D 좌표 정보 및 강도 정보를 포함할 수 있다. 강도 정보는 반사된 빛의 강도 정보일 수 있다.
차량 위치 정보 획득 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키고(S640), 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시킨다(S650). 차량 위치 정보 획득 장치는 3D 데이터로부터 지면 영역과 비지면 영역을 분리할 수 있다. 그리고, 차량 위치 정보 획득 장치는 비지면 영역에 포함된 복수의 3D 포인트를 2D 이미지의 2D 포인트와 좌표계를 매칭시킬 수 있다. 한편, 차량 위치 정보 획득 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키는 과정과 유사하게 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다. 2D 이미지의 좌표계, 3D 데이터의 좌표계 및 2D 열화상 이미지의 좌표계가 매칭되었으므로 2D 이미지의 좌표계와 2D 열화상 이미지의 좌표계는 동일한 좌표계로 통합될 수 있다.
차량 위치 정보 획득 장치는 3D 데이터를 2D 이미지의 평면으로 투영시키고(S660), 2D 이미지의 평면으로 투영된 3D 데이터의 3D 포인트를 대응되는 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출한다(S670). 차량 위치 정보 획득 장치는 2D 포인트의 좌표 및 3D 포인트의 좌표 사이의 변환 행렬을 산출하고, 변환 행렬에 기초하여 3D 포인트의 좌표를 2D 이미지의 평면으로 투영시킬 수 있다. 그리고, 차량 위치 정보 획득 장치는 2D 이미지의 평면으로 투영된 3D 포인트의 좌표를 대응되는 2D 포인트의 좌표와 매칭시켜 매칭 쌍을 추출할 수 있다. 예를 들어, 매칭 쌍은 3D 포인트의 좌표, 3D 포인트의 반사율의 강도, 2D 포인트의 좌표, 2D 포인트의 RGB 값 및 2D 열화상 포인트이 RGB 값을 포함할 수 있다.
차량 위치 정보 획득 장치는 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식한다(S680). 차량 위치 정보 획득 장치는 3D 포인트의 좌표 및 2D 포인트의 좌표에 기초하여 차량 주변 물체의 위치를 판단하고, 3D 포인트의 반사율의 강도, 2D 포인트의 RGB 값 및 2D 열화상 포인트의 RGB 값에 기초하여 물체를 판별할 수 있다. 그리고, 차량 위치 정보 획득 장치는 인식된 차량의 주변에 위치하는 물체에 기초하여 지도 상에서 차량의 위치를 보정할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 차량 위치 정보 획득 장치가 차량의 위치 정보를 보정하는 과정을 설명하는 도면이다.
도 7을 참조하면, 차량 위치 정보 획득 장치는 영상 카메라를 이용하여 2D 이미지를 획득하고(S705), 열화상 카메라를 이용하여 2D 열화상 이미지를 획득하며(S710), 라이다 센서를 이용하여 3D 데이터를 획득할 수 있다(S715). 한편, 차량 위치 정보 획득 장치는 획득된 2D 이미지와 2D 열화상 이미지에 전처리 과정을 수행할 수도 있다. 또한, 차량 위치 정보 획득 장치는 획득된 3D 데이터에서 지면 영역을 제거하고 클러스터링할 수 있다(S720).
차량 위치 정보 획득 장치는 2D 이미지와 3D 데이터의 좌표계를 매칭시키고, 2D 열화상 이미지와 3D 데이터의 좌표계를 매칭시킬 수 있다(S725). 예를 들어, 2D 이미지와 3D 데이터의 좌표계 매칭 과정은 2D 이미지의 2D 포인트의 좌표 및 3D 데이터의 3D 포인트의 좌표 사이에 변환 행렬을 산출하고, 산출된 변환 행렬에 기초하여 수행될 수 있다. 차량 위치 정보 획득 장치는 매칭 과정에서 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식할 수 있다(S730).
한편, 차량 위치 정보 획득 장치는 지도 정보를 저장하고, 차량의 위치 정보를 수신할 수 있다(S735). 차량 위치 정보 획득 장치는 수신된 차량의 위치 정보에 기초하여 지도 상에 표시할 수 있다. 즉, 차량 위치 정보 획득 장치는 수신된 차량의 위치 정보에 기초하여 차량의 위치를 판단할 수 있다(S740). 그러나, 수신된 차량의 위치 정보는 실제 차량의 위치와 차이가 발생될 수 있다. 따라서, 차량 위치 정보 획득 장치는 판단된 차량의 위치, 저장된 지도 정보에 포함된 물체의 정보 및 인식된 차량의 주변에 위치하는 물체에 기초하여 판단된 차량의 위치를 실제 차량의 위치로 보정할 수 있다(S745).
상술한 다양한 실시 예에 따른 차량 위치 정보 획득 장치의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 차량 위치 정보 획득 장치
110: 영상 카메라 120: 열화상 카메라
130: 라이다 센서 140: 프로세서

Claims (6)

  1. 차량에 위치한 차량 위치 정보 획득 장치에 있어서,
    2D 이미지를 획득하는 영상 카메라;
    2D 열화상 이미지를 획득하는 열화상 카메라;
    3D 데이터를 획득하는 라이다 센서; 및
    상기 획득된 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키고, 상기 획득된 2D 열화상 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 3D 데이터를 상기 2D 이미지의 평면으로 투영하고, 상기 2D 이미지의 평면으로 투영된 상기 3D 데이터의 3D 포인트를 대응되는 상기 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출하되, 상기 획득된 3D 데이터의 3D 좌표 및 반사율의 강도에 기초하여 지면 영역의 3D 포인트 그룹과 비지면 영역의 3D 포인트 그룹을 판단하고, 상기 비지면 영역의 3D 포인트 그룹의 좌표계를 상기 2D 이미지의 좌표계와 매칭시키고, 상기 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식하며,
    상기 2D 이미지의 좌표계와 상기 2D 열화상 이미지의 좌표계는 각각 상기 3D 데이터의 좌표계와 매칭되어 동일한 좌표계로 통합되고,
    상기 2D 포인트는 초점 거리 및 상기 2D 이미지의 평면의 중심점의 정보를 포함하는 내부 파라미터 및 상기 영상 카메라와 상기 라이다 센서 간의 회전 및 병진 행렬의 정보를 포함하는 외부 파라미터를 포함하는 변환 행렬에 기초하여 상기 3D 포인트와 매칭되는, 차량 위치 정보 획득 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 매칭 쌍은,
    상기 3D 포인트의 좌표, 상기 3D 포인트의 반사율의 강도, 상기 2D 포인트의 좌표, 상기 2D 포인트의 RGB 값 및 상기 2D 열화상 이미지에 포함된 2D 열화상 포인트의 RGB 값을 포함하는, 차량 위치 정보 획득 장치.
  4. 제3항에 있어서,
    상기 프로세서는,
    상기 3D 포인트의 좌표 및 상기 2D 포인트의 좌표에 기초하여 상기 차량 주변 물체의 위치를 판단하고, 상기 3D 포인트의 반사율의 강도, 상기 2D 포인트의 RGB 값 및 상기 2D 열화상 포인트의 RGB 값에 기초하여 상기 물체를 인식하는, 차량 위치 정보 획득 장치.
  5. 제1항에 있어서,
    상기 차량의 위치 정보를 수신하는 통신부; 및
    지도 정보를 저장하는 메모리;를 더 포함하고,
    상기 프로세서는,
    상기 저장된 지도 정보 및 상기 수신된 차량의 위치 정보에 기초하여 상기 차량의 위치를 판단하고, 상기 판단된 차량의 위치, 상기 저장된 지도 정보에 포함된 물체의 정보 및 상기 인식된 차량 주변의 물체에 기초하여 상기 판단된 차량의 위치를 보정하는, 차량 위치 정보 획득 장치.
  6. 차량에 위치한 차량 위치 정보 획득 장치의 제어 방법에 있어서,
    2D 이미지를 획득하는 단계;
    2D 열화상 이미지를 획득하는 단계;
    3D 데이터를 획득하는 단계;
    상기 획득된 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계;
    상기 획득된 2D 열화상 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계;
    상기 3D 데이터를 상기 2D 이미지의 평면으로 투영하는 단계;
    상기 2D 이미지의 평면으로 투영된 상기 3D 데이터의 3D 포인트를 대응되는 상기 2D 이미지의 2D 포인트와 매칭시켜 매칭 쌍을 추출하는 단계; 및
    상기 추출된 매칭 쌍에 기초하여 차량 주변의 물체를 인식하는 단계;를 포함하고,
    상기 획득된 2D 이미지와 상기 3D 데이터의 좌표계를 매칭시키는 단계는,
    상기 획득된 3D 데이터의 3D 좌표 및 반사율의 강도에 기초하여 지면 영역의 3D 포인트 그룹과 비지면 영역의 3D 포인트 그룹을 판단하고, 상기 비지면 영역의 3D 포인트 그룹의 좌표계를 상기 2D 이미지의 좌표계와 매칭시키고, 상기 2D 포인트는 초점 거리 및 상기 2D 이미지의 평면의 중심점의 정보를 포함하는 내부 파라미터 및 영상 카메라와 라이다 센서 간의 회전 및 병진 행렬의 정보를 포함하는 외부 파라미터를 포함하는 변환 행렬에 기초하여 상기 3D 포인트와 매칭되며, 상기 2D 이미지의 좌표계와 상기 2D 열화상 이미지의 좌표계는 각각 상기 3D 데이터의 좌표계와 매칭되어 동일한 좌표계로 통합되는, 차량 위치 정보 획득 장치의 제어 방법.
KR1020200012254A 2020-01-31 2020-01-31 차량 위치 정보 획득 장치 및 제어 방법 KR102371749B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200012254A KR102371749B1 (ko) 2020-01-31 2020-01-31 차량 위치 정보 획득 장치 및 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200012254A KR102371749B1 (ko) 2020-01-31 2020-01-31 차량 위치 정보 획득 장치 및 제어 방법

Publications (2)

Publication Number Publication Date
KR20210098594A KR20210098594A (ko) 2021-08-11
KR102371749B1 true KR102371749B1 (ko) 2022-03-10

Family

ID=77314201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200012254A KR102371749B1 (ko) 2020-01-31 2020-01-31 차량 위치 정보 획득 장치 및 제어 방법

Country Status (1)

Country Link
KR (1) KR102371749B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102656811B1 (ko) * 2021-12-14 2024-04-12 주식회사 유니트론텍 복수의 센서 데이터에 기반한 자율주행 제어 시스템 및 방법
CN116022130B (zh) * 2023-03-29 2023-06-13 禾多科技(北京)有限公司 车辆泊车方法、装置、电子设备和计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189184A (ja) 2015-03-11 2016-11-04 ザ・ボーイング・カンパニーThe Boeing Company リアルタイム多次元画像融合
KR102012179B1 (ko) 2018-04-30 2019-08-20 충북대학교 산학협력단 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150091779A (ko) * 2014-02-04 2015-08-12 한국전자통신연구원 다중 센서를 이용한 영상 처리 시스템
KR20180055292A (ko) * 2016-11-16 2018-05-25 국민대학교산학협력단 다중 라이다 좌표계 통합 방법
KR20190088119A (ko) * 2018-01-04 2019-07-26 삼성전자주식회사 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법
KR102109941B1 (ko) * 2018-01-23 2020-05-12 충북대학교 산학협력단 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189184A (ja) 2015-03-11 2016-11-04 ザ・ボーイング・カンパニーThe Boeing Company リアルタイム多次元画像融合
KR102012179B1 (ko) 2018-04-30 2019-08-20 충북대학교 산학협력단 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법

Also Published As

Publication number Publication date
KR20210098594A (ko) 2021-08-11

Similar Documents

Publication Publication Date Title
US11270134B2 (en) Method for estimating distance to an object via a vehicular vision system
US10733757B2 (en) Trailer assist system with estimation of 3D location of hitch
US10706291B2 (en) Trailer angle detection system for vehicle
US10234873B2 (en) Flight device, flight control system and method
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
US11657537B2 (en) System and method for calibrating vehicular vision system
JP5157067B2 (ja) 自動走行用マップ作成装置、及び自動走行装置。
US8194920B2 (en) Method and system for detecting objects using far infrared images
US20100157280A1 (en) Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
US20040247157A1 (en) Method for preparing image information
KR102371749B1 (ko) 차량 위치 정보 획득 장치 및 제어 방법
US11410334B2 (en) Vehicular vision system with camera calibration using calibration target
JP2007050757A (ja) 車両用表示制御装置
JP2011006005A (ja) 駐車時における運転支援装置及び方法
EP4224426A1 (en) Object-based camera calibration
CN114544006B (zh) 一种基于环境光照条件的低空遥感影像校正系统及方法
JP2008026998A (ja) 障害物位置算出システム、及び障害物位置算出方法
JP2008174028A (ja) 対象物検出システム、及び対象物検出方法
KR101600820B1 (ko) 카메라의 픽셀 당 수직각을 이용한 해상객체의 거리 측정방법 및 해상객체의 거리 측정시스템.
JP4752319B2 (ja) 画像認識装置及び画像認識方法
KR102399519B1 (ko) 차선과 차량 위치 인식 장치 및 제어 방법
JP2005242914A (ja) 人間認識システム及び画像処理装置
WO2021124657A1 (ja) カメラシステム
KR20210098276A (ko) 노면 상태 식별 장치 및 제어 방법
Martino et al. Multispectral characterization of tower visibility in VIS, NIR, SWIR, MWIR, and LWIR bands from a ground-vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant