KR20180011989A - 차량 및 차량의 제어방법 - Google Patents

차량 및 차량의 제어방법 Download PDF

Info

Publication number
KR20180011989A
KR20180011989A KR1020160094638A KR20160094638A KR20180011989A KR 20180011989 A KR20180011989 A KR 20180011989A KR 1020160094638 A KR1020160094638 A KR 1020160094638A KR 20160094638 A KR20160094638 A KR 20160094638A KR 20180011989 A KR20180011989 A KR 20180011989A
Authority
KR
South Korea
Prior art keywords
point data
vehicle
position information
matching
information
Prior art date
Application number
KR1020160094638A
Other languages
English (en)
Other versions
KR102637515B1 (ko
Inventor
유병용
신기철
허명선
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160094638A priority Critical patent/KR102637515B1/ko
Publication of KR20180011989A publication Critical patent/KR20180011989A/ko
Application granted granted Critical
Publication of KR102637515B1 publication Critical patent/KR102637515B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • G01S17/023
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G01S17/936
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • B60W2550/406
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

양상 가능한 라이더를 사용하면서 주변 차량으로부터 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능한 차량 및 차량의 제어방법을 제공한다.
개시된 발명의 일 측면에 따른 차량은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함한다.

Description

차량 및 차량의 제어방법{VEHICLE AND CONTROLLING METHOD FOR THE SAME}
개시된 발명은 주변 환경을 인식하는 차량 및 차량의 제어방법에 관한 것이다.
차량은 운전자 및 탑승자에게 안전 서비스를 제공한다. 일 예로 차량은 운전자의 시각 정보를 보충하고 전방 차량과의 거리를 계산한다. 안전 서비스는 주변 차량 및 대상체를 감지하고 차량 스스로 위치를 인식하는 단계에서 시작하는데, 차량은 주변 환경을 검출하기 위해서 다양한 차량 센서(Sensor)를 이용한다.
차량에는 차량용 레이더(Radar) 센서 또는 라이더(Lidar) 센서가 설치될 수 있다. 차량용 레이더 센서와 라이더 센서는 각각 차량의 주행 시 차량 주변의 환경 정보를 제공한다.
그 중 라이더 센서는 차량의 자율 주행에 있어서 핵심적인 역할을 수행한다. 구체적으로 라이더 센서는 차량 주변 환경에 대한 정보를 점 데이터로 제공한다.
한편, 자율 주행에 관한 연구에 사용되는 라이더 센서는 360도로 회전하거나, 3D 영상을 출력하는 등 고가의 센서가 사용된다. 그러나 이러한 고가의 라이더 센서는 내구성, 양산성 및 디자인에 적합하지 않고 OEM(Original Equipment Manufacturing)방식에서는 비용이 크게 증가하는 문제가 있었다.
이러한 문제점을 해결하기 위해서 개시된 발명은 양상 가능한 라이더를 사용하면서 주변 차량으로부터 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능한 차량 및 차량의 제어방법을 제공한다.
개시된 발명의 일 측면에 따른 차량은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함한다.
상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화할 수 있다.
상기 제어부는, 상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행할 수 있다.
상기 제어부는, 상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터가 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행할 수 있다.
상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행할 수 있다.
상기 제어부는, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정할 수 있다.
상기 제어부는, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보에 매칭할 수 있다.
상기 제어부는, 상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성할 수 있다.
상기 제어부는, 상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토할 수 있다.
상기 통신부는, 상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신할 수 있다.
개시된 발명의 다른 측면에 따른 차량의 제어방법은 차량 주변의 객체에 대한 제 1 점 데이터를 수집하고; 상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하고; 상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 것;을 포함한다.
상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.
상기 생성하는 것은, 상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.
상기 생성하는 것은, 상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터가 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 더 포함할 수 있다.
상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함할 수 있다.
상기 생성하는 것은, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정한 상기 환경 정보를 생성하는 포함할 수 있다.
상기 생성하는 것은, 상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보를 매칭시켜 환경 정보를 생성하는 것;을 포함할 수 있다.
상기 생성하는 것은, 상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 것;을 더 포함할 수 있다.
상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 것;을 더 포함할 수 있다.
상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 것;을 더 포함할 수 있다.
개시된 실시예에 따른 차량 및 차량의 제어방법은 양상 가능한 라이더를 사용하면서 주변 차량으로부터 라이더 센서의 데이터를 제공받고 이를 조합하여 차량 주변 환경 정보를 제공함으로써, 다른 차량 및 건물 등에 가려져 인식할 수 없었던 주변 환경을 정확하게 인식하고 효율적인 자율 주행이 가능하게 한다.
도 1은 일 실시예에 따른 차량의 외관도이다.
도 2는 차량이 포함하는 라이더 센서가 출력하는 센싱 값을 도식화한 예시도이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 차량 및 주변 차량의 라이더 센서가 수집하는 점 데이터를 설명하기 위한 도면이다.
도 5는 일 예에 따라 제어부가 포지션 정보 및 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다.
도 6는 일 예에 따라 점 데이터 동기화 동작을 설명하기 위한 도면이다.
도 7 내지 도 10은 일 예에 따라 제어부가 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다.
도 11은 포지션 정보와 라이더 센서의 점 데이터를 정합하는 동작을 설명하기 위한 도면이다.
도 12는 일 예에 따라 차량의 동작을 설명하기 위한 순서도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.
도 1은 일 실시예에 따른 차량의 외관도이고, 도 2는 차량이 포함하는 라이더 센서가 출력하는 센싱 값을 도식화한 예시도이다.
도 1을 참조하면, 일 실시예에 따른 차량(100)은 차량(100)의 전면, 측면, 또는 후면에 객체 내지 다른 차량을 감지하는 근접 센서, 강수 여부 또는 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.
근접 센서는 라이더 센서(Lidar, 120)를 포함하고, 필요에 따라 각각은 차량(100)에 복수 개 마련될 수 있다. 도 1에서는 차량(100) 전면에 세 개의 라이더 센서(120)가 설치되는 것으로 도시되었으나, 라이더 센서(120)가 마련되는 위치와 개수는 이에 한정되지 아니한다.
한편, 레이더(Radar) 센서는 물체에 전자파(예를 들면 전파, 마이크로파 등)를 조사하고, 물체로부터 반사되는 전자파를 수신하여 물체의 거리, 방향, 고도, 속도 등을 알 수 있는 감지 센서를 의미한다.
이와 비교하여 라이더 센서(120)는 물체에 레이더 센서가 조사하는 전자파보다 짧은 파장을 갖는 레이저 빔(예를 들어, 적외선, 가시광선 등)을 조사하고, 물체로부터 반사된 광을 수신하여 물체의 거리, 방향, 고도, 속도 등을 알 수 있는 감지 센서를 의미한다. 즉, 라이더 센서(120)는 레이더 센서에 비해 높은 에너지 밀도와 짧은 주기를 가지는 펄스 신호를 생성할 수 있고, 레이더 센서에 비해 방위 분해능 및 거리 분해능이 높다.
라이더 센서(120)와 관련된 시스템은 레이저를 송신하는 송신부, 반사되어 되돌아오는 레이저를 검출하는 검출부, 검출부가 전달하는 신호를 수집하여 처리하는 프로세서 등을 포함할 수 있으며, 개시된 발명에서 설명하는 라이더 센서(120)는 이러한 시스템 구성을 총칭할 수 있다.
라이더 센서(120)는 레이저 신호의 변조 방법에 따라 Time-Of-Flight(TOF) 방식과 Phase-shift 방식으로 구분될 수 있다.
TOF 방식은 레이저가 펄스 신호를 방출하여 측정 범위 내에 있는 물체들로부터 반사 펄스 신호들이 수신기에 도착하는 시간을 측정함으로써 주변 물체와의 거리를 측정한다.
Phase-shift 방식은 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고 측정 범위 내에 있는 물체로부터 반사되어 되돌아 오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다.
개시된 라이더 센서의 레이저 광원은 250nm부터 11 μm까지의 파장 영역에서 특정 파장을 가지거나 파장 가변이 가능한 레이저 광원들이 사용되며, 소형, 저전력이 가능한 반도체 레이저 다이오드를 광원으로 사용할 수 있다.
도 2를 참조하면, 일 실시예에 따른 라이더 센서(120)는 차량(100) 전면의 객체(Ob)의 위치 정보를 점 데이터(Di)로 출력할 수 있다.
구체적으로 라이더 센서(120)는 광을 이용하는 특성에 의해 객체(이하 오브젝트, Object)의 전면에서 반사된 광 각각에 대응하는 점 데이터(Di)를 출력할 수 있다.
라이더 센서(120)가 수집하는 점 데이터의 개수는 도2 에서와 같이, 레이저 광원이 조사하는 정도에 따라 다양할 수 있다. 따라서 도 4이하에서 표시된 점 데이터는 수집한 점 데이터(Di)의 군집을 표현한 것이고, 개시된 발명을 설명하기 위해서 간략하게 도시한 것이다.
한편, 라이더 센서(120)는 물체로부터 반사되는 레이저 빔의 수신 시간을 측정하여 거리를 측정하는 Laser Rangefinder 기술을 기반으로 할 수 있다.
더 나아가 라이더 센서(120)는 Laser rangefinder 기술을 기반으로 Point-Scanning을 통해 Point-cloud, 즉 점 데이터를 대량으로 수집하거나 광각의 Flash-Laser에 대하여 반사되는 레이저를 다중 배열 수신소자를 통해 수집함으로써, 3차원 영상을 구현할 수도 있다.
그러나 3차원 영상을 구현하는 라이더 센서(120)는 고가이며, 내구성, 양산성, 디자인적 측면에서 OEM 방식의 차량 제조에는 현실적으로 적합하지 않은 문제가 있다.
따라서 개시된 발명의 일 실시예에 따른 차량(100)은 도 2와 같이 점 데이터를 수집할 수 있는 채널(channel)을 수 개로 제한한 라이더 센서(120)를 포함할 수 있으며, 주변 환경을 정확하게 인식하기 위해 필요한 점 데이터는 주변 차량의 라이더 센서가 수집하는 외부의 점 데이터를 공유함으로써 해결한다.
한편, 개시된 발명은 라이더 센서(120)의 채널을 반드시 한정할 필요가 없으며. 개시된 차량(100)이 주변 차량에 설치된 라이더 센서가 수집하는 데이터를 종합하여 주변 환경을 인식할 수 있으면 충분하고, 제한은 없다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 3을 참조하면, 개시된 발명의 일 실시예에 따른 차량(100)은 통신부(110), 라이더 센서(120), 및 제어부(130)를 포함한다.
통신부(110)는 차량(100)의 외부, 예를 들어 보행자(40), 주변 차량(50) 및 통신망(60)으로부터 다양한 정보를 수신한다. 또한, 통신부(110)는 차량(100)의 라이더 센서(120)가 수집한 점 데이터를 차량(100)의 주변으로 송신할 수도 있다.
다양한 정보를 송,수신하기 위한 통신부(110)의 기술을 V2X 통신이라 한다.
여기서 V2X 통신이란, 차량(100) 스스로 주체가 되어 다른 휴대 단말기, 통신망 또는 차량끼리 정보를 공유하는 시스템을 말하며, 차량과 모든 인터페이스(Interface)간의 통신 기술을 의미한다.
구체적으로 V2X의 형태는 차량과 이동매체 기기간 통신(Vehicle-to-Nomadic devices, V2N), 차량과 차량간 통신(Vehicle-to-Vehicle, V2V) 및 차량과 인프라간 통신(Vehicle-to-Infrastructure, V2I)을 포함할 수 있다. 도 3에서 도시된 보행자(40)와 통신부(110)간의 통신은 V2N을 의미하고, 주변 차량(50)과 통신부(110)간의 통신은 V2V를 통신망(60)과 통신부(110)간의 통신은 V2I를 의미한다.
개시된 통신부(110)가 사용하는 V2X통신은 VANET (Vehicular Adhoc Networks)을 네트워크 기술을 사용할 수 있다.
여기서 VANET은 MANET(Mobile Ad-hoc Networks)의 한 형태로 고속으로 이동하는 네트워크의 각 노드에서 사용되는 무선 통신을 의미한다.
만약 일반적인 MANET 기술을 차량(100)의 통신 기술로 이용한다면, 네트워크의 노드(각 차량)는 이동하기 때문에 네트워크의 단절이 빈번히 발생할 수 있다. 또한, 차량(100)이 고속으로 이동할 수 있으므로, 네트워크 링크 연결 시간이 짧아지고, 패킷 손실률이 높아지므로 네트워크 연결 상태가 전체적으로 불안정할 수 있다.
따라서 VANET은 기존의 MANET(예: WiFi)보다 짧은 채널 대역폭을 사용한다. 일 예로 WiFi의 표준 채널 대역폭은 20MHz이다. 이와 비교하여 VANET 네트워크는 10 MHz를 채널 대역폭으로 사용할 수 있다. 이렇게 VANET은 채널 대역폭을 줄이고 V2X 통신을 수행함으로써, 주파수의 선택적 페이딩 영향을 줄일 수 있다.
또한, VANET은 V2X의 다른 AP(Access Point)와의 통신을 설정하기 전에 주요 인증 과정을 생략하여 통신을 수행함으로써, 빠른 통신을 수행할 수도 있다.
한편, 앞서 언급한 네트워크 기술은 개시된 통신부(110)가 사용하는 무선 통신 기술의 일 예에 불과하며, 개시된 통신부(110)는 차량(100)의 주변과 통신할 수 있는 통신 기술을 수행할 수 있는 장치이면 충분하고 제한은 없다.
다시 도 3을 참조하면, 통신부(110)는 보행자(40), 주변 차량(50) 및 통신망(60)으로부터 다양한 정보를 수신한다.
구체적으로 통신부(110)가 수신하는 정보는 주변 차량의 라이더 센서에서 수신하는 점 데이터 정보 뿐만 아니라 GPS(Global Positioning System), 차량(100)의 현재 위치 및 현재 위치의 주변 지도 정보를 포함하는 포지션 정보를 함께 수신할 수 있다. 통신부(110)가 수신하는 다양한 정보는 제어부(130)로 전달되고, 제어부(130)는 이러한 정보를 기초로 차량(100)의 주위 환경 정보를 생성한다.
한편, 통신부(110)가 제어부(130)로 전달하는 정보는 CAN(Controller Area Network), LIN(Local Interconnect Network), MOST(Media Oriented System Transport)등과 같은 차량 내 유선망을 통해서 전달되거나, 블루투스(Bluetooth) 등과 같은 무선망을 통해 구축될 수 있으며, 제한은 없다.
라이더 센서(120)는 전술한 바와 같이, 레이저를 이용하여 객체의 위치, 즉 라이더 점 데이터(Di) 및 속도 등을 센싱 값으로 출력한다.
여기서 속도는 차량(100) 전방을 기준으로 종방향 속도, 횡방향 속도를 포함한다. 또한, 라이더 센서(120)는 차량(100)이 theta(Z)축을 기준으로 회전하는 회전 속도를 센싱 값으로 출력할 수 있다.
구체적으로 차량(100)의 거동은 차량 전면, 즉 X축 방향의 전 후 직선운동(종방향 운동), Y축 방향의 좌 우 직선운동(횡방향 운동), Z축 방향의 상 하 직선운동 및 각 축을 중심으로 하는 회전운동 이렇게 6축 자유도로 표현 할 수 있다.
여기서 X축 회전운동을 Roll, Y축 회전운동을 Pitch, Z축 회전운동은 Yaw라고 하며, Yaw의 초당 각도 즉, 회전 속도를 Yaw rate이라고 한다. Yaw rate는 주행 중인 차량(100)에서 운전자가 스티어링 휠을 조작하여 발생할 수 있는데, 라이더 센서(120)는 레이저 빔의 반사 시간에 기초하여 Yaw rate를 출력할 수 있다.
라이더 센서(120)는 출력된 Yaw rate를 포함하는 속도 정보 및 반사되어 수집되는 점 데이터를 제어부(130)로 전달한다.
제어부(130)는 통신부(110)와 라이더 센서(120)가 전달하는 포지션 정보 및 점 데이터 등에 기초하여 차량(100)의 주변 환경 정보를 생성한다.
여기서 제어부(130)는 차량(100) 주변의 환경 정보를 생성하기 위해서 라이더 센서(120)가 수집하는 점 데이터(제 1 점 데이터) 및 통신부(110)가 전달하는 점 데이터(제 2 점 데이터)를 필요로 한다. 즉, 제 2 점 데이터는 통신부(110)가 차량(100)의 주변 차량 등으로부터 수신한 라이더 센서의 점 데이터를 의미한다.
먼저, 제어부(130)는 통신부(110)에서 전달된 각 차량의 포지션 정보에 기초하여 라이더 센서가 수집한 점 데이터를 동기화시킨다. 여기서 점 데이터는 차량(100)에 설치된 라이더 센서(120)가 수집한 점 데이터일 수 있고, 차량(100) 주변의 차량이 통신부(110)를 통해 전달하는 점 데이터일 수 있다. 따라서 제어부(130)는 점 데이터를 구분, 즉 동기화한다.
이후 제어부(130)는 점 데이터 중 차로 밖에 위치하는 점 데이터를 제외하고, 신뢰도가 높은 점 데이터에 기초하여 주변 차량의 위치를 수정(이하 코너 매칭)한다. 이후, 제어부(130)는 직선 성분이 강한 점 데이터를 주변 차량의 위치에 맞추어 수정(이하, 직선 매칭)하고, 각 동기화된 점 데이터들을 수신하는 라이더 센서의 틀어진 각도(이하, 회전 속도)를 저장하며, 회전 속도 등에 기초하여 앞서 제외한 차량 밖 점 데이터를 수정한다.
마지막으로 제어부(130)는 매칭된 데이터에 기초하여 차량(100) 주변의 정보를 정합한다. 이와 관련된 상세한 설명은 도 4 이하를 참조하여 후술한다.
한편, 제어부(130)는 주변 환경 정보를 생성하는 것 이외에 통신부(110) 및 라이더 센서(120)를 제어할 수 있는 프로세서(processor)이다. 또한 제어부(130)는 데이터를 저장할 수 저장매체와 함께 집적될 수 있으며, 차량(100)에 내장된 시스템 온 칩(System On Chip, SOC)에 집적될 수 있다. 다만, 차량(100)에 내장된 시스템 온 칩이 하나만 존재하는 것은 아니고, 복수 개일 수도 있으므로, 하나의 시스템 온 칩에만 집적되는 것으로 제한되진 않는다.
개시된 일 예에 따른 차량(100)은 설명하지 않은 다른 모듈이나 구성을 포함할 수 있으며, 제한은 없다.
도 4는 차량 및 주변 차량의 라이더 센서가 수집하는 점 데이터를 설명하기 위한 도면이다. 구체적으로 도 4의 a (이하 도4a)는 각 차량(100)의 라이더 센서(120)가 발산하는 레이저를 설명하기 위한 도면이고, 도 4의 b (이하 도 4b)는 제어부(130)가 라이더 센서(120)가 센싱한 점 데이터를 전달받은 출력을 설명하기 위한 도면이다.
도 4a를 참조하면, 차량(100)은 차량(100)의 전면에 세 대의 차량과 후면에 차량 한 대(이하 주변 차량)와 도로를 함께 주행하고 있다.
개시된 발명의 일 실시예에 따른 차량(100) 및 주변의 차량은 양산 가능한 라이더 센서(120)를 포함할 수 있다. 앞서 언급한 바와 같이. 라이더 센서(120)는 주변으로 짧은 파장의 레이저를 발산하여 오브젝트를 감지한다. 다만 양산 가능한 라이더 센서(120)는 점 데이터를 도 4a와 같이 수 개의 채널 범위 내에서 점 데이터를 수집할 수 있는 센서를 의미한다.
도 4a 에서 도시된 차량(100) 및 주변의 차량의 라이더 센서(120)는 전면에 설치될 수 있고, 이 경우 각 차량(100)의 라이더 센서(120)가 수집하는 주변 객체에 관한 점 데이터는 제한될 수 밖에 없다.
예를 들어, 개시된 차량(100)에 설치된 라이더 센서(120)는 차량(100) 전면에서 주행 중인 세 대의 차량에 대한 점 데이터만을 수집할 수 있다. 이렇게 수집된 점 데이터만을 이용한다면, 차량(100) 주변의 환경 정보는 실제 환경과 다를 수 있다. 따라서 개시된 차량(100)은 주변 차량에 설치된 라이더 센서가 수집하는 점 데이터를 공유한다.
도 4a에서 도시된 각 점 데이터와 도형은 차량(100) 및 주변 차량의 라이더 센서를 구분하여 표시한 것이다.
한편, 차량(100)에 설치된 라이더 센서(120)는 주행 차로의 전방에 위치한 차량 3대를 오브젝트로 점 데이터를 수집할 수 있다. 다만, 각 차량은 주행 중이므로, 진동 또는 스티어링 휠의 조향에 따라 수집된 점 데이터는 왜곡될 수 있다.
만약 차량(100)이 차량(100)과 같은 차선에서 주행하는 전면 차량에 대해서 수집한 점 데이터에서 왜곡이 없다면, 전면 차량의 후면과 나란히 이어진 점 데이터가 표시되어야 한다. 그러나 주행 중에 수집되어 점 데이터는 도 4b에서 도시된 바와 같이 왜곡될 수 있다.
따라서 제어부(130)는 이렇게 왜곡될 수 있는 점 데이터를 수정하여 정확한 환경 정보를 생성한다. 이와 관련된 자세한 설명은 도 6 내지 도 11을 통해 후술한다.
한편, 차량(100) 주변의 차량에 설치된 라이더 센서는 차로 외곽에 있는 건물 또는 구조물에 대한 점 데이터를 수집할 수 있다. 이렇게 수집된 점 데이터는 차량(100)의 통신부(110)를 통해 공유되며, 도 4b에서 도시된 바와 같이 차로의 외곽에 표시된 점 데이터의 형태로 전달될 수 있다.
도 5는 일 예에 따라 제어부가 포지션 정보 및 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다.
구체적으로 도 5a는 도 4b에서 도시된 점 데이터를 차량(100)의 포지션 정보와 동기화 시킨 데이터를 의미한다.
앞서 언급한 바와 같이, 차량(100)은 GPS 등을 이용하여 현재 차량(100)이 위치하는 포지션 정보 및 주변 차량의 위치 정보를 획득할 수 있다. 이후 제어부(130)는 도 4b에서 수집된 각각의 점 데이터를 포지션 정보와 조합하여 도 5a와 같은 데이터를 생성할 수 있다.
한편, 제어부(130)는 왜곡될 수 있는 점 데이터 또는 포지션 정보를 도 5b와 같이 수정한다. 즉, 5b는 5a의 데이터를 매칭시킨 결과를 도시한 것이다.
구체적으로 제어부(130)는 다른 주변 차량으로부터 점 데이터를 전달받고, 정확한 주변 정보를 생성하기 위해서 각 데이터를 매칭시킨다. 앞서 언급한 바와 같이 각각의 차량에서 수집한 데이터는 왜곡이 발생할 수 있고, 제어부(130)는 각 데이터마다 신뢰도를 설정하여 왜곡된 정보를 매칭시킴으로써, 실제와 유사한 주변 정보를 생성할 수 있다. 제어부(130)가 수행하는 매칭에 관한 상세한 설명은 도 6 이하를 참조하여 후술한다.
도 6는 일 예에 따라 점 데이터 동기화 동작을 설명하기 위한 도면이다.
도 6를 참조하면, 먼저 제어부(130)는 각각의 점 데이터가 어느 차량에서 수집된 것인지를 구분한다.
앞서 언급한 바와 같이, 제어부(130)는 통신부(110)를 통해 주변 차량에 설치된 라이더 센서로부터 점 데이터를 전달받는다. 또한, 제어부(130)는 차량(100)내에 설치된 라이더 센서(120)로부터 주변 오브젝트에 대한 점 데이터를 수집할 수 있다. 따라서 제어부(130)는 수집된 점 데이터가 어느 차량으로부터 수신된 것인지 판단하기 위한 동기화를 실시한다.
이후 제어부(130)는 점 데이터를 현재 차량(100)의 포지션 정보를 기초로 매칭시킬 수 있다.
통신부(110)가 점 데이터를 수신하는 경우, 점 데이터가 수집된 각 차량의 위치 정보도 함께 전달받을 수 있다. 따라서 제어부(130)는 각 차량의 위치 정보를 GPS 등으로부터 수신한 차량(100)의 위치와 함께 포지션 정보를 생성하고, 점 데이터를 각각을 차량과 맞추어 도 6과 같이 동기화시킬 수 있다.
한편, 도 6의 도형은 동기화를 설명하기 위한 일 예에 불과하며, 제한은 없다.
도 7 내지 도 10은 일 예에 따라 제어부가 점 데이터를 매칭시키는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.
도 7를 참조하면, 제어부(130)는 동기화된 데이터에서 차로 밖 점 데이터를 제외한다. 자율 주행에 있어서, 차로 밖 주변 데이터는 상대적으로 중요도가 낮을 수 있다. 따라서 제어부(130)는 도 7과 같이 차로 밖 오브젝트에 대한 점 데이터를 일시적으로 제외하고 이하의 매칭을 실행한다.
도 8은 제어부(130)가 수행하는 코너 매칭에 관한 도면이다.
차로 밖 점 데이터를 제외한 후, 제어부(130)는 도 8과 같이 제어부(130)는 차량(100) 주변의 차량의 위치를 이동시키는 코너 매칭을 수행할 수 있다.
구체적으로 차량(100)이 주행하는 차선의 옆 차선에 위치하는 주변 차량에 대한 점 데이터는 일정한 각도를 포함하여 군집 형태로 수집될 수 있다. 일정한 각도를 포함하는 코너 형태의 점 데이터는 실제 오브젝트의 위치와 일치할 확률이 높다. 따라서 제어부(130)는 코너를 이루어 형성되는 점 데이터의 군집에 맞추어 주변 차량의 위치를 수정한다.
도 8을 참조하면, 차량(100)의 주변 차량의 위치가 코너 형태의 점 데이터에 맞추어 수정된다.
도 9는 제어부(130)가 수행하는 직선 매칭에 관한 도면이다.
도 9를 참조하면, 제어부(130)는 차량(100) 주변의 차량의 위치에 맞추어 직선 형태의 점 데이터를 수정하는 직선 매칭을 수행할 수 있다.
구체적으로 수집된 점 데이터 중 직선 형태의 군집은 주변 차량의 위치에 비해서 신뢰도가 낮을 수 있다. 왜냐하면 직선 형태의 점 데이터는 수집하는 라이더 센서(120)의 진동 등에 의해서 왜곡될 확률이 크기 때문이다.
따라서 제어부(130)는 직선 형태의 점 데이터를 차량의 위치에 맞추어 도 9와 같이 수정할 수 있다. 도 9를 참조하면, 차량(100)의 주행 차로에서 차량(100)의 전면에 위치하는 주변 차량의 포지션 정보에 맞추어 점 데이터가 수정된다.
도 10은 차로 밖 점 데이터의 매칭을 수행하는 제어부(130)의 동작을 설명하기 위한 도면이다.
도 8 내지 도 9에서 설명한 코너 매칭 및 직선 매칭을 수행한 후, 제어부(130)는 도 7에서 제외한 차로 밖에 위치한 점 데이터를 수정한다. 이러한 매칭은 각 차량의 Yaw rate를 기준으로 실행될 수 있다.
도 10에서 각 차량에 표시된 3차원 정보는 도 3에서 설명한 Roll, Pitch 및 Yaw를 임의로 도시한 것이다. 여기서 th는 theta, 즉 Yaw rate를 의미할 수 있으며, 각 차량의 회전 속도를 판단하는 기준이 될 수 있다.
도 10을 참조하면, 제어부(130)는 차로 외곽의 점 데이터 중 기울어진 점 데이터 군집을 각 차량의 3차원 정보에 기초하여 수정할 수 있다. 즉, 각 차량의 회전 속도가 0이 아닌 경우 그 차량에서 수집한 점 데이터가 왜곡될 수 있으므로 제어부(130) 회전 속도를 기초로 기울어진 차로 외곽의 점 데이터를 수정할 수 있다.
도 11은 포지션 정보와 라이더 센서의 점 데이터를 정합하는 동작을 설명하기 위한 도면이다.
제어부(130)는 도 10에서 수정된 점 데이터 및 포지션 정보에 기초하여 주변 환경 정보를 정합할 수 있다. 여기서 정합이란 제어부(130)가 수정된 점 데이터에 기초하여 주변의 건물 및 주변 차량 등을 다시 위치시키는 것을 의미한다.
일 예로 정합 과정에서 수정된 주변의 차량 또는 건물의 위치와 중복되는 점 데이터는 도 10과 같이 삭제될 수 있다.
이 후 제어부(130)는 정합된 정보를 주위 환경 정보로 활용할 수 있다.
한편, 앞서 설명한 제어부(130)의 동작은 개시된 발명의 일 예에 불과하며, 제어부(130)가 수행하는 매칭 동작은 다양할 수 있으며, 제한은 없다.
도 12는 일 예에 따라 차량의 동작을 설명하기 위한 순서도이다.
먼저, 차량(100)에 설치된 라이더 센서(120)는 점 데이터를 수집할 수 있다(300).
개시된 발명은 양산 가능한 라이더 센서(120)를 차량(100)에 설치할 수 있으며, 일 예에 따른 라이더 센서(120)는 수 개 범위 내의 채널만을 가지고, 점 데이터를 수집할 수 있다.
따라서 라이더 센서(120)가 수집한 점 데이터만으로는 차량(100) 주변의 환경 정보를 정확하게 수집할 수 없고, 차량(100)은 통신부(110)가 수행하는 V2X 통신 등을 통해 추가적인 점 데이터를 전달받을 수 있다.
통신부(110)는 차량(100)의 포지션 정보 및 주변 차량에 설치된 라이더 센서가 수집하는 점 데이터를 전달받는다(310).
여기서 통신부(110)는 위성으로부터 수집된 GPS 정보 등이 포함된 포지션 정보 및 주변 차량의 V2V 통신을 통해 전달하는 추가적인 점 데이터를 전달받을 수 있다. 즉, 제어부(130)는 점 데이터 및 포지션 정보를 주변의 차량과 공유할 수 있다.
이 후 차량(100)의 제어부(130)는 포지션 정보 및 라이더 센서의 점 데이터를 매칭시킨다(330).
앞서 언급한 바와 같이, 제어부(130)는 신뢰도에 기초하여 미리 설정된 과정에 따라 수집된 데이터를 수정할 수 있다. 이와 관련된 상세한 설명은 도 13에서 구체적으로 후술한다.
제어부(130)는 매칭된 데이터에 기초하여 차량(100)의 환경 정보를 생성한다(340).
이렇게 생성된 환경 정보는 차량(100)의 자율 주행에 활용되거나, AVN 장치 등을 통해 운전자에게 디스플레이 될 수 있다.
도 13은 점 데이터를 포지션 정보와 매칭시키는 동작을 설명하기 위한 순서도이다.
도 13을 참조하면, 제어부(130)는 각 차량에서 수신된 라이더 센서의 점 데이터를 동기화한다(400).
도 6에서 언급한 바와 같이, 통신부(110)는 차량(100)의 주변 차량으로부터 점 데이터를 수신할 수 있다. 제어부(130)는 통신부(110)가 전달하는 점 데이터가 어떤 차량에서부터 전달되었는지 확인한다. 이 후 제어부(130)는 통신부(110)가 전달하는 포지션 정보에 기초하여 각 차량과 점 데이터를 동기화한다.
제어부(130)는 동기화 된 점 데이터에서 차로 밖에 위치하는 점 데이터를 제외한다(410).
이 후 제어부(130)는 나머지 점 데이터에서 코너 매칭을 실행한다(420).
도 7에서 언급한 바와 같이, 코너 매칭은 점 데이터에 기초하여 포지션 정보를 수정하는 것을 의미한다. 즉, 코너 매칭을 수행하는 제어부(130)는 미리 설정된 각도 이상이 되는 점 데이터 군집을 주변 차량의 포지션 정보보다 신뢰하여 점 데이터에 포지션 정보를 매칭시킨다.
제어부(130)는 직선 매칭을 실행한다(430).
도 8에서 언급한 바와 같이, 직선 매칭은 직선으로 형성된 점 데이터의 신뢰도를 낮게 평가한 것으로 포지션 정보에 기초한 주변 차량의 위치에 점 데이터의 위치를 수정하는 것을 의미한다. 즉 제어부(130)는 주변 차량의 위치에 맞추어 직선 형태로 형성된 점 데이터를 수정한다.
제어부(130)는 제외했던 차로 밖에 점 데이터를 매칭한다(440).
도 9에서 언급한 바와 같이, 제어부(130)는 직선 매칭에 의해서 이동된 차량의 위치 및 포지션 정보에 포함된 각 차량의 Yaw rate에 기초하여 410단계에서 제외된 차로 밖 점 데이터를 다시 생성하여 수정한다.
이 후 제어부(130)는 매칭된 점 데이터와 포지션 정보에 기초하여 주변 오브젝트를 정합시키고, 주변 환경 정보를 생성한다(450).
제어부(130)는 정합된 주변 환경 정보를 검토한다(460).
정합성 검토의 일 예로, 제어부(130)는 정합 과정에서 포지션 정보와 중복되어 남겨진 점 데이터를 삭제할 수 있다.
정리하면 개시된 일 예에 따른 차량(100)은 고가의 라이더 센서를 이용하지 않고, 수 개의 채널을 통해 주위의 점 데이터를 수집할 수 있는 라이더 센서(120)를 이용하고, 그 밖에 필요한 정보는 차량(120) 주변의 차량에서 수신된 포지션 정보 및 점 데이터를 통해 보충한다. 이를 기초로 개시된 차량(100)은 수집된 다양한 데이터를 매칭시켜 각 정보를 정합함으로써, 정확한 주변 환경 정보를 생성할 수 있다.
100: 차량,
110: 통신부,
120: 라이더 센서

Claims (20)

  1. 차량 주변의 객체에 대한 제 1 점 데이터를 수집하는 라이더(Lidar) 센서;
    상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하는 통신부; 및
    상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 제어부;를 포함하는 차량.
  2. 제 1항에 있어서,
    상기 제어부는,
    상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하는 차량.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하는 차량.
  4. 제 3항에 있어서,
    상기 제어부는,
    상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터의 군집이 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하는 차량.
  5. 제 1항에 있어서,
    상기 제어부는,
    상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하는 차량.
  6. 제 1항에 있어서,
    상기 제어부는,
    상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정하는 차량.
  7. 제 1항에 있어서,
    상기 제어부는,
    상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보에 매칭하는 차량.
  8. 제 7항에 있어서,
    상기 제어부는,
    상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 차량.
  9. 제 1항에 있어서,
    상기 제어부는,
    상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 차량.
  10. 제 1항에 있어서,
    상기 통신부는,
    상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 차량.
  11. 차량 주변의 객체에 대한 제 1 점 데이터를 수집하고;
    상기 차량의 외부에서 포지션 정보 및 제 2점 데이터를 수신하고;
    상기 라이더 센서가 전달하는 제 1 점 데이터와 상기 통신부가 전달하는 상기 제 2 점 데이터를 상기 포지션 정보에 매칭시켜 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
  12. 제 11항에 있어서,
    상기 생성하는 것은,
    상기 포지션 정보에 기초하여, 상기 제 1점 데이터와 상기 제 2 점 데이터를 동기화하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
  13. 제 11항에 있어서,
    상기 생성하는 것은,
    상기 제 1 및 제 2 점 데이터에 기초하여, 상기 차량의 주변 위치를 수정하는 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
  14. 제 13항에 있어서,
    상기 생성하는 것은,
    상기 제 1 점 데이터 또는 상기 제 2 데이터 중 어느 하나의 점 데이터의 군집이 미리 설정된 각도를 초과하면 상기 코너 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 더 포함하는 차량의 제어방법.
  15. 제 11항에 있어서,
    상기 생성하는 것은,
    상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터를 수정하는 직선 매칭을 수행하여 상기 차량 주변의 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
  16. 제 11항에 있어서,
    상기 생성하는 것은,
    상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 포지션 정보를 수정한 상기 환경 정보를 생성하는 포함하는 차량의 제어방법.
  17. 제 11항에 있어서,
    상기 생성하는 것은,
    상기 포지션 정보에 기초하여, 상기 제 1 점 데이터 또는 상기 제 2 점 데이터 중 상기 차량이 주행하는 차로 밖에 위치하는 점 데이터를 제외하고 상기 포지션 정보를 매칭시켜 환경 정보를 생성하는 것;을 포함하는 차량의 제어방법.
  18. 제 17항에 있어서,
    상기 생성하는 것은,
    상기 환경 정보를 생성한 후, 상기 제 1 점 데이터 및 상기 제 2 점 데이터에 포함된 회전 속도에 기초하여 상기 제외된 점 데이터를 다시 수정하여 상기 환경 정보를 생성하는 것;을 더 포함하는 차량의 제어방법.
  19. 제 11항에 있어서,
    상기 포지션 정보를 매칭시킨 후, 상기 차량 주변의 환경 정보의 정합성을 검토하는 것;을 더 포함하는 차량의 제어방법.
  20. 제 11항에 있어서,
    상기 라이더 센서가 수집한 상기 제 1 점 데이터를 상기 차량의 외부로 송신하는 것;을 더 포함하는 차량의 제어방법.
KR1020160094638A 2016-07-26 2016-07-26 차량 및 차량의 제어방법 KR102637515B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160094638A KR102637515B1 (ko) 2016-07-26 2016-07-26 차량 및 차량의 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160094638A KR102637515B1 (ko) 2016-07-26 2016-07-26 차량 및 차량의 제어방법

Publications (2)

Publication Number Publication Date
KR20180011989A true KR20180011989A (ko) 2018-02-05
KR102637515B1 KR102637515B1 (ko) 2024-02-19

Family

ID=61224829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160094638A KR102637515B1 (ko) 2016-07-26 2016-07-26 차량 및 차량의 제어방법

Country Status (1)

Country Link
KR (1) KR102637515B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020092953A1 (en) * 2018-11-02 2020-05-07 Waymo Llc Synchronization of multiple rotating sensors of a vehicle
KR20200077004A (ko) * 2018-12-20 2020-06-30 전자부품연구원 V2x 기지국에서 생성한 도로 레이더 정보를 이용한 도로 객체 지도 생성 방법
KR20210039935A (ko) * 2019-10-02 2021-04-12 (주)카네비컴 360도 주변을 탐지할 수 있는 라이다 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098023A (ja) * 2007-10-17 2009-05-07 Toyota Motor Corp 物体検出装置及び物体検出方法
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
KR20150128317A (ko) * 2014-05-09 2015-11-18 한화테크윈 주식회사 주변 차량 탐지 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098023A (ja) * 2007-10-17 2009-05-07 Toyota Motor Corp 物体検出装置及び物体検出方法
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
KR20150128317A (ko) * 2014-05-09 2015-11-18 한화테크윈 주식회사 주변 차량 탐지 장치 및 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kenta Ito 外 3인. A Road Condition Monitoring System Using Various Sensor Data in Challenged Communication Network Environment. 2015 ICAINAW. 2015년* *
공승현 外 2인. 센서융합 측위 기술의 현황과 연구 동향. 2015 29th International Conference on Advanced Information Networking and Applications Workshops, 2015년 8월 1부.* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020092953A1 (en) * 2018-11-02 2020-05-07 Waymo Llc Synchronization of multiple rotating sensors of a vehicle
US11656358B2 (en) 2018-11-02 2023-05-23 Waymo Llc Synchronization of multiple rotating sensors of a vehicle
KR20200077004A (ko) * 2018-12-20 2020-06-30 전자부품연구원 V2x 기지국에서 생성한 도로 레이더 정보를 이용한 도로 객체 지도 생성 방법
KR20210039935A (ko) * 2019-10-02 2021-04-12 (주)카네비컴 360도 주변을 탐지할 수 있는 라이다 시스템

Also Published As

Publication number Publication date
KR102637515B1 (ko) 2024-02-19

Similar Documents

Publication Publication Date Title
US10338196B2 (en) System and method for avoiding sensor interference using vehicular communication
US20210006344A1 (en) Method, system, and device for seamless fault tolerant clock synchronization in a vehicle communication system
CN109426259B (zh) 使用车辆通信进行同步车辆传感器数据获取处理的系统和方法
CN109426258B (zh) 使用车辆通信进行同步车辆传感器数据获取处理的系统和方法
US11194057B2 (en) ASIL-classification by cooperative positioning
US10531254B2 (en) Millimeter wave vehicle-to-vehicle communication system for data sharing
US20170220876A1 (en) Systems and methods for visual classification with region proposals
US20200028736A1 (en) Method and apparatus for determining an error of a vehicle in autonomous driving system
US10608941B2 (en) Dual-network for fault tolerance
WO2017057043A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US11076141B2 (en) Image processing device, image processing method, and vehicle
EP3888276B1 (en) Verifying timing of sensors used in autonomous driving vehicles
EP3913328A1 (en) Vehicle positioning apparatus, system and method, and vehicle
WO2017057057A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110363899B (zh) 基于通信通道检测中继攻击的方法及设备
US20190372750A1 (en) Systems and methods of controlling synchronicity of communication within a network of devices
KR102637515B1 (ko) 차량 및 차량의 제어방법
CN115520198A (zh) 图像处理方法、系统和车辆
Yusuf et al. Vehicle-to-everything (V2X) in the autonomous vehicles domain–A technical review of communication, sensor, and AI technologies for road user safety
US20240048937A1 (en) Vehicle-mounted ranging system and method of operating the same
CN116359943A (zh) 使用无源图像传感器和现有光源的飞行时间相机
KR20200040136A (ko) 차량의 위치 결정 방법, 위치 결정 장치 및 주행 제어 시스템
WO2023162733A1 (ja) 測距装置及び測距方法
KR20210050763A (ko) 자율주행시스템에서 센싱정보 동기화 방법
CN109951822A (zh) 用于使用车辆通信来避免传感器干扰的系统和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant