WO2020262716A1 - 자율주행 차량의 주행 방법 - Google Patents
자율주행 차량의 주행 방법 Download PDFInfo
- Publication number
- WO2020262716A1 WO2020262716A1 PCT/KR2019/007612 KR2019007612W WO2020262716A1 WO 2020262716 A1 WO2020262716 A1 WO 2020262716A1 KR 2019007612 W KR2019007612 W KR 2019007612W WO 2020262716 A1 WO2020262716 A1 WO 2020262716A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- autonomous vehicle
- request signal
- road facility
- transmitting
- virtual lane
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000004044 response Effects 0.000 claims abstract description 16
- 230000005540 biological transmission Effects 0.000 claims description 21
- 230000007613 environmental effect Effects 0.000 claims description 18
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 description 44
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 5
- 238000001556 precipitation Methods 0.000 description 5
- 239000013256 coordination polymer Substances 0.000 description 3
- 239000000428 dust Substances 0.000 description 3
- 230000008054 signal transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0053—Handover processes from vehicle to occupant
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/50—Instruments characterised by their means of attachment to or integration in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/85—Arrangements for transferring vehicle- or driver-related data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K37/00—Dashboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/166—Navigation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/167—Vehicle dynamics information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/175—Autonomous driving
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/177—Augmented reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/589—Wireless data transfers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/592—Data transfer involving external databases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/10—Number of lanes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/55—External transmission of data to or from the vehicle using telemetry
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
Definitions
- the autonomous vehicle 100 may transmit a request signal only when operating in the autonomous driving mode.
- the environmental information may be an external illuminance value.
- the autonomous vehicle 100 may obtain an external illuminance value through the illuminance sensor 161.
- the external illuminance value may be low, and accordingly, lane identification through the camera 130 may be impossible.
- the raindrop sensor 162 provided in the autonomous vehicle 100 may detect rain, snow, and the like, and detect a raindrop amount that indirectly indicates the driver's external view.
- the processor 110 connects the coordinates to generate the first and second virtual lanes VL1 and VL2. can do.
- the processor 110 generates first and second virtual lanes VL1 and VL2 by calculating coefficients of the n-th curve so that the n-th curve corresponding to each virtual lane VL1 and VL2 passes through the previously determined coordinates.
- the coordinate connection method may be performed according to various methods used in the art.
- the reception rate of the location parameter may vary according to the driving speed of the autonomous vehicle 100.
- the autonomous vehicle 100 may receive the location parameter of the road facility 200 according to a reference period set based on the driving speed.
- a virtual lane is removed from the autonomous driving vehicle 100 of the present invention even when the lane is not identified. It receives and can autonomously drive according to the received virtual lane.
- the autonomous vehicle 100 may receive a location parameter from the road facility 200 receiving the request signal (S140), and after generating a virtual lane based on the received location parameter (S150), Accordingly, autonomous driving may be performed (S150).
- the autonomous vehicle 100 may transmit location coordinates to the server 300 (S110), obtain environmental information (S120), and the server ( The weather information may be received from 300 (S310).
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 자율주행 차량이 도로 시설물의 위치 파라미터에 기초하여 가상 차선을 생성하고, 생성된 가상 차선에 따라 주행하는 방법에 관한 것이다. 본 발명의 일 실시예에 따른 자율주행 차량의 주행 방법은 가상 차선에 따라 자율 주행하는 자율주행 차량의 주행 방법에 있어서, 무선 네트워크를 통해 요청 신호를 송신하는 단계, 상기 요청 신호에 대한 응답으로, 인접한 도로 시설물로부터 상기 도로 시설물의 위치 파라미터를 수신하는 단계, 상기 수신된 위치 파라미터에 기초하여 가상 차선을 생성하는 단계 및 상기 생성된 가상 차선을 따라 자율 주행하는 단계를 포함하는 것을 특징으로 한다.
Description
본 발명은 자율주행 차량이 도로 시설물의 위치에 기초하여 가상 차선을 생성하고, 생성된 가상 차선에 따라 주행하는 방법에 관한 것이다.
최근 들어 운전자의 조작 없이 스스로 목적지까지 운행하는 자율주행 차량과 이에 적용되는 자율주행 기술에 관한 연구가 이루어지고 있다.
종래 자율주행 기술에는, 자율주행 차량이 외부 카메라 및 센서 등을 이용하여 차선을 식별하고, 식별된 차선에 대응하는 가상 차선을 생성하고, 생성된 가상 차선에 따라 주행하는 방법이 적용되고 있다.
그러나, 종래의 방법은 차선 식별 동작을 전제하고 있으므로, 폭우, 폭설 등에 의한 악천후 발생과 같이 차선의 식별이 어려운 상황에서는 자율 주행 자체가 불가능한 한계가 있다.
이에 따라, 자율주행 차량이 차선을 식별할 수 없는 상황에서도 가상 차선을 생성하여 자율 주행할 수 있는 방법이 요구되고 있다.
본 발명은 자율주행 차량이 도로 시설물의 위치에 기초하여 가상 차선을 생성하고 생성된 가상 차선에 따라 주행하는 방법을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율주행 차량의 주행 방법은 가상 차선에 따라 자율 주행하는 자율주행 차량의 주행 방법에 있어서, 무선 네트워크를 통해 요청 신호를 송신하는 단계, 상기 요청 신호에 대한 응답으로, 인접한 도로 시설물로부터 상기 도로 시설물의 위치 파라미터를 수신하는 단계, 상기 수신된 위치 파라미터에 기초하여 가상 차선을 생성하는 단계 및 상기 생성된 가상 차선을 따라 자율 주행하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 자율주행 차량이 도로 시설물의 위치에 기초하여 가상 차선을 생성하고 생성된 가상 차선에 따라 주행함으로써, 외부 요인에 의해 차선이 식별되지 않는 상황에서도 가상 차선을 생성할 수 있을 뿐만 아니라, 고정 설치된 도로 시설물의 위치와 도로 시설물과 실제 차선 사이의 상대적인 거리에 기초하여 가상 차선을 생성함으로써 가상 차선 생성의 정확도를 향상시킬 수 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 5G 통신 시스템에서 자율주행 차량과 5G 네트워크의 기본동작의 일 예를 나타낸 도면.
도 2는 5G 통신 시스템에서 자율주행 차량과 5G 네트워크의 응용 동작의 일 예를 나타낸 도면.
도 3 내지 도 6은 5G 통신을 이용한 자율주행 차량의 동작의 일 예를 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 주행 보조 시스템을 도시한 도면.
도 8은 도 7에 도시된 자율주행 차량의 내부 구성을 도시한 도면.
도 9는 주행 중 자율주행 차량과 복수의 도로 시설물 간의 데이터 통신을 설명하기 위한 도면.
도 10은 도로 시설물에 대응하는 위치 파라미터를 설명하기 위한 도면.
도 11은 위치 파라미터에 기초하여 가상 차선을 생성하는 과정을 설명하기 위한 도면.
도 12는 HUD(Head Up Display) 모듈이 가상 차선을 윈드 실드(wind shield)에 투사하는 모습을 도시한 도면.
도 13 및 도 14는 자율주행 차량의 주행 방법의 각 예를 도시한 순서도.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
본 발명은 자율주행 차량(Autonomous Vehicle)이 도로 시설물의 위치에 기초하여 가상 차선을 생성하고, 생성된 가상 차선에 따라 주행하는 방법에 관한 것이다.
자율주행 차량의 주행을 위해, 후술하는 바와 같이 자율주행 차량, 도로 시설물 및 서버간에는 데이터 통신이 수행되는데, 본 발명에 대한 구체적인 설명에 앞서 먼저 도 1 내지 도 6을 참조하여 자율주행 차량이 5G(5th
Generation) 네트워크 상에서 데이터 통신을 수행하는 방법에 대해 설명하도록 한다.
도 1은 5G 통신 시스템에서 자율주행 차량과 5G 네트워크의 기본동작의 일 예를 나타내는 도면이다.
자율주행 차량은 특정 정보를 5G 네트워크로 전송할 수 있다(S1).
특정 정보는, 자율주행 관련 정보를 포함할 수 있다.
자율주행 관련 정보는, 차량의 주행 제어와 직접적으로 관련된 정보일 수 있다. 예를 들어, 자율주행 관련 정보는 차량 주변의 오브젝트를 지시하는 오브젝트 데이터, 맵 데이터(map data), 차량 상태 데이터, 차량 위치 데이터 및 드라이빙 플랜 데이터(driving plan data) 중 하나 이상을 포함할 수 있다.
그리고, 5G 네트워크는 차량의 원격 제어 여부를 결정할 수 있다 (S2).
여기서, 5G 네트워크는 자율주행 관련 원격 제어를 수행하는 서버 또는 모듈과 연결될 수 있다. 이에 따라, 5G 네트워크는 원격 제어와 관련된 정보(또는 신호)를 자율주행 차량으로 전송할 수 있다(S3).
이하 도 2 내지 도 6을 참조하여, 자율주행 차량과 5G 네트워크 간의 5G 통신을 위한 필수 과정(예를 들어, 차량과 5G 네트워크 간의 초기 접속 절차 등)을 개략적으로 설명하도록 한다.
도 2는 5G 통신 시스템에서 자율주행 차량과 5G 네트워크의 응용 동작의 일 예를 나타내는 도면이다.
자율주행 차량은 5G 네트워크와 초기 접속(initial access) 절차를 수행할 수 있다(S20).
초기 접속 절차는 하향 링크(Downlink, DL) 동작 획득을 위한 셀 서치(cell search), 시스템 정보(system information)를 획득하는 과정 등을 포함할 수 있다.
그리고, 자율주행 차량은 5G 네트워크와 임의 접속(random access) 절차를 수행할 수 있다(S21).
임의 접속 과정은 상향 링크(Uplink, UL) 동기 획득 또는 UL 데이터 전송을 위해 프리엠블 전송, 임의 접속 응답 수신 과정 등을 포함할 수 있다.
그리고, 5G 네트워크는 자율주행 차량으로 특정 정보의 전송을 스케쥴링하기 위한 UL grant를 전송할 수 있다(S22).
UL Grant 수신은 5G 네트워크로 UL 데이터의 전송을 위해 시간/주파수 자원 스케줄링을 받는 과정을 포함할 수 있다.
그리고, 자율주행 차량은 UL grant에 기초하여 5G 네트워크로 특정 정보를 전송할 수 있다(S23).
그리고, 5G 네트워크는 자율주행 차량의 원격 제어 여부를 결정할 수 있다(S24).
그리고, 자율주행 차량은 5G 네트워크로부터 특정 정보에 대한 응답을 수신하기 위해 물리 하향 링크 제어 채널을 통해 DL grant를 수신할 수 있다(S25).
그리고, 5G 네트워크는 DL grant에 기초하여 자율주행 차량으로 원격 제어와 관련된 정보(또는 신호)를 전송할 수 있다(S26).
한편, 도 3에서는 자율주행 차량과 5G 통신의 초기 접속 과정 및 또는 임의 접속 과정 및 하향 링크 그랜트 수신 과정이 결합된 예를 단계(S20) 내지 단계(S26)의 과정을 통해 예시적으로 설명하였지만, 본 발명은 이에 한정되지 않는다.
예를 들어, 단계(S20), 단계(S22), 단계(S23), 단계(S24), 단계(S24) 과정을 통해 초기 접속 과정 및/또는 임의접속 과정을 수행할 수 있다. 또한, 예를 들어 단계(S21), 단계(S22), 단계(S23), 단계(S24), 단계(S26) 과정을 통해 초기접속 과정 및/또는 임의 접속 과정을 수행할 수 있다. 또한 단계(S23), 단계(S24), 단계(S25), 단계(S26)을 통해 AI 동작과 하향 링크 그랜트 수신과정이 결합되는 과정을 수행할 수 있다.
또한, 도 2에서는 자율주행 차량 동작에 대하여 단계(S20) 내지 단계(S26)을 통해 예시적으로 설명한 것이며, 본 발명은 이에 한정되지 않는다.
예를 들어, 자율주행 차량 동작은, 단계(S20), 단계(S21), 단계(S22), 단계(S25)가 단계(S23), 단계(S26)과 선택적으로 결합되어 동작할 수 있다. 또한 예를 들어, 자율주행 차량 동작은, 단계(S21), 단계(S22), 단계(S23), 단계(S26)으로 구성될 수도 있다. 또한 예를 들어, 자율주행 차량 동작은, 단계(S20), 단계(S21), 단계(S23), 단계(S26)으로 구성될 수 있다. 또한, 예를 들어, 자율주행 차량 동작은, 단계(S22), 단계(S23), 단계(S25), 단계(S26)으로 구성될 수 있다.
도 3 내지 도 6은 5G 통신을 이용한 자율주행 차량 동작의 일 예를 나타내는 도면이다.
먼저 도 3을 참고하면, 자율주행 모듈을 포함하는 자율주행 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB(synchronization signal block)에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S30).
그리고, 자율주행 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S31).
그리고, 자율주행 차량은 특정 정보를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S32).
그리고, 자율주행 차량은 UL grant에 기초하여 특정 정보를 5G 네트워크로 전송할 수 있다(S33).
그리고, 자율주행 차량은 특정 정보에 대한 응답을 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S34).
그리고, 자율주행 차량은 원격 제어와 관련된 정보(또는 신호)를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S35).
단계(S30)에 빔 관리(beam management, BM) 과정이 추가될 수 있으며, S31에 PRACH(physical random access channel) 전송과 관련된 빔 실패 복구(beam failure recovery) 과정이 추가될 수 있으며, 단계(S32)에 UL grant를 포함하는 PDCCH의 빔 수신 방향과 관련하여 QCL 관계 추가될 수 있으며, 단계(S33)에 특정 정보를 포함하는 PUCCH (physical uplink control channel)/PUSCH (physical uplink shared channel)의 빔 전송 방향과 관련하여 QCL 관계 추가가 추가될 수 있다. 또한, 단계(S34)에 DL grant를 포함하는 PDCCH의 빔 수신 방향과 관련하여 QCL 관계 추가될 수 있다.
도 4를 참고하면, 자율주행 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S40).
그리고, 자율주행 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S41).
그리고, 자율주행 차량은 설정된 그랜트(configured grant)에 기초하여 특정 정보를 5G 네트워크로 전송할 수 있다(S42). 다시 말해, 5G 네트워크로부터 UL grant를 수행하는 과정 대신, 설정된 그랜트(configured grant)에 기초하여 특정 정보를 5G 네트워크로 전송할 수도 있다.
그리고, 자율주행 차량은 원격 제어와 관련된 정보(또는 신호를) 설정된 그랜트에 기초하여 5G 네트워크로부터 수신할 수 있다(S43).
도 5를 참고하면, 자율주행 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S50).
그리고, 자율주행 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S51).
그리고, 자율주행 차량은 5G 네트워크로부터 DownlinkPreemption IE를 수신할 수 있다(S52).
그리고, 자율주행 차량은 DownlinkPreemption IE에 기초하여 프리엠션 지시를 포함하는 DCI 포맷 2_1을 5G 네트워크로부터 수신할 수 있다(S53).
그리고, 자율주행 차량은 pre-emption indication에 의해 지시된 자원(PRB 및/또는 OFDM 심볼)에서 eMBB data의 수신을 수행(또는 기대 또는 가정)하지 않을 수 있다(S54).
그리고, 자율주행 차량은 특정 정보를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S55).
그리고, 자율주행 차량은 UL grant에 기초하여 특정 정보를 5G 네트워크로 전송할 수 있다(S56).
그리고, 자율주행 차량은 특정 정보에 대한 응답을 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S57).
그리고, 자율주행 차량은 원격제어와 관련된 정보(또는 신호)를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S58).
도 6을 참고하면, 자율주행 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S60).
그리고, 자율주행 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S61).
그리고, 자율주행 차량은 특정 정보를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S62).
UL grant는 특정 정보의 전송에 대한 반복 횟수에 대한 정보를 포함하고, 특정 정보는 반복 횟수에 대한 정보에 기초하여 반복하여 전송될 수 있다(S63).
그리고, 자율주행 차량은 UL grant에 기초하여 특정 정보를 5G 네트워크로 전송할 수 있다.
그리고, 특정 정보의 반복 전송은 주파수 호핑을 통해 수행되고, 첫 번째 특정 정보의 전송은 제 1 주파수 자원에서, 두 번째 특정 정보의 전송은 제 2 주파수 자원에서 전송될 수 있다.
특정 정보는 6RB(Resource Block) 또는 1RB(Resource Block)의 협대역(narrowband)을 통해 전송될 수 있다.
그리고, 자율주행 차량은 특정 정보에 대한 응답을 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S64).
그리고, 자율주행 차량은 원격제어와 관련된 정보(또는 신호)를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S65).
앞서 살핀 5G 통신 기술은 본 명세서에 후술되는 내용에 적용될 수 있으며, 본 명세서에서 제안하는 방법들의 기술적 특징을 구체화하거나 명확하게 하는데 보충될 수 있다. 또한, 후술되는 자율주행 차량의 데이터 통신 방법이 전술한 5G 네트워크를 이용하는 통신 방법에 한정되는 것은 아니며, 자율주행 차량은 당해 기술분야에서 이용되고 있는 다양한 방법을 이용하여 데이터 통신을 수행할 수 있다.
이하에서는 도 7 내지 도 14를 참조하여, 본 발명의 일 실시예에 따른 자율주행 차량의 주행 보조 시스템과, 이러한 시스템 내에서 자율주행 차량이 주행하는 방법에 대해 구체적으로 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 주행 보조 시스템을 도시한 도면이고, 도 8은 도 7에 도시된 자율주행 차량의 내부 구성을 도시한 도면이다.
도 9는 주행 중 자율주행 차량과 복수의 도로 시설물 간의 데이터 통신을 설명하기 위한 도면이다. 또한, 도 10은 도로 시설물에 대응하는 위치 파라미터를 설명하기 위한 도면이고, 도 11은 위치 파라미터에 기초하여 가상 차선을 생성하는 과정을 설명하기 위한 도면이다.
도 12는 HUD(Head Up Display)가 가상 차선을 윈드 실드에 투사하는 모습을 도시한 도면이다. 또한, 도 13 및 도 14는 자율주행 차량의 주행 방법의 각 예를 도시한 순서도이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 주행 보조 시스템(이하, 주행 보조 시스템)은 자율주행 차량(100), 도로 시설물(200) 및 서버(300)를 포함할 수 있다. 도 7에 도시된 주행 보조 시스템은 일 실시예에 따른 것이고, 그 구성요소들이 도 7에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
주행 보조 시스템을 구성하는 자율주행 차량(100), 도로 시설물(200) 및 서버(300)는 무선 네트워크로 연결되어 상호 데이터 통신을 수행할 수 있고, 각 구성요소는 데이터 통신을 위해 5G 이동통신 서비스를 이용할 수 있다. 5G 네트워크를 이용한 데이터 통신 방법에 대해서는 도 1 내지 도 6을 참조하여 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
본 발명에서 자율주행 차량(100)은 운전자의 개입 없이 가상 차선을 따라 목적지까지 자율 주행할 수 있는 임의의 차량일 수 있다.
이러한 자율주행 차량(100)은 동력원으로서 엔진을 구비하는 내연기관 차량(internal combustion engine vehicle), 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량(hybrid vehicle), 동력원으로서 전기 모터를 구비하는 전기 차량(electronic vehicle), 동력원으로서 연료 전지를 구비하는 수소연료전지차(fuel cell electric vehicle) 등으로 구현될 수 있다.
또한, 이러한 자율주행 차량(100)은 임의의 인공지능(Artificial Intelligence) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G 이동통신 장치 등과 연계될 수 있다.
도로 시설물(200)은 운전자나 보행자의 편의를 위해 고정 설치된 시설물로서, 예컨대, 표지판, 가로등, 정류장, 화장실, 자동판매기, 신호등, 교통 관제탑, 소화전 등을 포함할 수 있다. 이러한 도로 시설물(200)에는 자율주행 차량(100) 및 서버(300)와 데이터 통신을 위한 통신 장치가 구비될 수 있다.
서버(300)는 무선 네트워크로 연결된 자율주행 차량(100) 및 도로 시설물(200)에 정보를 제공하거나, 자율주행 차량(100) 및 도로 시설물(200)로부터 수집된 정보를 저장 및 관리할 수 있다. 이와 같은 서버(300)는 자율주행 차량(100)을 운용하는 운송 회사에 의해 운영될 수도 있고, 도로 시설물(200)을 관리하는 지자체 및 국가에 의해 운영될 수도 있으며, 이들 간의 데이터를 중계하는 통신사에 의해 운영될 수도 있다.
이하에서는, 전술한 주행 보조 시스템 내에서 자율주행 차량(100)의 동작 방법을 구체적으로 설명하도록 한다.
도 8을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량(100)은 프로세서(110), 메모리(120), 카메라(130), 통신 모듈(140), 차량용 HMI(Human Machine Interface, 150), 센싱 모듈(160), 차량 제어 모듈(170) 및 GPS(Global Positioning System) 모듈(180)을 포함할 수 있다. 도 8에 도시된 자율주행 차량(100)의 내부 구성요소는 예시적인 것이고, 그 구성요소들이 도 8에 도시된 예시에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
자율주행 차량(100) 내부의 각 구성요소는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors)중 적어도 하나를 포함하는 물리적인 요소로 구현될 수 있다.
도 8에 도시된 각 구성요소들의 동작은 프로세서(110)에 의해 제어될 수 있으며, 프로세서(110)는 각 구성요소들로부터 획득된 데이터 또는 각 구성요소로 제공되는 데이터를 처리할 수 있다. 또한, 메모리(120)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등으로 구성되어 전술한 프로세서(110)의 동작을 위한 프로그램과 자율주행 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
이하에서는, 자율주행 차량(100)의 동작 과정을 도 8에 도시된 구성요소를 참조하여 설명하도록 한다.
자율주행 차량(100)은 무선 네트워크를 통해 요청 신호를 송신할 수 있다.
보다 구체적으로, 통신 모듈(140)은 프로세서(110)의 제어에 따라 특정 조건 하에서 요청 신호를 송신할 수 있다. 여기서 요청 신호는 후술하는 위치 파라미터를 요청하는 신호를 의미할 수 있다.
또한, 통신 모듈(140)은 요청 신호에 대한 응답으로, 인접한 도로 시설물(200)로부터 도로 시설물(200)의 위치 파라미터를 수신할 수 있다.
도로 시설물(200)은 통신 장치와, 위치 파라미터가 미리 저장된 저장 장치를 포함할 수 있다. 여기서 위치 파라미터는 도로 시설물(200)의 위치에 관한 정보를 포함할 수 있는데, 위치 파라미터에 대한 자세한 내용은 후술하도록 한다. 도로 시설물(200)은 통신 장치를 통해 저장 장치에 저장된 위치 파라미터를 자율주행 차량(100)의 통신 모듈(140)에 송신할 수 있다.
이하에서는 자율주행 차량(100)과 도로 시설물(200) 간의 통신 시나리오를 두 가지의 실시예로 설명하도록 한다.
일 예에서, 통신 모듈(140)은 무선 네트워크로 요청 신호를 발산할 수 있다. 이에 따라, 요청 신호는 자율주행 차량(100)의 위치를 중심으로 주변 공간에 방사될 수 있다. 이에 따라, 요청 신호는 무선 네트워크 상에서 자율주행 차량(100)과 일정 거리 이내인 도로 시설물(200)(이하, 인접한 도로 시설물(200))에 수신될 수 있다.
보다 구체적으로, 통신 모듈(140)은 블루투스(Bluetooth), 비콘(Beacon), 와이파이(Wi-Fi) 중 적어도 하나의 근거리 무선 네트워크를 통해 요청 신호를 송신할 수 있다. 이에 따라, 요청 신호는 블루투스, 비콘, 와이파이 중 적어도 하나의 근거리 네트워크 상에 접속된 도로 시설물(200)에 수신될 수 있다.
도 9를 참조하면, 자율주행 차량(100)이 A 위치에서 주행 중인 경우, 요청 신호는 자율주행 차량(100)과 인접한 세 개의 도로 시설물(200a, 200b, 200c)에 수신될 수 있다. 또한, 자율주행 차량(100)이 B 위치로 이동한 경우, 요청 신호는 자율주행 차량(100)과 인접한 다섯 개의 도로 시설물(200c, 200d, 200e, 200f, 200e)에 수신될 수 있다. 또한, 자율주행 차량(100)이 C 위치로 이동한 경우, 요청 신호는 자율주행 차량(100)과 인접한 세 개의 도로 시설물(200i, 200j, 200k)에 수신될 수 있다.
자율주행 차량(100)과 인접한 도로 시설물(200)은 수신된 요청 신호에 응답하여 위치 파라미터를 자율주행 차량(100)에 송신할 수 있고, 이에 따라 자율주행 차량(100)의 통신 모듈(140)은 위치 파라미터를 수신할 수 있다.
다른 예에서, 통신 모듈(140)은 서버(300)에 직접 요청 신호를 송신할 수 있다. 서버(300)는 수신된 요청 신호에 응답하여 자율주행 차량(100)의 위치 좌표와 미리 설정된 거리 이내인 적어도 하나의 도로 시설물(200)에 송신 개시 신호를 송신할 수 있다.
자율주행 차량(100) 내 GPS 모듈(180)은 인공위성에서 출력되는 위성신호를 해석함으로써 GPS 모듈(180)이 위치한 좌표(이하, 위치 좌표)를 획득할 수 있다. GPS 모듈(180)은 자율주행 차량(100)에 내장되므로 GPS 모듈(180)이 획득한 위치 좌표는 자율주행 차량(100)의 위치 좌표일 수 있다.
통신 모듈(140)은 GPS 모듈(180)에 의해 실시간으로 획득된 위치 좌표를 서버(300)로 송신할 수 있다. 서버(300)에 요청 신호가 수신되면, 서버(300)는 위치 좌표와 미리 설정된 거리 이내인 적어도 하나의 도로 시설물(200)을 식별할 수 있다. 보다 구체적으로, 서버(300)에는 도로 시설물(200)의 3차원 위치 좌표가 저장된 데이터베이스가 구비될 수 있고, 서버(300)는 데이터베이스를 참조하여 자율주행 차량(100)의 위치 좌표와 도로 시설물(200)의 3차원 위치 좌표를 비교하여, 자율주행 차량(100)과 미리 설정된 거리 이내인 도로 시설물(200)을 식별할 수 있다.
다시 도 9를 참조하면, 자율주행 차량(100)이 A 위치에서 주행 중인 경우, 서버(300)는 자율주행 차량(100)의 위치 좌표와 미리 설정된 거리 이내인 세 개의 도로 시설물(200a, 200b, 200c)을 식별할 수 있다. 또한, 자율주행 차량(100)이 B 위치로 이동한 경우, 서버(300)는 자율주행 차량(100)의 위치 좌표와 미리 설정된 거리 이내인 다섯 개의 도로 시설물(200c, 200d, 200e, 200f, 200e)을 식별할 수 있다. 또한, 자율주행 차량(100)이 C 위치로 이동한 경우, 서버(300)는 자율주행 차량(100)의 위치 좌표와 미리 설정된 거리 이내인 세 개의 도로 시설물(200i, 200j, 200k)을 식별할 수 있다.
도로 시설물(200)이 식별되면, 서버(300)는 해당 도로 시설물(200)에 송신 개시 신호를 송신할 수 있다. 여기서 송신 개시 신호는 도로 시설물(200)이 위치 파라미터 송신 동작을 시작하도록 제어하는 신호일 수 있다.
도로 시설물(200)은 서버(300)로부터 수신된 송신 개시 신호에 응답하여 위치 파라미터를 자율주행 차량(100)에 송신할 수 있고, 이에 따라 자율주행 차량(100)의 통신 모듈(140)은 위치 파라미터를 수신할 수 있다.
한편 전술한 요청 신호 송신 및 위치 파라미터 수신 동작은 특정 조건하에 수행될 수 있다.
자율주행 차량(100)은 주행 모드에 따라 주행할 수 있으며, 주행 모드는 수동주행 모드와 자율주행 모드로 구분될 수 있다. 수동주행 모드의 경우 자율주행 차량(100)은 운전자의 조작에 따라 주행할 수 있으며, 자율주행 모드의 경우 가상 차선을 따라 자율주행 할 수 있다.
보다 구체적으로, 자율주행 모드에서 자율주행 차량(100)은 주행 도로 상에 차선을 식별하고, 식별된 차선에 대응하는 가상 차선을 생성한 후 생성된 가상 차선을 트래킹하여 주행할 수 있다.
후술하는 바와 같이 위치 파라미터는 가상 차선의 생성을 위해 이용되므로, 자율주행 차량(100)은 자율주행 모드로 동작하는 경우에 한해 요청 신호의 송신 동작을 수행할 수 있다.
주행 모드를 결정하기 위해, 자율주행 차량(100)은 차량용 HMI(150)를 통해 사용자로부터 주행 모드를 입력받을 수 있다.
차량용 HMI(150)는 차량 내부에 구비되고, 다수의 물리적인 인터페이스를 통해 기본적으로 자율주행 차량(100)의 정보 및 상태를 운전자에게 시각적 및 청각적으로 출력하는 기능을 수행할 수 있다. 이를 위해, 본 발명의 차량용 HMI(150)는 AVN(Audio, Video, Navigation) 모듈(151)과, HUD(Head Up Display) 모듈(152)을 포함할 수 있다.
AVN 모듈(151)은 스피커 및 디스플레이를 포함할 수 있고, 자율주행 차량(100)의 정보 및 상태를 스피커를 통해 청각적으로 출력할 수 있으며, 디스플레이를 통해 시각적으로 출력할 수도 있다.
HUD 모듈(152)은 차량 전면에 구비된 윈드 실드(W)에 이미지를 투사하여 운전자가 전방을 주시하면서 투사된 이미지를 확인할 수 있도록 할 수 있다.
한편, 차량용 HMI(150)는 사용자 명령을 입력받기 위해 사용자의 터치 입력을 감지하는 터치 센서를 포함할 수 있고, 터치 센서는 AVN 모듈(151) 내 디스플레이에 내장될 수 있다.
차량용 HMI(150)는 디스플레이를 통해 주행 모드를 입력받기 위한 인터페이스를 제공할 수 있고, 운전자는 해당 인터페이스 상에서 터치 입력을 통해 주행 모드를 입력할 수 있다.
사용자로부터 입력된 주행 모드가 자율주행 모드이면, 통신 모듈(140)은 전술한 요청 신호 송신 동작을 수행할 수 있다.
한편, 차선 식별이 가능한 상황에서는 식별된 차선에 따라 가상 차선을 생성하면 되므로 위치 파라미터를 별로도 수신할 필요가 없을 수 있다. 이에 따라, 자율주행 차량(100)은 차선 식별이 불가능한 상황에서 요청 신호의 송신 동작을 수행할 수 있다.
보다 구체적으로, 자율주행 차량(100)은 환경 정보를 획득할 수 있고, 획득된 환경 정보에 기초하여 가상 차선의 생성이 불가능한 것으로 판단되면 요청 신호를 송신할 수 있다.
환경 정보는 자율주행 차량(100)의 외부 환경에 대한 정보로서, 가상 차선의 생성에 필요한 정보와, 가상 차선의 식별에 방해가 되는 정보를 포함할 수 있다. 다시 말해, 자율주행 모드에서 자율주행 차량(100)은 환경 정보에 기초하여 차선을 식별할 수도 있고, 환경 정보에 의해 차선을 식별하지 못할 수도 있다.
자율주행 차량(100)은 카메라(130)와 센싱 모듈(160)을 통해 환경 정보를 획득하고, 획득된 환경 정보에 기초하여 차선 식별 상태를 식별 가능 상태 또는 식별 불가능 상태로 판단할 수 있다. 차선 식별 상태가 식별 불가능 상태로 판단되면 자율주행 차량(100)은 요청 신호를 송신할 수 있다.
일 예에서, 환경 정보는 외부 영상일 수 있다. 이 경우, 자율주행 차량(100)은 카메라(130)의 촬영 동작을 통해 외부 영상을 획득할 수 있다. 이후, 자율주행 차량(100)은 촬영된 외부 영상에서 차선에 대응하는 오브젝트를 식별할 수 있다.
보다 구체적으로, 자율주행 차량(100)에 구비된 카메라(130)는 자율주행 차량(100) 전방의 외부 영상을 촬영할 수 있고, 프로세서(110)는 촬영된 외부 영상을 분석하여 외부 영상 내 오브젝트를 식별할 수 있다. 예컨대, 카메라(130)가 촬영한 외부 영상에 차선이 포함되는 경우, 프로세서(110)는 외부 영상 내에서 차선에 대응하는 오브젝트를 식별할 수 있다.
다만, 차선이 닳아 없어지거나, 외부 물체에 의해 가려지는 등의 다양한 요인으로 인해 외부 영상에 차선이 촬영되지 않을 수 있고, 이 경우에는 프로세서(110)가 차선에 대응하는 오브젝트를 식별하지 못할 수 있다.
이에 따라, 자율주행 차량(100)은 차선에 대응하는 오브젝트가 획득되지 않으면 요청 신호를 송신할 수 있다. 보다 구체적으로, 프로세서(110)는 외부 영상 내 차선에 대응하는 오브젝트가 식별되지 않으면 차선 식별 상태를 식별 불가능 상태로 결정하고, 통신 모듈(140)이 요청 신호를 송신하도록 제어할 수 있다.
다른 예에서, 환경 정보는 외부 조도값일 수 있다. 이 경우, 자율주행 차량(100)은 조도 센서(161)를 통해 외부 조도값을 획득할 수 있다.
자율주행 차량(100)에 구비된 조도 센서(161)는 외부 조도를 감지하여 운전자의 외부 시야를 간접적으로 지시하는 외부 조도값을 검출할 수 있다.
야간 주행이나, 안개가 짙은 상황에서는 외부 조도값이 낮을 수 있고, 이에 따라 카메라(130)를 통한 차선 식별이 불가능할 수 있다.
이에 따라, 자율주행 차량(100)은 조도 센서(161)에 의해 획득된 외부 조도값이 기준 조도값 미만이면 요청 신호를 송신할 수 있다. 보다 구체적으로, 프로세서(110)는 조도 센서(161)에 의해 획득된 외부 조도값과 메모리(120)에 미리 저장된 기준 조도값을 비교할 수 있다. 비교 결과 외부 조도값이 기준 조도값 미만이면, 프로세서(110)는 차선 식별 상태를 식별 불가능 상태로 결정하고, 통신 모듈(140)이 요청 신호를 송신하도록 제어할 수 있다.
또 다른 예에서, 환경 정보는 우적량일 수 있다. 이 경우, 자율주행 차량(100)은 우적 센서(162)를 통해 우적량을 획득할 수 있다.
자율주행 차량(100)에 구비된 우적 센서(162)는 비, 눈 등을 감지하여 운전자의 외부 시야를 간접적으로 지시하는 우적량을 검출할 수 있다.
폭설, 폭우 등에 의한 악천후 발생 시 우적량이 높을 수 있고, 이에 따라 카메라(130)를 통한 차선 식별이 불가능할 수 있다.
이에 따라, 자율주행 차량(100)은 우적 센서(162)에 의해 획득된 우적량이 기준 우적량 이상이면 요청 신호를 송신할 수 있다. 보다 구체적으로, 프로세서(110)는 우적 센서(162)에 의해 획득된 우적량과 메모리(120)에 미리 저장된 기준 우적량을 비교할 수 있다. 비교 결과 우적량이 기준 우적량 이상이면, 프로세서(110)는 차선 식별 상태를 식별 불가능 상태로 결정하고, 통신 모듈(140)이 요청 신호를 송신하도록 제어할 수 있다.
한편, 전술한 환경 정보 외에도 자율주행 차량(100)은 기상 정보에 따라 요청 신호 송신 동작을 수행할 수 있다.
자율주행 차량(100)은 서버(300)로부터 자신의 위치 좌표에 대응하는 기상 정보를 수신할 수 있다. 전술한 바와 같이 자율주행 차량(100)은 GPS 모듈(180)을 통해 획득된 위치 좌표를 서버(300)로 실시간 송신할 수 있다.
서버(300)는 수신된 위치 좌표에 대응하는 기상 정보를 식별할 수 있고, 식별된 기상 정보를 자율주행 차량(100)에 송신할 수 있다. 보다 구체적으로, 서버(300)는 데이터베이스를 참조하여 자율주행 차량(100)의 위치 좌표에 대응하는 실시간 기상 정보를 식별할 수 있고, 식별된 기상 정보를 자율주행 차량(100)에 송신할 수 있다. 이와 달리, 서버(300)는 외부 기상 정보 서버로부터 자율주행 차량(100)의 위치 좌표에 대응하는 기상 정보를 수신하고, 수신된 기상 정보를 자율주행 차량(100)에 송신할 수 있다.
자율주행 차량(100)은 서버(300)로부터 수신된 기상 정보에 따라 요청 신호를 송신할 수 있다.
기상 정보에는 가시거리, 미세먼지 농도, 강수량, 적설량 등의 다양한 정보가 포함될 수 있다. 자율주행 차량(100) 내 프로세서(110)는 서버(300)로부터 수신된 기상 정보와 메모리(120)에 저장된 기준값을 비교하여 요청 신호 송신 여부를 결정할 수 있다.
예컨대, 가시거리가 기준 가시거리 미만이거나, 미세먼지 농도가 기준 농도 이상이거나, 강수량이 기준 강수량 이상이거나, 적설량이 기준 적설량 이상인 경우, 프로세서(110)는 통신 모듈(140)이 요청 신호를 송신하도록 제어할 수 있다.
이와 같은 조건에 따라 요청 신호가 송신되면, 앞서 설명한 바와 같이 인접한 도로 시설물(200)은 요청 신호에 응답하여 자율주행 차량(100)에 위치 파라미터를 송신할 수 있다.
자율주행 차량(100)은 도로 시설물(200)로부터 수신된 위치 파라미터에 기초하여 가상 차선을 생성할 수 있다.
위치 파라미터는 도로 시설물(200)의 위치에 관한 임의의 정보를 포함할 수 있다. 예컨대, 위치 파라미터는 도로 시설물(200)의 3차원 위치 좌표 및 도로 시설물(200)과 인접한 복수의 차선 사이의 3차원 변위를 포함할 수 있다. 이 외에도 위치 파라미터는 인접한 다른 도로 시설물(200)까지의 거리, 인접한 다른 도로 시설물(200)까지의 굴곡도(bending degree), 인접한 차선들 간의 간격 등을 더 포함할 수 있다.
이하에서는, 위치 파라미터가 도로 시설물(200)의 3차원 위치 좌표 및 도로 시설물(200)과 인접한 복수의 차선 사이의 3차원 변위를 포함하는 것으로 설명하도록 한다. 한편, 3차원 변위는 도로 시설물(200)과 복수의 차선 사이의 최소 변위로 정의될 수 있다.
도 10을 참조하면, 도로 시설물(200)의 위치 파라미터는 도로 시설물(200)의 3차원 위치 좌표(x1, y1, z1)와, 도로 시설물(200)과 가장 인접한 차선(L1) 사이의 3차원 변위(△d1), 도로 시설물(200)과 다음으로 인접한 차선(L2) 사이의 3차원 변위(△d2)를 포함할 수 있다. 또한, 도면에는 도시되지 않았으나, 도로 시설물(200)과 그 다음으로 인접한 차선이 존재하는 경우, 위치 파라미터는 도로 시설물(200)과 해당 차선 사이의 3차원 변위 또한 포함할 수 있다.
도로 시설물(200)은 이와 같은 위치 파라미터를 자율주행 차량(100)에 송신할 수 있다.
자율주행 차량(100)은 도로 시설물(200)의 3차원 위치 좌표와, 도로 시설물(200)과 인접한 복수의 차선 사이의 3차원 변위에 기초하여 가상 차선의 좌표를 식별할 수 있다.
도 11을 참조하면, 주행 중인 자율주행 차량(100)은 제1 내지 제4 도로 시설물(200a~200d)로부터 위치 파라미터를 순차적으로 수신할 수 있다.
먼저, 제1 도로 시설물(200a)로부터 수신된 3차원 위치 좌표는 (x1, y1, z1)일 수 있고, 제1 도로 시설물(200a)과 가장 인접한 차선(이하, 제1 차선(L1)) 사이의 3차원 변위는 (△xa1, △ya1, △za1)이고, 제1 도로 시설물(200a)과 다음으로 인접한 차선(이하, 제2 차선(L2)) 사이의 3차원 변위는 (△xa2, △ya2, △za2)일 수 있다.
프로세서(110)는 제1 도로 시설물(200a)의 3차원 위치 좌표에, 각 차선에 대한 3차원 변위를 적용하여, 제1 차선(L1)에 대응하는 가상 차선(이하, 제1 가상 차선(VL1))의 첫 번째 좌표를 (x1+△xa1, y1+△ya1, z1+△za1)로 결정할 수 있고, 제2 차선(L2)에 대응하는 가상 차선(이하, 제2 가상 차선(VL2))의 첫 번째 좌표를 (x1+△xa2, y1+△ya2, z1+△za2)로 결정할 수 있다.
다음으로, 제2 도로 시설물(200b)로부터 수신된 3차원 위치 좌표는 (x2, y2, z2)일 수 있고, 제2 도로 시설물(200b)과 제1 차선(L1) 사이의 3차원 변위는 (△xb1, △yb1, △zb1)이고, 제2 도로 시설물(200b)과 제2 차선(L2) 사이의 3차원 변위는 (△xb2, △yb2, △zb2)일 수 있다.
프로세서(110)는 제2 도로 시설물(200b)의 3차원 위치 좌표에, 각 차선에 대한 3차원 변위를 적용하여, 제1 가상 차선(VL1)의 두 번째 좌표를 (x2+△xb1, y2+△yb1, z2+△zb1)로 결정할 수 있고, 제2 가상 차선(VL2)의 두 번째 좌표를 (x2+△xb2, y2+△yb2, z2+△zb2)로 결정할 수 있다.
이와 같은 방법으로 프로세서(110)는 제3 및 제4 도로 시설물(200c, 200d)로부터 위치 파라미터를 수신하여, 제1 가상 차선(VL1)의 세 번째 및 네 번째 좌표를 각각 (x3+△xc1, y3+△yc1, z3+△zc1) 및 (x4+△xd1, y4+△yd1, z4+△zd1)으로 결정할 수 있고, 제2 가상 차선(VL2)의 세 번째 및 네 번째 좌표를 각각 (x3+△xc2, y3+△yc2, z3+△zc2) 및 (x4+△xd2, y4+△yd2, z4+△zd2)로 결정할 수 있다.
제1 및 제2 가상 차선(VL1, VL2) 각각에 대해 첫 번째로부터 네 번째까지의 좌표가 결정되면, 프로세서(110)는 좌표들을 연결하여 제1 및 제2 가상 차선(VL1, VL2)을 생성할 수 있다. 예컨대, 프로세서(110)는 각 가상 차선(VL1, VL2)에 대응하는 n차 곡선이 앞서 결정된 좌표들을 지나도록 n차 곡선의 계수를 산출함으로써 제1 및 제2 가상 차선(VL1, VL2)을 생성할 수 있고, 이와 같은 좌표 연결 방법은 당해 기술분야에서 이용되는 다양한 방법에 따를 수 있다.
전술한 가상 차선 생성 방법에 의하면, 주행 중 많은 도로 시설물(200)로부터 위치 파라미터를 수신할수록 가상 차선의 생성 정확도가 상승할 수 있다. 다만, 다양한 외부 요인으로 인해 위치 파라미터의 수신율이 낮아질 수 있다.
일 예에서, 위치 파라미터의 수신율은 기상 상태에 따라 달라질 수 있다. 이 때, 자율주행 차량(100)은 서버(300)로부터 수신된 기상 정보에 기초하여 설정되는 기준 주기에 따라 도로 시설물(200)의 위치 파라미터를 수신할 수 있다.
앞서 언급한 바와 같이 기상 정보는 가시거리, 미세먼지 농도, 강수량, 적설량 등의 수치로 표현되는 다양한 정보가 포함될 수 있다. 자율주행 차량(100)은 기상 정보와 메모리(120)에 저장된 기준값을 비교할 수 있고, 전파 수신율이 좋지 않은 상황(예컨대, 강수량 또는 적설량이 기준값 이상인 상황)에서는 짧은 기준 주기에 따라 위치 파라미터를 수신할 수 있다. 반면에, 전파 수신율이 좋은 상황에서는 긴 기준 주기에 따라 위치 파라미터를 수신할 수 있다.
다른 예에서, 위치 파라미터의 수신율은 인접 차량의 수에 따라 달라질 수 있다. 이 때, 자율주행 차량(100)은 인접 차량의 수에 기초하여 설정되는 기준 주기에 따라 도로 시설물(200)의 위치 파라미터를 수신할 수 있다.
자율주행 차량(100)은 V2V(Vehicle to Vehicle) 통신을 통해 동일 네트워크 상에서 인접 차량과 연결될 수 있다. 이에 따라, 자율주행 차량(100)은 해당 네트워크 상에 연결된 노드의 수에 기초하여 인접 차량의 수를 식별할 수 있다.
무선 통신에 있어서 일정 범위 내에 많은 수신 노드가 존재하는 경우, 각 노드의 수신율은 낮아질 수 있다. 이에 따라, 자율주행 차량(100)은 인접 차량의 수와 기준값을 비교할 수 있고, 인접 차량의 수가 기준값보다 많은 경우 짧은 기준 주기에 따라 위치 파라미터를 수신할 수 있다. 반면에, 인접 차량의 수가 기준값 이하인 경우 긴 기준 주기에 따라 위치 파라미터를 수신할 수 있다. 또한, 한편, 자율주행 차량(100)은 인접 차량의 수와 반비례하는 기준 주기에 따라 위치 파라미터를 수신할 수도 있다.
또 다른 예에서, 위치 파라미터의 수신율은 자율주행 차량(100)의 주행 속도에 따라 달라질 수 있다. 이 때, 자율주행 차량(100)은 주행 속도에 기초하여 설정되는 기준 주기에 따라 도로 시설물(200)의 위치 파라미터를 수신할 수 있다.
자율주행 차량(100)이 고속 주행하는 경우, 저속 주행하는 경우보다 위치 파라미터가 수신될 수 있는 시간이 짧으므로 위치 파라미터의 수신율이 낮을 수 있다. 이에 따라, 자율주행 차량(100)은 주행 속도와 반비례하는 기준 주기에 따라 위치 파라미터를 수신할 수 있다. 예컨대, 주행 속도가 높을수록 짧은 기준 주기에 따라 위치 파라미터를 수신할 수 있고, 주행 속도가 낮을수록 긴 기준 주기에 따라 위치 파라미터를 수신할 수 있다.
한편, 가상 차선은 각 도로 시설물(200)의 위치 파라미터에 의해 결정되는 좌표를 연결함에 따라 생성되므로, 도로의 굴곡이 심한 경우 가상 차선 생성의 정확도를 높이기 위해서는 높은 수신율로 위치 파라미터가 수신될 것이 요구될 수 있다.
이에 따라, 자율주행 차량(100)은 주행 도로의 곡률에 기초하여 설정되는 기준 주기에 따라 도로 시설물(200)의 위치 파라미터를 수신할 수 있다.
자율주행 차량(100) 내 프로세서(110)는 메모리(120)에 저장된 지도 정보에 기초하여 현재 주행중인 도로의 곡률을 산출할 수 있다. 자율주행 차량(100)은 산출된 곡률과 반비례하는 기준 주기에 따라 위치 파라미터를 수신할 수 있다. 예컨대, 주행 도로의 곡률이 높을수록 짧은 기준 주기에 따라 위치 파라미터를 수신할 수 있고, 주행 도로의 곡률이 낮을수록 긴 기준 주기에 따라 위치 파라미터를 수신할 수 있다.
프로세서(110)는 앞서 언급한 몇몇 실시예에 따라 기준 주기를 결정하고, 통신 모듈(140)이 기준 주기에 따라 위치 파라미터를 수신하도록 제어할 수 있다.
이와 같이, 본 발명의 자율주행 차량은 수신율이 낮은 환경에서는 짧은 주기에 따라 위치 파라미터를 수신하고, 수신율이 높은 환경에서는 긴 주기에 따라 위치 파라미터를 수신할 수 있다.
한편, 위치 파라미터가 미리 설정된 시간 동안 수신되지 않으면 자율주행 차량(100)은 주행 모드를 수동주행 모드로 변환할 수 있다.
전술한 바와 같이, 자율주행 차량(100)의 요청 신호 송신 동작은 자율주행 차량(100)의 주행 모드가 자율주행 모드일 때 수행될 수 있다. 다만, 주행 도로 주변에 도로 시설물(200)이 존재하지 않는 경우 자율주행 차량(100)에는 위치 파라미터가 수신되지 않을 수 있다.
위치 파라미터가 수신되지 않으면 가상 차선을 생성할 수 없고, 가상 차선이 생성되지 않은 상태에서 자율 주행하는 것은 사고를 유발할 수 있다. 이에 따라, 프로세서(110)는 요청 신호 송신 이후 미리 설정된 시간 동안 임의의 위치 파라미터가 수신되지 않으면, 현재 설정된 자율주행 모드를 수동주행 모드로 변경할 수 있다.
주행 모드 변경 시 프로세서(110)는 차량용 HMI(150)가 주행 모드 변경에 관한 정보를 운전자에게 시각적 및 청각적으로 출력하도록 제어할 수 있다.
자율주행 차량(100)은 전술한 방법에 따라 생성된 가상 차선을 따라 자율 주행할 수 있다.
보다 구체적으로, 프로세서(110)는 가상 차선의 좌표값에 기초하여 가상의 중심선(CL)을 생성할 수 있고, 차량 제어 모듈(170)은 프로세서(110)의 제어에 따라 차량 내 각 구동 장치(예컨대, 전원 구동 장치, 조향 구동 장치, 브레이크 구동 장치, 서스펜션 구동 장치, 핸들 구동 장치 등)에 구동 신호를 제공하여 자율주행 차량(100)의 중심이 가상의 중심선(CL)을 추종하도록 할 수 있다.
다시 도 11을 참조하면, 예컨대 프로세서(110)는 제2 도로 시설물(200b)에 인접한 제1 및 제2 가상라인(VL1, VL2)의 좌표의 평균값을 중심점(CP)의 좌표로 결정할 수 있다. 이에 따라, 제2 도로 시설물(200b)에 인접한 중심점(CP)의 좌표는 (x2+(△xb1+△xb2)/2, y2+(△yb1+△yb2)/2, z2+(△zb1+△zb2)/2)로 결정될 수 있다. 이와 같은 방법으로 각 도로 시설물(200a~200d)에 인접한 중심점(CP)의 좌표를 결정하고, 이를 연결하여 가상의 중심선(CL)을 생성할 수 있다.
프로세서(110)는 메모리(120)에 저장된 자율주행 차량(100)의 중심의 좌표가 중심선(CL)을 추종하도록 하는 제어 신호를 생성하여 차량 제어 모듈(170)에 제공할 수 있고, 차량 제어 모듈(170)은 제어 신호에 대응하는 구동 신호를 생성하여 차량 내 각 구동 장치에 제공할 수 있다.
차량의 중심의 좌표가 중심선(CL)을 추종하도록 하는 제어 방법으로는 대표적으로 MPC(Motion Predictive Control) 알고리즘이 이용될 수 있으나, 이 외에도 당해 기술분야에서 이용되는 다양한 방법이 적용될 수 있다.
가상 차선에 따라 주행하는 중에 자율주행 차량(100)은 가상 차선을 무선 네트워크를 통해 인접 차량에 송신할 수 있다.
앞서 언급한 바와 같이 본 발명의 자율주행 차량(100)은 V2V 통신을 통해 인접 차량과 무선 연결될 수 있다. 이 때, 자율주행 차량(100)은 네트워크 상에 연결된 복수의 인접 차량에게 자신이 생성한 가상 차선을 송신할 수 있다.
이에 따라, 전술한 본 발명의 기술이 적용되지는 않으나 가상 차선에 따라 자율 주행을 수행할 수 있는 인접 차량의 경우, 차선이 식별되지 않는 상황에서도 본 발명의 자율주행 차량(100)으로부터 가상 차선을 수신하고, 수신된 가상 차선에 따라 자율 주행할 수 있다.
부가적으로, 가상 차선에 따라 주행하는 중에 자율주행 차량(100)은 가상 차선을 HUD 모듈(152)을 통해 윈드 실드(wind shield, W)에 투사할 수 있다.
도 12를 참조하면, HUD 모듈(152)은 프로세서(110)의 제어에 따라 윈드 실드(W)에 가상 차선(VL1, VL2)의 이미지를 투사할 수 있다. 이 때, 윈드 실드(W)에 투사된 이미지는 일정 투명도를 가질 수 있어, 운전자는 투사된 이미지를 통해 가상 차선(VL1, VL2)을 식별할 수 있을 뿐만 아니라 전방에 대한 시야를 확보할 수 있다.
이에 따라, 운전자가 실제 차선에 대한 시야를 확보하지 못한 상황에서도 가상 차선을 확인할 수 있어 운전자의 편의성 및 주행 안정성을 향상시킬 수 있다.
이하에서는 도 13 및 도 14를 참조하여, 자율주행 차량(100)의 동작 방법을 각 예시에 따라 시계열적으로 설명하도록 한다.
먼저 도 13을 참조하면, 자율주행 차량(100)은 GPS 모듈(180)을 통해 위치 좌표를 획득하여 서버(300)로 송신할 수 있다(S110). 단계(S110)은 실시간으로 수행될 수 있다.
이러한 자율주행 차량(100)은 카메라(130) 및 센싱 모듈(160)을 통해 환경 정보를 획득할 수 있고(S120), 서버(300)로부터 기상 정보를 수신할 수 있다(S310).
자율주행 차량(100)은 획득된 환경 정보 및 수신된 기상 정보 중 적어도 하나에 기초하여 차선 식별 상태가 식별 불가 상태로 판단되면, 인접한 도로 시설물(200)에 요청 신호를 송신할 수 있다(S130).
이어서 자율주행 차량(100)은 요청 신호를 수신한 도로 시설물(200)로부터 위치 파라미터를 수신할 수 있고(S140), 수신된 위치 파라미터에 기초하여 가상 차선을 생성한 후(S150), 가상 차선에 따라 자율 주행할 수 있다(S150).
다음으로 도 14를 참조하면, 도 13에서 설명한 것과 마찬가지로 자율주행 차량(100)은 위치 좌표를 서버(300)에 송신할 수 있고(S110), 환경 정보를 획득할 수 있으며(S120), 서버(300)로부터 기상 정보를 수신할 수 있다(S310).
자율주행 차량(100)은 획득된 환경 정보 및 수신된 기상 정보 중 적어도 하나에 기초하여 차선 식별 상태가 식별 불가 상태로 판단되면, 서버(300)에 요청 신호를 송신할 수 있다(S130).
서버(300)는 자율주행 차량(100)의 위치 좌표에 인접한 적어도 하나의 도로 시설물(200)을 식별할 수 있고(S320), 식별된 도로 시설물(200)에 송신 개시 신호를 송신할 수 있다(S330).
송신 개시 신호를 수신한 도로 시설물(200)은 자율주행 차량(100)에 위치 파라미터를 송신할 수 있고(S210), 이를 수신한 자율주행 차량(100)은 수신 확인 신호를 서버(300)에 송신할 수 있다(S160).
이어서, 자율주행 차량(100)은 수신된 위치 파라미터에 기초하여 가상 차선을 생성한 후(S170), 가상 차선에 따라 자율 주행할 수 있다(S180).
각 단계가 수행되는 방법에 대해서는 도 7 내지 도 11을 참조하여 설명한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
상술한 바와 같이, 본 발명은 자율주행 차량이 도로 시설물의 위치에 기초하여 가상 차선을 생성하고 생성된 가상 차선에 따라 주행함으로써, 외부 요인에 의해 차선이 식별되지 않는 상황에서도 가상 차선을 생성할 수 있을 뿐만 아니라, 고정 설치된 도로 시설물의 위치와 도로 시설물과 실제 차선 사이의 상대적인 거리에 기초하여 가상 차선을 생성함으로써 가상 차선 생성의 정확도를 향상시킬 수 있다.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다
Claims (17)
- 가상 차선에 따라 자율 주행하는 자율주행 차량의 주행 방법에 있어서,무선 네트워크를 통해 요청 신호를 송신하는 단계;상기 요청 신호에 대한 응답으로, 인접한 도로 시설물로부터 상기 도로 시설물의 위치 파라미터를 수신하는 단계;상기 수신된 위치 파라미터에 기초하여 가상 차선을 생성하는 단계; 및상기 생성된 가상 차선을 따라 자율 주행하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는블루투스(Bluetooth), 비콘(Beacon), 와이파이(Wi-Fi) 중 적어도 하나의 근거리 무선 네트워크를 통해 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는환경 정보를 획득하는 단계와,상기 획득된 환경 정보에 기초하여 상기 가상 차선의 생성이 불가능한 것으로 판단되면 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제3항에 있어서,상기 환경 정보를 획득하는 단계는조도 센서를 통해 외부 조도값을 획득하는 단계를 포함하고,상기 획득된 환경 정보에 기초하여 상기 가상 차선의 생성이 불가능한 것으로 판단되면 상기 요청 신호를 송신하는 단계는상기 획득된 외부 조도값이 기준 조도값 미만이면 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제3항에 있어서,상기 환경 정보를 획득하는 단계는카메라를 통해 외부 영상을 획득하는 단계를 포함하고,상기 획득된 환경 정보에 기초하여 상기 가상 차선의 생성이 불가능한 것으로 판단되면 상기 요청 신호를 송신하는 단계는상기 촬영된 외부 영상에서 차선에 대응하는 오브젝트가 획득되지 않으면 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제3항에 있어서,상기 환경 정보를 획득하는 단계는우적 센서를 통해 우적량을 획득하는 단계를 포함하고,상기 획득된 환경 정보에 기초하여 상기 가상 차선의 생성이 불가능한 것으로 판단되면 상기 요청 신호를 송신하는 단계는상기 획득된 우적량이 기준 우적량 이상이면 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는서버로부터 상기 자율주행 차량의 위치 좌표에 대응하는 기상 정보를 수신하는 단계와,상기 수신된 기상 정보에 따라 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는차량용 HMI(Human Machine Interface)를 통해 사용자로부터 주행 모드를 입력받는 단계와,상기 입력된 주행 모드가 자율주행 모드이면 상기 요청 신호를 송신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는상기 요청 신호를 인접한 도로 시설물로 송신하는 단계를 포함하고,상기 인접한 도로 시설물은 상기 요청 신호에 응답하여 상기 위치 파라미터를 상기 자율주행 차량에 송신하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 무선 네트워크를 통해 요청 신호를 송신하는 단계는상기 요청 신호를 서버로 송신하는 단계를 포함하고,상기 서버는 상기 요청 신호에 응답하여 상기 자율주행 차량의 위치 좌표와 미리 설정된 거리 이내인 적어도 하나의 도로 시설물에 송신 개시 신호를 송신하고,상기 적어도 하나의 도로 시설물은 상기 송신 개시 신호에 응답하여 상기 위치 파라미터를 상기 자율주행 차량에 송신하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 도로 시설물의 위치 파라미터는 상기 도로 시설물의 3차원 위치 좌표 및 상기 도로 시설물과 인접한 복수의 차선 사이의 3차원 변위를 포함하는 자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 도로 시설물로부터 상기 도로 시설물의 위치 파라미터를 수신하는 단계는서버로부터 수신된 기상 정보, 인접 차량의 수 및 주행 속도 중 적어도 하나에 기초하여 설정되는 기준 주기에 따라 상기 도로 시설물의 위치 파라미터를 수신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 도로 시설물로부터 상기 도로 시설물의 위치 파라미터를 수신하는 단계는주행 도로의 곡률에 기초하여 설정되는 기준 주기에 따라 상기 도로 시설물의 위치 파라미터를 수신하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 위치 파라미터가 미리 설정된 시간 동안 수신되지 않으면 주행 모드를 수동주행 모드로 변환하는 단계를 더 포함하는 자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 수신된 위치 파라미터에 기초하여 가상 차선을 생성하는 단계는상기 위치 파라미터에 포함된 상기 도로 시설물의 3차원 위치 좌표 및 상기 도로 시설물과 복수의 차선 사이의 3차원 변위에 기초하여 상기 가상 차선을 생성하는 단계를 포함하는자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 생성된 가상 차선을 헤드 업 디스플레이(Head Up Display; HUD) 모듈을 통해 윈드 실드(wind shield)에 투사하는 단계를 더 포함하는 자율주행 차량의 주행 방법.
- 제1항에 있어서,상기 생성된 가상 차선을 무선 네트워크를 통해 인접 차량에 송신하는 단계를 더 포함하는 자율주행 차량의 주행 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2019/007612 WO2020262716A1 (ko) | 2019-06-24 | 2019-06-24 | 자율주행 차량의 주행 방법 |
US17/597,009 US20230174112A1 (en) | 2019-06-24 | 2019-06-24 | Travel method of autonomous vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2019/007612 WO2020262716A1 (ko) | 2019-06-24 | 2019-06-24 | 자율주행 차량의 주행 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020262716A1 true WO2020262716A1 (ko) | 2020-12-30 |
Family
ID=74061296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2019/007612 WO2020262716A1 (ko) | 2019-06-24 | 2019-06-24 | 자율주행 차량의 주행 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230174112A1 (ko) |
WO (1) | WO2020262716A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210323550A1 (en) * | 2020-04-21 | 2021-10-21 | Mando Corporation | Driver assistance apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015005132A (ja) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | 仮想レーン生成装置及びプログラム |
US20170010614A1 (en) * | 2015-02-10 | 2017-01-12 | Mobileye Vision Technologies Ltd. | Autonomous vehicle tail alignment navigation |
KR20170017203A (ko) * | 2015-08-05 | 2017-02-15 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
KR20180083745A (ko) * | 2017-01-13 | 2018-07-23 | (주) 세인 | 차량 및 도로시설물 정밀 위치정보 제공 시스템 |
KR101891725B1 (ko) * | 2016-11-18 | 2018-08-24 | 국민대학교산학협력단 | 단거리 레이더 센서 기반의 가상 차선 생성 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10048688B2 (en) * | 2016-06-24 | 2018-08-14 | Qualcomm Incorporated | Dynamic lane definition |
US20230222908A1 (en) * | 2016-08-18 | 2023-07-13 | Peter Yeung | Roadway information detection system consists of sensors on the autonomous vehicles and devices for the road |
JP2019191893A (ja) * | 2018-04-24 | 2019-10-31 | 本田技研工業株式会社 | 車両制御装置及びプログラム |
US10595176B1 (en) * | 2018-09-19 | 2020-03-17 | Denso International America, Inc. | Virtual lane lines for connected vehicles |
-
2019
- 2019-06-24 WO PCT/KR2019/007612 patent/WO2020262716A1/ko active Application Filing
- 2019-06-24 US US17/597,009 patent/US20230174112A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015005132A (ja) * | 2013-06-20 | 2015-01-08 | 株式会社豊田中央研究所 | 仮想レーン生成装置及びプログラム |
US20170010614A1 (en) * | 2015-02-10 | 2017-01-12 | Mobileye Vision Technologies Ltd. | Autonomous vehicle tail alignment navigation |
KR20170017203A (ko) * | 2015-08-05 | 2017-02-15 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
KR101891725B1 (ko) * | 2016-11-18 | 2018-08-24 | 국민대학교산학협력단 | 단거리 레이더 센서 기반의 가상 차선 생성 방법 |
KR20180083745A (ko) * | 2017-01-13 | 2018-07-23 | (주) 세인 | 차량 및 도로시설물 정밀 위치정보 제공 시스템 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210323550A1 (en) * | 2020-04-21 | 2021-10-21 | Mando Corporation | Driver assistance apparatus |
US12033402B2 (en) * | 2020-04-21 | 2024-07-09 | Hl Klemove Corp. | Driver assistance apparatus |
Also Published As
Publication number | Publication date |
---|---|
US20230174112A1 (en) | 2023-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018043820A1 (ko) | 기상 정보를 이용한 무인 비행체의 경로 안내 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 | |
WO2017196062A1 (en) | Distance sensor, and calibration method performed by device and system including the distance sensor | |
WO2019143040A1 (en) | Device and method for assisting with driving of vehicle | |
WO2020138516A1 (ko) | 통신 장치, 그것의 제어 방법 및 그것을 포함하는 통신 시스템 | |
WO2019209057A1 (en) | Method of determining position of vehicle and vehicle using the same | |
WO2012002645A2 (ko) | 차량항법장치와 초고속인터넷통신망을 이용한 지능형 교통관리 제어 방법 및 그 시스템 | |
EP3504094A1 (en) | Method for providing a sight securing image to vehicle, electronic apparatus and computer readable recording medium therefor | |
WO2021182655A1 (ko) | 경로 제공 장치 및 그것의 경로 제공 방법 | |
WO2022092685A1 (ko) | 최소 위험 조작을 수행하기 위한 차량 및 상기 차량의 작동 방법 | |
WO2020145441A1 (ko) | 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 | |
WO2014163307A1 (ko) | 자동차 자동 운행 시스템 | |
WO2018035997A1 (zh) | 前车路况显示系统及方法 | |
WO2013133464A1 (en) | Image display device and method thereof | |
WO2018143589A1 (ko) | 차선 정보를 출력하는 방법 및 장치 | |
WO2018182153A1 (ko) | 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법 | |
WO2020189832A1 (ko) | 자율주행 차량을 이용한 운송 서비스 제공 방법 | |
WO2019107782A1 (ko) | 정보 제공을 위한 시스템, 서버 및 방법 | |
WO2020040324A1 (ko) | 이동 its 스테이션 및 상기 이동 its 스테이션의 동작 방법 | |
WO2020145432A1 (ko) | Multi soc 시스템을 통해 차량을 제어하는 방법 | |
WO2020166749A1 (ko) | 차량을 이용한 정보 표시 방법 및 시스템 | |
WO2021002501A1 (ko) | 차량용 전자 장치 | |
WO2018043821A1 (ko) | 기상 정보를 이용한 무인 비행체의 경로 안내 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체 | |
WO2020189831A1 (ko) | 자율주행 차량의 모니터링 및 제어 방법 | |
WO2020262716A1 (ko) | 자율주행 차량의 주행 방법 | |
WO2021246534A1 (ko) | 경로 제공 장치 및 그것의 경로 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19935478 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19935478 Country of ref document: EP Kind code of ref document: A1 |