KR20230129076A - Method and apparatus for preventing collision with overloaded vehicle - Google Patents
Method and apparatus for preventing collision with overloaded vehicle Download PDFInfo
- Publication number
- KR20230129076A KR20230129076A KR1020220025745A KR20220025745A KR20230129076A KR 20230129076 A KR20230129076 A KR 20230129076A KR 1020220025745 A KR1020220025745 A KR 1020220025745A KR 20220025745 A KR20220025745 A KR 20220025745A KR 20230129076 A KR20230129076 A KR 20230129076A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- distance
- overloaded
- autonomous
- driving
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000002265 prevention Effects 0.000 claims description 2
- 238000009434 installation Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000013186 photoplethysmography Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/12—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
- B60W40/13—Load or weight
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
본 실시예들은 모든 분야의 자율 주행 차량(vehicle)에 적용 가능하며, 보다 구체적으로 예를 들면, 과적 화물을 적재한 전방 차량에 대응하여 자율 주행 차량의 충돌 방지를 유도하는 다양한 시스템에 적용될 수도 있다.The present embodiments are applicable to autonomous vehicles in all fields, and more specifically, for example, may be applied to various systems for inducing collision avoidance of an autonomous vehicle in response to a front vehicle loaded with overloaded cargo. .
미국 자동차 공학회인 SAE(Society of Automotive Engineers)는 자율 주행 레벨을 예를 들어 다음과 같이, 레벨0부터 레벨5까지 총 6단계로 세분화하고 있다.The American Society of Automotive Engineers, SAE (Society of Automotive Engineers), subdivides autonomous driving levels into six levels, from level 0 to level 5, for example, as follows.
레벨 0(비자동화, No Automation)은, 운전자가 주행의 모든 것을 통제하고 책임지는 단계이다. 운전자가 항시 운전하며, 자율 주행 차량의 시스템은 긴급상황 알림 등 보조 기능만을 수행한다. 주행 제어의 주체는 인간이며, 주행 중 변수 감지와 주행 책임도 인간에게 있는 레벨이다.Level 0 (No Automation) is a stage in which the driver controls and takes responsibility for everything in driving. The driver drives all the time, and the system of the self-driving vehicle performs only auxiliary functions such as emergency notification. The subject of driving control is human, and the responsibility for variable detection and driving while driving is also at the human level.
레벨 1(운전자 보조, Driver Assistance)은, 어뎁티브 크루즈 컨트롤, 차선유지 기능을 통해 운전자를 보조하는 단계이다. 시스템 활성화로 자율 주행 차량의 속도와 차간거리 유지, 차선 유지로 운전자를 보조한다. 주행 제어 주체는 인간과 시스템에 있으며, 주행 중에 발생하는 변수의 감지와 주행 책임은 모두 인간에게 있는 레벨이다.Level 1 (Driver Assistance) is a stage of assisting the driver through adaptive cruise control and lane keeping functions. By activating the system, it assists the driver by maintaining the speed and distance of the autonomous vehicle, and keeping the lane. The subject of driving control lies with the human and the system, and the responsibility for detecting variables that occur during driving and driving is all at the human level.
레벨 2(부분 자동화, Partial Automation)는, 특정 조건 내에서 일정 시간 동안 자율 주행 차량의 조향과 가감속을 자율 주행 차량이 인간과 동시에 제어할 수 있는 단계이다. 완만한 커브에서의 조향과 앞 차와의 간격을 유지하는 보조 주행이 가능하다. 그러나, 주행 중 변수 감지와 주행 책임은 인간에게 있는 레벨로, 운전자는 항상 주행 상황의 모니터링이 필요하며, 시스템이 인지하지 못하는 상황 등에서는 운전자가 즉시 운전에 개입해야 한다.Level 2 (partial automation) is a stage in which the autonomous vehicle can simultaneously control the steering and acceleration/deceleration of the autonomous vehicle with a human for a certain period of time under specific conditions. Steering on gentle curves and assisted driving to maintain a distance from the car in front are possible. However, variable detection and driving responsibility while driving are at the human level, and the driver always needs to monitor the driving situation, and the driver must immediately intervene in driving situations that the system does not recognize.
레벨 3(조건부 자율주행, Partial Automation)은, 고속도로와 같은 특정 조건의 구간에서 시스템이 주행을 담당하며, 위험 시에만 운전자가 개입하는 레벨이다. 주행 제어와 주행 중 변수 감지는 시스템이 담당하며, 레벨 2와 다르게 상기 모니터링을 요구하지 않는다. 다만, 시스템의 요구 조건을 넘어서는 경우, 시스템은 운전자의 즉시 개입을 요청한다.Level 3 (conditional automation) is a level in which the system takes charge of driving in sections under specific conditions, such as highways, and the driver intervenes only in case of danger. Driving control and detecting variables while driving are handled by the system, and unlike Level 2, the above monitoring is not required. However, if the system requirements are exceeded, the system requests the driver's immediate intervention.
레벨 4(고등 자율주행, High Automation)는, 대부분의 도로에서 자율주행이 가능하다. 주행 제어와 주행 책임이 모두 시스템에 있다. 제한 상황을 제외한 대부분의 도로에서 운전자 개입이 불필요하다. 다만, 악천후와 같은 특정 조건에서는 운전자 개입이 요청될 수 있기에 인간을 통한 주행 제어 장치가 필요한 단계이다.At level 4 (high automation), autonomous driving is possible on most roads. Both driving control and driving responsibility lie with the system. Driver intervention is unnecessary on most roads except in restricted situations. However, since driver intervention may be requested under specific conditions such as bad weather, a driving control device through a human is required.
레벨 5(완전 자율주행, Full Automation)는, 운전자가 불필요하며, 탑승자만으로 주행이 가능한 단계이다. 탑승자는 목적지만 입력하며, 시스템이 모든 조건에서 주행을 담당한다. 레벨 5 단계에서는 자율 주행 차량의 조향과 가속, 감속을 위한 제어 장치들이 불필요하다.Level 5 (full automation) is a stage in which a driver is not required and driving is possible with only passengers. The occupant only inputs the destination, and the system takes care of driving in all conditions. At level 5, control devices for steering, acceleration, and deceleration of autonomous vehicles are unnecessary.
최근 스마트 크루즈 컨트롤(SCC, Smart Cruise Control) 시스템을 적용한 자율 주행 차량이 증가하고 있다.Recently, autonomous vehicles to which a smart cruise control (SCC) system is applied are increasing.
스마트 크루즈 컨트롤 시스템이란, 레이더를 사용하여 전방 차량과의 차간 거리를 측정하여 차간 거리를 유지하도록 자율 주행 차량을 제어하는 시스템이다. A smart cruise control system is a system for controlling an autonomous vehicle to maintain an inter-vehicle distance by measuring an inter-vehicle distance with a vehicle in front using a radar.
그러나, 전방 차량이 대형 트럭으로, 후부 안전판을 불법으로 개조한 자율 주행 차량인 경우에도 차간 거리를 정확하게 측정하지 못하는 경우가 발생한다.However, even when the front vehicle is a large truck and an autonomous vehicle with illegally modified rear safety plates, the distance between vehicles cannot be accurately measured.
이렇게 차간 거리를 정확하게 측정하지 못하는 경우, 스마트 크루즈 컨트롤 시스템에서는 예상하는 것보다 전방 차량에 근접하여 자율 주행 차량을 제동할 수 있으며, 심한 경우 전방 차량과 충돌이 발생할 수 있다.If the distance between vehicles cannot be accurately measured, the smart cruise control system may brake the autonomous vehicle closer to the vehicle in front than expected, and in severe cases, a collision with the vehicle in front may occur.
이러한 이유들로 인하여 전방 차량과의 차간 거리에 오차가 발생한 경우, 이를 보정하여, 전방 차량과의 충돌을 방지하는 방법이 필요하다. For these reasons, when an error occurs in the inter-vehicle distance with the preceding vehicle, a method of preventing a collision with the preceding vehicle by correcting the error is required.
상술한 바와 같은 문제점 등을 해결하기 위해 본 발명의 일 실시예는, 과적 차량에 대한 위치 및 제원 정보를 받고 해당 정보를 통해 자율 주행 차량에서 과적 차량에 대한 가상 차량을 구현하여 전방 차량과의 충돌을 방지하는 전방 충돌 방지 장치를 제공하고자 한다.In order to solve the above-mentioned problems, an embodiment of the present invention receives location and specification information of an overloaded vehicle and implements a virtual vehicle for the overloaded vehicle in an autonomous vehicle through the corresponding information to prevent collision with a preceding vehicle. It is intended to provide a front collision avoidance device that prevents
본 발명에서 해결하고자 하는 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The problems to be solved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.
상술한 바와 같은 과제를 해결하기 위한 본 발명의 일 실시예들 중 어느 하나에 의한 과적 차량 충돌 방지 방법은, 전방 차량이 과적 자율 주행 차량인지 판단하고, 상기 과적 자율 주행 차량인 경우, 상기 전방 차량으로부터 GPS 정보, 자율 주행 차량 제원 정보를 수신하고, 상기 GPS 정보, 자율 주행 차량 제원 정보에 기초하여 상기 전방 차량에 대응하는 가상 차량을 생성하고, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하고, 판단된 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함한다.An overloaded vehicle collision prevention method according to any one of the embodiments of the present invention for solving the above problems is to determine whether a front vehicle is an overloaded autonomous driving vehicle, and if the overloaded autonomous vehicle is the front vehicle receiving GPS information and autonomous vehicle specification information from the GPS information and autonomous vehicle specification information, generating a virtual vehicle corresponding to the preceding vehicle based on the GPS information and autonomous vehicle specification information, and based on the virtual vehicle, a head-to-head distance to the preceding vehicle. and controlling to prevent a collision with the preceding vehicle based on the determined inter-vehicle distance with the preceding vehicle.
실시예에 따라, 상기 전방 차량이 과적 자율 주행 차량인지 판단하는 것은 레이더에 기초하여 상기 전방 차량과의 차간 거리를 감지하고, 상기 감지된 차간 거리 정보가 일정한지 판단하고, 상기 감지된 차간 거리 정보가 일정하지 않은 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하는 것을 포함한다.According to the embodiment, determining whether the front vehicle is an overloaded autonomous vehicle detects a headway distance to the front vehicle based on a radar, determines whether the detected headway distance information is constant, and determines whether the detected headway distance information and determining that the preceding vehicle is an overloaded self-driving vehicle when is not constant.
실시예에 따라, 상기 전방 차량이 과적 자율 주행 차량인지 판단하는 것은 카메라에 기초하여 상기 전방 차량의 후방 영상 데이터를 수신하고, 상기 후방 영상을 기저장된 자율 주행 차량 뒷모습 데이터와 비교하여 과적 화물을 인식하고, 상기 과적 화물을 인식하는 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하는 것을 포함한다.According to the embodiment, determining whether the front vehicle is an overloaded self-driving vehicle is performed by receiving rear image data of the front vehicle based on a camera, and comparing the rear image with pre-stored rear view data of the autonomous vehicle to recognize an overloaded cargo. and determining the front vehicle as an overloaded autonomous vehicle when recognizing the overloaded cargo.
실시예에 따라, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은 상기 자율 주행 차량으로부터 상기 가상 차량의 뒷범퍼까지의 거리를 차간 거리로 계산하는 것을 포함한다.According to an embodiment, determining the headway distance to the preceding vehicle based on the virtual vehicle includes calculating a distance from the self-driving vehicle to a rear bumper of the virtual vehicle as the headway distance.
실시예에 따라, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은 레이더를 통해 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는지 판단하는 것을 포함한다.According to an embodiment, determining the inter-vehicle distance to the preceding vehicle based on the virtual vehicle includes determining whether distance data actually sensed through a radar and distance data based on the virtual vehicle match.
실시예에 따라, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은 상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는 경우, 상기 실제 감지되는 거리 데이터를 상기 전방 차량의 뒷범퍼까지의 거리로 판단하는 것을 포함한다.According to the embodiment, determining the inter-vehicle distance to the front vehicle based on the virtual vehicle determines the actually sensed distance data to the front vehicle when the actually sensed distance data and the distance data based on the virtual vehicle match. It includes judging by the distance to the rear bumper of the vehicle.
실시예에 따라, 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것은 상기 가상 차량에 기초한 거리 데이터에 기초하여 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함한다.According to the embodiment, the controlling to prevent a collision with the preceding vehicle based on the inter-vehicle distance to the preceding vehicle includes controlling to prevent a collision with the preceding vehicle based on distance data based on the virtual vehicle. .
실시예에 따라, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은 상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하지 않는 경우, 상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터 중 상기 자율 주행 차량에 가까운 데이터를 과적 화물에 대응하는 차간 거리로 판단한다.According to an embodiment, determining the inter-vehicle distance to the preceding vehicle based on the virtual vehicle is determined when the actually sensed distance data and the distance data based on the virtual vehicle do not match, the actually sensed distance data and the distance data based on the virtual vehicle. Among the distance data based on the virtual vehicle, data close to the self-driving vehicle is determined as an inter-vehicle distance corresponding to the overloaded cargo.
실시예에 따라, 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것은 상기 과적 화물에 대응하는 차간 거리에 기초하여 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함한다.According to the embodiment, the controlling to prevent a collision with the preceding vehicle based on the inter-vehicle distance with the preceding vehicle includes controlling to prevent a collision with the preceding vehicle based on the inter-vehicle distance corresponding to the overloaded cargo. do.
본 발명의 실시예들 중 어느 하나에 의하면, 과적 화물을 적재한 과적 차량으로 인한 자율 주행 차량의 전방 차량이 제대로 인식되지 않아 자율 주행 차량과의 사고를 방지할 수 있는 과적 차량 충돌 방지 장치를 제공한다.According to any one of the embodiments of the present invention, an overloaded vehicle collision avoidance device capable of preventing an accident with an autonomous vehicle because a vehicle in front of the autonomous vehicle is not properly recognized due to an overloaded vehicle loaded with overloaded cargo is provided do.
본 발명의 실시예들 중 어느 하나에 의하면, 주변 자율 주행 차량의 존재 여부 및 이동 경로를 정확하게 예측할 수 있는 충돌 방지 장치를 제공하는 기술적 효과가 있다.According to any one of the embodiments of the present invention, there is a technical effect of providing an anti-collision device capable of accurately predicting the existence and movement path of surrounding self-driving vehicles.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 자율 주행 차량에 적용되는 예시를 보인 예시도이다.
도 3은 본 발명의 일 실시예에 따라 자율 주행 차량이 전방 차량과의 차간 거리를 정확하게 측정하지 못하는 경우의 일 예를 나타낸 도면이다.
도 4는 본 발명의 일 실시예들 중 어느 하나에 의한 전방 충돌 방지 장치를 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예들에 따른 가상 차량에 기초하여 과적 화물 차량과의 충돌 방지 상황을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 자율 주행 차량의 자율 주행 차량 과적 차량 충돌 방지 방법을 전체적으로 도시한 플로우 차트이다.1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to one of the embodiments of the present invention can be applied.
2 is an exemplary view showing an example in which an autonomous driving device according to any one of the embodiments of the present invention is applied to an autonomous vehicle.
3 is a diagram illustrating an example of a case where an autonomous vehicle cannot accurately measure an inter-vehicle distance to a vehicle in front according to an embodiment of the present invention.
4 is a view for explaining a front collision avoidance device according to any one of the embodiments of the present invention.
5 and 6 are views for explaining a collision avoidance situation with an overloaded cargo vehicle based on a virtual vehicle according to embodiments of the present invention.
7 is a flowchart showing a method for preventing an autonomous vehicle from colliding with an overloaded vehicle of an autonomous vehicle according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.
도 1은 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다. 도 2는 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 자율 주행 차량에 적용되는 예시를 보인 예시도이다.1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to one of the embodiments of the present invention can be applied. 2 is an exemplary view showing an example in which an autonomous driving device according to any one of the embodiments of the present invention is applied to an autonomous vehicle.
우선, 도 1 및 도 2를 참조하여 본 실시예들에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템(예를 들어, 자율 주행 차량)의 구조 및 기능에 대하여 설명한다.First, with reference to FIGS. 1 and 2 , the structure and function of an autonomous driving control system (eg, an autonomous vehicle) to which the autonomous driving device according to the present embodiments can be applied will be described.
도 1에 도시된 바와 같이, 자율 주행 차량(1000)은, 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 자율 주행 차량 제어 출력 인터페이스(401)를 통해 자율 주행 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다. 다만, 자율 주행 통합 제어부(600)를, 당해 명세서 상에서 컨트롤러, 프로세서 또는 간단히 제어부로 지칭할 수도 있다.As shown in FIG. 1 , an autonomous vehicle 1000 operates through a driving information input interface 101, a driving information input interface 201, a passenger output interface 301, and an autonomous vehicle control output interface 401. It can be implemented around the autonomous driving integrated control unit 600 that transmits and receives data necessary for autonomous driving control of the autonomous vehicle. However, the autonomous driving integrated controller 600 may also be referred to as a controller, a processor, or simply a controller in this specification.
자율 주행 통합 제어부(600)는 자율 주행 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 도시된 바와 같이, 주행 모드 스위치(110) 및 컨트롤 패널(120)(예를 들어, 자율 주행 차량에 장착된 네비게이션 단말, 탑승자가 소지한 스마트폰 또는 태블릿 PC 등등)을 포함할 수 있으며, 이에 따라 운전 정보는 자율 주행 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다.The autonomous driving integrated control unit 600 may obtain driving information according to a driver's manipulation of the user input unit 100 through the driving information input interface 101 in the autonomous driving mode or the manual driving mode of the autonomous vehicle. As shown in FIG. 1, the user input unit 100 includes a driving mode switch 110 and a control panel 120 (eg, a navigation terminal mounted on an autonomous vehicle, a smartphone or tablet PC owned by a passenger, etc.) ), and thus the driving information may include driving mode information and navigation information of the autonomous vehicle.
예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 자율 주행 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드 또는 스포츠 모드(Sports Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운정 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.For example, the driving mode of the autonomous vehicle (ie, autonomous driving mode/manual driving mode or sports mode/eco mode/ Safe Mode/Normal Mode) may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 101 as the driving information.
또한, 탑승자가 컨트롤 패널(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.In addition, navigation information such as the passenger's destination input by the passenger through the control panel 120 and the route to the destination (the shortest route or preferred route selected by the passenger among the candidate routes to the destination) is driving information. It can be transmitted to the autonomous driving integrated control unit 600 through the input interface 101 .
한편, 컨트롤 패널(120)은 자율 주행 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI (User Interface)를 제공하는 터치 스크린 패널로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 컨트롤 패널(120) 상의 터치 버튼으로 구현될 수도 있다.Meanwhile, the control panel 120 may be implemented as a touch screen panel that provides a user interface (UI) for a driver to input or modify information for autonomous driving control of an autonomous vehicle. In this case, the aforementioned driving mode switch 110 may be implemented as a touch button on the control panel 120 .
또한, 자율 주행 통합 제어부(600)는 자율 주행 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 자율 주행 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 자율 주행 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 바와 같이, 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다.In addition, the autonomous driving integrated control unit 600 may obtain driving information indicating a driving state of the autonomous vehicle through the driving information input interface 201 . The driving information includes the steering angle formed by the occupant operating the steering wheel, the stroke of the accelerator pedal or the brake pedal formed by depressing the accelerator or brake pedal, and the behavior formed in the autonomous vehicle, such as vehicle speed, acceleration, and yaw. , pitch and roll, etc. may include various information representing the driving state and behavior of the autonomous vehicle, and each driving information, as shown in FIG. It can be detected by the driving information detection unit 200 including a (pedal travel sensor) 220, a vehicle speed sensor 230, an acceleration sensor 240, and a yaw/pitch/roll sensor 250.
나아가, 자율 주행 차량의 주행 정보는 자율 주행 차량의 위치 정보를 포함할 수도 있으며, 자율 주행 차량의 위치 정보는 자율 주행 차량에 적용된 GPS(Global Positioning System) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 자율 주행 차량의 자율 주행 모드 또는 수동 주행 모드에서 자율 주행 차량의 주행을 제어하기 위해 활용될 수 있다.Furthermore, the driving information of the autonomous vehicle may include location information of the autonomous vehicle, and the location information of the autonomous vehicle may be obtained through a Global Positioning System (GPS) receiver 260 applied to the autonomous vehicle. Such driving information may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 201 and used to control driving of the autonomous vehicle in an autonomous driving mode or a manual driving mode.
또한, 자율 주행 통합 제어부(600)는 자율 주행 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 자율 주행 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 자율 주행 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 자율 주행 차량의 주행 모드, 변속 레인지, 차속 등 자율 주행 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다.In addition, the autonomous driving integrated control unit 600 may transmit driving state information provided to passengers in the autonomous driving mode or the manual driving mode of the autonomous vehicle to the output unit 300 through the passenger output interface 301 . That is, the self-driving integrated control unit 600 transmits the driving state information of the autonomous vehicle to the output unit 300 so that the driver can autonomously drive the autonomous vehicle based on the driving state information output through the output unit 300. state or manual driving state may be checked, and the driving state information may include various information indicating the driving state of the autonomous vehicle, such as the current driving mode, shift range, and vehicle speed of the autonomous vehicle.
또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 자율 주행 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 바와 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 컨트롤 패널(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.In addition, when it is determined that a driver needs to be warned in the autonomous driving mode or manual driving mode of the autonomous vehicle along with the driving state information, the autonomous driving integrated control unit 600 sends warning information through the passenger output interface 301. It is transmitted to the output unit 300 so that the output unit 300 outputs a warning to the driver. In order to audibly and visually output such driving state information and warning information, the output unit 300 may include a speaker 310 and a display device 320 as shown in FIG. 1 . At this time, the display device 320 may be implemented as the same device as the aforementioned control panel 120 or may be implemented as a separate and independent device.
또한, 자율 주행 통합 제어부(600)는 자율 주행 차량의 자율 주행 모드 또는 수동 주행 모드에서 자율 주행 차량의 주행 제어를 위한 제어 정보를 자율 주행 차량 제어 출력 인터페이스(401)를 통해 자율 주행 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 자율 주행 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 바와 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 자율 주행 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 자율 주행 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 자율 주행 차량의 제동력을 조절하여 자율 주행 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 자율 주행 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 자율 주행 차량의 조향을 제어할 수 있다.In addition, the autonomous driving integrated control unit 600 transmits control information for driving control of the autonomous vehicle in the autonomous driving mode or manual driving mode of the autonomous vehicle through the autonomous vehicle control output interface 401 to the lower level applied to the autonomous vehicle. It can be transmitted to the control system 400. As shown in FIG. 1 , the sub-control system 400 for driving control of an autonomous vehicle may include an engine control system 410, a braking control system 420, and a steering control system 430, and autonomous driving. The integrated control unit 600 may transmit engine control information, braking control information, and steering control information as the control information to each lower control system 410, 420, and 430 through the autonomous vehicle control output interface 401. Accordingly, the engine control system 410 may increase or decrease fuel supplied to the engine to control vehicle speed and acceleration of the autonomous vehicle, and the braking control system 420 may control the braking force of the autonomous vehicle for autonomous driving. Braking of the vehicle may be controlled, and the steering control system 430 may control steering of the autonomous vehicle through a steering device (eg, a motor driven power steering (MDPS) system) applied to the autonomous vehicle.
상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 자율 주행 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 자율 주행 알고리즘에 따라 생성되는 제어 정보를 자율 주행 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 자율 주행 차량의 주행 제어가 이루어지도록 동작할 수 있다.As described above, the autonomous driving integrated control unit 600 of the present embodiment provides driving information according to the driver's manipulation and driving information representing the driving state of the autonomous vehicle through the driving information input interface 101 and the driving information input interface 201. may be acquired, and driving state information and warning information generated according to the autonomous driving algorithm may be transmitted to the output unit 300 through the occupant output interface 301, and control information generated according to the autonomous driving algorithm may be transmitted to the driver output interface 301. It can be transmitted to the lower control system 400 through the vehicle control output interface 401 and operated to control the driving of the autonomous vehicle.
한편, 자율 주행 차량의 안정적인 자율 주행을 보장하기 위해서는 자율 주행 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 바와 같이 주변 자율 주행 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 자율 주행 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. On the other hand, in order to ensure stable autonomous driving of an autonomous vehicle, it is necessary to continuously monitor the driving state by accurately measuring the driving environment of the autonomous vehicle and control the driving according to the measured driving environment. As shown in FIG. 1, the autonomous driving device includes a sensor unit for detecting objects around the autonomous vehicle, such as surrounding autonomous vehicles, pedestrians, roads, or fixed facilities (eg, traffic lights, milestones, traffic signs, construction fences, etc.) 500) may be included.
센서부(500)는 도 1에 도시된 바와 같이 자율 주행 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.As shown in FIG. 1 , the sensor unit 500 may include one or more of a lidar sensor 510, a radar sensor 520, and a camera sensor 530 to detect surrounding objects outside the self-driving vehicle. .
라이다 센서(510)는 자율 주행 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율 주행 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 자율 주행 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The lidar sensor 510 can detect surrounding objects outside the self-driving vehicle by transmitting a laser signal to the surroundings of the self-driving vehicle and receiving a signal that is reflected and returned to the object. A surrounding object located within a set distance, a set vertical field of view, and a set vertical field of view may be detected. The lidar sensor 510 may include a front lidar sensor 511, an upper lidar sensor 512, and a rear lidar sensor 513 installed on the front, top, and rear of the autonomous vehicle, respectively. The installation location and the number of installations are not limited to specific embodiments. A threshold value for determining the validity of the laser signal reflected by the corresponding object and returned may be stored in advance in a memory (not shown) of the autonomous driving integrated control unit 600, and the autonomous driving integrated control unit 600 is a lidar sensor. The location (including the distance to the object), speed, and direction of movement of the object may be determined by measuring the time for the laser signal transmitted through 510 to be reflected by the object and return.
레이더 센서(520)는 자율 주행 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율 주행 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 자율 주행 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The radar sensor 520 can detect surrounding objects outside the self-driving vehicle by radiating electromagnetic waves around the self-driving vehicle and receiving a signal reflected back by the object, and a set distance predefined according to the specification. , it is possible to detect surrounding objects located within the range of the set vertical angle of view and the set horizontal angle of view. The radar sensor 520 includes a front radar sensor 521, a left radar sensor 521, a right radar sensor 522, and a rear radar sensor 523 installed on the front, left side, right side, and rear of the autonomous vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The autonomous driving integrated control unit 600 determines the location (including the distance to the corresponding object), speed, and direction of movement of the object through a method of analyzing the power of electromagnetic waves transmitted and received through the radar sensor 520. can do.
카메라 센서(530)는 자율 주행 차량 주변을 촬상하여 자율 주행 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.The camera sensor 530 may detect surrounding objects outside the self-driving vehicle by capturing an image around the self-driving vehicle, and detect surrounding objects located within a range of a preset distance, a set vertical angle of view, and a set horizontal angle of view according to the specifications thereof. can be detected.
카메라 센서(530)는 자율 주행 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.The camera sensors 530 include a front camera sensor 531, a left camera sensor 532, a right camera sensor 533, and a rear camera sensor 534 installed on the front, left side, right side, and rear of the autonomous vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The self-driving integrated controller can determine the location (including the distance to the object), speed, and direction of movement of the object by applying predefined image processing to the image captured through the camera sensor 530. there is.
또한, 자율 주행 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 자율 주행 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.In addition, an internal camera sensor 535 for capturing an image inside the self-driving vehicle may be mounted at a predetermined location (eg, a rear view mirror) inside the autonomous vehicle, and the autonomous driving integrated control unit 600 may be equipped with an internal camera sensor A guide or warning may be output to the occupant through the above-described output unit 300 by monitoring the occupant's behavior and condition based on the image obtained through step 535.
라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 바와 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 자율 주행 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. In addition to the lidar sensor 510, the radar sensor 520, and the camera sensor 530, the sensor unit 500 may further include an ultrasonic sensor 540 as shown in FIG. 1, along with autonomous driving. Various types of sensors for detecting objects around the vehicle may be further employed in the sensor unit 500 .
도 2는 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 자율 주행 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 자율 주행 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 자율 주행 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. FIG. 2 shows that a front lidar sensor 511 or a front radar sensor 521 is installed on the front of an autonomous vehicle, and a rear lidar sensor 513 or a rear radar sensor 524 is installed to help understand the present embodiment. The front camera sensor 531, the left camera sensor 532, the right camera sensor 533, and the rear camera sensor 534 are installed at the rear of the driving vehicle, respectively, on the front, left side, right side, and rear side of the autonomous vehicle. Although an installed example is shown, as described above, the installation position and number of installations of each sensor are not limited to a specific embodiment.
나아가, 센서부(500)는 자율 주행 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.Furthermore, the sensor unit 500 detects the occupant's vital signs (eg, heart rate, electrocardiogram, respiration, blood pressure, body temperature, brain wave, blood flow (pulse wave), blood sugar, etc.) It may further include a biosensor for processing, and the biosensors may include a heart rate sensor, an electrocardiogram sensor, a respiration sensor, a blood pressure sensor, a body temperature sensor, an electroencephalogram sensor, a photoplethysmography sensor, and a blood sugar sensor. can
마지막으로, 센서부(500)는 마이크(550)를 추가적으로 부가하고 있으며, 내부 마이크(551) 및 외부 마이크(552)는 각각 다른 용도를 위해 사용된다.Finally, the sensor unit 500 additionally adds a microphone 550, and the internal microphone 551 and the external microphone 552 are used for different purposes.
내부 마이크(551)는, 예를 들어 자율 주행 차량(1000)에 탑승한 탑승자의 음성을 AI 등에 기반하여 분석하거나 또는 직접적인 음성 명령에 즉각적으로 반응하기 위해 사용될 수 있다.The internal microphone 551 may be used, for example, to analyze the voice of a passenger in the autonomous vehicle 1000 based on AI or to immediately respond to a direct voice command.
반면, 외부 마이크(552)는, 예를 들어 자율 주행 차량(1000)의 외부에서 발생하는 다양한 소리를 딥러닝등 다양한 분석툴로 분석하여 안전 운행 등에 적절히 대응하기 위한 용도로 사용될 수가 있다.On the other hand, the external microphone 552 can be used, for example, to respond appropriately to safe driving by analyzing various sounds generated from the outside of the autonomous vehicle 1000 with various analysis tools such as deep learning.
참고로, 도 2에 도시된 부호는 도 1에 도시된 부호와 동일 또는 유사한 기능을 수행할 수 있으며, 도 2는 도 1과 비교하여 각 구성요소들의 상대적 위치관계(자율 주행 차량(1000) 내부를 기준으로)를 보다 상세히 예시하였다.For reference, the symbols shown in FIG. 2 may perform the same or similar functions as those shown in FIG. 1, and FIG. 2 shows the relative positional relationship of each component compared to FIG. Based on) was illustrated in more detail.
도 3은 본 발명의 일 실시예에 따라 자율 주행 차량이 전방 차량과의 차간 거리를 정확하게 측정하지 못하는 경우의 일 예를 나타낸 도면이다.3 is a diagram illustrating an example of a case where an autonomous vehicle cannot accurately measure an inter-vehicle distance with a vehicle in front according to an embodiment of the present invention.
도 3를 참조하면, 전방 차량(3000)은 과적 화물이 적재된 트레일러로, 기존의 자율 주행 차량(1000)의 차간 거리 측정은 레이더가 자율 주행 차량(1000)의 후방 또는 트레일러의 바퀴 부분을 검지하여 차간 거리를 측정하였다. 따라서, 자율 주행 차량(1000)의 스마트 크루즈 컨트롤 시스템은 자율 주행 차량(1000)을 제동하는 시기에 오류가 발생하여 차간 거리가 불량해지는 경우가 발생하였다.Referring to FIG. 3, the front vehicle 3000 is a trailer loaded with overloaded cargo, and in the measurement of the vehicle-to-vehicle distance of the existing autonomous vehicle 1000, the radar detects the rear of the autonomous vehicle 1000 or the wheel portion of the trailer. to measure the distance between vehicles. Therefore, the smart cruise control system of the self-driving vehicle 1000 may have an error at the time of braking the self-driving vehicle 1000, resulting in a poor inter-vehicle distance.
특히, 전방 차량(3000)의 차고가 높거나 적재 화물이 후면을 돌출되어 있다면, 자율 주행 차량(1000) 내의 레이더와 카메라만으로는 전방 차량(3000)의 적재 화물이 자율 주행 차량(1000) 외부로 돌출되는 경우 정확한 거리를 잡지 못하는 문제점이 발생하였다.In particular, if the height of the front vehicle 3000 is high or the loaded cargo protrudes from the rear, the loaded cargo of the front vehicle 3000 protrudes outside the autonomous vehicle 1000 using only the radar and camera in the self-driving vehicle 1000. In this case, there was a problem that the exact distance could not be set.
즉, 자율 주행 차량(1000)의 레이더는 전방 차량(3000)의 과적 화물로부터 튀어나온 물체 끝 부분 또는 전방 차량(3000)의 뒷범퍼까지의 거리를 반복해서 측정하게 되므로 차간 거리의 신뢰성이 낮아서 정확한 타겟이라고 감지하지 않는 상황이 발생하였다.That is, since the radar of the self-driving vehicle 1000 repeatedly measures the distance from the end of an object protruding from the overloaded cargo of the front vehicle 3000 or to the rear bumper of the front vehicle 3000, the reliability of the vehicle-to-vehicle distance is low and accurate A situation in which the target is not detected has occurred.
도 4는 본 발명의 일 실시예들 중 어느 하나에 의한 전방 충돌 방지 장치를 설명하기 위한 도면이다.4 is a view for explaining a front collision avoidance device according to any one of the embodiments of the present invention.
도 4를 참조하면, 충돌 방지 장치(2000)는 통신부(2100)(2100), 센서부(2200), 적재 화물 검출부(2300), 차간 거리 산출부(2400), 프로세서부(2500)를 포함할 수 있다.Referring to FIG. 4 , the collision avoidance device 2000 may include a communication unit 2100 and 2100, a sensor unit 2200, a loaded cargo detection unit 2300, a headway distance calculation unit 2400, and a processor unit 2500. can
통신부(2100)(2100)는 본 발명에 따른 자율 주행 차량(1000)의 충돌 방지 제어를 위해 외부 자율 주행 차량(1000)과 통신할 수 있다. 예컨대, 통신부(2100)(2100)는 외부 자율 주행 차량(1000)으로부터 GPS 정보, 자율 주행 차량(1000) 제원 정보를 수신한 할 수 있다. 통신부(2100)(2100)는 외부 자율 주행 차량(1000)과 V2V 통신을 통해 데이터를 송수신할 수 있다. The communication unit 2100 (2100) may communicate with an external autonomous vehicle 1000 for collision avoidance control of the autonomous vehicle 1000 according to the present invention. For example, the communication unit 2100 (2100) may receive GPS information and specification information of the autonomous vehicle 1000 from an external autonomous vehicle 1000. The communication unit 2100 (2100) may transmit and receive data with the external self-driving vehicle 1000 through V2V communication.
센서부(2200)는 주행 정보 검출부(2210), 객체 인식부(2220)를 포함할 수 있다.The sensor unit 2200 may include a driving information detection unit 2210 and an object recognition unit 2220.
주행 정보 검출 장치(2210)는 차속 센서, 조향각 센서 및 측위 센서를 포함할 수 있다. 차속 센서는 자율 주행 차량(1000)의 주행 속도를 센싱하고, 조향각 센서는 조향 휠(steering wheel)의 조정에 따라 형성되는 조향각을 센싱하며, 측위 센서는 GPS(Global Positioning System) 수신기를 포함할 수 있고, 이를 통해 자율 주행 차량(1000)의 GPS 좌표를 획득할 수 있다.The driving information detection device 2210 may include a vehicle speed sensor, a steering angle sensor, and a positioning sensor. The vehicle speed sensor senses the driving speed of the autonomous vehicle 1000, the steering angle sensor senses a steering angle formed by adjusting a steering wheel, and the positioning sensor may include a Global Positioning System (GPS) receiver. There is, through which the GPS coordinates of the self-driving vehicle 1000 can be obtained.
객체 인식부(2220)는 자율 주행 차량(1000) 주변의 객체를 인식하기 위한 것으로서, 카메라 센서, 레이더 센서 및 라이다 센서 중 적어도 하나를 포함할 수 있다. The object recognizing unit 2220 is for recognizing an object around the autonomous vehicle 1000 and may include at least one of a camera sensor, a radar sensor, and a LIDAR sensor.
카메라 센서는 자율 주행 차량(1000) 주변을 촬상하여 자율 주행 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.The camera sensor can capture an image around the self-driving vehicle 1000 and detect surrounding objects outside the self-driving vehicle 1000, located within a predefined set distance, set vertical angle of view and set horizontal angle of view range according to its specifications. It can detect nearby objects.
카메라 센서는 자율 주행 차량(1000)의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서, 좌측 카메라 센서, 우측 카메라 센서 및 후방 카메라 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 차량(1000)의 프로세서부(2500)는 카메라 센서를 통해 촬상된 영상에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.The camera sensors may include a front camera sensor, a left camera sensor, a right camera sensor, and a rear camera sensor installed on the front, left side, right side, and rear side of the autonomous vehicle 1000, respectively. It is not limited to a specific embodiment. The processor unit 2500 of the self-driving vehicle 1000 applies predefined image processing to an image captured through a camera sensor, thereby determining the location (including the distance to the corresponding object), speed, and direction of movement of the object. etc. can be judged.
또한, 자율 주행 차량(1000) 내부를 촬상하기 위한 내부 카메라 센서가 자율 주행 차량(1000)의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 차량(1000)의 프로세서부(2500)는 내부 카메라 센서를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 자율 주행 차량(1000) 내 출력부를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.In addition, an internal camera sensor for capturing an image of the inside of the self-driving vehicle 1000 may be mounted at a predetermined location (eg, a rear view mirror) inside the self-driving vehicle 1000, and the processor of the self-driving vehicle 1000 The unit 2500 may output a guide or warning to the occupant through an output unit in the self-driving vehicle 1000 by monitoring the behavior and condition of the occupant based on the image acquired through the internal camera sensor.
레이더 센서는 자율 주행 차량(1000) 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율 주행 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서는 자율 주행 차량(1000)의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서, 좌측 레이더 센서, 우측 레이더 센서 및 후방 레이더 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 차량(1000)의 프로세서부(2500)는 레이더 센서를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The radar sensor can detect surrounding objects outside the self-driving vehicle 1000 by radiating electromagnetic waves around the self-driving vehicle 1000 and receiving a signal reflected back by the object, and is predefined according to its specifications. It is possible to detect surrounding objects located within the set distance, set vertical angle of view and set horizontal angle of view. The radar sensors may include a front radar sensor, a left radar sensor, a right radar sensor, and a rear radar sensor installed on the front, left side, right side, and rear side of the autonomous vehicle 1000, respectively, but the installation location and number of installations may vary. It is not limited to a specific embodiment. The processor unit 2500 of the self-driving vehicle 1000 analyzes the power of electromagnetic waves transmitted and received through the radar sensor to determine the location of the object (including the distance to the object), speed, and direction of movement. can judge
라이다 센서는 자율 주행 차량(1000) 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율 주행 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Horizontal Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다.라이다 센서는 자율 주행 차량(1000)의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서, 상부 라이다 센서 및 후방 라이다 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다.해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 차량(1000)의 프로세서부(2500)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 자율 주행 차량(1000)의 프로세서부(2500)는 라이다 센서를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The lidar sensor can detect surrounding objects outside the self-driving vehicle 1000 by transmitting a laser signal to the surroundings of the self-driving vehicle 1000 and receiving a signal reflected back by the object, and according to its specifications, in advance. A surrounding object located within a defined set distance, a set vertical field of view, and a set horizontal field of view may be detected. The lidar sensor is a front and upper part of the self-driving vehicle 1000. and a front lidar sensor, an upper lidar sensor, and a rear lidar sensor installed on the rear side, but the installation position and number of the lidar sensors are not limited to a specific embodiment. The laser signal reflected from the corresponding object and returned A threshold value for determining the validity of may be previously stored in a memory (not shown) of the processor unit 2500 of the autonomous vehicle 1000, and the processor unit 2500 of the autonomous vehicle 1000 is The location (including the distance to the object), speed, and direction of movement of the object can be determined by measuring the time for the laser signal transmitted through the sensor to be reflected by the object and return.
카메라 센서, 레이더 센서 및 라이다 센서뿐만 아니라, 객체 인식부(2220)는 초음파 센서를 더 포함할 수도 있으며, 이와 함께 자율 주행 차량(1000)의 주변 객체를 검출하기 위한 다양한 형태의 센서가 객체 인식부(2220)에 더 채용될 수도 있다.In addition to the camera sensor, radar sensor, and lidar sensor, the object recognizer 2220 may further include an ultrasonic sensor, and various types of sensors for detecting objects around the self-driving vehicle 1000 may recognize objects. It may be further employed in section 2220.
적재 화물 검출부(2300)는 자율 주행 차량(1000)의 적재율을 검출할 수 있다. 또한, 적재 화물 검출부(2300)는 전방 차량(3000)에 대한 적재율을 검출할 수 있다. 전방 차량(3000)의 적재율에 대한 정보는 통신부(2100)(2100)를 통해 획득될 수 있다.The loaded cargo detector 2300 may detect a loading rate of the autonomous vehicle 1000 . Also, the loaded cargo detector 2300 may detect a loading rate of the front vehicle 3000 . Information on the load factor of the front vehicle 3000 may be acquired through the communication unit 2100 (2100).
한편, 적재 화물 검출부(2300)는 차량 후방 모습 데이터를 미리 빅데이터화 하여 저장할 수 있다. 적재 화물 검출부(2300)는 자율 주행 차량(1000)의 카메라로부터 수신한 전방 차량(3000)의 영상에서 자율 주행 차량(1000)의 후방으로 물체가 튀어나와 있거나 가려져 있을 경우 돌출된 적재 화물을 검출할 수 있다.On the other hand, the loaded cargo detection unit 2300 may convert the data of the rear view of the vehicle into big data in advance and store it. The loaded cargo detection unit 2300 detects the protruding loaded cargo when an object protrudes or is hidden from the rear of the autonomous vehicle 1000 in the image of the front vehicle 3000 received from the camera of the autonomous vehicle 1000. can
차간 거리 산출부(2400)는 자율 주행 차량(1000)에 장착된 레이더나 광학 카메라로부터 전방 차량과의 차간 거리, 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보를 획득한다.The head-to-head distance calculation unit 2400 provides information on at least one of the head-to-head distance with the vehicle in front, the relative speed with the vehicle in front, or the speed of the vehicle in front 3000 from a radar or an optical camera mounted on the autonomous vehicle 1000. Acquire
레이더나 광학 카메라는 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보 및 전방 차량과의 차간거리를 실시간으로 측정한다. 레이더나 광학 카메라는 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보 및 전방 차량과의 차간 거리를 주기적으로 또는 비 주기적으로도 측정할 수 있다. 예를 들어 레이더는 50ms를 한 주기로 하여 한 주기마다 한 번씩 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보 및 전방 차량과의 차간 거리를 측정할 수 있다.The radar or optical camera measures information on at least one of a relative speed with the preceding vehicle or the speed of the preceding vehicle 3000 and a head-to-head distance with the preceding vehicle in real time. The radar or optical camera may periodically or non-periodically measure information on at least one of the relative speed with the preceding vehicle or the speed of the preceding vehicle 3000 and the inter-vehicle distance with the preceding vehicle. For example, the radar may measure information on at least one of the relative speed with the preceding vehicle or the speed of the preceding vehicle 3000 and the distance between the vehicle and the preceding vehicle once per cycle with a period of 50 ms.
차간 거리 산출부(2400)가 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보 및 전방 차량과의 차간 거리를 획득하는 것은 반드시 자율 주행 차량(1000)에 장착된 레이더나 광학 카메라로부터 획득하는 것에 한정되는 것은 아니며, 자율 주행 차량(1000)에 설치된 다양한 센서로부터 획득할 수 있다.The headway distance calculation unit 2400 acquires information on at least one of the relative speed with the preceding vehicle or the speed of the preceding vehicle 3000 and the headway distance with the preceding vehicle must be installed in the autonomous vehicle 1000. It is not limited to acquisition from a radar or optical camera, and may be obtained from various sensors installed in the self-driving vehicle 1000.
차간 거리 산출부(2400)는 레이더나 광학 카메라에서 측정대상인 전방 차량(3000)이 동일한지 여부를 판단한다. 즉, 레이더라 한 주기마다 한 번씩 전방 차량과의 상대속도 또는 전방 차량(3000)의 속도 중 적어도 어느 하나에 관한 정보 및 전방 차량과의 차간 거리를 측정하는 경우, 이전 주기에 측정 대상인 자율 주행 차량(1000)과 현재 측정 대상인 자율 주행 차량(1000)이 동일한지 여부를 판단한다.The headway distance calculation unit 2400 determines whether the front vehicle 3000, which is a measurement target, is the same in a radar or an optical camera. That is, when the radar measures information on at least one of the relative speed with the preceding vehicle or the speed of the preceding vehicle 3000 once per cycle and the distance between the vehicle in front and the preceding vehicle, the self-driving vehicle that is the subject of measurement in the previous cycle It is determined whether 1000 and the self-driving vehicle 1000, which is a current measurement target, are the same.
만약, 전방 차량(3000)이 동일하지 않은 경우에는, 레이더 또는 광학 카메라의 측정 대상이 변경되어 차간 거리와 상대속도에 불연속점이 발생하게 되는바 물리적 한계를 설정하여 차간 거리를 산출하는 것이 오히려 잘못된 값을 산출 할 수 있다.If the front vehicle 3000 is not the same, the measurement target of the radar or optical camera is changed, resulting in a discontinuity between the head-to-head distance and the relative speed. Therefore, calculating the head-to-head distance by setting a physical limit is rather an erroneous value. can be calculated.
프로세서부(2500)는 전방 차량(3000)이 과적 차량인지 판단할 수 있다. 프로세서부(2500)는 센서부(2200)로부터 수신한 카메라의 감지 데이터에 기초하여 자율 주행 차량(1000)의 전방 도로에 주행하는 전방 차량(3000) 및 상기 전방 차량(3000)의 적재 화물을 감지할 수 있다.The processor unit 2500 may determine whether the preceding vehicle 3000 is an overloaded vehicle. The processor unit 2500 detects the front vehicle 3000 traveling on the road in front of the self-driving vehicle 1000 and the loaded cargo of the front vehicle 3000 based on the detection data of the camera received from the sensor unit 2200. can do.
프로세서부(2500)는 감지된 전방 차량(3000)의 적재 화물과 기저장된 데이터를 비교하여 적재 화물이 상기 전방 차량(3000)의 후면으로 돌출 되어있는지 판단할 수 있다. 이때, 프로세서부(2500)는 메모리부(미도시)로부터 차량 후방 모습 데이터를 빅데이터화 하여 저장한 데이터를 수신할 수 있다. 차량 후방 모습 은 일반적인 트럭 모양이지만 적재 화물들의 물체가 후면으로 튀어나와 있거나 가려져 있을 경우를 포함할 수 있다. The processor unit 2500 may determine whether the loaded cargo protrudes from the rear of the front vehicle 3000 by comparing the detected loaded cargo of the front vehicle 3000 with previously stored data. At this time, the processor unit 2500 may receive data stored by converting the data of the rear view of the vehicle into big data from the memory unit (not shown). The rear view of the vehicle is a typical truck shape, but may include a case where objects of the loaded cargo protrude or are obscured from the rear.
프로세서부(2500)는 적재 화물이 상기 전방 차량(3000)의 후면으로 돌출되어 있는 경우, 전방 차량(3000)을 과적 화물 자율 주행 차량(1000)으로 판단할 수 있다.The processor unit 2500 may determine that the front vehicle 3000 is an overloaded self-driving vehicle 1000 when loaded cargo protrudes from the rear of the front vehicle 3000 .
프로세서부(2500) 레이더에 기초하여 상기 전방 차량(3000)과의 차간 거리를 감지할 수 있다. 그리고, 프로세서부(2500)는 센서부(2200)로부터 수신한 레이더의 감지 데이터에 기초하여 전방 차량(3000)과의 거리를 계산할 수 있다. 이후, 프로세서부(2500) 상기 감지된 차간 거리 정보가 일정한지 판단할 수 있다.The processor unit 2500 may detect an inter-vehicle distance to the preceding vehicle 3000 based on the radar. Also, the processor unit 2500 may calculate the distance to the preceding vehicle 3000 based on radar detection data received from the sensor unit 2200 . Thereafter, the processor unit 2500 may determine whether the sensed headway distance information is constant.
프로세서부(2500) 상기 감지된 차간 거리 정보가 일정하지 않은 경우, 상기 전방 차량(3000)을 과적 자율 주행 차량(1000)으로 판단할 수 있다. 이때, 프로세서부(2500)는 상기 카메라에 기초하여 상기 전방 차량(3000)의 후방 영상 데이터를 수신할 수 있다. 프로세서부(2500)는 상기 후방 영상을 기설정된 자율 주행 차량(1000) 뒷모습 데이터와 비교하여 과적 화물을 인식할 수 있다. 프로세서부(2500)는 상기 과적 화물을 인식하는 경우, 상기 전방 차량(3000)을 과적 자율 주행 차량(1000)으로 판단할 수 있다.When the detected headway distance information is not constant, the processor unit 2500 may determine the front vehicle 3000 as the overloaded autonomous vehicle 1000 . At this time, the processor unit 2500 may receive rear image data of the front vehicle 3000 based on the camera. The processor unit 2500 may recognize an overloaded cargo by comparing the rear image with preset rear view data of the self-driving vehicle 1000 . When recognizing the overloaded cargo, the processor unit 2500 may determine the front vehicle 3000 as the overloaded autonomous vehicle 1000 .
프로세서부(2500)는 상기 과적 자율 주행 차량(1000)인 경우, 상기 전방 차량(3000)으로부터 GPS 정보, 자율 주행 차량(1000) 제원 정보를 수신할 수 있다.In the case of the overloaded autonomous vehicle 1000, the processor unit 2500 may receive GPS information and specification information of the autonomous vehicle 1000 from the front vehicle 3000.
프로세서부(2500)는 통신부(2100)(2100)로부터 전방 차량(3000)으로부터 GPS 정보, 자율 주행 차량(1000) 제원 정보를 수신할 수 있다. 실시예에 따라, 프로세서부(2500)는 전방 차량(3000)과의 거리가지속적으로 전방 차량(3000)의 거리를 반복적으로 이상하게 측정할 경우, 통신부(2100)(2100)를 통해 전방 차량(3000)과 V2V 통신을 통해 GPS 정보와 자율 주행 차량(1000) 제원 정보를 수신할 수 있다.The processor unit 2500 may receive GPS information and specification information of the autonomous vehicle 1000 from the preceding vehicle 3000 from the communication units 2100 and 2100 . Depending on the embodiment, the processor unit 2500 continuously measures the distance to the preceding vehicle 3000 repeatedly and abnormally, through the communication unit 2100 (2100), the preceding vehicle 3000 ) and V2V communication, GPS information and information on specifications of the self-driving vehicle 1000 may be received.
프로세서부(2500)는 상기 GPS 정보, 자율 주행 차량(1000) 제원 정보에 기초하여 상기 전방 차량(3000)에 대응하는 가상 차량을 생성할 수 있다.The processor unit 2500 may generate a virtual vehicle corresponding to the preceding vehicle 3000 based on the GPS information and the specification information of the autonomous vehicle 1000 .
프로세서부(2500)는 상기 가상 차량에 기초하여 상기 전방 차량(3000)과의 차간 거리를 판단할 수 있다. 이후, 프로세서부(2500)는 자율 주행 차량(1000)으로부터 상기 가상 차량의 뒷범퍼까지의 거리를 차간 거리로 계산할 수 있다. The processor unit 2500 may determine an inter-vehicle distance to the preceding vehicle 3000 based on the virtual vehicle. Then, the processor unit 2500 may calculate the distance from the autonomous vehicle 1000 to the rear bumper of the virtual vehicle as the headway distance.
프로세서부(2500)는 레이더를 통해 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는지 판단할 수 있다. The processor unit 2500 may determine whether distance data actually sensed through a radar and distance data based on the virtual vehicle match.
프로세서부(2500)는 상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는 경우, 상기 실제 감지되는 거리 데이터를 상기 전방 차량(3000)의 뒷범퍼까지의 거리로 판단할 수 있다.When the actually sensed distance data and the distance data based on the virtual vehicle match, the processor unit 2500 may determine the actually sensed distance data as the distance to the rear bumper of the front vehicle 3000 .
한편, 프로세서부(2500)는 상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하지 않는 경우, 상기 실제 감지되는 거리 데이터와 상기 전방 차량(3000)의 뒷범퍼까지의 거리 데이터 중 상기 자율 주행 차량(1000)에 가까운 데이터를 과적 화물에 대응하는 차간 거리로 판단할 수 있다.Meanwhile, when the actual sensed distance data and the distance data based on the virtual vehicle do not match, the processor unit 2500 selects one of the actual sensed distance data and the distance data to the rear bumper of the front vehicle 3000. Data close to the autonomous vehicle 1000 may be determined as an inter-vehicle distance corresponding to an overloaded cargo.
프로세서부(2500)는 판단된 상기 전방 차량(3000)과의 차간 거리에 기초하여 상기 전방 차량(3000)과의 충돌을 방지하도록 제어할 수 있다.The processor unit 2500 may control to prevent a collision with the preceding vehicle 3000 based on the determined inter-vehicle distance with the preceding vehicle 3000.
프로세서부(2500)는 상기 가상 차량에 기초한 거리 데이터에 기초하여 전방 차량(3000)과의 충돌을 방지하도록 제어할 수 있다. 또한, 프로세서부(2500)는 상기 전방 차량(3000)과의 차간 거리에 기초하여 상기 전방 차량(3000)과의 충돌을 방지하도록 제어할 수 있다. The processor unit 2500 may control to prevent a collision with the preceding vehicle 3000 based on the distance data based on the virtual vehicle. Also, the processor unit 2500 may control to prevent a collision with the preceding vehicle 3000 based on the inter-vehicle distance with the preceding vehicle 3000.
한편, 프로세서부(2500)는 상기 과적 화물에 대응하는 차간 거리에 기초하여 전방 차량(3000)과의 충돌을 방지하도록 제어할 수 있다.Meanwhile, the processor unit 2500 may control to prevent a collision with the preceding vehicle 3000 based on the vehicle-to-vehicle distance corresponding to the overloaded cargo.
도 5 및 도 6은 본 발명의 일 실시예들에 따른 가상 차량에 기초하여 과적 화물 차량과의 충돌 방지 상황을 설명하기 위한 도면이다. 5 and 6 are views for explaining a collision avoidance situation with an overloaded cargo vehicle based on a virtual vehicle according to embodiments of the present invention.
도 5를 참조하면, 전방 차량(3000)이 자율 주행 차량(1000)과 같은 방향으로 주행하고, 자율 주행 차량(1000)이 전방 차량(3000)의 뒤에 위치하고 있고, 전방 차량(3000)에 적재된 과적 화물이 후방으로 돌출되어 있는 상태이다.Referring to FIG. 5 , a front vehicle 3000 travels in the same direction as the autonomous vehicle 1000, the autonomous vehicle 1000 is located behind the front vehicle 3000, and a load loaded on the front vehicle 3000 This is a state in which the overloaded cargo protrudes to the rear.
자율 주행 차량(1000)은 레이더와 카메라를 통해 전방 차량(3000)과의 거리를 감지할 수 있다. 이때, 자율 주행 차량(1000)이 레이더를 통해 전방 차량(3000)과의 거리를 감지하는 경우, 과적 화물의 튀어나온 물체 끝 부분 또는 전방 차량(3000)의 뒷범퍼까지의 거리를 반복해서 측정할 수 있다. 이때, 자율 주행 차량(1000)은 센서부(2200)로부터 수신한 레이더의 감지데이터에 기초하여 전방 차량(3000)으로부터 튀어나온 물체 끝 부분 또는 전방 차량(3000)의 뒷범퍼까지의 거리를 측정할 수 있다. 따라서, 자율 주행 차량(1000)이 전방 차량(3000)과의 거리를 반복해서 측정하는 경우, 전방 차량(3000)과의 거리에 대한 신뢰성이 낮아서 정확한 타겟을 감지할 수 없을 수 있다.The self-driving vehicle 1000 may detect a distance to the preceding vehicle 3000 through a radar and a camera. At this time, when the self-driving vehicle 1000 detects the distance to the front vehicle 3000 through the radar, the distance to the rear bumper of the front vehicle 3000 or the tip of the protruding object of the overloaded cargo can be repeatedly measured. can At this time, the self-driving vehicle 1000 may measure the distance from the tip of an object protruding from the front vehicle 3000 or the rear bumper of the front vehicle 3000 based on the radar detection data received from the sensor unit 2200. can Therefore, when the self-driving vehicle 1000 repeatedly measures the distance to the preceding vehicle 3000, the reliability of the distance to the preceding vehicle 3000 may be low, and thus an accurate target may not be detected.
자율 주행 차량(1000)은 레이더를 통한 전방 차량(3000)과의 거리가 반복적으로 부정하게 측정 되는 경우, 전방 트럭과 V2V 통신을 통해 GPS 정보와 자율 주행 차량(1000) 제원 정보를 받을 수 있다.When the distance between the self-driving vehicle 1000 and the preceding vehicle 3000 is repeatedly and fraudulently measured through the radar, the self-driving vehicle 1000 may receive GPS information and specification information of the self-driving vehicle 1000 through V2V communication with the preceding truck.
또한, 자율 주행 차량(1000)은 카메라를 통한 전방 차량(3000)의 영상을 분석하여 물체가 튀어나와 있거나 가려져 있을 경우, 전방 트럭과 V2V 통신을 통해 GPS 정보와 자율 주행 차량(1000) 제원 정보를 받을 수 있다. 이때, 자율 주행 차량(1000)은 기저장된 차량 후방 모습 데이터를 분석하여 전방 차량(3000)이 과적 자율 주행 차량(1000)이라고 판단할 수 있다.In addition, the self-driving vehicle 1000 analyzes the image of the front vehicle 3000 through the camera, and when an object protrudes or is covered, GPS information and the self-driving vehicle 1000 specification information are obtained through V2V communication with the front truck. can receive In this case, the self-driving vehicle 1000 may determine that the front vehicle 3000 is an overloaded autonomous vehicle 1000 by analyzing pre-stored rear view data of the vehicle.
도 6을 참조하면, 자율 주행 차량(1000)은 전방 차량(3000)과의 차간 거리를 측정할 수 있다. 이때, 전방 차량(3000)이 과적 차량인 경우, 자율 주행 차량(1000)은 과적 차량의 과적 화물의 끝부분까지의 차간 거리를 제1 차간 거리(6100)로 인식하고, 과적 차량의 뒷 범퍼의 끝부분까지의 차간 거리를 제2 차간 거리(6200)로 인식하게 된다. Referring to FIG. 6 , the autonomous vehicle 1000 may measure an inter-vehicle distance with the vehicle 3000 in front. At this time, when the front vehicle 3000 is an overloaded vehicle, the self-driving vehicle 1000 recognizes the inter-vehicle distance to the end of the overloaded cargo of the overloaded vehicle as the first inter-vehicle distance 6100, and The vehicle-to-vehicle distance to the end is recognized as the second vehicle-to-vehicle distance 6200 .
자율 주행 차량(1000)은 전방 차량(3000)과의 차간 거리 제1 차간 거리(6100)와 제2 차간 거리(6200)로 반복 측정되는 경우, 전방 차량(3000)으로부터 수신 받은 GPS위치와 자율 주행 차량(1000) 제원을 통해 가상 차량(4000)을 구현할 수 있다. 자율 주행 차량(1000)은 가상 차량(4000)의 뒷범퍼까지의 차간 거리를 제3 차간 거리(6300)로 측정할 수 있다.When the autonomous vehicle 1000 is repeatedly measured as the first headway distance 6100 and the second headway distance 6200 with the preceding vehicle 3000, the GPS position received from the preceding vehicle 3000 and autonomous driving The virtual vehicle 4000 may be implemented through the vehicle 1000 specifications. The autonomous vehicle 1000 may measure the vehicle-to-vehicle distance to the rear bumper of the virtual vehicle 4000 as the third vehicle-to-vehicle distance 6300 .
이후, 자율 주행 차량(1000)은 제1 차간거리(6100) 및 제2 차간거리(6200) 거리 중 제3 차간 거리(6300)와 일치하는 차간 거리를 실제 차간 데이터로 인식할 수 있다. Thereafter, the autonomous vehicle 1000 may recognize a headway distance matching the third headway distance 6300 among the first headway distance 6100 and the second headway distance 6200 as actual headway data.
따라서, 자율 주행 차량(1000)은 제2 차간거리(6200)를 실제 거리 데이터와 가상으로 구현한 거리 데이터가 일치하는 차간 거리로 판단할 수 있다. 따라서, 제2 차간 거리(6200)는 전방 차량(3000)의 뒷범퍼까지의 실제 거리로 인식할 수 있다.Accordingly, the autonomous vehicle 1000 may determine the second headway distance 6200 as the headway distance where the actual distance data and the virtually implemented distance data match. Accordingly, the second inter-vehicle distance 6200 may be recognized as an actual distance to the rear bumper of the preceding vehicle 3000 .
이후, 자율 주행 차량(1000)은 제1 차간거리(6100)와 제2 차간거리(6200) 중 더 가까이서 측정되는 제1 차간거리(6100)를 적재 화물 끝 부분으로 인식할 수 있다. Thereafter, the autonomous vehicle 1000 may recognize the first headway distance 6100 measured closer among the first headway distance 6100 and the second headway distance 6200 as the end portion of the loaded cargo.
이후, 자율 주행 차량(1000)은 제1 차간거리(6100)에 기초하여 전방 충돌 방지 동작을 수행할 수 있다. 이때, 자율주행 차량은 레이더가 주기적으로 전방 차량(3000)의 속도와 동일하게 움직이는 다른 거리 데이터에 과적 화물로 판단하여 그 거리 기준으로 전방 충돌 방지 동작을 수행할 수 있다.Thereafter, the autonomous vehicle 1000 may perform a forward collision avoidance operation based on the first headway distance 6100 . In this case, the self-driving vehicle may perform forward collision avoidance operation based on the distance based on the radar periodically determining that other distance data moving at the same speed as the front vehicle 3000 is an overloaded cargo.
도 7은 본 발명의 일 실시예에 따른 자율 주행 차량(1000)의 자율 주행 차량(1000) 과적 차량 충돌 방지 방법을 전체적으로 도시한 플로우 차트이다.FIG. 7 is a flowchart showing a method for preventing collision of an autonomous vehicle 1000 with an overloaded vehicle of the autonomous vehicle 1000 according to an embodiment of the present invention.
우선, 본 발명의 일 실시예에 의한 자율 주행 차량(1000)은 레이더로부터 수신한 감지 정보에 기초하여 전방 차량(3000)과의 실제 차간 거리를 계산할 수 있다(S101).First, the self-driving vehicle 1000 according to an embodiment of the present invention may calculate an actual headway distance to the preceding vehicle 3000 based on detection information received from the radar (S101).
상기 S101 단계 이후, 자율 주행 차량(1000)은 실제 차간 거리에 기초하여 정확한 타겟을 감지하는 여부를 판단할 수 있다. 자율 주행 차량(1000)은 계산된 차간 거리가 일정한 거리를 유지하는지 판단할 수 있다(S102).After step S101, the self-driving vehicle 1000 may determine whether an accurate target is detected based on the actual vehicle-to-vehicle distance. The autonomous vehicle 1000 may determine whether the calculated inter-vehicle distance maintains a constant distance (S102).
상기 S102 단계 이후, 자율 주행 차량(1000)은 정확한 타겟이 감지되고 있지 않다고 판단하는 경우, 카메라를 통해 전방 차량(3000)이 과적 차량인지 판단할 수 있다(S103). After the step S102, when the autonomous vehicle 1000 determines that an accurate target is not being detected, it may determine whether the preceding vehicle 3000 is an overloaded vehicle through a camera (S103).
상기 S103 단계 이후, 자율 주행 차량(1000)은 전방 차량(3000)이 과적 자율 주행 차량(1000)인 경우, 전방 차량(3000)으로부터 GPS정보와 자율 주행 차량(1000) 제원 수신할 수 있다(S104). 예를 들어, GPS 정보는 GPS 정보를 포함할 수 있고, 자율 주행 차량(1000) 제원 정보는 자율 주행 차량(1000)의 전폭, 전장 정보를 포함할 수 있다.After the step S103, the autonomous vehicle 1000 may receive GPS information and specifications of the autonomous vehicle 1000 from the preceding vehicle 3000 when the preceding vehicle 3000 is an overloaded autonomous vehicle 1000 (S104 ). For example, GPS information may include GPS information, and specification information of the self-driving vehicle 1000 may include full width and electric length information of the self-driving vehicle 1000 .
상기 S104 단계 이후, 자율 주행 차량(1000)은 수신한 GPS정보와 자율 주행 차량(1000) 제원에 기초하여 상기 전방 차량(3000)에 대응하는 가상 차량(4000)을 생성할 수 있다(S105).After the step S104, the autonomous vehicle 1000 may create a virtual vehicle 4000 corresponding to the preceding vehicle 3000 based on the received GPS information and the specifications of the autonomous vehicle 1000 (S105).
상기 S105 단계 이후, 자율 주행 차량(1000)은 생성된 가상 차량(4000)과의 차간 거리를 계산할 수 있다(S106).After step S105, the self-driving vehicle 1000 may calculate an inter-vehicle distance with the created virtual vehicle 4000 (S106).
상기 S106 단계 이후, 자율 주행 차량(1000)은 실제 차간 거리와 가상 차량 차간 거리에 기초하여 과적 화물과의 차간 거리를 판단할 수 있다(S107).After the step S106, the autonomous vehicle 1000 may determine the inter-vehicle distance with the overloaded cargo based on the actual inter-vehicle distance and the virtual vehicle inter-vehicle distance (S107).
상기 S107 단계 이후, 자율 주행 차량(1000)은 과적후??과의 차간 거리에 기초하여 전방 충돌 방지 동작을 수행할 수 있다(S108).After the step S107, the self-driving vehicle 1000 may perform a forward collision avoidance operation based on an inter-vehicle distance after overloading (S108).
즉, 본 발명의 기술적 사상은, 자율 주행 차량(1000) 전체에도 적용 가능하며 또는 자율 주행 차량(1000) 내부의 일부 구성에만 적용될 수도 있다. 본 발명의 권리범위는 특허청구범위에 기재된 사항에 따라 결정되어야 한다.That is, the technical idea of the present invention can be applied to the entire self-driving vehicle 1000 or only to some components inside the self-driving vehicle 1000. The scope of the present invention should be determined according to the matters described in the claims.
본 발명의 또 다른 양태(aspect)로서, 앞서 설명한 제안 또는 발명의 동작이 "컴퓨터"(시스템 온 칩(system on chip; SoC) 또는 마이크로 프로세서 등을 포함하는 포괄적인 개념)에 의해 구현, 실시 또는 실행될 수 있는 코드 또는 상기 코드를 저장 또는 포함한 어플리케이션, 컴퓨터-판독 가능한 저장 매체 또는 컴퓨터 프로그램 제품(product) 등으로도 제공될 수 있으며, 이 또한 본 발명의 권리범위에 속한다.As another aspect of the present invention, the operation of the above-described proposal or invention is implemented, implemented, or implemented by a "computer" (a comprehensive concept including a system on chip (SoC) or a microprocessor) It may also be provided as executable code or an application that stores or includes the code, a computer-readable storage medium, or a computer program product, which also falls within the scope of the present invention.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way of combining each other.
따라서, 본 발명은 여기에 나타난 실시예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
1000: 자율 주행 차량
2000: 충돌 방지 장치
2100: 통신부
2200: 센서부
2300: 적재 화물 검출부
2400: 차간 거리 산출부
2500: 프로세서부
3000: 전방 차량1000: autonomous vehicles
2000: anti-collision devices
2100: Ministry of Communications
2200: sensor unit
2300: loaded cargo detection unit
2400: Inter-vehicle distance calculation unit
2500: processor unit
3000: front vehicle
Claims (20)
전방 차량이 과적 자율 주행 차량인지 판단하고,
상기 과적 자율 주행 차량인 경우, 상기 전방 차량으로부터 GPS 정보, 자율 주행 차량 제원 정보를 수신하고,
상기 GPS 정보, 자율 주행 차량 제원 정보에 기초하여 상기 전방 차량에 대응하는 가상 차량을 생성하고,
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하고,
판단된 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함하는
과적 차량 충돌 방지 방법.In the overload vehicle collision prevention method,
Determine whether the preceding vehicle is an overloaded autonomous vehicle,
In the case of the overloaded autonomous vehicle, receiving GPS information and autonomous vehicle specification information from the preceding vehicle;
Creating a virtual vehicle corresponding to the preceding vehicle based on the GPS information and the autonomous vehicle specification information;
determining an inter-vehicle distance with the preceding vehicle based on the virtual vehicle;
Controlling to prevent a collision with the preceding vehicle based on the determined inter-vehicle distance with the preceding vehicle
How to avoid collisions with overloaded vehicles.
상기 전방 차량이 과적 자율 주행 차량인지 판단하는 것은
레이더에 기초하여 상기 전방 차량과의 차간 거리를 감지하고,
상기 감지된 차간 거리 정보가 일정한지 판단하고,
상기 감지된 차간 거리 정보가 일정하지 않은 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 1,
Determining whether the front vehicle is an overloaded autonomous vehicle
Detecting an inter-vehicle distance with the preceding vehicle based on a radar;
determining whether the detected headway distance information is constant;
When the detected headway distance information is not constant, determining the preceding vehicle as an overloaded autonomous vehicle
How to avoid collisions with overloaded vehicles.
상기 전방 차량이 과적 자율 주행 차량인지 판단하는 것은
카메라에 기초하여 상기 전방 차량의 후방 영상 데이터를 수신하고,
상기 후방 영상을 기저장된 자율 주행 차량 뒷모습 데이터와 비교하여 과적 화물을 인식하고,
상기 과적 화물을 인식하는 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 2,
Determining whether the front vehicle is an overloaded autonomous vehicle
Receiving rear image data of the front vehicle based on the camera;
Recognizing overloaded cargo by comparing the rear image with pre-stored data of the back of the autonomous vehicle,
Including determining the front vehicle as an overloaded autonomous vehicle when recognizing the overloaded cargo
How to avoid collisions with overloaded vehicles.
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은
상기 자율 주행 차량으로부터 상기 가상 차량의 뒷범퍼까지의 거리를 차간 거리로 계산하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 3,
Determining the head-to-head distance with the preceding vehicle based on the virtual vehicle
Calculating a distance from the autonomous vehicle to a rear bumper of the virtual vehicle as an inter-vehicle distance
How to avoid collisions with overloaded vehicles.
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은
레이더를 통해 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는지 판단하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 4,
Determining the head-to-head distance with the preceding vehicle based on the virtual vehicle
Determining whether distance data actually sensed through a radar and distance data based on the virtual vehicle match
How to avoid collisions with overloaded vehicles.
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는 경우, 상기 실제 감지되는 거리 데이터를 상기 전방 차량의 뒷범퍼까지의 거리로 판단하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 5,
Determining the head-to-head distance with the preceding vehicle based on the virtual vehicle
When the actually sensed distance data and the virtual vehicle-based distance data match, determining the actually sensed distance data as a distance to a rear bumper of the preceding vehicle.
How to avoid collisions with overloaded vehicles.
상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것은
상기 가상 차량에 기초한 거리 데이터에 기초하여 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 6,
Control to prevent a collision with the preceding vehicle based on the inter-vehicle distance with the preceding vehicle
Controlling to prevent a collision with a front vehicle based on distance data based on the virtual vehicle
How to avoid collisions with overloaded vehicles.
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하는 것은
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하지 않는 경우,
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터 중 상기 자율 주행 차량에 가까운 데이터를 과적 화물에 대응하는 차간 거리로 판단하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 5,
Determining the head-to-head distance with the preceding vehicle based on the virtual vehicle
When the actual sensed distance data and the distance data based on the virtual vehicle do not match,
Determining data close to the autonomous vehicle among the distance data actually sensed and the distance data based on the virtual vehicle as an inter-vehicle distance corresponding to an overloaded cargo
How to avoid collisions with overloaded vehicles.
상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것은
상기 과적 화물에 대응하는 차간 거리에 기초하여 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함하는
과적 차량 충돌 방지 방법.According to claim 8,
Control to prevent a collision with the preceding vehicle based on the inter-vehicle distance with the preceding vehicle
Controlling to prevent a collision with a front vehicle based on an inter-vehicle distance corresponding to the overloaded cargo
How to avoid collisions with overloaded vehicles.
상기 저장 매체는 실행될 때 적어도 하나의 프로세서로 하여금 동작들을 수행하도록 하는 지시들을 포함하는 적어도 하나의 프로그램 코드를 저장하고,
상기 동작들은:
전방 차량이 과적 자율 주행 차량인지 판단하고,
상기 과적 자율 주행 차량인 경우, 상기 전방 차량으로부터 GPS 정보, 자율 주행 차량 제원 정보를 수신하고,
상기 GPS 정보, 자율 주행 차량 제원 정보에 기초하여 상기 전방 차량에 대응하는 가상 차량을 생성하고,
상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하고,
판단된 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 것을 포함하는
저장 매체.In a computer readable storage medium,
the storage medium stores at least one program code containing instructions that, when executed, cause at least one processor to perform operations;
The above actions are:
Determine whether the preceding vehicle is an overloaded autonomous vehicle,
In the case of the overloaded autonomous vehicle, receiving GPS information and autonomous vehicle specification information from the preceding vehicle;
Creating a virtual vehicle corresponding to the preceding vehicle based on the GPS information and the autonomous vehicle specification information;
determining an inter-vehicle distance with the preceding vehicle based on the virtual vehicle;
Controlling to prevent a collision with the preceding vehicle based on the determined inter-vehicle distance with the preceding vehicle
storage medium.
주행 정보 검출부 및 객체 인식부를 포함하는 센서부;
상기 전방 차량에 적재된 화물을 검출하는 적재 화물 검출부;
상기 전방 차량과의 거리를 산출하는 차간 거리 산출부; 및
상기 전방 차량이 과적 자율 주행 차량인지 판단하고, 상기 과적 자율 주행 차량인 경우, 상기 전방 차량으로부터 GPS 정보, 자율 주행 차량 제원 정보를 수신하고, 상기 GPS 정보, 자율 주행 차량 제원 정보에 기초하여 상기 전방 차량에 대응하는 가상 차량을 생성하고, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하고, 판단된 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 프로세서부를 포함하도록 구성되는
과적 차량 충돌 방지 장치.A communication unit for receiving GPS information and autonomous vehicle specification information from a preceding vehicle;
a sensor unit including a driving information detection unit and an object recognition unit;
Loaded cargo detection unit for detecting the cargo loaded on the front vehicle;
an inter-vehicle distance calculation unit that calculates a distance to the preceding vehicle; and
It is determined whether the preceding vehicle is an overloaded self-driving vehicle, and if the vehicle is an overloaded self-driving vehicle, GPS information and self-driving vehicle specification information are received from the preceding vehicle, and based on the GPS information and autonomous vehicle specification information, the front Creating a virtual vehicle corresponding to the vehicle, determining an inter-vehicle distance with the preceding vehicle based on the virtual vehicle, and controlling to prevent a collision with the preceding vehicle based on the determined inter-vehicle distance with the preceding vehicle configured to include a processor unit
Overload vehicle anti-collision device.
상기 프로세서부는
레이더에 기초하여 상기 전방 차량과의 차간 거리를 감지하고,
상기 감지된 차간 거리 정보가 일정한지 판단하고,
상기 감지된 차간 거리 정보가 일정하지 않은 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 11,
the processor unit
Detecting an inter-vehicle distance with the preceding vehicle based on a radar;
determining whether the detected headway distance information is constant;
When the detected headway distance information is not constant, configured to determine the preceding vehicle as an overloaded autonomous vehicle
Overload vehicle anti-collision device.
상기 프로세서부는
카메라에 기초하여 상기 전방 차량의 후방 영상 데이터를 수신하고,
상기 후방 영상을 기저장된 자율 주행 차량 뒷모습 데이터와 비교하여 과적 화물을 인식하고,
상기 과적 화물을 인식하는 경우, 상기 전방 차량을 과적 자율 주행 차량으로 판단하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 12,
the processor unit
Receiving rear image data of the front vehicle based on the camera;
Recognizing overloaded cargo by comparing the rear image with pre-stored data of the back of the autonomous vehicle,
When recognizing the overloaded cargo, configured to determine the front vehicle as an overloaded autonomous vehicle
Overload vehicle anti-collision device.
상기 프로세서부는
상기 자율 주행 차량으로부터 상기 가상 차량의 뒷범퍼까지의 거리를 차간 거리로 계산하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 13,
the processor unit
configured to calculate a distance from the autonomous vehicle to a rear bumper of the virtual vehicle as an inter-vehicle distance
Overload vehicle anti-collision device.
상기 프로세서부는
레이더를 통해 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는지 판단하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 14,
the processor unit
Is configured to determine whether the distance data actually sensed through the radar and the distance data based on the virtual vehicle match
Overload vehicle anti-collision device.
상기 프로세서부는
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하는 경우, 상기 실제 감지되는 거리 데이터를 상기 전방 차량의 뒷범퍼까지의 거리로 판단하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 15,
the processor unit
When the actually sensed distance data and the distance data based on the virtual vehicle match, the actually sensed distance data is configured to determine the distance to the rear bumper of the preceding vehicle.
Overload vehicle anti-collision device.
상기 프로세서부는
상기 가상 차량에 기초한 거리 데이터에 기초하여 전방 차량과의 충돌을 방지하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 16,
the processor unit
configured to prevent a collision with a vehicle in front based on distance data based on the virtual vehicle
Overload vehicle anti-collision device.
상기 프로세서부는
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터가 일치하지 않는 경우,
상기 실제 감지되는 거리 데이터와 상기 가상 차량에 기초한 거리 데이터 중 상기 자율 주행 차량에 가까운 데이터를 과적 화물에 대응하는 차간 거리로 판단하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 15,
the processor unit
When the actual sensed distance data and the distance data based on the virtual vehicle do not match,
It is configured to determine data close to the autonomous vehicle among the actually sensed distance data and the distance data based on the virtual vehicle as an inter-vehicle distance corresponding to an overloaded cargo.
Overload vehicle anti-collision device.
상기 프로세서부는
상기 과적 화물에 대응하는 차간 거리에 기초하여 전방 차량과의 충돌을 방지하도록 구성되는
과적 차량 충돌 방지 장치.According to claim 18,
the processor unit
configured to prevent a collision with a vehicle in front based on an inter-vehicle distance corresponding to the overloaded cargo
Overload vehicle anti-collision device.
전방 차량 및 전방 차량의 적재 화물을 감지하는 위한 적어도 하나 이상의 센서; 그리고
전방 차량이 과적 자율 주행 차량인지 판단하고, 상기 과적 자율 주행 차량인 경우, 상기 전방 차량으로부터 GPS 정보, 자율 주행 차량 제원 정보를 수신하고, 상기 GPS 정보, 자율 주행 차량 제원 정보에 기초하여 상기 전방 차량에 대응하는 가상 차량을 생성하고, 상기 가상 차량에 기초하여 상기 전방 차량과의 차간 거리를 판단하고, 판단된 상기 전방 차량과의 차간 거리에 기초하여 상기 전방 차량과의 충돌을 방지하도록 제어하는 프로세서부를 포함하도록 구성되는 과적 차량 충돌 방지 장치를 포함하는,
자율 주행 차량.
In autonomous vehicles,
At least one or more sensors for detecting the front vehicle and the loaded cargo of the front vehicle; and
It is determined whether the preceding vehicle is an overloaded self-driving vehicle, and if the vehicle is an overloaded self-driving vehicle, GPS information and autonomous vehicle specification information are received from the preceding vehicle, and the preceding vehicle is detected based on the GPS information and autonomous vehicle specification information. A processor for generating a virtual vehicle corresponding to the virtual vehicle, determining an inter-vehicle distance with the preceding vehicle based on the virtual vehicle, and controlling a collision with the preceding vehicle to be prevented based on the determined inter-vehicle distance with the preceding vehicle. Including an overload vehicle anti-collision device configured to include a unit,
self-driving vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220025745A KR20230129076A (en) | 2022-02-28 | 2022-02-28 | Method and apparatus for preventing collision with overloaded vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220025745A KR20230129076A (en) | 2022-02-28 | 2022-02-28 | Method and apparatus for preventing collision with overloaded vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230129076A true KR20230129076A (en) | 2023-09-06 |
Family
ID=87974095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220025745A KR20230129076A (en) | 2022-02-28 | 2022-02-28 | Method and apparatus for preventing collision with overloaded vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230129076A (en) |
-
2022
- 2022-02-28 KR KR1020220025745A patent/KR20230129076A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9896129B2 (en) | Driving assistant system of vehicle and method for controlling the same | |
US20230015466A1 (en) | Vehicle control system, and vehicle control method | |
KR102005253B1 (en) | Lane assistance system responsive to extremely fast approaching vehicles | |
EP3715204A1 (en) | Vehicle control device | |
US20080189040A1 (en) | Collision Avoidance System | |
KR101511858B1 (en) | Advanced Driver Assistance System(ADAS) and controlling method for the same | |
US11281224B2 (en) | Vehicle control device | |
JP2006515699A (en) | Device for classifying at least one object around a vehicle | |
KR20230116122A (en) | Vehicle, Vehicle Collision-Avoidance system and Collision-Avoidance Method thereof | |
KR20180126224A (en) | vehicle handling methods and devices during vehicle driving | |
US20230182722A1 (en) | Collision avoidance method and apparatus | |
JP5038192B2 (en) | Vehicle safety device | |
KR20230129076A (en) | Method and apparatus for preventing collision with overloaded vehicle | |
KR20230087671A (en) | Method and apparatus for preventing object collision | |
EP4446853A1 (en) | Device and method for controlling mouse using gaze recognition | |
US20240278776A1 (en) | Method and apparatus for collision avoidance or impact force reduction | |
US20230278547A1 (en) | Method and apparatus for avoiding collision based on occupant position | |
KR20230159773A (en) | Vehicle collision-avoidance system and vehicle equipped with the system and collision-avoidance method thereof | |
US20240075960A1 (en) | Device and method for notifying vehicle arrival to respond to transportation vulnerable | |
KR20230071575A (en) | Vehicle Collision-Avoidance system and Vehicle equipped with the system and Collision-Avoidance Method thereof | |
KR20230055840A (en) | Method and Apparatus for controlling Autonomous Vehicle | |
KR20230172054A (en) | Vehicle collision-avoidance system and vehicle equipped with the system and collision-avoidance method thereof | |
US20230175304A1 (en) | Vehicle for recognizing road sign using at least one sensor and method thereof | |
KR20230164257A (en) | Vehicle collision-avoidance system and vehicle equipped with the system and collision-avoidance method thereof | |
KR20240031680A (en) | Apparatus and method for providing blind spot alarm |