KR20170070458A - Vehicle and controlling method for the vehicle - Google Patents

Vehicle and controlling method for the vehicle Download PDF

Info

Publication number
KR20170070458A
KR20170070458A KR1020150177988A KR20150177988A KR20170070458A KR 20170070458 A KR20170070458 A KR 20170070458A KR 1020150177988 A KR1020150177988 A KR 1020150177988A KR 20150177988 A KR20150177988 A KR 20150177988A KR 20170070458 A KR20170070458 A KR 20170070458A
Authority
KR
South Korea
Prior art keywords
vehicle
lane
coordinates
target vehicle
processor
Prior art date
Application number
KR1020150177988A
Other languages
Korean (ko)
Other versions
KR102272765B1 (en
Inventor
신기철
허명선
오영철
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150177988A priority Critical patent/KR102272765B1/en
Publication of KR20170070458A publication Critical patent/KR20170070458A/en
Application granted granted Critical
Publication of KR102272765B1 publication Critical patent/KR102272765B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

개시된 실시예는 차선의 오인지가 발생한 상황에서 이동하고자 하는 차선의 선행차량을 추종하여 주행함으로써 차선을 변경할 수 있는 차량 및 그 제어방법을 제공한다. 일 실시예에 따른 차량은 거리센서; 차선의 이미지를 획득하도록 마련된 영상센서; 및 상기 거리센서 및 영상센서에서 획득한 데이터를 이용하여 이동하고자 하는 차로에서 주행 중인 목표차량의 주행궤적을 생성하고, 차선이 인지되지 않으면 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 프로세서;를 포함한다.The disclosed embodiment provides a vehicle and a control method thereof that can change a lane by following a preceding vehicle in a lane to be moved in a situation in which a lane warning is generated. A vehicle according to an embodiment includes a distance sensor; An image sensor configured to acquire an image of a lane; And a processor for generating a driving trajectory of a target vehicle running in a lane to be moved using data obtained from the distance sensor and the image sensor and controlling the vehicle so as to follow the generated trajectory when the lane is not recognized .

Description

차량 및 그 제어방법{VEHICLE AND CONTROLLING METHOD FOR THE VEHICLE}[0001] VEHICLE AND CONTROLLING METHOD FOR THE VEHICLE [0002]

개시된 실시예는 차량에 관한 것이다.The disclosed embodiment relates to a vehicle.

일반적으로 운전 보조 장치들은 적응형 크루즈 컨트롤(ACC; Adaptive Cruise Control)과 같이 종방향에 대한 운전을 보조하거나, 차선 이탈 경보 시스템(LDWS; Lane Departure Warning System)이나 차선 유지 보조 시스템(LKAS; Lane Keeping Assist System)처럼 횡방향에 대해 운전을 보조하는 기능을 제공한다.In general, the driving aids may assist in longitudinal driving such as adaptive cruise control (ACC), or may assist in the operation of lane departure warning systems (LDWS) or lane keeping systems (LKAs) Assist System) to assist the driver in the lateral direction.

최근에는 운전자의 개입없이 차량을 종/횡방향으로 자동으로 제어하는 자율 주행 차량이 개발되고 있다.In recent years, an autonomous vehicle that automatically controls the vehicle in longitudinal and lateral directions without the intervention of the driver has been developed.

개시된 실시예는 차선의 오인지가 발생한 상황에서 이동하고자 하는 차선의 선행차량을 추종하여 주행함으로써 차선을 변경할 수 있는 차량 및 그 제어방법을 제공한다.The disclosed embodiment provides a vehicle and a control method thereof that can change a lane by following a preceding vehicle in a lane to be moved in a situation in which a lane warning is generated.

일 실시예에 따른 차량은 거리센서; 차선의 이미지를 획득하도록 마련된 영상센서; 및 상기 거리센서 및 영상센서에서 획득한 데이터를 이용하여 이동하고자 하는 차로에서 주행 중인 목표차량의 주행궤적을 생성하고, 차선이 인지되지 않으면 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 프로세서;를 포함한다.A vehicle according to an embodiment includes a distance sensor; An image sensor configured to acquire an image of a lane; And a processor for generating a driving trajectory of a target vehicle running in a lane to be moved using data obtained from the distance sensor and the image sensor and controlling the vehicle so as to follow the generated trajectory when the lane is not recognized .

또한, 상기 프로세서는, 상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하고, 상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적함으로써 상기 목표차량의 주행궤적을 생성할 수 있다.Further, the processor may extract the coordinates of the target vehicle using the data acquired by the distance sensor, and accumulate the extracted coordinates based on the running information of the subject vehicle to generate the running trajectory of the target vehicle have.

또한, 상기 프로세서는, 상기 거리센서에서 획득한 데이터로부터 오브젝트를 형성하고, 상기 오브젝트 중 이동하고자 하는 차로에서 주행 중인 목표차량을 결정할 수 있다.Further, the processor may form an object from the data acquired by the distance sensor, and determine a target vehicle traveling in a lane to which the object is to be moved.

또한, 상기 프로세서는, 상기 목표차량을 나타내는 오브젝트의 경계 또는 오브젝트 내에 포함되는 어느 하나의 좌표를 추출할 수 있다.Further, the processor can extract any one of the coordinates included in the boundary of the object or the object representing the target vehicle.

또한, 상기 프로세서는, 자차량의 x좌표의 변화량, y좌표의 변화량 및 진행각도의 변화량을 포함하는 자차량의 주행정보를 산출하고, 상기 자차량의 주행정보를 이용하여 자차량의 현재 위치를 기준으로 상기 좌표를 누적할 수 있다.Further, the processor calculates the running information of the subject vehicle including the amount of change of the x-coordinate of the subject vehicle, the amount of change of the y-coordinate and the amount of change of the advancing angle, and calculates the current position of the subject vehicle using the running information of the subject vehicle The coordinates can be accumulated based on the reference.

또한, 상기 프로세서는, 상기 누적된 좌표를 곡선으로 모델링하여 주행궤적을 생성할 수 있다.In addition, the processor may generate the driving trajectory by modeling the accumulated coordinates as a curve.

또한, 상기 프로세서는, 상기 목표차량의 좌표에 대응하는 자차량의 대응점이 상기 주행궤적을 추종하도록 자차량을 제어할 수 있다.Further, the processor may control the subject vehicle so that the corresponding point of the subject vehicle corresponding to the coordinates of the target vehicle follows the trajectory of the driving.

일 실시예에 따른 차량의 제어방법은 거리센서 및 영상센서에서 획득한 데이터를 이용하여 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하고; 상기 결정된 목표차량의 주행궤적을 생성하고; 차선이 인지되지 않으면 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 것;을 포함한다.A method of controlling a vehicle according to an exemplary embodiment of the present invention includes: determining a target vehicle traveling in a lane to be moved using data obtained from a distance sensor and an image sensor; Generate a driving trajectory of the determined target vehicle; And controlling the vehicle to follow the generated trajectory if the lane is not recognized.

또한, 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하는 것은, 상기 거리센서에서 획득한 데이터에 군집화를 수행하여 오브젝트를 생성하고; 상기 오브젝트 중 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하는 것;을 포함할 수 있다.The determining of the target vehicle traveling in the lane to be moved may include: clustering data acquired by the distance sensor to generate an object; And determining a target vehicle that is traveling in the lane to which the object is to be moved.

또한, 상기 결정된 목표차량의 주행궤적을 생성하는 것은, 상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하고; 상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적하고; 상기 누적된 좌표를 이용하여 상기 목표차량의 주행궤적을 생성하는 것;을 포함할 수 있다.The generating of the travel trajectory of the determined target vehicle may include extracting coordinates of the target vehicle using data acquired by the distance sensor; Accumulate the extracted coordinates based on the running information of the subject vehicle; And generating a driving trajectory of the target vehicle using the accumulated coordinates.

또한, 상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하는 것은, 목표차량을 나타내는 오브젝트의 경계 또는 오브젝트 내에 포함되는 어느 하나의 좌표를 추출하는 것;을 포함할 수 있다.In addition, extracting the coordinates of the target vehicle using the data obtained by the distance sensor may include extracting a boundary of the object representing the target vehicle or any one of the coordinates included in the object.

또한, 상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적하는 것은,In addition, accumulating the extracted coordinates based on the running information of the subject vehicle means that,

자차량의 x좌표의 변화량, y좌표의 변화량 및 진행각도의 변화량을 포함하는 자차량의 주행정보를 산출하고; 상기 자차량의 주행정보를 이용하여 자차량의 현재 위치를 기준으로 상기 좌표를 누적하는 것;을 포함하는 차량의 제어방법.Calculating traveling information of the subject vehicle including a variation amount of the x-coordinate of the subject vehicle, a variation amount of the y-coordinate, and a variation amount of the traveling angle; And accumulating the coordinates based on the current position of the subject vehicle using the running information of the subject vehicle.

또한, 상기 누적된 좌표를 이용하여 상기 목표차량의 주행궤적을 생성하는 것은, 상기 누적된 좌표를 곡선으로 모델링하여 주행궤적을 생성하는 것;을 포함할 수 있다.The generating of the driving trajectory of the target vehicle using the accumulated coordinates may include generating the driving trajectory by modeling the accumulated coordinates as a curve.

또한, 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 것은, 상기 주행궤적을 형성하는 상기 목표차량의 좌표에 대응하는 자차량의 대응점이 상기 주행궤적을 추종하도록 자차량을 제어하는 것;을 포함할 수 있다.The control of the vehicle so as to follow the generated trajectory includes controlling the subject vehicle so that the corresponding point of the subject vehicle corresponding to the coordinates of the target vehicle forming the trajectory of the vehicle follows the trajectory of the vehicle can do.

개시된 실시예에 따른 차량 및 그 제어방법에 따르면, 영상센서에서 차선을 오인지하여도, 안정적으로 차선을 변경할 수 있다.According to the vehicle and the control method thereof according to the disclosed embodiment, it is possible to stably change the lane even if the lane is detected by the image sensor.

도 1은 일 실시예에 따른 차량의 외관도이다.
도 2는 일 실시예에 따른 차량의 내부의 구성을 나타낸 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 차량의 거리센서에서 획득한 데이터가 군집화되어 생성된 오브젝트를 나타낸 도면이다.
도 5는 일 실시예에 따른 차량의 거리센서와 영상센서에서 획득한 데이터를 이용하여 결정된 목표차량 및 차선을 나타낸 도면이다.
도 6은 일 실시예에 따른 차량에서 목표차량의 좌표를 누적하여 생성한 목표차량의 주행궤적을 나타낸 도면이다.
도 7은 일 실시예에 따른 차량에서 목표차량의 주행궤적을 나타낸 도면이다.
도 8은 일 실시예에 따른 차량의 영상센서에서 획득한 데이터에 기초한 차선의 인지에 오류가 발생한 것을 나타낸 도면이다.
도 9은 일 실시예에 따른 차량에서 목표차량의 주행궤적을 추종하여 차선을 변경하는 것을 나타낸 도면이다.
도 10은 일 실시예에 따른 차량의 제어방법을 나타낸 순서도이다.
1 is an external view of a vehicle according to an embodiment.
2 is a view showing the internal configuration of a vehicle according to an embodiment.
3 is a control block diagram of a vehicle according to an embodiment.
4 is a view showing an object generated by clustering data acquired by a distance sensor of a vehicle according to an embodiment.
5 is a view showing a target vehicle and a lane determined using data obtained from a distance sensor and an image sensor of a vehicle according to an embodiment.
6 is a diagram showing a trajectory of a target vehicle generated by accumulating coordinates of a target vehicle in a vehicle according to an embodiment.
7 is a view showing a trajectory of a target vehicle in a vehicle according to an embodiment.
8 is a diagram showing an error in recognition of a lane based on data acquired by an image sensor of a vehicle according to an embodiment.
FIG. 9 is a diagram illustrating a lane change by following a trajectory of a target vehicle in a vehicle according to an embodiment.
10 is a flowchart showing a control method of a vehicle according to an embodiment.

이하 첨부된 도면을 참조하여 본 발명의 일 측면에 따른 차량 및 그 제어방법에 관한 실시예를 상세하게 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a vehicle and a control method thereof according to an aspect of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 차량의 외관도이고, 도 2는 일 실시예에 따른 차량의 내부의 구성을 나타낸 도면이다.FIG. 1 is an external view of a vehicle according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an internal configuration of a vehicle according to an embodiment.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(100)은 차량(100)의 외관을 형성하는 본체(1), 차량(100)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(80), 차량(100) 내부를 외부로부터 차폐시키는 도어(71), 차량(100) 내부의 운전자에게 차량(100) 전방의 시야를 제공하는 전면 유리(30), 운전자에게 차량(100) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다. 1, a vehicle 100 according to an embodiment of the present invention includes a main body 1 forming an outer appearance of a vehicle 100, wheels 51 and 52 for moving the vehicle 100, wheels 51 A door 71 for shielding the inside of the vehicle 100 from the outside, a windshield 30 for providing a driver inside the vehicle 100 with a view toward the front of the vehicle 100, And side mirrors 81 and 82 for providing the driver with a field of view behind the vehicle 100. [

차륜(51, 52)은 차량(100)의 전방에 마련되는 전륜(51), 차량(100)의 후방에 마련되는 후륜(52)을 포함한다.The wheels 51 and 52 include a front wheel 51 provided on the front side of the vehicle 100 and a rear wheel 52 provided on the rear side of the vehicle 100. [

구동 장치(80)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 포함할 수 있다.The driving device 80 provides a rotational force to the front wheel 51 or the rear wheel 52 so that the main body 1 moves forward or backward. The driving device 60 may include an engine for generating a rotational force by burning fossil fuel or a motor for generating a rotational force by receiving power from a capacitor (not shown).

도어(71)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(100)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.The door 71 is rotatably provided on the left and right sides of the main body 1 so that the driver can ride inside the vehicle 100 at the time of opening and shields the inside of the vehicle 100 from the outside at the time of closing .

윈드쉴드 글래스(windshield glass)라고 불리는 전면 유리(30)는 본체(100)의 전방 상측에 마련된다. 차량(100) 내부의 운전자는 전면 유리(30)를 통해 차량(100)의 전방을 볼 수 있다. 또한, 사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함한다. 차량(100) 내부의 운전자는 사이드 미러(81, 82)를 통해 차량(100)의 측면 및 후방의 상황을 눈으로 확인할 수 있다.A front glass 30 called windshield glass is provided on the front upper side of the main body 100. The driver inside the vehicle 100 can see the front of the vehicle 100 through the windshield 30. [ The side mirrors 81 and 82 include a left side mirror 81 provided on the left side of the main body 1 and a right side mirror 82 provided on the right side. The driver inside the vehicle 100 can visually confirm the state of the side and rear of the vehicle 100 through the side mirrors 81 and 82. [

이외에도 차량(100)은 차량(100) 주변의 장애물 등을 감지하여 차량(100) 주변의 상황을 운전자가 인식할 수 있도록 도움을 주는 다양한 센서를 포함할 수 있다. 또한, 차량(100)은 차량의 속도 등과 같은 차량의 주행정보를 감지할 수 있는 다양한 센서를 포함할 수 있다. 또한, 차량은 차선 등을 포함하는 차량의 주변 환경에 대한 영상을 획득하는 센서를 포함할 수 있다. 차량(100)의 주행정보나 차량(100) 주변의 상황을 감지할 수 있는 다양한 센서들에 대해서는 후술하도록 한다.In addition, the vehicle 100 may include various sensors for sensing obstacles and the like around the vehicle 100 and helping the driver to recognize the situation around the vehicle 100. In addition, the vehicle 100 may include various sensors capable of sensing driving information of the vehicle, such as the speed of the vehicle. Further, the vehicle may include a sensor for acquiring an image of a surrounding environment of the vehicle including a lane or the like. Various sensors capable of detecting the traveling information of the vehicle 100 and the surroundings of the vehicle 100 will be described later.

도 2에 도시된 바를 참조하면 차량(100)은 기어박스(120), 센터페시아(130), 스티어링 휠(140) 및 계기판(150) 등이 마련된 대시보드(dashboard)를 포함할 수 있다. 2, the vehicle 100 may include a dashboard provided with a gear box 120, a center fascia 130, a steering wheel 140, and a dashboard 150. Referring to FIG.

기어박스(120)에는 차량 변속을 위한 기어 레버(121)가 설치될 수 있다. 또한, 도면에 도시된 것처럼, 기어박스에는 사용자가 네비게이션(10)이나 오디오 장치(133) 등을 포함하는 멀티미디어 장치의 기능이나 차량(100)의 주요 기능의 수행을 제어할 수 있도록 마련된 다이얼 조작부(111)와 다양한 버튼들을 포함하는 입력부(110)가 설치될 수 있다.The gear box 120 may be provided with a gear lever 121 for shifting the vehicle. In addition, as shown in the figure, the gear box includes a dial control unit (not shown) provided to allow a user to control the functions of the multimedia device including the navigation device 10 and the audio device 133 or the main function of the vehicle 100 111 and an input unit 110 including various buttons.

센터페시아(130)에는 공조 장치(132), 오디오 장치(133) 및 네비게이션(10) 등이 설치될 수 있다.The center fascia 130 may be provided with an air conditioner 132, an audio device 133, a navigation system 10, and the like.

공조 장치는 차량(100) 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량(100)의 내부를 쾌적하게 유지한다. 공조 장치는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구를 포함할 수 있다. 센터페시아(130)에는 공조 장치 등을 제어하기 위한 버튼이나 다이얼 등이 설치될 수 있다. 운전자 등의 사용자는 센터페시아(130)에 배치된 버튼이나 다이얼을 이용하여 차량(100)의 공조 장치를 제어할 수 있다. 물론 기어박스(120)에 설치된 입력부(110)의 버튼들이나 다이얼 조작부(111)를 통해 공조장치를 제어할 수도 있다.The air conditioner controls the temperature, humidity, air cleanliness, and air flow inside the vehicle 100 to comfortably maintain the interior of the vehicle 100. The air conditioner may include at least one discharge port installed in the center fascia 130 and discharging air. The center fascia 130 may be provided with a button or a dial for controlling the air conditioner or the like. A user such as a driver can control the air conditioner of the vehicle 100 using a button or a dial disposed on the center pacea 130. [ Of course, the air conditioner may be controlled through the buttons of the input unit 110 installed in the gear box 120 or the dial control unit 111.

실시예에 따라서 센터페시아(130)에는 네비게이션(10)이 설치될 수 있다. 네비게이션(10)은 차량(100)의 센터페시아(130) 내부에 매립되어 형성될 수 있다. 일 실시예에 의하면 센터페시아(130)에는 네비게이션(10)을 제어하기 위한 입력부가 설치될 수도 있다. 실시예에 따라서 네비게이션(10)의 입력부는 센터페시아(130)가 아닌 다른 위치에 설치될 수도 있다. 예를 들어 네비게이션(10)의 입력부는 네비게이션(10)의 디스플레이(300) 주변에 형성될 수도 있다. 또한 다른 예로 네비게이션(10)의 입력부는 기어 박스(120) 등에 설치될 수도 있다.According to the embodiment, the navigation system 10 may be installed in the center fascia 130. The navigation system 10 may be embedded in the center fascia 130 of the vehicle 100. According to one embodiment, the center fascia 130 may be provided with an input unit for controlling the navigation system 10. According to an embodiment, the input of navigation 10 may be located at a location other than the center fascia 130. For example, the input of the navigation system 10 may be formed around the display 300 of the navigation system 10. As another example, the input unit of the navigation system 10 may be installed in the gear box 120 or the like.

스티어링 휠(140)은 차량(100)의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량(100)의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다. 실시예에 따라서 스포크(142)에는 차량(100) 내의 각종 장치, 일례로 오디오 장치 등을 제어하기 위한 조작 장치(142a, 142b)가 마련될 수 있다. 또한 대시보드에는 차량(100)의 주행 속도, 엔진 회전수 또는 연료 잔량 등을 표시할 수 있는 각종 계기판(150)이 설치될 수 있다. 계기판(150)은 차량 상태, 차량 주행과 관련된 정보, 멀티미디어 장치의 조작과 관련된 정보 등을 표시하는 계기판 디스플레이(151)를 포함할 수 있다.The steering wheel 140 is a device for adjusting the running direction of the vehicle 100. The steering wheel 140 is connected to the rim 141 gripped by the driver and the steering device of the vehicle 100 and includes a rim 141, And spokes 142 connecting hubs. According to the embodiment, the spokes 142 may be provided with operating devices 142a and 142b for controlling various devices in the vehicle 100, for example, an audio device and the like. In addition, various dashboards 150 may be installed on the dashboard to indicate the traveling speed, engine speed, fuel amount, etc. of the vehicle 100. The dashboard 150 may include a dashboard display 151 that displays vehicle status, information related to vehicle driving, information associated with the operation of the multimedia device, and the like.

운전자는 대시보드에 마련된 전술한 다양한 장치들을 조작하여 차량(100)을 운행할 수 있다. 차량(100)에는 도 2에 도시된 것과 같이 차량(100)의 운행을 위해 운전자가 조작할 수 있는 장치들 외에도 차량(100)의 주행을 위해 필요한 차량(100) 외부의 정보나 차량(100) 자체의 주행정보들을 감지할 수 있는 다양한 센서들이 마련될 수 있다.The driver can operate the vehicle 100 by operating the various devices provided on the dashboard. The vehicle 100 is provided with information outside the vehicle 100 necessary for driving the vehicle 100 or information about the outside of the vehicle 100 necessary for driving the vehicle 100 in addition to the devices that the driver can operate for the operation of the vehicle 100, Various sensors capable of sensing the own running information can be provided.

개시된 실시예에 따른 차량은 다양한 센서에서 감지한 정보에 기초하여 운전자의 개입없이 자율 주행을 수행할 수 있다. 자율주행을 위해 차량이 주행하는 차로의 차선을 인지할 필요가 있다. 특히, 차선의 변경을 위해서는 보다 정확하게 차선을 인지할 필요가 있다. 차량의 영상센서에서 획득한 이미지를 이용하여 차선을 인지하는 경우, 주변 차량에 의해 차선이 가려지거나 차선의 마킹이 불량한 경우 등 다양한 주변 상황에 의해 차선을 제대로 인지하기 어려운 경우가 있다. 이와 같이 차선이 제대로 인지되지 않은 상황에서 주행차로를 변경하는 경우, 안정적으로 차로를 변경하기 어렵고 주변 차량과의 충돌 가능성도 배제할 수 없다.The vehicle according to the disclosed embodiment can perform autonomous travel without intervention of the driver based on information sensed by various sensors. It is necessary to recognize the lane of the lane on which the vehicle is traveling for autonomous driving. Particularly, in order to change the lane, it is necessary to recognize the lane more accurately. When recognizing a lane using an image obtained from an image sensor of a vehicle, it may be difficult to recognize the lane correctly due to various surrounding situations such as when the lane is covered by the surrounding vehicle or when the marking of the lane is poor. In this case, when the lane is not properly recognized, it is difficult to change the lane in a stable manner and the possibility of collision with the surrounding vehicle can not be excluded.

이에 개시된 실시예는, 차선의 인지가 어려운 상황에서도 주행차로를 안정적으로 변경할 수 있는 차량 및 그 제어방법을 제공한다. 이하 도 3 내지 도 9를 참조하여 개시된 실시예에 따른 차량 및 그 제어방법에 대해 보다 구체적으로 설명한다.The embodiment disclosed herein provides a vehicle and a control method thereof that can stably change a driving lane even in a situation where lane recognition is difficult. Hereinafter, the vehicle and its control method according to the embodiment disclosed with reference to Figs. 3 to 9 will be described in more detail.

도 3은 일 실시예에 따른 차량의 제어 블록도이고, 도 4는 일 실시예에 따른 차량의 거리센서에서 획득한 데이터가 군집화되어 생성된 오브젝트를 나타낸 도면이며, 도 5는 일 실시예에 따른 차량의 거리센서와 영상센서에서 획득한 데이터를 이용하여 결정된 목표차량 및 차선을 나타낸 도면이다. 도 6은 일 실시예에 따른 차량에서 목표차량의 좌표를 누적하여 생성한 목표차량의 주행궤적을 나타낸 도면이고, 도 7은 일 실시예에 따른 차량에서 목표차량의 주행궤적을 나타낸 도면이며, 도 8은 일 실시예에 따른 차량의 영상센서에서 획득한 데이터에 기초한 차선의 인지에 오류가 발생한 것을 나타낸 도면이다. 그리고, 도 9은 일 실시예에 따른 차량에서 목표차량의 주행궤적을 추종하여 차선을 변경하는 것을 나타낸 도면이다.FIG. 3 is a control block diagram of a vehicle according to an embodiment. FIG. 4 is a diagram illustrating an object generated by clustering data acquired by a distance sensor of a vehicle according to an embodiment. FIG. And a target vehicle and a lane determined using data obtained from the distance sensor and the image sensor of the vehicle. FIG. 6 is a diagram showing a trajectory of a target vehicle generated by accumulating coordinates of a target vehicle in a vehicle according to an embodiment. FIG. 7 is a diagram showing a trajectory of a target vehicle in a vehicle according to an embodiment, 8 is a diagram showing an error in the recognition of the lane based on the data acquired by the image sensor of the vehicle according to the embodiment. 9 is a diagram showing a lane change by following a trajectory of a target vehicle in a vehicle according to an embodiment.

도 3에 도시된 것처럼, 개시된 실시예에 따른 차량은 자율 주행 모드와 관련된 입력을 수신하는 입력부(303), 차량 외부의 이미지를 획득하는 영상센서(309), 전방의 차량이나 장애물을 감지하는 거리센서(307), 영상센서(309) 및 거리센서(307)에서 획득한 정보를 기초로 주행차로의 변경을 위한 제어를 수행하는 프로세서(317), 차량의 주행과 관련된 다양한 정보를 표시하는 디스플레이(300) 및 자율 주행 모드 하에서 프로세서(317)의 제어 하에 차량을 주행시키는 구동장치(80)를 포함한다.3, the vehicle according to the disclosed embodiment includes an input 303 for receiving an input associated with an autonomous mode, an image sensor 309 for acquiring an image outside the vehicle, a distance A processor 317 for performing control for changing the driving lane on the basis of the information obtained by the sensor 307, the image sensor 309 and the distance sensor 307, a display (for example, 300) and a drive device (80) for driving the vehicle under the control of the processor (317) under autonomous mode.

입력부(303)는, 사용자가 자율 주행 모드를 턴 온시키는 명령을 입력할 수 있도록 마련될 수 있다.The input unit 303 may be provided so that the user can input a command to turn on the autonomous mode.

입력부(303)는 센터페시아, 기어박스 또는 스티어링 휠에 마련될 수 있고, 하드키나 소프트키 타입의 버튼, 토글 스위치, 다이얼, 음성인식장치, 동작인식장치 등의 다양한 형태로 구현될 수 있다.The input unit 303 may be provided in a center fascia, a gear box, or a steering wheel, and may be implemented in various forms such as a hard key, a soft key type button, a toggle switch, a dial, a voice recognition device,

입력부(303)는 자율주행모드와 운전자가 직접 차량을 운전하는 수동운전모드 중 어느 하나를 선택하는 입력을 수신할 수 있다. 즉, 운전자는 수동운전모드로 직접 차량을 운전하다가 입력부(303)를 조작하여 자율주행모드를 선택할 수 있고, 자율주행모드에 따라 차량이 운행되는 중에 수동운전모드를 선택하여 다시 직접 차량을 운전할 수 있다. 프로세서(317)는 자율주행모드와 수동운전모드 간의 전환이 이루어질 때, 디스플레이(300)나 스피커 등을 통해 모드의 전환이 이루어졌음을 운전자에게 알려줄 수 있다.The input unit 303 may receive an input for selecting either the autonomous mode or the manual operation mode in which the driver directly operates the vehicle. That is, the driver can directly operate the vehicle in the manual operation mode, and then can operate the input unit 303 to select the autonomous driving mode. In the autonomous driving mode, the driver can directly operate the vehicle have. The processor 317 can inform the driver that the mode is switched through the display 300 or the speaker when switching between the autonomous driving mode and the manual driving mode.

또한, 입력부는 자율주행 중 주행차로의 변경을 위한 명령을 입력할 수 있도록 마련될 수 있다. 자율주행모드에서 차로 변경 또한 자동적으로 이루어질 수도 있으나, 차로 변경 시 주변 차량과의 충돌 가능성을 배제할 수 없으므로, 차로변경을 위한 별도의 명령이 입력되는 경우에 차량이 차로를 변경할 수 있도록 설정될 수도 있다. 이 경우, 운전자가 차로변경명령을 입력부를 통해 입력하면, 프로세서는 자차량의 주행정보와 영상센서 및 거리센서에서 획득한 정보를 이용하여 차로 변경을 위한 제어를 수행할 수 있다. 이에 대한 구체적인 내용은 후술한다.Also, the input unit may be provided so as to input a command for changing to the driving lane during autonomous driving. The possibility of collision with the nearby vehicle may not be excluded at the time of the change to the car, so that the vehicle may be set to change the lane when a separate command for changing the car is input have. In this case, when the driver inputs the vehicle change command through the input unit, the processor can perform control for changing the vehicle using the running information of the vehicle, the image sensor, and the information obtained from the distance sensor. Details of this will be described later.

영상센서(309)는 차량 외부의 이미지, 특히 차량이 주행하는 전방도로의 지면의 이미지를 획득하여 프로세서(317)로 전송한다. 영상센서는(309)는 차량 전방의 영상을 획득하는 전방 카메라를 포함하고, 차량 좌우 측방의 영상을 획득하는 좌측 카메라와 우측 카메라, 차량 후방의 영상을 획득하는 후방 카메라 중 적어도 하나를 더 포함할 수도 있다. 카메라는 CCD 또는 CMOS센서를 포함할 수 있다.The image sensor 309 acquires an image of the exterior of the vehicle, in particular, the image of the ground surface of the front road on which the vehicle travels, and transmits it to the processor 317. The image sensor 309 may further include at least one of a left camera for acquiring images on the left and right sides of the vehicle, a right camera, and a rear camera for acquiring images of the rear of the vehicle, It is possible. The camera may comprise a CCD or CMOS sensor.

거리센서(307)는 차량 외부의 객체, 예를 들면 차량의 전방에서 주행하는 선행차량, 도로, 도로 주변에 설치된 구조물 등을 포함하는 정지물체, 반대 차선에서 다가오는 차선 등을 감지할 수 있다. 개시된 실시예에 따른 거리센서(307)는 선행차량을 감지하여 선행차량과의 차간 거리를 산출할 수 있다. 거리센서는(307)는 주행차로의 전방에서 주행하는 선행차량뿐만 아니라 주행차로의 옆 차선에서 주행하는 선행차량도 감지할 수 있다. 개시된 실시예에 따른 차량의 거리센서(307)는 레이더(radar) 또는 라이다(Light detection and Ranging, Lidar)를 포함할 수 있으나, 정밀한 측정을 위해 라이다로 구현되는 것이 바람직하다. 이하 개시된 실시예는 거리센서(307)가 수직방향으로 멀티 레이어의 레이저를 송출하는 멀티 레이어 라이다로 구현된 경우를 가정하여 설명한다The distance sensor 307 can detect an object outside the vehicle, for example, a stationary object including a preceding vehicle traveling in front of the vehicle, a road, a structure provided around the road, etc., and a lane approaching from the opposite lane. The distance sensor 307 according to the disclosed embodiment can detect the preceding vehicle and calculate the inter-vehicle distance from the preceding vehicle. The distance sensor 307 can sense not only the preceding vehicle traveling in front of the traveling lane but also the preceding vehicle traveling in the lane of the traveling lane. The distance sensor 307 of the vehicle according to the disclosed embodiment may include a radar or light detection and ranging (Lidar), but it is preferably implemented as a ladder for accurate measurement. The following description will be made on the assumption that the distance sensor 307 is a multilayer laser that transmits a multilayer laser in a vertical direction

프로세서(317)는 입력부(303)를 통해 자율주행모드를 선택하는 명령이 입력되거나, 크루즈 컨트롤 기능, 차선 이탈 경보 기능, 차선 유지 보조 기능 등을 선택하는 명령이 입력되면, 거리센서에서 획득한 데이터를 이용하여 선행차량을 포함한 주변의 다양한 물체를 검출할 수 있다. 또한, 영상센서에서 획득한 이미지를 이용하여 차선을 검출할 수 있다. 또는, 프로세서(317)는 전술한 기능들을 실행시키기 위한 별도의 명령이 입력되지 않아도, 차량이 주행 중이면 거리센서에서 획득한 데이터와 영상센서(309)에서 획득한 이미지를 이용하여 차량의 주변상황을 감지할 수도 있다.When a command for selecting an autonomous mode is input through the input unit 303 or a command for selecting a cruise control function, a lane departure warning function, a lane departure warning function, or the like is inputted, the processor 317 receives data Various objects in the vicinity including the preceding vehicle can be detected. In addition, the lane can be detected using the image acquired by the image sensor. Alternatively, the processor 317 may determine whether the vehicle is traveling by using the data acquired by the distance sensor and the image acquired by the image sensor 309, .

도 4는 거리센서에서 획득한 데이터를 나타낸다. 도 4의 (a)를 참조하면, 거리센서(307)에서 획득한 데이터들은 선행 차량과의 거리를 나타내는 점들로 이루어질 수 있다. 프로세서는 거리센서에서 획득한 포인트 데이터들에 군집화 알고리즘을 적용하여 도 4의 (b)에 도시된 것처럼, 사각형 형태의 오브젝트를 생성할 수 있다.4 shows data obtained from the distance sensor. Referring to FIG. 4 (a), the data obtained by the distance sensor 307 may be composed of points indicating the distance from the preceding vehicle. The processor can generate a rectangular shaped object as shown in FIG. 4 (b) by applying a clustering algorithm to the point data obtained from the distance sensor.

도 5는 거리센서에서 획득한 데이터 및 영상센서에서 획득한 이미지를 이용하여 검출한 차선을 함께 나타낸 도면이다. 프로세서는 전술한 영상센서에서 획득한 이미지를 이용하여 차선을 검출하면, 도 5에 도시된 것처럼, 거리센서에서 획득한 오브젝트 형태의 데이터들과 차선을 함께 나타낼 수 있다.FIG. 5 is a diagram showing lanes detected using data obtained from the distance sensor and images obtained from the image sensor together. When the lane is detected using the image obtained by the image sensor, the processor can display the data of the object type acquired by the distance sensor and the lane together, as shown in FIG.

입력부를 통해 차로변경명령이 입력되면, 프로세서는 차량을 이동시키고자 하는 차로를 결정하고, 차로가 결정되면 목표차로에서 주행 중인 선행차량을 결정한다. 도 5에 도시된 것처럼, 목표차로가 현재 주행중인 차로의 좌측 차로로 결정된 경우, 좌측차로에서 주행 중인 선행차량을 목표차량(TC)으로 결정할 수 있다. 즉, 프로세서는 입력부를 통해 차로변경명령이 입력되면, 거리센서 및 영상센서에서 획득한 정보를 이용하여 목표차로와 목표차량(TC)을 결정할 수 있다.When a lane change command is input through the input unit, the processor determines a lane to which the vehicle is to be moved, and determines a preceding vehicle that is traveling in the lane of the target lane when the lane is determined. As shown in FIG. 5, when the target lane is determined as the left lane of the lane under the current running, the preceding vehicle running in the left lane can be determined as the target vehicle TC. That is, the processor can determine the target lane and the target vehicle (TC) by using the information obtained from the distance sensor and the image sensor when the lane change command is input through the input unit.

목표차량(TC)이 결정되면, 프로세서는 목표차량(TC)의 좌표(P)를 추출한다. 목표차량(TC)의 좌표는 목표차량(TC)의 주행궤적(R) 생성의 기초가 되는 포인트로 목표차량(TC)을 나타내는 오브젝트 내에 포함되거나, 오브젝트의 경계선에 존재하는 어느 한 점이 목표차량(TC)의 좌표로 결정될 수 있다.When the target vehicle TC is determined, the processor extracts the coordinates P of the target vehicle TC. The coordinates of the target vehicle TC may be included in an object representing the target vehicle TC at a point on which the running trajectory R of the target vehicle TC is generated, TC).

도 6에 도시된 것처럼, 목표차량(TC)의 후방의 우측 말단에 대응하는 포인트가 목표차량(TC)의 좌표로 결정될 수 있다. 목표차량(TC)의 좌표가 결정되면, 프로세서는 목표차량(TC)의 좌표를 자차량(SC)의 현재 위치를 기초로 누적한다.As shown in Fig. 6, the point corresponding to the rear right end of the target vehicle TC can be determined as the coordinates of the target vehicle TC. When the coordinates of the target vehicle TC are determined, the processor accumulates the coordinates of the target vehicle TC based on the current position of the child vehicle SC.

프로세서는 자차량(SC)의 속도센서 및 요레이트 센서를 이용하여, 자차량(SC)의 x축 방향의 변화량, y축 방향의 변화량 및 자차량(SC)의 진행각도의 변화량을 포함하는 주행정보를 산출하고, 이렇게 산출된 주행정보를 이용하여 자차량(SC)의 현재 위치를 기준으로 하는 목표차량(TC)의 이전 좌표들을 위치를 산출할 수 있다. 여기서, 자차량(SC)의 x축 방향의 변화량, y축 방향의 변화량 및 자차량(SC)의 진행각도의 변화량은 미리 정해진 시간간격, 예를 들면 1초 이전의 자차량(SC)의 위치와 현재 자차량(SC)의 위치의 변화를 나타낼 수 있다.The processor uses the speed sensor of the own vehicle SC and the yaw rate sensor to calculate the running amount of the vehicle SC including the amount of change in the x-axis direction, the amount of change in the y- And calculate the position of the previous coordinates of the target vehicle TC based on the current position of the vehicle SC using the calculated travel information. Here, the amount of change in the x-axis direction of the subject vehicle SC, the amount of change in the y-axis direction, and the amount of change in the traveling angle of the subject vehicle SC are determined at predetermined time intervals, for example, And the position of the present-present vehicle (SC).

이렇게, 프로세서는 자차량(SC)의 주행정보를 이용하여 도 6에 도시된 것처럼, 자차량(SC)의 현재 위치를 기준으로 목표차량(TC)의 좌표를 누적하고, 누적된 목표차량(TC)의 좌표를 곡선형태로 모델링하여, 목표차량(TC)의 주행궤적(R)을 생성할 수 있다.6, the processor accumulates the coordinates of the target vehicle TC on the basis of the current position of the own vehicle SC, and outputs the accumulated target vehicle TC Can be modeled in the form of a curve to generate the running locus R of the target vehicle TC.

도 7에는 거리센서에서 획득한 데이터를 이용하여 나타낸 목표차량(TC)의 오브젝트 및 영상센서의 이미지를 이용하여 검출한 차선과 함께 도 6에 도시된 목표차량(TC)의 주행궤적(R)이 도시되어 있다. 도 7에 도시된 것처럼, 목표차량(TC)의 주행궤적(R)은 목표차량(TC)의 후방 우측 말단에 대응하는 좌표를 누적하여 생성된 것을 알 수 있다.7 shows the driving locus R of the target vehicle TC shown in Fig. 6 along with the lane detected using the object of the target vehicle TC and the image of the image sensor shown by using the data obtained by the distance sensor Respectively. It can be seen that the running locus R of the target vehicle TC is generated by accumulating the coordinates corresponding to the rear right end of the target vehicle TC as shown in Fig.

전술한 것처럼, 이동하고자 하는 차로에서 주행 중인 목표차량(TC)이 결정되고, 목표차량(TC)의 주행궤적(R)이 산출되면, 프로세서는 차로변경명령에 따라 주행차로를 변경한다.As described above, when the target vehicle TC running in the lane to be moved is determined and the running locus R of the target vehicle TC is calculated, the processor changes the running lane according to the lane changing instruction.

주행차로를 변경하고자 할 때, 차선 인지에 문제가 없으면, 프로세서는 인지된 차선에 기초하여 차로변경을 위한 자차량(SC)의 제어를 수행한다.When it is desired to change the driving lane and there is no problem in lane recognition, the processor performs control of the own vehicle SC for changing the lane based on the recognized lane.

그러나 도 8에 도시된 것처럼, 차선의 오인지가 발생할 수 있다. 도 8에 도시된 차선은 도 7에 도시된 것과 달리, 차선의 폭이 넓어지고 일정하지 않은 것을 알 수 있다. 이러한 차선 오인지가 발생하거나, 차선이 인지되지 않으면, 프로세서는 차선을 기초로 차로변경을 수행하지 않고, 목표차량(TC)의 주행궤적(R)을 추종하도록 자차량(SC)을 제어하여 차로를 변경한다. 차선의 오인지는 메모리에 미리 저장된 기준값과의 비교를 통해 이루어질 수 있다. However, as shown in Fig. 8, a lane misunderstanding can occur. It can be seen that the lane shown in Fig. 8 is different from the one shown in Fig. 7 in that the width of the lane is widened and not constant. If the lane recognition is not performed or the lane is not recognized, the processor controls the subordinate vehicle SC so as to follow the running trajectory R of the target vehicle TC without performing the lane change based on the lane, . The error of the lane can be obtained by comparing with the reference value stored in advance in the memory.

즉, 도 9에 도시된 것처럼, 차선의 오인지가 발생하면, 프로세서는 자차량(SC)이 목표차량(TC)의 주행궤적(R)을 추종하도록 하여 차선을 변경할 수 있다. 목표차량(TC)의 주행궤적(R)을 추종할 때, 프로세서는 주행궤적(R)의 기초가 된 좌표에 대응하는 자차량(SC)의 대응점이 목표차량(TC)의 주행궤적(R)을 추종하도록 구동장치를 제어할 수 있다. 즉, 프로세서는 도 9에 도시된 것처럼, 자차량(SC) 중심이 아닌 자차량(SC)의 우측 말단이 주행궤적(R)을 추종하도록 구동장치를 제어할 수 있다.That is, as shown in FIG. 9, when a lane misidentification occurs, the processor can change the lane by allowing the own vehicle SC to follow the running locus R of the target vehicle TC. The processor determines that the corresponding point of the child vehicle SC corresponding to the coordinates on which the running locus R is based is the running locus R of the target vehicle TC when following the running locus R of the target vehicle TC, It is possible to control the driving device so as to follow. That is, as shown in Fig. 9, the processor can control the driving device so that the right end of the subordinate vehicle SC, which is not the center of the subordinate vehicle SC, follows the driving trajectory R. [

따라서, 차선의 마킹이 불량하거나, 다른 차량에 의해 차선이 가려지는 등의 차선 오인지가 발생할 수 있는 상황에서도, 개시된 실시예에 따르면, 목표차량(TC)의 주행궤적(R)을 추종하도록 자차량(SC)을 제어함으로써, 목표차로로 안정적으로 차로를 변경할 수 있다.Therefore, even in a situation in which lane marking such as lane marker marking failure or lane marking by another vehicle may occur, according to the disclosed embodiment, By controlling the vehicle SC, the lane can be stably changed to the target lane.

도 10은 일 실시예에 따른 차량의 제어방법을 나타낸 순서도이다.10 is a flowchart showing a control method of a vehicle according to an embodiment.

도 10에 도시된 것처럼, 거리센서 및 영상센서에서 데이터를 획득하고(900), 차선변경명령이 입력되면(910), 프로세서는 이동하고자 하는 차로에서 주행 중인 목표차량(TC)을 결정하고(920), 목표차량(TC)의 좌표를 추출한다(930). As shown in FIG. 10, data is acquired 900 from the distance sensor and the image sensor, and when a lane change command is input 910, the processor determines a target vehicle TC in operation on a lane to be moved 920 , The coordinates of the target vehicle TC are extracted (930).

프로세서(317)는 거리센서에서 획득한 데이터를 이용하여 선행차량을 포함한 주변의 다양한 물체를 검출할 수 있다. 또한, 영상센서에서 획득한 이미지를 이용하여 차선을 검출할 수 있다. 도 4는 거리센서에서 획득한 데이터를 나타낸다. 도 4의 (a)를 참조하면, 거리센서(307)에서 획득한 데이터들은 선행 차량과의 거리를 나타내는 점들로 이루어질 수 있다. 프로세서는 거리센서에서 획득한 포인트 데이터들에 군집화 알고리즘을 적용하여 도 4의 (b)에 도시된 것처럼, 사각형 형태의 오브젝트를 생성할 수 있다.The processor 317 can detect various surrounding objects including the preceding vehicle using the data obtained from the distance sensor. In addition, the lane can be detected using the image acquired by the image sensor. 4 shows data obtained from the distance sensor. Referring to FIG. 4 (a), the data obtained by the distance sensor 307 may be composed of points indicating the distance from the preceding vehicle. The processor can generate a rectangular shaped object as shown in FIG. 4 (b) by applying a clustering algorithm to the point data obtained from the distance sensor.

도 5는 거리센서에서 획득한 데이터 및 영상센서에서 획득한 이미지를 이용하여 검출한 차선을 함께 나타낸 도면이다. 프로세서는 전술한 영상센서에서 획득한 이미지를 이용하여 차선을 검출하면, 도 5에 도시된 것처럼, 거리센서에서 획득한 오브젝트 형태의 데이터들과 차선을 함께 나타낼 수 있다.FIG. 5 is a diagram showing lanes detected using data obtained from the distance sensor and images obtained from the image sensor together. When the lane is detected using the image obtained by the image sensor, the processor can display the data of the object type acquired by the distance sensor and the lane together, as shown in FIG.

입력부를 통해 차로변경명령이 입력되면, 프로세서는 차량을 이동시키고자 하는 차로를 결정하고, 차로가 결정되면 목표차로에서 주행 중인 선행차량을 결정한다. 도 5에 도시된 것처럼, 목표차로가 현재 주행중인 차로의 좌측 차로로 결정된 경우, 좌측차로에서 주행 중인 선행차량을 목표차량(TC)으로 결정할 수 있다. 즉, 프로세서는 입력부를 통해 차로변경명령이 입력되면, 거리센서 및 영상센서에서 획득한 정보를 이용하여 목표차로와 목표차량(TC)을 결정할 수 있다.When a lane change command is input through the input unit, the processor determines a lane to which the vehicle is to be moved, and determines a preceding vehicle that is traveling in the lane of the target lane when the lane is determined. As shown in FIG. 5, when the target lane is determined as the left lane of the lane under the current running, the preceding vehicle running in the left lane can be determined as the target vehicle TC. That is, the processor can determine the target lane and the target vehicle (TC) by using the information obtained from the distance sensor and the image sensor when the lane change command is input through the input unit.

목표차량(TC)이 결정되면, 프로세서는 목표차량(TC)의 좌표(P)를 추출한다. 목표차량(TC)의 좌표는 목표차량(TC)의 주행궤적(R) 생성의 기초가 되는 포인트로 목표차량(TC)을 나타내는 오브젝트 내에 포함되거나, 오브젝트의 경계선에 존재하는 어느 한 점이 목표차량(TC)의 좌표로 결정될 수 있다. 도 6에 도시된 것처럼, 목표차량(TC)의 후방의 우측 말단에 대응하는 포인트가 목표차량(TC)의 좌표로 결정될 수 있다.When the target vehicle TC is determined, the processor extracts the coordinates P of the target vehicle TC. The coordinates of the target vehicle TC may be included in an object representing the target vehicle TC at a point on which the running trajectory R of the target vehicle TC is generated, TC). As shown in Fig. 6, the point corresponding to the rear right end of the target vehicle TC can be determined as the coordinates of the target vehicle TC.

목표차량(TC)의 좌표가 추출되면, 프로세서는 추출된 좌표를 누적하여 주행궤적(R)을 생성하고(940), 차선이 인지되지 않으면(950), 자차량이 주행궤적(R)을 추동하도록 제어하고(960), 차선이 인지되면 차선정보를 이용하여 차로를 변경한다(970).When the coordinates of the target vehicle TC are extracted, the processor accumulates the extracted coordinates to generate a running locus R 940. If the lane is not recognized 950, (960). When the lane is recognized, the lane information is used to change the lane (970).

목표차량(TC)의 좌표가 결정되면, 프로세서는 목표차량(TC)의 좌표를 자차량의 현재 위치를 기초로 누적한다.When the coordinates of the target vehicle TC are determined, the processor accumulates the coordinates of the target vehicle TC based on the present position of the child vehicle.

프로세서는 자차량의 속도센서 및 요레이트 센서를 이용하여, 자차량의 x축 방향의 변화량, y축 방향의 변화량 및 자차량의 진행각도의 변화량을 포함하는 주행정보를 산출하고, 이렇게 산출된 주행정보를 이용하여 자차량의 현재 위치를 기준으로 하는 목표차량(TC)의 이전 좌표들을 위치를 산출할 수 있다. 여기서, 자차량의 x축 방향의 변화량, y축 방향의 변화량 및 자차량의 진행각도의 변화량은 미리 정해진 시간간격, 예를 들면 1초 이전의 자차량의 위치와 현재 자차량의 위치의 변화를 나타낼 수 있다.The processor calculates the travel information including the amount of change in the x-axis direction of the subject vehicle, the amount of change in the y-axis direction, and the amount of change in the traveling angle of the subject vehicle using the speed sensor and the yaw rate sensor of the subject vehicle, The position of the previous coordinates of the target vehicle TC based on the present position of the subject vehicle can be calculated using the information. Here, the amount of change in the x-axis direction of the subject vehicle, the amount of change in the y-axis direction, and the amount of change in the traveling angle of the subject vehicle can be detected by a predetermined time interval, for example, .

이렇게, 프로세서는 자차량의 주행정보를 이용하여 도 6에 도시된 것처럼, 자차량의 현재 위치를 기준으로 목표차량(TC)의 좌표를 누적하고, 누적된 목표차량(TC)의 좌표를 곡선형태로 모델링하여, 목표차량(TC)의 주행궤적(R)(R)을 생성할 수 있다.6, the processor accumulates the coordinates of the target vehicle TC on the basis of the current position of the subject vehicle, and outputs the coordinates of the accumulated target vehicle TC as a curve To generate the running locus R (R) of the target vehicle TC.

전술한 것처럼, 이동하고자 하는 차로에서 주행 중인 목표차량(TC)이 결정되고, 목표차량(TC)의 주행궤적(R)이 산출되면, 프로세서는 차로변경명령에 따라 주행차로를 변경한다.As described above, when the target vehicle TC running in the lane to be moved is determined and the running locus R of the target vehicle TC is calculated, the processor changes the running lane according to the lane changing instruction.

주행차로를 변경하고자 할 때, 차선 인지에 문제가 없으면, 프로세서는 인지된 차선에 기초하여 차로변경을 위한 자차량의 제어를 수행한다.When it is desired to change the driving lane, if there is no problem in lane recognition, the processor performs control of the vehicle for lane change based on the recognized lane.

그러나 도 8에 도시된 것처럼, 차선의 오인지가 발생할 수 있다. 도 8에 도시된 차선은 도 7에 도시된 것과 달리, 차선의 폭이 넓어지고 일정하지 않은 것을 알 수 있다. 이러한 차선 오인지가 발생하거나, 차선이 인지되지 않으면, 프로세서는 차선을 기초로 차로변경을 수행하지 않고, 목표차량(TC)의 주행궤적(R)을 추종하도록 자차량을 제어하여 차로를 변경한다.However, as shown in Fig. 8, a lane misunderstanding can occur. It can be seen that the lane shown in Fig. 8 is different from the one shown in Fig. 7 in that the width of the lane is widened and not constant. If such lane misapprehension occurs or the lane is not recognized, the processor changes the lane by controlling the lane marker so as to follow the running locus R of the target vehicle TC without changing the lane based on the lane .

즉, 도 9에 도시된 것처럼, 차선의 오인지가 발생하면, 프로세서는 자차량이 목표차량(TC)의 주행궤적(R)을 추종하도록 하여 차선을 변경할 수 있다. 목표차량(TC)의 주행궤적(R)을 추종할 때, 프로세서는 주행궤적(R)의 기초가 된 좌표에 대응하는 자차량의 대응점이 목표차량(TC)의 주행궤적(R)을 추종하도록 구동장치를 제어할 수 있다. 즉, 프로세서는 도 9에 도시된 것처럼, 자차량 중심이 아닌 자차량의 우측 말단이 주행궤적(R)을 추종하도록 구동장치를 제어할 수 있다.That is, as shown in FIG. 9, when a lane misidentification occurs, the processor can change the lane by causing the subject vehicle to follow the trajectory R of the target vehicle TC. When following the running locus R of the target vehicle TC, the processor causes the corresponding point of the child vehicle corresponding to the coordinates that became the basis of the running locus R to follow the running locus R of the target vehicle TC The driving device can be controlled. That is, as shown in FIG. 9, the processor can control the driving device so that the right end of the subject vehicle, which is not the center of the subject vehicle, follows the trajectory R.

303: 입력부
317: 프로세서
307: 거리센서
309: 영상센서
300: 디스플레이
315: 메모리
303: Input unit
317: Processor
307: Distance sensor
309: Image sensor
300: Display
315: Memory

Claims (14)

거리센서;
차선의 이미지를 획득하도록 마련된 영상센서; 및
상기 거리센서 및 영상센서에서 획득한 데이터를 이용하여 이동하고자 하는 차로에서 주행 중인 목표차량의 주행궤적을 생성하고, 차선이 인지되지 않으면 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 프로세서;를 포함하는 차량.
Distance sensor;
An image sensor configured to acquire an image of a lane; And
And a processor for generating a driving trajectory of the target vehicle in the lane to be moved using the data obtained from the distance sensor and the image sensor and controlling the vehicle so as to follow the generated driving trajectory if the lane is not recognized Vehicle.
제1항에 있어서,
상기 프로세서는,
상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하고, 상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적함으로써 상기 목표차량의 주행궤적을 생성하는 차량
The method according to claim 1,
The processor comprising:
A vehicle that generates the trajectory of the target vehicle by accumulating the coordinates of the target vehicle using the data acquired by the distance sensor and accumulating the extracted coordinates based on the running information of the subject vehicle,
제1항에 있어서,
상기 프로세서는,
상기 거리센서에서 획득한 데이터로부터 오브젝트를 형성하고, 상기 오브젝트 중 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하는 차량
The method according to claim 1,
The processor comprising:
A vehicle that forms an object from the data acquired by the distance sensor, and determines a target vehicle traveling in a lane to which the object is to be moved,
제3항에 있어서,
상기 프로세서는,
상기 목표차량을 나타내는 오브젝트의 경계 또는 오브젝트 내에 포함되는 어느 하나의 좌표를 추출하는 차량.
The method of claim 3,
The processor comprising:
And extracts a boundary of the object representing the target vehicle or any one of coordinates included in the object.
제2항에 있어서,
상기 프로세서는,
자차량의 x좌표의 변화량, y좌표의 변화량 및 진행각도의 변화량을 포함하는 자차량의 주행정보를 산출하고, 상기 자차량의 주행정보를 이용하여 자차량의 현재 위치를 기준으로 상기 좌표를 누적하는 차량.
3. The method of claim 2,
The processor comprising:
Calculating the running information of the subject vehicle including the amount of change of the x-coordinate of the subject vehicle, the amount of change of the y-coordinate, and the amount of change of the running angle, and accumulating the coordinates based on the current position of the subject vehicle using the running information of the subject vehicle Vehicle.
제2항에 있어서,
상기 프로세서는,
상기 누적된 좌표를 곡선으로 모델링하여 주행궤적을 생성하는 차량.
3. The method of claim 2,
The processor comprising:
And modeling the accumulated coordinates as a curve to generate a running trajectory.
제2항에 있어서,
상기 프로세서는,
상기 목표차량의 좌표에 대응하는 자차량의 대응점이 상기 주행궤적을 추종하도록 자차량을 제어하는 차량.
3. The method of claim 2,
The processor comprising:
And controls the subject vehicle so that the corresponding point of the subject vehicle corresponding to the coordinates of the target vehicle follows the driving trajectory.
거리센서 및 영상센서에서 획득한 데이터를 이용하여 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하고;
상기 결정된 목표차량의 주행궤적을 생성하고;
차선이 인지되지 않으면 상기 생성된 주행궤적을 추종하도록 차량을 제어하는 것;을 포함하는 차량의 제어방법.
Determining a target vehicle in a lane to be driven using data obtained from the distance sensor and the image sensor;
Generate a driving trajectory of the determined target vehicle;
And if the lane is not recognized, controlling the vehicle to follow the generated driving trajectory.
제8항에 있어서,
이동하고자 하는 차로에서 주행 중인 목표차량을 결정하는 것은,
상기 거리센서에서 획득한 데이터에 군집화를 수행하여 오브젝트를 생성하고;
상기 오브젝트 중 이동하고자 하는 차로에서 주행 중인 목표차량을 결정하는 것;을 포함하는 차량의 제어방법
9. The method of claim 8,
The determination of the target vehicle that is traveling in the lane to be moved,
Clustering data obtained by the distance sensor to generate an object;
Determining a target vehicle traveling in a lane to which the object is to be moved;
제8항에 있어서,
상기 결정된 목표차량의 주행궤적을 생성하는 것은,
상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하고;
상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적하고;
상기 누적된 좌표를 이용하여 상기 목표차량의 주행궤적을 생성하는 것;을 포함하는 차량의 제어방법.
9. The method of claim 8,
Generating the trajectory of the determined target vehicle,
Extracting coordinates of the target vehicle using data obtained from the distance sensor;
Accumulate the extracted coordinates based on the running information of the subject vehicle;
And generating a driving trajectory of the target vehicle using the accumulated coordinates.
제10항에 있어서,
상기 거리센서에서 획득한 데이터를 이용하여 상기 목표차량의 좌표를 추출하는 것은,
목표차량을 나타내는 오브젝트의 경계 또는 오브젝트 내에 포함되는 어느 하나의 좌표를 추출하는 것;을 포함하는 차량의 제어방법.
11. The method of claim 10,
And extracting the coordinates of the target vehicle using the data obtained by the distance sensor,
Extracting a boundary of an object representing the target vehicle or any one of coordinates included in the object.
제10항에 있어서,
상기 추출된 좌표를 자차량의 주행정보에 기초하여 누적하는 것은,
자차량의 x좌표의 변화량, y좌표의 변화량 및 진행각도의 변화량을 포함하는 자차량의 주행정보를 산출하고;
상기 자차량의 주행정보를 이용하여 자차량의 현재 위치를 기준으로 상기 좌표를 누적하는 것;을 포함하는 차량의 제어방법.
11. The method of claim 10,
Accumulating the extracted coordinates based on the running information of the subject vehicle means that,
Calculating traveling information of the subject vehicle including a variation amount of the x-coordinate of the subject vehicle, a variation amount of the y-coordinate, and a variation amount of the traveling angle;
And accumulating the coordinates based on the current position of the subject vehicle using the running information of the subject vehicle.
제10항에 있어서,
상기 누적된 좌표를 이용하여 상기 목표차량의 주행궤적을 생성하는 것은,
상기 누적된 좌표를 곡선으로 모델링하여 주행궤적을 생성하는 것;을 포함하는 차량의 제어방법.
11. The method of claim 10,
Generating the trajectory of the target vehicle using the accumulated coordinates,
And modeling the accumulated coordinates as a curve to generate a driving trajectory.
제8항에 있어서,
상기 생성된 주행궤적을 추종하도록 차량을 제어하는 것은,
상기 주행궤적을 형성하는 상기 목표차량의 좌표에 대응하는 자차량의 대응점이 상기 주행궤적을 추종하도록 자차량을 제어하는 것;을 포함하는 차량의 제어방법.
9. The method of claim 8,
Controlling the vehicle so as to follow the generated driving trajectory,
And controlling the subject vehicle so that the corresponding point of the subject vehicle corresponding to the coordinates of the target vehicle forming the trajectory of the vehicle follows the trajectory of the vehicle.
KR1020150177988A 2015-12-14 2015-12-14 Vehicle and controlling method for the vehicle KR102272765B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150177988A KR102272765B1 (en) 2015-12-14 2015-12-14 Vehicle and controlling method for the vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150177988A KR102272765B1 (en) 2015-12-14 2015-12-14 Vehicle and controlling method for the vehicle

Publications (2)

Publication Number Publication Date
KR20170070458A true KR20170070458A (en) 2017-06-22
KR102272765B1 KR102272765B1 (en) 2021-07-05

Family

ID=59283199

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150177988A KR102272765B1 (en) 2015-12-14 2015-12-14 Vehicle and controlling method for the vehicle

Country Status (1)

Country Link
KR (1) KR102272765B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255404A (en) * 2020-02-11 2021-08-13 北京百度网讯科技有限公司 Lane line recognition method and device, electronic device and computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137730A (en) * 1997-07-18 1999-02-12 Nissan Motor Co Ltd Road shape estimating apparatus
JP2007008281A (en) * 2005-06-29 2007-01-18 Toyota Motor Corp Driving assistance system for vehicle
JP2015210720A (en) * 2014-04-28 2015-11-24 トヨタ自動車株式会社 Driving support apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137730A (en) * 1997-07-18 1999-02-12 Nissan Motor Co Ltd Road shape estimating apparatus
JP2007008281A (en) * 2005-06-29 2007-01-18 Toyota Motor Corp Driving assistance system for vehicle
JP2015210720A (en) * 2014-04-28 2015-11-24 トヨタ自動車株式会社 Driving support apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255404A (en) * 2020-02-11 2021-08-13 北京百度网讯科技有限公司 Lane line recognition method and device, electronic device and computer-readable storage medium

Also Published As

Publication number Publication date
KR102272765B1 (en) 2021-07-05

Similar Documents

Publication Publication Date Title
KR101788183B1 (en) Vehicle and controlling method for the vehicle
JP6025273B2 (en) Vehicle travel control device
US9880554B2 (en) Misrecognition determination device
KR101694347B1 (en) Vehicle and lane detection method for the vehicle
JP6318864B2 (en) Driving assistance device
JP6243942B2 (en) Vehicle travel control device
US9896098B2 (en) Vehicle travel control device
EP3312057A1 (en) Parking assistance device and parking assistance method
JP6597905B2 (en) Lane change support method and lane change support device
US10754335B2 (en) Automated driving system
JP2019182305A (en) Vehicle control device, vehicle control method, and program
JP2007253745A (en) Avoidance operation calculating device, avoidance controller, vehicle provided with each device, avoidance operation calculating method, and avoidance control method
KR101754072B1 (en) Vehicle and control method for the vehicle
JP2007091025A (en) Forward monitoring device for vehicle
CN110281934B (en) Vehicle control device, vehicle control method, and storage medium
JP4916723B2 (en) Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device
JP2018063476A (en) Apparatus, method and computer program for driving support
KR20180071575A (en) Vehicle and controlling method for the vehicle
KR101736104B1 (en) Vehicle and controlling method for the vehicle
JP6609292B2 (en) Outside environment recognition device
KR102218532B1 (en) Vehicle and control method for the vehicle
KR102272765B1 (en) Vehicle and controlling method for the vehicle
KR102338989B1 (en) Vehicle and controlling method for the vehicle
KR20170056339A (en) Vehicle and lane detection method for the vehicle
KR102164840B1 (en) Vehicle and control method for the vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant