KR102217973B1 - Lane guide apparatus and method for guiding lane - Google Patents
Lane guide apparatus and method for guiding lane Download PDFInfo
- Publication number
- KR102217973B1 KR102217973B1 KR1020190078348A KR20190078348A KR102217973B1 KR 102217973 B1 KR102217973 B1 KR 102217973B1 KR 1020190078348 A KR1020190078348 A KR 1020190078348A KR 20190078348 A KR20190078348 A KR 20190078348A KR 102217973 B1 KR102217973 B1 KR 102217973B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- vehicle
- reference object
- width
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000004891 communication Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 3
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 3
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
일 실시예에 따른 차로 가이드 장치는, 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 저장할 수 있는 메모리, 사용자 차량의 제1 측방에 위치하는 제1 기준 물체 및 제1 측방과 상이한 제2 측방에 위치하는 제2 기준 물체를 인식할 수 있는 센서 및 제1 기준 물체와 제2 기준 물체 사이의 거리 및 차로 폭에 관한 정보에 기초하여, 사용자 차량이 위치하는 차로를 인식하는 제어부를 포함할 수 있다.A lane guide device according to an embodiment includes a memory capable of storing information on a width of a lane in an area where a user vehicle is located, a first reference object located on a first side of the user vehicle, and a second side different from the first side. A sensor capable of recognizing a second reference object positioned at and a control unit for recognizing a lane in which the user vehicle is located, based on information on the distance and lane width between the first reference object and the second reference object. have.
Description
본 출원에 의해 개시되는 발명은 차로 가이드 장치 및 차로 가이드 방법에 관한 것이다.The invention disclosed by the present application relates to a lane guide device and a lane guide method.
도로 정비가 미흡한 경우, 기상 악화 또는 주변 차량에 의한 방해 등의 이유로 인해 운전자가 차로의 차선을 시각적으로 인식하기 어려운 경우가 있다. 특히, 최근 들어 무인 자율 주행 기술에 대한 연구가 활발해지고 있는데, 자율 주행 차량이 차선 인식 오류를 일으키는 경우, 인간보다 인지 능력 및 대처 능력이 부족하여 자칫 대형 사고로 이어질 수 있는 위험성이 있다. When road maintenance is insufficient, it may be difficult for the driver to visually recognize the lane of the lane due to bad weather or obstruction by nearby vehicles. In particular, in recent years, research on unmanned autonomous driving technology is becoming active. When an autonomous vehicle causes a lane recognition error, there is a risk that a large accident may occur due to lack of cognitive ability and coping ability than humans.
따라서, 이러한 문제점을 해결하고자, 차량이 차로를 따라 주행할 수 있도록 안내하는 기술에 대한 수요 및 관심이 증가하고 있다.Therefore, in order to solve this problem, there is an increasing demand and interest in a technology for guiding a vehicle to travel along a lane.
일 실시예에 따르면, 각 지역별 또는 국제 기준에 따른 차로의 간격에 기초하여 생성된 가상의 차선을 따라 차량 주행이 가능하도록 돕는 차로 가이드 장치 및 차로 가이드 방법이 제공될 수 있다.According to an embodiment, there may be provided a lane guide device and a lane guide method that help to drive a vehicle along a virtual lane generated based on an interval between a lane according to each region or international standard.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved is not limited to the above-described problems, and problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.
일 양상에 따르면, 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 저장할 수 있는 메모리, 사용자 차량의 제1 측방에 위치하는 제1 기준 물체 및 제1 측방과 상이한 제2 측방에 위치하는 제2 기준 물체를 인식할 수 있는 센서 및 제1 기준 물체와 제2 기준 물체 사이의 거리 및 차로 폭에 관한 정보에 기초하여, 사용자 차량이 위치하는 차로를 인식하는 제어부를 포함하는, 차로 가이드 장치가 제공될 수 있다. According to an aspect, a memory capable of storing information on a width of a lane in an area in which the user vehicle is located, a first reference object located on a first side of the user vehicle, and a second reference object located on a second side different from the first side. A lane guide device is provided, which includes a sensor capable of recognizing a reference object and a control unit for recognizing a lane in which a user vehicle is located based on information on the distance and lane width between the first reference object and the second reference object. Can be.
차로 가이드 장치는 외부 기기로부터 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 수신할 수 있는 통신부를 더 포함할 수 있다.The lane guide device may further include a communication unit capable of receiving information on the width of a lane in an area where the user vehicle is located from an external device.
차로 가이드 장치는 사용자 차량이 위치하는 차로가 변경되면, 알람을 제공하는 출력부를 더 포함할 수 있다.The lane guide device may further include an output unit that provides an alarm when the lane in which the user's vehicle is located is changed.
차로 가이드 장치는, 사용자 차량이 위치하는 차로를 표시하는 표시부를 더 포함할 수 있다.The lane guide device may further include a display unit that displays a lane in which the user vehicle is located.
이 때 제1 기준 물체는, 중앙 분리대, 인도 경계석 및 가이드레일 중 어느 하나일 수 있다.In this case, the first reference object may be any one of a center separator, a sidewalk edge, and a guide rail.
이 때, 제1 기준 물체는 제1 차량이고, 제2 기준 물체는 제2 차량일 수 있다.In this case, the first reference object may be a first vehicle, and the second reference object may be a second vehicle.
제어부는, 차로 폭에 관한 정보에 기초하여, 제1 기준 물체로부터 차량이 위치하는 차로를 인식할 수 있다.The control unit may recognize a lane in which the vehicle is located from the first reference object based on the information on the lane width.
차로 폭에 관한 정보는 제1 차로 폭 및 제1 차로 폭과 상이한 제2 차로 폭을 포함할 수 있고, 제어부는 차로 폭에 관한 정보에 기초하여, 제2 기준 물체로부터 차량이 위치하는 차로를 인식할 수 있다.The information about the lane width may include the width of the first lane and the width of the second lane different from the width of the first lane, and the control unit recognizes the lane where the vehicle is located from the second reference object based on the information about the lane width. can do.
제어부는, 차로 폭에 관한 정보에 기초하여, 제1 기준 물체로부터 차량이 위치하는 제1 차로를 인식하고, 차로 폭에 관한 정보에 기초하여, 제2 기준 물체로부터 차량이 위치하는 제2 차로를 인식하고, 제1 차로 및 제2 차로가 불일치하는 경우, 사용자 차량이 위치하는 차로가 변경되는 것으로 판단할 수 있다.The control unit recognizes the first lane where the vehicle is located from the first reference object, based on information about the lane width, and determines a second lane where the vehicle is located from the second reference object, based on the information about the lane width. It is recognized, and when the first lane and the second lane do not match, it may be determined that the lane in which the user vehicle is located is changed.
다른 양상에 따르면, 메모리 또는 통신부를 통해 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 획득하는 단계, 센서를 통해 제1 측방에 위치하는 제1 기준 물체를 인식하는 단계, 센서를 통해 제1 측방과 상이한 제2 측방에 위치하는 제2 기준 물체를 인식하는 단계 및 제1 기준 물체와 제2 기준 물체 사이의 거리 및 지역의 차로 폭에 관한 정보에 기초하여, 사용자 차량이 위치하는 차로를 인식하는 단계를 포함하는 차로 가이드 방법이 제공될 수 있다. According to another aspect, obtaining information on a width of a lane in an area in which the user vehicle is located through a memory or a communication unit, recognizing a first reference object located at a first side through a sensor, and a first Recognizing a second reference object located on a second side different from the side, and recognizing a lane in which the user vehicle is located based on information about the distance between the first reference object and the second reference object and the width of the local lane A car guide method including the step of: may be provided.
차로 가이드 방법은, 차로 폭에 관한 정보에 기초하여, 제1 기준 물체로부터 차량이 위치하는 차로를 인식하는 단계를 더 포함할 수 있다.The lane guide method may further include recognizing a lane in which the vehicle is located from the first reference object, based on information about the lane width.
차로 가이드 방법은, 차로 폭에 관한 정보는 제1 차로 폭 및 제1 차로 폭과 상이한 제2 차로 폭을 포함하고, 차로 폭에 관한 정보에 기초하여, 제2 기준 물체로부터 차량이 위치하는 차로를 인식하는 단계를 더 포함할 수 있다.In the lane guide method, the information on the lane width includes the width of the first lane and the width of the second lane different from the width of the first lane, and the lane where the vehicle is located from the second reference object is determined based on the information on the lane width. It may further include the step of recognizing.
일 실시예에 따르면, 각 지역별 또는 국제 기준에 따른 차로의 간격에 기초하여 가상의 차선들이 생성됨으로써, 운전자는 차선을 따라 주행하는 것이 용이하다.According to an embodiment, virtual lanes are generated based on an interval of lanes according to regional or international standards, so that it is easy for a driver to drive along the lanes.
실시예들에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the embodiments are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.
도 1은, 일 실시예에 따른 차로 가이드 장치의 내부 블록도이다.
도 2는, 일 실시예에 따른 차로 가이드 장치의 디스플레이부에 관한 도면이다.
도 3은, 일 실시예에 따른 차로 가이드 장치의 동작 방법에 관한 순서도이다.
도 4는, 일 실시예에 따라 차로 가이드 장치가 사용자 차량이 위치하는 차로를 인식할 수 있는 차로에 관한 도면이다.
도 5는, 다른 일 실시예에 따라 차로 가이드 장치가 사용자 차량이 위치하는 차로를 인식할 수 있는 차로에 관한 도면이다.1 is an internal block diagram of a road guide device according to an exemplary embodiment.
2 is a diagram illustrating a display unit of a road guide device according to an exemplary embodiment.
3 is a flowchart illustrating a method of operating a road guide device according to an exemplary embodiment.
4 is a diagram illustrating a lane through which a lane guide device can recognize a lane in which a user vehicle is located, according to an exemplary embodiment.
FIG. 5 is a diagram illustrating a lane through which a lane guide device can recognize a lane in which a user vehicle is located, according to another exemplary embodiment.
실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have selected general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as "... unit" and "... module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. In addition, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm executed on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used widely, and are not limited to mechanical and physical configurations.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components illustrated in the drawings are merely illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.
도 1은, 일 실시예에 따른 차로 가이드 장치의 내부 블록도이다. 도 1을 참조하면, 차로 가이드 장치(100)는, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.1 is an internal block diagram of a road guide device according to an exemplary embodiment. Referring to FIG. 1, the
상술한 구성 요소들은 차로 가이드 장치(100) 구성 요소들의 일 실시예이며, 차로 가이드 장치(100)가 상술한 구성 요소들을 모두 포함해야 하는 것은 아니고, 또한, 차로 가이드 장치(100)는 상술한 구성 요소들 외에도 다른 구성 요소들을 더 포함할 수 있음은 물론이다. The above-described components are an embodiment of the components of the
예를 들어, 차로 가이드 장치(100)가 사용자 차량의 운행에 개입하는 정도에 따라, 차로 가이드 장치(100)는 출력부를 통해 사용자 차량을 간접적으로 가이드할 수도 있고, 또는 차로 가이드 장치(100)는 차량 구동부를 통해 사용자 차량을 보다 적극적이고 직접적으로 가이드할 수도 있다. For example, depending on the degree to which the
차로 가이드 장치(100)는 일반적인 차량의 구성요소들을 포함할 수 있다. 또는 차로 가이드 장치(100)는 일반적인 네비게이션과 같은 영상 기록 장치의 형태로 제공될 수도 있다.The
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The
통신부(110)는 외부 기기로부터 사용자 차량이 위치하는 지역의 도로 및 차로에 관한 정보들를 수신할 수 있다. 외부 기기는 예를 들면, 해당 지역의 교통 정보 및 교통 관련 법규 등을 제공하는 서버일 수 있다.The
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The
운전 조작 수단은, 차량 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives a user input for driving the vehicle. The driving operation means may include a steering input means, a shift input means, an acceleration input means, and a brake input means.
가속 입력 수단은, 사용자로부터 차량의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량의 감속을 위한 입력을 수신한다.The acceleration input means receives an input for acceleration of the vehicle from a user. The brake input means receives an input for deceleration of the vehicle from a user.
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera can process still or moving images obtained by an image sensor (eg CMOS or CCD). The image processing module may process a still image or a moving image acquired through an image sensor, extract necessary information, and transmit the extracted information to the
한편, 차량은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the vehicle may include a front camera for capturing a front image of the vehicle, an around view camera for capturing an image around the vehicle, and a rear camera for capturing a rear image of the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may comprise a stereo camera. In this case, the processor of the camera may detect a distance to an object, a relative speed with an object detected in the image, and distances between a plurality of objects using a difference in disparity detected in the stereo image.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed with the object, and the distance between a plurality of objects based on the time until the infrared or laser emitted from the light source is reflected and received (TOF). can do.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be disposed near the rear license plate or the trunk or the tail gate switch, but the position at which the rear camera is disposed is not limited thereto.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor synthesizes each image to generate an image around the vehicle. In this case, the image around the vehicle may be displayed as a top view image or a bird's eye image through the display unit.
센싱부(125)는, 차량의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the
센싱부는 사용자 차량의 주변에 위치하는 물체를 감지할 수 있다. 예를 들면, 센싱부는 사용자 차량에 대해 각 방향에 위치하는 물체들의 존재, 물체까지의 거리, 물체의 이동 방향 및 이동 속도 등을 감지할 수 있다.The sensing unit may detect an object located around the user's vehicle. For example, the sensing unit may detect the presence of objects located in each direction with respect to the user's vehicle, a distance to the object, a moving direction and a moving speed of the object.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
메모리(130)는 사용자 차량이 위치하는 지역의 도로 및 차로에 관한 정보들을 저장할 수 있다. 메모리(130)는 통신부(110)를 통해 수신한 도로 및 차로에 관한 정보들을 저장할 수도 있고, 또는 입력부를 통해 사용자로부터 입력 받은 도로 및 차로에 관한 정보들을 저장할 수도 있다.The
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The
출력부(140)는 제어부의 명령에 따라 사용자 차량이 위치하는 차로가 변경되면, 디스플레이부를 통해 시각적인 방법으로, 음향 출력부를 통해 청각적인 방법으로 또는 햅틱 출력부를 통해 촉각적인 방법 등 다양한 방법으로 차로의 변경을 사용자에게 알릴 수 있다. When the lane in which the user's vehicle is located is changed according to a command from the control unit, the
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다. 디스플레이부는 제어부의 명령에 따라 제어부가 인식한 사용자 차량이 위치하는 차로의 차선 등을 표시할 수 있다.The display unit may display information processed by the
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle status information or vehicle operation information while driving. Clusters can be placed on the dashboard. In this case, the driver can check information displayed on the cluster while keeping his gaze in front of the vehicle.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The
동력원 구동부는, 차량 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driving unit may perform electronic control on the power source in the vehicle. For example, when a fossil fuel-based engine (not shown) is a power source, the power source driving unit may perform electronic control on the engine. Thereby, it is possible to control the output torque of the engine and the like. When the power source driver is an engine, the speed of the vehicle may be limited by limiting the engine output torque according to the control of the
브레이크 구동부는, 차량 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit may perform electronic control of a brake apparatus (not shown) in the vehicle. For example, by controlling the operation of a brake disposed on a wheel, it is possible to reduce the speed of the vehicle. As another example, the driving direction of the vehicle may be adjusted to the left or to the right by differently operating brakes disposed on the left and right wheels.
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver may control turning on/off of lamps disposed inside or outside the vehicle. In addition, it is possible to control the light intensity and direction of the lamp. For example, it is possible to control a direction indicator lamp, a brake lamp, and the like.
제어부(170)는, 차량 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 추돌 방지 장치는 제어부(170)에 의해 구동될 수 있다.The
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In hardware, the
일 실시예에서 제어부(170)는 차량의 주행 중 ADAS 카메라를 이용하여 도로 영상을 촬영하고, 촬영된 도로 영상으로부터 도로의 수평 데이터를 획득하고, 차량의 주행 중 차량의 센서를 이용하여 차체 기울기를 측정한 기울기 데이터를 획득하고, 획득된 수평 데이터 및 기울기 데이터를 기초로 ADAS 카메라의 위치를 보정한다.In one embodiment, the
인터페이스부(180)는, 차량에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
도 2는, 일 실시예에 따른 차로 가이드 장치(100)의 디스플레이부에 관한 도면이다. 도 2를 참조하면, 도로 정비가 미흡한 경우, 기상 악화 또는 주변 차량에 의한 방해 등의 이유로 인해 차로의 차선을 시각적으로 인식하기 어려운 경우가 있다.2 is a diagram illustrating a display unit of the
차로 가이드 장치(100)는 이러한 경우에 차량이 차선(a1, a2)을 따라 주행할 수 있도록 센서 및 차로에 관한 정보를 통해 차량이 위치하는 차로의 차선(a1, a2)을 인식하고, 차량이 위치하는 차로의 차선(a1, a2)을 디스플레이부를 통해 표시할 수 있다. 또는 차로 가이드 장치(100)는 차량이 차로를 변경할 때, 출력부(140)를 통해 사용자에게 알릴 수 있다.In this case, the
차로 가이드 장치(100)가, 센서 및 차로에 관한 정보에 기초하여 차선(a1, a2)을 인식하는 것에 대해서는 도 3 내지 도 5를 통해 더 자세히 후술한다.The
차로 가이드 장치(100)는 카메라를 통해 차량의 주변, 특히 차량의 전면을 촬영할 수 있다. 차로 가이드 장치(100)는 촬영한 영상에, 인식한 차로의 차선(a1, a2)을 가상으로 생성하여 시각적으로 디스플레이부에 표시할 수 있다.The
차로 가이드 장치(100)는 이를 위해, 촬영한 영상을 분석하여 사용자의 차량을 인식하고, 사용자 차량을 기준으로 하여 차로의 차선(a1, a2)을 표시할 수 있다. 또는 차로 가이드 장치(100)는 촬영한 영상을 분석하여, 도로의 중앙 분리대(1400), 인도 경계석(1500) 및 가이드레일 등의 물체들을 인식하고, 이들을 기준으로 하여 차로의 차선(a1, a2)을 표시할 수도 있다.To this end, the
도 3은, 일 실시예에 따른 차로 가이드 장치(100)의 동작 방법에 관한 순서도이다.3 is a flowchart illustrating a method of operating the
먼저, 차로 가이드 장치(100)는 메모리(130) 또는 통신부(110)를 통해 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 획득할 수 있다(S1100). 도로 및 차로의 폭, 차로의 종류, 차선의 색깔, 차선의 폭, 도로 내 중앙 분리대, 인도 경계석, 가이드 레일의 설치 여부 및 그 형태 등은 지역마다 상이한 기준에 따라 설계된다. First, the
따라서, 차로를 정확히 인식하기 위해 차로 가이드 장치(100)는 사용자 차량이 위치하는 지역의 차로에 관한 정보를 획득할 수 있다. 차로 가이드 장치(100)는 메모리(130)에 입력된 차로에 관한 정보들 또는 통신부(110)를 통해 외부 기기 및 외부 서버로부터 차로에 관한 정보들을 획득할 수 있다.Accordingly, in order to accurately recognize the lane, the
이후, 차로 가이드 장치(100)는 센서를 통해 제1 측방에 위치하는 제1 기준 물체 및 제2 측방에 위치하는 제2 기준 물체를 인식할 수 있다(S1200). 구체적으로, 차로 가이드 장치(100)는 기준 물체와 사용자 차량 간의 이격 거리, 또는 기준 물체가 운동하는 경우 기준 물체의 이동 속도 및 이동 방향 등을 감지할 수 있다. Thereafter, the
기준 물체는, 중앙 분리대(1400), 인도 경계석(1500) 및 가이드레일 중 어느 하나일 수 있다. 이에 대해 도 4를 참조하여 더 자세히 후술한다. 또는 기준 물체는 사용자 차량 주변의 차량일 수도 있다. 이에 대해 도 5를 참조하여 더 자세히 후술한다.The reference object may be any one of a
이후, 제1 기준 물체와 제2 기준 물체 사이의 거리 및 차로 폭에 관한 정보에 기초하여, 사용자 차량이 위치하는 차로를 인식할 수 있다(S1300). 차로 가이드 장치(100)는 출력부(140)를 통해 카메라를 이용해 촬영한 영상 내에서 사용자 차량이 위치하는 차로를 표시할 수 있다. 또는 차로 가이드 장치(100)는 사용자 차량이 위치하는 차로가 변경되면, 출력부(140)를 통해 알람을 제공할 수 있다.Thereafter, based on the information on the distance and the width of the lane between the first reference object and the second reference object, a lane in which the user vehicle is located may be recognized (S1300). The
도 4는, 일 실시예에 따라 차로 가이드 장치(100)가 사용자 차량이 위치하는 차로를 인식할 수 있는 차로에 관한 도면이다. 도 4에서 차로(1100, 1200, 1300)가 세 개인 것으로 도시하였으나, 이는 예시일 뿐이며, 차로의 개수는 다양할 수 있다.4 is a diagram of a lane through which the
도 4에서 차량(2100)은 차로(1100)을 따라 주행하고 있으며, 차로 가이드 장치(100)는 센싱부(125)를 통해 차량(2100) 주변의 기준 물체들을 감지할 수 있다. 예를 들면, 차로 가이드 장치(100)는 근접 센서를 통해 차량(2100) 좌측에 있는 중앙 분리대(1400)를 감지할 수 있고, 중앙 분리대(1400)를 제1 기준 물체로 이용할 수 있다.In FIG. 4, the
또, 차로 가이드 장치(100)는 센싱부(125)를 통해 차량(2100) 우측에 있는 인도 경계석(1500)을 감지할 수 있고, 인도 경계석(1500)을 제2 기준 물체로 이용할 수 있다.In addition, the
차로 가이드 장치(100)는 해당 지역의 차로에 관한 정보를 저장할 수 있으며, 예를 들면, 차로 가이드 장치(100)는 차로(1100)의 폭, 차로(1200)의 폭, 차로(1300)의 폭, 차로(1300)의 우측 차선으로부터 인도 경계석(1500)까지의 거리 등에 관한 정보들을 저장할 수 있다.The
차로 가이드 장치(100)는 해당 지역의 차로에 관한 정보, 제1 기준 물체와 제2 기준 물체 사이의 거리, 제1 기준 물체와 차량 간 거리 및 제2 기준 물체와 차량 간 거리 등에 기초하여 사용자 차량이 위치하는 차로를 인식할 수 있다.The
예를 들면, 차로 가이드 장치(100)는 제1 기준 물체와 차량(2100) 간 거리(d1)가 차로 폭(L1)보다 작은 경우, 차량(2100)이 차로(1100)에 위치하는 것으로 판단할 수 있다. 또, 차로 가이드 장치(100)는 제1 기준 물체와 차량(2100) 간 거리(d1)가 차로 폭(L1) 보다는 크되, 차로 폭(L1) 및 차로 폭(L2)의 합보다는 작은 경우, 차량(2100)이 차로(1200)에 위치하는 것으로 판단할 수 있다. 또, 차로 가이드 장치(100)는 제1 기준 물체와 차량(2100) 간 거리(d1)가 차로 폭(L1) 및 차로 폭(L2)의 합보다 크되, 차로 폭(L1), 차로 폭(L2) 및 차로 폭(L3)의 합보다 작은 경우, 차량(2100)이 차로(1300)에 위치하는 것으로 판단할 수 있다.For example, when the distance d1 between the first reference object and the
또 다른 예를 들면, 차로 가이드 장치(100)는 제2 기준 물체와 차량(2100) 간 거리(d2)가 차로 폭(L3)보다 작은 경우, 차량(2100)이 차로(1300)에 위치하는 것으로 판단할 수 있다. 또, 차로 가이드 장치(100)는 제2 기준 물체와 차량(2100) 간 거리(d2)가 차로 폭(L3) 보다는 크되, 차로 폭(L3) 및 차로 폭(L2)의 합보다는 작은 경우, 차량(2100)이 차로(1200)에 위치하는 것으로 판단할 수 있다. 또, 차로 가이드 장치(100)는 제2 기준 물체와 차량(2100) 간 거리(d2)가 차로 폭(L3) 및 차로 폭(L2)의 합보다 크되, 차로 폭(L3), 차로 폭(L2) 및 차로 폭(L1)의 합보다 작은 경우, 차량(2100)이 차로(1100)에 위치하는 것으로 판단할 수 있다.As another example, when the distance d2 between the second reference object and the
또 다른 예를 들면, 차로 가이드 장치(100)는 제1 기준 물체와 차량(2100) 간 거리(d1)에 기초하여 판단한 차량(2100)이 위치하는 차로와, 제2 기준 물체와 차량(2100) 간 거리(d2)에 기초하여 판단한 차량(2100)이 위치하는 차로를 비교할 때, 서로 불일치하는 경우, 차량(2100)의 일부분이 차선과 중복되는 영역에 있는 것으로 판단할 수 있다, 즉, 차로 가이드 장치(100)는 이 경우에 사용자 차량(2100)이 위치하는 차로가 변경되는 것으로 판단할 수 있다. As another example, the
도 5는, 다른 일 실시예에 따라 차로 가이드 장치(100)가 사용자 차량(2100)이 위치하는 차로를 인식할 수 있는 차로에 관한 도면이다. 도 5를 참조하면, 기준 물체는 차량(2200, 2300)일 수 있다. 예를 들면, 제1 기준 물체는 사용자 차량(2100)의 좌측에 있는 제1 차량(2300)이고, 제2 기준 물체는 사용자 차량의 우측에 있는 제2 차량(2400)일 수 있다.5 is a diagram of a lane through which the
차로 가이드 장치(100)는, 제1 차량(2300)과 사용자 차량(2100) 간의 거리(d3) 및 제2 차량(2400)과 사용자 차량(2100) 간의 거리(d4)에 기초하여, 제1 차량(2300)과 제2 차량(2400)의 거리를 획득할 수 있다. 이 때 차로 가이드 장치(100)는 사용자 차량(2100)의 폭(d0)에 해당하는 값을 미리 지정할 수 있다.The
차로 가이드 장치(100)는 해당 지역의 차로에 관한 정보, 제1 차량(2300)과 제2 차량(2400) 간 거리, 사용자 차량(2100)과 제1 차량(2300) 간 거리(d3) 및 사용자 차량(2100)과 제2 차량(2400) 간 거리(d4) 등에 기초하여 사용자 차량(2100)이 위치하는 차로를 인식할 수 있다.The
예를 들면, 차로 가이드 장치(100)는 제1 차량(2300)과 사용자 차량(2100) 간 거리(d3) 및 제2 차량(2400)과 사용자 차량(2100) 간 거리(d4)가 동일한 값이 되도록 사용자 차량(2100)의 주행을 유도할 수 있다.For example, in the
예를 들면, 차로 가이드 장치(100)는 해당 지역의 차로의 폭에 따라 제1 차량(2300)과 제2 차량(2400)을 잇는 가상의 선의 중심점 및 해당 지역의 차로의 폭을 그리는 가상의 선의 중심점이 일치하도록, 해당 지역의 차로의 차선을 생성할 수 있다. 차로 가이드 장치(100)는 생성한 해당 지역의 차로의 차선을 디스플레이를 통해 표시할 수 있다.For example, the
일 실시예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a user such as a key, a button, etc. It may include an interface device or the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, as a computer-readable recording medium, a magnetic storage medium (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading medium (e.g., CD-ROM ) And DVD (Digital Versatile Disc). The computer-readable recording medium is distributed over network-connected computer systems, so that computer-readable codes can be stored and executed in a distributed manner. The medium is readable by a computer, stored in memory, and executed on a processor.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals are described in the embodiments shown in the drawings, and specific terms are used to describe the embodiments, but the present invention is not limited by specific terms, and the embodiments are all configurations commonly conceived by those skilled in the art. Can contain elements.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with various numbers of hardware or/and software configurations that perform specific functions. For example, the embodiment is an integrated circuit configuration such as memory, processing, logic, a look-up table, etc., capable of executing various functions by controlling one or more microprocessors or other control devices Can be hired. Similar to how the components of the present invention can be implemented with software programming or software elements, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++. , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. In addition, the embodiments may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means”, and “composition” can be used widely, and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections that can be replaced or additionally It may be referred to as a connection, or circuit connections. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the embodiment (especially in the claims), the use of the term “above” and a similar reference term may correspond to both the singular and the plural. In addition, when a range is described in an embodiment, the invention to which individual values falling within the range are applied (unless otherwise stated), it is the same as describing each individual value constituting the range in the detailed description. . Finally, if there is no clearly stated or contrary to the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. The embodiments are not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the embodiments is merely for describing the embodiments in detail, and the scope of the embodiments is limited by the above examples or illustrative terms unless limited by the claims. It is not. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.
100 차로 가이드 장치
140 출력부
1100 차로
1400 중앙 분리대
1500 인도 경계석
2100 차량Guide device with 100 lanes
140 output
1100 cars
1400 center separator
1500 Indian Curb Stone
2100 vehicles
Claims (12)
상기 사용자 차량이 위치하는 지역의 차로 폭에 관한 정보를 저장하는 메모리;
상기 사용자 차량의 좌측에 위치하는 제1 기준 물체 및 상기 사용자 차량의 우측에 위치하는 제2 기준 물체를 인식하는 센서;
상기 제1 기준 물체와 상기 제2 기준 물체 사이의 거리 및 상기 차로 폭에 관한 정보에 기초하여 상기 사용자 차량이 위치하는 차로를 인식하고, 제1 기준 물체와 제2 기준 물체를 잇는 가상의 제1 선의 중심점과, 상기 사용자 차량이 위치하는 차로의 좌측 차선 및 상기 좌측 차선과 상기 지역의 차로 폭만큼 이격된 우측 차선을 잇는 가상의 제2 선의 중심점이 일치하도록, 상기 좌측 차선 및 상기 우측 차선을 생성하는 제어부; 및
상기 사용자 차량이 위치하는 차로의 상기 좌측 차선 및 상기 우측 차선을 표시하는 표시부; 를 포함하는
차로 가이드 장치.A communication unit configured to receive information on a width of a lane in an area where the user vehicle is located from an external device;
A memory for storing information on a width of a lane in an area where the user vehicle is located;
A sensor for recognizing a first reference object located on the left side of the user vehicle and a second reference object located on the right side of the user vehicle;
A virtual first to recognize a lane in which the user vehicle is located based on the distance between the first reference object and the second reference object and information on the lane width, and connect the first reference object and the second reference object The left lane and the right lane are created so that the center point of the line coincides with the center point of the virtual second line connecting the left lane of the lane where the user vehicle is located and the left lane and the right lane separated by the width of the local lane A control unit; And
A display unit for displaying the left lane and the right lane of a lane in which the user vehicle is located; Including
Guide device by car.
상기 사용자 차량이 위치하는 차로가 변경되면, 알람을 제공하는 출력부;를 더 포함하는
차로 가이드 장치.The method of claim 1,
An output unit that provides an alarm when the lane in which the user vehicle is located is changed; further comprising
Guide device by car.
상기 제1 기준 물체는, 중앙 분리대, 인도 경계석 및 가이드레일 중 어느 하나인
차로 가이드 장치.The method of claim 1,
The first reference object is any one of a central separator, a sidewalk curb, and a guide rail.
Guide device by car.
상기 제1 기준 물체는 제1 차량이고,
상기 제2 기준 물체는 제2 차량인
차로 가이드 장치. The method of claim 1,
The first reference object is a first vehicle,
The second reference object is a second vehicle
Guide device by car.
상기 제어부는,
상기 차로 폭에 관한 정보에 기초하여, 상기 제1 기준 물체로부터 상기 차량이 위치하는 차로를 인식하는,
차로 가이드 장치.The method of claim 1,
The control unit,
Recognizing a lane in which the vehicle is located from the first reference object based on information on the lane width,
Guide device by car.
상기 제어부는,
상기 차로 폭에 관한 정보는 제1 차로 폭 및 상기 제1 차로 폭과 상이한 제2 차로 폭을 포함하고,
상기 차로 폭에 관한 정보에 기초하여, 상기 제2 기준 물체로부터 상기 차량이 위치하는 차로를 인식하는,
차로 가이드 장치.The method of claim 1,
The control unit,
The information on the lane width includes a first lane width and a second lane width different from the first lane width,
Recognizing a lane in which the vehicle is located from the second reference object based on the information on the lane width,
Guide device by car.
상기 제어부는,
상기 차로 폭에 관한 정보에 기초하여, 상기 제1 기준 물체로부터 상기 차량이 위치하는 제1 차로를 인식하고,
상기 차로 폭에 관한 정보에 기초하여, 상기 제2 기준 물체로부터 상기 차량이 위치하는 제2 차로를 인식하고,
상기 제1 차로 및 상기 제2 차로가 불일치하는 경우, 상기 사용자 차량이 위치하는 차로가 변경되는 것으로 판단하는,
차로 가이드 장치.The method of claim 1,
The control unit,
Recognizing a first lane where the vehicle is located from the first reference object based on the information on the lane width,
Recognizing a second lane where the vehicle is located from the second reference object based on the information on the lane width,
If the first lane and the second lane do not match, determining that the lane in which the user vehicle is located is changed,
Guide device by car.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190078348A KR102217973B1 (en) | 2019-06-28 | 2019-06-28 | Lane guide apparatus and method for guiding lane |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190078348A KR102217973B1 (en) | 2019-06-28 | 2019-06-28 | Lane guide apparatus and method for guiding lane |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210002286A KR20210002286A (en) | 2021-01-07 |
KR102217973B1 true KR102217973B1 (en) | 2021-02-22 |
Family
ID=74126617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190078348A KR102217973B1 (en) | 2019-06-28 | 2019-06-28 | Lane guide apparatus and method for guiding lane |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102217973B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002225657A (en) * | 2001-02-06 | 2002-08-14 | Oki Electric Ind Co Ltd | Travel lane detecting system for vehicle |
JP2004341941A (en) * | 2003-05-16 | 2004-12-02 | Denso Corp | Traveling lane estimation device, branch lane entry estimation device, vehicle speed control device, and program |
-
2019
- 2019-06-28 KR KR1020190078348A patent/KR102217973B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002225657A (en) * | 2001-02-06 | 2002-08-14 | Oki Electric Ind Co Ltd | Travel lane detecting system for vehicle |
JP2004341941A (en) * | 2003-05-16 | 2004-12-02 | Denso Corp | Traveling lane estimation device, branch lane entry estimation device, vehicle speed control device, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20210002286A (en) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10127820B2 (en) | Driver assistance apparatus and vehicle including the same | |
US9978280B2 (en) | Driver assistance apparatus and vehicle including the same | |
KR101838187B1 (en) | Display Apparatus and Vehicle Having The Same | |
CN107176165B (en) | Vehicle control device | |
US10240937B2 (en) | Display apparatus for vehicle and vehicle | |
KR101916993B1 (en) | Display apparatus for vehicle and control method thereof | |
US10800428B2 (en) | Vehicle driving assistance method and vehicle | |
KR101942793B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
US10919528B2 (en) | Vehicle driving assistance device and vehicle | |
US10748428B2 (en) | Vehicle and control method therefor | |
US20180134285A1 (en) | Autonomous driving apparatus and vehicle including the same | |
KR102004062B1 (en) | Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle | |
KR20180037426A (en) | Parking Assistance Apparatus and Vehicle Having The Same | |
KR102227371B1 (en) | Image projection apparatus of vehicle and vehicle including the same | |
KR102217973B1 (en) | Lane guide apparatus and method for guiding lane | |
KR20200002515A (en) | Method and apparatus for determining an accident using an image | |
KR102219339B1 (en) | Driving assistance and driving assistance method thereof | |
KR102559534B1 (en) | Method and apparatus for supporting driving lines of vehicle in bad weather | |
KR102296213B1 (en) | Video recording apparatus and operating method thereof | |
KR102705475B1 (en) | Method and apparatus for displaying an image on handle display of vehicle | |
KR102541416B1 (en) | Method and apparatus for displaying a HUD image based on realtime traffic information | |
KR102202638B1 (en) | Driving assistance and driving assistance method thereof | |
KR102175793B1 (en) | Method and apparatus for outputting an alarm for congitive impairment of driver | |
KR20240022212A (en) | Method and apparatus for sharing a lane of driving vehicle | |
KR20240103847A (en) | Method and apparatus for providing a safety driving of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |