KR20220133007A - 차량의 주행 지원 장치 및 그것의 동작 방법 - Google Patents

차량의 주행 지원 장치 및 그것의 동작 방법 Download PDF

Info

Publication number
KR20220133007A
KR20220133007A KR1020210038257A KR20210038257A KR20220133007A KR 20220133007 A KR20220133007 A KR 20220133007A KR 1020210038257 A KR1020210038257 A KR 1020210038257A KR 20210038257 A KR20210038257 A KR 20210038257A KR 20220133007 A KR20220133007 A KR 20220133007A
Authority
KR
South Korea
Prior art keywords
vehicle
region
interest
post
image
Prior art date
Application number
KR1020210038257A
Other languages
English (en)
Inventor
김효원
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020210038257A priority Critical patent/KR20220133007A/ko
Priority to US17/474,351 priority patent/US11908201B2/en
Publication of KR20220133007A publication Critical patent/KR20220133007A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치는, 차량의 위치 정보에 기초하여 상기 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 위치 확인부, 상기 차량 주변의 영상을 획득하는 카메라부 및 상기 차량이 상기 서킷 영역 내에 위치하는지 여부에 기초하여 상기 획득된 영상으로부터 특정 객체를 인식하고, 상기 특정 객체를 기준으로 관심 영역을 설정하고, 상기 관심 영역을 우선적으로 영상 처리하는 처리부를 포함할 수 있다.

Description

차량의 주행 지원 장치 및 그것의 동작 방법{APPARATUS FOR SUPPORTING DRIVING OF VEHICLE AND METHOD OF THE SAME}
본 문서에 개시된 실시예들은 차량의 주행 지원 장치 및 그것의 동작 방법에 관한 것이다.
현대의 차량은 더 이상 이동만을 위한 수단이 아니다. 이에 따라, 운전자의 주행을 지원하고 다양한 기능을 제공하기 위하여 차량용 인포테인먼트 시스템이 구축되었다. 차량용 인포테인먼트 시스템은 운전과 길 안내에 필요한 차량 상태 정보와 DMB, 내비게이션, 음악, 라디오 등과 같은 엔터테인먼트 서비스를 제공할 수 있다. 이러한 서비스들을 제공하기 위해, 차량용 인포테인먼트 시스템은 DMB, GPS 또는 라디오 신호를 수신하거나, 차량 내의 휴대 장치와 지정된 유/무선 통신을 수행할 수 있다.
한편, 고성능의 차량을 구매하여 서킷 등의 트랙에서 주행을 즐기려는 소비자들이 증가하고 있다. 그런데, 서킷에서 처음으로 주행을 해보는 운전자들의 경우 안전한 주행을 위하여 다양한 서킷 내 상황에 대한 안내가 필요하다.
본 문서에 개시된 실시예들의 일 목적은 서킷 영역에서 사용자의 차량 주행을 지원하는 차량의 주행 지원 장치를 제공하는 데 있다.
본 문서에 개시된 실시예들의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치는, 차량의 위치 정보에 기초하여 상기 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 위치 확인부, 상기 차량 주변의 영상을 획득하는 카메라부 및 상기 차량이 상기 서킷 영역 내에 위치하는지 여부에 기초하여 상기 획득된 영상으로부터 특정 객체를 인식하고, 상기 특정 객체를 기준으로 관심 영역을 설정하고, 상기 관심 영역을 우선적으로 영상 처리하는 처리부를 포함할 수 있다.
일 실시예에서, 처리부는 상기 차량이 상기 서킷 영역 내에 위치하는 경우에 상기 획득된 영상으로부터 상기 특정 객체를 인식할 수 있다.
일 실시예에서, 상기 특정 객체는 상기 서킷 영역 내에 위치하는 포스트를 포함할 수 있다.
일 실시예에서, 상기 처리부는 상기 관심 영역을 우선적으로 영상 처리하여 신호기를 인식할 수 있다.
일 실시예에서, 상기 처리부에서 상기 신호기를 인식한 경우 상기 신호기에 관한 내용을 출력하는 출력부를 더 포함할 수 있다.
일 실시예에서, 처리부는 상기 포스트가 상기 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 상기 포스트의 우측 영역을 제1 관심 영역으로 설정할 수 있고, 상기 포스트가 상기 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 상기 포스트의 좌측 영역을 제2 관심영역으로 설정할 수 있다.
일 실시예에서, 상기 처리부는 상기 포스트의 위치가 저장되어 있는 상기 서킷 영역의 지도 정보를 획득할 수 있고, 사익 차량의 위치 정보와 상기 지도 정보에 기초하여 상기 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식할 수 있다.
일 실시예에서, 상기 처리부는 상기 도달 예정인 포스트의 위치가 상기 차량의 진행 방향을 기준으로 우측인 경우에는 상기 제1 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식할 수 있고, 상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 좌측인 경우에는 상기 제2 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식할 수 있다.
일 실시예에서, 상기 처리부는 상기 획득된 영상으로부터 특이 상황의 발생 여부를 인식할 수 있다.
일 실시예에서, 상기 처리부는 상기 획득된 영상에서 상기 차량의 전방에 장애물이 인식되는 경우, 상기 차량의 전방에 이동이 없는 타차량이 인식되는 경우, 상기 차량의 전방에 특정 차량이 인식되는 경우, 상기 차량의 후방에 타차량이 인식되는 경우 및 상기 차량의 후방에 상기 특정 차량이 인식되는 경우 중 적어도 어느 하나의 경우에 상기 특이 상황이 발생한 것으로 인식할 수 있다.
일 실시예에서, 상기 처리부는 상기 획득된 영상에서 상기 제1 관심 영역 및 상기 제2 관심 영역 이외의 영역을 상기 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정할 수 있다.
일 실시예에서, 상기 카메라부는 상기 차량 전방의 영상을 획득하는 전방 카메라 및 상기 차량 후방의 영상을 획득하는 후방 카메라를 포함할 수 있다.
일 실시예에서, 상기 차량 전방 및 후방의 장애물을 탐지 및 분석하는 LIDAR 센서를 더 포함할 수 있다.
본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법은 차량의 위치 정보를 확인하는 단계, 상기 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계, 상기 차량 주변의 영상을 획득하는 단계, 상기 차량이 상기 서킷 영역 내에 위치하는 경우 상기 획득된 영상에서 특정 객체를 인식하는 단계, 상기 특정 객체를 기준으로 관심 영역을 설정하는 단계 및 상기 관심 영역을 우선적으로 영상 처리 하는 단계를 포함할 수 있다.
일 실시예에서, 상기 특정 객체는 상기 서킷 영역 내에 위치하는 포스트를 포함할 수 있다.
일 실시예에서, 상기 관심 영역을 우선적으로 영상 처리 하는 단계는, 신호기를 인식하는 단계 및 특이 상황의 발생 여부를 인식하는 단계를 포함할 수 있다.
일 실시예에서, 상기 특정 객체를 기준으로 관심 영역을 설정하는 단계는, 상기 포스트가 상기 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 상기 포스트의 우측 영역을 제1 관심 영역으로 설정할 수 있고, 상기 포스트가 상기 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 상기 포스트의 좌측 영역을 제2 관심 영역으로 설정할 수 있다.
일 실시예에서, 상기 차량이 상기 서킷 영역 내에 위치하는 경우 상기 획득된 영상에서 특정 객체를 인식하는 단계는, 상기 포스트의 위치가 저장되어 있는 지도 정보를 획득하는 단계 및 상기 차량의 위치 정보와 상기 지도 정보에 기초하여 상기 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식하는 단계를 포함할 수 있다.
일 실시예에서 상기 신호기를 인식하는 단계는, 상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 우측인 경우에는 상기 제1 관심 영역을 우선적으로 처리하여 상기 신호기를 인식할 수 있고, 상기 도달 예정인 포스트의 위치가 상기 차량의 진행 방향을 기준으로 좌측인 경우에는 상기 제2 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식할 수 있다.
일 실시예에서, 상기 관심 영역을 설정하는 단계는, 상기 획득된 영상에서 상기 제1 관심 영역 및 상기 제2 관심 영역 이외의 영역을 상기 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정할 수 있다.
본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치는 서킷 영역 내에서 사용자의 차량 주행을 지원할 수 있다.
도 1은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치를 보여주는 블록도이다.
도 2는 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치에서 처리부가 관심 영역을 설정하는 것을 보여주는 도면이다.
도 3은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치에서 처리부가 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보에 기초하여 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식하는 것을 보여주는 도면이다.
도 4는 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법을 보여주는 흐름도이다.
도 5는 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법 에서 획득된 영상에서 특정 객체를 인식하는 단계, 특정 객체를 기준으로 관심 영역을 설정하는 단계 및 관심 영역을 우선적으로 영상 처리 하는 단계를 구체적으로 보여주는 흐름도이다.
도 6 및 도 7은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법에서 특이 상황의 발생 여부를 인식하는 단계 및 출력 단계를 구체적으로 보여주는 흐름도이다.
이하, 본 문서에 개시된 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면 상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 문서에 개시된 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 문서에 개시된 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 문서에 개시된 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치를 보여주는 블록도이다.
도 1을 참조하면, 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치(100)는 위치 확인부(110), 카메라부(120), 처리부(130) 및 출력부(140)를 포함할 수 있다.
위치 확인부(110)는 차량의 위치 정보를 확인할 수 있다. 예를 들어, 위치 확인부(110)는 차량의 위치 정보에 기초하여 차량이 서킷 영역 내에 위치하는지 여부를 확인할 수 있다. 여기서, 서킷 영역은 순환 경주로로서 자동차, 모터사이클 등이 주행하는 도로를 포함하는 영역을 의미할 수 있다. 한편, 서킷 영역은 사전에 정의된 영역으로서, 위치 확인부(110)는 차량의 주행 전 서킷 영역에 대한 정보를 획득할 수 있다.
카메라부(120)는 차량 주변의 영상을 획득할 수 있다. 예를 들어, 카메라부(120)는 차량 전방의 영상을 획득하는 전방 카메라 및 차량 후방의 영상을 획득하는 후방 카메라를 포함할 수 있다.
처리부(130)는 차량이 서킷 영역 내에 위치하는지 여부에 기초하여 획득된 영상으로부터 특정 객체를 인식할 수 있고, 특정 객체를 기준으로 관심 영역을 설정할 수 있고, 관심 영역을 우선적으로 영상 처리할 수 있다.
처리부(130)는 차량이 서킷 영역 내에 위치하는 경우에 카메라부(120)에서 획득된 영상에 기초하여 특정 객체를 인식할 수 있다. 예를 들어, 특정 객체는 포스트를 포함할 수 있다. 즉, 처리부(130)는 획득된 영상으로부터 포스트를 인식할 수 있다. 여기서, 포스트는 경기 중인 드라이버에게 깃발 신호를 보내 위험을 알리거나, 경기 위원장에게 경기상황을 알리기 위해 마련된 장소일 수 있다. 즉, 포스트에서 진행 요원이 신호기를 사용하여 운전자에게 신호를 보낼 수 있다.
처리부(130)는 포스트를 기준으로 관심 영역을 설정할 수 있다. 예를 들어, 처리부(130)는 포스트가 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 포스트의 우측 영역을 제1 관심 영역으로 설정할 수 있다. 또한, 처리부(130)는 포스트가 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 포스트의 좌측 영역을 제2 관심 영역으로 설정할 수 있다.
처리부(130)의 관심 영역의 설정에 대하여 도 2를 참조하여 구체적으로 설명한다.
도 2는 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치에서 처리부가 관심 영역을 설정하는 것을 보여주는 도면이다.
도 2를 참조하면, 카메라 부에서 획득된 영상(C1)에서 처리부(130)는 차량의 진행 방향을 기준으로 우측에 위치하는 포스트(P1) 또는 차량의 진행 방향을 기준으로 좌측에 위치하는 포스트(P2)를 인식할 수 있다. 처리부(130)는 차량의 진행 방향을 기준으로 우측에 포스트(P1)가 인식된 경우, 우측에 위치하는 포스트(P1)의 우측 영역(A1)을 제1 관심 영역으로 설정할 수 있다. 또한, 처리부(130)는 차량의 진행 방향을 기준으로 좌측에 포스트(P2)가 인식된 경우, 좌측에 위치하는 포스트(P2)의 좌측 영역(A2)를 제2 관심 영역으로 설정할 수 있다.
다만, 도 2를 참조하면 처리부(130)는 차량의 진행 방향을 기준으로 우측에 위치하는 포스트(P1) 및 차량의 진행 방향을 기준으로 좌측에 위치하는 포스트(P2)를 동시에 인식하여 제1 관심 영역 및 제2 관심 영역을 설정하는 것으로 도시 되었지만, 차량의 진행 방향을 기준으로 우측에 위치하는 포스트(P1)와 좌측에 위치하는 포스트(P2)가 동시에 인식되는 것은 아니며, P1 및 P2 중 적어도 하나가 인식될 수 있다.
다시 도 1을 참조하면, 처리부(130)는 관심 영역을 우선적으로 영상 처리하여 신호기를 인식할 수 있다. 예를 들어, 신호기는 국제자동차연맹에 의해 정의된 서킷 내 상황 안내용 국제 신호 안내 깃발일 수 있다.
구체적으로, 처리부(130)는 포스트를 기준으로 설정된 제1 관심 영역 또는 제2 관심 영역을 신호기를 인식하기 위하여 집중적으로 영상 처리할 수 있다. 즉, 처리부(130)는 관심 영역에서 신호기 이외의 객체에 대하여 인식하지 않고, 관심 영역에서는 신호기만 우선하여 영상 처리할 수 있다. 따라서, 처리부(130)는 관심 영역을 설정하지 않은 경우보다 빠르게 신호기를 인식할 수 있다.
처리부(130)는 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보를 획득할 수 있다. 예를 들어, 처리부(130)는 차량의 주행 전에 미리 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보를 획득할 수 있다.
처리부(130)는 위치 확인부(110)에서 확인한 차량의 위치와 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보에 기초하여 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식할 수 있다. 예를 들어, 처리부(130)는 도달 예정인 포스트의 위치가 차량의 진행 방향을 기준으로 우측인지 또는 좌측인지 인식할 수 있다.
처리부(130)는 도달 예정인 포스트의 위치가, 차량의 진행 방향을 기준으로 우측인 경우에는 제1 관심 영역을 우선적으로 영상 처리하여 신호기를 인식할 수 있다. 또한, 처리부(130)는 도달 예정인 포스트의 위치가, 차량의 진행 방향을 기준으로 좌측인 경우에는 제2 관심 영역을 우선적으로 영상 처리 하여 신호기를 인식할 수 있다.
도 3을 참조하여 도달 예정인 포스트의 위치를 인식하는 방법을 구체적으로 설명한다.
도 3은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치에서 처리부가 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보에 기초하여 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식하는 것을 보여주는 도면이다.
도 3을 참조하면, 위치 확인부(110)는 주행 중인 차량의 위치(L)를 확인할 수 있고, 처리부(130)는 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보(1000)를 획득할 수 있다. 처리부(130)는 주행 중인 차량의 위치(L)와 포스트의 위치가 저장되어 있는 서킷 영역의 지도 정보(1000)를 기준으로, 차량의 진행 방향을 기준으로 도달 예정인 포스트(P3)의 위치를 인식할 수 있다. 예를 들어, 처리부(130)는 주행 중인 차량의 위치(L)에서 도달 예정인 포스트(P3)의 위치가 차량의 진행 방향을 기준으로 우측에 있는 것으로 판단할 수 있다. 즉, 처리부(130)는 도달 예정인 포스트(P3)의 위치가 차량의 진행 방향을 기준으로 우측에 있는 것으로 인식하여, 제1 관심 영역을 우선적으로 영상 처리 하여 신호기를 인식할 수 있다.
다시 도 1을 참조하면, 처리부(130)는 획득된 영상으로부터 특이 상황의 발생 여부를 인식할 수 있다. 예를 들어, 처리부(130)는 획득된 영상에서 차량의 전방에 장애물이 인식되는 경우, 차량의 전방에 이동이 없는 타차량이 인식되는 경우, 차량의 전방에 특정 차량이 인식되는 경우, 차량의 후방에 타차량이 인식되는 경우 및 차량의 후방에 특정 차량이 인식되는 경우 중 적어도 어느 하나의 경우에 특이 상황이 발생한 것으로 인식할 수 있다. 다만, 특이 상황이 발생한 경우는 상술한 경우들에 한정되는 것은 아니며, 이외에도 처리부(130)는 차량 주변에 특이 상황이 발생했다고 인정될 수 있는 경우를 인식할 수 있다.
한편, 특정 차량은 세이프티 카(Safety Car)일 수 있다. 구체적으로, 세이프티 카는 서킷에 문제가 발생했을 때 상황 정리를 위해 투입되는 지휘 차량으로서, 차량의 주행 지원 장치(100)는 세이프티 카가 인식된 경우 운전자에게 안내하여 안전한 주행을 하도록 유도할 수 있다.
처리부(130)는 획득된 영상에서 제1 관심 영역 및 제2 관심 영역 이외의 영역을 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정할 수 있다. 예를 들어, 처리부(130)는 제1 관심 영역 및 제2 관심 영역에서는 신호기에 대하여 우선적으로 영상 처리할 수 있고, 제3 관심 영역에서는 특이 상황의 발생 여부를 인식하기 위하여 우선적으로 영상 처리 할 수 있다.
구체적으로, 도 2를 참조하면, 처리부(130)는 카메라부(120)에서 획득된 영상(C1)에서 제1 관심 영역(A1) 및 제2 관심 영역(A2) 이외의 영역을 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역(A3)으로 설정할 수 있다.
출력부(140)는 처리부(130)에서 신호기를 인식한 경우에 신호기에 관한 내용을 출력할 수 있다. 구체적으로, 출력부(140)는 처리부(130)에서 신호기를 인식한 경우에 신호기를 시각화하여 화면에 출력할 수 있고, 신호기에 대한 설명을 화면에 출력할 수 있다. 또한, 출력부(140)는 인식된 신호기의 설명을 음성으로 안내할 수 있다.
출력부(140)는 처리부(130)에서 특이 상황의 발생을 인식한 경우에 경고음을 출력할 수 있다. 예를 들어, 출력부(140)는 처리부(130)에서 차량 전방에 이동이 없는 타차량이 인식되는 경우에 사고 주의 경고음을 출력할 수 있고, 처리부(130)에서 차량의 전방에 장애물이 인식되는 경우에는 장애물 주의 경고음을 출력할 수 있고, 처리부(130)에서 차량의 전방 또는 후방에 세이프티 카가 인식되는 경우에는 추월 금지 경고음을 출력할 수 있다.
또한, 출력부(140)는 차량 후방에 세이프티 카의 접근이 인식되는 경우에 추월 금지 경고음을 출력할 수 있고, 출력부(140)는 처리부(130)에서 차량 후방에 타차량의 접근이 인식되는 경우에, 운전자가 후방 타차량의 주행 방식을 판단할 수 있도록 음성으로 안내할 수 있다. 즉, 운전자는 안내 받은 음성을 기준으로 후방의 타차량의 추월을 방해할 수 있다.
본 문서에 개시된 일 실시예에서, 차량의 주행 지원 장치(100)는 LIDAR 센서(미도시)를 더 포함할 수 있다.
예를 들어, LIDAR 센서(미도시)는 차량의 전방 및 후방의 장애물을 탐지 및 분석할 수 있다. 즉, LIDAR 센서(미도시)는 카메라부(110)에서 인식하지 못한 장애물을 인식할 수 있고 카메라부(110)의 역할을 지원할 수 있다.
차량의 주행 지원 장치(100)는 상술한 위치 확인부(110), 카메라부(120), 처리부(130) 및 출력부(140)의 동작을 기초로 운전자가 서킷에서 차량의 성능을 즐기고 레이싱 경주에 참가해 주행을 할 수 있도록 지원하는 역할을 수행할 수 있다. 구체적으로, 차량의 주행 지원 장치(100)는 차량 주변의 영상을 획득할 수 있고, 획득된 영상에서 포스트를 인식할 수 있고, 포스트를 기준으로 관심 영역을 설정할 수 있고, 관심 영역을 우선적으로 처리하여 신호기 및 특이 상황의 발생을 인식할 수 있다. 차량의 주행 지원 장치(100)는 출력부(140)를 통하여 운전자에게 인식한 신호기 및 특이 상황의 발생을 안내할 수 있고, 운전자는 안내 받은 정보에 기초하여 서킷 영역에서 차량을 주행할 수 있다. 즉, 운전자는 차량의 주행 지원 장치(100)의 동작을 통하여 서킷 내의 상황을 정확하게 인지할 수 있고, 고성능 차량의 서킷에서의 주행 감성을 제공받을 수 있다.
이하에서는 차량의 주행 지원 장치(100)의 동작 방법에 대하여 도 4를 참조하여 설명한다.
도 4는 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법을 보여주는 흐름도이다.
도 4를 참조하면, 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치(100)의 동작 방법은, 차량의 위치 정보를 확인하는 단계(S100), 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계(S200), 차량 주변의 영상을 획득하는 단계(S300), 차량이 서킷 영역 내에 위치하는 경우 획득된 영상에서 특정 객체를 인식하는 단계(S400), 특정 객체를 기준으로 관심 영역을 설정하는 단계(S500) 및 관심 영역을 우선적으로 영상 처리 하는 단계(S600)를 포함할 수 있다.
차량의 위치 정보를 확인하는 단계(S100)에서, 위치 확인부(110)는 차량의 위치 정보를 확인할 수 있다. 예를 들어, 위치 확인부(110)는 차량의 GPS에서 차량의 위치 정보를 획득할 수도 있고, 위치 확인부(110)에서 직접 차량의 위치를 확인할 수도 있다.
차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계(S200)에서 위치 확인부(110)는 차량의 위치가 서킷 영역 내에 위치하는지 여부를 확인할 수 있다. 구체적으로, 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계(S200)에서 위치 확인부(110)는 확인한 차량의 위치 정보와 서킷 영역에 대한 정보를 비교하여, 차량이 서킷 영역 내에 위치하는지 여부를 확인할 수 있다. 한편, 서킷 영역에 대한 정보는 기 설정값일 수 있고, 위치 확인부(110)는 서킷 영역에 대한 정보를 차량의 주행 전에 획득할 수 있다.
한편, 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계(S200)에서 차량의 주행 지원 장치(100)는 차량이 서킷 영역 내부에 위치하지 않는 경우에는 차량의 주행 지원 동작의 수행을 종료할 수 있다.
차량 주변의 영상을 획득하는 단계(S300)에서 카메라부(120)는 차량 주변의 영상을 획득할 수 있다. 구체적으로, 카메라부(120)는 차량 전방의 영상을 전방 카메라에서 획득할 수 있고, 차량 후방의 영상을 후방 카메라에서 획득할 수 있다.
차량이 서킷 영역 내에 위치하는 경우 획득된 영상에서 특정 객체를 인식하는 단계(S400)에서, 처리부(130)는 위치 확인부(110)에서 확인한 차량의 위치가 서킷 영역 내부인 경우에 특정 객체를 인식할 수 있다. 예를 들어, 차량이 서킷 영역 내에 위치하는 경우 획득된 영상에서 특정 객체를 인식하는 단계(S400)에서 특정 객체는 서킷 영역 내에 위치하는 포스트를 포함할 수 있고, 처리부(130)는 카메라부(120)에서 획득된 영상으로부터 포스트를 인식할 수 있다.
특정 객체를 기준으로 관심 영역을 설정하는 단계(S500)에서, 처리부(130)는 인식된 특정 객체를 기준으로 관심 영역을 설정할 수 있다. 예를 들어, 특정 객체를 기준으로 관심 영역을 설정하는 단계(S500)에서 처리부(130)는 포스트를 기준으로 관심 영역을 설정할 수 있다.
구체적으로, 특정 객체를 기준으로 관심 영역을 설정하는 단계(S500)에서 처리부(130)는 인식된 포스트가 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 포스트의 우측 영역을 제1 관심 영역으로 설정할 수 있다. 또한, 처리부(130)는 인식된 포스트가 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 포스트의 좌측 영역을 제2 관심 영역으로 설정할 수 있다.
관심 영역을 우선적으로 영상 처리 하는 단계(S600)에서 처리부(130)는 설정된 관심 영역을 우선적으로 영상 처리하여 기 설정된 객체들을 인식할 수 있다. 예를 들어, 관심 영역을 우선적으로 영상 처리 하는 단계(S600)에서 처리부(130)는 신호기를 인식할 수 있고, 특이 상황의 발생 여부를 인식할 수 있다.
한편, 상술한 특정 객체를 기준으로 관심 영역을 설정하는 단계(S500)에서 처리부(130)는 획득된 영상에서 제1 관심 영역 및 제2 관심 영역 이외의 영역을 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정할 수 있다. 예를 들어, 처리부(130)는 제1 관심 영역 및 제2 관심 영역을 우선적으로 처리하여 신호기를 인식할 수 있고, 제3 관심 영역을 우선적으로 처리하여 특이 상황의 발생 여부를 인식할 수 있다.
본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치(100)의 동작 방법을 통하여 운전자는 서킷 영역 내에서의 상황을 인지하는 것을 지원받을 수 있다. 구체적으로, 차량의 위치 정보를 확인하는 단계(S100)에서 위치 확인부(100)가 차량의 위치를 확인할 수 있고, 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계(S200)에서 위치 확인부(100)가 차량의 위치가 서킷 영역 내부인지 확인하여 서킷인 경우에 차량의 시스템을 주행을 지원하는 모드로 전환할 수 있다. 또한 차량의 주행 지원 장치(100)의 동작 방법에서 차량 주변의 영상을 획득하는 단계(S300)에서 카메라부(120)는 차량 전방 및 후방의 영상을 획득할 수 있고, 차량이 서킷 영역 내에 위치하는 경우 획득된 영상에서 특정 객체를 인식하는 단계(S400)에서 처리부(130)는 획득된 영상에서 포스트를 인식할 수 있고, 특정 객체를 기준으로 관심 영역을 설정하는 단계(S500)에서 처리부(130)는 포스트를 기준으로 제1 관심 영역, 제2 관심 영역 및 제3 관심 영역을 설정할 수 있다. 결론적으로, 차량의 주행 지원 장치(100)의 동작 방법에서, 관심 영역을 우선적으로 영상 처리 하는 단계(S600)에서 처리부(100)는 제1 관심 영역 또는 제2 관심 영역을 우선적으로 처리하여 신호기를 인식할 수 있고, 제3 관심 영역으로 우선적으로 영상 처리하여 차량 주변의 특이 상황의 발생 여부를 인식할 수 있다. 즉, 차량의 주행 지원 장치(100)는 동작을 수행하여 운전자에게 서킷 내부의 신호기 또는 차량 주변의 특이 상황의 발생을 안내할 수 있다. 따라서, 운전자는 서킷 영역 내부에서의 주행을 지원받을 수 있다.
이하에서는 상기 S400 단계 내지 S600 단계에 대하여 도 5을 참조하여 구체적으로 설명한다.
도 5은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법 에서 획득된 영상에서 특정 객체를 인식하는 단계, 특정 객체를 기준으로 관심 영역을 설정하는 단계 및 관심 영역을 우선적으로 영상 처리 하는 단계를 구체적으로 보여주는 흐름도이다.
도 5을 참조하면, S400 단계 내지 S600 단계는, 포스트의 위치가 저장되어 있는 지도 정보를 획득하는 단계(S410), 도달 예정인 포스트의 위치를 인식하는 단계(S420), 차량의 진행 방향 기준으로 포스트의 위치를 판단하는 단계(S430), 제1 관심 영역 및 제3 관심 영역을 설정하는 단계(S510), 제2 관심 영역 및 제3 관심 영역을 설정하는 단계(S520), 신호기를 인식하는 단계(S610) 및 특이 상황의 발생 여부를 인식하는 단계(S620)를 포함할 수 있다.
구체적으로, S400 단계는 S410 단계 내지 S430 단계를 포함할 수 있고, S500 단계는 S510 단계 및 S520 단계를 포함할 수 있고, S600 단계는 S610 단계 및 S620 단계를 포함할 수 있다.
포스트의 위치가 저장되어 있는 지도 정보를 획득하는 단계(S410)에서 처리부(130)는 서킷 영역 내의 포스트의 위치가 저장되어 있는 서킷의 지도 정보를 획득할 수 있다. 예를 들어, 처리부(130)는 포스트의 위치가 저장되어 있는 서킷의 고해상도 지도를 차량의 주행 전 획득할 수도 있고, 차량의 주행 중에 무선 통신으로 로딩 할 수도 있다.
도달 예정인 포스트의 위치 인식 단계(S420)에서 처리부(130)는 위치 확인부(110)에서 확인한 차량의 위치 정보와 포스트의 위치가 저장되어 있는 서킷의 지도 정보를 비교하여, 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식할 수 있다. 예를 들어, 도달 예정인 포스트의 위치 인식 단계(S420)에서 처리부(130)는 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식한 경우에, 인식된 도달 예정인 포스트의 위치를 획득된 영상에서 집중적으로 처리하여 포스트를 인식할 수 있다.
차량의 진행 방향 기준으로 포스트의 위치를 판단하는 단계(S430)에서 처리부(130)는 차량의 진행 방향을 기준으로 인식된 포스트의 위치를 판단할 수 있다. 예를 들어, 차량의 진행 방향 기준으로 포스트의 위치를 판단하는 단계(S430)에서 처리부(130)는 차량의 진행 방향을 기준으로 인식된 포스트가 우측에 위치하는지 또는 좌측에 위치하는지 여부를 판단할 수 있다.
제1 관심 영역 및 제3 관심 영역을 설정하는 단계(S510) 및 제2 관심 영역 및 제3 관심 영역을 설정하는 단계(S520)에서 처리부(130)는 인식된 포스트의 위치를 기준으로 제1 관심 영역, 제2 관심 영역, 및 제3 관심 영역을 설정할 수 있다.
예를 들어, 제1 관심 영역 및 제3 관심 영역을 설정하는 단계(S510)에서 처리부(130)는 인식된 포스트의 위치가 차량의 진행 방향을 기준으로 우측인 경우에, 카메라부(120)에서 획득된 영상에서 포스트를 기준으로 우측 영역을 제1 관심 영역으로 설정할 수 있고, 이외의 영역을 제3 관심 영역으로 설정할 수 있다.
또한, 제2 관심 영역 및 제3 관심 영역을 설정하는 단계(S520)에서 처리부(130)는 인식된 포스트의 위치가 차량의 진행 방향을 기준으로 좌측인 경우에, 카메라부(120)에서 획득된 영상에서 포스트를 기준으로 좌측 영역을 제2 관심 영역으로 설정할 수 있고, 이외의 영역을 제3 관심 영역으로 설정할 수 있다.
신호기를 인식하는 단계(S610)에서 처리부(130)는 관심 영역을 우선적으로 영상 처리하여 신호기를 인식할 수 있다. 예를 들어, 신호기를 인식하는 단계(S610)에서 처리부(130)는 포스트를 기준으로 설정된 제1 관심 영역 또는 제2 관심 영역을 우선적으로 영상 처리 하여 신호기를 인식할 수 있다.
특이 상황의 발생 여부를 인식하는 단계(S620)에서 처리부(130)는 관심 영역을 우선적으로 영상 처리하여 차량 주변의 특이 상황의 발생 여부를 인식할 수 있다. 예를 들어, 특이 상황의 발생 여부를 인식하는 단계(S620)에서 처리부(130)는 획득된 영상에서 포스트를 기준으로 설정된 제1 관심 영역 및 제2 관심 영역 이외의 제3 관심 영역을 우선적으로 영상 처리 하여 특이 상황의 발생 여부를 인식할 수 있다.
구체적으로, 특이 상황의 발생 여부를 인식하는 단계(S620)에서 처리부(130)는 카메라부(120)에서 획득된 영상에서 차량의 전방에 장애물이 인식되는 경우, 차량의 전방에 이동이 없는 타차량이 인식되는 경우, 차량의 전방에 특정 차량이 인식되는 경우, 차량의 후방에 타차량이 인식되는 경우 및 차량의 후방에 특정 차량이 인식되는 경우 중 적어도 어느 하나의 경우에 특이 상황이 발생한 것으로 인식할 수 있다. 한편, 특정 차량은 세이프티 카를 포함할 수 있다.
한편, 도 5을 참조하면 신호기를 인식하는 단계(S610)와 특이 상황의 발생 여부를 인식하는 단계(S620)는 순서대로 수행되는 것으로 도시되어 있지만 이에 한정되지 않는다. 즉, 처리부(130)는 S620 단계를 S610 단계보다 먼저 또는 동시에 수행할 수 있다.
본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치(100)의 동작 방법은, 출력 단계(S700)를 더 포함할 수 있다.
출력 단계(S700)에서, 출력부(140)는 인식된 신호기에 대한 정보를 사용자에게 출력할 수 있다. 예를 들어, 처리부(130)에서 신호기를 인식한 경우에, 출력부(140)는 신호기를 시각화 하여 화면에 출력할 수 있고, 신호기에 대한 설명을 화면에 출력할 수 있고, 신호기에 대한 설명을 음성으로 운전자에게 안내할 수 있다.
출력 단계(S700)에서, 출력부(140)는 처리부(130)에서 특이 상황을 인식한 경우에, 인식된 특이 상황에 관한 내용을 운전자에게 안내할 수 있다.
이하에서, 특이 상황의 발생 여부를 인식하는 단계(S620) 및 출력 단계(S700)에 대하여 도 6 및 도 7을 참조하여 구체적으로 설명한다.
도 6 및 도 7은 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치의 동작 방법에서 특이 상황의 발생 여부를 인식하는 단계 및 출력 단계를 구체적으로 보여주는 흐름도이다.
도 6을 참조하면, S620 단계 및 S700 단계는 차량 전방의 특이 상황 발생을 인식하는 단계(S621), 차량 전방의 특이 상황의 유형을 판단하는 단계(S622), 사고 주의 경고음 출력 단계(S710), 장애물 주의 경고음 출력 단계(S720) 및 추월 주의 경고음 출력 단계(S730)를 포함할 수 있다.
구체적으로, 차량 전방의 특이 상황 발생을 인식하는 단계(S621)에서 처리부(130)는 차량의 전방에 특이 상황의 발생 여부를 인식할 수 있고, 차량 전방의 특이 상황의 유형을 판단하는 단계(S622)에서 처리부(130)는 차량의 전방에 발생한 특이 상황의 유형을 판단할 수 있다. 즉, 처리부(130)가 차량 전방에 이동이 없는 타차량이 인식한 경우에는, 출력부(140)는 사고 주의 경고음을 출력(S710)할 수 있고, 처리부(130)가 차량 전방에 장애물을 인식한 경우에는, 출력부(140)는 장애물 주의 경고음을 출력(S720)할 수 있다. 또한, 처리부(130)가 차량 전방에 세이프티 카를 인식한 경우에, 출력부(140)는 추월 주의 경고음을 출력(S730)할 수 있다.
도 7을 참조하면, S620 및 S700 단계는 차량 후방의 특이 상황 발생을 인식하는 단계(S623), 차량 후방의 특이 상황의 유형을 판단하는 단계(S624), 타차량의 주행 방식 출력 단계(S740) 및 추월 주의 경고음 출력 단계(S750)를 포함할 수 있다.
구체적으로, 차량 후방의 특이 상황 발생을 인식하는 단계(S622)에서 처리부(130)는 주행 중인 차량의 후방의 특이 상황이 발생한 것인지 여부를 인식할 수 있고, 차량 후방의 특이 상황의 유형을 판단하는 단계(S624)에서 처리부(130)는 인식한 차량 후방의 특이 상황의 유형을 판단할 수 있다. 예를 들어, 처리부(130)에서 차량 후방의 타차량의 접근을 인식한 경우에, 처리부(130)에서 차량 후방의 타차량의 주행 방식을 분석하여, 출력부(140)는 타 차량의 주행 방식을 출력(S740)할 수 있다. 또한, 차량 후방의 특이 상황 발생을 인식하는 단계(S622)에서 처리부(130)가 차량 후방의 세이프티 카를 인식한 경우에, 출력부(140)는 추월 주의 경고음을 출력(S750)할 수 있다.
즉, 본 문서에 개시된 일 실시예에 따른 차량의 주행 지원 장치(100)의 동작을 통하여 사용자는 신호기를 인지할 수 있고, 특이 상황의 발생을 인지할 수 있다. 따라서, 운전자는 서킷 내에서 안전한 주행을 할 수 있고 또한 고성능 주행 감성을 제공받을 수 있다.
이상의 설명은 본 문서에 개시된 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 문서에 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 문서에 개시된 실시예들의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 문서에 개시된 실시예들은 본 문서에 개시된 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 문서에 개시된 기술 사상의 범위가 한정되는 것은 아니다. 본 문서에 개시된 기술 사상의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 문서의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 차량의 주행 지원 장치
110: 위치 확인부
120: 카메라부
130: 처리부
140: 출력부
1000: 포스트의 위치가 저장되어있는 서킷 영역의 지도

Claims (20)

  1. 차량의 위치 정보에 기초하여 상기 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 위치 확인부;
    상기 차량 주변의 영상을 획득하는 카메라부; 및
    상기 차량이 상기 서킷 영역 내에 위치하는지 여부에 기초하여 상기 획득된 영상으로부터 특정 객체를 인식하고, 상기 특정 객체를 기준으로 관심 영역을 설정하고, 상기 관심 영역을 우선적으로 영상 처리하는 처리부를 포함하는 차량의 주행 지원 장치.
  2. 제 1 항에 있어서,
    상기 처리부는,
    상기 차량이 상기 서킷 영역 내에 위치하는 경우에 상기 획득된 영상으로부터 상기 특정 객체를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  3. 제 2 항에 있어서,
    상기 특정 객체는,
    상기 서킷 영역 내에 위치하는 포스트를 포함하는 것을 특징으로 하는 차량의 주행 지원 장치.
  4. 제 3 항에 있어서,
    상기 처리부는,
    상기 관심 영역을 우선적으로 영상 처리하여 신호기를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  5. 제 4 항에 있어서,
    상기 처리부에서 상기 신호기를 인식한 경우, 상기 신호기에 관한 내용을 출력하는 출력부를 더 포함하는 것을 특징으로 하는 차량의 주행 지원 장치.
  6. 제 4 항에 있어서,
    상기 처리부는,
    상기 포스트가 상기 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 상기 포스트의 우측 영역을 제1 관심 영역으로 설정하고,
    상기 포스트가 상기 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 상기 포스트의 좌측 영역을 제2 관심 영역으로 설정하는 것을 특징으로 하는 차량의 주행 지원 장치.
  7. 제 6 항에 있어서,
    상기 처리부는,
    상기 포스트의 위치가 저장되어 있는 상기 서킷 영역의 지도 정보를 획득하고,
    상기 차량의 위치 정보와 상기 지도 정보에 기초하여 상기 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  8. 제 7 항에 있어서,
    상기 처리부는,
    상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 우측인 경우에는 상기 제1 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식하고,
    상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 좌측인 경우에는 상기 제2 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  9. 제 5 항에 있어서,
    상기 처리부는,
    상기 획득된 영상으로부터 특이 상황의 발생 여부를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  10. 제 9 항에 있어서,
    상기 처리부는,
    상기 획득된 영상에서 상기 차량의 전방에 장애물이 인식되는 경우, 상기 차량의 전방에 이동이 없는 타차량이 인식되는 경우, 상기 차량의 전방에 특정 차량이 인식되는 경우, 상기 차량의 후방에 타차량이 인식되는 경우 및 상기 차량의 후방에 상기 특정 차량이 인식되는 경우 중 적어도 어느 하나의 경우에 상기 특이 상황이 발생한 것으로 인식하는 것을 특징으로 하는 차량의 주행 지원 장치.
  11. 제 9 항에 있어서,
    상기 처리부는,
    상기 획득된 영상에서 상기 제1 관심 영역 및 상기 제2 관심 영역 이외의 영역을 상기 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정하는 것을 특징으로 하는 차량의 주행 지원 장치.
  12. 제 1 항에 있어서,
    상기 카메라부는,
    상기 차량 전방의 영상을 획득하는 전방 카메라; 및
    상기 차량 후방의 영상을 획득하는 후방 카메라; 를 포함하는 것을 특징으로 하는 차량의 주행 지원 장치.
  13. 제 1 항에 있어서,
    상기 차량 전방 및 후방의 장애물을 탐지 및 분석하는 LIDAR 센서를 더 포함하는 것을 특징으로 하는 차량의 주행 지원 장치.
  14. 차량의 위치 정보를 확인하는 단계;
    상기 차량이 서킷 영역 내에 위치하는지 여부를 확인하는 단계;
    상기 차량 주변의 영상을 획득하는 단계;
    상기 차량이 상기 서킷 영역 내에 위치하는 경우 상기 획득된 영상에서 특정 객체를 인식하는 단계;
    상기 특정 객체를 기준으로 관심 영역을 설정하는 단계; 및
    상기 관심 영역을 우선적으로 영상 처리 하는 단계; 를 포함하는 차량의 주행 지원 장치의 동작 방법.
  15. 제 14 항에 있어서,
    상기 특정 객체는 상기 서킷 영역 내에 위치하는 포스트를 포함하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
  16. 제 15 항에 있어서,
    상기 관심 영역을 우선적으로 영상 처리 하는 단계는,
    신호기를 인식하는 단계; 및
    특이 상황의 발생 여부를 인식하는 단계; 를 포함하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
  17. 제 16 항에 있어서,
    상기 특정 객체를 기준으로 관심 영역을 설정하는 단계는,
    상기 포스트가 상기 차량의 진행 방향을 기준으로 우측에 위치하는 경우에는 상기 포스트의 우측 영역을 제1 관심 영역으로 설정하고,
    상기 포스트가 상기 차량의 진행 방향을 기준으로 좌측에 위치하는 경우에는 상기 포스트의 좌측 영역을 제2 관심 영역으로 설정하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
  18. 제 17 항에 있어서,
    상기 차량이 상기 서킷 영역 내에 위치하는 경우 상기 획득된 영상에서 특정 객체를 인식하는 단계는,
    상기 포스트의 위치가 저장되어 있는 지도 정보를 획득하는 단계; 및
    상기 차량의 위치 정보와 상기 지도 정보에 기초하여 상기 차량의 진행 방향을 기준으로 도달 예정인 포스트의 위치를 인식하는 단계; 를 포함하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
  19. 제 18 항에 있어서,
    상기 신호기를 인식하는 단계는,
    상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 우측인 경우에는 상기 제1 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식하고,
    상기 도달 예정인 포스트의 위치가, 상기 차량의 진행 방향을 기준으로 좌측인 경우에는 상기 제2 관심 영역을 우선적으로 영상 처리하여 상기 신호기를 인식하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
  20. 제 17 항에 있어서,
    상기 관심 영역을 설정하는 단계는,
    상기 획득된 영상에서 상기 제1 관심 영역 및 상기 제2 관심 영역 이외의 영역을 상기 특이 상황의 발생 여부를 인식하기 위한 제3 관심 영역으로 설정하는 것을 특징으로 하는 차량의 주행 지원 장치의 동작 방법.
KR1020210038257A 2021-03-24 2021-03-24 차량의 주행 지원 장치 및 그것의 동작 방법 KR20220133007A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210038257A KR20220133007A (ko) 2021-03-24 2021-03-24 차량의 주행 지원 장치 및 그것의 동작 방법
US17/474,351 US11908201B2 (en) 2021-03-24 2021-09-14 Apparatus for supporting driving of vehicle and operating method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210038257A KR20220133007A (ko) 2021-03-24 2021-03-24 차량의 주행 지원 장치 및 그것의 동작 방법

Publications (1)

Publication Number Publication Date
KR20220133007A true KR20220133007A (ko) 2022-10-04

Family

ID=83363488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210038257A KR20220133007A (ko) 2021-03-24 2021-03-24 차량의 주행 지원 장치 및 그것의 동작 방법

Country Status (2)

Country Link
US (1) US11908201B2 (ko)
KR (1) KR20220133007A (ko)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0713096D0 (en) * 2007-02-02 2007-08-15 Duong Henri Detectable anti-collision automatic braking device for vehicle
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
KR20150145685A (ko) * 2014-06-20 2015-12-30 주식회사 세인전장 위치정보를 이용한 제동대상 인식 장치 및 그 방법
US11365975B2 (en) * 2018-09-27 2022-06-21 Honda Motor Co., Ltd. Visual confirmation system for driver assist system
CN111169477A (zh) * 2018-11-12 2020-05-19 华创车电技术中心股份有限公司 车道变换系统及车道变换方法
US10929692B2 (en) * 2019-02-06 2021-02-23 Veoneer Us Inc. Lane level position determination
US11479245B2 (en) * 2019-02-14 2022-10-25 Honda Motor Co., Ltd. Semi-autonomous vehicle control system and method of controlling a semi-autonomous vehicle
US11428550B2 (en) * 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data

Also Published As

Publication number Publication date
US20220309282A1 (en) 2022-09-29
US11908201B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
EP3121076A2 (en) Vehicle control device
CN109716415B (zh) 车辆控制装置、车辆控制方法以及移动体
JPWO2017085981A1 (ja) 運転支援装置及び運転支援方法、並びに移動体
JP6922919B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
US20190351900A1 (en) Driving assistance apparatus and driving assistance method
JP6063319B2 (ja) 車線変更支援装置
US11590985B2 (en) Information processing device, moving body, information processing method, and program
EP3900994A1 (en) Vehicle control device, vehicle control method, program, and vehicle
WO2018163549A1 (ja) 運転制御動作支援装置、運転制御動作支援方法及び運転制御動作支援プログラム
JP2007145095A (ja) 走行制御装置、走行制御方法、走行制御プログラムおよび記録媒体
JP2020004333A (ja) 車両制御装置
JP4483764B2 (ja) 運転支援システムおよびプログラム
JP2008052341A (ja) 緊急車両接近通知システム
CN113232659A (zh) 死角信息取得装置及方法、车辆及记录了程序的记录介质
JP2005346648A (ja) 視界支援装置およびプログラム
JP2009245340A (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2024052900A (ja) 通信装置及び通信方法
WO2014076841A1 (ja) 表示装置、制御方法、プログラム、及び記憶媒体
WO2018180122A1 (ja) 運転支援装置と運転支援方法
JP4873255B2 (ja) 車両用報知システム
US20200231097A1 (en) Display system, vehicle control apparatus, display control method, and storage medium for storing program
JP2011003117A (ja) 後方視認支援システム
KR20220133007A (ko) 차량의 주행 지원 장치 및 그것의 동작 방법
JP6656098B2 (ja) 車載装置、車両制御方法および生体情報処理方法
CN115140039A (zh) 驾驶辅助装置

Legal Events

Date Code Title Description
A201 Request for examination