WO2020204350A2 - 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법 - Google Patents

어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법 Download PDF

Info

Publication number
WO2020204350A2
WO2020204350A2 PCT/KR2020/002382 KR2020002382W WO2020204350A2 WO 2020204350 A2 WO2020204350 A2 WO 2020204350A2 KR 2020002382 W KR2020002382 W KR 2020002382W WO 2020204350 A2 WO2020204350 A2 WO 2020204350A2
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
path
top view
view image
Prior art date
Application number
PCT/KR2020/002382
Other languages
English (en)
French (fr)
Other versions
WO2020204350A3 (ko
Inventor
이영섭
이민호
한경엽
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Publication of WO2020204350A2 publication Critical patent/WO2020204350A2/ko
Publication of WO2020204350A3 publication Critical patent/WO2020204350A3/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure

Definitions

  • the present invention relates to an apparatus and method for generating a moving path for an autonomous vehicle using an around view monitoring (AVM) system mounted on a vehicle.
  • AVM around view monitoring
  • Autonomous vehicles use various sensors to detect obstacles in the front, rear, left and right sides, and are equipped with technology to avoid obstacles based on this, and use various cameras to detect lanes on the road, and based on this, It is also equipped with a technology that performs driving while maintaining.
  • the AVM system acquires images of the front, rear, and left and right sides of the vehicle by mounting wide-angle cameras on the front, rear, and left and right sides of the vehicle as shown in the figure 210 of FIG. 2, and then performs distortion correction on the acquired image.
  • it refers to a system for generating a top view image of a vehicle as shown in the figure 220 of FIG. 2.
  • the user can easily pass through a narrow alley while viewing the top view image of the vehicle, and can easily check the existence of nearby obstacles when parking.
  • the camera's image capture angle for lane detection is limited, so there is a problem in that the vehicle cannot properly detect the lane in a narrow alley, making autonomous driving difficult.
  • the AVM system is a system that supports the identification of the vehicle's position in a narrow alley by generating a top view image of the vehicle, an autonomous vehicle can drive through a narrow alley by utilizing the AVM system mounted on the vehicle. There is a need for research on moving path generation technology that supports this.
  • the present invention acquires a top view image of the vehicle through an Around View Monitoring (AVM) system provided in the vehicle, and detects the contours of the right and left lanes of the vehicle from the top view image of the vehicle. And, by generating an arrangement path of the left and right lanes based on the contours of the right and left lanes of the vehicle, and then creating a movement path for the vehicle based on the arrangement paths of the left and right lanes, An apparatus and method for generating a movement path that can support an autonomous vehicle to travel relatively accurately even in a narrow alley are proposed.
  • AVM Around View Monitoring
  • An apparatus for generating a movement path for an autonomous vehicle using an around view monitoring system is an Around View Monitoring (AVM) system provided in a vehicle.
  • the AVM system is the front of the vehicle, It is a system that generates a top view image of the vehicle from images captured through cameras provided on the rear and left and right sides-An image acquisition unit that acquires a top view image of the vehicle through the top view of the vehicle
  • a lane detection unit configured to set a region of interest of a predetermined first size for lane detection at the left and right points of the vehicle in the image, and detect contours of the left and right lanes within the region of interest, the left side Generating a first reference region of interest having a preset second size based on the midpoint of the contour of the lane, and generating a second reference region of interest having the preset second size based on the midpoint of the contour of the right lane
  • the left lane by repeatedly performing an operation of the reference region of interest generation unit to detect the contour of the left lane while sequential
  • a method for generating a movement path for an autonomous vehicle using an around-view monitoring system is an AVM system provided in a vehicle.
  • the AVM system is provided on the front, rear, and left and right sides of the vehicle.
  • a system that generates a top view image of the vehicle from an image captured by a camera-obtaining a top view image of the vehicle through, detecting lanes at the left and right points of the vehicle from the top view image of the vehicle Setting a region of interest of a predetermined first size for, and detecting contours of a left lane and a right lane within the region of interest, a first having a second size preset based on the midpoint of the contour of the left lane Creating a reference region of interest, and generating a second reference region of interest having the preset second size based on the midpoint of the outline of the right lane, and defining the first reference region of interest from the top view image of the vehicle
  • the arrangement path of the left lane is generated, and the second reference region of interest is selected from the top view image of the vehicle.
  • Generating an arrangement route of the right lane by repeatedly performing an operation of detecting the contour of the right lane while sequentially moving in a plurality of preset second directions and arrangement of the arrangement route of the left lane and the right lane And generating a moving path for the vehicle based on the moving path of the midpoint coordinates between the paths.
  • the present invention acquires a top view image of the vehicle through an Around View Monitoring (AVM) system provided in the vehicle, and detects the contours of the right and left lanes of the vehicle from the top view image of the vehicle. And, by generating an arrangement path of the left and right lanes based on the contours of the right and left lanes of the vehicle, and then creating a movement path for the vehicle based on the arrangement paths of the left and right lanes, An apparatus and method for generating a movement path that can support an autonomous vehicle to travel relatively accurately even in a narrow alley can be presented.
  • AVM Around View Monitoring
  • FIG. 1 is a diagram showing a structure of an apparatus for generating a movement path for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention.
  • FIGS. 2 to 6 are diagrams for explaining the operation of a movement path generating apparatus for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method of generating a moving path for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention.
  • each component, functional blocks or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by each component are electronic.
  • a circuit, an integrated circuit, and an application specific integrated circuit (ASIC) may be implemented with various known devices or mechanical elements, and may be implemented separately or two or more may be integrated into one.
  • the blocks of the attached block diagram and the steps in the flowchart are computer program instructions that are mounted on a processor or memory of equipment capable of processing data such as a general-purpose computer, a special-purpose computer, a portable notebook computer, and a network computer to perform specified functions. It can be interpreted as meaning. Since these computer program instructions can be stored in a memory provided in a computer device or in a memory readable by a computer, the functions described in the blocks in the block diagram or in the steps in the flowchart are produced as a product containing instruction means to perform this It could be.
  • each block or each step may represent a module, segment, or part of code including one or more executable instructions for executing the specified logical function(s).
  • FIG. 1 is a diagram showing a structure of an apparatus for generating a movement path for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention.
  • a moving path generating device 110 includes an image acquisition unit 111, a lane detection unit 112, a reference region of interest generation unit 113, a lane path generation unit 114, and a moving path. It includes a generation unit 115.
  • the movement path generating apparatus 110 may be implemented in a form that is mounted as an electronic device inside a vehicle, or may be produced as an equipment that exists separately from the vehicle and may be implemented in a form attachable to the vehicle.
  • the image acquisition unit 111 acquires a top view image of the vehicle through an around view monitoring (AVM) system provided in the vehicle.
  • AVM around view monitoring
  • the AVM system acquires images of the front, rear, and left and right sides of the vehicle by mounting wide-angle cameras on the front, rear, and left and right sides of the vehicle as shown in the figure 210 of FIG. It refers to a system that performs distortion correction to generate a top view image of the vehicle as shown in reference numeral 220 of FIG. 2.
  • the lane detection unit 112 sets a region of interest of a predetermined first size for lane detection at the left and right points of the vehicle in the upper view image of the vehicle, and within the region of interest, the left lane and the right Detect the contour of the lane.
  • the lane detection unit 112 may include a binarization processing unit 116 and an outline detection unit 117.
  • the binarization processing unit 116 converts the color of pixels having a color according to the lane color information into black in the top view image of the vehicle based on the lane color information preset as the color of the lane. , By converting the color of the remaining pixels to white, the top view image of the vehicle is binarized.
  • the contour detection unit 117 sets the ROI at the left and right points of the vehicle in the binarized top view image of the vehicle, and the ROI An area in which the size of an area composed of black pixels exceeds a preset area size is detected as outlines of the left and right lanes.
  • the binarization processing unit 116 is based on the lane color information preset as the color of the lane.
  • the top view image of the vehicle may be binarized by converting the color of pixels having a color according to the lane color information to black in the top view image of the vehicle and converting the color of the remaining pixels to white.
  • the lane color information is yellow or white in many cases, the lane color information may be yellow or white color information, and the binarization processing unit 116 is configured according to the lane color information in the top view image of the vehicle.
  • the top view image of the vehicle can be binarized into a black and white image as shown in the reference numeral 320.
  • the binarization processing unit 116 may store a predetermined threshold value in the HSV color space according to the lane color information, and when a top view image of the vehicle is obtained, the vehicle The upper view image of the vehicle by applying the threshold to the values of the Hue, Saturation, and Value channels in the top view image of and converting the color of the pixels having the color according to the lane color information to black and the colors of the remaining pixels to white. Can be binarized.
  • the contour detection unit 117 is positioned at the left and right points of the vehicle in the binarization-completed top view image, as shown in the figure 320.
  • a region of interest 321 may be set, and an area in which a size of a region composed of black pixels in the region of interest 321 exceeds a preset area size may be detected as an outline 322 of a left lane and a right lane.
  • the contour detection unit 117 may detect a region in which the size of the black region in the region of interest 321 exceeds a preset region size as the lane contour 322.
  • the reference region of interest generation unit 113 generates a first reference region of interest having a predetermined second size based on the midpoint of the outline of the left lane, and the preset second region of interest based on the midpoint of the outline of the right lane. A second reference region of interest having a size is created.
  • the lane path generation unit 114 repeatedly performs an operation of detecting the outline of the left lane while sequentially moving the first reference region of interest in a plurality of preset first directions in the top view image of the vehicle, By generating an arrangement path of the left lane and sequentially moving the second reference region of interest in a plurality of preset second directions in the top view image of the vehicle, the operation of detecting the contour of the right lane is repeatedly performed, An arrangement route of the right lane is created.
  • FIG. 4 is a diagram for explaining a process of generating an arrangement path of the left lane.
  • the reference region of interest generation unit 113 detects the contour of the left lane through the lane detection unit 112
  • the midpoint of the contour of the left lane A first reference ROI having a preset second size may be generated based on.
  • the reference region of interest generation unit 113 may generate a first reference region of interest 411 having a predetermined second size based on the midpoint of the outline of the left lane as shown in the figure 410. have.
  • the lane path generation unit 114 moves the first reference ROI 411 in the top view image of the vehicle in a plurality of preset first directions 422 as illustrated in reference numeral 420.
  • the outline of the left lane can be detected while moving sequentially.
  • the lane path generation unit 114 moves the first reference ROI 411 from the initial position 423 to the plurality of first directions 422 until the contour of the left lane is detected. It is possible to find the outline of the left lane while moving sequentially once.
  • the lane path generation unit 114 performs a first While sequentially moving the reference region of interest 411 back in the plurality of first directions 422 set in advance, the contour of the left lane corresponding to the next time may be detected, and the lane path generator 114 1 By repeatedly performing the process of detecting the contour of the left lane according to the movement of the reference region of interest 411, an arrangement path of the left lane according to the traveling direction of the vehicle may be generated.
  • the lane path generation unit 114 generates a second reference region of interest even for the right lane, and sequentially moves the second reference region of interest in a plurality of preset second directions for the right lane. By repeatedly performing the process of detecting the contour of the right lane, the arrangement path of the right lane may be generated.
  • the plurality of preset second directions may be set to directions opposite to the plurality of first directions 422 used to generate an arrangement path of the left lane.
  • FIG. 5 An example of an arrangement path of the left lane and an arrangement path of the right lane generated through the lane path generation unit 114 is illustrated in FIG. 5.
  • a portion indicated by reference numeral 511 is an example of an arrangement path of the left lane
  • a portion indicated by reference numeral 512 is an example of an arrangement route of the right lane.
  • the lane path generation unit 114 arranges the right lane
  • the contour of the right lane corresponding to the first undetected point in the route may be symmetrically moved onto the left lane and processed as the contour of the left lane with respect to the first undetected point.
  • the lane path generation unit 114 is located at the second undetected point in the arrangement path of the left lane.
  • a corresponding outline of the left lane may be symmetrically moved onto the right lane to be processed as an outline of the right lane with respect to the second undetected point.
  • the lane path generation unit 114 detects the outline of the left lane while moving the first reference region of interest and generates an arrangement path for the left lane
  • the figure shown in FIG. 3 is indicated by reference numeral 311.
  • the lane path generation unit 114 when there is a first undetected point in which the outline of the left lane is not detected due to reasons such as low resolution of the outline of the left lane in the top view image of the vehicle or the presence of a shadow, the lane path generation unit 114, the contour of the right lane corresponding to the first undetected point in the arrangement path of the right lane is symmetrically moved onto the left lane to be processed as an outline of the left lane with respect to the first undetected point. I can.
  • the movement path generation unit 115 is used between the arrangement path of the left lane and the arrangement path of the right lane.
  • a movement path for the vehicle is generated based on the movement path of the central coordinate.
  • the movement path generation unit 115 May generate the movement path 514 for the vehicle based on the movement path 513 of the central coordinate between the arrangement path 511 of the left lane and the arrangement path 512 of the right lane.
  • the movement path generation unit 115 applies a moving average filter to the movement path of the central coordinates between the arrangement path of the left lane and the arrangement path of the right lane.
  • a moving average filter to smoothing the moving path of the central coordinates, it is possible to generate a moving path for the vehicle.
  • the moving average refers to an averaging method that continuously calculates the average of two or more consecutive data values (input values), and is used to smooth the data when the change movement is severe.
  • the movement path generation unit 115 moves with respect to the movement path 513 of the central coordinates between the arrangement path 511 of the left lane and the arrangement path 512 of the right lane, as illustrated in FIG. 5.
  • a moving path 514 for the vehicle may be generated by smoothing the moving path 513 of the central coordinate by applying an average filter.
  • the movement path generating apparatus 110 may further include a steering control unit 118.
  • the steering control unit 118 is configured to provide a horizontal distance between the center of the rear wheel of the vehicle and the movement path for the vehicle, and the line connecting the center of the front wheel of the vehicle and the movement path for the vehicle.
  • the steering angle of the steering wheel of the vehicle is calculated based on the angle and the current speed of the vehicle, and steering of the steering wheel of the vehicle is controlled according to the calculated steering angle.
  • the steering control unit 118 may control the steering of the steering wheel of the vehicle based on the calculation of Equation 1 below.
  • Is the steering angle of the steering wheel at point t Is the horizontal distance between the center of the rear wheel of the vehicle and the movement path for the vehicle, Is an angle between a line connecting the center of the front wheel of the vehicle and a moving path for the vehicle, Is the current speed of the vehicle, Means the gain parameter.
  • the movement path for the vehicle is generated as shown in reference numeral 611 of FIG. 6, Denotes a horizontal distance between the center 612 of the rear wheel of the vehicle and the moving path 611 for the vehicle,
  • a circle having a predetermined radius r is drawn based on the center 613 of the front wheel of the vehicle, a line passing through the center 613 of the front wheel of the vehicle from the circle and the movement path 611 from the circle to the vehicle
  • Means the angle between the lines connecting the contact points Means the current speed of the vehicle, Denotes a constant that can be set differently depending on the vehicle as a gain parameter.
  • the movement path generating apparatus 110 acquires the top view image of the vehicle through the AVM system provided in the vehicle, and the contours of the right and left lanes of the vehicle from the top view image of the vehicle Is detected, generates an arrangement path of the left and right lanes based on the contours of the right and left lanes of the vehicle, and then creates a movement path for the vehicle based on the arrangement paths of the left and right lanes By doing so, it is possible to support the autonomous vehicle to run relatively accurately even in a narrow alley.
  • FIG. 7 is a flowchart illustrating a method of generating a moving path for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention.
  • step S710 through an AVM system provided in the vehicle (the AVM system is a system that generates a top view image of the vehicle from images taken through cameras provided on the front, rear, and left and right sides of the vehicle). Acquire a top view image of the vehicle.
  • the AVM system is a system that generates a top view image of the vehicle from images taken through cameras provided on the front, rear, and left and right sides of the vehicle. Acquire a top view image of the vehicle.
  • a region of interest of a predetermined first size for lane detection is set at the left point and the right point of the vehicle in the top view image of the vehicle, and outlines of the left and right lanes within the region of interest To detect.
  • a first reference region of interest having a preset second size is generated based on the midpoint of the outline of the left lane, and a first reference region of interest having the preset second size based on the midpoint of the outline of the right lane 2 Create a reference region of interest.
  • step S740 by repeatedly performing an operation of detecting the outline of the left lane while sequentially moving the first reference region of interest in a plurality of preset first directions in the top view image of the vehicle, the left lane By generating an arrangement path and repeatedly performing an operation of detecting the contour of the right lane while sequentially moving the second reference region of interest in a plurality of preset second directions in the top view image of the vehicle, the right lane Create a deployment path.
  • a movement path for the vehicle is generated based on a movement path of the central coordinates between the arrangement path of the left lane and the arrangement path of the right lane.
  • step S720 when the top view image of the vehicle is obtained, the lane color information is added to the lane color information in the top view image of the vehicle based on the lane color information preset as the color of the lane. Binarizing the top view image of the vehicle by converting the color of the pixels having the corresponding color to black and the color of the remaining pixels to white, and when the binarization of the top view image of the vehicle is completed, the binarization is completed.
  • the region of interest is set at the left and right points of the vehicle in the top view image of, and the region of the region of interest in which the size of the region composed of black pixels exceeds a preset area size is defined as the left lane and the right. It may include the step of detecting the contour of the lane.
  • step S740 when there is a first undetected point on the left lane arrangement path where the contour of the left lane is not detected, the right lane arrangement path
  • the contour of the right lane corresponding to the first undetected point is symmetrically moved onto the left lane and processed as the contour of the left lane with respect to the first undetected point, and the right lane on the arrangement path of the right lane
  • the second undetected by symmetrically moving the contour of the left lane corresponding to the second undetected point in the arrangement path of the left lane onto the right lane It can be processed as the outline of the right lane for the point.
  • step S750 a moving average filter is applied to the moving path of the midpoint coordinates between the arrangement path of the left lane and the arrangement path of the right lane to determine the moving path of the midpoint coordinates.
  • a moving path for the vehicle can be created.
  • the method for generating a movement path for an autonomous vehicle using the around-view monitoring system is, when a movement path for the vehicle is generated, the center of the rear wheel of the vehicle and the movement of the vehicle
  • the steering angle of the steering wheel of the vehicle is calculated based on the horizontal distance between paths, the angle between the line connecting the center of the front wheel of the vehicle and the moving path to the vehicle, and the current speed of the vehicle, and the calculated steering angle is Accordingly, it may further include controlling the steering of the steering wheel of the vehicle.
  • the method of generating a movement path for an autonomous vehicle using an around-view monitoring system according to an embodiment of the present invention is an apparatus for generating a movement path for an autonomous vehicle using the around-view monitoring system described with reference to FIGS. 1 to 6 Since it may correspond to the configuration of the operation of 110, a more detailed description thereof will be omitted.
  • a method of generating a movement path for an autonomous vehicle using an around-view monitoring system may be implemented as a computer program stored in a storage medium to be executed through a combination with a computer.
  • a method of generating a movement path for an autonomous vehicle using an around-view monitoring system may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법이 개시된다. 본 발명은 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템을 통해 상기 차량의 상단 뷰 이미지를 획득하고, 상기 차량의 상단 뷰 이미지로부터 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 검출하며, 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 기초로 상기 좌측 차선과 우측 차선의 배치 경로를 생성한 후 상기 좌측 차선과 우측 차선의 배치 경로를 기초로 상기 차량에 대한 이동 경로를 생성함으로써, 좁은 골목에서도 자율 주행 차량이 비교적 정확하게 주행할 수 있도록 지원할 수 있는 이동 경로 생성 장치 및 방법에 대한 것이다.

Description

어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법
본 발명은 차량에 탑재되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템을 이용하여 자율 주행 차량을 위한 이동 경로를 생성하는 장치 및 방법에 대한 것이다.
최근, 자율 주행 차량에 대한 연구가 활발하게 이루어짐에 따라, 안전한 자율 주행을 위한 다양한 기술들이 등장하고 있다.
자율 주행 차량은 다양한 센서들을 이용하여 전방, 후방, 좌우측면에 장애물을 감지하고, 이를 기초로 장애물을 회피하는 기술을 탑재하고 있으며, 다양한 카메라를 이용해서 도로 상의 차선을 감지하고, 이를 기초로 차선을 유지하면서 주행을 수행하는 기술도 탑재하고 있다.
최근에는 좁은 골목을 통과하거나 주차를 보조하기 위한 시스템으로, 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템이 탑재된 차량이 등장하고 있다.
AVM 시스템은 도 2의 도면부호 210에 도시된 그림과 같이 차량의 전방, 후방, 좌우측면에 광각 카메라를 탑재하여 차량의 전후방과 좌우측면의 이미지를 획득한 후 획득된 이미지에 대한 왜곡 보정을 수행하여 도 2의 도면부호 220에 도시된 그림과 같이 차량의 상단 뷰(top view) 이미지를 생성하는 시스템을 의미한다.
이렇게, 차량의 상단 뷰 이미지가 생성되면, 사용자는 차량의 상단 뷰 이미지를 보면서 좁은 골목을 쉽게 통과할 수 있고, 주차시 주변 장애물의 존재를 쉽게 확인할 수 있다.
기존의 자율 주행 차량에서는 차선 감지를 위한 카메라의 영상 촬영 각도가 제한적이어서 좁은 골목에서 차량이 차선을 제대로 감지하지 못해 자율 주행이 잘 되지 못하는 문제가 있었다.
이와 관련해서, AVM 시스템은 차량의 상단 뷰 이미지를 생성함으로써, 좁은 골목에서 차량의 위치를 파악할 수 있도록 지원하는 시스템이라는 점에서, 차량에 탑재된 AVM 시스템을 활용하여 자율 주행 차량이 좁은 골목을 주행할 수 있도록 지원하는 이동 경로 생성 기술에 대한 연구가 필요하다.
본 발명은 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템을 통해 상기 차량의 상단 뷰 이미지를 획득하고, 상기 차량의 상단 뷰 이미지로부터 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 검출하며, 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 기초로 상기 좌측 차선과 우측 차선의 배치 경로를 생성한 후 상기 좌측 차선과 우측 차선의 배치 경로를 기초로 상기 차량에 대한 이동 경로를 생성함으로써, 좁은 골목에서도 자율 주행 차량이 비교적 정확하게 주행할 수 있도록 지원할 수 있는 이동 경로 생성 장치 및 방법을 제시하고자 한다.
본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치는 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템 - 상기 AVM 시스템은 상기 차량의 전방, 후방 및 좌우측면에 구비된 카메라를 통해 촬영된 영상으로부터 상기 차량의 상단 뷰(top view) 이미지를 생성하는 시스템임 - 을 통해 상기 차량의 상단 뷰 이미지를 획득하는 이미지 획득부, 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된(predetermined) 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출하는 차선 검출부, 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성하는 기준 관심 영역 생성부, 상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성하는 차선 경로 생성부 및 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성하는 이동 경로 생성부를 포함한다.
또한, 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법은 차량에 구비되어 있는 AVM 시스템 - 상기 AVM 시스템은 상기 차량의 전방, 후방 및 좌우측면에 구비된 카메라를 통해 촬영된 영상으로부터 상기 차량의 상단 뷰 이미지를 생성하는 시스템임 - 을 통해 상기 차량의 상단 뷰 이미지를 획득하는 단계, 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출하는 단계, 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성하는 단계, 상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성하는 단계 및 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성하는 단계를 포함한다.
본 발명은 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템을 통해 상기 차량의 상단 뷰 이미지를 획득하고, 상기 차량의 상단 뷰 이미지로부터 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 검출하며, 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 기초로 상기 좌측 차선과 우측 차선의 배치 경로를 생성한 후 상기 좌측 차선과 우측 차선의 배치 경로를 기초로 상기 차량에 대한 이동 경로를 생성함으로써, 좁은 골목에서도 자율 주행 차량이 비교적 정확하게 주행할 수 있도록 지원할 수 있는 이동 경로 생성 장치 및 방법을 제시할 수 있다.
도 1은 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치의 구조를 도시한 도면이다.
도 2 내지 도 6은 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치의 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법을 도시한 순서도이다.
이하에서는 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명하기로 한다. 이러한 설명은 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였으며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서 상에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 사람에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
본 문서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 본 발명의 다양한 실시예들에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있고, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.
한편, 첨부된 블록도의 블록들이나 흐름도의 단계들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터 등 데이터 프로세싱이 가능한 장비의 프로세서나 메모리에 탑재되어 지정된 기능들을 수행하는 컴퓨터 프로그램 명령들(instructions)을 의미하는 것으로 해석될 수 있다. 이들 컴퓨터 프로그램 명령들은 컴퓨터 장치에 구비된 메모리 또는 컴퓨터에서 판독 가능한 메모리에 저장될 수 있기 때문에, 블록도의 블록들 또는 흐름도의 단계들에서 설명된 기능들은 이를 수행하는 명령 수단을 내포하는 제조물로 생산될 수도 있다. 아울러, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 명령들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 가능한 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 정해진 순서와 달리 실행되는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 실질적으로 동시에 수행되거나, 역순으로 수행될 수 있으며, 경우에 따라 일부 블록들 또는 단계들이 생략된 채로 수행될 수도 있다.
도 1은 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치의 구조를 도시한 도면이다.
도 1을 참조하면, 본 발명에 따른 이동 경로 생성 장치(110)는 이미지 획득부(111), 차선 검출부(112), 기준 관심 영역 생성부(113), 차선 경로 생성부(114) 및 이동 경로 생성부(115)를 포함한다.
여기서, 본 발명에 따른 이동 경로 생성 장치(110)는 차량 내부에 전자 장비로 탑재되는 형태로 구현될 수도 있고, 차량과 별도로 존재하는 장비로 생산되어 차량에 부착 가능한 형태로 구현될 수도 있다.
이미지 획득부(111)는 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템을 통해 상기 차량의 상단 뷰 이미지를 획득한다.
여기서, 상기 AVM 시스템은 도 2의 도면부호 210에 도시된 그림과 같이 차량의 전방, 후방, 좌우측면에 광각 카메라를 탑재하여 상기 차량의 전후방과 좌우측면의 이미지를 획득한 후 획득된 이미지에 대한 왜곡 보정을 수행하여 도 2의 도면부호 220에 도시된 그림과 같이 상기 차량의 상단 뷰(top view) 이미지를 생성하는 시스템을 의미한다.
차선 검출부(112)는 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된(predetermined) 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출한다.
이때, 본 발명의 일실시예에 따르면, 차선 검출부(112)는 이진화 처리부(116) 및 윤곽선 검출부(117)를 포함할 수 있다.
이진화 처리부(116)는 상기 차량의 상단 뷰 이미지가 획득되면, 차선의 색상으로 사전 설정된 차선 색상 정보를 기초로 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화한다.
그리고, 윤곽선 검출부(117)는 상기 차량의 상단 뷰 이미지에 대한 이진화가 완료되면, 이진화가 완료된 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 상기 관심 영역을 설정하고, 상기 관심 영역에서 흑색의 화소들로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 상기 좌측 차선과 상기 우측 차선의 윤곽선으로 검출한다.
관련해서, 이미지 획득부(111)를 통해 획득된 상기 차량의 상단 뷰 이미지가 도 3의 도면부호 310과 같다고 하는 경우, 이진화 처리부(116)는 차선의 색상으로 사전 설정된 차선 색상 정보를 기초로 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화할 수 있다.
일반적으로 차선의 색상은 노란색이나 흰색인 경우가 많기 때문에 상기 차선 색상 정보는 노란색이나 흰색 계열의 색상 정보가 될 수 있고, 이진화 처리부(116)는 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 도면부호 320에 도시된 그림과 같이 흑백의 이미지로 이진화할 수 있다.
이때, 본 발명의 일실시예에 따르면, 이진화 처리부(116)는 상기 차선 색상 정보에 따른 HSV 색상공간에서의 미리 정해진 임계치를 저장하고 있을 수 있고, 상기 차량의 상단 뷰 이미지가 획득되면, 상기 차량의 상단 뷰 이미지에서 Hue, Saturation, Value 채널 값에 상기 임계치를 적용하여 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화할 수 있다.
이렇게, 상기 차량의 상단 뷰 이미지에 대한 이진화가 완료되면, 윤곽선 검출부(117)는 도면부호 320에 도시된 그림과 같이, 이진화가 완료된 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 관심 영역(321)을 설정하고, 관심 영역(321)에서 흑색의 화소들로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 좌측 차선과 우측 차선의 윤곽선(322)으로 검출할 수 있다.
즉, 윤곽선 검출부(117)는 관심 영역(321)에서 흑색으로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 차선의 윤곽선(322)으로 검출할 수 있다.
기준 관심 영역 생성부(113)는 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성한다.
차선 경로 생성부(114)는 상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성한다.
관련해서, 도 4를 참조하여 기준 관심 영역 생성부(113)와 차선 경로 생성부(114)의 동작을 설명하면 다음과 같다.
도 4는 좌측 차선의 배치 경로를 생성하는 과정을 설명하기 위한 도면으로, 기준 관심 영역 생성부(113)는 차선 검출부(112)를 통해 좌측 차선의 윤곽선이 검출되면, 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성할 수 있다.
관련해서, 기준 관심 영역 생성부(113)는 도면부호 410에 도시된 그림과 같이 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역(411)을 생성할 수 있다.
그러고 나서, 차선 경로 생성부(114)는 상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역(411)을 도면부호 420에 도시된 그림과 같이, 기설정된 복수의 제1 방향들(422)로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출할 수 있다. 관련해서, 도면부호 420에서 차선 경로 생성부(114)는 상기 좌측 차선의 윤곽선이 검출될 때까지 제1 기준 관심 영역(411)을 최초 위치(423)에서 복수의 제1 방향들(422)로 한 번씩 순차적으로 이동하면서 상기 좌측 차선의 윤곽선을 찾을 수 있다.
관련해서, 도면부호 420에 도시된 그림에서는 제1 기준 관심 영역(411)이 최초 위치(423)에서 상단 방향으로 이동하였을 때, 상기 좌측 차선의 윤곽선(421)이 검출된 경우의 예가 도시되어 있다.
이렇게, 도면부호 420에 도시된 그림과 같이, 제1 기준 관심 영역(411)이 상단 방향으로 이동함에 따라 상기 좌측 차선의 윤곽선(421)이 검출된 경우, 차선 경로 생성부(114)는 제1 기준 관심 영역(411)을 상기 기설정된 복수의 제1 방향들(422)로 순차적으로 다시 이동시키면서 다음번에 해당되는 상기 좌측 차선의 윤곽선을 검출할 수 있고, 차선 경로 생성부(114)는 이렇게 제1 기준 관심 영역(411)의 이동에 따른 상기 좌측 차선의 윤곽선 검출 과정을 반복 수행함으로써, 차량의 진행 방향에 따른 상기 좌측 차선의 배치 경로를 생성할 수 있다.
이러한 방식으로, 차선 경로 생성부(114)는 우측 차선에 대해서도 제2 기준 관심 영역을 생성하고, 상기 제2 기준 관심 영역을 우측 차선에 대한 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 과정을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성할 수 있다.
이때, 상기 기설정된 복수의 제2 방향들은 좌측 차선의 배치 경로 생성에 사용된 상기 복수의 제1 방향들(422)과 반대 형태의 방향들로 설정되어 있을 수 있다.
이러한, 차선 경로 생성부(114)를 통해 생성된 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로의 예시는 도 5에 도시되어 있다. 도 5에서 도면부호 511로 표시한 부분이 상기 좌측 차선의 배치 경로에 대한 예시이며, 도면부호 512로 표시한 부분이 상기 우측 차선의 배치 경로에 대한 예시이다.
이때, 본 발명의 일실시예에 따르면, 차선 경로 생성부(114)는 상기 좌측 차선의 배치 경로 상에서 상기 좌측 차선의 윤곽선이 검출되지 않는 제1 미검출 지점이 존재하는 경우, 상기 우측 차선의 배치 경로에서 상기 제1 미검출 지점에 대응되는 상기 우측 차선의 윤곽선을 상기 좌측 차선 상으로 대칭 이동시켜 상기 제1 미검출 지점에 대한 상기 좌측 차선의 윤곽선으로 처리할 수 있다.
또한, 차선 경로 생성부(114)는 상기 우측 차선의 배치 경로 상에서 상기 우측 차선의 윤곽선이 검출되지 않는 제2 미검출 지점이 존재하는 경우, 상기 좌측 차선의 배치 경로에서 상기 제2 미검출 지점에 대응되는 상기 좌측 차선의 윤곽선을 상기 우측 차선 상으로 대칭 이동시켜 상기 제2 미검출 지점에 대한 상기 우측 차선의 윤곽선으로 처리할 수 있다.
예컨대, 차선 경로 생성부(114)가 상기 제1 기준 관심 영역을 이동시키면서 좌측 차선의 윤곽선을 검출하여 상기 좌측 차선에 대한 배치 경로를 생성하는 중에 도 3에 도시된 그림에서 도면부호 311로 표시한 부분과 같이, 차량의 상단 뷰 이미지에서 좌측 차선의 윤곽선의 해상도가 낮거나 그림자가 존재하는 등의 이유로 인해, 좌측 차선의 윤곽선이 검출되지 않는 제1 미검출 지점이 존재하는 경우, 차선 경로 생성부(114)는 상기 우측 차선의 배치 경로에서 상기 제1 미검출 지점에 대응되는 상기 우측 차선의 윤곽선을 상기 좌측 차선 상으로 대칭 이동시켜 상기 제1 미검출 지점에 대한 상기 좌측 차선의 윤곽선으로 처리할 수 있다.
이렇게, 차선 경로 생성부(114)에 의해 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로가 생성되면, 이동 경로 생성부(115)는 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성한다.
관련해서, 도 5에 도시된 그림과 같이, 차선 경로 생성부(114)에 의해 상기 좌측 차선의 배치 경로(511)와 상기 우측 차선의 배치 경로(512)가 생성되면, 이동 경로 생성부(115)는 상기 좌측 차선의 배치 경로(511)와 상기 우측 차선의 배치 경로 간(512)의 중점 좌표의 이동 경로(513)를 기초로 상기 차량에 대한 이동 경로(514)를 생성할 수 있다.
이때, 본 발명의 일실시예에 따르면, 이동 경로 생성부(115)는 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로에 대해 이동 평균 필터(moving average filter)를 적용하여 상기 중점 좌표의 이동 경로를 평활화(smoothing)함으로써, 상기 차량에 대한 이동 경로를 생성할 수 있다.
여기서, 이동 평균이란 2개 이상의 연속된 데이터 값(입력 값)의 평균을 계속적으로 계산해내는 평균화 방법을 의미하는 것으로, 데이터의 변화 움직임이 심한 경우, 이를 부드럽게 만들기 위해서 사용된다.
이에, 이동 경로 생성부(115)는 도 5에 도시된 그림과 같이, 상기 좌측 차선의 배치 경로(511)와 상기 우측 차선의 배치 경로(512) 간의 중점 좌표의 이동 경로(513)에 대해 이동 평균 필터를 적용하여 상기 중점 좌표의 이동 경로(513)를 평활화함으로써, 상기 차량에 대한 이동 경로(514)를 생성할 수 있다.
본 발명의 일실시예에 따르면, 이동 경로 생성 장치(110)는 조향 제어부(118)를 더 포함할 수 있다.
조향 제어부(118)는 상기 차량에 대한 이동 경로가 생성되면, 상기 차량의 뒷바퀴의 중심과 상기 차량에 대한 이동 경로 간의 수평거리, 상기 차량의 앞바퀴의 중심을 연결하는 선과 상기 차량에 대한 이동 경로 간의 각도 및 상기 차량의 현재 속도에 기초하여 상기 차량의 스티어링 휠의 조향 각도를 연산하고, 상기 연산된 조향 각도에 따라 상기 차량의 스티어링 휠의 조향을 제어한다.
이때, 본 발명의 일실시예에 따르면, 조향 제어부(118)는 하기의 수학식 1의 연산에 기초하여 상기 차량의 스티어링 휠의 조향을 제어할 수 있다.
Figure PCTKR2020002382-appb-M000001
여기서,
Figure PCTKR2020002382-appb-I000001
는 t시점에서의 스티어링 휠의 조향 각도,
Figure PCTKR2020002382-appb-I000002
는 상기 차량의 뒷바퀴의 중심과 상기 차량에 대한 이동 경로 간의 수평거리,
Figure PCTKR2020002382-appb-I000003
는 상기 차량의 앞바퀴의 중심을 연결하는 선과 상기 차량에 대한 이동 경로 간의 각도,
Figure PCTKR2020002382-appb-I000004
는 상기 차량의 현재 속도,
Figure PCTKR2020002382-appb-I000005
는 이득 파라미터를 의미한다.
예컨대, 상기 차량에 대한 이동 경로가 도 6의 도면부호 611과 같이 생성되었다고 하는 경우,
Figure PCTKR2020002382-appb-I000006
는 상기 차량의 뒷바퀴의 중심(612)과 상기 차량에 대한 이동 경로(611) 간의 수평거리를 의미하고,
Figure PCTKR2020002382-appb-I000007
는 상기 차량의 앞바퀴의 중심(613)을 기초로 소정의 반지름 r을 갖는 원을 그렸을 때, 상기 원에서 상기 차량의 앞바퀴의 중심(613)을 지나는 선과 상기 원에서 상기 차량에 대한 이동 경로(611)의 접점을 연결하는 선 간의 각도를 의미하며,
Figure PCTKR2020002382-appb-I000008
는 상기 차량의 현재 속도를 의미하고,
Figure PCTKR2020002382-appb-I000009
는 이득 파라미터로 차량에 따라 서로 다르게 설정될 수 있는 상수를 의미한다.
결국, 본 발명에 따른 이동 경로 생성 장치(110)는 차량에 구비되어 있는 AVM 시스템을 통해 상기 차량의 상단 뷰 이미지를 획득하고, 상기 차량의 상단 뷰 이미지로부터 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 검출하며, 상기 차량의 우측 차선과 좌측 차선의 윤곽선을 기초로 상기 좌측 차선과 우측 차선의 배치 경로를 생성한 후 상기 좌측 차선과 우측 차선의 배치 경로를 기초로 상기 차량에 대한 이동 경로를 생성함으로써, 좁은 골목에서도 자율 주행 차량이 비교적 정확하게 주행할 수 있도록 지원할 수 있다.
도 7은 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법을 도시한 순서도이다.
단계(S710)에서는 차량에 구비되어 있는 AVM 시스템(상기 AVM 시스템은 상기 차량의 전방, 후방 및 좌우측면에 구비된 카메라를 통해 촬영된 영상으로부터 상기 차량의 상단 뷰 이미지를 생성하는 시스템임)을 통해 상기 차량의 상단 뷰 이미지를 획득한다.
단계(S720)에서는 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출한다.
단계(S730)에서는 상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성한다.
단계(S740)에서는 상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성한다.
단계(S750)에서는 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성한다.
이때, 본 발명의 일실시예에 따르면, 단계(S720)에서는 상기 차량의 상단 뷰 이미지가 획득되면, 차선의 색상으로 사전 설정된 차선 색상 정보를 기초로 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화하는 단계 및 상기 차량의 상단 뷰 이미지에 대한 이진화가 완료되면, 이진화가 완료된 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 상기 관심 영역을 설정하고, 상기 관심 영역에서 흑색의 화소들로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 상기 좌측 차선과 상기 우측 차선의 윤곽선으로 검출하는 단계를 포함할 수 있다.
이때, 본 발명의 일실시예에 따르면, 단계(S740)에서는 상기 좌측 차선의 배치 경로 상에서 상기 좌측 차선의 윤곽선이 검출되지 않는 제1 미검출 지점이 존재하는 경우, 상기 우측 차선의 배치 경로에서 상기 제1 미검출 지점에 대응되는 상기 우측 차선의 윤곽선을 상기 좌측 차선 상으로 대칭 이동시켜 상기 제1 미검출 지점에 대한 상기 좌측 차선의 윤곽선으로 처리하고, 상기 우측 차선의 배치 경로 상에서 상기 우측 차선의 윤곽선이 검출되지 않는 제2 미검출 지점이 존재하는 경우, 상기 좌측 차선의 배치 경로에서 상기 제2 미검출 지점에 대응되는 상기 좌측 차선의 윤곽선을 상기 우측 차선 상으로 대칭 이동시켜 상기 제2 미검출 지점에 대한 상기 우측 차선의 윤곽선으로 처리할 수 있다.
또한, 본 발명의 일실시예에 따르면, 단계(S750)에서는 상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로에 대해 이동 평균 필터를 적용하여 상기 중점 좌표의 이동 경로를 평활화함으로써, 상기 차량에 대한 이동 경로를 생성할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법은 상기 차량에 대한 이동 경로가 생성되면, 상기 차량의 뒷바퀴의 중심과 상기 차량에 대한 이동 경로 간의 수평거리, 상기 차량의 앞바퀴의 중심을 연결하는 선과 상기 차량에 대한 이동 경로 간의 각도 및 상기 차량의 현재 속도에 기초하여 상기 차량의 스티어링 휠의 조향 각도를 연산하고, 상기 연산된 조향 각도에 따라 상기 차량의 스티어링 휠의 조향을 제어하는 단계를 더 포함할 수 있다.
이상, 도 7을 참조하여 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법은 도 1 내지 도 6을 이용하여 설명한 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.
본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.
또한, 본 발명의 일실시예에 따른 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (12)

  1. 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템 - 상기 AVM 시스템은 상기 차량의 전방, 후방 및 좌우측면에 구비된 카메라를 통해 촬영된 영상으로부터 상기 차량의 상단 뷰(top view) 이미지를 생성하는 시스템임 - 을 통해 상기 차량의 상단 뷰 이미지를 획득하는 이미지 획득부;
    상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된(predetermined) 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출하는 차선 검출부;
    상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성하는 기준 관심 영역 생성부;
    상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성하는 차선 경로 생성부; 및
    상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성하는 이동 경로 생성부
    를 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치.
  2. 제1항에 있어서,
    상기 차선 검출부는
    상기 차량의 상단 뷰 이미지가 획득되면, 차선의 색상으로 사전 설정된 차선 색상 정보를 기초로 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화하는 이진화 처리부; 및
    상기 차량의 상단 뷰 이미지에 대한 이진화가 완료되면, 이진화가 완료된 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 상기 관심 영역을 설정하고, 상기 관심 영역에서 흑색의 화소들로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 상기 좌측 차선과 상기 우측 차선의 윤곽선으로 검출하는 윤곽선 검출부
    를 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치.
  3. 제2항에 있어서,
    상기 차선 경로 생성부는
    상기 좌측 차선의 배치 경로 상에서 상기 좌측 차선의 윤곽선이 검출되지 않는 제1 미검출 지점이 존재하는 경우, 상기 우측 차선의 배치 경로에서 상기 제1 미검출 지점에 대응되는 상기 우측 차선의 윤곽선을 상기 좌측 차선 상으로 대칭 이동시켜 상기 제1 미검출 지점에 대한 상기 좌측 차선의 윤곽선으로 처리하고,
    상기 우측 차선의 배치 경로 상에서 상기 우측 차선의 윤곽선이 검출되지 않는 제2 미검출 지점이 존재하는 경우, 상기 좌측 차선의 배치 경로에서 상기 제2 미검출 지점에 대응되는 상기 좌측 차선의 윤곽선을 상기 우측 차선 상으로 대칭 이동시켜 상기 제2 미검출 지점에 대한 상기 우측 차선의 윤곽선으로 처리하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치.
  4. 제1항에 있어서,
    상기 이동 경로 생성부는
    상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로에 대해 이동 평균 필터(moving average filter)를 적용하여 상기 중점 좌표의 이동 경로를 평활화(smoothing)함으로써, 상기 차량에 대한 이동 경로를 생성하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치.
  5. 제1항에 있어서,
    상기 차량에 대한 이동 경로가 생성되면, 상기 차량의 뒷바퀴의 중심과 상기 차량에 대한 이동 경로 간의 수평거리, 상기 차량의 앞바퀴의 중심을 연결하는 선과 상기 차량에 대한 이동 경로 간의 각도 및 상기 차량의 현재 속도에 기초하여 상기 차량의 스티어링 휠의 조향 각도를 연산하고, 상기 연산된 조향 각도에 따라 상기 차량의 스티어링 휠의 조향을 제어하는 조향 제어부
    를 더 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치.
  6. 차량에 구비되어 있는 어라운드 뷰 모니터링(Around View Monitoring: AVM) 시스템 - 상기 AVM 시스템은 상기 차량의 전방, 후방 및 좌우측면에 구비된 카메라를 통해 촬영된 영상으로부터 상기 차량의 상단 뷰(top view) 이미지를 생성하는 시스템임 - 을 통해 상기 차량의 상단 뷰 이미지를 획득하는 단계;
    상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 차선 검출을 위한 기설정된(predetermined) 제1 크기의 관심 영역을 설정하고, 상기 관심 영역 내에서 좌측 차선과 우측 차선의 윤곽선을 검출하는 단계;
    상기 좌측 차선의 윤곽선의 중점을 기초로 기설정된 제2 크기를 갖는 제1 기준 관심 영역을 생성하고, 상기 우측 차선의 윤곽선의 중점을 기초로 상기 기설정된 제2 크기를 갖는 제2 기준 관심 영역을 생성하는 단계;
    상기 차량의 상단 뷰 이미지에서 상기 제1 기준 관심 영역을 기설정된 복수의 제1 방향들로 순차적으로 이동시키면서 상기 좌측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 좌측 차선의 배치 경로를 생성하고, 상기 차량의 상단 뷰 이미지에서 상기 제2 기준 관심 영역을 기설정된 복수의 제2 방향들로 순차적으로 이동시키면서 상기 우측 차선의 윤곽선을 검출하는 동작을 반복 수행함으로써, 상기 우측 차선의 배치 경로를 생성하는 단계; 및
    상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로를 기초로 상기 차량에 대한 이동 경로를 생성하는 단계
    를 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법.
  7. 제6항에 있어서,
    상기 윤곽선을 검출하는 단계는
    상기 차량의 상단 뷰 이미지가 획득되면, 차선의 색상으로 사전 설정된 차선 색상 정보를 기초로 상기 차량의 상단 뷰 이미지에서 상기 차선 색상 정보에 따른 색상을 갖는 화소들의 색상을 흑색으로, 나머지 화소들의 색상을 백색으로 변환함으로써, 상기 차량의 상단 뷰 이미지를 이진화하는 단계; 및
    상기 차량의 상단 뷰 이미지에 대한 이진화가 완료되면, 이진화가 완료된 상기 차량의 상단 뷰 이미지에서 상기 차량의 좌측 지점과 우측 지점에 상기 관심 영역을 설정하고, 상기 관심 영역에서 흑색의 화소들로 구성된 영역의 크기가 기설정된 면적 크기를 초과하는 영역을 상기 좌측 차선과 상기 우측 차선의 윤곽선으로 검출하는 단계
    를 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법.
  8. 제7항에 있어서,
    상기 배치 경로를 생성하는 단계는
    상기 좌측 차선의 배치 경로 상에서 상기 좌측 차선의 윤곽선이 검출되지 않는 제1 미검출 지점이 존재하는 경우, 상기 우측 차선의 배치 경로에서 상기 제1 미검출 지점에 대응되는 상기 우측 차선의 윤곽선을 상기 좌측 차선 상으로 대칭 이동시켜 상기 제1 미검출 지점에 대한 상기 좌측 차선의 윤곽선으로 처리하고,
    상기 우측 차선의 배치 경로 상에서 상기 우측 차선의 윤곽선이 검출되지 않는 제2 미검출 지점이 존재하는 경우, 상기 좌측 차선의 배치 경로에서 상기 제2 미검출 지점에 대응되는 상기 좌측 차선의 윤곽선을 상기 우측 차선 상으로 대칭 이동시켜 상기 제2 미검출 지점에 대한 상기 우측 차선의 윤곽선으로 처리하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법.
  9. 제6항에 있어서,
    상기 이동 경로를 생성하는 단계는
    상기 좌측 차선의 배치 경로와 상기 우측 차선의 배치 경로 간의 중점 좌표의 이동 경로에 대해 이동 평균 필터(moving average filter)를 적용하여 상기 중점 좌표의 이동 경로를 평활화(smoothing)함으로써, 상기 차량에 대한 이동 경로를 생성하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법.
  10. 제6항에 있어서,
    상기 차량에 대한 이동 경로가 생성되면, 상기 차량의 뒷바퀴의 중심과 상기 차량에 대한 이동 경로 간의 수평거리, 상기 차량의 앞바퀴의 중심을 연결하는 선과 상기 차량에 대한 이동 경로 간의 각도 및 상기 차량의 현재 속도에 기초하여 상기 차량의 스티어링 휠의 조향 각도를 연산하고, 상기 연산된 조향 각도에 따라 상기 차량의 스티어링 휠의 조향을 제어하는 단계
    를 더 포함하는 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 방법.
  11. 제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  12. 제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램.
PCT/KR2020/002382 2019-04-01 2020-02-19 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법 WO2020204350A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190037699A KR102239734B1 (ko) 2019-04-01 2019-04-01 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법
KR10-2019-0037699 2019-04-01

Publications (2)

Publication Number Publication Date
WO2020204350A2 true WO2020204350A2 (ko) 2020-10-08
WO2020204350A3 WO2020204350A3 (ko) 2020-12-30

Family

ID=72667398

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/002382 WO2020204350A2 (ko) 2019-04-01 2020-02-19 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102239734B1 (ko)
WO (1) WO2020204350A2 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112729320B (zh) * 2020-12-22 2022-05-17 中国第一汽车股份有限公司 一种障碍物地图构建方法、装置、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102062926B1 (ko) * 2013-08-30 2020-01-06 현대모비스 주식회사 주차 지원 장치 및 그 동작방법
KR101692628B1 (ko) * 2014-12-24 2017-01-04 한동대학교 산학협력단 관심영역을 이용하여 차량의 후방 좌우 옆 차선 영역을 감지하는 방법 및 이를 이용한 차량용 영상 모니터링 시스템
KR101709402B1 (ko) * 2015-07-13 2017-03-08 김구현 운전 지원 시스템 및 운전 지원 방법
KR102372296B1 (ko) * 2015-11-12 2022-03-08 현대모비스 주식회사 영상 기반 주행 차로 판단 장치 및 방법

Also Published As

Publication number Publication date
KR20200119421A (ko) 2020-10-20
KR102239734B1 (ko) 2021-04-12
WO2020204350A3 (ko) 2020-12-30

Similar Documents

Publication Publication Date Title
US20090010482A1 (en) Diagrammatizing Apparatus
WO2018101603A1 (ko) 스테레오 카메라를 이용한 도로객체 인식방법 및 장치
WO2005029441A1 (ja) 路面走行レーン検出装置
WO2012011715A2 (ko) 차량 충돌 경보 시스템 및 방법
EP3432265A1 (en) Image processing device, apparatus control system, image pickup device, image processing method, and program
CN106461387B (zh) 立体相机设备和设置有立体相机的车辆
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
WO2017195965A1 (ko) 차량 속도에 따른 영상 처리 장치 및 방법
CN110717445A (zh) 一种用于自动驾驶的前车距离跟踪系统与方法
JP2005196590A (ja) 歩行者抽出装置
WO2021172833A1 (ko) 물체 인식 장치, 물체 인식 방법 및 이를 수행하기 위한 컴퓨터 판독 가능한 기록 매체
KR102164800B1 (ko) 어라운드 뷰 모니터링 시스템을 이용한 인공지능 기반의 자율 주행 차량용 이동 경로 생성 장치 및 그 동작 방법
JPH11351862A (ja) 前方車両検出方法及び装置
WO2018097595A1 (ko) 카메라 영상을 이용한 주행 정보 제공 방법 및 장치
WO2012148025A1 (ko) 복수의 카메라를 이용한 3차원 물체 검출장치 및 방법
WO2020204350A2 (ko) 어라운드 뷰 모니터링 시스템을 이용한 자율 주행 차량을 위한 이동 경로 생성 장치 및 방법
WO2016209029A1 (ko) 입체 영상 카메라와 로고를 이용한 광학 호밍 시스템 및 방법
JP2000293693A (ja) 障害物検出方法および装置
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
WO2019216673A1 (ko) 무인 이동체용 사물 유도 시스템 및 방법
CN112611360B (zh) 物体检测装置、车辆及物体检测处理方法
US11087150B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
JP3364771B2 (ja) 移動物体検出装置
WO2016104842A1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784787

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20784787

Country of ref document: EP

Kind code of ref document: A2