KR20190107071A - 규칙 기반 항법 - Google Patents

규칙 기반 항법 Download PDF

Info

Publication number
KR20190107071A
KR20190107071A KR1020197023466A KR20197023466A KR20190107071A KR 20190107071 A KR20190107071 A KR 20190107071A KR 1020197023466 A KR1020197023466 A KR 1020197023466A KR 20197023466 A KR20197023466 A KR 20197023466A KR 20190107071 A KR20190107071 A KR 20190107071A
Authority
KR
South Korea
Prior art keywords
navigation
host vehicle
vehicle
images
rule
Prior art date
Application number
KR1020197023466A
Other languages
English (en)
Other versions
KR102513185B1 (ko
Inventor
샤이 샬리스워츠
암논 샤슈아
기드온 스테인
샤키드 샴마흐
요압 타이엡
Original Assignee
모빌아이 비젼 테크놀로지스 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모빌아이 비젼 테크놀로지스 엘티디. filed Critical 모빌아이 비젼 테크놀로지스 엘티디.
Publication of KR20190107071A publication Critical patent/KR20190107071A/ko
Application granted granted Critical
Publication of KR102513185B1 publication Critical patent/KR102513185B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/162Speed limiting therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/15Agricultural vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/17Construction vehicles, e.g. graders, excavators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/60Traversable objects, e.g. speed bumps or curbs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • G05D2201/0213
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)

Abstract

일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 처리 장치를 포함할 수 있다. 처리 장치는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신하도록 프로그램 될 수 있다. 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량의 적어도 하나의 항법 상태를 식별하도록 프로그램 될 수 있다. 처리 장치는 또한 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 구역을 식별하도록 프로그램 될 수 있고, 여기서, 적어도 하나의 지시자는 복수의 이미지의 분석에 적어도 부분적으로 의거할 수 있다. 처리 장치는 또한 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단하도록 프로그램 될 수 있다. 처리 장치는 또한 식별된 항법 상태에 의거하고 판단된 적어도 하나의 항법 규칙에 의거하여 항법 변경을 유발하도록 프로그램 될 수 있다.

Description

규칙 기반 항법
본 발명은 자율 주행에 관한 것이다. 또한, 본 발명은 강화 학습 기법을 활용한 항법을 위한 시스템 및 방법에 관한 것이다.
기술 발전과 함께, 도로상에서 항법이 가능한 완전 자율 자동차의 구현이 목전에 있다. 자율주행차는 의도한 목적지에 안전하고 정확하게 도착하기 위해 다양한 요소를 고려하고 그런 요소에 근거한 적절한 판단을 해야 할 수 있다. 예를 들어, 자율주행차는 시각 정보(예를 들면, 카메라로부터 캡처 된 정보) 및 레이더 또는 라이더(lidar)로부터의 정보를 처리하고 해석해야 할 수 있고, 또한 기타 출처(예를 들면, GPS 장치, 속력 센서, 가속도계, 서스펜션 센서 등)로부터 획득한 정보를 이용할 수도 있다. 동시에, 자율주행차는, 목적지로 주행하기 위하여, 특정 도로 내의 위치(예를 들면, 다차선 도로상의 특정 차로)를 식별하고, 다른 차량을 따라 주행하고, 장애물과 보행자를 회피하고, 신호등과 도로표지판을 관찰하고, 적절한 교차로나 분기점에서 한 도로에서 다른 도로로 이동하고, 차량의 조작 중에 발생하는 기타 다른 상황에 대응할 필요가 있을 수도 있다.
본 발명은 강화 학습 방법을 활용한 항법을 위한 시스템 및 방법에 관한 것이다.
본 기재의 실시예들은 자율 주행을 위한 시스템과 방법을 제공한다. 기재된 실시예는 카메라를 사용하여 자율 주행 특징을 제공할 수 있다. 예를 들면, 기재된 실시예에 따라, 기재된 시스템은 차량의 주변상황을 모니터하는 하나, 둘, 또는 그 이상의 카메라를 포함할 수 있다. 기재된 시스템은, 예를 들어, 하나 또는 그 이상의 카메라에 의해 캡처 된 이미지의 분석에 의거하여 항법 반응을 제공할 수 있다. 항법 반응은 또한, 예를 들어, GPS 데이터, 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서, 레이더, 라이더 등으로부터의 데이터), 및/또는 기타 지도 데이터를 포함하는 기타 데이터를 고려할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 처리 장치를 포함할 수 있다. 처리 장치는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 될 수 있다. 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량의 적어도 하나의 항법 상태를 식별하도록 프로그램 될 수 있다. 처리 장치는 또한 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 호스트 차량이 이동 중인 구역(jurisdiction)을 식별하도록 프로그램 될 수 있다. 여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거할 수 있다. 처리 장치는 또한 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단하도록 프로그램 될 수 있다. 처리 장치는 또한 호스트 차량의 식별된 항법 상태에 의거하고 식별된 구역에 특유한 판단된 적어도 하나의 항법 규칙에 의거하여 호스트 차량에 대한 항법 변경을 유발할 수 있다.
일 실시예에서, 호스트 차량의 항법 방법은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계를 포함할 수 있다. 상기 방법은 복수의 이미지를 분석하여 호스트 차량의 적어도 하나의 항법 상태를 식별하는 단계를 더 포함할 수 있다. 상기 방법은 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 호스트 차량이 이동 중인 구역을 식별하는 단계를 더 포함할 수 있다. 여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거할 수 있다. 상기 방법은 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단하는 단계를 더 포함할 수 있다. 상기 방법은 호스트 차량의 식별된 항법 상태에 의거하고 식별된 구역에 특유한 판단된 적어도 하나의 항법 규칙에 의거하여 호스트 차량에 대한 항법 변경을 유발하는 단계를 더 포함할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 자율주행차를 포함할 수 있고, 상기 자율주행차는 차체, 상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치, 및 적어도 하나의 프로세서를 포함할 수 있다. 프로세서는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 될 수 있다. 프로세서는 또한 복수의 이미지를 분석하여 호스트 차량의 적어도 하나의 항법 상태를 식별하도록 프로그램 될 수 있다. 프로세서는 또한 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 호스트 차량이 이동 중인 구역을 식별하도록 프로그램 될 수 있다. 여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거할 수 있다. 프로세서는 또한 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단하도록 프로그램 될 수 있다. 프로세서는 또한 호스트 차량의 식별된 항법 상태에 의거하고 식별된 구역에 특유한 판단된 적어도 하나의 항법 규칙에 의거하여 호스트 차량에 대한 항법 변경을 유발할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 처리 장치를 포함할 수 있다. 적어도 하나의 처리 장치는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량에 부정적인 타깃 차량의 적어도 하나의 특성을 식별하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 호스트 차량의 적어도 하나의 항법 변경을 유발하여 타깃 차량의 적어도 하나의 특성을 식별한 이후에 타깃 차량의 추월을 개시하도록 프로그램 될 수 있다.
일 실시예에서, 호스트 차량의 항법 방법은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계를 포함할 수 있다. 상기 방법은 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하는 단계를 포함할 수 있다. 상기 방법은 또한 복수의 이미지를 분석하여 타깃 차량의 적어도 하나의 특성을 식별하는 단계를 포함할 수 있다. 상기 방법은 또한 호스트 차량의 적어도 하나의 항법 변경을 유발하여 타깃 차량의 적어도 하나의 특성을 식별한 이후에 타깃 차량의 추월을 개시하는 단계를 포함할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 자율주행차를 포함할 수 있고, 상기 자율주행차는 차체, 상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치, 및 적어도 하나의 프로세서를 포함할 수 있다. 프로세서는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 될 수 있다. 프로세서는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하도록 프로그램 될 수 있다. 프로세서는 또한 복수의 이미지를 분석하여 타깃 차량의 적어도 하나의 특성을 식별하도록 프로그램 될 수 있다. 프로세서는 또한 호스트 차량의 적어도 하나의 항법 변경을 유발하여 타깃 차량의 적어도 하나의 특성을 식별한 이후에 타깃 차량의 추월을 개시하도록 프로그램 될 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 된 적어도 하나의 처리 장치를 포함할 수 있다. 적어도 하나의 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한, 복수의 이미지의 분석에 적어도 부분적으로 의거하여, 타깃 차량과 호스트 차량이 그 결과가 항법 타이(navigational tie)상황인 유사한 항법 우선순위를 가지고 있다고 판단하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 호스트 차량에 의한 적어도 하나의 동작을 유발하여 호스트 차량 또는 타깃 차량에 항법 우선순위를 설정하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 설정된 항법 우선순위에 따라 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발하도록 프로그램 될 수 있다.
일 실시예에서, 호스트 차량의 항법 방법은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계를 포함할 수 있다. 상기 방법은 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하는 단계를 포함할 수 있다. 상기 방법은 또한, 복수의 이미지의 분석에 적어도 부분적으로 의거하여, 타깃 차량과 호스트 차량이 그 결과가 항법 타이 상황인 유사한 항법 우선순위를 가지고 있다고 판단하는 단계를 포함할 수 있다. 상기 방법은 또한 호스트 차량에 의한 적어도 하나의 동작을 유발하여 호스트 차량 또는 타깃 차량에 항법 우선순위를 설정하는 단계를 포함할 수 있다. 상기 방법은 또한 설정된 항법 우선순위에 따라 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발하는 단계를 포함할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 자율주행차를 포함할 수 있고, 상기 자율주행차는 차체, 상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치, 및 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하도록 프로그램 될 수 있다. 적어도 하나의 프로세서는 또한, 복수의 이미지의 분석에 적어도 부분적으로 의거하여, 타깃 차량과 호스트 차량이 그 결과가 항법 타이 상황인 유사한 항법 우선순위를 가지고 있다고 판단하도록 프로그램 될 수 있다. 적어도 하나의 프로세서는 또한 호스트 차량에 의한 적어도 하나의 동작을 유발하여 호스트 차량 또는 타깃 차량에 항법 우선순위를 설정하도록 프로그램 될 수 있다. 적어도 하나의 프로세서는 또한 설정된 항법 우선순위에 따라 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발하도록 프로그램 될 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 된 적어도 하나의 처리 장치를 포함할 수 있다. 적어도 하나의 처리 장치는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 항법 규칙 보류 상황의 존재를 식별하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 항법 규칙 보류 상황의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류하도록 프로그램 될 수 있다. 적어도 하나의 처리 장치는 또한 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제한 받지 않는 호스트 차량의 적어도 하나의 항법 변경을 유발하도록 프로그램 될 수 있다.
일 실시예에서, 호스트 차량의 항법 방법은 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계를 포함할 수 있다. 상기 방법은 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 항법 규칙 보류 상황의 존재를 식별하는 단계를 포함할 수 있다. 상기 방법은 또한 항법 규칙 보류 상황의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류하는 단계를 포함할 수 있다. 상기 방법은 또한 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제한 받지 않는 호스트 차량의 적어도 하나의 항법 변경을 유발하는 단계를 포함할 수 있다.
일 실시예에서, 호스트 차량의 항법 시스템은 자율주행차를 포함할 수 있고, 상기 자율주행차는 차체, 상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치, 및 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하도록 프로그램 된 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 또한 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 항법 규칙 보류 상황의 존재를 식별하도록 프로그램 될 수 있다. 적어도 하나의 프로세서는 또한 항법 규칙 보류 상황의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류하도록 프로그램 될 수 있다. 적어도 하나의 프로세서는 또한 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제한 받지 않는 호스트 차량의 적어도 하나의 항법 변경을 유발하도록 프로그램 될 수 있다.
다른 기재된 실시예에 따라, 비일시적 컴퓨터 가독 저장 매체는 적어도 하나의 처리 장치에 의해 실행되고 여기에 기재된 방법 중의 어느 하나 이상을 수행하는 프로그램 명령을 저장할 수 있다.
상기의 일반적인 설명과 하기의 상세한 설명은 예시일 뿐이며 본 발명의 청구범위를 제한하지 않는다.
본 명세서에 포함되고 본 명세서의 일부를 구성하는 첨부 도면은 기재된 다양한 실시예를 도시한다.
도 1은 기재된 실시예에 따른 예시적인 시스템의 개략도이다.
도 2a는 기재된 실시예에 따른 시스템을 포함하는 예시적인 자동차의 측면도이다.
도 2b는 기재된 실시예에 따른 도 2a의 자동차와 시스템의 평면도이다.
도 2c는 기재된 실시예에 따른 시스템을 포함하는 자동차의 다른 실시예의 평면도이다.
도 2d는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2e는 기재된 실시예에 따른 시스템을 포함하는 자동차의 또 다른 실시예의 평면도이다.
도 2f는 기재된 실시예에 따른 예시적인 자동차 제어 시스템의 개략도이다.
도 3a는 기재된 실시예에 따른 차량 이미징 시스템을 위한 백미러(rear view mirror)와 사용자 인터페이스를 포함하는 차량의 실내를 개략적으로 예시한 것이다.
도 3b는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 3c는 기재된 실시예에 따른 도 3b의 카메라 마운트를 다른 시각에서 예시를 도시한 것이다.
도 3d는 기재된 실시예에 따른 백미러 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트의 일례이다.
도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 5a는 기재된 실시예에 따른 단안 이미지 분석에 근거한 하나 이상의 주행 반응을 야기하는 프로세스의 일례를 예시한 순서도이다.
도 5b는 기재된 실시예에 따른 일련의 영상에서 하나 이상의 차량 및/또는 보행자를 검출하는 예시적인 프로세스를 도시한 순서도이다.
도 5c는 기재된 실시예에 따른 일련의 영상에서 도로 표시 및/또는 차선 형상 정보를 검출하는 예시적인 프로세스를 도시한 순서도이다.
도 5d는 기재된 실시예에 따른 일련의 영상에서 신호등을 검출하는 예시적인 프로세스를 도시한 순서도이다.
도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 프로세스를 도시한 순서도이다.
도 5f는 기재된 실시예에 따른 선두 차량이 차선 변경을 하는지를 판단하는 예시적인 프로세스를 도시한 순서도이다.
도 6은 기재된 실시예에 따른 입체 영상 분석에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 프로세스를 도시한 순서도이다.
도 7은 기재된 실시예에 따른 3개 집합의 영상에 근거한 하나 이상의 주행 반응을 야기하는 예시적인 프로세스를 도시한 순서도이다.
도 8은 기재된 실시예에 따른 자율주행차에 대한 항법 시스템의 특정하게 프로그램된 하나 이상의 처리 장치에 의해 실행될 수 있는 모듈을 나타낸 구성도이다.
도 9는 기재된 실시예에 따른 항법(navigation) 옵션 그래프이다.
도 10은 기재된 실시예에 따른 항법 옵션 그래프이다.
도 11a, 도 11b, 도 11c는 기재된 실시예에 따른 병합 구역 내 호스트 차량의 항법 옵션을 도시한 것이다.
도 11d는 기재된 실시예에 따른 이중 병합 상황을 도시한 것이다.
도 11e는 기재된 실시예에 따른 이중 병합 상황에 활용 가능성이 있는 옵션 그래프를 도시한 것이다.
도 12는 기재된 실시예에 따른 잠재적 항법 제약과 함께 호스트 차량의 주변상황이 캡처된 이미지를 도시한 것이다.
도 13은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 14는 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 15는 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 16은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 17a와 도 17b는 기재된 실시예에 따른 호스트 차량의 로터리 내 항법을 도시한 것이다.
도 18은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 19는 기재된 실시예에 따른 하나 이상의 동작을 수행하기 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 20은 기재된 실시예에 따른 호스트 차량의 주변상황을 나타내는 도면이다.
도 21은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 22는 기재된 실시예에 따른 하나 이상의 동작을 수행하기 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 23은 기재된 실시예에 따른 호스트 차량의 주변상황을 나타내는 도면이다.
도 24는 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 25는 기재된 실시예에 따른 하나 이상의 동작을 수행하기 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 26a와 도 26b는 기재된 실시예에 따른 호스트 차량의 주변상황을 나타내는 도면이다.
도 27은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
도 28은 기재된 실시예에 따른 하나 이상의 동작을 수행하기 위한 명령을 저장하도록 구성된 메모리의 예시적인 구성도이다.
도 29는 기재된 실시예에 따른 호스트 차량의 주변상황을 나타내는 도면이다.
도 30은 기재된 실시예에 따른 호스트 차량의 주변상황을 나타내는 도면이다.
도 31은 기재된 실시예에 따른 차량의 항법을 위한 알고리즘 순서도를 도시한 것이다.
하기의 상세한 설명은 첨부한 도면에 관한 것이다. 가능한 모든 경우에, 도면과 설명에서 동일 또는 유사한 구성요소에 동일한 참조 번호를 사용한다. 여러 예시적인 실시예를 설명하였지만, 다양한 수정, 응용, 구현 등이 가능하다. 예를 들어, 도면에 예시된 구성요소를 치환, 또는 추가, 수정할 수 있고, 설명에 포함된 방법은 단계를 치환하거나 순서를 바꾸거나 추가하여 수정할 수 있다. 따라서, 하기의 상세한 설명은 기재한 실시예와 예시에 국한되지 않고, 본 발명의 청구 범위는 첨부한 청구항에 의해 정의된다.
자율주행차의 개요
본 기재에서 사용된 "자율주행차"라는 용어는 운전자의 입력 없이 적어도 하나의 주행 변경을 구현할 수 있는 차량을 의미한다. "주행 변경"이란 차량의 조향, 제동, 가속/감속의 하나 이상을 변경하는 것을 의미한다. 차량이 자율이기 위해서는 완전 자동(예, 운전자나 운전자의 입력 없이 완전히 동작)일 필요는 없다. 반면, 자율주행차는 특정 시간 동안은 운전자의 제어 하에 작동할 수 있고 다른 시간 동안은 운전자의 제어 없이 작동할 수 있는 차량을 포함한다. 자율주행차는 조향(예, 차량 진로의 차선 사이 유지) 또는 특정 상황 하(모든 상황 하에서가 아님)에서의 일부 조향 동작과 같은 일부 주행 요소만을 제어하고 나머지 요소(예, 제동 또는 특정 상황 하에서의 제동)는 운전자에게 맡기는 차량도 포함할 수 있다. 일부 경우에, 자율주행차는 차량의 제동 및/또는 속도 제어, 조향의 일부 또는 모든 요소를 처리할 수 있다.
운전자들은 차량을 제어하기 위해 흔히 시각적 신호와 관찰에 의존하므로, 교통 인프라는 이에 따라 구축되어, 차로 표시, 교통 표지, 신호등이 운전자들에게 시각적 정보를 제공하도록 설계되었다. 교통 인프라의 이러한 설계 특징을 고려하여, 자율주행차는 카메라 및 차량의 주변으로부터 확보한 시각적 정보를 분석하는 처리부를 포함할 수 있다. 시각적 정보는, 예를 들어, 운전자가 눈으로 확인할 수 있는 교통 인프라의 구성요소(예, 차로 표시, 교통 표지, 신호등 등) 및 기타 장애물(예, 다른 차량, 보행자, 잔해 등)을 나타내는 이미지를 포함할 수 있다. 또한, 자율주행차는 주행 시에 차량 주변상황의 모델을 제공하는 정보와 같은 저장 정보도 사용할 수 있다. 예를 들어, 차량은 이동 중의 차량 주변상황과 관련된 정보를 제공하기 위하여 GPS 데이터 및/또는 센서 데이터(예, 가속도계, 속력 센서, 서스펜션 센서 등으로부터의 데이터), 기타 지도 데이터를 활용할 수 있고, 차량(다른 차량도 함께)은 이런 정보를 이용하여 차량의 위치를 모델 상에서 알아낼 수 있다. 일부 차량들은 또한, 서로 통신이 가능하여, 정보를 교환하고, 차량 주변의 위험 또는 변화에 대해 상대 차량의 수정 등을 가능하게 한다.
시스템 개요
도 1은 본 발명 실시예의 일례에 따른 시스템(100)의 구성도이다. 시스템(100)은 해당 구현의 요구 조건에 따라 다양한 구성 요소를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 처리부(110), 이미지획득부(120), 위치센서(120), 하나 이상의 메모리부(140, 150), 지도 데이터베이스(160), 사용자 인터페이스(170), 무선 송수신기(172)를 포함할 수 있다. 처리부(110)는 하나 이상의 처리 장치를 포함할 수 있다. 일부 실시예에서, 처리부(110)는 애플리케이션 프로세서(180), 이미지 프로세서(190), 또는 기타 적합한 처리 장치를 포함할 수 있다. 이와 마찬가지로, 이미지획득부(120)는 특정 애플리케이션의 요구 조건에 따라 여러 개의 이미지 획득 장치 및 소자를 포함할 수 있다. 일부 실시예에서, 이미지획득부(120)는 이미지캡처장치(122, 124, 126)와 같은 하나 이상의 이미지캡처장치(예, 카메라, CCD, 또는 기타 유형의 이미지센서)를 포함할 수 있다. 시스템(100)은 또한 처리부(110)와 이미지획득부(120)를 서로 통신하도록 연결하는 데이터 인터페이스(128)를 포함할 수 있다. 예를 들어, 데이터 인터페이스(128)는 이미지획득부(120)가 획득한 이미지 데이터를 처리부(110)로 전송하기 위한 단수 또는 복수의 유선 및/또는 무선 링크를 포함할 수 있다.
무선 송수신기(172)는 무선주파수, 또는 적외선주파수, 자기장, 전기장을 사용하여 무선 인터페이스를 통하여 전파를 하나 이상의 네트워크(예, 이동통신, 인터넷 등)와 주고받도록 구성된 하나 이상의 장치를 포함할 수 있다. 무선 송수신기(172)는 공지의 표준(예, Wi- Fi, Bluetooth®, Bluetooth Smart, 802.15.4, ZigBee 등)을 사용하여 데이터를 송신 및/또는 수신할 수 있다. 이러한 송신은 호스트 차량으로부터 하나 이상의 원격 서버로의 통신을 포함할 수 있다. 이러한 송신은 또한, 호스트 차량과 호스트 차량의 주변환경에 있는 한 대 이상의 타깃 차량 사이의 (일방 또는 쌍방) 통신(예, 호스트 차량의 주변환경에 있는 타깃 차량을 고려한/또는 타깃 차량과 함께 호스트 차량의 주행을 조정하기 위함) 또는 전송 차량의 주변에 있는 불특정 수신자에게 보내는 방송도 포함할 수 있다.
애플리케이션 프로세서(180)와 이미지 프로세서(190)는 모두 다양한 종류의 하드웨어 기반 처리 장치를 포함할 수 있다. 예를 들어, 애플리케이션 프로세서(180)와 이미지 프로세서(190) 중 하나 또는 모두는 마이크로프로세서, 전처리 장치(예, 이미지 전처리 장치), 그래픽 프로세서, 중앙 처리 장치(CPU), 보조 회로, 디지털 신호 처리 장치, 집적 회로, 메모리, 또는 애플리케이션을 실행하고 영상을 처리 및 분석하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 단일 또는 멀티 코어 프로세서, 모바일 장치 마이크로컨트롤러, 중앙 처리 장치의 한 종류를 포함할 수 있다. Intel®, AMD® 등과 같은 업체가 제공하는 프로세서들을 포함하는 다양한 처리 장치들이 사용될 수 있으며, 다양한 아키텍처(예, x86 프로세서, ARM® 등)가 포함될 수 있다.
일부 실시예에서, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 Mobileye®가 제공하는 EyeQ 시리즈의 프로세서 칩을 포함할 수 있다. 이러한 프로세서 설계는 로컬 메모리와 명령 집합을 가진 다중 처리 장치를 포함한다. 이러한 프로세서는 복수의 이미지 센서로부터 이미지 데이터를 수신하는 비디오 인풋을 포함할 수 있고 비디오 아웃풋 기능도 포함할 수 있다. 일례로, EyeQ2®는 332Mhz로 작동하는 90nm-마이크론 기술을 사용한다. EyeQ2® 아키텍처는 두 개의 부동 소수점(floating point) 하이퍼 스레드(hyper-thread) 32비트 RISC CPU(MIPS32® 34K® cores), 다섯 개의 Vision Computing Engines (VCE), 세 개의 Vector Microcode Processors(VMP®), Denali 64비트 Mobile DDR Controller, 128비트 내부 Sonics Interconnect, 듀얼 16비트 비디오 인풋 및 18비트 비디오 아웃풋 제어 장치, 16 채널 DMA 및 여러 주변 장치로 구성된다. MIPS34K CPU는 다섯 개의 VCE와 세 개의 VMP?, DMA, 두 번째 MIPS34K CPU, 다중 채널 DMA, 및 기타 주변 장치를 관리한다. 다섯 개의 VCE, 세 개의 VMP® 및 MIPS34K CPU는 다기능 묶음 애플리케이션이 요구하는 집중 시각 연산(intensive vision computations)을 수행할 수 있다. 다른 일례에서, EyeQ2®보다 6배 강력한 3세대 프로세서인 EyeQ3®가 실시예에 사용될 수 있다. 다른 일례에서, EyeQ4® 및/또는 EyeQ5®가 기재된 실시예에 사용될 수 있다. 물론, 신형 또는 미래의 EyeQ 처리 장치도 기재된 실시예와 함께 사용될 수 있다.
여기에 기재된 처리 장치는 각각 특정한 기능을 수행하도록 구성될 수 있다. 특정한 기능을 수행하도록 상기의 EyeQ 프로세서 또는 기타 제어 장치 또는 마이크로프로세서와 같은 처리 장치를 구성하는 것은 컴퓨터 실행 명령을 프로그램하고 이러한 명령을 처리 장치가 작동하는 동안에 처리 장치에 제공하여 실행하도록 하는 것을 포함할 수 있다. 일부 실시예에서, 처리 장치를 구성하는 것은 구조적 명령으로 처리 장치를 직접 프로그램하는 것을 포함할 수 있다. 다른 실시예에서, 처리 장치를 구성하는 것은 작동 중에 처리 장치에 접속 가능한 메모리에 실행을 위한 명령을 저장하는 것을 포함할 수 있다. 예를 들어, 처리 장치는 작동 중에 메모리에 접속하여 저장된 명령을 획득하고 실행할 수 있다. 어느 경우이든, 여기에 기재된 검출, 이미지 분석, 및/또는 주행 기능을 수행하도록 구성된 처리 장치는 호스트 차량의 복수의 하드웨어 기반 구성요소를 제어하는 특화된 하드웨어 기반 시스템을 나타낸다.
도 1에는 두 개의 처리 장치가 처리부(110)에 포함된 것을 예시하였지만, 이보다 많거나 적은 처리 장치가 사용될 수 있다. 예를 들면, 일부 실시예에서, 애플리케이션 프로세서(180)와 이미지 프로세서(190)의 작업을 수행하기 위하여 단일 처리 장치를 사용할 수 있다. 다른 실시예에서, 이러한 작업은 2개 이상의 처리 장치를 사용하여 수행될 수 있다. 또한, 일부 실시예에서, 시스템(100)은 하나 이상의 처리부(110)를 포함하되 이미지획득부(120) 등과 같은 다른 구성요소를 포함하지 않을 수도 있다.
처리부(110)는 다양한 유형의 장치를 포함할 수 있다. 예를 들어, 처리부(110)는 제어 장치, 이미지 전처리 장치, 중앙 처리 장치(CPU), 보조 회로, 디지털 신호 처리 장치, 집적 회로, 메모리, 또는 이미지의 처리 및 분석을 위한 기타 유형의 장치 등과 같은 다양한 장치를 포함할 수 있다. 이미지 전처리 장치는 이미지 센서로부터 이미지를 캡처, 디지털화, 처리하기 위한 이미지 프로세서를 포함할 수 있다. CPU는 단수 또는 복수의 마이크로컨트롤러 또는 마이크로프로세서를 포함할 수 있다. 보조 회로는 캐시, 전원, 클락, 입/출력 회로 등과 같이 본 발명의 분야에서 일반적으로 공지된 단수 또는 복수의 회로를 포함할 수 있다. 메모리는 처리 장치에 의해 실행될 때 시스템의 동작을 제어하는 소프트웨어를 저장할 수 있다. 메모리는 단수 또는 복수의 RAM(random access memory), ROM(read only memory), 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치, 및 기타 유형의 저장 장치를 포함할 수 있다. 일례에서, 메모리는 처리부(110)와 분리되어 있을 수 있다. 다른 예에서, 메모리는 처리부(110)와 일체로 구성될 수 있다.
메모리(140, 150) 각각은 처리 장치(예, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190))에 의해 실행될 때 시스템(100)의 다양한 측면의 동작을 제어할 수 있는 소프트웨어 명령을 포함할 수 있다. 이러한 메모리 장치는 다양한 데이터베이스 및 이미지 처리 소프트웨어뿐만 아니라, 예를 들어, 신경망(neural network), 심층 신경망(deep neural network)과 같은 학습 시스템(trained system)을 포함할 수 있다. 이러한 메모리 장치는 RAM, ROM, 플래시 메모리, 디스크 드라이브, 광 저장 장치, 테이프 저장 장치, 탈착형 저장 장치 및/또는 기타 유형의 저장 장치를 포함할 수 있다. 일부 실시예에서, 메모리 장치(140, 150)는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 분리되어 있을 수 있다. 다른 실시예에서, 이러한 메모리 장치는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)와 일체로 구성될 수 있다.
위치센서(130)는 시스템(100)의 적어도 한 구성요소와 연관된 위치를 판단하기에 적합한 유형의 장치를 포함할 수 있다. 일부 실시예에서, 위치센서(130)는 GPS 수신기를 포함할 수 있다. 이러한 수신기는 GPS 위성이 송신하는 신호를 처리하여 사용자의 위치와 속도를 판단할 수 있다. 위치센서(130)로부터의 위치 정보는 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)로 제공될 수 있다.
일부 실시예에서, 시스템(100)은 차량(200)의 속도를 측정하기 위한 속력 센서(예, 속도계)를 포함할 수 있다. 시스템(100)은 또한 하나 이상의 축을 따라 차량(200)의 가속을 측정하기 위한 하나 이상의 가속도계(단축 또는 다축)를 포함할 수 있다.
메모리(10, 150)는 알려진 랜드마크의 위치를 나타내는 데이터베이스 또는 다른 형태로 구성된 데이터를 포함할 수 있다. 차량 주변상황의 감지 정보(예, 이미지, 레이더 신호, 라이더로 또는 둘 이상의 이미지의 입처 처리로부터의 깊이 정보)는 GPS 좌표, 차량의 자체 움직임 등과 같은 위치 정보와 함께 처리되어, 알려진 랜드마크에 대한 차량의 상대적 현재 위치를 판단하고, 차량의 위치의 정확도를 개선할 수 있다. 이러한 기술의 특정 측면은 본 출원의 양수인이 판매하고 있는 REMTM으로 알려진 위치 인식 기술에 포함된다.
사용자 인터페이스(170)는 시스템(100)의 하나 이상의 사용자에게 정보를 제공하고 사용자로부터 입력을 수신하기 적합한 장치를 포함할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 예를 들어 터치스크린, 마이크, 키보드, 포인터 장치, 트랙휠, 카메라, 노브, 버튼 등의 사용자 입력 장치를 포함할 수 있다. 이러한 입력 장치는 사용자로 하여금 명령 또는 정보를 타이핑하거나, 음성 명령을 제공하거나, 버튼, 포인터, 또는 눈동자 추적 기능을 사용하여 화면 상의 메뉴를 선택하거나, 시스템(100)과 정보를 교환하기 위한 기타 적합한 기술을 통하여 시스템(100)에 정보 입력 또는 명령을 제공할 수 있게 해준다.
사용자 인터페이스(170)는 사용자에게 정보를 제공하고 사용자로부터 정보를 수신하며 이러한 정보를 예를 들어 애플리케이션 프로세서(180)가 사용하게 처리하도록 구성된 하나 이상의 처리 장치를 구비할 수 있다. 일부 실시예에서, 이러한 처리 장치는 눈동자의 움직임을 인식 및 추적하고, 음성 명령을 수신 및 해석하고, 터치스크린 상의 터치 및/또는 제스처를 인식 및 해석하고, 키보드 입력 또는 메뉴 선택에 응답하는 등을 위한 지시를 수행할 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 디스플레이, 스피커, 촉감 장치, 및/또는 사용자에게 출력 정보를 제공하는 기타 장치를 포함할 수 있다.
지도 데이터베이스(160)는 시스템(100)에서 사용 가능한 지도 데이터를 저장하기 위한 모든 유형의 데이터베이스를 포함할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 도로, 하천 지형, 지리적 지형, 사업체, 관심 지점, 식당, 주유소 등의 다양한 항목의 기준 좌표계 상 위치와 관련된 데이터를 포함할 수 있다. 지도 데이터베이스(160)는 이런 항목의 위치뿐만 아니라, 예를 들면, 저장된 지점 관련 명칭 등을 포함하는 설명을 저장할 수 있다. 일부 실시예에서, 지도 데이터베이스(160)는 시스템(100)의 다른 구성요소와 함께 물리적으로 배치될 수 있다. 대안적으로, 또는 추가적으로, 지도 데이터베이스(160) 또는 지도 데이터베이스(160)의 일부는 시스템(100)의 다른 구성요소(예, 처리부(110))에 대하여 원격으로 배치될 수 있다. 이 경우, 지도 데이터베이스(160)로부터의 정보는 네트워크와의 유선 또는 무선 데이터 연결(예, 이동통신망 및/또는 인터넷 등)을 통하여 다운로드 될 수 있다. 일부의 경우, 지도 데이터베이스(160)는 특정 도로 특징(예, 차로 표시) 또는 호스트 차량의 목표 궤적의 다항식 표현을 포함하는 스파스 맵 모델을 저장할 수 있다. 지도 데이터베이스(160)는 또한 목표 궤적에 대한 호스트 차량의 알려진 위치를 판단 또는 업데이트하기 위해 사용될 수 있는 다양한 인지된 랜드마크의 저장된 표현을 포함할 수 있다. 랜드마크 표현은 랜드마크 식별자, 랜드마크 위치, 기타 잠재적 식별자와 같은 데이터 필드를 포함할 수 있다.
이미지캡처장치(122, 124, 126)는 각각 주변 환경으로부터 적어도 하나의 이미지를 캡처하기에 적합한 유형의 장치를 포함할 수 있다. 또한, 이미지 프로세서로의 입력에 필요한 이미지를 캡처하기 위하여 여러 개의 이미지캡처장치를 사용할 수 있다. 일부 실시예는 단일 이미지캡처장치를 포함할 수 있는 반면, 다른 실시예는 두 개, 세 개, 또는 4개 이상의 이미지캡처장치를 포함할 수 있다. 이미지캡처장치(122, 124, 126)는 도 2b 내지 도 2e를 참조하여 하기에 추가로 설명한다.
하나 이상의 카메라(예, 이미지캡처장치(122, 124, 126))는 차량에 포함된 감지 블록(sensing block)의 일부일 수 있다. 다양한 기타 센서들이 감지 블록에 포함될 수 있으며, 센서들의 일부 또는 모두에 의존하여 차량의 항법 상태에 대해 파악을 구축할 수 있다. 카메라(전방, 측방, 후방 등) 외에도 레이더, 라이더, 음향 센서와 같은 기타 센서들이 감지 블록에 포함될 수 있다. 추가적으로, 감지 블록은 차량의 주변환경에 관한 정보를 통신 및 송수신하도록 구성된 하나 이상의 구성요소를 포함할 수 있다. 예를 들면, 이러한 구성요소는 호스트 차량에 관한 센서 기반 정보 또는 기타 유형의 정보를 호스트 차량에 대해 원격으로 위치한 소스로부터 수신할 수 있는 무선 송수신기(RF 등)를 포함할 수 있다. 이러한 정보는 호스트 차량이 아닌 다른 차량으로부터 수신한 센서 출력 정보 또는 관련 정보를 포함할 수 있다. 일부 실시예에서, 이러한 정보는 원격 컴퓨팅 장치, 중앙 서버 등으로부터 수신된 정보를 포함할 수 있다. 나아가, 카메라는 단일 카메라 장치, 복수의 카메라, 카메라 클러스터, 망원 시야, 근거리 시야, 광각, 어안 등, 다양한 구성을 가질 수 있다.
시스템(100), 혹은 시스템(100)의 다양한 구성요소는 다양한 플랫폼에 구현될 수 있다. 일부 실시예에서, 시스템(100)은, 도 2A에 예시된 바와 같이, 차량(200)에 포함될 수 있다. 예를 들면, 차량(200)에는 도 1에 설명한 처리부(110) 및 시스템(100)의 기타 구성요소가 구비될 수 있다. 일부 실시예의 차량(200)에는 단일 이미지캡처장치(예, 카메라)만 구비될 수 있는 반면, 다른 실시예의 차량에는, 도 2b 내지 2E에 예시된 바와 같이, 여러 개의 이미지캡처장치가 사용될 수 있다. 예를 들어, 도 2a에 예시된 차량(200)의 이미지캡처장치(122, 124)는 첨단 운전자 지원 시스템(Advanced Driver Assistance Systems; ADAS) 이미징 세트의 일부일 수 있다.
이미지획득부(120)의 일부로서 차량(200)에 포함된 이미지캡처장치는 적합한 장소에 위치될 수 있다. 일부 실시예에서, 도 2A 내지 2E, 3A 내지 3C에 도시된 바와 같이, 이미지캡처장치(122)는 백미러 주위에 배치될 수 있다. 이 위치는 차량(200)의 운전자와 유사한 시선을 제공할 수 있으며, 이에 따라 운전자에게 보이는 것과 보이지 않는 것을 판단하는데 도움이 될 수 있다. 이미지캡처장치(122)는 백미러 주변의 임의의 위치에 배치될 수 있지만, 백미러의 운전자 측에 이미지캡처장치(122)를 배치하면 운전자의 시야 및/또는 시선을 나타내는 이미지를 획득하는데 더욱 도움이 될 수 있다.
이미지획득부(120)의 이미지캡처장치는 다른 위치에 배치될 수도 있다. 예를 들면, 이미지캡처장치(124)는 차량(200)의 범퍼 내부 또는 범퍼 상에 배치될 수 있다. 이런 위치는 광시야를 가진 이미지캡처장치에 특히 적합할 수 있다. 범퍼에 위치한 이미지캡처장치의 시선은 운전자의 시선과 다를 수 있기 때문에 범퍼에 위치한 이미지캡처장치와 운전자는 항상 같은 대상을 보는 것이 아닐 수 있다. 이미지캡처장치(예, 122, 124, 126)는 또한, 다른 위치에 배치될 수 있다. 예를 들어, 이미지캡처장치는 차량(200)의 일측 또는 양측의 사이드 미러 상 또는 내부에, 차량(200)의 지붕 상에, 차량(200)의 보닛 상에, 차량(200)의 측면에, 차량(200)의 윈도우 상, 후면 또는 전면에, 차량(200)의 전면 및/또는 후면 등화장치 상에 또는 주변 등의 위치에 배치될 수 있다.
차량(200)은 이미지캡처장치 외에도 시스템(100)의 다양한 기타 구성요소를 포함할 수 있다. 예를 들면, 처리부(110)는 차량(200)의 엔진제어장치(engine control unit, ECU)와 일체 또는 분리된 형태로 차량(200)에 포함될 수 있다. 차량(200)은 또한 GPS 수신기 등과 같은 위치센서(130), 지도 데이터베이스(160), 메모리부(140, 150)도 포함할 수 있다.
앞서 설명한 바와 같이, 무선 송수신기(172)는 하나 이상의 네트워크(예, 이동통신망, 인터넷 등)를 통하여 데이터를 송신 및/또는 수신할 수 있다. 예를 들어, 무선 송수신기(172)는 시스템(100)이 수집한 데이터를 하나 이상의 서버로 업로드하고 하나 이상의 서버로부터 데이터를 다운로드할 수 있다. 시스템(100)은 무선 송수신기(172)를 통하여, 예를 들어, 지도 데이터베이스(160) 및/또는 메모리(140, 150)에 저장된 데이터의 주기적 또는 일시적 업데이트를 수신할 수 있다. 마찬가지로, 무선 송수신기(172)는 시스템(100)으로부터의 데이터(예, 이미지획득부(120)가 캡처한 이미지, 위치센서(130), 기타 센서, 또는 차량 제어 시스템이 수신한 데이터 등) 및/또는 처리부(110)에 의해 처리된 데이터를 하나 이상의 서버에 업로드할 수 있다.
시스템(100)은 개인정보보호 설정에 근거하여 서버(예, 클라우드)로 데이터를 업로드할 수 있다. 예를 들면, 시스템(100)은 개인정보보호 설정을 실행하여 서버로 보내지는 차량과 차량의 운전자/소유자를 개별적으로 확인해주는 데이터(메타데이터 포함)의 유형을 규제 또는 제한할 수 있다. 이런 설정은, 예를 들어ㅡ 사용자에 의해 무선 송수신기(172)를 통해 설정되거나, 공장설정으로 초기화되거나, 무선 송수신기(172)가 수신한 데이터에 의해 설정될 수 있다.
일부 실시예에서, 시스템(100)은 "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있으며, 이렇게 설정하면 시스템(100)은 특정 차량 및/또는 운전자/소유자 정보 없이 데이터(예, 경로 관련 위치정보, 캡처 이미지 등)를 전송할 수 있다. 예를 들어, "높은" 개인정보보호 수준에 의거하여 데이터를 업로드할 경우, 시스템(100)은 차대번호 또는 차량 운전자 또는 소유자의 이름을 포함하지 않을 수 있고, 그대신 캡처 이미지 및/또는 경로와 관련된 제한된 위치 정보 등의 데이터를 전송할 수 있다.
다른 개인정보보호 수준도 가능하다. 예를 들어, 시스템(100)은 "중간" 개인정보보호 수준에 의거하여 서버로 데이터를 전송할 수 있으며, 이 경우, "높은" 개인정보보호 수준 하에서 포함되지 않은 차량의 제조사 및/또는 모델 및/또는 차량 종류(예, 승용차, SUV, 트럭 등) 등의 추가 정보를 포함할 수 있다. 일부 실시예에서, 시스템(100)은 "낮은" 개인정보보호 수준에 의거하여 데이터를 업로드할 수 있다. "낮은" 개인정보보호 수준 하에서, 시스템(100)은 개별 차량, 소유자/운전자, 및/또는 차량이 이동한 전체 또는 일부 경로 등을 특정할 수 있는 정보를 포함하는 데이터를 업로드할 수 있다. 이러한 "낮은" 개인정보보호 수준 데이터는 예를 들어, 차대번호, 운전자/소유자 이름, 차량의 출발점, 차량의 목적지, 차량의 제조사 및/또는 모델, 차량의 종류 등을 포함할 수 있다.
도 2a는 기재된 실시예에 따른 차량 이미징 시스템의 일례의 측면도이다. 도 2b는 도 2a에 도시된 실시예의 평면도이다. 도 2b에 도시된 바와 같이, 본 실시예에 따른 차량(200)은 백미러 주변 및/또는 운전자 가까이 배치된 제1 이미지캡처장치(122), 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치된 제2 이미지캡처장치(124), 및 처리부(110)를 구비한 시스템(100)을 차체 내부에 포함한다.
도 2c에 도시된 바와 같이, 이미지캡처장치(122, 124)는 모두 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 또한, 도 2b와 2c에는 이미지캡처장치(122, 124)가 두 개로 예시되었지만, 다른 실시예에서는 세 개 이상의 이미지캡처장치가 포함될 수 있음은 당연할 것이다. 예를 들어, 도 2d와 2e에 도시된 실시예에서는, 제1, 제2, 제3 이미지캡처장치(122, 124, 126)가 차량(200)의 시스템(100)에 포함되어 있다.
도 2d에 도시된 바와 같이, 이미지캡처장치(122)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있고, 이미지캡처장치(124, 126)는 차량(200)의 범퍼 영역(예, 범퍼 영역(210)의 일 영역) 상 또는 내부에 배치될 수 있다. 또한, 도 2e에 도시된 바와 같이, 이미지캡처장치(122, 124, 126)는 차량(200)의 백미러 주변 및/또는 운전자 가까이 배치될 수 있다. 본 실시예는 특정 수량 및 구성의 이미지캡처장치에 제한되지 않고, 이미지캡처장치는 차량의 내부 및/또는 차량 상의 적절한 모든 위치에 배치될 수 있다.
기재된 실시예들은 차량에 한정되는 것이 아니라 당연히 다른 상황에도 적용될 수 있다. 또한, 기재된 실시예들은 특정 유형의 차량(200)에 한정되는 것이 아니라, 당연히 자동차, 트럭, 트레일러, 및 기타 유형의 차량 등, 모든 유형의 차량에 적용될 수 있다.
제1 이미지캡처장치(122)는 적합한 유형의 이미지캡처장치를 포함할 수 있다. 이미지캡처장치(122)는 광축을 포함할 수 있다. 일례에서, 이미지캡처장치(122)는 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 다른 실시예에서, 이미지캡처장치(122)는 1280x960 픽셀의 해상도를 제공하고 롤링 셔터 방식을 포함할 수 있다. 이미지캡처장치(122)는 다양한 광학 소자를 포함할 수 있다. 일부 실시예에서, 하나 이상의 렌즈를 포함하여 이미지캡처장치가 요구하는 초점거리 및 시야 등을 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 6mm 렌즈 또는 12mm 렌즈와 결합될 수 있다. 일부 실시예에서, 이미지캡처장치(122)는, 도 2d에 도시된 바와 같이, 필요한 시야(202)를 확보하도록 구성될 수 있다. 예를 들면, 이미지캡처장치(122)는, 46도 시야, 50도 시야, 52도 또는 그 이상의 시야 등과 같은, 40 내지 56도 범위의 일반 시야를 확보하도록 구성될 수 있다. 또는, 이미지캡처장치(122)는, 28도 시야 또는 36도 시야 등과 같은, 23 내지 40도 범위의 좁은 시야를 확보하도록 구성될 수 있다. 또한, 이미지캡처장치(122)는 100 내지 180도 범위의 넓은 시야를 확보하도록 구성될 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 광각 범퍼 카메라 또는 180도 시야까지 확보 가능한 카메라를 포함할 수 있다. 일부 실시예에서, 이미지캡처장치(122)는 약 2:1(예, HxV=3800x1900 픽셀)의 종횡비와 약 100도의 수평 시야를 가진 7.2 메가픽셀 이미지캡처장치일 수 있다. 이러한 이미지캡처장치는 3개의 이미지캡처장치 구성을 대신할 수 있다. 방사상으로 대칭인 렌즈를 사용하는 이러한 이미지캡처장치의 수직 시야는 렌즈 왜곡으로 인하여 50도 이하로 구현될 수 있다. 예를 들어, 방사상으로 비대칭인 렌즈를 사용하여 수평 시야가 100도인 경우에 수직 시야가 50도 이상이 되게 할 수 있다.
제1 이미지캡처장치(122)는 차량(200)과 관련된 장면에 대한 복수의 제1 이미지를 획득할 수 있다. 복수의 제1 이미지 각각은 롤링 셔터를 사용하여 캡처 된 연속 주사선으로 획득될 수 있다. 각 주사선은 복수의 픽셀을 포함할 수 있다.
제1 이미지캡처장치(122)는 제1 연속 주사선 획득 관련 주사율을 가질 수 있다. 주사율이란 이미지 센서가 특정 주사선에 포함된 각 픽셀과 관련된 이미지 데이터를 획득하는 속도를 의미할 수 있다.
이미지캡처장치(122, 124, 126)는, 예를 들어, CCD 센서 또는 CMOS 센서와 같은, 적합한 유형과 개수의 이미지 센서를 포함할 수 있다. 일 실시예에서, 롤링 셔터 방식의 CMOS 이미지 센서를 도입하여 한 열의 각 픽셀을 하나씩 읽고, 전체 이미지 프레임이 캡처될 때까지 열별로 주사가 진행될 수 있다. 일부 실시예에서, 프레임에 대하여 각 열이 위에서 아래로 순차적으로 캡처될 수 있다.
일부 실시예에서, 여기에 기재된 하나 이상의 이미지캡처장치(122, 124, 126)는 고해상 이미저(imager)를 구성하고 5메가, 7메가, 10메가 또는 그 이상의 픽셀의 해상도를 가질 수 있다.
롤링 셔터를 사용하면, 서로 다른 열의 픽셀이 서로 다른 시간에 노출되고 캡처 될 수 있어서, 캡처 된 이미지 프레임에 왜곡(skew)과 기타 이미지 결함(artifact)이 나타날 수 있다. 반면, 이미지캡처장치(122)가 글로벌 셔터 방식 또는 동기화 셔터(synchronous shutter) 방식으로 작동하도록 구성된 경우, 모든 픽셀은 동일 시간만큼 그리고 일반적인 노출 시간 동안 노출될 수 있다. 그 결과, 글로벌 셔터 방식을 적용한 시스템에서 수집된 프레임의 이미지 데이터는 특정 시간의 전체 시야(예, 202)의 스냅 샷을 나타낸다. 반면, 롤링 셔터 방식에서는, 서로 다른 시간에 한 프레임의 각 열이 노출되고 데이터가 수집된다. 따라서, 롤링 셔터 방식 이미지캡처장치의 이미지 내의 움직이는 물체는 왜곡돼 보일 수 있다. 이 현상에 대해서는 하기에서 더 자세히 설명한다.
제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 적합한 유형의 이미지캡처장치일 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 광축을 포함할 수 있다. 일 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 글로벌 셔터 방식의 Aptina M9V024 WVGA 센서를 포함할 수 있다. 또는, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 롤링 셔터 방식을 포함할 수 있다. 제1 이미지캡처장치(122)와 마찬가지로, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 각각 다양한 렌즈와 광학 소자를 포함하도록 구성될 수 있다. 일부 실시예에서, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)와 관련된 렌즈는 제1 이미지캡처장치(122)와 관련된 시야(예, 202)와 동일하거나 이보다 좁은 시야(204, 206)를 제공할 수 있다. 예를 들어, 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)의 시야는 각각 40도, 30도, 26도, 20도, 또는 그 이하일 수 있다.
제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 차량(200)과 관련된 장면에 대한 복수의 제2 및 제3 이미지를 획득할 수 있다. 복수의 제2 및 제3 이미지 각각은 롤링 셔터를 사용하여 캡처 된 제2 및 제3 연속 주사선으로 획득될 수 있다. 각 주사선 또는 열은 복수의 픽셀을 포함할 수 있다. 제2 이미지캡처장치(124)와 제3 이미지캡처장치(126)는 제2 및 제3 연속 주사선 획득 관련 제2 및 제3 주사율을 가질 수 있다.
이미지캡처장치(122, 124, 126)는 각각 차량(200)의 적합한 위치와 자세로 배치될 수 있다. 이미지캡처장치(122, 124, 126)의 상대적 배치는 이미지캡처장치로부터 획득된 정보의 융합이 용이하도록 선택될 수 있다. 예를 들어, 일부 실시예에서, 제2 이미지캡처장치(124)의 시야(예, 204)는 제1 이미지캡처장치(122)의 시야(예, 202) 및 제3 이미지캡처장치(126)의 시야(예, 206)와 부분적으로 또는 완전히 겹칠 수도 있다.
이미지캡처장치(122, 124, 126)는 차량(200)의 적합한 상대 높이에 배치될 수 있다. 일례에서, 이미지캡처장치(122, 124, 126) 사이의 높이에 차이를 두어 입체 분석을 가능하게 하는 시차 정보를 제공할 수 있다. 예를 들면, 도 2A에 도시된 바와 같이, 이미지캡처장치(122)와 이미지캡처장치(124)는 서로 높이가 다르다. 이미지캡처장치(122, 124, 126) 사이에 횡방향 변위 차이도 있어 처리부(110) 등에 의한 입체 분석을 위한 추가 시차 정보도 제공할 수 있다. 도 2c와 도 2d에 도시된 바와 같이, 횡방향 변위의 차이는 dx로 표시될 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126) 사이에 전방 또는 후방 변위(예, 범위 변위)가 있을 수 있다. 예를 들어, 이미지캡처장치(122)는 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 0.5 내지 2미터 후방에 배치될 수 있다. 이런 유형의 변위로 인해, 이미지캡처장치 중 하나가 나머지 이미지캡처장치의 사각 지대를 보완할 수 있다.
이미지캡처장치(122)는 적합한 해상도(예, 이미지 센서 관련 픽셀 수)를 가질 수 있고, 이미지캡처장치(122)와 연관된 이미지 센서의 해상도는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도와 비교하여 높거나, 낮거나, 같을 수 있다. 일부 실시예에서, 이미지캡처장치(122) 및/또는 이미지캡처장치(124, 126)와 연관된 이미지 센서의 해상도는 640 x 480, 1024 x 768, 1280 x 960, 또는 기타 적합한 해상도일 수 있다.
프레임 속도(frame rate, 즉, 이미지캡처장치가 다음 이미지 프레임의 픽셀 데이터를 획득하기 위해 넘어가기 전에 한 이미지 프레임의 픽셀 데이터 집합을 획득하는 속도)는 제어 가능하다. 이미지캡처장치(122)의 프레임 속도는 이미지캡처장치(124, 126)의 프레임 속도보다 높거나, 낮거나, 같을 수 있다. 이미지캡처장치(122, 124, 126)의 프레임 속도는 프레임 속도의 타이밍에 영향을 주는 다양한 요소에 의거할 수 있다. 예를 들면, 하나 이상의 이미지캡처장치(122, 124, 126)는 탑재한 이미지 센서의 하나 이상의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 픽셀 지연 기간(selectable pixel delay period)을 포함할 수 있다. 일반적으로, 각 픽셀에 상응하는 이미지 데이터는 해당 장치의 클락 속도(clock rate)에 의거하여(예, 클락 주파수(clock cycle) 당 1 픽셀) 획득된다. 또한, 롤링 셔터 방식을 포함하는 실시예에서, 하나 이상의 이미지캡처장치(122, 124, 126)는 탑재한 이미지 센서의 한 열의 픽셀 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수평 귀선 기간(selectable horizontal blanking period)을 포함할 수 있다. 나아가, 하나 이상의 이미지캡처장치(122, 124, 126)는 이미지 프레임 관련 이미지 데이터를 획득하기 전 또는 후에 부과되는 선택적 수직 귀선 기간(selectable vertical blanking period)을 포함할 수 있다.
이러한 타이밍 제어로 인해, 이미지캡처장치(122, 124, 126)의 선주사 속도(line scan rate)가 서로 다른 경우에도 이미지캡처장치(122, 124, 126)의 프레임 속도의 동기화가 가능하다. 또한, 하기에 더 자세히 설명하겠지만, 여러 요소(예, 이미지 센서 해상도, 최고 선주사 속도 등) 중에서 이러한 타이밍 제어로 인해, 이미지캡처장치(122)의 시야가 이미지캡처장치(124, 126)의 시야와 다른 경우에도, 이미지캡처장치(122)의 시야와 이미지캡처장치(124, 126)의 하나 이상의 시야가 겹치는 영역으로부터 캡처 된 이미지의 동기화가 가능할 수 있다.
이미지캡처장치(122, 124, 126)의 프레임 속도 타이밍은 상응하는 이미지 센서의 해상도에 의거할 수 있다. 예를 들어, 두 장치의 선주사 속도가 유사하다고 가정할 때, 한 장치의 이미지 센서의 해상도가 640×480이고 다른 장치의 이미지 센서의 해상도가 1280×960일 경우, 높은 해상도를 가진 센서로부터 이미지 데이터의 프레임을 획득하는데 더 많은 시간이 걸릴 것이다.
이미지캡처장치(122, 124, 126)의 이미지 데이터 획득 타이밍에 영향을 주는 또다른 요소는 최고 선주사 속도(maximum line scan rate)이다. 예를 들면, 이미지캡처장치(122, 124, 126)에 포함된 이미지 센서로부터 한 열의 이미지 데이터를 획득하려면 최소 시간 이상이 걸릴 수 있다. 픽셀 지연 기간이 추가되지 않았다고 가정할 때, 한 열의 이미지 데이터를 획득하기 위한 최저 시간은 특정 장치의 최고 선주사 속도와 관계가 있을 것이다. 최고 선주사 속도가 높은 장치는 최고 선주사 속도가 낮은 장치보다 높은 프레임 속도를 제공할 가능성이 있다. 일부 실시예에서, 하나 이상의 이미지캡처장치(124, 126)의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 높을 수 있다. 일부 실시예에서, 이미지캡처장치(124 및/또는 126)의 최고 선주사 속도는 이미지캡처장치(122)의 최고 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높을 수 있다.
다른 실시예에서, 이미지캡처장치(122, 124, 126)의 최고 선주사 속도는 모두 동일하지만, 이미지캡처장치(122)는 최고 주사 속도 이하의 주사 속도로 동작할 수 있다. 시스템은 하나 이상의 이미지캡처장치(124, 126)가 이미지캡처장치(122)의 선주사 속도와 동일한 선주사 속도로 동작하도록 구성될 수 있다. 다른 예에서, 시스템은 이미지캡처장치(124 및/또는 126)의 선주사 속도가 이미지캡처장치(122)의 선주사 속도보다 1.25배, 1.5배, 1.75배, 2배, 또는 그 이상 높도록 구성될 수 있다.
일부 실시예에서, 이미지캡처장치(122, 124, 126)는 비대칭일 수 있다. 즉, 이미지캡처장치(122, 124, 126)는 시야와 초점거리가 서로 다른 카메라를 포함할 수 있다. 이미지캡처장치(122, 124, 126)의 시야는 차량(200)의 주변상황 등과 관련된 필요 영역을 포함할 수 있다. 일부 실시예에서, 하나 이상의 이미지캡처장치(122, 124, 126)는 차량(200)의 전방, 후방, 측방, 또는 그 조합의 주변상황으로부터 이미지 데이터를 획득하도록 구성될 수 있다.
또한, 각 이미지캡처장치가 차량(200)에 대한 특정 거리 범위에 있는 물체의 이미지를 획득하도록 각 이미지캡처장치(122, 124, 126)의 초점거리가 선택될(예, 적합한 렌즈 적용) 수 있다. 예를 들어, 일부 실시예에서, 이미지캡처장치(122, 124, 126)는 차량으로부터 몇 미터 내에 있는 물체의 클로즈업 이미지를 획득할 수 있다. 이미지캡처장치(122, 124, 126)는 차량으로부터 멀리 떨어진 범위(예, 25m, 50m, 100m, 150m, 또는 그 이상)에 있는 물체의 이미지를 획득하도록 구성될 수도 있다. 또한, 한 이미지캡처장치(예, 122)는 차량과 상대적으로 가까운(예, 10m 또는 20m 이내) 물체의 이미지를 획득하고 나머지 이미지캡처장치(예, 124, 126)는 이보다 멀리 있는(예, 20m, 50m, 100m, 150m 이상) 물체의 이미지를 획득하도록 이미지캡처장치(122, 124, 126)의 초점거리가 선택될 수 있다.
일부 실시예에 의하면, 하나 이상의 이미지캡처장치(122, 124, 126)의 시야는 광각일 수 있다. 예를 들면, 차량(200) 주변 영역의 이미지를 획득하기 위해 사용되는 이미지캡처장치(122, 124, 126)의 시야는 140도일 경우가 유리할 수 있다. 예를 들어, 이미지캡처장치(122)는 차량(200)의 우측 또는 좌측 영역의 이미지를 캡처하기 위해 사용될 수 있고, 이런 실시예에서 이미지캡처장치(122)는 넓은 시야(예, 140도 이상)를 가지는 것이 바람직할 수 있다.
이미지캡처장치(122, 124, 126)의 시야는 각 초점거리에 의거할 수 있다. 예를 들어, 초점거리가 증가하면, 이에 상응하는 시야는 감소한다.
이미지캡처장치(122, 124, 126)는 적합한 시야를 가지도록 구성될 수 있다. 일례에서, 이미지캡처장치(122)의 수평 시야는 46도이고, 이미지캡처장치(124)의 수평 시야는 23도이며, 이미지캡처장치(126)의 수평 시야는 23도 내지 46도일 수 있다. 다른 예에서, 이미지캡처장치(122)의 수평 시야는 52도이고, 이미지캡처장치(124)의 수평 시야는 26도이며, 이미지캡처장치(126)의 수평 시야는 26도 내지 52도일 수 있다. 일부 실시예에서, 이미지캡처장치(122)의 시야 대 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야 비율은 1.5 내지 2.0일 수 있다. 다른 실시예에서, 이 비율은 1.25 내지 2.25일 수 있다.
시스템(100)은 이미지캡처장치(126)의 일부 또는 전체 시야가 이미지캡처장치(124) 및/또는 이미지캡처장치(126)의 시야와 겹치도록 구성될 수 있다. 일부 실시예에서, 시스템(100)은 이미지캡처장치(124, 126)의 시야가 이미지캡처장치(126)의 시야의 중심에 들어가고(예를 들어, 시야가 좁은 경우) 중심이 서로 맞도록 구성될 수 있다. 다른 실시예에서, 이미지캡처장치(122, 124, 126)는 인접하는 시야를 캡처하거나 인접하는 시야와 부분적으로 겹칠 수 있다. 일부 실시예에서, 이미지캡처장치(122, 124, 126)의 시야는 시야가 좁은 이미지캡처장치(124 및/또는 126)의 중심이 시야가 넓은 이미지캡처장치(122)의 시야의 하부에 배치되도록 정렬될 수 있다.
도 2f는 기재된 실시예에 따른 자동차 제어 시스템의 일례의 개략도이다. 도 2f에 도시된 바와 같이, 차량(200)은 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)을 포함할 수 있다. 시스템(100)은 하나 이상의 데이터 링크(예, 데이터 송신용 유선 및/또는 무선 링크)를 통하여 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 입력(예, 제어신호)을 제공할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)가 획득한 이미지의 분석에 근거하여, 시스템(100)은 차량(200)을 주행(예, 가속, 회전, 차선 변경 등)하기 위한 제어 신호를 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로 제공할 수 있다. 또한, 시스템(100)은 차량(200)의 작동 상황(예, 속도, 제동 및/또는 회전 여부 등)을 나타내는 입력을 구동 시스템(220), 제동 시스템(230), 조향 시스템(240) 중 하나 이상으로부터 수신할 수 있다. 이에 대하여는 도 4 내지 7을 참조하여 하기에 자세히 설명한다.
도 3a에 도시된 바와 같이, 차량(200)은 또한 차량(200)의 운전자 또는 탑승자와 상호 작용하기 위한 사용자 인터페이스(170)를 포함한다. 예를 들어, 차량에 적용된 사용자 인터페이스(170)는 터치스크린(320), 다이얼(330), 버튼(340), 마이크(350)를 포함할 수 있다. 차량(200)의 운전자 혹은 탑승자는 또한 손잡이(예, 차량의 조향축 상 또는 주위에 배치된 방향등 손잡이 등), 버튼(예, 차량의 조향 핸들에 배치된 버튼 등) 등을 사용하여 시스템(100)과 상호 작용할 수도 있다. 일부 실시예에서, 마이크(350)는 백미러(310)에 인접하여 배치될 수 있다. 이와 유사하게, 일부 실시예에서, 이미지캡처장치(122)는 백미러(310) 부근에 배치될 수 있다. 일부 실시예에서, 사용자 인터페이스(170)는 또한 하나 이상의 스피커(360: 예, 차량 오디오 시스템의 스피커)도 포함할 수 있다. 예를 들어, 시스템(100)은 스피커(360)를 통하여 다양한 안내(예, 경보)를 제공할 수 있다.
도 3b 내지 3d는 기재된 실시예에 따른 백미러(예, 310) 뒤의 차량 전면 유리에 위치되도록 구성된 카메라 마운트(370)의 일례이다. 도 3b에 도시된 바와 같이, 카메라 마운트(370)는 이미지캡처장치(122, 124, 126)를 포함할 수 있다. 이미지캡처장치(124, 126)는, 차량 전면 유리에 맞닿아 있고 필름 및/또는 반사 방지 물질의 구조를 포함하는, 눈부심 가림막(380) 후면에 배치될 수 있다. 예를 들어, 눈부심 가림막(380)은 차량 전면 유리에 상응하는 기울기를 가지고 차량 전면 유리에 대해 정렬되도록 배치될 수 있다. 일부 실시예에서, 각 이미지캡처장치(122, 124, 126)는 도 3d에 도시된 바와 같이 눈부심 가림막(380)의 후면에 배치될 수 있다. 여기에 기재된 실시예들은 어느 특정한 구성의 이미지캡처장치(122, 124, 126), 카메라 마운트(370), 눈부심 가림막(380)으로 한정되지 않는다. 도 3c는 도 3b에 도시된 카메라 마운트(370)를 정면에서 바라본 예시이다.
상기 실시예들은 다양한 변형 및/또는 수정이 가능함을 본 발명의 당업자는 이해할 것이다. 예를 들어, 시스템(100)의 동작을 위하여 모든 구성요소가 반드시 필요한 것은 아니다. 또한, 기재된 실시예들의 기능을 제공하면서, 어느 구성요소라도 시스템(100)의 적합한 부분에 배치될 수 있으며, 구성요소들은 다양한 구성으로 재배치될 수 있다. 따라서, 상기 구성들은 예시에 불과하고, 시스템(100)은 상기 구성들과 무관하게 광범위한 기능을 제공하여 차량(200)의 주변상황을 분석하고 이 분석에 대응하여 차량(200)을 주행할 수 있다.
하기의 설명과 기재된 다양한 실시예에 따라, 시스템(100)은 자율 주행 및/또는 운전자 보조 기술과 관련된 다양한 특징을 제공할 수 있다. 예를 들면, 시스템(100)은 이미지 데이터, 위치 데이터(예, GPS 위치 정보), 지도 데이터, 속도 데이터, 및/또는 차량(200)에 포함된 센서들로부터의 데이터를 분석할 수 있다. 시스템(100)은 분석할 데이터를, 예를 들어, 이미지획득부(120), 위치센서(130), 및 기타 센서들로부터 수집할 수 있다. 또한, 시스템(100)은 수집한 데이터를 분석하여 차량(200)이 특정 동작을 수행해야 할지 여부를 판단한 후, 판단한 동작을 인간의 개입 없이 자동으로 수행할지 여부를 판단할 수 있다. 예를 들어, 차량(200)이 인간의 개입 없이 주행하는 경우, 시스템(100)은 차량(200)의 제동, 가속, 및/또는 조향을 자동으로 제어(예, 구동 시스템(220), 제동 시스템(230), 조향 시스템(240)의 하나 이상에 제어신호를 전송)할 수 있다. 또한, 시스템(100)은 수집된 데이터를 분석하고 이 분석 결과에 따라 차량 탑승자들에게 주의 및/또는 경보를 제공할 수 있다. 시스템(100)이 제공하는 다양한 실시예들에 관해서는 하기에 추가로 설명한다.
전방 다중 이미징 시스템
상기에 설명한 바와 같이, 시스템(100)은 다중 카메라 시스템을 사용하는 운전 지원 기능을 제공할 수 있다. 다중 카메라 시스템은 차량의 전방을 향하는 하나 이상의 카메라를 사용할 수 있다. 다른 실시예에서, 다중 카메라 시스템은 차량의 측방 또는 후방을 향하는 하나 이상의 카메라를 포함할 수 있다. 예를 들어, 일 실시예에서, 시스템(100)은 이중 카메라 이미징 시스템을 사용하여, 제1 카메라와 제2 카메라(예, 이미지캡처장치(122, 124))가 차량(200)의 전방 및/또는 측방에 배치될 수 있다. 기재된 실시예에 따른 다른 카메라 구성도 있으며, 여기에 기재된 구성은 예시일 뿐이다. 예를 들면, 시스템(100)은 다양한 개수의 카메라(예, 1개, 2개, 3개, 4개, 5개, 6개, 7개, 8개 등)의 구성을 포함할 수 있다. 나아가, 시스템(100)은 카메라의 "클러스터"를 포함할 수 있다. 예를 들어, 카메라 클러스터(1개, 4개, 8개 등과 같은 다양한 개수의 카메라를 포함함)는 차량의 전방을 향하거나 다른 방향(예, 후방, 측방, 특정 각도 등)을 향하고 있을 수 있다. 이에 따라, 시스템(100)은 복수의 카메라 클러스터를 포함하고, 각 클러스터는 특정 방향을 향하여 차량 주변의 특정 영역으로부터 이미지를 캡처할 수 있다.
제1 카메라의 시야는 제2 카메라의 시야보다 넓거나, 좁거나, 부분적으로 겹칠 수 있다. 뿐만 아니라, 제1 카메라는 제1 이미지 프로세서와 연결되어 제1 카메라가 제공한 이미지의 단안 이미지 분석을 수행하고, 제2 카메라는 제2 이미지 프로세서와 연결되어 제2 카메라가 제공한 이미지의 단안 이미지 분석을 수행할 수 있다. 제1 및 제2 이미지 프로세서의 출력(예, 처리된 정보)은 합쳐질 수 있다. 일부 실시예에서, 제2 이미지 프로세서는 제1 및 제2 카메라 모두로부터 이미지를 수신하여 입체 분석을 수행할 수 있다. 다른 실시예에서, 시스템(100)은 각 카메라의 시야가 서로 다른 3중 카메라 이미징 시스템을 사용할 수 있다. 따라서, 이런 시스템은 차량의 전방 및 측방의 다양한 거리에 위치한 물체로부터 얻은 정보에 근거한 판단을 내릴 수 있다. 단안 이미지 분석이란 단일 시야로부터 캡처 된 이미지(예, 단일 카메라에서 캡처 된 이미지)에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. 입체 이미지 분석이란 하나 이상의 이미지 캡처 파라미터로 캡처 된 두 개 이상의 이미지에 근거하여 이미지 분석을 수행하는 경우를 말할 수 있다. 예를 들면, 입체 이미지 분석에 적합한 캡처 된 이미지는 둘 이상의 위치로부터 캡처 된 이미지, 서로 다른 시야로부터 캡처 된 이미지, 서로 다른 초점거리를 사용하여 캡처 된 이미지, 시차 정보에 따라 캡처 된 이미지 등을 포함할 수 있다.
예를 들어, 일 실시예에서, 시스템(100)은 이미지캡처장치(122 내지 126)를 사용하여 3중 카메라 구성을 구현할 수 있다. 이런 구성에서, 이미지캡처장치(122)는 좁은 시야(예, 34도, 또는 약 20 내지 45도 범위에서 선택한 시야)를 제공할 수 있고, 이미지캡처장치(124)는 광시야(예, 150도 또는 약 100 내지 180도 범위에서 선택한 시야)를 제공할 수 있으며, 이미지캡처장치(126)는 중간 시야(예, 46도 또는 약 35 내지 60도 범위에서 선택한 시야)를 제공할 수 있다. 일부 실시예에서, 이미지캡처장치(126)는 주 카메라 역할을 할 수 있다. 이미지캡처장치(122 내지 126)는 백미러(310) 후면에 배치되고 실질적으로 서로 나란히(예, 6cm 간격으로) 배치될 수 있다. 또한, 상기에 설명한 바와 같이, 일부 실시예에서, 하나 이상의 이미지캡처장치(122 내지 126)는 차량(200)의 전면 유리에 맞닿아 있는 눈부심 가림막(380) 뒤에 탑재될 수 있다. 이러한 가림막은 차량 내부로부터의 반사가 이미지캡처장치(122 내지 126)에 끼치는 영향을 최소화할 수 있다.
다른 실시예에서, 상기에 도 3b 내지 3c를 참조하여 설명한 바와 같이, 광시야 카메라(예, 상기 예에서의 이미지캡처장치(124))는 좁은 시야 카메라와 주 시야 카메라(예, 상기 예에서의 이미지캡처장치(122, 126))보다 낮은 위치에 탑재될 수 있다. 이런 구성은 광시야 카메라로부터 탁 트인 시선을 제공할 수 있다. 반사를 줄이기 위하여, 카메라들은 차량(200)의 전면 유리 가까이 탑재될 수 있고, 반사광을 완화하기 위하여 편광판을 포함할 수 있다.
3중 카메라 시스템은 특정 성능을 제공할 수 있다. 예를 들면, 일부 실시예는 한 카메라가 검출한 물체에 대해 다른 카메라의 검출 결과에 근거하여 검증하는 능력을 포함할 수 있다. 상기에 설명한 3중 카메라 구성에서, 처리부(110)는 예를 들어 3개의 처리 장치(예, 3개의 EyeQ 시리즈 프로세서 칩)를 포함하고, 각 처리 장치는 하나 이상의 이미지캡처장치(122 내지 126)가 캡처한 이미지를 전용으로 처리할 수 있다.
3중 카메라 시스템에서, 제1 처리 장치는 주 카메라와 좁은 시야 카메라로부터 이미지를 수신하고, 좁은 시야 카메라의 시각 처리를 수행하여, 예를 들어, 다른 차량, 보행자, 차로 표시, 교통 표지, 신호등, 기타 도로상의 물체 등을 검출할 수 있다. 나아가, 제1 처리 장치는 주 카메라와 좁은 시야 카메라 사이의 픽셀 차이를 산출하여 차량(200) 주변상황의 3차원 재구성(3d reconstruction)을 생성한 후, 3차원 재구성을 3차원 지도 데이터 또는 다른 카메라로부터 수신한 정보에 근거하여 계산한 3차원 정보와 조합할 수 있다.
제2 처리 장치는 주 카메라로부터 이미지를 수신하고, 시각 처리를 수행하여 다른 차량, 보행자, 차로 표시, 교통 표지, 신호등, 기타 도로상의 물체 등을 검출할 수 있다. 뿐만 아니라, 제2 처리 장치는 카메라 변위를 계산하고, 계산된 변위에 근거하여 연속된 이미지 사이의 픽셀 차이를 계산하여 장면(예, 동작의 구조)의 3차원 재구성을 생성할 수 있다. 제2 처리 장치는 3차원 재구성에 근거한 동작의 구조를 제1 처리 장치에 전송하여 3차원 입체 이미지와 조합할 수 있다.
제3 처리 장치는 광시야 카메라로부터 이미지를 수신하고 이미지를 처리하여 차량, 보행자, 차로 표시, 교통 표지, 기타 도로상의 물체 등을 검출할 수 있다. 제3 처리 장치는 또한 이미지 분석을 위한 추가 처리 명령을 수행하여 차선을 변경하는 차량, 보행자 등과 같은 움직이는 물체를 식별할 수 있다.
일부 실시예에서, 이미지 기반 정보의 스트림을 독립적으로 캡처하고 처리함으로써, 시스템 상의 중복성을 제공할 수 있다. 여기서, 중복성이란, 예를 들면, 제1 이미지캡처장치와 이 장치로부터 처리된 이미지를 사용하여 적어도 제2 이미지캡처장치로부터 이미지 정보를 캡처하고 처리하여 획득된 정보를 검증 및/또는 보완하는 것을 포함할 수 있다.
일부 실시예에서, 시스템(100)은 2개의 이미지캡처장치(예, 122, 124)를 사용하여 차량(200)의 항법 보조를 제공하고 제3 이미지캡처장치(예, 126)을 사용하여 상기 2개의 이미지캡처장치로부터 수신한 데이터의 분석 결과의 중복성 및 검증을 제공할 수 있다. 예를 들면, 이런 구성에서, 이미지캡처장치(122, 124)는 차량(200)의 항법을 위해 시스템(100)에 의한 입체 분석을 위한 이미지를 제공하고, 이미지캡처장치(126)는 시스템(100)에 의한 단안 분석을 위한 이미지를 제공하여 이미지캡처장치(122 및/또는 126)가 캡처한 이미지에 근거하여 캡처한 정보의 중복성 및 검증을 제공할 수 있다. 즉, 이미지캡처장치(126)(및 상응하는 처리 장치)는 이미지캡처장치(122, 124)로부터 얻은 분석에 대한 확인을 제공(예, 자동긴급제동(AEB, automatic emergency braking) 제공) 하기 위한 중복 서브시스템을 제공하는 것으로 간주될 수 있다. 나아가, 일부 실시예에서, 수신된 데이터의 중복성 및 검증은 하나 이상의 센서로부터 수신된 정보(예, 레이더, 라이더, 음향 센서, 차량 외부의 하나 이상의 송수신기로부터 수신된 정보 등)에 기반하여 보완될 수 있다.
상기 카메라의 구성, 배치, 개수, 위치 등은 예시에 불과하다는 것을 당업자는 인식할 수 있을 것이다. 전체적인 시스템과 연관하여 설명하는 이러한 구성요소들과 기타 구성요소들은 기재된 실시예들의 범위를 벗어나지 않고 다양한 구성으로 조합되고 사용될 수 있다. 운전자 지원 및/또는 자율 주행 기능을 제공하기 위한 다중 카메라 시스템의 사용과 관련된 내용은 하기에 설명한다.
도 4는 기재된 실시예에 따른 하나 이상의 동작의 수행을 위한 명령을 저장/프로그램하도록 구성된 메모리(140 및/또는 150)를 예시한 기능 구성도이다. 하기에는 메모리(140)에 관하여 설명하지만, 명령이 메모리(140) 및/또는 메모리(150)에 저장될 수 있음은 당업자에게 당연할 것이다.
도 4에 도시된 바와 같이, 메모리(140)은 단안 이미지 분석 모듈(402), 입체 이미지 분석 모듈(404), 속도 및 가속 모듈(406), 주행 반응 모듈(408)을 저장할 수 있다. 여기에 기재된 실시예들은 메모리(14)의 어느 특정 구성으로 한정되지 않는다. 또한, 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)는 메모리(140)에 포함된 모든 모듈(402-408)에 저장된 명령을 실행할 수 있다. 본 발명의 기술분야의 당업자라면 하기의 설명에서 처리부(110)란 애플리케이션 프로세서(180) 및/또는 이미지 프로세서(190)를 개별적으로 또는 총괄하여 지칭할 수 있다는 것을 이해할 것이다. 이에 따라, 하기에 설명한 프로세스의 단계들은 하나 이상의 처리 장치에 의해 수행될 수 있다.
일 실시예에서, 단안 이미지 분석 모듈(402)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중의 하나가 확보한 이미지 세트의 단안 이미지 분석을 수행하는, 명령(예, 컴퓨터 시각 소프트웨어)를 저장할 수 있다. 일부 실시예에서, 처리부(110)는 이미지 세트의 정보를 추가 감지 정보(예, 레이더로부터 얻은 정보)와 병합하여 단안 이미지 분석을 수행할 수 있다. 하기에 도 5a 내지 5d를 참조하여 설명하겠지만, 단안 이미지 분석 모듈(402)은 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변상황과 연관된 기타 특성 등과 같은 특징들을 이미지 세트 내에서 검출하기 위한 명령을 포함할 수 있다. 시스템(100)은 이 분석에 근거하여, 예를 들어 처리부(110)를 통하여, 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다.
일 실시예에서, 단안 이미지 분석 모듈(402)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중의 하나가 확보한 이미지 세트의 단안 이미지 분석을 수행하는, 명령(예, 컴퓨터 시각 소프트웨어)를 저장할 수 있다. 일부 실시예에서, 처리부(110)는 이미지 세트의 정보를 추가 감지 정보(예, 레이더, 라이더 등으로부터 얻은 정보)와 병합하여 단안 이미지 분석을 수행할 수 있다. 하기에 도 5a 내지 5d를 참조하여 설명하겠지만, 단안 이미지 분석 모듈(402)은 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변상황과 연관된 기타 특성 등과 같은 특징들을 이미지 세트 내에서 검출하기 위한 명령을 포함할 수 있다. 시스템(100)은 이 분석에 근거하여, 예를 들어 처리부(110)를 통하여, 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응의 판단에서 설명한다.
일 실시예에서, 입체 이미지 분석 모듈(404)은, 처리부(110)에 의해 실행될 경우 이미지캡처장치(122, 124, 126) 중에서 선택된 이미지캡처장치의 조합에 의해 확보된 제1 및 제2 이미지 세트의 입체 이미지 분석을 수행하는, 명령(예, 컴퓨터 시각 소프트웨어)을 저장할 수 있다. 일부 실시예에서, 처리부(110)는 제1 및 제2 이미지 세트의 정보를 추가 감지 정보(예, 레이다로부터 얻은 정보)와 병합하여 입체 이미지 분석을 수행할 수 있다. 예를 들어, 입체 이미지 분석 모듈(404)은 이미지캡처장치(124)가 확보한 제1 이미지 세트와 이미지캡처장치(126)가 확보한 제2 이미지 세트에 근거하여 입체 이미지 분석을 수행하기 위한 명령을 포함할 수 있다. 하기에 도 6을 참조하여 설명하겠지만, 입체 이미지 분석 모듈(404)은 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 위험 물체, 및 차량의 주변환경과 연관된 기타 특성 등과 같은 특징들을 제1 및 제2 이미지 세트 내에서 검출하기 위한 명령을 포함할 수 있다. 처리부(110)는 이 분석에 근거하여 차량(200)의 회전, 차선 변경, 가속 변화 등과 같은 하나 이상의 주행 반응을 야기할 수 있으며, 이에 대해서는 하기에 주행 반응 모듈(408)에서 설명한다. 또한, 일부 실시예에서, 입체 이미지 분석 모듈(404)은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 관련된 방법을 구현할 수 있다.
일 실시예에서, 속도 및 가속 모듈(406)은 차량(200)의 속도 및/또는 가속 변화를 야기하도록 구성된 차량(200)에 구비된 하나 이상의 컴퓨팅 및 기전 장치로부터 수신한 데이터를 분석하도록 구성된 소프트웨어를 저장할 수 있다. 예를 들어, 처리부(110)는 속도 및 가속 모듈(406)과 연계된 명령을 수행함으로써 단안 이미지 분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)를 실행하여 얻은 데이터에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 상기 데이터는 예를 들어 목표 위치, 속도, 및/또는 가속, 부근의 차량, 보행자 또는 도로상의 물체에 대한 차량(200)의 위치 및/또는 속도, 도로의 차로 표시에 대한 차량(200)의 위치 정보 등을 포함할 수 있다. 또한, 처리부(110)는 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 차량(200)의 목표 속도를 산출할 수 있다. 산출된 목표 속도에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 물리적으로 차량(200)의 브레이크 페달을 누르거나 가속 페달을 감압하여 속도 및/또는 가속의 변화를 일으킬 수 있다.
일 실시예에서, 주행 반응 모듈(408)은 단안 이미지 분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)를 실행하여 얻은 데이터에 근거하여 필요한 주행 반응을 판단하기 위하여 처리부(110)에 의해 실행 가능한 소프트웨어를 저장할 수 있다. 상기 데이터는 부근의 차량, 보행자, 및 도로상의 물체에 대한 위치 및 속도, 차량(200)의 목표 위치 정보 등을 포함할 수 있다. 뿐만 아니라, 일부 실시예에서, 주행 반응은 지도 데이터, 미리 설정한 차량(200)의 위치, 및/또는 단안 이미지 분석 모듈(402) 및/또는 입체 이미지 분석 모듈(404)를 실행하여 얻은 차량(200)과 하나 이상의 물체 사이의 상대 속도 또는 상대 가속에 부분적으로 또는 전적으로 근거할 수 있다. 주행 반응 모듈(408)은 또한 감지 입력(예, 레이더로부터 얻은 정보) 및 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)과 같은 기타 시스템의 입력에 근거하여 필요한 주행 반응을 판단할 수 있다. 필요한 주행 반응에 근거하여, 처리부(110)는 차량(200)의 구동 시스템(220), 제동 시스템(230), 및/또는 조향 시스템(240)으로 전자 신호를 전송하여, 예를 들면, 차량(200)의 조향 핸들을 회전하여 미리 설정한 각도의 회전을 유도함으로써 필요한 주행 반응을 일으킬 수 있다. 일부 실시예에서, 처리부(110)는 주행 반응 모듈(408)의 출력(예, 필요한 주행 반응)을 차량(200)의 속도 변경을 산출하기 위한 속도 및 가속 모듈(406)의 실행을 위한 입력으로 사용할 수 있다.
또한, 여기에 기재된 어느 모듈(예, 402, 404, 406)이라도 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연관된 방법을 구현할 수 있다. 
도 5a는 기재된 실시예에 따른 단안 이미지 분석에 근거한 하나 이상의 주행 반응을 야기하는 프로세스(500A)의 일례를 예시한 순서도이다. 단계 510에서, 처리부(110)는 처리부(110)와 이미지획득부(120) 사이의 데이터 인터페이스(128)를 통하여 복수의 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120)에 포함된 카메라(예, 시야(202)를 가진 이미지캡처장치(122))는 차량(200)의 전방 영역(또는 측방 또는 후방 영역)의 복수의 이미지를 캡처하고 이 이미지를 데이터 연결(예, 디지털, 유선, USB, 무선, 블루투스 등)을 통하여 처리부(110)로 전송할 수 있다. 처리부(110)는 단계 520에서 단안 이미지 분석 모듈(402)을 실행하여 복수의 이미지를 분석할 수 있다. 이에 대해서는 도 5b 내지 5d를 참조하여 상세히 설명한다. 분석을 수행함으로써, 처리부(110)는 이미지 세트에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등 등의 특징들을 검출할 수 있다.
처리부(110)는 또한 단계 520에서 단안 이미지 분석 모듈(402)을 실행하여, 예를 들면, 트럭 타이어 조각, 도로에 떨어진 표지판, 적재 불량 차량, 동물 등의 다양한 도로상의 위험을 검출할 수 있다. 도로상의 위험은 그 구조, 모양, 크기, 색 등이 다양하여 이런 위험을 검출하는 것은 더욱 어렵다. 일부 실시예에서, 처리부(110)는 단안 이미지 분석 모듈(402)을 실행하여 복수의 이미지에 대한 다중 프레임 분석을 수행하여 도로상의 위험을 검출할 수 있다. 예를 들어, 처리부(110)는 연속 프레임 사이의 카메라 움직임을 예측하고 프레임 사이의 픽셀 차이를 계산하여 도로의 3차원 지도를 구축할 수 있다. 이후, 처리부(110)는 3차원 지도를 사용하여 도로면 뿐만 아니라 도로면 상에 존재하는 위험을 검출할 수 있다.
단계 530에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 520에서 수행한 분석 및 상기에서 도 4를 참조하여 설명한 방법에 근거하여 차량(200)에 하나 이상의 주행 반응을 일으킬 수 있다. 주행 반응은 예를 들어 회전, 차선 변경, 가속 변경 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 얻은 데이터를 활용하여 하나 이상의 주행 반응을 야기할 수 있다. 또한, 복수의 주행 반응이 동시에, 순차적으로, 또는 결합된 형태로 일어날 수 있다. 예를 들면, 처리부(110)는 제어 신호를 차량(200)의 조향 시스템(240)과 구동 시스템(220)에 순차적으로 전송하여 차량(200)이 차로를 변경한 후 가속을 하게 할 수 있다. 또는, 처리부(110)는 차량(200)의 제동 시스템(230)과 조향 시스템(240)에 제어 신호를 동시에 전송하여 차량(200)이 제동을 하면서 동시에 차로를 변경하게 할 수 있다.
도 5b는 본 발명의 실시예에 따른 이미지 세트에서 하나 이상의 차량 및/또는 보행자를 검출하는 프로세스(500B)의 일례를 예시한 순서도이다. 처리부(110)는 단안 이미지 분석 모듈(402)을 실행하여 이 프로세스(500B)를 구현할 수 있다. 단계 540에서, 처리부(110)는 차량 및/또는 보행자일 가능성을 나타내는 후보 물체 모음을 판단할 수 있다. 예를 들어, 처리부(110)는 하나 이상의 이미지를 스캔하고, 이 이미지를 하나 이상의 미리 설정한 패턴과 비교하여, 각 이미지 내에서 관심 물체(예, 차량, 보행자 등)가 있을 만한 위치를 파악할 수 있다. 미리 설정한 패턴은 높은 비율의 '오탐(false hits)'과 낮은 비율의 '누락(misses)'을 달성하도록 설계될 수 있다. 예를 들어, 처리부(110)는 차량 또는 보행자일 가능성이 있는 후보 물체를 식별하기 위하여 미리 설정한 패턴에 낮은 유사 한계치를 사용할 수 있다. 이 결과, 처리부(110)가 차량 또는 보행자를 나타내는 후보 물체를 놓칠(즉, 식별하지 못할) 확률을 낮출 수 있다.
단계 542에서, 처리부(110)는 분류 기준에 근거하여 후보 물체 모음을 필터링하여 특정 후보(예, 관련이 없거나 적은 물체)를 제외할 수 있다. 여기서, 기준은 데이터베이스(예, 메모리(140)에 저장된 데이터베이스)에 저장된 물체 유형의 다양한 성질로부터 확보할 수 있다. 여기서, 물체 유형의 성질은 물체의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 상대적 위치) 등을 포함할 수 있다. 따라서, 처리부(110)는 하나 이상의 기준을 사용하여 후보 물체 모음 중에서 거짓 후보를 제외시킬 수 있다.
단계 544에서, 처리부(110)는 이미지의 다중 프레임을 분석하여 후보 물체 모음의 물체가 차량 및/또는 보행자를 나타내는지 여부를 판단할 수 있다. 예를 들면, 처리부(110)는 검출된 후보 물체를 연속 프레임에 걸쳐 추적하여 검출된 물체와 연관된 프레임 별 데이터(예, 차량(200)과 관련된 크기, 위치 등)를 축적할 수 있다. 또한, 처리부(110)는 검출된 물체의 파라미터를 추정하고 물체의 프레임 별 위치 데이터를 예측 위치와 비교할 수 있다.
단계 546에서, 처리부(110)는 검출된 물체의 측정치 모음을 구성할 수 있다. 여기서, 측정치는 예를 들어 검출된 물체와 연계된 위치, 속도, 및 가속값(즉, 차량(200)에 대한 상대 가속값)을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 칼만 필터(Kalman filters) 또는 선형 2차 곡선 추정(LQE, linear quadratic estimation) 등과 같은 시간 기준 관찰을 사용한 추정 방법 및/또는 기타 물체 유형(예, 차, 트럭, 보행자, 자전거, 도로 표시 등)에 대한 기존 모델링 데이터에 근거하여 측정치를 구성할 수 있다. 칼만 필터는 물체 크기의 측정치에 근거하고, 크기 측정치는 충돌까지의 시간(예, 차량(200)이 물체에 도달하는 시간)에 비례할 수 있다. 따라서, 단계 540 내지 546을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트 내에 등장하는 차량과 보행자를 식별하고 이 차량과 보행자와 관련된 정보(예, 위치, 속도, 크기)를 도출할 수 있다. 식별된 내용과 도출한 정보에 근거하여, 처리부(110)는 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 하나 이상의 주행 반응을 하도록 할 수 있다.
단계 548에서, 처리부(110)는 하나 이상의 이미지에 대한 광류 분석(optical flow analysis)을 수행하여 차량 또는 보행자를 나타내는 후보 물체에 대한 '오탐'과 누락 확률을 낮출 수 있다. 여기서, 광류 분석이란, 예를 들어, 다른 차량과 보행자와 관련된 하나 이상의 이미지에서 차량(200)에 대한, 그리고 도로 표면 움직임과 다른, 동작 패턴을 분석하는 것을 의미할 수 있다. 처리부(110)는 후보 물체의 움직임을 계산하기 위하여 위치값 및 시간값을 수학적 모델의 입력으로 사용할 수 있다. 따라서, 광류 분석은 차량(200)에 근접한 차량과 보행자를 검출하는 또 다른 방법을 제공할 수 있다. 처리부(110)는 광류 분석을 단계 540 내지 546과 함께 수행함으로써 차량과 보행자를 검출하는 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다.
도 5c는 기재된 실시예에 따른 이미지 세트에서 도로 표시 및/또는 차로 형상 정보를 검출하는 프로세스(500C)의 일례를 예시한 순서도이다. 처리부(110)는 단안 이미지 분석 모듈(402)을 실행하여 본 프로세스(500C)를 구현할 수 있다. 단계 550에서, 처리부(110)는 하나 이상의 이미지를 스캔하여 물체 모음을 검출할 수 있다. 차로 표시의 일부분, 차로 형상 정보, 및 기타 해당 도로 표시를 검출하기 위하여, 처리부(110)는 물체 모음을 필터링하여 관련 없는 것으로 판단된 물체(예, 대수롭지 않은 포트홀(pothole), 자갈 등)를 제외시킬 수 있다. 단계 552에서, 처리부(110)는 동일 도로 표시 또는 차로 표시에 속하는, 단계 550에서 검출된, 조각들을 함께 묶을 수 있다. 이러한 묶음에 근거하여, 처리부(110)는 검출된 조각들을 나타낼 모델, 예를 들면, 수학적 모델을 생성할 수 있다.
단계 554에서, 처리부(110)는 검출된 조각들에 상응하는 측정치 모음을 구성할 수 있다. 일부 실시예에서, 처리부(110)는 검출된 조각들을 이미지 플레인(image plane)으로부터 실세계 플레인(real-world plane)으로 투영할 수 있다. 여기서, 투영은 검출된 도로의 위치, 경사, 곡률, 및 곡률 미분계수 등과 같은 물리적 성질에 상응하는 계수를 가진 3차 다항식을 사용하는 특징이 있을 수 있다. 투영을 생성할 때, 처리부(110)는 도로면의 변화뿐만 아니라 차량(200)의 피치(pitch)와 롤(roll)을 고려할 수 있다. 또한, 처리부(110)는 도로면에 존재하는 위치 및 모션 신호를 분석하여 도로의 높낮이를 추정할 수 있다. 나아가, 처리부(110)는 하나 이상의 이미지의 특징점 모음을 추적하여 차량(200)의 피치 및 롤 비율을 추정할 수 있다.
단계 556에서, 처리부(110)는 예를 들어 검출된 조각들을 연속 이미지 프레임에 걸쳐 추적하고 검출된 조각과 관련된 프레임별 데이터를 축적하여 다중 프레임 분석을 수행할 수 있다. 처리부(110)가 다중 프레임 분석을 수행함에 따라, 단계 554에서 구성된 측정치 모음은 더욱 신뢰할 수 있게 되고 더욱 높은 신뢰 수준을 갖게 된다. 따라서, 단계 550 내지 556을 수행함으로써, 처리부(110)는 캡처 된 이미지 세트 내에 등장하는 도로 표시를 식별하고 차로 형상 정보를 도출할 수 있게 된다. 이러한 식별과 도출된 정보에 근거하여, 처리부(110)는, 상기에서 도 5a를 참조하여 설명한 바와 같이, 차량(200)이 주행 반응을 취하게 할 수 있다.
단계 558에서, 처리부(110)는 추가 정보를 고려하여 차량(200) 주변에 관한 안전 모델을 생성할 수 있다. 처리부(110)는 안전 모델을 사용하여 시스템(100)이 차량(200)의 자율 제어를 안전하게 할 수 있는 환경을 정의할 수 있다. 일부 실시예에서, 안전 모델을 생성하기 위하여, 처리부(100)는 다른 차량의 위치와 움직임, 검출된 도로 가장자리 및 배리어(barrier), 및/또는 지도 데이터(예, 지도 데이터베이스(160)의 데이터)에서 추출한 일반적인 도로 형상 설명을 고려할 수 있다. 추가 정보를 고려함으로써, 처리부(110)는 도로 표시 및 차로 형상에 대한 중복성을 제공하고 시스템(100)의 신뢰도를 향상시킬 수 있다.
도 5d는 기재된 실시예에 따른 이미지 세트에서 신호등을 검출하는 프로세스(500D)의 일례를 예시한 순서도이다. 처리부(110)는 단안 이미지 분석 모듈(402)을 실행하여 본 프로세스(500D)를 구현할 수 있다. 단계 560에서, 처리부(110)는 이미지 세트를 스캔하고 신호등 포함 가능성이 있는 이미지의 위치에 나타나는 물체를 식별한다. 예를 들면, 처리부(110)는 식별된 물체를 필터링하여 신호등에 상응할 가능성이 없는 물체들을 제외한 후보 물체 모음을 구성할 수 있다. 필터링은 신호등의 모양, 크기, 질감, 위치(예, 차량(200)에 대한 상대적 위치) 등의 다양한 성질에 근거하여 수행될 수 있다. 이러한 성질은 여러 예의 신호등과 교통 제어 신호에 근거할 수 있고 데이터베이스에 저장될 수 있다. 일부 실시예에서, 처리부(110)는 신호등 가능성이 있는 후보 물체 모음에 대한 다중 프레임 분석을 수행할 수 있다. 예를 들어, 처리부(110)는 연속 이미지 프레임에 걸쳐 후보 물체를 추적하고, 후보 물체의 실세계 위치를 추정하고, 움직이는 물체(즉, 신호등일 가능성이 적은 물체)를 필터링할 수 있다. 일부 실시예에서, 처리부(110)는 후보 물체에 대한 색 분석을 실시하고 신호등 가능성이 있는 물체 내부에서 검출된 색의 상대적 위치를 식별할 수 있다.
단계 562에서, 처리부(110)는 교차로의 기하를 분석할 수 있다. 이 분석은 (i) 차량(200) 양 측에 검출된 차로의 수, (ii) 도로상에 검출된 표시(화살표 등), (iii) 지도 데이터(예, 데이터베이스(160)에 저장된 지도 데이터)에서 추출된 교차로 설명의 조합에 근거하여 수행될 수 있다. 처리부(110)는 단안 분석 모듈(402)을 실행하여 도출한 정보를 활용하여 분석을 수행할 수 있다. 또한, 처리부(110)는 단계 560에서 검출된 신호등이 차량(200) 부근에 보이는 차로와 상응하는지 판단할 수 있다.
차량(200)이 교차로에 접근함에 따라, 단계 564에서, 처리부(110)는 분석된 교차로 기하 구조와 검출된 신호등에 관한 신뢰 수준을 업데이트 할 수 있다. 예를 들어, 교차로에 나타날 것으로 추정된 신호등의 수와 실제로 교차로에 나타난 신호등의 수를 비교하면 신뢰 수준을 파악할 수 있다. 따라서, 이 신뢰 수준에 근거하여, 처리부(110)는 안전 조건을 향상하기 위하여 차량(200)의 제어를 운전자에게 맡길 수 있다. 단계 560 내지 564를 수행함으로써, 처리부(110)는 캡처된 이미지 세트 내에 나타나는 신호등을 식별하고 교차로 기하 정보를 분석할 수 있다. 이러한 식별과 분석을 근거로, 처리부(110)는 상기에 도 5a를 참조하여 설명한 하나 이상의 주행 반응을 차량(200)이 하도록 할 수 있다.
도 5e는 기재된 실시예에 따른 차량 경로에 근거한 하나 이상의 주행 반응을 차량(200)에 야기하는 프로세스(500E)의 일례를 예시한 순서도이다. 단계 570에서, 처리부(110)는 차량(200)의 초기 차량 경로를 구성할 수 있다. 차량 경로는 좌표 (x, z)로 표현되는 한 세트의 점으로 나타낼 수 있고, 한 세트의 점의 두 점 간의 간격인 d i 는 1 내지 5 미터의 범위 내에 있을 수 있다. 일 실시예에서, 처리부(110)는 좌측 도로 다항식과 우측 도로 다항식과 같은 두 개의 다항식을 사용하여 초기 차량 경로를 구성할 수 있다. 처리부(110)는 두 개의 다항식 사이의 중간점을 계산하고, 오프셋이 있는 경우(오프셋이 0인 경우는 차로의 중앙을 주행하는 경우에 해당함), 차량 경로 결과에 포함된 각 점을 미리 설정한 오프셋(예, 스마트 차로 오프셋)만큼 오프셋 할 수 있다. 오프셋은 차량 경로 내의 두 점 사이의 구간에 수직인 방향일 수 있다. 다른 실시예에서, 처리부(110)는 하나의 다항식과 추정된 차로 폭을 사용하여 차량 경로의 각 점을 추정된 차로 폭에 미리 설정한 오프셋(예, 스마트 차선 오프셋)을 더한 값만큼 오프셋 할 수 있다.
단계 572에서, 처리부(110)는 단계 570에서 구성한 차량 경로를 업데이트 할 수 있다. 처리부(110)는 단계 570에서 구성한 차량 경로를 더 높은 해상도를 사용하여 재구성하여 차량 경로를 나타내는 한 세트의 점의 두 점 사이이 거리 dk가 상기에 설명한 거리 d i 보다 작도록 할 수 있다. 예를 들어, dk는 0.1 내지 0.3 미터의 범위 내에 있을 수 있다. 처리부(110)는 차량 경로의 전체 길이에 해당하는(즉, 차량 경로를 나타내는 점들의 세트에 근거한) 누적 거리 벡터 S 를 산출하는 파라볼릭 스플라인 알고리즘(parabolic spline algorithm)을 사용하여 차량 경로를 재구성할 수 있다.
단계 574에서, 처리부(110)는 단계 572에서 구성된 업데이트된 차량 경로에 근거하여 예견점(look-ahead point)(좌표 (x l , z l )로서 표현)을 결정할 수 있다. 처리부(110)는 누적 거리 벡터 S로부터 예견점을 추출할 수 있고, 예견점은 예견 거리 및 예견 시간과 연계될 수 있다. 하한계가 10 내지 20미터일 수 있는 예견 거리는 차량(200)의 속도와 예견 시간을 곱한 값으로 산출될 수 있다. 예를 들어, 차량(200)의 속도가 감소하면, 예견 거리도 감소(예, 하한계에 도달할 때까지)할 수 있다. 범위가 0.5 내지 1.5초일 수 있는 예견 시간은 차량(200)에 주행 반응을 야기하는 것과 관계 있는 하나 이상의 제어 루프(control loop)(예, 방위각 오차 추적 제어 루프)의 게인(gain)에 반비례할 수 있다. 예를 들어, 방위각 오차 추적 제어 루프의 게인은 요 레이트 루프(yaw rate loop)의 대역폭, 조향 액추에이터 루프, 차량 측방향 동역학 등에 따라 다를 수 있다. 따라서, 방위각 오차 추적 제어 루프의 게인이 클수록, 예견 시간은 작아질 수 있다.
단계 576에서, 처리부(110)는 단계 574에서 판단한 예견점에 근거하여 방위각 오차 및 요 레이트 명령을 결정할 수 있다. 처리부(110)는 예견점의 역탄젠트, 예를 들어 arctan (x l / z l )를 산출하여 결정할 수 있다. 처리부(110)는 방위각 오차와 고레벨 제어 게인의 곱을 산출하여 요 레이트 명령을 결정할 수 있다. 고레벨 제어 게인은, 예견 거리가 하한계에 있지 않은 경우, (2/예견 시간)과 같을 수 있다. 아니면, 고레벨 제어 게인은 (2 * 차량 속도 /예견 거리)와 같을 수 있다.
도 5f는 기재된 실시예에 따른 선두 차량이 차로 변경을 하는지를 판단하는 프로세스(500F)의 일례를 예시한 순서도이다. 단계 580에서, 처리부(110)는 선두 차량(예, 차량(200)에 앞서 주행하는 차량)에 대한 항법 정보를 판단할 수 있다. 예를 들면, 처리부(110)는, 선두 차량의 위치, 속도(예, 방향과 속력), 및/또는 가속도를 판단할 수 있다. 처리부(110)는 또한 상기의 도 5e를 참조하여 설명한 방법을 활용하여 하나 이상의 도로 다항식, 예견점(차량(200)과 관련된 예견점), 및/또는 스네일 트레일(snail trail: 선두 차량의 경로를 묘사하는 한 세트의 점)을 판단할 수 있다.
단계 582에서 처리부(110)는 단계 580에서 판단한 항법 정보를 분석할 수 있다. 일 실시예에서, 처리부(110)는 스네일 트레일과 도로 다항식(예, 스네일 트레일을 따라가는 다항식) 사이의 거리를 계산할 수 있다. 스네일 트레일을 따라가는 거리의 분산이 미리 설정한 임계치(예, 직선 도로에서 0.1 내지 0.2, 완만한 커브길에서 0.3 내지 0.4, 급커브길에서 0.5 내지 0.6)를 초과하는 경우, 처리부(110)는 선두 차량이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 차량(200)의 앞에 여러 차량이 검출된 경우, 처리부(110)는 각 차량의 스네일 트레일을 비교할 수 있다. 처리부(110)는 비교 결과에 근거하여 다른 차량들의 스네일 트레일과 일치하지 않는 스네일 트레일의 차량이 차로 변경의 가능성이 있는 것으로 판단할 수 있다. 처리부(110)는 추가적으로 선두 차량의 스네일 트레일의 곡률과 선두 차량이 주행하고 있는 도로 구간의 예상 곡률을 비교할 수 있다. 예상 곡률은 지도 데이터(예, 데이터베이스(160)의 데이터), 도로 다항식, 다른 차량의 스네일 트레일, 도로에 대한 사전 지식 등으로부터 추출될 수 있다. 스네일 트레일의 곡률과 도로 구간의 예상 곡률의 차이가 미리 설정된 임계값을 초과하는 경우, 처리부(110)는 선두 차량이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다.
다른 실시예에서, 처리부(110)는 특정 시간(예, 0.5 내지 1.5초)에 대한 선두 차량의 순간 위치와 예견점(차량(200)의 예견점)을 비교할 수 있다. 특정 시간 동안에 선두 차량의 순간 위치와 예견점 사이의 거리가 변화하고 변화의 누적 합이 미리 설정한 임계치(예, 직선도로상 0.3 내지 0.4 미터, 완만한 커브길의 0.7 내지 0.8 미터, 급커브길의 1.3 내지 1.8 미터)를 초과할 경우, 처리부(110)는 선두 차량이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 스네일 트레일을 따라 주행한 횡방향 거리와 스네일 트레일의 예상 곡률을 비교하여 스네일 트레일의 기하를 분석할 수 있다. 예상 곡률 반경은 수학식
Figure pct00001
을 통하여 판단할 수 있다. 여기서,
Figure pct00002
는 횡방향 주행 거리이고,
Figure pct00003
는 종방향 주행 거리이다. 횡방향 주행 거리와 예상 곡률 사이의 차이가 미리 설정한 임계치(예, 500 내지 700미터)를 초과하는 경우, 처리부(110)는 선두 차량이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 실시예에서, 처리부(110)는 선두 차량의 위치를 분석할 수 있다. 선두 차량의 위치가 도로 다항식을 안 보이게 하는 경우(예, 선두 차량이 도로 다항식의 상부에 덮어씌워 있는 경우), 처리부(110)는 선두 차량이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다. 다른 차량이 선두 차량의 앞에 검출되고 선두 차량과 앞 차량의 스네일 트레일이 서로 평행하지 않은 경우, 처리부(110)는 선두 차량(즉, 차량(200)과 가까운 차량)이 차로 변경을 하고 있을 가능성이 있는 것으로 판단할 수 있다.
단계 584에서, 처리부(110)는 단계 582에서 수행한 분석에 근거하여 선두 차량의 차로 변경 여부를 판단할 수 있다. 예를 들어, 처리부(110)는 단계 582에서 수행한 개별 분석의 가중 평균에 근거하여 판단을 할 수 있다. 이 방법에서, 예를 들면, 특정 유형의 분석에 근거하여 선두 차량이 차로 변경을 하고 있을 가능성이 있다는 판단을 처리부(110)가 내릴 경우, "1"의 값을 부여할 수 있다(선두 차량이 차로 변경을 하지 않고 있을 가능성 판단일 경우, "0"의 값 부여). 단계 582에서 수행되는 다른 분석에는 다른 가중치가 부여될 수 있으며, 본 실시예는 특정 조합의 분석 및 가중치에 한정되지 않는다. 또한, 일부 실시예에서, 예를 들어 현재 위치에서 캡처된 이미지에 기반하여 차량의 현재 위치 전방의 향후 경로를 추정할 수 있는, 학습 시스템9예, 머신러닝 도는 딥러닝 시스템)을 활용하여 분석을 할 수 있다.
도 6은 기재된 실시예에 따른 입체 이미지 분석에 근거한 하나 이상의 주행 반응을 야기하는 프로세스(600)의 일례를 예시한 순서도이다. 단계 610에서, 처리부(110)는 복수의 제1 및 제2 이미지를 데이터 인터페이스(128)를 통하여 수신할 수 있다. 예를 들면, 이미지획득부(120, 시야(202, 204)를 가진 이미지캡처장치(122, 124) 등)에 포함된 카메라가 차량(200) 전면 영역의 복수의 제1 및 제2 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 둘 이상의 데이터 인터페이스를 통해 복수의 제1 및 제2 이미지를 수신할 수 있다. 여기에 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜에 제한되지 않는다.
단계 620에서, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지에 대한 입체 이미지 분석을 수행하여 차량 전면 도로의 3차원 지도를 생성하고, 이미지 내에서 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로상의 위험물 등과 같은 특징을 검출할 수 있다. 입체 이미지 분석은 상기에서 도 5a 내지 5d를 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 입체 이미지 분석 모듈(404)을 실행하여 복수의 제1 및 제2 이미지 내에서 후보 물체(예, 차량, 보행자, 도로 표시, 신호등, 도로상의 위험물 등)을 검출하고, 다양한 기준에 근거하여 후보 물체의 모음을 필터링하고, 다중 프레임 분석을 수행하고, 측정치를 구성하고, 나머지 후보 물체에 대한 신뢰 수준을 판단할 수 있다. 상기 단계들을 수행함에 있어서, 처리부(110)는 한 세트의 이미지보다는 복수의 제1 및 제2 이미지 모두의 정보를 고려할 수 있다. 예를 들어, 처리부(110)는 복수의 제1 및 제2 이미지에 모두 등장하는 후보 물체에 대한 픽셀 단계 데이터(또는 두 스트림의 캡처된 이미지의 기타 데이터 서브세트)의 차이를 분석할 수 있다. 다른 예로서, 처리부(110)는 후보 물체가 복수의 이미지 중 하나에 등장하지만 다른 이미지에 등장하지 않는다는 것을 관찰하거나, 두 이미지 스트림에 등장하는 물체와 관련하여 존재하는 다른 차이점들을 통하여, 후보 물체(예, 차량(200)에 대한 후보 물체)의 위치 및/또는 속도를 추정할 수 있다. 예를 들어, 차량(200)과 관련된 위치, 속도, 및/또는 가속도는 이미지 스트림의 하나 또는 모두에 등장하는 물체와 연관된 특징의 궤적, 위치, 동작 특성 등에 근거하여 판단될 수 있다.
단계 630에서, 처리부(110)는 주행 반응 모듈(408)을 실행하여 단계 620에서 수행한 분석 및 도 4를 참조하여 상기에 설명한 방법에 근거한 하나 이상의 주행 반응을 차량(200)에 발생시킬 수 있다. 주행 반응은, 예를 들어, 회전, 차로 변경, 가속도 변경, 속도 변경, 제동 등을 포함할 수 있다. 일부 실시예에서, 처리부(110)는 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 뿐만 아니라, 다중 주행 반응이 동시에, 순차적으로, 또는 이들의 조합으로 발생될 수 있다.
도 7은 본 발명의 실시예에 따른 3세트의 이미지에 근거한 하나 이상의 주행 반응을 발생시키는 프로세스(700)의 일례를 예시한 순서도이다. 단계 710에서, 처리부(110)는 데이터 인터페이스(128)를 통하여 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지획득부(120, 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126) 등)에 포함된 카메라가 차량(200) 전면 및/또는 측면 영역의 복수의 제1, 제2, 제3 이미지를 캡처하고 디지털 연결(예, USB, 무선통신, 블루투스 등)을 통해 처리부(110)로 전송할 수 있다. 일부 실시예에서, 처리부(110)는 셋 이상의 데이터 인터페이스를 통해 복수의 제1, 제2, 제3 이미지를 수신할 수 있다. 예를 들어, 이미지캡처장치(122, 124, 126)는 처리부(110)와 데이터를 통신하기 위해 각 장치에 연관된 데이터 인터페이스가 있을 수 있다. 기재된 실시예들은 특정 데이터 인터페이스 구성 또는 프로토콜로 제한되지 않는다.
단계 720에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지를 분석하여 차로 표시, 차량, 보행자, 도로 표지, 고속도로 나들목, 신호등, 도로상의 위험물 등과 같은 특징을 이미지 내에서 검출할 수 있다. 본 분석은 상기에서 도 5a 내지 5d 및 도6을 참조하여 설명한 단계와 유사한 방법으로 수행될 수 있다. 예를 들어, 처리부(110)는 복수의 제1, 제2, 제3 이미지 각각에 대한 단안 이미지 분석(예, 단안 이미지 분석 모듈(402) 실행 및 도 5a 내지 5d를 참조하여 설명한 상기 단계)을 수행할 수 있다. 또는, 처리부(110)는 복수의 제1 및 제2 이미지, 복수의 제2 및 제3 이미지, 및/또는 복수의 제1 및 제3 이미지에 대한 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행 및 도6을 참조하여 설명한 상기 단계)을 수행할 수 있다. 복수의 제1, 제2 및/또는 제3 이미지에 상응하는 처리 정보는 병합될 수 있다. 일부 실시예에서, 처리부(110)는 단안 이미지 분석과 입체 이미지 분석을 조합하여 수행할 수 있다. 예를 들면, 처리부(110)는 복수의 제1 이미지에 대해 단안 이미지 분석(예, 단안 이미지 분석 모듈(402) 실행)을 수행하고, 복수의 제2 및 제3 이미지에 대해 입체 이미지 분석(예, 입체 이미지 분석 모듈(404) 실행)을 수행할 수 있다. 상응하는 위치와 시야(202, 204, 206)를 가진 이미지캡처장치(122, 124, 126)의 구성은 복수의 제1, 제2, 제3 이미지에 대해 수행되는 분석의 유형에 영향을 줄 수 있다. 기재된 실시예들은 특정 구성의 이미지캡처장치(122, 124, 126) 또는 복수의 제1, 제2, 제3 이미지에 수행되는 분석의 유형으로 제한되지 않는다.
일부 실시예에서, 처리부(110)는 단계 710과 720에서 획득하고 분석한 이미지에 근거하여 시스템(100)의 검사를 수행할 수 있다. 이러한 검사는 이미지캡처장치(122, 124, 126)의 특정 구성을 위한 시스템(100)의 전체적인 성능에 대한 지시자를 제공할 수 있다. 예를 들어, 처리부(110)는 '오탐'(예, 시스템(100)이 차량 또는 보행자가 존재하는 것으로 오판하는 경우) 및 '누락'의 비율을 판단할 수 있다.
단계 730에서, 처리부(110)는 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보에 근거하여 차량(200)에 하나 이상의 주행 반응을 발생시킬 수 있다. 복수의 제1, 제2, 제3 이미지 중 둘은, 예를 들어, 복수의 이미지 각각에 검출된 물체의 개수, 유형, 크기 등과 같은 다양한 요소에 의거하여 선택될 수 있다. 처리부(110)는 또한 이미지의 품질 및 해상도, 이미지에 반영된 유효 시야, 캡처 된 프레임의 수, 관심 물체가 프레임에 실제로 등장하는 정도(예, 물체가 등장하는 프레임의 퍼센트, 각 프레임에 등장하는 물체가 차지하는 비율 등) 등에 따라 이미지를 선택할 수 있다.
일부 실시예에서, 처리부(110)는 한 이미지 소스로부터 도출된 정보가 다른 이미지 소스로부터 도출된 정보와 어느 정도 일관되는지를 판단하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다. 예를 들어, 처리부(110)는 이미지캡처장치(122, 124, 126) 각각으로부터 도출(단안 분석, 입체 분석, 또는 이들의 조합)된 처리 정보를 병합하고 이미지캡처장치(122, 124, 126) 각각으로부터 캡처 된 이미지 전반에 걸쳐 일관된 시각적 지시자(예, 차로 표시, 검출된 차량 및 그 위치 및/또는 경로, 검출된 신호등 등)를 판단할 수 있다. 처리부(110)는 또한 캡처 된 이미지 전반에 걸쳐 일관되지 않은 정보(예, 차로를 변경하는 차량, 차량(200)과 너무 가까운 차량을 나타내는 차로 모델 등)를 제외시킬 수 있다. 따라서, 처리부(110)는 일관된 정보 및 일관되지 않은 정보의 판단에 근거하여 복수의 제1, 제2, 제3 이미지 중 둘로부터 도출된 정보를 선택할 수 있다.
주행 반응은, 예를 들면, 회전, 차로 변경, 가속도 변경 등을 포함할 수 있다. 처리부(110)는 단계 720에서 수행된 분석과 도 4를 참조하여 설명한 방법에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 처리부(110)는 또한 속도 및 가속 모듈(406)을 실행하여 도출한 데이터를 사용하여 하나 이상의 주행 반응을 발생시킬 수 있다. 일부 실시예에서, 처리부(110)는 차량(200)과 복수의 제1, 제2, 제3 이미지 중 어느 하나 내에서 검출된 물체 사이의 상대적 위치, 상대적 속도, 및/또는 상대적 가속도에 근거하여 하나 이상의 주행 반응을 발생시킬 수 있다. 다중 주행 반응은 동시에, 순차적으로 또는 이들의 조합으로 발생될 수 있다.
강화 학습 및 학습된 항법 시스템
하기의 설명은 자율 주행뿐만 아니라 차량의 자율 제어를 위한 시스템 및 방법에 관한 것으로서, 여기서 제어는 완전 자율(예, 자율주행차)이거나 부분 자율(예, 하나 이상의 운전자 보조 시스템 또는 기능)일 수 있다. 도8에 도시된 바와 같이, 자율 주행 작업은 감지 모듈(801), 주행 방침 모듈(803), 및 제어 모듈(805)를 포함하는 3개의 주요 모듈로 구분될 수 있다. 일부 실시예에서, 모듈들(801, 803, 805)은 시스템(100)의 메모리(140) 및/또는 메모리(150)에 저장될 수 있고, 모듈들(801, 803, 805)은(또는 그 일부는) 시스템(100)으로부터 원격으로 저장(예, 무선 송수신기(172)를 통하여 시스템(100)에 접속 가능한 서버에 저장)될 수 있다. 나아가, 여기에 기재된 모듈들(801, 803, 805)의 하나 또는 그 이상은 학습 시스템(예, 신경망 또는 심층 신경망) 또는 비학습 시스템과 연관된 방법을 실행할 수 있다.
감지 모듈(801)은 처리부(110)를 활용하여 실행될 수 있고 호스트 차량의 주변상황 내의 항법 상태의 감지에 관한 다양한 작업을 처리할 수 있다. 이러한 작업은 호스트 차량과 연관된 다양한 센서 및 센싱 시스템으로부터의 입력에 의존할 수 있다. 이러한 입력에는 하나 이상의 탑재된 카메라로부터의 이미지 또는 이미지 스트림, GPS 위치 정보, 가속도계 출력, 사용자 피드백, 또는 하나 이상의 사용자 인터페이스 장치, 레이더, 라이더 등으로의 사용자 입력이 포함될 수 있다. 감지는 지도 정보와 함께 카메라 및/또는 기타 모든 가능한 센서로부터의 데이터가 포함할 수 있고, 수집되고 분석되어 '감지된 상태'로 만들어져 호스트 차량의 주변상황 내의 장면으로부터 추출된 정보를 묘사할 수 있다. 감지된 상태는 타깃 차량, 차로 표시, 보행자, 신호등, 도로 기하, 차로 형상, 장애물, 다른 사물/차량까지의 거리, 상대 속도, 상대 가속도, 및 기타 잠재적 감지 정보 등에 관한 감지 정보를 포함할 수 있다. 감지 모듈(801)로 제공되는 감지 데이터에 의거한 감지하는 상태 출력을 생성하기 위하여 지도형 머신 러닝(supervised machine learning)이 도입될 수 있다. 감지 모듈의 출력은 호스트 차량의 감지된 항법 '상태'를 나타낼 수 있고 주행 방침 모듈(803)로 전달될 수 있다.
감지된 상태가 호스트 차량과 연관된 하나 이상의 카메라 또는 이미지 센서로부터 수신된 이미지 데이터에 의거하여 만들어질 수 있는 반면, 항법에 사용될 감지된 상태는 적합한 센서 또는 센서들의 조합을 활용하여 만들어질 수 있다. 일부 실시예에서, 감지된 상태는 캡처된 이미지 데이터에 의존하지 않고 만들어질 수 있다. 실제로, 여기에 설명된 모든 항법 원리는 캡처된 이미지 데이터에 의거하여 만들어진 감지된 상태뿐만 아니라 기타 비이미지 기반 센서를 활용하여 만들어진 감지된 상태에도 적용될 수 있다. 감지된 상태는 또한 호스트 차량 외부의 소스를 통해 판단될 수 있다. 예를 들어, 감지된 상태는 호스트 차량으로부터 원격에 있는 소스로부터 수신된 정보에 의거하여(예, 다른 차량, 중앙 서버, 또는 호스트 차량의 항법 상태에 관한 정보의 기타 모든 소스와 공유된 센서 정보, 처리된 상태 정보 등에 의거하여) 모두 또는 일부가 만들어질 수 있다.
주행 방침 모듈(803)은 하기에 더 상세히 설명할 것이며 처리부(110)를 활용하여 실행될 수 있고, 감지된 항법 상태에 대응하여 취할 호스트 차량에 대한 하나 이상의 항법 동작을 결정하기 위하여 원하는 주행 방침을 실행할 수 있다. 호스트 차량의 주변상황 내에 다른 요소(예, 타깃 차량 또는 보행자)가 존재하지 않는 경우, 주행 방침 모듈(803)로 입력되는 감지된 상태는 간단 명료하게 처리될 수 있지만, 이런 경우는 드물다. 감지된 상태가 하나 이상의 기타 요소와의 절충을 요구하는 경우에 이러한 작업은 복잡해진다. 주행 방침 모듈(803)의 출력을 생성하기 위해 활용되는 기술은 강화 학습(reinforcement learning)을 포함할 수 있고, 이에 대하여 하기에 상세히 설명한다. 주행 방침 모듈(803)의 출력은 호스트 차량에 대한 적어도 하나의 항법 동작을 포함할 수 있고, 원하는 가속(호스트 차량에 대한 업데이트된 속력을 의미), 호스트 차량에 대한 원하는 요 레이트(yaw rate), 원하는 궤적, 및 기타 원하는 잠재적 항법 동작 등을 포함할 수 있다.
주행 방침 모듈(803)의 출력에 의거하여, 역시 처리부(110)를 활용하여 실행될 수 있는 제어 모듈(805)이 호스트 차량과 연관된 하나 이상의 액추에이터 또는 제어된 장치에 대한 제어 명령을 생성할 수 있다. 이러한 액추에이터 및 장치는 가속기, 하나 이상의 조향 제어기, 브레이크, 신호 전송기, 디스플레이, 또는 호스트 차량과 연관된 항법 동작의 일부로서 제어될 수 있는 기타 모든 액추에이터 또는 장치를 포함할 수 있다. 제어 모듈(805)의 출력을 생성하기 위하여 제어 이론의 양상이 활용될 수 있다. 제어 모듈(805)은 원하는 항법 목적 또는 주행 방침 모듈(803)의 요구사항을 실현하기 위하여 호스트 차량의 제어가능한 요소로의 명령 생성 및 출력을 담당할 수 있다.
다시 주행 방침 모듈(803)에 대한 설명으로 돌아와서, 일부 실시예에서, 강화 학습을 통하여 학습된 학습 시스템을 활용하여 주행 방침 모듈(803)을 실행할 수 있다. 다른 실시예에서, 주행 방침 모듈(803)은 자율 주행 중에 발생할 수 있는 다양한 상황에 '수동'으로 대응하는 특수 알고리즘을 사용함으로써 머신 러닝 방식을 사용하지 않고 실행될 수 있다. 그러나 이러한 접근은 실행 가능할지는 몰라도 너무 단순한 주행 방침을 채택할 수 있고, 머신 러닝에 의거한 학습 시스템이 갖는 유연성이 부족할 수 있다. 학습 시스템은 복잡한 항법 상태를 처리하기에 더 적합할 수 있고, 예를 들어, 택시가 주차중인지, 아니면 승객의 승하차를 위해 정지한 것인지 여부; 보행자가 호스트 차량 전방의 도로를 횡단하려고 하는지 여부; 다른 운전자의 예기치 않은 행동에 대한 방어적 균형; 타깃 차량 및/또는 보행자가 개입된 혼잡한 교통상황 절충; 일부 항법 규칙을 중단할 시점 또는 다른 규칙을 중시할 시점에 대한 결정; 감지되지 않았지만 예상된 조건(예, 차량 또는 장애물의 뒤에서 보행자가 튀어나올지 여부)에 대한 예상 등을 더 잘 판단할 수 있다.
강화 학습을 활용한 시스템의 학습은 감지된 상태로부터 항법 동작으로 매핑하기 위하여 주행 방침을 학습하는 것을 포함할 수 있다. 주행 방침은
Figure pct00004
의 함수이고, 여기서, S는 상태의 집합이고
Figure pct00005
는 동작 공간(예, 원하는 속력, 가속, 요 명령(yaw command) 등)이다. 상태 공간은
Figure pct00006
이고, 여기서
Figure pct00007
는 감지하는 상태이고,
Figure pct00008
는 주행 방침에 의해 저장된 상태에 관한 추가 정보이다. 이산 시간 간격(discrete time intervals)에서 보자면, 시간 t에, 현재 상태
Figure pct00009
가 관찰될 수 있고, 주행 방침이 적용되어 원하는 동작
Figure pct00010
을 획득할 수 있다.
시스템은 다양한 항법 상태에 대한 노출을 통해 학습될 수 있고, 시스템으로 하여금 주행 방침을 적용하고 보상을 제공할 수(원하는 항법 동작에 보상을 주도록 설계된 보상 함수에 의거하여) 있다. 보상 피드백에 의거하여, 시스템은 주행 방침을 '학습'할 수 있고 원하는 항법 동작의 생성에 학습된다. 예를 들어, 학습 시스템은 현재 상태
Figure pct00011
를 관찰하고 방침
Figure pct00012
에 의거하여 동작
Figure pct00013
를 결정할 수 있다. 결정된 동작(및 이 동작의 실행)에 의거하여, 주변상황은 다음 상태
Figure pct00014
로 이동하여 학습 시스템에 의한 관찰을 할 수 있다. 관찰된 상태에 대응하여 생성된 각 동작에 대해, 학습 시스템으로의 피드백은 보상 신호
Figure pct00015
이다.
강화 학습(RL)의 목표는 방침 π를 구하는 것이다. 일반적으로, 시간 t에, 상태
Figure pct00016
에 있는 것과 동작
Figure pct00017
를 취하는 것의 즉각적인 품질을 측정하는 보상 함수
Figure pct00018
가 있는 것으로 추정한다. 그러나, 시간 t에 동작
Figure pct00019
를 취하는 것은 주변상황에 영향을 주고, 따라서 미래 상태의 값에도 영향을 준다. 이에 따라, 취할 동작을 결정함에 있어, 현재의 보상뿐만 아니라 미래의 보상도 고려해야 한다. 일부 경우에서, 낮은 보상을 지금 선택하면 나중에 더 큰 보상이 실현될 수 있다고 시스템이 판단하는 경우에, 특정 동작이 다른 선택보다 낮은 보상과 연관된다고 하더라도, 시스템은 특정 동작을 취해야 할 수 있다. 이를 공식화하기 위해, 요소가 상태
Figure pct00020
에서 시작하고 이로부터 방침 π를 따르는 경우, 방침 π와 초기 상태 s가
Figure pct00021
에 걸친 분포를 유도함을 관찰한다. 여기서, 벡터
Figure pct00022
의 확률은 보상
Figure pct00023
을 관찰하는 확률이다. 초기 상태 s의 값은 다음과 같이 정의될 수 있다.
Figure pct00024
시간 지평(time horizon)을 T로 한정하는 대신에, 추후 보상은 일부 고정
Figure pct00025
에 대해 다음과 같이 정의할 수 있다.
Figure pct00026
결국, 최적의 방침은 다음의 해법이다.
Figure pct00027
여기서, 예상은 초기 상태 s 이상이다.
주행 방침 시스템을 학습시키는 방법에는 여러가지가 있다. 예컨대, 시스템이 상태/동작 쌍으로부터 학습하는 모방 방식(예, 행동 복제)이 활용될 수 있는데, 여기서 동작은 관찰된 특정 상태에 대응하여 양호한 요소(예, 사람)에 의해 선택될 수 있는 것들이다. 사람 운전자가 관찰된다고 가정하면, 이러한 관찰을 통하여 많은 예의 형태
Figure pct00028
가 획득되고, 관찰되며, 주행 방침 시스템의 학습을 위한 기반으로 사용될 수 있다. 여기서, St는 상태이고,
Figure pct00029
는 사람 운전자의 동작이다. 예를 들면,
Figure pct00030
가 되도록, 방침 π를 학습하기 위하여 지도형 러닝을 활용할 수 있다. 이 방식에는 여러 잠재적 장점이 있다. 첫째, 보상 함수를 정의할 필요가 없다. 둘째, 학습을 지도할 수 있고, 오프라인 학습이 가능하다(학습 프로세스에 요소를 적용할 필요가 없음). 이 방법의 단점은 서로 다른 사람 운전자(심지어 동일한 사람 운전자)는 방침 선택에 결정적이지 못하다는 것이다. 따라서,
Figure pct00031
이 매우 작은 함수의 학습이 실행 불가능한 경우가 많다. 또한, 작은 오차가 시간과 함께 누적되어 큰 오차를 낼 수 있다.
또 다른 방식으로 방침 기반 학습이 활용될 수 있다. 여기서, 방침은 파라미터 형식으로 표현될 수 있고 적합한 최적화 방식(예, SGD(stochastic gradient descent))을 활용하여 직접 최적화 될 수 있다. 이 방식은
Figure pct00032
에 주어진 문제를 직접 풀기 위한 것이다. 물론, 문제를 푸는 방법은 많다. 이 방식의 한 가지 장점은 문제를 직접 풀 수 있고, 따라서 현실적으로 좋은 결과가 나오는 경우가 많다. 한 가지 잠재적 단점은 'on-policy' 학습을 요구하는 경우가 많은데, 즉, π의 학습은 반복 프로세스이며, 여기서, 반복 j에서 방침 πj는 완벽하지 않고(non-perfect), 다음 방침 πj를 구성하려면 πj에 기반한 동작을 하면서 주변상황과 상호작용을 해야 한다는 것을 의미한다.
시스템은 또한 가치 기반 학습(Q 또는 V 함수 학습)을 통해 학습될 수 있다. 최적값 함수
Figure pct00033
에 대한 상당히 정확한 근사치가 학습될 수 있다고 가정하면, 최적 방침이 구성될 수 있다(예, 벨만 방정식(Bellman equation)에 의존하여). 일부 버전의 가치 기반 학습은 오프라인으로 실행('off-policy' 학습으로 지칭)될 수 있다. 가치 기반 방식의 일부 단점은 마코비안 가정(Markovian assumptions)에 매우 의존해야 한다는 것과 복잡한 함수의 추정이 요구된다는 것이다(가치 함수를 추정하는 것이 방침을 직접 추정하는 것보다 어려울 수 있음).
다른 방식으로 모델 기반 러닝과 플래닝(상태 이행의 확률 학습 및 최적 V 검색의 최적화 문제 해결)이 포함될 수 있다. 또한 이러한 방식의 조합을 활용하여 러닝 시스템을 학습시킬 수 있다. 이 방식에서, 프로세스의 역학, 즉,
Figure pct00034
를 취하여 다음 상태
Figure pct00035
에 걸친 분포를 산출하는 함수가 학습될 수 있다. 이 함수가 학습되면, 최적화 문제가 해결되어 값이 최적인 방침 π를 구할 수 있다. 이를 '플래닝(planning)'이라 부른다. 이 방식의 한 가지 장점은 러닝 부분의 지도가 가능하고 트리플릿
Figure pct00036
을 관찰함으로써 오프라인으로 적용이 가능하다는 것이다. 이 방식의 한 가지 단점은, '모방' 방식과 마찬가지로, 러닝 프로세스의 작은 에러가 누적되어 방침을 부적절하게 수행하게 될 수 있다는 것이다.
주행 방침 모듈(803)의 학습을 위한 다른 방식에는 주행 방침 함수를 의미론적으로 유의미한 요소들로 분해하는 것이 포함될 수 있다. 이로써, 방침의 일부는 수동으로 실행되도록 하여 방침의 안전을 보장할 수 있고, 방침의 다른 부분은 강화 학습 방식을 활용하여 실행되도록 하여 다양한 상황에 대한 적응성, 방어적/공격적 행위 사이의 인간과 같은 균형, 및 다른 운전자와의 인간과 같은 절충 등을 가능하게 할 수 있다. 기술적 측면에서 볼 때, 강화 학습 방식은 몇 가지 방법론을 조합하고 다루기 쉬운 학습 절차를 제공할 수 있고, 학습의 대부분이 기록된 데이터 또는 자체 제작된 시뮬레이터를 활용해 수행될 수 있다.
일부 실시예에서, 주행 방침 모듈(803)의 학습은 '옵션' 메커니즘에 의존할 수 있다. 이를 설명하기 위하여 2차선 고속도로에 대한 주행 방침의 단순한 상황을 가정하면, 직접 RL 방식에서, 방침π는 상태를
Figure pct00037
로 매핑하고, 여기서, π(s)의 제1 컴포넌트는 원하는 가속 명령이고 π(s)의 제2 컴포넌트는 요 레이트(yaw rate)이다. 수정 방식에서, 다음과 같은 방침이 구성될 수 있다.
자동 크루즈 컨트롤(Automatic Cruise Control (ACC)) 방침
Figure pct00038
: 본 방침은 항상 요 레이트로 0을 출력하고 부드럽고 사고 없는 주행을 실행하도록만 속력을 변경한다.
ACC+좌측 방침
Figure pct00039
: 본 방침의 종방향 명령은 ACC 명령과 동일하다. 요 레이트는 차량을 좌측 차로의 중앙으로 조정하면서 안전한 횡방향 이동을 유지하는(예, 좌측에 차량이 있는 경우에 이동을 하지 않는) 단순한 실행이다.
ACC+우측 방침
Figure pct00040
: o L 과 동일하되 차량을 우측 차로의 중앙으로 조정할 수 있다.
이러한 방침들은 '옵션'이라 불릴 수 있다. 이러한 '옵션'에 의존하여, 옵션
Figure pct00041
를 선택하는 방침이 학습될 수 있다. 여기서, O는 사용 가능한 옵션의 집합이다. 한 경우에서,
Figure pct00042
이다. 옵션-선택자 방침 π0는 각 s에 대해
Figure pct00043
를 설정함으로써 실제 방침인
Figure pct00044
를 정의한다.
실질적으로, 방침 함수는 도 9에 도시된 바와 같은 옵션 그래프(901)로 분해될 수 있다. 다른 예시적인 옵션 그래프(1000)가 도 10에 도시되어 있다. 옵션 그래프는 방향성 비순환 그래프(Directed Acyclic Graph (DAG))로서 정리된 결정의 계층적 집합을 나타낸다. 그래프에는 루트 노드(root node)(903)이라고 불리는 특별 노드가 있다. 이 노드에는 들어오는 노드가 없다. 결정 프로세스는 그래프의 루트 노드에서 시작하고 더 이상 다음 결정 라인이 없는 노드를 말하는 리프 노드(leaf node)에 도달할 때까지 이어진다. 도9에 도시된 바와 같이, 리프 노드는 노드(905), 노드(907), 노드(909) 등을 포함할 수 있다. 리프 노드에 도달하면, 주행 방침 모듈(803)은 리프 노드와 연관되어 원하는 항법 동작과 연관된 가속 및 조향 명령을 출력할 수 있다.
노드(911), 노드(913), 노드(915) 등과 같은 내부 노드는 유효한 옵션 중에서 자식(child)을 선택하는 방침을 실행할 수 있다. 내부 노드의 유효한 자식의 집합은 결정 라인을 통해 특정 내부 노드와 연관된 노드를 모두 포함할 수 있다. 예를 들면, 도9에서 '병합'으로 지정된 내부 노드(913)는 결정 라인에 의해 각각 노드(913)과 연결된 3개의 자식 노드(909, 915, 917)('차선 유지', '우측 차로 점유', '좌측 차로 점유')를 포함한다.
의사 결정 시스템의 유연성은 노드가 옵션 그래프의 계층 내의 위치를 조정할 수 있게 함으로써 증가될 수 있다. 예를 들면, 어느 노드라도 스스로를 '중대'하다고 선언하는 것이 허용될 수 있다. 각 노드는 방침 실행의 중대한 섹션에 있는 경우에 '참'을 출력하는 '중대하다' 함수를 실행할 수 있다. 예를 들면, 차로 점유를 담당하는 노드는 실행 중에 스스로를 중대하다고 선언할 수 있다. 이로써 노드 u의 유효한 자식 집합에 제약을 부여할 수 있다. 여기서, 노드 u는 노드 u의 자식인 노드 v의 모두를 포함할 수 있고, 중대한 것으로 지정된 모든 노드를 거쳐서 노드 u로부터 리프 노드까지 이어지는 경로가 있다. 이러한 방식은, 한편으로는 옵션 그래프 상의 원하는 경로를 각 시간 단계에서 선언할 수 있게 하는 반면, 방침의 안정성이, 특히 방침의 중대한 부분이 실행되는 동안에, 보존될 수 있다.
옵션 그래프를 정의함으로써, 주행 방침
Figure pct00045
학습의 문제는 옵션 그래프의 각 노드에 대한 방침 정의의 문제로 분해될 수 있고, 각 내부 노드에서의 방침은 유효 자식 노드 중에서 선택해야 한다. 일부 노드에 대하여, 각 방침이 수동으로 실행(예, 관찰된 상태에 대응한 동작의 세트를 명시하는 if-then 유형의 알고리즘을 통해 실행)될 수 있는 반면에, 다른 노드에 대해서는 강화 학습을 통해 구축된 학습 시스템을 활용하여 방침이 실행될 수 있다. 수동 방식과 학습 방식 사이의 선택은 작업과 연관된 안전 측면과 상대적 단순성에 달려 있다. 옵션 그래프는 일부 노드들이 간단하게 실행되는 반면 다른 노드들은 학습 모델에 의존하도록 구성될 수 있다. 이러한 방식을 통해, 시스템의 안전한 동작이 보장될 수 있다.
이하, 주행 방침 모듈(803) 내에서 도 9의 옵션 그래프의 역할에 대해 상세히 설명한다. 앞서 설명한 바와 같이, 주행 방침 모듈로의 입력은, 예를 들면, 사용 가능한 센서로부터 획득된 것과 같은 주변 상황 지도를 요약하는 '감지된 상태'이다. 주행 방침 모듈(803)의 출력은 궤적을 최적화 문제의 해법으로 정의하는 욕구의 집합(선택적으로, 하드 제약(hard constraints)의 집합과 함께)이다.
앞서 설명한 바와 같이, 옵션 그래프는 결정의 계층적 집합을 DAG로 나타낸 것이다. 그래프에는 '루트'로 불리는 특별 노드가 있다. 루트 노드는 그 안으로 들어오는 선(예, 결정 라인)이 없는 유일한 노드이다. 결정 프로세스는 그래프의 루트 노드에서 시작하고 더 이상 나가는 선이 없는 노드를 말하는 리프 노드에 도달할 때까지 이어진다. 각 내부 노드는 유효한 자식들 중에서 자식을 선택하는 방침을 실행해야 한다. 각 리프 노드는 루트로부터 리프까지의 전체 경로에 의거하여 욕구(Desires)의 집합(예, 호스트 차량에 대한 항법 목표의 집합)을 정의하는 방침을 실행해야 한다. 욕구의 집합은 감지된 상태에 직접 의거하여 정의된 하드 제약의 집합과 함께 해법이 차량에 대한 궤적인 최적화 문제를 설정한다. 하드 제약은 시스템의 안전성을 더 향상하기 위해 활용될 수 있고, 욕구는 시스템의 주행 편의와 인간과 같은 운전 행동을 제공하기 위해 활용될 수 있다. 최적화 문제의 해법으로 제공되는 궤적은 결과적으로 궤적을 완수하기 위해 제동, 및/또는 엔진 액추에이터에 제공되어야 하는 명령을 정의한다.
도9를 다시 참조하면, 옵션 그래프(901)는 병합 차로를 포함하는(즉, 제3의 차로가 어느 지점에서 도로의 우측 또는 좌측 차로로 병합해 들어옴) 2차선 도로에 대한 옵션 그래프를 나타낸다. 루트 노드(903)은 우선 호스트 차량이 평범한 도로상황에 있는지 또는 병합 상황에 접근하고 있는지를 결정한다. 이는 감지하는 상태에 의거하여 실행될 수 있는 결정의 예이다. 평범한 도로 노드(911) 는 3개의 자식 노드, 즉, 유지 노드(909), 좌측 점유 노드(917), 및 우측 점유 노드(195)를 포함한다. '유지'란 호스트 차량이 동일한 차로에서 계속 주행하고 싶은 상황을 의미한다. 유지 노드는 리프 노드(뻗어 나가는 선이 없음)이다. 따라서, 유지 노드는 욕구의 집합을 정의한다. 유지 노드가 정의하는 제1 욕구는 횡방향 위치(예, 현재 주행 중인 차로의 중앙에 최대한 가까이)를 포함할 수 있다. 부드러운 항법(예, 미리 정해진 또는 허용된 최대 가속)의 욕구도 있을 수 있다. 유지 노드는 호스트 차량이 다른 차량에 대해 반응하는 방법을 정의할 수도 있다. 예를 들면, 유지 노드는 감지된 타깃 차량을 검토하고 각 의미론적 의미를 지정하여 궤적의 요소로 이행되게 할 수 있다.
다양한 의미론적 의미가 호스트 차량의 주변상황 내에 있는 타깃 차량에 부여될 수 있다. 예를 들면, 일부 실시예에서, 다음과 같이 지정된 의미론적 의미가 포함될 수 있다. 1) 관련 없음: 장면 내의 감지된 차량이 현재 관련이 없음을 나타낸다. 2) 옆 차로: 감지된 차량이 인접 차로에 있고 이 차량에 대해 적절한 오프셋을 유지해야 한다는 것을 나타낸다(정확한 오프셋은 욕구 및 하드 제약을 고려하여 궤적을 구축하는 최적화 문제에서 계산될 수 있고 잠재적으로 차량에 따라 다를 수 있으며, 옵션 그래프의 차선 유지 리프는 타깃 차량의 의미론적 유형을 설정하여 타깃 차량에 대한 상대적 욕구를 정의한다. 3) 양보: 호스트 차량은 예를 들어 감속을 함으로써(특히 타깃 차량이 호스트 차량의 차로로 끼어들어올 것으로 호스트 차량이 판단한 경우) 감지된 차량에 양보를 하려 할 것이다. 4) 선행: 호스트 차량은 예를 들어 가속을 함으로써 선행권(right of way) 점유를 시도할 것이다. 5) 추적: 호스트 차량은 타깃 차량을 따라가며 부드러운 주행을 유지하기를 바란다. 6) 좌/우측 점유: 호스트 차량이 좌측 또는 우측 차로로 차로 변경을 시도하고자 한다. 좌측 점유 노드(917)와 우측 점유 노드(915)는 아직 욕구를 정의하지 않는 내부 노드이다.
옵션 그래프(901)의 다음 노드는 간격 선택 노드(919)이다. 이 노드는 호스트 차량이 진입하고자 하는 특정 타깃 차로의 타깃 차량 두 대 사이의 간격의 선택을 담당할 수 있다. IDj 형태의 노드를 선택함으로써, 특정 j값에 대하여, 호스트 차량은 궤적 최적화 문제에 대한 욕구를 지정하는 리프에 도달한다. 예를 들면, 호스트 차량은 선택된 간격에 도달하도록 조작을 하고자 한다. 이러한 조작은 현재 차로에서 먼저 가속/제동을 한 후에 적절한 시간에 타깃 차로로 진행하여 선택된 간격에 진입하는 것을 포함할 수 있다. 간격 선택 노드(919)가 적절한 간격을 찾을 수 없는 경우에는, 현재 차로의 중앙으로 돌아오고 점유를 취소하고자 하는 욕구를 정의하는 노드인 중단 노드(921)로 이동한다.
병합 모드(913)를 다시 참조하면, 호스트 차량이 병합에 접근하는 경우, 호스트 차량은 특정 상황에 따라 다를 수 있는 몇 가지 옵션이 있다. 예를 들면, 도 11a에 도시된 바와 같이, 호스트 차량(1105)은 검출된 타깃 차량이 없는 2차선 도로를 따라 2차선 도로의 주요 차로 또는 병합 차로(1111)에서 이동하고 있다. 본 상황에서, 주행 방침 모듈(803)은 병합 노드(913)에 도달하면 유지 노드(909)를 선택할 수 있다. 즉, 병합해 들어오는 타깃 차량이 감지되지 않는 상황에서 현재의 차선을 유지하는 것을 원할 수 있다.
도 11b의 상황은 약간 다르다. 여기서, 호스트 차량(1105)은 병합 차로(1111)로부터 주요 도로(1112)로 진입하는 한 대 이상의 타깃 차량(1107)을 감지한다. 이 상황에서, 주행 방침 모듈(803)이 병합 노드(913)를 접하면 병합 상황을 회피하기 위하여 좌측 차로 점유 동작을 취하기로 선택할 수 있다.
도 11c에서, 호스트 차량(1105)은 병합 차로(1111)로부터 주요 도로(1112)로 진입하는 한 대 이상의 타깃 차량(1107)을 마주한다. 호스트 차량(1105)은 또한 호스트 차량의 차로에 인접한 차로에서 이동중인 타깃 차량(1109)을 검출한다. 호스트 차량은 또한 호스트 차량(1105)과 동일한 차로에서 이동중인 한 대 이상의 타깃 차량(1110)을 검출한다. 이러한 상황에서, 주행 방침 모듈(803)은 호스트 차량(1105)의 속력을 조정하여 타깃 차량(1107)에 양보하고 타깃 차량(1115) 앞으로 진행하기로 결정할 수 있다. 이는 예를 들어 간격 선택 노드(919)로 진행함으로써 완수될 수 있는데, 간격 선택 노드(919)는 결과적으로 ID0(차량(1107))과 ID1(차량(1115)) 사이의 간격을 적합한 병합 간격으로 선택할 것이다. 이러한 경우, 병합 상황의 적합한 간격은 궤적 계획 최적화 문제에 대한 목적을 정의한다.
앞서 설명한 바와 같이, 옵션 그래프의 노드들은 스스로를 '중대'하다고 선언할 수 있고, 이로써 선택된 옵션이 중대한 노드들을 거쳐가도록 할 수 있다. 공식적으로, 각 노드는 IsCritical 함수를 실행할 수 있다. 옵션 그래프 상에서 루트로부터 리프까지의 포워드 패스(forward pass)를 수행하고 궤적 계획의 최적화 문제를 해결한 이후, 다시 리프로부터 루트까지의 백워드 패스(backward pass)가 수행될 수 있다. 이러한 백워드 패스를 따라, 모든 노드의 IsCritical 함수가 호출되고, 모든 중대한 노드의 목록이 저장될 수 있다. 다음 시간 프레임에 상응하는 포워드 경로에서, 주행 방침 모듈(803)은 중대한 노드를 모두 거쳐가는 루트 노드로부터 리프까지의 경로를 선택하도록 요구될 수 있다.
도 11a 내지 도 11c는 이 방법의 잠재적 장점을 보여주기 위해 활용될 수 있다. 예를 들면, 점유 동작이 시작되고 주행 방침 모듈(803)이 IDk에 상응하는 리프에 도달하는 상황에서, 호스트 차량이 점유 동작 중에 있는 경우에 예를 들어 유지 노드(909)를 선택하는 것은 바람직하지 않을 것이다. 이러한 불안정(jumpiness)을 피하기 위해, IDj 노드는 스스로를 중대한 노드로 지정할 수 있다. 동작 중에, 궤적 계획의 성공이 모니터 될 수 있고, IsCritical 함수는 점유 동작이 의도한 대로 진행될 경우에 ‘True’ 값을 산출할 것이다. 이 방식은 다음 시간 프레임에서 점유 동작이 계속될 것을(초기에 선택된 동작의 완료 이전에 잠재적으로 일관되지 않은 다른 동작으로 건너뛰지 않고) 보장할 수 있다. 반면에, 동작의 모니터 결과, 선택된 동작이 의도한 대로 진행되지 않는 것으로 나타나는 경우, 또는 동작이 필요 없거나 불가능해진 경우, IsCritical 함수는 ‘False’ 값을 산출할 수 있다. 이로써, 간격 선택 노드가 다음 시간 프레임에서 다른 간격을 선택하거나 점유 동작을 아예 중단할 수 있다. 이 방식은 한 편으로는 각 시간 단계에서 옵션 그래프 상의 원하는 경로를 선언할 수 있게 해주는 반면, 다른 한 편으로는 실행의 중대한 부분에 있는 동안에 방침의 안정성을 도모할 수 있다.
하기에 상세히 설명할 하드 제약은 항법 욕구와 구별될 수 있다. 예를 들면, 하드 제약은 예정 항법 동작의 필터링 레이어를 추가함으로써 안전한 운전을 기할 수 있다. 강화 학습에 기반한 학습 시스템의 활용을 통하기 보다는 수동으로 프로그램 및 정의될 수 있는 시사된 하드 제약은 감지된 상태로부터 판단될 수 있다. 그러나, 일부 실시예에서, 학습 시스템은 적용되고 준수할 해당 하드 제약을 학습할 수 있다. 이러한 방법은 추후 수정이 필요할 수 있는 선택된 동작을 감소 또는 제거할 수 있는 해당 하드 제약을 이미 준수하는 선택된 동작에 도달하는 주행 방침 모듈(803)이 해당 하드 제약을 준수하게 도모할 수 있다. 그러나, 다중 안전 조치로서, 주행 방침 모듈(803)이 미리 정해진 하드 제약을 담당하도록 학습된 상황에서마저 주행 방침 모듈(803)의 출력에 하드 제약이 적용될 수 있다.
잠재적 하드 제약에는 많은 예가 있다. 예를 들면, 하드 제약은 도로의 가장자리에 있는 가드레일과 함께 정의될 수 있다. 어느 경우에도 호스트 차량이 가드레일을 통과하도록 해서는 안된다. 이러한 규칙은 호스트 차량의 궤적에 대한 횡방향 하드 제약을 초래한다. 하드 제약의 다른 예에는 도로 턱(예, 속도방지턱)이 포함될 수 있다. 즉, 방지턱 이전과 통과시의 속력에 대한 하드 제약을 초래할 수 있다. 하드 제약은 안전에 결정적인 것으로 간주될 수 있으므로 학습 동안에 제약을 학습하는 학습 시스템에만 의존하기보다는 수동으로 정의될 수 있다.
하드 제약과 대조적으로, 욕구의 목표는 편안한 주행일 수 있다. 앞서 설명한 바와 같이, 욕구의 예에는 호스트 차량 차로의 중앙에 상응하는 차로 내의 횡방향 위치에 호스트 차량을 위치시키고자 하는 목표가 포함될 수 있다. 다른 욕구는 들어갈 간격의 ID를 포함할 수 있다. 여기서, 호스트 차량이 차로의 중앙에 정확하게 있어야 한다는 요건은 없지만, 중앙에 최대한 가까이 있고자 하는 욕구는 호스트 차량이 차로의 중앙으로부터 이탈하는 경우에조차 차로의 중앙으로 이동하려는 경향을 보장할 수 있다. 욕구는 안전에 결정적이지 않을 수 있다. 일부 실시예에서, 욕구는 다른 운전자 및 보행자와의 절충을 요구할 수 있다. 욕구를 구성하기 위한 한 가지 방법은 옵션 그래프에 의존하는 것이며, 옵션 그래프의 적어도 일부 노드에 실행된 방침은 강화 학습에 기반할 수 있다.
러닝에 기반하여 학습된 노드로서 실행된 옵션 그래프(901 또는 1000)의 노드에 대하여, 학습 프로세스는 문제를 지도형 학습 단계와 강화 학습 단계로 분해하는 것을 포함할 수 있다. 지도형 학습 단계에서,
Figure pct00046
이 성립되도록
Figure pct00047
로부터
Figure pct00048
로의 구별 가능한 매핑이 학습될 수 있다. 이는 '모델 기반' 강화 학습과 유사할 수 있다. 그러나, 네트워크의 포워드 루프(forward loop)에서,
Figure pct00049
Figure pct00050
의 실제값으로 대체될 수 있고, 따라서 오차 누적의 문제를 제거할 수 있다.
Figure pct00051
의 예측의 역할은 미래로부터의 메시지를 과거의 동작으로 다시 전파하는 것이다. 이러한 차원에서, 알고리즘은 '모델 기반' 강화 학습과 '방침 기반 학습'의 조합일 수 있다.
일부 상황에서 제공될 수 있는 중요한 한 요소는 미래의 손실/보상으로부터 다시 동작에 대한 결정으로의 구별 가능한 경로이다. 옵션 그래프 구조에서 안전 제약이 관여된 옵션의 실행은 보통 구별 가능하지 않다. 이 문제를 극복하기 위하여, 학습된 정책 노드에서 자식의 선택은 추계적(stochastic)일 수 있다. 즉, 노드는 특정 노드의 자식 각각의 선택에 활용되는 확률을 부여하는 확률 벡터 p를 출력할 수 있다. 한 노드에 k만큼의 자식이 있고
Figure pct00052
가 각 자식부터 리프까지의 경로의 동작이라고 가정하면, 결과적으로 예측된 동작은 동작에서 p까지의 구별 가능한 경로가 될 수 있는
Figure pct00053
Figure pct00054
이다. 실제로, 동작
Figure pct00055
Figure pct00056
에 대해
Figure pct00057
로 뽑힐 수 있고,
Figure pct00058
Figure pct00059
사이의 차이는 상가성 잡음(additive noise)으로 불릴 수 있다.
Figure pct00060
,
Figure pct00061
를 고려한
Figure pct00062
의 학습에서, 지도형 학습을 실제 데이터와 함께 활용할 수 있다. 노드의 방침을 학습시키기 위해, 시뮬레이터가 사용될 수 있다. 추후에, 실제 데이터를 사용하여 방침을 미세 조정할 수 있다. 두 가지 개념을 통해 시뮬레이션이 더욱 현실적이 될 수 있다. 첫째, 모방을 활용하여, '행동 복제(behavior cloning)' 패러다임을 사용하고 큰 실제 데이터 세트를 사용하여 초기 방침이 구성될 수 있다. 일부의 경우, 그 결과의 에이전트(agent)가 적합할 수 있다. 다른 경우, 그 결과의 에이전트는 적어도 도로상의 다른 에이전트에 대한 매우 훌륭한 초기 방침을 형성한다. 둘째, 셀프 플레이(self-play)를 활용하여, 우리 자신의 방침을 사용하여 학습을 증강시킬 수 있다. 예를 들어, 경험될 수 있는 다른 에이전트(차/보행자)의 초기 실행을 고려할 때, 방침은 시뮬레이터에 의거하여 학습될 수 있다. 다른 에이전트의 일부는 새로운 방침으로 대체될 수 있고, 프로세스는 반복될 수 있다. 그 결과, 방침은 다른 차원의 세련도를 가진 더욱 다양한 다른 에이전트에 대응해야 하므로 지속적으로 향상될 수 있다.
나아가, 일부 실시예에서, 시스템은 멀티-에이전트(multi-agent) 방식을 실행할 수 있다. 예를 들면, 시스템은 다양한 소스로부터의 데이터 및/또는 여러 각도에서 캡처하는 이미지를 고려할 수 있다. 또한, 호스트 차량이 직접 관여되지 않지만 호스트 차량에 영향을 미치는 이벤트의 예상이 고려되거나, 심지어 다른 차량이 관여된 예측할 수 없는 상황을 초래할 수 있는 이벤트의 예상이 고려될 수 있으므로(예, 레이더가 호스트 차량에 영향을 미칠 피할 수 없는 또는 매우 가능성이 높은 이벤트와 선두 차량을 '간파'할 수 있음), 일부 기재된 실시예는 에너지의 경제를 제공할 수 있다.
부과된 항법 제약이 있는 학습 시스템
자율 주행의 맥락에서, 한 가지 중요한 관심사는 학습 항법 네트워크의 학습된 방침이 안전할지를 어떻게 보장하느냐는 것이다. 일부 실시예에서, 주행 방침 시스템은 학습 시스템에 의해 선택된 동작이 해당 안전 제약의 이유가 이미 될 수 있도록 제약을 활용하여 학습될 수 있다. 또한, 일부 실시예에서, 학습 시스템의 선택된 동작을 호스트 차량의 주변상황 내의 특정 감지된 장면에 의해 연루된 하나 이상의 하드 제약을 거쳐가게 함으로써 추가적인 안전 레이어가 제공될 수 있다. 이러한 접근을 통해, 호스트 차량에 의해 취해진 동작이 해당 안전 제약을 만족하는 것으로 확인된 동작으로 제한됐음을 확실히 할 수 있다.
그 핵심에서, 항법 시스템은 관찰된 상태를 하나 이상의 원하는 동작으로 매핑하는 방침 함수에 의거한 학습 알고리즘을 포함할 수 있다. 일부 실시예에서, 학습 알고리즘은 심층 학습 알고리즘이다. 원하는 동작은 차량에 대한 기대 보상을 극대화할 것으로 예상되는 적어도 하나의 동작을 포함할 수 있다. 일부의 경우에서는 차량이 취한 실제 동작이 원하는 동작의 하나에 상응할 수 있는 반면, 다른 경우에서는 차량이 취한 실제 동작은 관찰된 상태, 하나 이상의 원하는 동작, 및 학습 항법 엔진에 부과된 학습되지 않은 하드 제약(예, 안전 제약)에 의거하여 판단될 수 있다. 이러한 제약은 다양한 유형의 검출된 물체(예, 타깃 차량, 보행자, 도로변 또는 도로 내의 고정 물체, 도로변 또는 도로 내의 이동 물체, 가드레일 등)를 둘러싼 주행 금지 구역을 포함할 수 있다. 일부의 경우, 주행 금지 구역의 크기는 검출된 물체의 검출된 움직임(예, 속력 및/또는 방향)에 따라 다를 수 있다. 기타 제약에는 보행자의 영향 구역 이내에서 통과하는 경우의 최고 이동 속력, 최고 감속(호스트 차량 후방의 타깃 차량 공간을 고려하기 위함), 감지된 횡단보도 또는 철도 건널목에서의 의무적 정지 등이 포함될 수 있다.
머신 러닝을 통해 학습된 시스템과 함께 활용되는 하드 제약은 학습 시스템의 출력에만 의거하여 가능한 안전 수준을 능가할 수 있는 자율 주행의 안전 수준을 제공할 수 있다. 예컨대, 머신 러닝 시스템은 원하는 제약 세트를 학습 가이드라인으로 활용하여 학습될 수 있고, 따라서 학습 시스템은 해당 항법 제약의 한계의 이유가 되고 해당 항법 제약의 한계를 따르는 감지된 항법 상태에 대응하여 동작을 선택할 수 있다. 그래도, 학습 시스템은 항법 동작을 선택하는데 있어서 약간의 유연성이 있고, 따라서 학습 시스템에 의해 선택된 동작이 관련 항법 제약을 엄격하게 따르지 않을 수 있는 적어도 일부 상황이 있을 수 있다. 따라서, 선택된 동작이 관련 항법 제약을 엄격히 따르도록 하기 위하여, 학습 시스템의 출력은 관련 항법 제약의 엄격한 적용을 보장하는 학습 프레임워크 외부의 비머신러닝 요소(non-machine learning component)를 활용하여 병합, 비교, 여과, 조정, 수정 등이 될 수 있다.
하기의 설명은 학습 시스템과 학습 시스템을 학습 프레임워크 외부의 알고리즘적 요소와 병합함으로써 얻을 수 있는 잠재적 혜택(특히 안전의 관점에서)에 관한 추가적인 내용을 제공한다. 설명한 바와 같이, 방침에 의한 강화 학습 목적은 확률적 경사 상승(stochastic gradient ascent)을 통해 최적화될 수 있다. 목적(예, 예상 보상)은
Figure pct00063
로 정의될 수 있다.
예상을 포함하는 목적이 머신러닝 상황에서 활용될 수 있다. 그러나 항법 제약에 얽매이지 않는 이러한 목적은 상기 제약에 엄격히 얽매이는 동작을 산출하지 않을 수 있다. 예를 들어, 회피할 흔치 않은 '코너' 이벤트(예, 사고)를 나타내는 궤적에 대해
Figure pct00064
이고 나머지 궤적에 대해
Figure pct00065
인 보상 함수를 고려할 때, 학습 시스템의 한 가지 목표는 점유 동작을 수행하도록 학습하는 것일 수 있다. 일반적으로, 사고가 없는 궤적에서
Figure pct00066
는 성공적이고 원활한 점유를 보상하지만 점유를 완료하지 않고 차로에 남아있는 것을 처벌할 것이고, 따라서 [-1, 1] 범위가 될 것이다. 시퀀스
Figure pct00067
가 사고를 나타내는 경우, 보상
Figure pct00068
는 이런 일이 발생되지 않도록 하기 충분한 높은 처벌을 제공해야 한다. 문제는, 무사고 운전을 보장하기 위해서는
Figure pct00069
의 값이 무엇이 되어야 하느냐는 것이다.
Figure pct00070
상의 사고의 영향이 애디티브 텀(additive term)
Figure pct00071
이고, 여기서 p는 사고 이벤트가 있는 궤적의 확률 질량(probability mass)일 때, 이 텀이 무시할 수 있는 경우라면, 즉,
Figure pct00072
라면, 학습 시스템은 방어적이면서 일부 점유 동작을 성공적으로 완료하지 않는 방침보다는 점유 동작을 성공적으로 완료하기 위하여 사고를 수행(또는 일반적으로 난폭 운전 방침을 채택)하는 방침을 더 선호할 수 있다. 다시 말해, 사고의 확률이 최고 p이어야 할 경우,
Figure pct00073
Figure pct00074
이 되도록 설정되어야 한다. P는 매우 작은(예, 대략 p = 10-9) 것이 바람직할 수 있다. 따라서,
Figure pct00075
은 커야 한다. 폴리시 그래디언트(policy gradient)에서,
Figure pct00076
의 그래디언트는 추정될 수 있다. 다음의 렘마(lemma)에서 알 수 있듯이, 확률변수
Figure pct00077
의 분산은
Figure pct00078
로 증가하고, 이는
Figure pct00079
에 대해
Figure pct00080
보다 크다. 따라서, 목적의 추정은 어려울 수 있고, 그 그래디언트의 추정은 더욱 어려울 수 있다.
확률 p
Figure pct00081
이 획득되고 확률 1- p
Figure pct00082
이 획득되도록 π0이 방침이고 p r이 스칼라(scalar)이라고 하면,
Figure pct00083
이다.
여기서, 최종 근사값은
Figure pct00084
의 경우에 대해 유효하다.
본 설명은
Figure pct00085
형태의 이의는 분산 문제를 야기하지 않고 기능 안전성(functional safety)을 보장하지 않을 수도 있음을 보여준다. 문제는 높은 분산의
Figure pct00086
에서 추정이 수치 불안정 문제를 똑같이 안고 있을 똑같이 높은 분산의 베이스라인 상수로 이동할 것이기 때문에 분산 감소에 대한 베이스라인 감산(baseline subtraction) 방법은 문제에 대한 충분한 해결을 제공하지 않을 수도 있다. 또한, 사고의 확률이 p라고 하면, 사고 이벤트를 획득하기 전에 평균적으로 적어도 1/p 시퀀스가 샘플링 되어야 한다. 이는
Figure pct00087
를 최소화 하고자 하는 학습 알고리즘에 대한 시퀀스의 1/p 샘플의 하한(lower bound)을 시사한다. 이 문제에 대한 해법은 수치상 조절 방식을 통하기 보다는 여기에 설명하는 아키텍처 설계에서 찾을 수 있다. 여기에 설명하는 접근법은 하드 제약은 학습 프레임워크 외부에 주입돼야 한다는 개념에 의거한다. 즉, 방침 함수는 학습 가능 부분과 학습 불가능 부분으로 분해될 수 있다. 형식상, 방침 함수는
Figure pct00088
의 구조일 수 있는데, 여기서
Figure pct00089
는 (애그노스틱(agnostic)) 상태 공간을 욕구의 집합(예, 원하는 항법 목표 등)으로 매핑하는 반면,
Figure pct00090
는 욕구를 궤적(차량의 단거리 이동 방법을 판단)으로 매핑한다. 함수
Figure pct00091
는 안락한 주행과, 어느 차를 추월하거나 양보할 것인지 및 차로 내에서 호스트 차량이 원하는 위치가 어디인지 등과 같은, 전략적 결정을 담당한다. 감지된 항법 상태로부터 욕구로의 매핑은 기대 보상을 극대화하여 경험으로부터 학습될 수 있는 방침
Figure pct00092
이다.
Figure pct00093
에 의해 생성된 욕구는 주행 궤적에 걸쳐 비용 함수로 변환될 수 있다. 학습된 함수가 아닌 함수
Figure pct00094
는 기능 안전성에 대한 하드 제약에 구속되는 비용을 최소화하는 궤적을 찾음으로써 실행될 수 있다. 이러한 분해는 기능 안전성을 보장함과 동시에 안락한 주행을 제공할 수 있다.
도 11d에 도시된 바와 같은 이중 병합 항법 상황은 이러한 개념을 더 보여주는 예를 제공한다. 이중 병합에서는, 차량들이 좌우측 모두로부터 병합 구역(1130)에 접근한다. 또한, 각 측으로부터, 차량(1133) 또는 차량(1135)과 같은 차량은 병합 구역(1130)의 타측에 있는 차로로 병합할지 여부를 결정할 수 있다. 붐비는 교통에서 이중 병합을 성공적으로 실행하려면 상당한 절충 기술과 경험이 있어야 할 수 있고, 장면 내의 모든 에이전트가 취할 수 있는 모든 가능한 궤적을 나열하여 휴리스틱(heuristic) 또는 브루트 포스(brute force) 기법으로 실행하기도 어려울 수 있다. 본 이중 병합의 예에서, 이중 병합 동작에 적합한 욕구의 집합
Figure pct00095
가 정의될 수 있다.
Figure pct00096
는 집합
Figure pct00097
의 데카르트 곱(Cartesian product)일 수 있다. 여기서, [0, v max]는 호스트 차량의 원하는 목표 속력이고, L {1, 1.5, 2, 2.5, 3, 3.5, 4}는 정수는 차로 중앙을 나타내고 분수는 차로 경계를 나타내는 차로 단위 내의 원하는 횡방향 위치이고, {g, t, o}는 n대의 다른 차량들 각각에 지정된 분류 라벨이다. 다른 차량들에는, 호스트 차량이 양보해야 할 경우에 "g"가 배정되고, 다른 차량에 대해 점유해야 할 경우에 "t"가 배정되고, 다른 차량에 대한 오프셋 거리를 유지해야 할 경우에 "o"가 배정될 수 있다.
이하, 욕구의 집합
Figure pct00098
를 주행 궤적에 걸쳐 비용 함수로 변환하는 방법에 대해 설명한다. 주행 궤적은
Figure pct00099
로 나타낼 수 있고, 여기서,
Figure pct00100
는 시간
Figure pct00101
에서 호스트 차량의 (횡방향, 종방향) 위치(자아중심적 단위)이다. 일부 실험에서,
Figure pct00102
이고, k = 10이다. 물론, 다른 값도 선택될 수 있음은 당연하다 할 것이다. 궤적에 배정된 비용은 횡방향 위치, 원하는 속력에 배정된 개별 비용, 및 n대의 다른 차량들 각각에 배정된 라벨의 가중합을 포함할 수 있다.
원하는 속력
Figure pct00103
를 고려할 때, 속력과 연관된 궤적의 비용은 다음과 같다.
Figure pct00104
원하는 횡방향 위치
Figure pct00105
을 고려할 때, 원하는 횡방향 위치와 연관된 비용은 다음과 같다.
Figure pct00106
여기서, dist(x, y, l)은 (x , y) 점으로부터 위치 l까지의 거리이다. 다른 차량들로 인한 비용에 관하여,
Figure pct00107
는 호스트 차량의 자아중심적 단위(egocentric units)로 나타낸 다른 차량일 수 있고, i는 (x i , y i )와 (x' j , y' j ) 사이의 거리가 작도록 j가 존재하는 가장 빠른 지점일 수 있다. 이러한 지점이 없는 경우, ii = ∞로 설정될 수 있다. 다른 차가 "양보"로 분류되는 경우,
Figure pct00108
가 바람직할 수 있다. 이는 호스트 차량이 궤적 교차 지점으로 다른 차량보다 적어도 0.5초 나중에 도착할 것이라는 것을 의미한다. 상기 제약을 비용으로 변환하기 위해 가능한 한 가지 공식은
Figure pct00109
이다.
마찬가지로, 다른 차가 "점유"로 분류되는 경우,
Figure pct00110
가 바람직할 수 있고, 이는 비용
Figure pct00111
로 변환될 수 있다. 다른 차가 "오프셋"으로 분류되는 경우, i = ∞가 바람직할 수 있고, 이는 호스트 차량의 궤적과 오프셋 차량의 궤적이 교차하지 않음을 의미한다. 이 조건은 궤적 간의 거리에 대하여 처벌함으로써 비용으로 변환될 수 있다.
이러한 비용 각각에 가중치를 부여함으로써 궤적 계획
Figure pct00112
에 대한 단일 목적 함수를 제공할 수 있다. 가급적 부드러운 주행을 하도록 하는 비용이 목적에 추가될 수 있다. 또한, 궤적의 기능 안전성을 보장하기 위하여, 하드 제약이 목적에 추가될 수 있다. 예를 들어, (x i , y i )는 도로 이탈이 금지될 수 있고, (x i , y i )는 |i - j|가 작은 경우에 다른 차량의 궤적 지점 (x' j , y' j )에 대해 (x' j , y' j )에 근접하는 것이 금지될 수 있다.
요약하면, 방침
Figure pct00113
는 애그노스틱 상태로부터 욕구의 집합으로의 매핑과 욕구로부터 실제 궤적으로의 매핑으로 분해될 수 있다. 후자의 매핑은 학습에 기반한 것이 아니며, 그 비용이 욕구에 따라 다르고 그 하드 제약이 방침의 기능 안전성을 보장할 수 있는 최적화 문제를 풀어서 실행될 수 있다.
이하, 애그노스틱 상태로부터 욕구의 집합으로의 매핑에 대해 설명한다. 앞서 설명한 바와 같이, 기능 안전성을 준수하기 위하여, 강화 학습에만 의존하는 시스템은 보상
Figure pct00114
의 분산이 너무 크고 다루기 어려운 문제가 있을 수 있다. 이러한 결과는 문제를 폴리시 그래디언트 반복을 활용한 (애그노스틱) 상태 공간으로부터 욕구의 집합으로의 매핑 후 머신 러닝에 기반하여 학습된 시스템을 개입시키지 않는 실제 궤적으로의 매핑으로 분해하여 회피될 수 있다.
다양한 이유 때문에, 의사 결정은 의미론적으로 의미 있는 요소로 더 분해될 수 있다. 예컨대,
Figure pct00115
의 사이즈는 클 수도 있고, 연속적일 수 있다. 앞서 도 11d를 참조하여 설명한 이중 병합 상황에서,
Figure pct00116
이다. 또한, 그래디언트 추정기(gradient estimator)는 기간
Figure pct00117
를 포함할 수 있다. 이러한 표현에서, 분산은 시간지평(time horizon) T와 함께 증가할 수 있다. 일부의 경우, T의 값은 대략 250일 수 있는데, 이는 상당한 분산을 일으킬 만큼 높은 값일 수 있다. 샘플링 속도가 10Hz 범위이고 병합 구역(1130)이 100미터라고 가정하면, 병합을 위한 준비는 병합 구역의 약 300미터 앞에서 시작할 수 있다. 호스트 차량이 초속 16미터(시속 약 60km)로 이동할 경우, 사건에 대한 T의 값은 대략 250일 수 있다.
다시 옵션 그래프의 개념으로 돌아와서, 도 11d에 도시된 이중 병합 상황을 나타낼 수 있는 옵션 그래프가 도 11e에 도시되어 있다. 앞서 설명한 바와 같이, 옵션 그래프는 DAG로 정리된 결정의 계층적 집합을 나타낸 것일 수 있다. 그래프에는 '루트' 노드(1140)로 불리는 특별 노드가 있을 수 있다. 루트 노드는 그 안으로 들어오는 선(예, 결정 라인)이 없는 유일한 노드일 수 있다. 결정 프로세스는 루트 노드에서 시작하여 더 이상 나가는 선이 없는 노드를 말하는 '리프' 노드에 도달할 때까지 그래프를 횡단할 수 있다. 각 내부 노드는 유효한 자식들 중에서 자식을 선택하는 방침 함수를 실행할 수 있다. 옵션 그래프에 걸친 횡단 집합으로부터 욕구의 집합
Figure pct00118
로의 미리 정의된 매핑이 있을 수 있다. 즉, 옵션 그래프 상의 횡단은 자동으로
Figure pct00119
의 욕구로 변환될 수 있다. 그래프의 노드 v를 고려할 때, 파라미터 벡터 θv는 v의 자식을 선택하는 방침을 명시할 수 있다. θ가 모든 θv ,의 연속이라면,
Figure pct00120
는 그래프의 루트에서 리프까지 횡단함으로써 정의될 수 있고, 각 노드 v에서 θv 의해 정의된 방침을 활용하여 자식 노드를 선택할 수 있다.
도 11e의 이중 병합 옵션 그래프에서, 루트 노드(1140)는 우선 호스트 차량이 병합 구역(예, 도 11d의 1130) 내에 있는지 또는 호스트 차량이 병합 구역에 접근하고 있고 병합 준비를 해야 하는지 여부를 결정할 수 있다. 양 경우 모두에서, 호스트 차량은 차로를 변경(예, 좌측 또는 우측으로)할 것인지 또는 현재 차로에 남아있을 것인지를 결정할 수 있다. 호스트 차량이 차로를 변경하기로 결정한 경우, 호스트 차량은 이 결정을 진행하고 차로 변경 동작을 수행(예, '진행' 노드(1142)에서)하기 적합한 조건인지 여부를 결정할 필요가 있을 수 있다. 차로 변경이 가능하지 않은 경우, 호스트 차량은 차로 표시를 향함으로써 원하는 차로로 '끼어들기' 시도(예, 노드(1144)에서 원하는 차로 내의 차량과의 절출의 일환으로)를 할 수 있다. 또는, 호스트 차량은 동일 차로에 '유지'하기로(예, 노드(1146)) 할 수 있다. 이러한 프로세스는 자연스러운 방식으로 호스트 차량에 대한 횡방향 위치를 결정할 수 있다.
이에 따라 원하는 횡방향 위치를 자연스러운 방식으로 가능하게 할 수 있다. 예를 들어, 호스트 차량이 2차선에서 3차선으로 차로를 변경하는 경우, '진행' 노드는 원하는 횡방향 위치를 3으로 설정할 수 있고, '유지' 노드는 원하는 횡방향 위치를 2로 설정할 수 있고, '끼어들기' 노드는 원하는 횡방향 노드를 2.5로 설정할 수 있다. 다음으로, 호스트 차량은 '정속'(1148)을 유지할지, '가속'(1150)을 할지, 또는 '감속'(1152)을 할지를 결정할 수 있다. 다음으로, 호스트 차량은 다른 차량들을 검토하고 그 차량들의 의미론적 의미를 {g, t, o} 집합 내의 값으로 설정하는 '사슬 형태' 구조(1154)에 들어갈 수 있다. 이러한 프로세스는 다른 차량들에 대한 상대적인 욕구를 설정할 수 있다. 이러한 사슬 내의 모든 노드의 파라미터는 공유될 수 있다(순환 신경망(Recurrent Neural Networks)과 유사).
옵션의 잠재적 혜택은 결과의 설명 가능성이다. 또 다른 잠재적 혜택은 집합
Figure pct00121
의 분해 가능한 구조를 신뢰할 수 있고, 따라서 각 노드에서의 방침이 적은 수의 가능성에서 선택될 수 있다는 것이다. 또한, 이 구조는 폴리시 그래디언트 추정기의 분산을 감소시킬 수 있다.
앞서 설명한 바와 같이, 이중 병합 상황에서 사건의 길이는 대략 T = 250 단계일 수 있다. 이러한 값(또는 특정 항법 상황에 따른 기타 적합한 값)은 호스트 차량 동작의 결과를 볼 수 있는 충분한 시간을 제공할 수 있다(예, 호스트 차량이 병합에 대한 준비로 차로를 변경하기로 결정한 경우, 호스트 차량은 병합의 성공적 완료 이후에만 그 혜택을 볼 것이다). 반면에, 운전의 역학으로 인해, 호스트 차량은 충분히 빠른 빈도로 결정을 내려야 한다(예, 상기 설명한 경우에는 10Hz).
옵션 그래프는 적어도 두 가지 방법으로 T의 유효값의 감소를 가능하게 할 수 있다. 첫째, 높은 수준의 결정을 고려할 때, 보상은 짧은 사건을 고려하면서 낮은 수준의 결정에 대해 정의될 수 있다. 예를 들면, 호스트 차량이 이미 '차로 변경'과 '진행' 노드를 선택한 경우, 2-3초(T가 250 대신에 20-30이 됨을 의미)의 사건을 바라봄으로써 의미론적 의미의 차량 배정에 대한 방침이 학습될 수 있다. 둘째, 높은 수준의 결정(차로를 변경할 것인지 또는 동일 차로를 유지할 것인지 등)에 대하여, 호스트 차량이 0.1초마다 결정을 내리지 않아도 될 수 있다. 대신에, 호스트 차량은 낮은 빈도(예, 1초마다)로 결정을 내리거나 '옵션 중단' 함수를 실행할 수 있고, 그래디언트는 옵션의 매번 중단 이후에 계산될 수 있다. 두 경우 모두, T의 유효값은 원래 값보다 작은 규모 정도일 수 있다. 대체로, 각 노드에서의 추정기는 즉시 작은 분산으로 바꿀 수 있는 원래의 250 단계보다 작은 정도인 T의 값에 달려있을 수 있다.
앞서 설명한 바와 같이, 하드 제약은 안전 운전 도모에 기여할 수 있으며, 여러 다른 유형의 제약이 있을 수 있다. 예를 들면, 정적 하드 제약은 감지 상태로부터 직접 정의될 수 있다. 여기에는 차량 속력, 진행 방향, 가속, 제동(감속) 등에 대한 하나 이상의 제약을 시사할 수 있는 호스트 차량의 주변상황 내의 속도방지턱, 속도제한표지판, 도로 만곡, 교차로 등이 포함될 수 있다. 정적 하드 제약에는 또한 호스트 차량의 이탈과 물리적 배리어 등에 지나친 근접이 금지되는 의미론적 빈 공간도 포함될 수 있다. 정적 하드 제약은 또한 차량의 운동학적 움직임의 다양한 양상에 따르지 않는 동작을 제한(예, 금지)할 수 있다. 예컨대, 호스트 차량이 뒤집어지거나, 미끄러지거나, 기타 제어력을 잃을 수 있는 동작을 금지하도록 정적 하드 제약을 활용할 수 있다.
하드 제약은 또한 차량과 연관될 수 있다. 예를 들어, 제약은 차량이 다른 차량들과 적어도 1미터의 종방향 거리와 적어도 0.5미터의 횡방향 거리를 유지할 것을 요구하며 적용될 수 있다. 제약은 또한 호스트 차량이 한 대 이상의 다른 차량들과의 충돌 진로를 유지하는 것을 회피하도록 적용될 수 있다. 예를 들면, 시간 τ는 특정 장면에 의거한 시간 척도일 수 있다. 호스트 차량과 한 대 이상의 다른 차량들의 예상 궤적은 현재 시간으로부터 시간 τ까지 고려될 수 있다. 두 궤적이 교차하는 지점에서,
Figure pct00122
는 차량 i의 교차점 도착 시간과 출발 시간을 나타내는 것일 수 있다. 즉, 각 차량은 차량의 첫 부분이 교차점을 통과할 때 교차점에 도달할 것이고, 차량의 끝 부분이 교차점을 통과할 때까지 어느 정도의 시간이 필요할 것이다. 이 시간이 도착 시간과 출발 시간을 분리한다.
Figure pct00123
(즉, 차량 1의 도착 시간이 차량 2의 도착 시간보다 작음)라고 가정하면, 차량 2가 도착하기 전에 차량 1이 교차점을 출발했어야 할 것이다. 그렇지 않으면, 충돌이 일어날 것이다. 따라서, 하드 제약은
Figure pct00124
가 되도록 실행될 수 있다. 또한, 차량 1과 차량 2가 최소의 시간에 의해 서로 비껴가지 않게 하기 위하여, 제약에 버퍼 시간(예, 0.5초 또는 기타 적합한 값)을 추가함으로써 추가 안전 한도가 확보될 수 있다. 두 차량의 예상 교차 궤적에 관한 하드 제약은
Figure pct00125
로 표현될 수 있다.
호스트 차량과 한 대 이상의 다른 차량들의 궤적이 추적되는 시간 τ는 다를 수 있다. 그러나, 속도가 느린 것이 특징인 교차로 상황에서, τ는 더 길 수 있고, 호스트 차량이 τ초보다 짧은 시간에 교차로에 진입 및 진출하도록 τ가 정의될 수 있다.
물론, 차량 궤적에 하드 제약을 적용하려면 이러한 차량들의 궤적이 예측되어야 한다. 호스트 차량은 일반적으로 항상 의도된 궤적을 이미 알고 있고 실제로 그 궤적을 따를 계획이므로, 호스트 차량에 대한 궤적 예측은 상대적으로 간단할 수 있다. 그러나 다른 차량들에 대한 궤적 예측은 그리 간단하지 않을 수 있다. 다른 차량들에 대한 예상 궤적을 판단하기 위한 베이스라인 계산은 호스트 차량에 탑재된 하나 이상의 카메라 및/또는 다른 센서들(레이더, 라이더, 음향 센서 등)에 의해 캡처된 이미지 스트림의 분석 등에 의거하여 판단된 다른 차량들의 현재 속력과 진행 방향에 의존할 수 있다.
그러나, 문제를 단순화 하거나 다른 차량에 대해 예측된 궤적에 적어도 신뢰도를 추가적으로 제공할 수 있는 일부 예외가 있을 수 있다. 예를 들면, 차로 표시가 있고 양보 규칙이 있는 체계적인 도로에 대하여, 다른 차량들의 궤적은 차로에 대한 다른 차량들의 상대적 위치와 적용 가능한 양보 규칙에 적어도 부분적으로 기반할 수 있다. 따라서, 일부의 경우에서, 관찰된 차로 구조가 있는 경우, 옆차로의 차량이 차로 경계를 준수할 것이라고 추정할 수 있다. 즉, 호스트 차량은 옆차로의 차량이 호스트 차량의 차로로 끼어들어 올 것이라는 것을 나타내는 특별히 관찰된 증거(예, 신호등, 빠른 횡방향 이동, 차로 경계를 넘는 이동)가 없는 한, 차선을 유지할 것이라고 추정할 수 있다.
다른 상황들도 다른 차량들의 예상 궤적에 관한 단서를 제공할 수 있다. 예를 들면, 호스트 차량이 선행권이 있는 일시정지표지판, 신호등, 로터리 등에서는, 다른 차량들이 선행권을 준수할 것이라고 추정할 수 있다. 따라서, 규칙 위반의 증거가 관찰되지 않는 한, 다른 차량들이 호스트 차량이 가진 선행권을 준수하는 궤적을 따라 진행할 것이라고 추정할 수 있다.
하드 제약은 또한 호스트 차량의 주변상황 내의 보행자와 관련하여 적용될 수 있다. 예를 들면, 호스트 차량이 관찰된 보행자에 대한 미리 정해진 버퍼 거리보다 가까이 주행하지 못하게 하도록 보행자에 대한 버퍼 거리가 설정될 수 있다. 보행자 버퍼 거리는 적합한 거리이면 아무 거리라도 상관 없다. 일부 실시예에서, 버퍼 거리는 관찰된 보행자에 대해 적어도 1미터일 수 있다.
차량을 포함한 상황과 마찬가지로, 하드 제약은 보행자와 호스트 차량 사이의 상대 운동에 대하여 적용될 수도 있다. 예를 들면, 보행자의 궤적(진행방향과 속력에 의거)은 호스트 차량의 예상 궤적에 대하여 모니터링 될 수 있다. 특정 보행자 궤적을 고려할 때, 궤적 상의 각 지점 p에서 t(p)는 보행자가 지점 p에 도달하기 위해 필요한 시간을 나타내는 것일 수 있다. 보행자로부터 1미터의 요구 버퍼 거리를 유지하기 위하여, t(p)는 호스트 차량이 지점 p에 도달하는 시간보다 크거나(호스트 차량이 보행자 앞에서 적어도 1미터의 거리를 두고 통과하기에 충분한 시간차) 호스트 차량이 지점 p에 도달하는 시간보다 작야야(예, 호스트 차량이 제동을 하여 보행자에게 양보) 한다. 그러나, 후자의 경우에도, 하드 제약은 호스트 차량이 보행자 뒤로 통과하고 적어도 1미터의 필요한 버퍼 거리를 유지할 수 있도록 호스트 차량이 보행자보다 충분히 나중에 지점 p에 도달할 것을 요구할 것이다. 물론, 보행자 하드 제약에 예외가 있을 수 있다. 예컨대, 호스트 차량에 선행권이 있는 경우나 속력이 매우 느린 경우, 그리고 보행자가 호스트 차량에 양보하기를 거부하거나 아니면 호스트 차량을 향해 진행할 것이라는 증거가 관찰되지 않는 한, 보행자 하드 제약은 완화(예, 적어도 0.75미터 또는 0.5미터의 작은 버퍼로 축소)될 수 있다.
일부 예에서, 모든 제약이 준수될 수 없는 상황에서 제약은 완화될 수 있다. 예를 들면, 도로 양 측의 도로 경계석으로부터 또는 도로 경계석과 주차된 차량으로부터 요구 간격(예, 0.5미터)을 남겨두기에 도로가 너무 좁은 상황에서, 하나 이상의 제약은 정상 참작 상황이 있으면 완화될 수 있다. 예를 들면, 인도에 보행자(또는 기타 사물)가 없으면, 도로 경계석으로부터 0.1미터 거리에서 천천히 진행할 수 있다. 일부 실시예에서, 제약을 완화하는 것이 사용자 경험을 향상시킬 수 있다면 제약이 완화될 수 있다. 예를 들어, 포트홀(pothole)을 피하기 위하여, 차량이 평소에 허용되는 것보다 차로 가장자리, 도로 경계석, 또는 보행자에 가까이 주행할 수 있도록 제약이 완화될 수 있다. 또한, 어느 제약을 완화할 것이지 결정하는 경우에, 일부 실시예에서, 완화하기로 선택된 하나 이상의 제약은 안전에 가장 부정적인 영향이 없는 것으로 판단되는 것들이다. 예를 들면, 도로 경계석이나 콘크리트 배리어(barrier)에 얼마나 가까이 붙어서 이동할 수 있는지에 관한 제약은 다른 차량에 얼마나 가까이 붙어서 이동할 수 있는지에 관한 제약을 완화하기 이전에 완화될 수 있다. 일부 실시예에서, 보행자 제약은 최후에 완화되거나 일부의 경우에는 절대 완화되지 않을 수 있다.
도 12는 호스트 차량의 항법 중에 캡처 및 분석될 수 있는 장면의 예를 도시한 것이다. 예를 들면, 호스트 차량은 호스트 차량과 연관된 카메라(예, 이미지캡처장치(122, 124, 126) 중의 적어도 하나)로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있는 앞서 설명한 바와 같은 항법 시스템(예, 시스템(100))을 포함할 수 있다. 도 12에 도시된 장면은 예상 궤적(1212)을 따라 차로(1210)에서 이동하는 호스트 차량의 주변상황으로부터 시간 t에 캡처될 수 있는 이미지의 하나의 예이다. 항법 시스템은 복수의 이미지를 수신하고 분석하여 장면에 대응한 동작을 결정하도록 특별히 프로그램 된 적어도 하나의 처리 장치(예, 앞서 설명한 EyeQ 프로세서 또는 기타 장치)를 포함할 수 있다. 구체적으로, 적어도 하나의 처리 장치는 도8에 도시된 바와 같은 감지 모듈(801), 주행 방침 모듈(803), 및 제어 모듈(805)을 실행할 수 있다. 감지 모듈(801)은 카메라로부터 수집된 이미지 정보의 수집 및 출력하고 이 정보를 식별된 항법 상태의 형태로 지도형 학습, 강화 학습 등과 같은 머신 러닝 기술을 통하여 학습된 학습 항법 시스템을 구성할 수 있는 주행 방침 모듈(803)로 제공하는 역할을 담당할 수 있다. 감지 모듈(801)에 의해 주행 방침 모듈(803)로 제공된 항법 상태 정보에 의거하여, 주행 방침 모듈(803)은 식별된 항법 상태에 대응하여 호스트 차량에 의해 실행될 원하는 항법 동작을 생성할 수 있다.
일부 실시예에서, 적어도 하나의 처리 장치는 예를 들어 제어 모듈(805)을 활용하여 원하는 항법 동작을 항법 명령으로 직접 변환할 수 있다. 그러나, 다른 실시예에서, 주행 방침 모듈(803)에 의해 제공된 원하는 항법 동작을 장면 및 원하는 항법 동작에 의해 연루될 수 있는 다양한 미리 정해진 항법 제약에 비교하여 시험하도록 하드 제약이 적용될 수 있다. 예를 들어, 주행 방침 모듈(803)이 호스트 차량으로 하여금 궤적(1212)을 따라 가도록 하는 항법 동작을 출력하는 경우에, 호스트 차량의 주변상황의 다양한 양상과 연관된 하나 이상의 하드 제약을 상대로 이 항법 동작을 시험할 수 있다. 예를 들면, 캡처된 이미지(1201)은 장면 안에 존재하는 도로 경계석(1213), 보행자(1215), 타깃 차량(1217), 및 고정 물체(예, 뒤집혀 있는 상자)를 보여줄 수 있다. 이들 각각은 하나 이상의 하드 제약과 연관될 수 있다. 예들 들면, 도로 경계석(1213)은 호스트 차량이 도로 경계속 안쪽으로 또는 도로 경계석을 넘어 인도(1214)로 주행하지 못하게 하는 고정 제약(static constraint)과 연관될 수 있다. 도로 경계석(1213)은 또한 도로 경계석으로부터 떨어져서(예, 0.1미터, 0.25미터, 0.5미터, 1미터 등의 간격으로) 도로 경계석을 따라 이어지는 거리(예, 버퍼 구역)를 정의하여 호스트 차량에 대한 주행 금지 구역을 정의하는 도로 배리어 포락선(road barrier envelope)과 연관될 수 있다. 물론, 고정 제약은 다른 유형의 도로변 경계(예, 가드레일, 콘크리트 기둥, 원뿔형 도로표지, 파일론(pylon), 또는 기타 유형의 도로변 배리어)와도 연관될 수 있다.
여기서, 거리와 범위는 적합한 방법에 의해 판단될 수 있다. 예를 들어, 일부 실시예에서, 거리 정보는 탑재된 레이더 및/또는 라이더 시스템에 의해 제공될 수 있다. 대안적으로 또는 추가적으로, 거리 정보는 호스트 차량의 주변상황으로부터 캡처된 하나 이상의 이미지의 분석으로부터 도출될 수 있다. 예를 들면, 이미지에 표현된 인지된 물체의 픽셀 수가 판단되고 이미지캡처장치의 주지의 시야와 초점 거리 기하에 비교되어 비율과 거리를 판단할 수 있다. 속도와 가속도는 예를 들어 주지의 시간 간격에 이미지와 이미지 사이의 물체의 비율 변화를 관찰하여 판단될 수 있다. 이러한 분석은 호스트 차량을 향한 또는 호스트 차량으로부터 멀어지는 이동 방향 뿐만 아니라 물체가 호스트 차량으로부터 또는 호스트 차량을 향해 얼마나 빠르게 이동하고 있는지를 나타낼 수 있다. 가로지르는 속력은 주지의 시간 주기에 한 이미지로부터 다른 이미지까지의 물체의 X좌표 위치의 변화를 분석하여 판단될 수 있다.
보행자(1215)는 버퍼 구역(1216)을 정의하는 보행자 포락선(pedestrian envelope)과 연관될 수 있다. 일부의 경우, 부과된 하드 제약은 호스트 차량이 보행자(1215)로부터 1미터 이내의 거리(보행자에 대한 모든 방향)에서 주행하지 못하게 할 수 있다. 보행자(1215)는 또한 보행자 영향 구역(1220)의 위치를 정의할 수 있다. 이러한 영향 구역은 영향 구역 내에서 호스트 차량의 속력을 제한하는 제약과 연관될 수 있다. 영향 구역은 보행자(1215)로부터 5미터, 10미터, 20미터 등만큼 이어질 수 있다. 영향 구역의 각 단계적 차이는 다른 속도 제한과 연관될 수 있다. 예를 들면, 보행자(1215)로부터 1 내지 5미터의 구역 내에서, 호스트 차량은 5 내지 10미터 이어진 보행자 영향 구역의 속도 제한보다 작은 제1 속도(예, 시속 10킬로미터, 시속 30킬로미터 등)로 제한될 수 있다. 영향 구역의 다양한 단계에 대한 모든 가능한 단계적 차이가 활용될 수 있다. 일부 실시예에서, 제1 단계는 1 내지 5미터보다 좁고 1 내지 2미터만 이어질 수 있다. 다른 실시예에서, 영향 구역의 제1 단계는 1미터(보행자 주변의 주행 금지 구역의 경계) 내지 적어도 10미터의 거리까지 이어질 수 있다. 반면, 제2 단계는 10미터 내지 적어도 약 20미터까지 이어질 수 있다. 제2 단계는 보행자 영향 구역의 제1 단계와 연관된 최고 이동 속도보다 큰 호스트 차량의 최고 이동 속도와 연관될 수 있다.
호스트 차량의 주변상황 내에 검출된 장면에 의해 하나 이상의 고정 물체 제약도 연루될 수 있다. 예를 들면, 이미지(1201)에서, 적어도 하나의 처리 장치는 도로에 존재하는 상자(1219)와 같은 고정 물체를 검출할 수 있다. 검출된 고정 물체는 나무, 기둥, 도로 표지판, 및 도로 내의 물체 중의 적어도 하나와 같은 다양한 물체를 포함할 수 있다. 하나 이상의 미리 정해진 항법 제약이 검출된 고정 물체와 연관될 수 있다. 예를 들면, 이러한 제약은 고정 물체 포락선을 포함할 수 있는데, 여기서 고정 물체 포락선은 호스트 차량의 항법이 금지될 수 있는 물체 주변의 버퍼 구역을 정의한다. 버퍼 구역의 적어도 일부는 검출된 고정 물체의 가장자리로부터 미리 정해진 거리만큼 이어질 수 있다. 예를 들어, 이미지(1201)로 표현된 장면에서, 적어도 0.1미터, 0.25미터, 0.5미터 또는 그 이상의 버퍼 구역이 상자(1219)와 연관되어 검출된 고정 물체와의 충돌을 회피하기 위하여 호스트 차량이 적어도 일정 거리(예, 버퍼 구역 거리)를 두고 상자의 우측 또는 좌측으로 지나가도록 할 수 있다.
미리 정해진 하드 제약은 또한 하나 이상의 타깃 차량 제약을 포함할 수 있다. 예를 들면, 타깃 차량(1217)은 이미지(1201) 내에서 검출될 수 있다. 호스트 차량이 타깃 차량(1217)과 충돌하지 않도록 보장하기 위해서, 하나 이상의 하드 제약이 도입될 수 있다. 일부의 경우, 타깃 차량 포락선이 단일 버퍼 구역 거리와 연관될 수 있다. 예를 들어, 버퍼 구역은 타깃 차량의 모든 방향 둘레 1미터 거리로 정의될 수 있다. 버퍼 구역은 호스트 차량의 주행이 금지되는 타깃 차량으로부터 적어도 1미터 이어진 구역을 정의할 수 있다.
그러나, 타깃 차량(1217)을 둘러싼 포락선은 고정된 버퍼 거리에 의해 정의될 필요는 없다. 일부의 경우, 타깃 차량(또는 호스트 차량의 주변상황에서 검출된 기타 모든 이동 물체)과 연관된 미리 정해진 하드 제약은 검출된 타깃 차량에 대한 호스트 차량의 진행방향에 따라 다를 수 있다. 예를 들면, 일부 경우에서, 종방향 버퍼 구역 거리(예, 호스트 차량이 타깃 차량을 향해 주행하는 경우와 같이, 타깃 차량으로부터 호스트 차량의 앞 또는 뒤로 이어지는 버퍼 구역 거리)는 적어도 1미터일 수 있다. 횡방향 버퍼 구역 거리(예, 호스트 차량이 타깃 차량과 동일한 또는 반대의 방향으로 이동하여 호스트 차량의 측면이 타깃 차량의 측면에 인접하여 지나가는 경우와 같이, 타깃 차량으로부터 호스트 차량의 측면으로 이어지는 버퍼 거리 구역)은 적어도 0.5미터일 수 있다.
앞서 설명한 바와 같이, 호스트 차량의 주변상황에서 타깃 차량 또는 보행자를 검출하여 다른 제약도 연루될 수 있다. 예를 들면, 호스트 차량과 타깃 차량(1217)의 예측 궤적이 고려될 수 있고, 두 궤적이 교차하는 곳(예, 교차점(1230))에서 하드 제약은
Figure pct00126
또는
Figure pct00127
를 요구할 수 있다. 여기서, 호스트 차량은 차량 1이고, 타깃 차량(1217)은 차량 2이다. 마찬가지로, 보행자(1215)의 궤적(진행 방향과 속력에 의거)이 호스트 차량의 예상 궤적에 대하여 관찰될 수 있다. 특정 보행자 궤적을 고려할 때, 궤적 상의 각 지점 p에 대하여, t(p)는 보행자가 지점 p(예, 도 12의 지점(1231))에 도달하기 위해 필요한 시간을 나타낸다. 필요한 버퍼 거리인 보행자로부터 적어도 1미터를 유지하기 위하여, t(p)는 호스트 차량이 지점 p에 도달할 시간보다 크거나(호스트 차량이 보행자 앞에서 적어도 1미터의 거리를 두고 통과하기에 충분한 시간차) 호스트 차량이 지점 p에 도달하는 시간보다 작야야(예, 호스트 차량이 제동을 하여 보행자에게 양보) 한다. 그러나, 후자의 경우에도, 하드 제약은 호스트 차량이 보행자 뒤로 통과하고 적어도 1미터의 필요한 버퍼 거리를 유지할 수 있도록 호스트 차량이 보행자보다 충분히 나중에 지점 p에 도달할 것을 요구할 것이다.
다른 하드 제약도 활용될 수 있다. 예를 들어, 적어도 일부의 경우에서 호스트 차량의 최고 감속 속도가 도입될 수 있다. 이러한 최고 감속 속도는 호스트 차량을 따라오는 타깃 차량의 검출된 거리(후방 카메라로부터 수집된 이미지를 활용)에 의거하여 판단될 수 있다. 하드 제약은 감지된 횡단보도 또는 철도 건널목 또는 기타 해당 제약에서의 의무적 정지를 포함할 수 있다.
호스트 차량의 주변상황 내의 장면 분석의 결과, 하나 이상의 미리 정해진 항법 제약이 연루될 수 있는 것으로 나타나는 경우, 이러한 제약은 호스트 차량에 대한 하나 이상의 예정 항법 동작에 대해 부과될 수 있다. 예를 들면, 장면의 분석 결과, 주행 방침 모듈(803)이 원하는 항법 동작을 출력하는 경우, 원하는 항법 동작은 하나 이상의 연루된 제약에 비교하여 시험될 수 있다. 원하는 항법 동작이 연루된 제약의 양상을 위반하는 것으로 판단되는 경우(예, 미리 정해진 하드 제약은 호스트 차량이 보행자(1215)로부터 적어도 1.0미터을 유지할 것을 요구하지만, 원하는 항법 동작이 보행자(1215)로부터 0.7미터 이내에서 호스트 차량을 이동시키는 경우), 하나 이상의 미리 정해진 항법 제약에 의거하여 원하는 항법 동작에 적어도 하나의 수정을 할 수 있다. 이런 방식의 원하는 항법 동작의 조정을 통해 호스트 차량의 주변상황 내에서 검출된 특정 장면에 의해 연루된 제약을 준수하는 실제 항법 동작을 호스트 차량에 대해 제공할 수 있다.
호스트 차량에 대한 실제 항법 동작을 결정한 후에, 호스트 차량에 대해 결정된 실제 항법 동작에 대응하여 호스트 차량의 항법 액추에이터에 적어도 하나의 조정을 유발함으로써 이러한 항법 동작이 실행될 수 있다. 이러한 항법 액추에이터에는 호스트 차량의 조향 메커니즘, 브레이크, 가속장치 중의 적어도 하나가 포함될 수 있다.
우선 제약
앞서 설명한 바와 같이, 다양한 하드 제약을 항법 시스템과 함께 활용하여 호스트 차량의 안전한 작동을 보장할 수 있다. 제약에는 보행자, 타깃 차량, 도로 배리어, 또는 검출된 물체에 대한 최소 안전 운전 거리, 검출된 보행자의 영향 구역 이내에서 통과하는 경우의 최고 이동 속도, 또는 호스트 차량의 최고 감속 속도 등이 포함될 수 있다. 이러한 제약은 머신 러닝(지도형, 강화형, 또는 그 조합) 기반의 학습 시스템으로 부과될 수 있지만, 비학습 시스템(예, 호스트 차량 주변상황의 장면에 등장하는 예상 상황을 직접 처리하는 알고리즘을 활용하는 시스템)으로도 유용할 수 있다.
어느 경우에나, 제약의 계층이 있을 수 있다. 즉, 일부 항법 제약은 다른 제약에 우선할 수 있다. 따라서, 연루된 모든 제약이 충족되는 항법 동작이 없는 상황에서, 항법 시스템은 우선순위가 가장 높은 제약을 먼저 따르는 항법 동작을 결정할 수 있다. 예를 들면, 보행자를 회피하는 항법의 결과로 다른 차량 또는 도로에 검출된 물체와의 충돌이 일어날 수 있는 경우, 시스템은 차량으로 하여금 보행자를 회피하도록 할 수 있다. 다른 예를 들면, 시스템은 보행자를 회피하기 위하여 차량으로 하여금 도로 경계석을 올라가도록 할 수 있다.
도 13은 호스트 차량의 주변상황 내의 장면의 분석에 의거하여 판단된 연루된 제약의 계층을 실행하는 알고리즘을 도시한 순서도이다. 예컨대, 단계 1301에서, 항법 시스템과 연관된 적어도 하나의 처리 장치(예, EyeQ 프로세서 등)는 호스트 차량에 탑재된 카메라로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 1303에서, 호스트 차량 주변상황의 장면을 나타내는 이미지의 분석을 통하여, 호스트 차량과 연관된 항법 상태가 식별될 수 있다. 예를 들어, 항법 상태는 도 12에 도시된 바와 같이 호스트 차량이 2차선 도로에서 이동하고 있다는 속성, 타깃 차량(1217)이 호스트 차량의 앞에서 교차로를 지나가고 있다는 속성, 보행자(1215)가 호스트 차량이 이동 중인 도로를 건너기 위해 기다리고 있다는 속성, 물체(1219)가 호스트 차량 차로에 앞쪽에 있다는 속성, 및 기타 장면의 다양한 속성을 나타낼 수 있다.
단계 1305에서, 호스트 차량의 항법 상태에 의해 연루된 하나 이상의 항법 제약이 결정될 수 있다. 예를 들어, 적어도 하나의 처리 장치는 하나 이상의 캡처된 이미지에 의해 표현된 호스트 차량의 주변상황의 장면을 분석한 후에 캡처된 이미지의 이미지 분석을 통하여 인지된 물체, 차량, 보행자 등에 의해 연루된 하나 이상의 항법 제약을 결정할 수 있다. 일부 실시예에서, 적어도 하나의 처리 장치는 항법 상태에 의해 연루된 적어도 제1 사전 정의된 항법 제약과 제2 사전 정의된 항법 제약을 결정할 수 있고, 제1 사전 정의된 항법 제약은 제2 사전 정의된 항법 제약과 다를 수 있다. 예를 들어, 제1 사전 정의된 항법 제약은 호스트 차량의 주변상황에서 검출된 한 대 이상의 타깃 차량에 관한 것일 수 있고, 제2 사전 정의된 항법 제약은 호스트 차량의 주변상황에서 검출된 보행자에 관한 것일 수 있다.
단계 1307에서, 적어도 하나의 처리 장치는 단계 1305에서 식별된 제약과 연관된 우선순위를 결정할 수 있다. 상기의 예에서, 보행자에 관한 제2 사전 정의된 항법 제약 타깃 차량에 관한 제1 사전 정의된 항법 제약보다 높은 우선순위일 수 있다. 항법 제약과 연관된 우선순위는 다양한 요소에 의거하여 결정되거나 배정될 수 있지만, 일부 실시예에서, 항법 제약의 우선순위는 안전의 관점에서의 상대적 중요도와 관련될 수 있다. 예를 들면, 이행(implement)된 모든 항법 제약이 최대한 많은 상황에서 준수되고 충족되는 것이 중요할 수 있지만, 일부 제약은 다른 제약보다 더 큰 안전상 위험과 연관될 수 있고, 따라서 더 높은 우선순위가 배정될 수 있다. 예컨대, 호스트 차량이 보행자로부터 적어도 1미터의 간격을 유지할 것을 요구하는 항법 제약은 호스트 차량이 타깃 차량으로부터 적어도 1미터의 간격을 유지할 것을 요구하는 제약보다 더 높은 우선순위일 수 있다. 이는 보행자와의 충돌의 결과가 다른 차량과의 충돌의 결과보다 더 심각할 수 있기 때문이다. 마찬가지로, 호스트 차량과 타깃 차량 사이의 간격 유지는 호스트 차량이 도로 위의 상자를 피해가라는 제약, 속도 방지턱을 특정 속도보다 빠르게 넘어가지 말라는 제약, 또는 호스트 차량에 승객이 있을 때 최고 가속 수준을 넘지 말라는 제약보다 높은 우선순위일 수 있다.
주행 방침 모듈(803)은 특정 장면 또는 항법 상태에 의해 연루된 항법 제약을 충족시킴으로써 안전을 극대화하도록 설계되었지만, 일부 상황에서, 연루된 모든 제약을 충족시키는 것은 물리적으로 불가능할 수 있다. 이러한 상황에서, 단계 1309에 도시된 바와 같이, 연루된 각 제약의 우선순위를 활용하여 어느 제약부터 먼저 충족시킬지를 결정할 수 있다. 상기 예에서, 보행자 간격 제약과 타깃 차량 간격 제약을 모두 충족하는 것이 불가능하지만 둘 중의 한 제약을 충족할 수 있는 상황에서, 보행자 간격 제약의 우선순위가 높으므로 타깃 차량과의 간격을 유지하려고 시도하기 전에 이 제약을 먼저 충족시킬 수 있다. 따라서, 정상적인 상황에서, 단계 1311에 도시된 바와 같이, 적어도 하나의 처리 장치는 호스트 차량의 식별된 항법 상태에 의거하여 제1 사전 정의된 항법 제약과 제2 사전 정의된 항법 제약이 모두 충족될 수 있는 경우에 제1 사전 정의된 항법 제약과 제2 사전 정의된 항법 제약을 모두 충족하는 호스트 차량에 대한 제1 항법 동작을 결정할 수 있다. 그러나, 다른 상황에서, 연루된 모든 제약이 충족될 수 없는 경우에, 단계 1313에 도시된 바와 같이, 적어도 하나의 처리 장치는 제1 사전 정의된 항법 제약과 제2 사전 정의된 항법 제약이 함께 충족될 수 없는 경우에, 식별된 항법 상태에 의거하여 제2 사전 정의된 항법 제약(즉, 우선순위가 높은 제약)을 충족하지만 제1 사전 정의된 항법 제약(제2 항법 제약보다 낮은 우선순위)을 충족하지 않는 호스트 차량에 대한 제2 항법 동작을 결정할 수 있다.
다음으로, 단계 1315에서, 호스트 차량에 대해 결정된 항법 동작을 이행(implement)하기 위하여, 적어도 하나의 처리 장치는 호스트 차량에 대해 결정된 제1 항법 동작 또는 제2 항법 동작에 대한 대응으로 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 이전의 예와 마찬가지로, 항법 액추에이터에는 조향 메커니즘, 브레이크, 가속장치 중의 적어도 하나가 포함될 수 있다.
제약 완화
앞서 설명한 바와 같이, 항법 제약은 안전상의 목적으로 부과될 수 있다. 제약에는 보행자, 타깃 차량, 도로 배리어, 또는 검출된 물체에 대한 최소 안전 운전 거리, 검출된 보행자의 영향 구역 이내에서 통과하는 경우의 최고 이동 속도, 또는 호스트 차량의 최고 감속 속도 등이 포함될 수 있다. 이러한 제약은 학습 또는 비학습 항법 시스템에서 부과될 수 있다. 특정 상황에서, 이러한 제약은 완화될 수 있다. 예를 들어, 호스트 차량이 보행자 근처에서 속도를 줄이거나 정지한 후에 보행자 옆으로 지나가겠다는 의도를 나타내기 위해 천천히 진행하는 경우에, 확보된 이미지로부터 보행자의 반응이 검출될 수 있다. 보행자의 반응이 가만히 있거나 움직임을 중단하는 것인(및/또는 보행자와 시선이 마주친 것이 감지된) 경우에, 항법 시스템이 보행자 옆으로 지나가고자 하는 의도를 보행자가 인지한 것으로 이해될 수 있다. 이러한 상황에서, 시스템은 하나 이상의 사전 정의된 제약을 완화하고 덜 엄격한 제약(예, 보행자로부터 1미터 경계 이내보다 덜 엄격한 0.5미터 이내로 차량이 주행하게 허용)을 이행(implement)할 수 있다.
도 14는 하나 이상의 항법 제약의 완화에 의거하여 호스트 차량의 제어를 이행(implement)하기 위한 순서도를 도시한 것이다. 단계 1401에서, 적어도 하나의 처리 장치는 호스트 차량과 연관된 카메라로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 1403의 이미지 분석을 통해, 호스트 차량과 연관된 항법 상태를 식별할 수 있다. 단계 1405에서, 적어도 하나의 프로세서는 호스트 차량의 항법 상태와 연관된 항법 제약을 판단할 수 있다. 항법 제약은 항법 상태의 적어도 한 양상에 의해 연루된 제1 사전 정의된 항법 제약을 포함할 수 있다. 단계 1407에서, 복수의 이미지의 분석을 통해 적어도 하나의 항법 제약 완화 요소의 존재를 확인할 수 있다.
항법 제약 완화 요소는 하나 이상의 항법 제약의 적어도 하나의 양상이 중단, 변경, 또는 완화될 수 있는 모든 적합한 지시자를 포함할 수 있다. 일부 실시예에서, 적어도 하나의 항법 제약 완화 요소는 보행자의 눈이 호스트 차량의 방향을 바라보고 있다는 판단(이미지 분석에 의거)을 포함할 수 있다. 이 경우, 보행자가 호스트 차량을 인식하고 있다고 안심하고 추정할 수 있다. 그 결과, 보행자가 호스트 차량의 진로로 이동해 들어오게 하는 예상치 못한 동작을 보행자가 취하지 않을 것이라는 신뢰 수준이 높을 수 있다. 다른 제약 완화 요소도 활용될 수 있다. 예를 들어, 적어도 하나의 항법 제약 완화 요소에는 움직이지 않는 것으로 판단된 보행자(예, 호스트 차량의 진로로 들어올 가능성이 낮은 것으로 추정된 보행자), 또는 움직이는 속도를 늦추는 것으로 판단된 보행자가 포함될 수 있다. 항법 제약 완화 요소에는, 호스트 차량이 정지한 후에 움직이지 않는 것으로 판단되었다가 다시 움직이기 시작한 보행자와 같이, 복잡한 동작도 포함될 수 있다. 이러한 상황에서, 호스트 차량이 선행권이 있다는 것을 보행자가 이해하고 있음이 추정될 수 있고, 보행자가 멈춘다는 것은 보행자가 호스트 차량에게 양보하려는 의도가 있음을 시사할 수 있다. 하나 이상의 제약을 완화하도록 할 수 있는 다른 상황에는 도로 경계석의 유형(예, 도로 경계석이 낮거나 완만한 경사가 있는 경우에는 완화된 거리 제약 가능), 인도 상의 보행자 또는 기타 물체의 부재, 엔진이 꺼져 있는 차량, 또는 보행자가 호스트 차량의 진행 방향과 반대편을 보고 있거나 멀어지고 있는 상황 등이 포함될 수 있다.
항법 제약 완화 요소의 존재가 식별된 경우에(예, 단계 1407), 제약 완화 요소의 검출에 대응하여 제2 항법 제약이 결정되거나 발생될 수 있다. 이 제2 항법 제약은 제1 항법 제약과 다를 수 있고, 제1 항법 제약에 대하여 완화된 적어도 하나의 특성을 포함할 수 있다. 제2 항법 제약은 제1 항법 제약에 의거하여 새롭게 생성된 제약을 포함할 수 있고, 이 경우, 새롭게 생성된 제약은 제1 항법 제약의 적어도 한 양상을 완화하는 적어도 하나의 수정을 포함한다. 대안적으로, 제2 항법 제약은 제1 항법 제약보다 적어도 한 양상에서 덜 엄격한 미리 정해진 제약을 구성할 수 있다. 일부 실시예에서, 이러한 제2 항법 제약은 호스트 차량의 주변상황에서 제약 완화 요소가 식별되는 상황에서만 사용하도록 준비될 수 있다. 제2 항법 제약이 새롭게 생성되거나 완전히 또는 부분적으로 사용 가능한 미리 정해진 제약의 모음 중에서 선택되거나에 상관없이, 더 엄격한 제1 항법 제약(관련 항법 제약 완화 요소가 검출되지 않을 경우에 적용 가능)을 대신한 제2 항법 제약의 적용은 제약 완화로 칭할 수 있고 단계 1409에서 수행될 수 있다.
단계 1407에서 적어도 하나의 제약 완화 요소가 검출되고 단계 1409에서 적어도 하나의 제약이 완화된 경우에, 호스트 차량에 대한 항법 동작이 단계 1411에서 결정될 수 있다. 호스트 차량에 대한 항법 동작은 식별된 항법 상태에 의거할 수 있고, 제2 항법 제약을 충족할 수 있다. 항법 동작은 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발함으로써 단계 1413에서 이행(implement)될 수 있다.
앞서 설명한 바와 같이, 항법 제약과 완화된 항법 제약은 학습(예, 머신 러닝을 통한 학습) 또는 비학습(예, 특정 항법 상태에 미리 정해진 동작으로 대응하도록 프로그램된 시스템) 항법 시스템과 함께 활용될 수 있다. 학습 항법 시스템이 활용되는 경우에, 특정 항법 상황에 대해 완화된 항법 제약을 이용할 수 있다는 것은 학습 시스템 반응에서 비학습 시스템 반응으로의 모드 전환을 나타내는 것을 수 있다. 예를 들어, 학습 항법 네트워크는 제1 항법 제약에 의거하여 호스트 차량에 대한 원래의 항법 동작을 결정할 수 있다. 그러나 차량이 취한 동작은 제1 항법 제약을 충족하는 항법 동작과 다른 것일 수 있다. 오히려, 차량이 취한 동작은 완화된 제2 항법 제약을 충족할 수 있고 비학습 시스템에 의해 발생된 동작(예, 항법 제약 완화 요소의 존재와 같은, 호스트 차량의 주변상황 내에서의 특정 조건의 검출에 대한 대응)일 수 있다.
호스트 차량의 주변상황 내에서 제약 완화 요소의 검출에 대한 대응으로 완화될 수 있는 항법 제약에는 많은 예가 있다. 예컨대, 사전 정의된 항법 제약이 검출된 보행자와 연관된 버퍼 구역을 포함하고, 버퍼 구역의 적어도 일부가 검출된 보행자로부터 일정한 거리만큼 이어지는 경우에, 완화된 항법 제약(새롭게 발생, 미리 정해진 모음으로부터 메모리에서 호출, 또는 기존 제약의 완화 버전으로 생성)은 다른 또는 수정된 버퍼 구역을 포함할 수 있다. 예를 들면, 다른 또는 수정된 버퍼 구역은 검출된 보행자에 대한 원래의 또는 수정되지 않은 버퍼 구역보다 작은 거리일 수 있다. 그 결과, 완화된 제약으로 인하여, 적절한 제약 완화 요소가 호스트 차량의 주변상황에서 검출되는 경우에 호스트 차량은 검출된 보행자에 가까이 주행하도록 허용될 수 있다.
항법 제약의 완화된 특성에는, 앞서 설명한 바와 같이, 적어도 한 명의 보행자와 연관된 버퍼 구역의 감소된 폭이 포함될 수 있다. 그러나, 완화된 특성에는 또한 타깃 차량, 검출된 물체, 도로변 배리어, 또는 호스트 차량의 주변상황에서 검출된 기타 물체 등과 연관된 버퍼 구역의 감소된 폭도 포함될 수 있다.
적어도 하나의 완화된 특성은 항법 제약 특성의 기타 유형의 수정도 포함할 수 있다. 예를 들면, 완화된 특성은 적어도 하나의 사전 정의된 항법 제약과 연관된 속도의 증가를 포함할 수 있다. 완화된 특성에는 또한 적어도 하나의 사전 정의된 항법 제약과 연관된 최대 허용 감속/가속의 증가도 포함될 수 있다.
앞서 설명한 바와 같이 제약은 특정 상황에서 완화될 수 있는 반면, 다른 상황에서는 항법 제약이 강화될 수 있다. 예를 들면, 일부 상황에서, 항법 시스템은 항법 제약의 일반적인 모음을 증강하는 조건이라고 판단할 수 있다. 이러한 증강에는 사전 정의된 제약 모음에 새로운 제약의 추가 또는 사전 정의된 제약의 하나 이상의 양상의 조정이 포함될 수 있다. 이러한 추가 또는 조정의 결과, 정상 주행 조건 하에서 적용될 수 있는 사전 정의된 제약 모음에 비하여 보수적인 항법을 할 수 있다. 제약 강화를 필요로 할 수 있는 조건에는 센서 불량, 열악한 환경 조건(비, 눈, 안개, 또는 시야 또는 접지력 저하와 관련된 기타 조건) 등이 포함될 수 있다.
도 15는 하나 이상의 항법 제약의 강화에 의거하여 호스트 차량의 제어를 이행(implement)하는 순서도를 도시한 것이다. 단계 1501에서, 적어도 하나의 처리 장치는 호스트 차량과 연관된 카메라로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 1503의 이미지 분석을 통해, 호스트 차량과 연관된 항법 상태를 식별할 수 있다. 단계 1505에서, 적어도 하나의 프로세서는 호스트 차량의 항법 상태와 연관된 항법 제약을 판단할 수 있다. 항법 제약은 항법 상태의 적어도 한 양상에 의해 연루된 제1 사전 정의된 항법 제약을 포함할 수 있다. 단계 1507에서, 복수의 이미지의 분석을 통해 적어도 하나의 항법 제약 강화 요소의 존재를 확인할 수 있다.
연루된 항법 제약은 앞서 설명한(도 12 참조) 항법 제약 또는 기타 적합한 항법 제약을 포함할 수 있다. 항법 제약 강화 요소는 하나 이상의 항법 제약이 적어도 한 양상에서 보완/강화될 수 있다는 지시자를 포함할 수 있다. 항법 제약의 보완 또는 강화는 모음별로 수행(예, 미리 정해진 제약 모음에 새로운 항법 제약 추가)되거나 제약별로 수행(예, 특정 제약을 원래보다 엄격하도록 수정 또는 미리 정해진 제약에 상응하고 적어도 한 양상에서 더욱 엄격한 새로운 제약을 추가)될 수 있다. 추가적으로 또는 대안적으로, 항법 제약의 보완 또는 강화는 계층에 의거한 미리 정해진 제약의 모음에서의 선택을 참조할 수 있다. 예를 들면, 항법 강화 요소가 호스트 차량의 주변환경에서 또는 호스트 차량에 대하여 검출되는지 여부에 따라 강화 제약의 모음에서의 선택이 가능할 수 있다. 강화 요소가 검출되지 않는 정상 조건하에서, 연루된 항법 제약은 정상 조건에 적용 가능한 제약들로부터 가져올 수 있다. 반면에, 하나 이상의 제약 강화 요소가 검출되는 경우에, 연루된 제약은 하나 이상의 강화 요소에 대하여 생성되거나 사전 정의된 강화 제약들로부터 가져올 수 있다. 강화 제약은 이에 상응하는 정상 조건하의 제약보다 적어도 한 양상에서 더욱 엄격할 수 있다.
일부 실시예에서, 적어도 하나의 항법 제약 강화 요소는 호스트 차량의 주변상황의 도로면 상의 얼음, 눈, 또는 물의 존재의 검출(예, 이미지 분석에 의거)을 포함할 수 있다. 이러한 판단은, 예를 들어, 건조한 도로에서 예상되는 것보다 반사가 높은 영역(예, 도로상의 얼음 또는 물)의 검출, 눈의 존재를 나타내는 도로상의 하얀 구역, 종방향 도랑의 존재에 따른 도로상의 그림자(예, 눈길의 타이어 자국), 호스트 차량의 앞유리의 물방울 또는 얼음/눈 입자, 또는 도로면에 물 또는 얼음/눈의 존재를 나타내는 기타 적합한 지시자에 의거할 수 있다.
적어도 하나의 항법 제약 강화 요소는 또한 호스트 차량의 앞유리 외면상의 입자의 검출을 포함할 수 있다. 이러한 입자는 호스트 차량과 연관된 하나 이상의 이미지캡처장치의 이미지의 질을 악화시킬 수 있다. 여기서는 호스트 차량의 앞유리 뒤에 설치된 카메라와 관련 있는 호스트 차량의 앞유리에 관하여 설명하고 있지만, 호스트 차량과 연관된 다른 표면(예, 카메라의 렌즈 또는 렌즈 커버, 전조등 렌즈, 뒷유리, 후미등 렌즈, 또는 이미지캡처장치에 보이는(또는 센서에 의해 검출되는) 호스트 차량의 기타 표면) 상의 입자 검출도 또한 항법 제약 강화 요소의 존재를 나타낼 수 있다.
항법 제약 강화 요소는 또한 하나 이상의 이미지획득장치의 속성으로서 검출될 수 있다. 예를 들면, 호스트 차량과 연관된 이미지캡처장치(예, 카메라)에 의해 캡처된 하나 이상의 이미지의 이미지 품질의 저하가 검출되면 이 또한 항법 제약 강화 요소의 요건이 될 수 있다. 이미지 품질의 저하는 이미지캡처장치 또는 이미지캡처장치와 연관된 어셈블리와 연관된 하드웨어의 고장 또는 부분적 고장과 연관될 수 있다. 이러한 이미지 품질의 저하는 또한 주변상황 조건에 기인한 것일 수 있다. 예를 들어, 호스트 차량 주변 공기에 연기, 안개, 비, 눈 등이 존재하면 이 또한 호스트 차량 주변의 도로, 보행자, 타깃 차량 등에 관한 이미지 품질의 저하의 요건이 될 수 있다.
항법 제약 강화 요소는 또한 호스트 차량의 다른 양상에 관한 것일 수 있다. 예를 들면, 일부 상황에서, 항법 제약 강화 요소에는 호스트 차량과 연관된 시스템 또는 센서의 검출된 고장 도는 부분적 고장이 포함될 수 있다. 이러한 강화 요소에는 예를 들어 속도계, GPS 수신기, 가속도계, 카메라, 레이더, 라이더, 브레이크, 타이어, 또는 호스트 차량이 호스트 차량의 항법 상태와 연관된 항법 제약에 대해 주행하는 능력에 영향을 줄 수 있는 호스트 차량과 연관된 기타 시스템의 고장 또는 부분적 고정의 검출이 포함될 수 있다.
항법 제약 강화 요소가 식별되는 경우(예, 단계 1507), 제약 강화 요소의 검출에 대응하여 제2 항법 제약이 결정 또는 생성될 수 있다. 제2 항법 제약은 제1 항법 제약과 다를 수 있고 제1 항법 제약에 대해 강화된 적어도 하나의 특성을 포함할 수 있다. 호스트 차량의 주변상황에서 또는 호스트 차량과 연관하여 제약 강화 요소가 검출된다는 것은 호스트 차량의 적어도 하나의 항법 능력이 정상 작동 조건보다 저하됨을 의미하는 것일 수 있기 때문에 제2 항법 제약은 제1 항법 제약보다 더 엄격할 수 있다. 이러한 저하된 능력에는 도로 접지력 저하(예, 도로상의 얼음, 눈, 또는 물; 타이어 공기압 저하 등), 저하된 시야(예, 캡처된 이미지 품질을 저하하는 비, 눈, 먼지, 연기, 안개 등), 저하된 검출 능력(예, 센서 고장 또는 부분적 고장, 센서 성능 저하 등), 또는 호스트 차량이 검출된 항법 상태에 대응하여 주행하는 능력의 기타 모든 저하가 포함될 수 있다.
단계 1507에서 적어도 하나의 항법 강화 요소가 검출되고 단계 1509에서적어도 하나의 제약이 강화된 경우, 단계 1511에서 호스트 차량에 대한 항법 동작이 결정될 수 있다. 호스트 차량에 대한 항법 동작은 식별된 항법 상태에 의거할 수 있고 제2 항법 제약(즉, 강화된 제약)을 충족할 수 있다. 단계 1513에서, 항법 동작은 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터에 적어도 하나의 조정을 유발함으로써 이행(implement)될 수 있다.
앞서 설명한 바와 같이, 항법 제약과 강화된 항법 제약은 학습(예, 머신 러닝을 통한 학습) 또는 비학습(예, 특정 항법 상태에 미리 정해진 동작으로 대응하도록 프로그램 된 시스템) 항법 시스템과 함께 활용될 수 있다. 학습 항법 시스템이 활용되는 경우에, 특정 항법 상황에 대해 강화된 항법 제약을 이용할 수 있다는 것은 학습 시스템 반응에서 비학습 시스템 반응으로의 모드 전환을 나타내는 것을 수 있다. 예를 들어, 학습 항법 네트워크는 제1 항법 제약에 의거하여 호스트 차량에 대한 원래의 항법 동작을 결정할 수 있다. 그러나 차량이 취한 동작은 제1 항법 제약을 충족하는 항법 동작과 다른 것일 수 있다. 오히려, 차량이 취한 동작은 강화된 제2 항법 제약을 충족할 수 있고 비학습 시스템에 의해 발생된 동작(예, 항법 제약 강화 요소의 존재와 같은, 호스트 차량의 주변상황 내에서의 특정 조건의 검출에 대한 대응)일 수 있다.
호스트 차량의 주변상황 내에서 제약 강화 요소의 검출에 대한 대응으로 생성, 보완, 또는 강화될 수 있는 항법 제약에는 많은 예가 있다. 예컨대, 사전 정의된 항법 제약이 검출된 보행자, 물체, 차량 등과 연관된 버퍼 구역을 포함하고, 버퍼 구역의 적어도 일부가 검출된 보행자/물체/차량으로부터 일정한 거리만큼 이어지는 경우에, 강화된 항법 제약(새롭게 발생, 미리 정해진 모음으로부터 메모리에서 호출, 또는 기존 제약의 강화 버전으로 생성)은 다른 또는 수정된 버퍼 구역을 포함할 수 있다. 예를 들면, 다른 또는 수정된 버퍼 구역은 검출된 보행자/물체/차량에 대한 원래의 또는 수정되지 않은 버퍼 구역보다 큰 거리일 수 있다. 그 결과, 강화된 제약으로 인하여, 적절한 제약 강화 요소가 호스트 차량의 주변상황에서 또는 호스트 차량에 대하여 검출되는 경우에 호스트 차량은 검출된 보행자/물체/차량에 더 떨어져서 주행하도록 강제될 수 있다.
적어도 하나의 강화된 특성은 항법 제약 특성의 기타 유형의 수정도 포함할 수 있다. 예를 들면, 강화된 특성은 적어도 하나의 사전 정의된 항법 제약과 연관된 속도의 감소를 포함할 수 있다. 강화된 특성에는 또한 적어도 하나의 사전 정의된 항법 제약과 연관된 최대 허용 감속/가속의 감소도 포함될 수 있다.
장기 계획에 의거한 항법
일부 실시예에서, 기재된 항법 시스템은 호스트 차량의 주변상황에서 검출된 항법 상태에 대한 대응 뿐만 아니라 장기 계획에 의거한 하나 이상의 항법 동작의 결정도 할 수 있다. 예를 들어, 시스템은 검출된 항법 상태에 대한 항법을 위한 옵션으로 사용 가능한 하나 이상의 항법 동작의 미래 항법 상태에 대한 잠재적 영향을 고려할 수 있다. 미래 상태에 대한 사용 가능한 동작의 영향을 고려하면 항법 시스템이 현재 검출된 항법 상태뿐만 아니라 장기 계획에 의거하여 항법 동작을 결정할 수 있다. 장기 계획 방식을 활용한 항법은 하나 이상의 보상 함수가 사용 가능한 옵션 중에서 항법 동작을 선택하는 방식으로 항법 시스템에 의해 활용되는 경우에 특히 적용 가능하다. 잠재적 보상은 호스트 차량의 검출된 현재 항법 상태에 대한 대응으로 취할 수 있는 사용 가능한 항법 동작에 대해 분석될 수 있다. 그러나 잠재적 보상은 사용 가능한 동작으로부터 현재 항법 상태의 결과를 가져올 것으로 예상되는 미래 항법 상태에 대응하여 취할 수 있는 동작에 대하여 분석될 수도 있다. 그 결과, 일부 경우에서, 기재된 항법 시스템은 선택된 항법 동작이 현재 항법 상태에 대응하여 취할 수 있는 사용 가능한 동작 중에서 가장 높은 보상을 산출하지 않을 수 있는 경우에도 검출된 항법 상태에 대응하여 항법 상태를 선택할 수 있다. 이는 시스템이 판단하기에 선택된 동작이 선택된 동작보다 또는 일부의 경우에서 현재 항법 상태에 대하여 사용 가능한 모든 동작보다 더 큰 보상을 제공하는 하나 이상의 잠재적 항법 동작을 낳는 미래 항법 상태의 결과를 가져올 수 있는 경우에 특히 그렇다. 원리를 더욱 간단히 표현하자면, 나중의 더 큰 보상을 위하여 지금은 덜 선호하는 동작을 취하는 것이다. 따라서, 장기 계획이 가능한 기재된 항법 시스템은 단기적인 보상의 손실의 결과로 장기적인 보상의 이익을 가져올 수 있다는 장기적 예상이 되는 경우에 최적 이하의 단기적 동작을 선택할 수 있다.
일반적으로, 자율주행 애플리케이션에는 일련의 계획 문제가 있을 수 있고, 항법 시스템은 장기적 목적을 최적화하기 위하여 즉각적인 동작을 결정할 수 있다. 예를 들어, 차량이 로터리에서 병합 상황과 마주칠 경우, 항법 시스템은 로터리로 진입하는 항법을 개시하기 위하여 즉각적인 가속 도는 제동 명령을 결정할 수 있다. 로터리에서의 검출된 항법 상태에 대한 즉각적인 동작은 검출된 상태에 대응한 가속 또는 제동 명령을 포함할 수 있지만, 장기적 목적은 성공적인 병합이고, 선택된 명령의 장기적인 결과는 병합의 성공/실패이다. 계획 문제는 문제를 두 단계로 나눔으로써 접근할 수 있다. 첫째, 지도형 학습을 적용하여 현재에 의거한 가까운 미래를 예측할 수 있다(현재의 표현에 대해 예측자가 구별 가능하다는 전제). 둘째, 순환 신경망을 활용하여 에이전트의 전체 궤적이 모델링 될 수 있고, 여기서, 설명되지 않은 요소들이 (애디티브) 입력 노드로 모델링 된다. 이로써, 장기적 계획 문제에 대한 솔루션이 지도형 학습 방식과 순환 신경망에 걸친 직접 최적화를 활용하여 결정될 수 있다. 이러한 접근은 또한 적대적 요소를 주변상황에 포함시킴으로써 탄탄한 방침(robust policies)의 학습을 가능하게 한다.
자율주행 시스템의 가장 기본적인 요소 두 가지는 감지와 계획이다. 감지는 주변상황의 현재 상태의 축소형 표현을 찾는 것에 해당하는 것이고, 계획은 미래의 목적이 최적화되도록 취할 동작을 결정하는 것에 해당하는 것이다. 지도형 머신 러닝 방식은 감지 문제의 해결에 유용하다. 머신 러닝 알고리즘 프레임워크, 특히 앞서 설명한 바와 같은 강화 학습(RL) 프레임워크는 또한, 계획 부분에 대해서도 유용할 수 있다.
RL은 연속 라운드의 시퀀스로 수행될 수 있다. 라운드 t에서, 계획자(즉, 에이전트 또는 주행 방침 모듈(803))은 에이전트와 주변상황을 나타내는 상태
Figure pct00128
를 관찰할 수 있다. 이후 동작
Figure pct00129
를 결정해야 한다. 동작을 수행한 후에, 에이전트는 즉각적인 보상
Figure pct00130
을 수신하고, 새로운 상태
Figure pct00131
로 이동된다. 일례로, 호스트 차량은 앞서 가는 차량과 적절한 거리를 유지하면서 부드러운 주행을 유지하도록 가속/제동을 자동으로 이행(implement)하는 적응형 순항장치(adaptive cruise control 또는 ACC) 시스템을 포함하고 있을 수 있다. 상태는
Figure pct00132
의 쌍으로 모델링 될 수 있고, 여기서, xt는 앞에 가는 차량과의 거리이고, vt는 앞에 가는 차량의 속도에 대한 호스트 차량의 상대적 속도이다. 동작
Figure pct00133
는 가속 명령(
Figure pct00134
인 경우, 호스트 차량은 감속)이 될 것이다. 보상은
Figure pct00135
(주행의 부드러움을 반영)와 s t (호스트 차량이 앞서 가는 차량과 안전 거리를 유지함을 반영)에 의존하는 함수일 수 있다. 계획자는 누적 보상을 최대화(미래 보상의 시간 지평 또는 할인 합계까지)하는 것을 목표로 한다. 이를 위해, 계획자는 상태를 동작으로 매핑하는
Figure pct00136
방침에 의존할 수 있다.
지도형 학습(Supervised Learning 또는 SL)은 RL의 특별한 경우로 볼 수 있다. 여기서, s t 는 S에서의 일부 배포로부터 샘플링된 것이고, 보상 함수는
Figure pct00137
의 형태일 수 있다. 여기서,
Figure pct00138
은 손실 함수이고, 학습자는 상태 st를 볼 경우에 취할 최적 동작의 (잡음) 값인 yt의 값을 관찰한다. 일반적인 RL 모델과 특정 경우의 SL 사이에 여러 차이가 있을 수 있고, 이러한 차이는 일반적인 RL 문제를 더욱 어렵게 만들 수 있다.
일부 SL 상황에서, 학습자가 취한 동작(또는 예측)은 주변상황에 아무 효과가 없을 수 있다. 즉,
Figure pct00139
Figure pct00140
는 별개이다. 이는 두가지 중요한 점을 시사한다. 첫째, SL에서, 샘플
Figure pct00141
는 사전에 수집될 수 있고, 그래야만 샘플에 대해 상대적으로 정확할 수 있는 방침(또는 예측)에 대한 검색을 시작할 수 있다. 이에 반해, RL에서는, 상태
Figure pct00142
는 일반적으로 취해진 동작(또한 이전 상태)에 달려있는데, 결구, 동작을 생성하도록 활용된 방침에 달려있다. 이는 데이터 생성 프로세스를 방침 학습 프로세스와 연결한다. 둘째, 동작은 SL에서 주변상황에 영향이 없기 때문에, π의 성능에 대한
Figure pct00143
의 선택의 기여는 로컬이다. 특히,
Figure pct00144
는 즉각적인 보상의 값에만 영향이 있다. 이에 반해, RL에서는, 라운드 t에서 취한 동작은 미래 라운드의 보상 값에 장기적 영향이 있다.
SL에서, '정확한' 답 yt와 함께 보상
Figure pct00145
의 형상을 알면
Figure pct00146
의 모든 가능한 선택을 알 수 있고,
Figure pct00147
에 대하여 보상의 미분계수를 계산할 수 있다. 이에 반해, RL에서는, 보상의 '1회 한'의 값이 선택된 특정 동작에 대해 관찰될 수 있는 전부일 수 있다. 이를 '밴딧' 피드백("bandit" feedback)으로 칭할 수 있다. 이는, RL 기반의 시스템에서 '밴딧' 피드백만이 사용 가능하면 시스템은 취한 동작이 가장 좋은 동작인지를 항상 알 수 없기 때문에, 장기적 항법 계획의 일부로서 '탐사'가 필요한 가장 중요한 이유 중의 하나이다.
많은 RL 알고리즘은 수학적으로 세련된 마르코프 결정 프로세스(Markov Decision Process 또는 MDP) 모델에 적어도 부분적으로 의존한다. 마코비안 가정에서, st
Figure pct00148
를 고려할 때
Figure pct00149
의 분포가 완전히 판단된다. 이는 MDP의 상태에 걸친 고정 분포의 차원에서 기정 방침의 누적 보상에 대해 폐쇄 형태 표현을 출력한다. 방침의 고정 분포는 선형 프로그래밍 문제에 대한 솔루션으로 표현될 수 있다. 이는 두 부류의 알고리즘을 출력한다. 즉, 1) 방침 검색으로 불릴 수 있는 원시적 문제에 대한 최적화 및 2) 변수가 가치 함수
Figure pct00150
로 불리는 이중 문제에 대한 최적화이다. MDP가 초기 상태 s로부터 시작하고 여기서부터 π에 따라 동작이 선택되는 경우, 가치 함수는 예상된 누적 보상을 결정한다. 관련된 양은 상태 s로부터 시작하고, 동작 가 즉각적으로 선택되고, 여기서부터 π에 따라 동작이 선택된다는 전제하에 누적 보상을 결정하는 상태-동작 가치 함수
Figure pct00151
이다.
Figure pct00152
함수는 최적 방침(벨만 방정식(Bellman's equation) 활용)의 정의를 유도할 수 있다. 특히,
Figure pct00153
함수는 최적 방침이 S에서 A까지의 결정적 함수임을 보여줄 수 있다(실제로, 최적의
Figure pct00154
함수에 대해 '과욕'의 방침으로 정의될 수 있다).
MDP 모델의 한 가지 잠재적 장점은
Figure pct00155
함수를 활용하여 미래가 현재와 결합되게 할 수 있다는 것이다. 예컨대, 호스트 차량이 현재 상태 s에 있다고 할 때,
Figure pct00156
의 값은 동작 α수행의 미래에 대한 효과를 나타낼 수 있다. 따라서,
Figure pct00157
함수는 동작 α의 품질의 로컬 척도를 제공하여 RL 문제를 SL 상황과 더욱 유사하게 만들 수 있다.
많은 RL 알고리즘은 여러 방법으로 V 함수 또는
Figure pct00158
함수에 근접한다. 가치 반복 알고리즘, 예를 들면,
Figure pct00159
러닝 알고리즘은 최적 방침의 V 함수 및
Figure pct00160
함수가 벨만 방정식으로부터 도출된 일부 작동자(operator)의 고정 지점일 수 있다는 사실에 의존할 수 있다. 배우-비평가(actor-critic) 방침 반복 알고리즘은 반복적인 방법으로 방침을 학습하는 것을 목표로 하고, 여기서, 반복 t에서 '비평가'는
Figure pct00161
를 추정하고, 이 추정에 의거하여 '배우'는 방침을 개선한다.
MDP의 수학적 세련도와
Figure pct00162
함수 표현으로 전환의 편리성에도 불구하고, 이러한 접근 방식에는 여러 한계가 있을 수 있다. 예를 들어, 일부 경우에서는 마코비안 방식으로 행동하는 상태의 대략적인 개념이 검색될 수 있는 모두일 수 있다. 또한, 상태의 전환은 에이전트의 행동 외에도 주변상황의 다른 참가자의 행동에 달려있을 수 있다. 예를 들면, 앞서 언급한 ACC의 예에서, 자율주행차의 역학이 마코비안일 수 있는 반면, 다음 상태는 다른 차량의 운전자의 행동에 달려있을 수 있고, 이는 반드시 마코비안은 아니다. 이 문제에 대한 한 가지 가능한 솔루션은 부분적으로 관찰된 MDP를 활용하는 것이다. 부분적으로 관찰된 MDP에서는, 마코비안 상태가 있지만, 감춰진 상태에 따라 분포된 관찰이 보여질 수 있는 것이라고 추정된다.
더욱 직접적인 접근 방식은 MDP의 게임 이론 일반화(game theoretical generalizations)를 고려하는 것이다(예, 확률 게임(Stochastic Games) 프레임워크). 실제로, MDP에 대한 알고리즘은 멀티-에이전트 게임(예, 미니맥스-Q 러닝(minimax-Q learning) 또는 내쉬-Q 러닝(Nash-Q learning)) 으로 일반화될 수 있다. 다른 접근 방식에는 다른 참가자의 명시적 모델링과 배니싱 리그렛 러닝(vanishing regret learning) 알고리즘이 포함될 수 있다. 멀티-에이전트 설정에서의 학습은 단일 에이전트 설정에서보다 복잡할 수 있다.
Figure pct00163
함수 표현의 두번째 한계는 표 설정을 벗어남으로써 일어날 수 있다. 표 설정은 상태와 동작의 수가 적은 경우이며, 따라서
Figure pct00164
Figure pct00165
행과
Figure pct00166
열을 가진 표로 표현될 수 있다. 그러나, S와 A의 자연적 표현이 유클리드 공간(Euclidean space)을 포함하고 상태 및 동작 공간이 불연속되는(discretized) 경우, 상태/동작의 수는 차원적으로 기하급수적일 수 있다. 이러한 경우, 표 설정을 활용하는 것은 현실적으로 적합하지 않을 수 있다. 대신에,
Figure pct00167
함수는 모수적가설(parametric hypothesis) 부류(예, 특정 아키텍처의 신경망)로부터의 일부 함수에 의해 근접될 수 있다. 예를 들어, DQN (deep-Q-network) 러닝 알고리즘이 활용될 수 있다. DQN에서, 상태 공간은 연속적일 수 있지만, 동작 공간은 작은 이산 집합으로 남아있을 수 있다. 연속적인 동작 공간에 관한 접근 방식이 있을 수 있으나,
Figure pct00168
함수의 근사치에 의존할 수 있다. 어쨌든,
Figure pct00169
함수는 복잡하고 잡음에 민감하므로 학습하기에 어려울 수 있다.
다른 접근 방식은 순환 신경망(RNN)을 활용하여 RL 문제에 접근하는 것이다. 일부의 경우, RNN은 멀티-에이전트 게임과 게임 이론의 적대적 환경에 대한 강건성(robustness)의 개념과 병합될 수 있다. 또한, 이 접근 방식은 마코비안 가정에 명시적으로 의존하지 않는 방식일 수 있다.
이하, 예측에 의거한 계획에 의한 항법 방식에 대해 상세히 설명한다. 이 방식에서, 상태 공간 S
Figure pct00170
의 부분 집합이고, 동작 공간 A
Figure pct00171
의 부분 집합인 것으로 가정할 수 있다. 이는 많은 애플리케이션에서 자연적 표현일 수 있다. 앞서 설명한 바와 같이, RL과 SL 사이에는 두 가지 중요한 차이가 있다. (1) 과거의 동작이 미래의 보상에 영향을 미치므로, 미래로부터의 정보가 과거로 전파될 필요가 있다. (2) 보상의 '밴딧(bandit)' 성질이 (상태, 동작)과 보상 사이의 의존관계를 모호하게 할 수 있어서 러닝 프로세스를 어렵게 할 수 있다.
접근 방식의 첫 단계로, 보상의 밴딧 성질이 문제가 되지 않는다는 흥미로운 문제가 있다는 점이 관찰될 수 있다. 예를 들어, ACC 애플리케이션에 대한 보상 가치(하기에 상세히 설명)는 현재의 상태 및 동작에 대하여 구별 가능할 수 있다. 실제로, 보상이 '밴딧' 방식으로 주어져도,
Figure pct00172
가 되도록 하는 미분 가능한 함수
Figure pct00173
를 학습하는 문제는 상대적으로 간단한 SL 문제(예, 1차원 회귀 문제)일 수 있다. 따라서, 접근 방식의 첫 단계는 s 및 α에 대하여 미분 가능한 함수
Figure pct00174
를 보상으로 정의하는 것이거나 인스턴스 벡터가
Figure pct00175
이고 타깃 스칼라가
Figure pct00176
인 샘플에서 적어도 일부 회귀 손실을 최소화하는 미분 가능한 함수
Figure pct00177
를 학습하기 위해 회귀 학습 알고리즘을 사용하는 것일 수 있다. 일부 상황에서, 학습 세트를 생성하기 위하여, 탐사의 요소가 활용될 수 있다.
과거와 미래 사이의 연결 문제에 대처하기 위하여, 유사한 아이디어가 활용될 수 있다. 예를 들어,
Figure pct00178
이 되도록 미분 가능 함수
Figure pct00179
가 학습될 수 있다고 가정하면, 이러한 함수를 학습하는 것은 SL 문제로 정의될 수 있을 것이다.
Figure pct00180
은 가까운 미래에 대한 예측변수(predictor)로 볼 수 있다. 다음으로, S에서 A로 매핑하는 방침은 파라미터 함수
Figure pct00181
를 통해 묘사될 수 있다.
Figure pct00182
를 신경망으로 표현하면 수환 신경망(RNN)을 활용하여 T 라운드에 대해 에이전트를 실행하는 에피소드를 표현할 수 있고, 다음 상태는
Figure pct00183
로 정의된다. 여기서,
Figure pct00184
는 주변상황에 의해 정의될 수 있고 가까운 미래의 예측할 수 없는 양상을 표현할 수 있다.
Figure pct00185
가 구별 가능한 방식으로
Figure pct00186
Figure pct00187
에 달려있다는 사실로 인해, 미래 보상 가치와 과거 동작 사이의 연결이 가능할 수 있다.
Figure pct00188
로 표현되는 방침 함수의 파라미터 벡터는 결과 RNN에 역전파(back-propagation)함으로써 학습될 수 있다. 여기서, 명시적인 확률론적 추정이
Figure pct00189
에 부과될 필요는 없다. 특히, 마코비안 관계에 대한 요건이 있을 필요가 없다. 대신에, 과거와 미래 사이에 '충분한' 정보를 전파하기 위하여 순환망에 의존될 수 있다. 직감적으로,
Figure pct00190
가 가까운 미래의 예측 가능한 부분을 묘사할 수 있는 반면에,
Figure pct00191
는 주변상황의 다른 참가자의 행동으로 기인하여 발생할 수 있는 예측 불가능한 양상을 표현할 수 있다. 러닝 시스템은 다른 참가자의 행동에 강건할 방침을 학습해야 한다.
Figure pct00192
가 큰 경우, 과거 동작과 미래 보상 가치 사이의 연결은 의미 있는 방침을 학습하기에 너무 잡음이 많을 수 있다. 시스템의 역학을 투명하게 명시적으로 표현하면 과거의 지식을 더욱 손쉽게 활용할 수 있다. 예를 들면, 과거의 지식은
Figure pct00193
을 정의하는 문제를 단순화할 수 있다.
앞서 설명한 바와 같이, 러닝 시스템은 예상 못한 방식으로 행동할 수 있는 여러 명의 다른 운전자를 포함할 수 있는 호스트 차량의 주변상황과 같은 적대적 환경에 대한 강건성으로부터 혜택을 받을 수 있다. 확률론적 추정을
Figure pct00194
에 부과하지 않는 모델에서,
Figure pct00195
가 적대적 방식으로 선택되는 주변상황이 고려될 수 있다. 일부의 경우,
Figure pct00196
에 제한이 부과될 수 있고, 그렇지 않은 경우, 상대방은 계획 문제를 어렵게 하거나 아예 불가능하게 만들 수 있다. 자연적인 제한의 한 가지는
Figure pct00197
가 상수에 의해 얽메이게 하는 것이다.
적대적 환경에 대한 강건성은 자율 주행 애플리케이션에 유용할 수 있다. 적대적인 방법으로
Figure pct00198
를 선택하면 러닝 시스템을 강건한 최적의 방침으로 집중할 수 있기 때문에 러닝 프로세스를 더 빠르게 할 수 있다. 단순한 게임을 사용하여 이 개념을 설명할 수 있다. 상태는
Figure pct00199
이고, 동작은
Figure pct00200
이며, 즉각적인 손실 함수는
Figure pct00201
이며, 여기서,
Figure pct00202
은 ReLU(rectified linear unit) 함수이다. 다음 상태는
Figure pct00203
이고, 여기서,
Figure pct00204
는 적대적인 방식으로 주변상황에 대하여 선택된다. 여기서, 최적의 방침은 ReLU:
Figure pct00205
Figure pct00206
로 두 계층의 네트워크로서 기록될 수 있다.
Figure pct00207
인 경우에, 최적의 동작은 α= 0인 동작보다 즉각적인 손실이 클 수 있다. 따라서, 시스템은 미래에 대해 계획할 수 있고 즉각적인 손실에 전적으로 의존하지 않을 수 있다.
Figure pct00208
에 관한 손실의 미분계수는
Figure pct00209
이고,
Figure pct00210
에 관한 미분계수는
Figure pct00211
이다.
Figure pct00212
인 상황에서,
Figure pct00213
의 적대적 선택은
Figure pct00214
로 설정될 것이므로
Figure pct00215
인 경우마다
Figure pct00216
라운드 상에 비제로(non-zero) 손실이 있을 수 있다. 이러한 경우, 손실의 미분계수는
Figure pct00217
로 바로 역전파할 수 있다. 따라서,
Figure pct00218
의 적대적 선택은
Figure pct00219
의 선택이 최적 이하인 경우에서 항법 시스템이 비제로 역전파 메시지를 획득하게 할 수 있다. 이러한 관계는 항법 시스템이 현재의 동작(최적 이하의 보상 또는 손실마저 가져올 수 있는 동작일지라도) 이 더 높은 보상을 가져오는 더욱 최적의 동작에 대한 기회를 미래에 제공할 것이라는 기대에 의거한 현재의 동작을 선택하는데 도움이 될 수 있다.
이러한 접근은 사실상 일어날 수 있는 모든 항법 상황에 적용될 수 있다. 이하, 일례로 적응형 순항장치(ACC)에 적용되는 접근 방식을 설명한다. ACC 문제에서, 호스트 차량은 앞에 있는 타깃 차량까지 충분한 거리(예, 타깃 차량까지 1.5초)를 유지하려고 시도할 수 있다. 또 한 가지 목표는 원하는 간격을 유지하면서 최대한 부드럽게 주행하는 것일 수 있다. 이 상황을 나타내는 모델은 다음과 같이 정의될 수 있다. 상태 공간은
Figure pct00220
이고, 동작 공간은
Figure pct00221
이다. 상태의 첫번째 좌표는 타깃 차량의 속도이고, 두번째 좌표는 호스트 차량의 속도이고, 마지막 좌표는 호스트 차량과 타깃 차량 사이의 거리(예, 도로 커브를 따라 호스트 차량의 위치에서 타깃 차량의 위치를 뺀 좌표)이다. 호스트 차량이 취할 동작은 가속이고 a t 로 나타낼 수 있다.
Figure pct00222
로 표시되는 양은 연속 라운드 사이의 시간 차를 나타내는 것일 수 있다.
Figure pct00223
는 모든 적합한 양으로 설정될 수 있지만, 일례에서,
Figure pct00224
는 0.1초일 수 있다. 위치인
Figure pct00225
Figure pct00226
로 나타낼 수 있고, 타깃 차량의 가속도(알 수 없음)는
Figure pct00227
로 나타낼 수 있다.
시스템의 전체 역학은 다음과 같이 기술될 수 있다.
Figure pct00228
이는 두 벡터의 합으로 기술될 수 있다.
Figure pct00229
첫번째 벡터는 예측 가능한 부분이고, 두번째 벡터는 예측 불가능한 부분이다. t 라운드에 대한 보상은 다음과 같이 정의될 수 있다.
Figure pct00230
첫번째 항의 결과는 비제로 가속에 대한 벌칙이고, 따라서 부드러운 주행을 유도한다. 두번째 항은 타깃 차량까지의 거리 xt와, 1미터의 거리와 1.5초의 제동 거리 사이의 최대로 정의된, 원하는 거리
Figure pct00231
사이의 비율에 의존한다. 일부의 경우, 이 비율은 정확히 1일 수 있지만, 이 비율이 [0.7, 1.3] 이내이면, 방침은 벌칙을 무시하고 어느 정도 느슨한 항법을 호스트 차량에 허용할 수 있다. 이는 부드러운 주행을 달성하기 위해 중요한 특성일 수 있다.
상기에 설명한 접근 방식을 이행함에 있어서, 호스트 차량의 항법 시스템(예, 항법 시스템의 처리부(110) 내의 주행 방침 모듈(803))은 관찰된 상태에 대응하여 동작을 선택할 수 있다. 선택된 동작은 감지된 항법 상태와 관련되어 사용 가능한 대응 동작과 연관된 보상의 분석뿐만 아니라 미래의 상태, 미래의 생태에 대응한 잠재적 동작, 및 잠재적 동작과 연관된 보상의 고려 및 분석에 의거할 수 있다.
도 16은 검출과 장기 계획에 의거한 항법에 대한 알고리즘 접근 방식을 도시한 것이다. 예컨대, 단계 1601에서, 호스트 차량에 대한 항법 시스템의 적어도 하나의 처리 장치(110)는 복수의 이미지를 수신할 수 있다. 이 이미지들은 호스트 차량의 주변상황을 나타내는 장면을 캡처할 수 있고 앞서 설명한 이미지캡처장치(예, 카메라, 센서 등) 중의 하나 이상에 의해 공급될 수 있다. 단계 1603에서, 하나 이상의 이미지의 분석을 통해 적어도 하나의 처리 장치(110)가 앞서 설명한 바와 같이 호스트 차량과 연관된 현재의 항법 상태를 식별할 수 있다.
단계 1605, 1607, 1609에서, 감지된 항법 상태에 대응하는 다양한 잠재적 항법 동작이 결정될 수 있다. 이러한 잠재적 항법 동작(예, 제N 사용 가능한 항법 동작을 통한 제1 항법 동작)은 감지된 상태와 항법 시스템의 장기 목표(예, 병합 완료하기, 앞에 가는 차량을 부드럽게 따라가기, 타깃 차량을 추월하기, 도로상의 물체를 피하기, 일시정지표지판에 대해 감속하기, 끼어드는 타깃 차량을 피하기, 또는 항법 시스템의 항법 목적을 진행시킬 수 있는 기타 모든 항법 동작)에 의거하여 결정될 수 있다.
결정된 각 잠재적 항법 동작에 대해, 시스템은 기대 보상을 판단할 수 있다. 기대 보상은 앞서 설명한 모든 방법에 따라 판단될 수 있고 하나 이상의 보상 함수에 대한 특정 잠재적 동작의 분석을 포함할 수 있다. 기대 보상(1606, 1608, 1610)은 단계 1605, 1607, 1609에서 각각 결정된 잠재적 항법 동작(예, 제1, 제2, 제N)에 대해 판단될 수 있다.
일부 경우에서, 호스트 차량의 항법 시스템은 기대 보상(1606, 1608, 1610)과 연관된 값(또는 기대 보상의 기타 유형의 지시자)에 의거하여 사용 가능한 잠재적 동작 중에서 선택할 수 있다. 예를 들어, 일부의 경우, 가장 높은 기대 보상을 제공하는 동작이 선택될 수 있다.
일부의 경우, 특히 항법 시스템이 장기 계획을 활용하여 호스트 차량에 대한 항법 동작을 결정하는 경우에, 시스템은 가장 높은 기대 보상을 제공하는 잠재적 동작을 선택하지 않을 수도 있다. 오히려, 시스템은 미래를 바라보고 현재의 항법 상태에 대응하여 낮은 보상 동작을 선택할 경우에 나중에 더 높은 보상을 실현할 기회가 있을 수 있는지 여부를 분석할 수 있다. 예를 들면, 단계 1605, 1607, 1609에서 결정된 잠재적 항법 동작의 어느 하나 또는 모두에 대해, 미래의 상태가 판단될 수 있다. 단계 1613, 1615, 1617에서 판단된 각 미래 상태는 각 잠재적 동작(예, 단계 1605, 1607, 1609에서 결정된 잠재적 동작)에 의해 수정된 바와 같은 현재의 항법 상태에 의거한 결과일 것으로 기대되는 미래의 항법 상태를 나타내는 것일 수 있다.
단계 1613, 1615, 1617에서 예측된 미래의 상태 각각에 대하여, 하나 이상의 미래의 동작(판단된 미래의 상태에 대응하여 사용 가능한 항법 옵션으로서)이 결정되고 평가될 수 있다. 예를 들어, 단계 1619, 1621, 1623에서, 하나 이상의 미래의 동작과 연관된 기대 보상의 가치 또는 기타 유형의 지시자가 발생(예, 하나 이상의 보상 함수에 의거하여)될 수 있다. 하나 이상의 미래의 동작과 연관된 기대 보상은 각 미래 동작과 연관된 보상 함수의 가치를 비교하거나 기대 보상과 연관된 기타 지시자를 비교하여 평가될 수 있다.
단계 1625에서, 호스트 차량에 대한 항법 시스템은, 현재의 항법 상태에 대해 식별된(예, 단계 1605, 1607, 1609) 잠재적 동작에만 의거하지 않고 예측된 미래의 상태(예, 단계 1613, 1615, 1617에서 판단)에 대응하여 사용 가능한 잠재적 미래 동작의 결과로서 판단된 기대 보상에도 의거하여, 기대 보상의 비교에 의거하여 호스트 차량에 대한 항법 동작을 선택할 수 있다. 단계 1625에서의 선택은 단계 1619, 1621, 1623에서 수행된 옵션 및 보상 분석에 의거할 수 있다.
단계 1625에서의 항법 동작의 선택은 미래의 동작 옵션과 연관된 기대 보상의 비교에만 의거할 수 있다. 이 경우, 항법 시스템은 동작에서 기인하는 기대 보상과 잠재적 미래 항법 상태의 비교에만 오로지 의거하여 현재 상태에 대한 동작을 선택할 수 있다. 예컨대, 시스템은 단계 1619, 1621, 1623의 분석을 통하여 판단된 가장 높은 미래 보상 가치와 연관된 단계 1605, 1607, 또는 1609에서 식별된 잠재적 동작을 선택할 수 있다.
단계 1625에서의 항법 동작의 선택은 또한 현재 동작 옵션의 비교에만(앞서 설명한 바와 같이) 의거할 수 있다. 이 경우, 항법 시스템은 단계 가장 높은 기대 보상(1606, 1608, 또는 1610)과 연관된 단계 1605, 1607, 또는1609에서 식별된 잠재적 동작을 선택할 수 있다. 이러한 선택은 미래의 항법 상태에 대한 고려가 거의 또는 전혀 없이, 또는 기대 미래 항법 상태에 대응하여 사용가능한 항법 동작에 대한 미래 기대 보상에 대한 고려가 거의 또는 전혀 없이 수행될 수 있다.
반면, 일부 경우에서, 단계 1625에서의 항법 동작의 선택은 미래 동작 옵션과 현재 동작 옵션 모두와 연관된 기대 보상의 비교에 의거할 수 있다. 사실, 이는 장기 계획에 의거한 항법의 원리 중의 하나일 수 있다. 예를 들어, 미래 동작에 대한 기대 보상을 분석하여, 미래 항법 상태에 대응하여 사용 가능할 것으로 기대되는 추후의 항법 동작에 대응한 잠재적으로 더 큰 보상을 달성하기 위하여 현재 항법 상태에 대응하여 작은 보상 동작을 선택할지 여부를 결정할 수 있다. 일례로, 기대 보상(1606)의 가치 또는 기타 지시자는 보상(1606, 1608, 1610) 중에서 가장 높은 기대 보상을 나타낼 수 있다. 반면에, 기대 보상(1608)은 보상(1606, 1608, 1610) 중에서 가장 낮은 기대 보상을 나타낼 수 있다. 단계1605에서 결정된 잠재적 동작(즉, 가장 높은 기대 보상(1606)을 제공하는 동작)을 단순히 선택하기보다, 미래 상태, 잠재적 미래 동작, 및 미래 보상의 분석을 활용하여 단계 1625에서 항법 동작을 선택할 수 있다. 일례로, 단계 1621에서 식별된 보상(단계 1607에서 결정된 제2 잠재적 동작에 의거하여 단계 1615에서 판단된 미래 상태에 대한 적어도 하나의 미래 동작에 대응한 보상)이 기대 보상(1606)보다 높을 수 있다고 판단될 수 있다. 이러한 비교에 의거하여, 기대 보상(1606)이 기대 보상(1608)보다 큼에도 불구하고, 단계 1605에서 결정된 제1 잠재적 동작보다 단계 1607에서 결정된 제2 잠재적 동작이 선택될 수 있다. 일례로, 단계 1605에서 결정된 잠재적 항법 동작은 검출된 타깃 차량 앞으로의 병합을 포함할 수 있는 반면, 단계 1607에서 결정된 잠재적 항법 동작은 검출된 타깃 차량 뒤로의 병합을 포함할 수 있다. 타깃 차량 앞으로의 병합의 기대 보상(1606)이 타깃 차량 뒤로의 병합과 연관된 기대 보상(1608)보다 클 수 있지만, 타깃 차량 뒤로의 병합의 결과로 기대 보상(1606, 1608)보다 큰, 또는 현재의 감지된 항법 상태에 대응하여 사용 가능한 동작에 의거한 다른 보상보다 큰 잠재적 보상을 제공하는 동작 옵션이 있을 수 있는 미래 상태가 될 것이라고 판단할 수 있다.
단계 1625에서의 잠재적 동작 중에서의 선택은 기대 보상의 모든 적절한 비교(또는 한 잠재적 동작이 다른 잠재적 동작보다 나은 장점의 기타 모든 메트릭 또는 지시자)에 의거할 수 있다. 일부의 경우, 앞서 설명한 바와 같이, 제2 잠재적 동작이 제1 잠재적 동작과 연관된 보상보다 큰 기대 보상과 연관된 적어도 하나의 미래 동작을 제공할 것으로 예상되는 경우, 제1 잠재적 동작보다 제2 잠재적 동작이 선택될 수 있다. 즉, 더욱 복잡한 비교가 활용될 수 있다. 예를 들면, 예상되는 미래 상태에 대응한 동작 옵션과 연관된 보상이 결정된 잠재 동작과 연관된 하나 이상의 기대 보상에 비교될 수 있다.
일부 상황에서, 예상되는 미래 상태에 의거한 동작과 기대 보상은, 미래 동작의 적어도 하나가 현재 상태에 대한 잠재적 동작의 결과로 기대되는 어떤 보상(예, 1606, 1608, 1610 등)보다 큰 보상을 제공할 것으로 기대되는 경우, 현재 상태에 대한 잠재적 동작의 선택에 영향이 있을 수 있다. 일부의 경우, 가장 큰 기대 보상(감지된 현재 상태에 대한 잠재적 동작과 연관된 기대 보상 또는 잠재적 미래 항법 상태에 관한 잠재적 미래 동작 옵션과 연관된 기대 보상 중의 하나)을 제공하는 미래 동작 옵션이 현재 항법 상태에 대한 잠재적 동작의 선택을 위한 가이드로 활용될 수 있다. 즉, 가장 큰 기대 보상(또는 미리 정해진 임계값 이상의 보상)을 제공하는 미래 동작 옵션을 식별한 후에, 단계 1625에서, 가장 큰 기대 보상을 제공하는 식별된 미래 동작과 연관된 미래 상태로 이어질 잠재적 행동이 선택될 수 있다.
다른 경우에, 기대 보상 사이에 판단된 차이에 의거하여 사용 가능한 동작이 선택될 수 있다. 예컨대, 단계 1607에서 결정된 제2 잠재적 동작은 단계 1621에서 판단된 미래 동작과 연관된 기대 보상과 기대 보상(1606) 사이의 차이가 기대 보상(1608)과 기대 보상(1606) 사이의 차이(플러스(+) 부호 차이라는 가정)보다 큰 경우에 선택될 수 있다. 다른 예에서, 단계 1607에서 결정된 제2 잠재적 동작은 단계 1621에서 판단된 미래 동작과 연관된 기대 보상과 단계 1619에서 판단된 미래 동작과 연관된 기대 보상 사이의 차이가 기대 보상(1608)과 기대 보상(1606) 사이의 차이보다 큰 경우에 선택될 수 있다.
현재 항법 상태에 대한 잠재적 동작 중에서의 선택을 위한 몇 가지 예시를 설명하였다. 그러나, 예상되는 미래 상태로 이어지는 동작 및 보상 분석에 의거한 장기 계획을 통한 사용 가능한 동작의 선택을 위해 기타 모든 적합한 비교 방법 또는 기준이 활용될 수 있다. 또한, 도 16에서는 두 계층의 장기 계획 분석(예, 현재 상태에 대한 잠재적 동작에서 기인하는 보상을 고려하는 제1 계층, 및 예상 미래 상태에 대응한 미래 동작 옵션에서 기인하는 보상을 고려하는 제2 계층)을 도시하였지만, 더 많은 계층에 기반한 분석도 가능할 수 있다. 예를 들어, 장기 계획 분석을 하나 또는 두 계층에 의거하기보다, 3, 4, 또는 그 이상의 계층의 분석을 활용하여 현재 항법 상태에 대응한 사용 가능한 잠재적 동작 중에서 선택할 수 있다.
단계 1627에서, 감지된 항법 상태에 대응하여 잠재적 동작 중에서 선택을 한 다음에, 적어도 하나의 프로세서는 선택된 잠재적 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 항법 액추에이터에는 호스트 차량의 적어도 한 양상을 제어하기 적합한 장치가 포함될 수 있다. 예를 들면, 항법 액추에이터에는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나가 포함될 수 있다.
타인의 추론된 공격성에 의거한 항법
획득된 이미지 스트림의 분석을 통하여 타깃 차량을 모니터링 함으로써 난폭 운전의 지시자를 판단할 수 있다. 본 기재에서 난폭이란 정성적 또는 정량적 파라미터이지만, 인지된 집중도(예, 운전자의 잠재적 장애, 산만―휴대폰, 졸음 등)와 같은 다른 특성도 활용될 수 있다. 일부의 경우에서, 타깃 차량이 방어적인 자세인 것으로 여겨질 수 있고, 일부의 경우에서, 타깃 차량이 공격적인 자세인 것으로 판단될 수 있다. 항법 동작은 공격성의 지시자에 의거하여 선택되거나 생성될 수 있다. 예를 들어, 일부 경우에서, 호스트 차량에 대한 상대적 속도, 상대적 가속도, 상대적 가속도의 증가, 추종 거리 등을 추적하여 타깃 차량이 공격적인지 또는 방어적인지 판단할 수 있다. 타깃 차량이 예를 들어 임계값을 초월하는 공격성 수준인 것으로 판단되는 경우, 호스트 차량은 타깃 차량에 양보하는 쪽으로 기울 수 있다. 타깃 차량의 공격성 수준은 또한 타깃 차량의 경로 또는 주변의 하나 이상의 장애물(예, 선두 차량, 도로의 장애물, 신호등 등)에 대해 판단된 타깃 차량의 행동에 의거하여 파악될 수 있다.
본 개념에 대한 입문으로서, 항법 목표가 통과하여 진출하는 것인 로터리로 호스트 차량이 병합하는 것에 대한 예시적인 실험을 설명하기로 한다. 이 상황은 호스트 차량이 로터리의 진입로에 접근하면서 시작하여 호스트 차량이 로터리의 진출로(예, 두번째 진출로)에 도달하면서 종료될 수 있다. 성공은 호스트 차량이 항상 다른 모든 차량으로부터 안전 거리를 유지하는지 여부, 호스트 차량이 최대한 신속히 경로를 완료하는지 여부, 및 호스트 차량이 부드러운 가속 방침을 준수하는지 여부에 의거하여 판단될 수 있다. 본 예시에서, NT타깃 차량이 로터리에 임의로 배치될 수 있다. p의 확률로 적대적 행동과 전형적 행동이 섞인 모델을 형성하기 위하여, 호스트 차량이 타깃 차량 앞으로 병합을 시도하는 경우에 타깃 차량이 가속하도록 타깃 차량이 '공격적' 주행 방침에 의해 모델링 될 수 있다. 1-p의 확률로, 타깃 차량이 감속을 하고 호스트 차량을 병합해 들어오게 하도록 타깃 차량이 '방어적' 주행 방침에 의해 모델링 될 수 있다. 이 실험에서, p = 0.5이고, 호스트 차량의 항법 시스템은 다른 운전자의 유형에 대한 정보를 전혀 제공받지 못할 수도 있다. 다른 운전자의 유형은 에피소드가 시작될 때 임의로 선택될 수 있다.
항법 상태는 호스트 차량(에이전트)의 속도와 위치, 및 타깃 차량의 위치, 속도, 및 가속도로 나타낼 수 있다. 타깃 가속도 관찰을 유지하는 것은 현재 상태에 의거하여 공격적 운전자와 방어적 운전자 사이를 구별하기 위해 중요할 수 있다. 모든 타깃 차량은 로터리 경로를 보여주는 1차원 커브 상에서 이동할 수 있다. 호스트 차량은 병합 지점에서 타깃 차량의 커브와 교차하는 자체적인 1차원 커브 상에서 이동할 수 있고, 이 병합 지점은 두 커브의 원점이다. 합리적인 주행을 모델링하려면, 모든 차량의 가속도의 절대값의 상한은 상수일 수 있다. 후진 주행은 허용되지 않기 때문에, 속도도 ReLU를 거칠 수 있다. 후진 주행을 허용하지 않음으로써, 에이전트는 과거의 동작을 되돌릴 수 없기 때문에, 장기 계획이 필수가 될 수 있다.
앞서 설명한 바와 같이, 다음 상태
Figure pct00232
는 예측 가능한 부분
Figure pct00233
와 예측 불가능한 부분
Figure pct00234
로 분해될 수 있다.
Figure pct00235
라는 표현은 차량 위치와 속도의 역학을 나타내는 것일 수 있고(명확히 구별 가능한 방식),
Figure pct00236
는 타깃 차량의 가속도를 나타내는 것일 수 있다.
Figure pct00237
가 아핀변환(affine transformation) 상의 ReLU 함수의 조합으로 표현될 수 있으므로, s t
Figure pct00238
에 대하여 미분 가능하다. 벡터
Figure pct00239
는 미분 불가능한 방식으로 시뮬레이터에 의해 정의될 수 있고, 일부 타깃에 대해서는 공격적 행동, 다른 타깃에 대해서는 방어적 행동을 이행(implement)할 수 있다. 이러한 시뮬레이터로부터의 두 프레임이 도 17a와 도 17b에 도시되어 있다. 본 예시적인 실험에서, 호스트 차량(1701)은 로터리의 입구에 접근하며 속도를 줄이도록 학습했다. 또한, 공격적 차량(예, 1703, 1705)에게 양보하고 방어적 차량(예, 1706, 1708, 1710) 앞으로 병합할 경우에 안전하게 진행하도록 학습했다. 도 17a와 도 17b에 도시된 예시에서, 호스트 차량(1701)의 항법 시스템은 타깃 차량의 유형이 제공되지 않는다. 대신에, 특정 차량이 공격적인지 또는 방어적인지에 대한 판단은 예를 들어 관찰된 타깃 차량의 위치와 가속도에 의거하여 이루어진다. 도 17a에서, 위치, 속도, 및/또는 상대적 가속도에 의거하여, 호스트 차량(1701)은 차량(1703)이 공격적 성향이라고 판단할 수 있고, 따라서 호스트 차량(1701)은 타깃 차량(1703) 앞으로 병합해 들어가기보다는 타깃 차량(1703)이 지나가도록 정지하여 기다릴 수 있다. 그러나 도 17b에서, 호스트 차량(1701)은 차량(1703) 뒤에서 이동하는 타깃 차량(1710)이 방어적 성향임을 인지하고(차량(1710)의 위치, 속도, 및/또는 상대적 가속도의 관찰에 의거), 따라서 타깃 차량(1710) 앞과 타깃 차량(1703) 뒤로 성공적으로 병합을 완수했다.
도 18은 다른 차량의 예상 공격성에 의거한 호스트 차량의 항법을 위한 예시적인 알고리즘을 나타내는 순서도를 도시한 것이다. 도 18의 예에서, 적어도 한 대의 타깃 차량과 연관된 공격성의 수준은 타깃 차량의 주변상황 내의 물체에 대한 타깃 차량의 관찰된 행동에 의거하여 파악될 수 있다. 예를 들면, 단계 1801에서, 호스트 차량 항법 시스템의 적어도 하나의 처리 장치(예, 처리 장치(110))는 호스트 차량의 주변상황을 나타내는 복수의 이미지를 호스트 차량과 연관된 카메라로부터 수신할 수 있다. 단계 1803에서, 수신된 이미지의 하나 이상을 분석하여 적어도 하나의 프로세서는 호스트 차량(1701)의 주변상황 내에서 타깃 차량(예, 1703)을 식별할 수 있다. 단계 1805에서, 수신된 이미지의 하나 이상을 분석하여 적어도 하나의 처리 장치는 호스트 차량의 주변상황 내에서 타깃 차량에 대한 적어도 하나의 장애물을 식별할 수 있다. 장애물은 도로에 있는 잔해, 신호등, 보행자, 다른 차량(예, 타깃 차량 앞에서 이동하는 차량, 주차된 차량 등), 도로에 있는 상자, 도로 배리어, 도로 경계석, 또는 호스트 차량의 주변상황에서 마주칠 수 있는 다른 유형의 물체를 포함할 수 있다. 단계 1807에서, 수신된 이미지의 하나 이상을 분석하여 적어도 하나의 처리 장치는 타깃 차량에 대해 적어도 하나의 식별된 장애물에 대한 타깃 차량의 적어도 하나의 항법 특성을 판단할 수 있다.
타깃 차량에 대한 적절한 항법 대응을 마련하기 위하여, 다양한 항법 특성을 활용하여 검출된 타깃 차량의 공격성 수준을 파악할 수 있다. 예컨대, 이러한 항법 특성은 타깃 차량과 적어도 하나의 식별된 장애물 사이의 상대적 가속도, 장애물로부터 타깃 차량까지의 거리(예, 다른 차량 뒤의 타깃 차량의 추종 거리), 및/또는 타깃 차량과 장애물 사이의 상대적 속도 등이 포함될 수 있다.
일부 실시예에서, 타깃 차량의 항법 특성은 호스트 차량과 연관된 센서(예, 레이더, 속력 센서, GPS 등)로부터의 출력에 의거하여 판단될 수 있다. 그러나, 일부 경우에서, 타깃 차량의 항법 특성은 호스트 차량의 주변상황의 이미지의 분석에 부분적으로 또는 전적으로 의거하여 판단될 수 있다. 예를 들면, 앞서 설명하고 예를 들어 본 발명에 참조를 통해 포함된 미국 특허 번호 9,168,868에 기재된 이미지 분석 방법을 활용하여 호스트 차량의 주변상황 이내의 타깃 차량을 인지할 수 있다. 또한, 캡처된 이미지에서 타깃 차량의 위치를 시간에 걸쳐 모니터링 및/또는 캡처된 이미지에서 타깃 차량과 연관된 하나 이상의 특징(예, 후미등, 전조등, 범퍼, 바퀴 등)의 위치를 모니터링 하면 타깃 차량과 호스트 차량 간 또는 타깃 차량과 호스트 차량의 주변상황 내의 하나 이상의 기타 물체 간의 상대적 거리, 속도, 및/또는 가속도를 판단할 수 있다.
식별된 타깃 차량의 공격성 수준은 타깃 차량에서 관찰된 적절한 항법 특성 또는 관찰된 항법 특성의 조합으로부터 파악될 수 있다. 예를 들면, 공격성은 관찰된 특성과 하나 이상의 미리 정해진 임계값 또는 기타 적절한 정성적 또는 정량적 분석으로부터 판단될 수 있다. 일부 실시예에서, 타깃 차량이 호스트 차량이나 다른 차량을 미리 정해진 공격적 거리 임계값보다 작은 거리에서 쫓아가고 있는 것으로 관찰되는 경우, 타깃 차량은 공격적인 것으로 여겨질 수 있다. 반면에, 호스트 차량이나 다른 차량을 미리 정해진 방어적 거리 임계값보다 큰 거리에서 쫓아가고 있는 것으로 관찰된 타깃 차량은 방어적인 것으로 여겨질 수 있다. 미리 정해진 공격적 거리 임계값은 미리 정해진 방어적 거리 임계값과 같을 필요는 없다. 추가적으로, 미리 정해진 공격적 거리 임계값과 미리 정해진 방어적 거리 임계값 중의 하나 또는 모두는 휘선값(bright line value) 보다는 일정한 범위의 값을 포함할 수 있다. 나아가, 미리 정해진 공격적 거리 임계값과 미리 정해진 방어적 거리 임계값은 모두 고정값이 아니다. 오히려, 이 값들 또는 범위의 값들은 시간에 따라 달라지고, 타깃 차량의 관찰된 특성에 따라 다른 임계값/임계값 범위가 적용될 수 있다. 예를 들어, 적용된 임계값은 타깃 차량의 하나 이상의 다른 특성에 따라 다를 수 있다. 상대적 속도 및/또는 가속도가 높은 것으로 관찰되는 경우, 높은 임계값/범위의 적용이 필요할 수 있다. 반대로, 상대적 속도 및/또는 가속도가 낮거나 0이면, 공격성/방어성 파악에 있어서 낮은 임계값/범위의 적용이 필요할 수 있다.
공격성/방어성 파악은 또한 상대적 속도 및/또는 상대적 가속도 임계값에 의거할 수 있다. 다른 차량에 대한 타깃 차량의 관찰된 상대적 속도 및/또는 상대적 가속도가 미리 정해진 수준 또는 범위를 초과하는 경우, 타깃 차량은 공격적인 것으로 여겨질 수 있다. 다른 차량에 대한 타깃 차량의 관찰된 상대적 속도 및/또는 상대적 가속도가 미리 정해진 수준 또는 범위에 못 미치는 경우, 타깃 차량은 방어적인 것으로 여겨질 수 있다.
관찰된 항법 특성만을 의거하여 공격성/방어성을 판단할 수 있지만, 관찰된 특성의 조합에 의거하여 판단할 수도 있다. 예를 들어, 앞서 설명한 바와 같이, 일부의 경우에서, 타깃 차량이 다른 차량을 특정 임계값 또는 범위 이하의 거리에서 쫓아가고 있다는 관찰에만 의거하여 타깃 차량이 공격적인 것으로 여겨질 수 있다. 그러나, 다른 경우에서, 타깃 차량이 다른 차량을 미리 정해진 값(거리에만 의거한 판단에 적용된 임계값과 같거나 다를 수 있음) 미만에서 쫓아가고 있고 미리 정해진 값 또는 범위보다 큰 상대적 속도 및/또는 상대적 가속도인 경우에 타깃 차량이 공격적인 것으로 여겨질 수 있다. 마찬가지로, 타깃 차량이 다른 차량을 특정 임계값 또는 범위 이상의 거리에서 쫓아가고 있다는 관찰에만 의거하여 타깃 차량이 방어적인 것으로 여겨질 수 있다. 그러나, 다른 경우에서, 타깃 차량이 다른 차량을 미리 정해진 값(거리에만 의거한 판단에 적용된 임계값과 같거나 다를 수 있음) 이상에서 쫓아가고 있고 미리 정해진 값 또는 범위보다 작은 상대적 속도 및/또는 상대적 가속도인 경우에 타깃 차량이 방어적인 것으로 여겨질 수 있다. 시스템(100)은, 예를 들어, 차량의 가속도 또는 감속도가 05G를 초과하는 경우(예, 5m/s3 저크), 차로 변경이나 커브 상황에서 차량의 횡방향 가속도가 0.5G인 경우, 차량이 다른 차량에게 상기 중의 어느 하나를 유발하는 경우, 차량이 차로를 변경하고 다른 차량에게 0.3G 이상의 감속 또는 3m/s3의 저크로 양보를 유발하는 경유, 및/또는 차량이 멈추지 않고 두 차로를 변경하는 경우에 공격성/방어성 파악을 할 수 있다.
여기서, 범위를 초과하는 양에 대한 설명은 그 양이 범위와 연관된 모든 값을 초과하거나 범위 내에 포함됨을 나타낸다는 것으로 이해돼야 한다. 마찬가지로, 범위에 미달하는 양에 대한 설명은 그 양이 범위와 연관된 모든 값에 미달하거나 범위 내에 포함됨을 나타낸다는 것으로 이해돼야 한다. 또한, 공격성/방어성 파악에 대해 설명한 예시들을 거리, 상대적 가속, 및 상대적 속도와 관련하여 설명했지만, 기타 적합한 수량도 활용될 수 있다. 예를 들면, 충돌까지의 시간을 활용할 수 있다. 상기의 예시들은 다른 차량에 대한 타깃 차량 중심으로 설명하였지만, 다른 유형의 장애물(예, 보행자, 도로 배리어, 신호등, 잔해 등)에 대한 타깃 차량의 항법 특성을 관찰하여 공격성/방어성 파악을 할 수도 있다.
도 17a와 도 17b에 도시된 예시로 돌아와서, 호스트 차량(1701)이 로터리에 접근함에 따라, 적어도 하나의 처리 장치를 포함하는 항법 시스템은 호스트 차량과 연관된 카메라로부터 이미지 스트림을 수신할 수 있다. 수신된 이미지의 하나 이상의 분석에 의거하여, 한 대 이상의 타깃 차량(1703, 1705, 1706, 1708, 1710)이 식별될 수 있다. 또한, 항법 시스템은 식별된 한 대 이상의 타깃 차량의 항법 특성을 분석할 수 있다. 항법 시스템은 타깃 차량(1703)과 타깃 차량(1705) 사이의 틈이 로터리로 병합해 들어갈 수 있는 첫 번째 기회임을 인지할 수 있다. 항법 시스템은 타깃 차량(1703)을 분석하여 타깃 차량(1703)과 연관된 공격성을 판단할 수 있다. 타깃 차량(1703)이 공격적인 것으로 여겨지는 경우, 호스트 차량의 항법 시스템은 타깃 차량(1703) 앞으로 병합하지 않고 타깃 차량(1703)에게 양보하기로 선택할 수 있다. 반면에, 타깃 차량(1703)이 방어적인 것으로 여겨지는 경우, 호스트 차량의 항법 시스템은 타깃 차량(1703) 앞에서 병합 동작의 완수를 시도할 수 있다.
호스트 차량(1701)이 로터리에 접근하면서, 항법 시스템의 적어도 하나의 처리 장치는 캡처된 이미지를 분석하여 타깃 차량(1703)과 연관된 항법 특성을 판단할 수 있다. 예를 들어, 이미지에 의거하여, 호스트 차량(1701)이 안전하게 진입할 수 있는 충분한 틈을 제공하는 거리로 차량(1703)이 차량(1705)을 쫓아가고 있다고 판단될 수 있다. 실제로, 공격적 거리 임계값을 초과하는 거리로 차량(1703)이 차량(1705)을 쫓아가고 있다고 판단될 수 있고, 따라서, 이 정보에 의거하여, 호스트 차량의 항법 시스템은 타깃 차량(1703)을 방어적인 것으로 식별할 가능성이 있다. 그러나 일부 상황에서, 앞서 설명한 바와 같이, 공격성/방어성 판단에 타깃 차량의 하나 이상의 항법 특성이 분석될 수 있다. 분석에 더하여, 호스트 차량의 항법 시스템은 타깃 차량(1703)이 비공격적 거리에서 타깃 차량(1705)을 따라가지만 타깃 차량(1705)에 대한 상대적 속도 및/또는 상대적 가속도는 공격적 행동과 연관된 하나 이상의 임계값을 초과한다고 판단할 수 있다. 실제로, 호스트 차량(1701)은 타깃 차량(1703)이 차량(1705)에 대하여 가속하고 있고 차량(1703)과 차량(1705) 사이에 존재하는 틈을 좁히고 있다고 판단할 수 있다. 상대적 속도, 가속도, 및 거리(또한 차량(1703)과 차량(1705) 사이에 존재하는 틈이 좁아지는 속도)의 추가 분석에 의거하여, 호스트 차량(1701)은 타깃 차량(1703)이 공격적으로 행동하고 있다고 판단할 수 있다. 따라서, 호스트 차량이 안전하게 들어갈 수 있는 틈이 있을 수 있어도, 호스트 차량(1701)은 타깃 차량(1703) 앞으로 병합하면 공격적 항법을 하는 차량이 호스트 차량의 바로 뒤에 있게 되는 결과가 발생할 것으로 예상할 수 있다. 또한, 이미지 분석 또는 기타 센서 출력을 통해 관찰된 행동에 의거하여, 호스트 차량(1701)이 차량(1703) 앞으로 병합하여 들어가면, 타깃 차량(1703)이 호스트 차량(1701)을 향하여 계속 가속하거나 비제로 상대적 속도로 호스트 차량(1701)을 향해 주행할 것이 예상될 수 있다. 이러한 상황은 안전 차원에서 바람직하지 않을 수 있고 호스트 차량의 승객이 불편해 할 수 있다. 이러한 이유로, 호스트 차량(1701)은 도 17b에 도시된 바와 같이, 차량(1703)에 양보하고, 차량(1703)의 뒤와 항법 특성의 하나 이상의 분석에 의거하여 방어적인 것으로 여겨지는 차량(1710)의 앞으로 로터리에 병합할 수 있다.
다시 도 18을 참조하면, 단계 1809에서, 호스트 차량의 항법 시스템의 적어도 하나의 처리 장치는 식별된 장애물에 대한 타깃 차량의 적어도 하나의 식별된 항법 특성에 의거하여 호스트 차량에 대한 항법 동작(예, 차량(1710)의 앞과 차량(1703)의 뒤로 병합)을 결정할 수 있다. 항법 동작을 이행(implement)(단계 1811)하기 위하여, 적어도 하나의 처리 장치는 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 예를 들면, 도 17a의 차량(1703)에 양보하기 위하여 브레이크가 작동될 수 있고, 도 17b에 도시된 바와 같이, 호스트 차량이 차량(1703)의 뒤로 로터리에 진입하게 하기 위하여 호스트 차량의 조향과 함께 가속장치가 작동될 수 있다.
상기 예에서 설명한 바와 같이, 호스트 차량의 항법은 다른 차량 또는 물체에 대한 타깃 차량의 항법 특성에 의거할 수 있다. 또한, 호스트 차량의 항법은 다른 차량 또는 물체와 무관하게 타깃 차량의 항법 특성에만 의거할 수 있다. 예를 들어, 도 18의 단계 1807에서, 호스트 차량의 주변상황으로부터 캡처된 복수의 이미지의 분석을 통하여 타깃 차량과 연관된 공격성 수준을 나타내는 식별된 타깃 차량의 적어도 하나의 항법 특성을 판단할 수 있다. 항법 특성은 공격성/방어성 판단을 하기 위해 다른 차량 또는 타깃 차량에 대하여 참조할 필요 없는 속도, 가속도 등을 포함할 수 있다. 예를 들어, 미리 정해진 임계값을 초과하거나 임계값 범위 이내에 있거나 초과하는 타깃 차량과 연관되어 관찰된 가속도 및/또는 속도는 공격적 행동을 나타내는 것일 수 있다. 반대로, 미리 정해진 임계값에 미달하거나 임계값 범위 이내에 있거나 초과하는 타깃 차량과 연관되어 관찰된 가속도 및/또는 속도는 방어적 행동을 나타내는 것일 수 있다.
물론, 일부의 경우에서, 관찰된 항법 특성(예, 위치, 거리, 가속도 등)는 공격성/방어성 판단을 위해 호스트 차량에 대해 참조될 수 있다. 예를 들면, 타깃 차량과 연관된 공격성 수준을 나타내는 타깃 차량의 관찰된 항법 특성에는 타깃 차량과 호스트 차량 사이의 상대적 가속도의 증가, 호스트 차량의 뒤에서 따라오는 타깃 차량의 거리, 타깃 차량과 호스트 차량 사이의 상대적 속도 등이 포함될 수 있다.
위치에 의거한 항법 규칙 선정
일부 실시예에서, 호스트 차량 항법 시스템은 차량에 대한 규칙의 적용 가능성에 의거하여 항법 규칙 사이의 선택을 할 수 있다. 예컨대, 호스트 차량 항법 시스템은 호스트 차량의 위치를 모니터링 하고(예, GPS, 위치 방송 비콘(beacon), 인지된 교통표지판 등 또는 이들의 조합에 의거) 위치에 의거하여 항법 규칙 사이의 선택(예, 직진 신호시 비보호 좌회전 또는 좌회전 신호시에만 좌회전)을 할 수 있다. 이하, 이러한 규칙을 차량의 자율 제어에 적용하는 시스템 및 방법에 대해 설명하기로 한다.
도 19에 도시된 바와 같이, 앞서 설명한 다른 모듈과 조합하여, 항법 규칙의 선정과 적용은 예를 들어 구역 판단 모듈(1902)과 항법 규칙 판단 모듈(1904)을 포함하는 두 개의 모듈로 구분될 수 있다. 일부 실시예에서, 모듈들(1902, 1904)은 시스템(100)의 메모리(140) 및/또는 메모리(150)에 저장될 수 있고, 모듈들(1902, 1904)은(또는 그 일부는) 시스템(100)으로부터 원격으로 저장(예, 무선 송수신기(172)를 통하여 시스템(100)에 접속 가능한 서버에 저장)될 수 있다.
구역 판단 모듈(1902)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 타깃 차량이 연관되는 하나 이상의 구역의 식별에 관한 다양한 작업을 처리할 수 있다. 이러한 작업은 호스트 차량과 연관된 다양한 센서 및 센싱 시스템으로부터의 입력에 의존할 수 있다. 이러한 입력에는 하나 이상의 탑재된 카메라로부터의 이미지 또는 이미지 스트림, GPS 위치 정보, 사용자 피드백, 또는 하나 이상의 사용자 인터페이스 장치, 레이더, 라이더 등으로의 사용자 입력이 포함될 수 있다.
예를 들어, 구역 판단 모듈(1902)은 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 호스트 차량이 이동 중인 구역을 식별할 수 있다. 적어도 하나의 지시자는 호스트 차량의 위치에 관한 정보를 포함하는 GPS 신호 및 기타 디지털 또는 아날로그 무선 신호 중의 하나 이상을 포함할 수 있다. 일부 실시예에서, 호스트 차량의 위치의 적어도 하나의 지시자는 복수의 이미지의 분석에 적어도 부분적으로 의거할 수 있다. 예컨대, 이미지는 문자로 된 도로표지판을 포함할 수 있고, 이를 광학문자인식(optical character recognition 또는 OCR)을 통해 분석하여 차량의 위치를 판단할 수 있다.
구역의 판단은 앞서 설명한 하나 이상의 센서 및 센싱 시스템에 의해 판단된 바와 같이 특정 영역 이내의 물리적 존재에 의거할 수 있다. 이러한 영역에는 예를 들어 도, 시, 구 등의 지리적 경계가 포함될 수 있다. 일부 실시예에서, 예를 들어, 호스트 차량이 시와 구의 경계 내에 동시에 있는 경우와 같이, 복수의 구역이 한꺼번에 적용될 수 있다. 일부 실시예에서, 구역에는 특정 유형의 영역(예, 도심, 교외, 휴양지, 상업지, 유흥지, 식당가 등)이 포함될 수 있다.
추가적으로 또는 대안적으로, 구역은 호스트 차량의 위치 또는 주변환경과 연관된 속성에 의거하여 판단될 수 있다. 일부 실시예에서, 구역 판단 모듈(1902)은 호스트 차량이 특정 규칙 및/또는 교통법이 적용되는, 출입 제한 도로와 같은, 특정 구역을 나타내는 특정 유형의 도로를 따라 이동하고 있다고 판단할 수 있다. 구역 판단 모듈(1902)은 시간 및/또는 날짜(예, 주말, 공휴일, 출퇴근시간 등)에 의거한 구역, 위치의 사유지 또는 공유지 지위, 차량 자격(예, 탑승 인원) 등과 같은 기타 속성을 판단할 수 있다. 이러한 속성은 앞서 설명한 바와 같은 호스트 차량과 연관된 센서 및 센싱 시스템에 의해, 지도 데이터베이스(160)를 통해, 또는 여러 요인의 조합을 통해 판단될 수 있다.
일부 실시예에서, 구역 판단 모듈(1902)의 출력은 항법 규칙 판단 모듈(1904)로 전달될 수 있다. 항법 규칙 판단 모듈(1904)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 판단된 구역에 대응하여 취할 호스트 차량에 대한 하나 이상의 항법 동작을 결정하기 위하여 요구되는 주행 방침을 이행할 수 있다. 일부 실시예에서, 항법 규칙 판단 모듈(1904)은 호스트 차량의 식별된 항법 상태에 의거하고 식별된 구역에 특유한 판단된 적어도 하나의 항법 규칙에 의거하여 호스트 차량에 대한 항법 변경을 유발할 수 있다.
예를 들어, 항법 규칙 판단 모듈(1904)은 구역 판단 모듈(1902)에 의해 판단된 구역에서 신호등에 좌회전 신호가 없는 경우에 교차로에서의 좌회전을 금지한다고 판단할 수 있다. 또는, 항법 규칙 판단 모듈(1904)은 이 구역에서 신호등에 직진 신호가 있는 경우에 교차로에서의 비보호 좌회전을 허용한다고 판단할 수 있다. 항법 규칙 판단 모듈(1904)에 의해 판단된 기타 규칙에는 적색 신호에 방향 전환을 금지 또는 허용하는 규칙, 보행자가 있는 경우에 방향 전환을 금지하는 규칙 등이 포함될 수 있다. 일부 실시예에서, 특정 상황에 복수의 규칙이 적용될 수 있다. 이러한 경우, 항법 규칙 판단 모듈(1904)은 규칙이 서로 일치하는지 또는 모순되는지 여부를 판단할 수 있다. 규칙이 서로 일치하는 경우, 항법 규칙 판단 모듈(1904)은 호스트 차량이 규칙에 따라 진행하도록 유발할 수 있다. 규칙이 서로 모순되는 경우, 항법 규칙 판단 모듈(1904)은 규칙에 순위를 매겨 안전 기준을 유지하면서 가장 높은 순위의 규칙을 적용할 수 있다. 예를 들어, 도시 구역에 기반한 규칙은 시골 구역에 기반한 규칙을 대체할 수 있다.
항법 규칙 판단 모듈(1904)은 다양한 상황에 적용 가능한 항법 규칙을 판단할 수 있다. 일부 실시예에서, 항법 규칙 판단 모듈(1904)은 특정 구역과 관련 있는 다차선 도로의 특정 차로에 대한 규칙을 판단할 수 있다. 예를 들어, 판단된 구역에서는, 차량의 무게 또는 축의 개수에 의거하여 특정 차로 또는 차로들에 차량의 출입을 금지하거나, 차량의 탑승 인원에 의거하여 다인승 전용 차로(high occupancy vehicle lane)를 제한할 수 있다. 항법 규칙 판단 모듈(1904)은 어느 한 구역에서 다른 차량을 추월하기 위한 경우를 제외하고는 다차선 차로의 특정 차로(예, 1차선) 사용을 금지하거나 지정 날짜 및/또는 시간 외에 특정 차로나 갓길 사용을 금지할 수 있다.
항법 규칙 판단 모듈(1904)은 또한 판단된 구역에 존재하는 것으로 알려진 특성에 의거하여 항법 규칙을 판단할 수 있다. 이러한 특성에는 속도 제한, 도로 특성(예, 차로 폭), 신호등 주기, 통행료 등이 포함될 수 있다. 알려진 특성에는 또한, 특정 위치의 '불문율(unwritten)'이 포함될 수 있다. 이러한 불문율을 따름으로써, 호스트 차량에 의한 원치 않는 움직임을 피할 수 있다. 예를 들면, 항법 규칙 판단 모듈(1904)은 특히 언덕이 많거나, 교통이 혼잡한, 또는 사고가 다발한 것으로 알려진 지역에서의 호스트 차량과 타깃 차량 사이에 추가적인 거리를 확보하는 규칙을 판단할 수 있다. 이러한 규칙은 불필요한 제동을 방지하거나, 연비를 향상하거나, 충돌을 방지할 수 있다. 또한, 이러한 불문율은 앞서 주행 방침 모듈(803)에 관하여 설명한 바와 같이 강화 학습을 통해 생성될 수 있다. 일부 실시예에서, 주행 방침은 방침이 학습된 구역에 의거하여 생성 및 적용될 수 있다. 앞서 제어 모듈(805)과 연관하여 설명한 바에 추가적으로 또는 대안적으로, 제어 모듈(805)은 항법 규칙 판단 모듈(1904)의 출력에 의거하여 호스트 차량과 연관된 하나 이상의 액추에이터 또는 제어 장치에 대한 제어 명령을 생성할 수 있다.
도 20은 도 12와 연관하여 설명한 바와 같이 호스트 차량의 항법 도중에 캡처 및 분석될 수 있는 장면의 일례를 도시한 것이다. 도 20에 도시된 장면은 구역 규칙의 영향을 받을 수 있는 여러 특징을 포함하고 있다. 예를 들면, 신호등(2002)은 가장 좌측의 열에 녹색 화살표와 황색 화살표를 포함할 수 있는 복수 열의 등을 포함한다. 신호등(2002)의 다양한 등의 적절한 해석은 신호등(2002)이 위치한 구역의 영향을 받을 수 있다. 표지판(2004)은 좌회전하는 차량이 마주 오는 차량에 양보해야 한다는 것을 나타낸다. 또한, 표지판(2006)은 오전 7시부터 오후 7시까지는 좌회전이 금지되지만 공휴일은 제외된다는 것을 나타낸다. 항법 규칙 판단 모듈(1904)은 표지판(2004) 및/또는 표지판(2006)이 나타내는 요건을 정의하는 정보에 의거하여 규칙을 판단할 수 있다. 예를 들어, 항법 규칙 판단 모듈(1904)은 구역과 연관된 시간대를 판단하고, 표지판(2006)에 특정된 시간에 호스트 차량이 운행 중인지를 판단할 수 있다. 항법 규칙 판단 모듈(1904)은 또한 구역의 공휴일을 판단하고, 구역의 공휴일에 호스트 차량이 운행 중인지를 판단할 수 있다.
표지판(2008)은 도로명 '할톰가(Hartom St.)'를 표시하고 있다. 항법 규칙 판단 모듈(1904)은 할톰가가 여러 구역으로 이어지는지 여부를 판단하고, 할톰가가 다른 속성을 포함하는지 또는 그 결과로 다른 법규가 적용되는지 여부를 판단할 수 있다. 예를 들어, 항법 규칙 판단 모듈(1904)은 특정 시(city), 구(county), 또는 기타 구역의 경계 내에서 일방통행 도로라고 판단할 수 있다.
표지판(2010)은 보행자가 있는 경우에 우회전을 하면 안 된다는 것을 나타낸다. 항법 규칙 판단 모듈(1904)은 보행자의 존재에 관한 규칙이 해당 구역의 영향을 받는지 여부를 판단할 수 있다. 예를 들면, 항법 규칙 판단 모듈(1904)은 특정 구역에서 보행자의 존재는 도로로부터의 특정 거리, 도로의 경계부터의 도로 내 거리 등에 의거하여 정의된다고 판단할 수 있다.
도 21은 위치에 의거한 호스트 차량에 대한 예시적인 항법 규칙 선정 프로세스를 나타내는 순서도(2100)의 일례이다. 도 21의 예에서, 항법 규칙은 호스트 차량의 위치에 관련된 구역에 의거하여 설정 또는 수정될 수 있다.
단계 2102에서, 호스트 차량 항법 시스템의 적어도 하나의 처리 장치(예, 처리 장치(110))는 호스트 차량과 연관된 카메라로부터, 앞서 도 2 및 도 5를 참조하여 설명한 바와 같은, 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 2104에서, 하나 이상의 수신된 이미지의 분석을 통하여, 적어도 하나의 프로세서는, 앞서 감지 모듈(801)에 관하여 설명한 바와 같이, 호스트 차량의 항법 상태를 식별할 수 있다.
단계 2106에서, 적어도 하나의 처리 장치는 호스트 차량과 연관된 구역을 식별할 수 있다. 식별은 앞서 설명한 바와 같이 구역 판단 모듈(1902)에 의해 수행될 수 있다. 예를 들어, 구역 판단 모듈(1902)은, 호스트 차량이 시와 도를 포함하는 복수의 구역과 연관되는, GPS, 단계 2102에서 수신된 이미지의 분석, 및 사용자 입력의 하나 이상의 조합에 의거하여 관련 구역을 식별할 수 있다. 더 상세하게, 구역 판단 모듈(1902)은 사용자에 의한 요청 경로 정보 입력, GPS 수신기로부터 수신된 위치 정보, 및 도 20에 도시된 바와 같은 표지판을 포함하는 이미지의 분석의 조합에 의거하여 특정 시 및 도와의 연관을 판단할 수 있다. 더 상세하게, 광범위한 구역 정보가 항법을 위해 요청된 경로에 존재하는 구역으로 축소될 수 있다. 특정 구역은 GPS 신호를 통해 검색된 위치와 구역 위치의 데이터베이스를 비교하여 식별될 수 있다. 이 위치는 복수의 이미지의 분석을 통하여 도로명 게시판에 반영된 도로명의 OCR을 통해 식별된 교차로가 식별된 구역 내에 실제로 위치함을 확인하여 검증될 수 있다.
단계 2108에서, 적어도 하나의 처리 장치는 단계 2106에서 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단할 수 있다. 항법 규칙은 앞서 설명한 바와 같이 항법 규칙 판단 모듈(1904)을 통해 판단될 수 있다. 앞서 설명한 바와 같이, 복수의 규칙이 구역에 의거하여 적용될 수 있는 만금, 항법 규칙 판단 모듈(1904)은 규칙들이 서로 일치하는지, 일치하지 않는 경우에는 어떤 규칙이 특정 위치를 관장하는지를 판단할 수 있다.
단계 2110에서, 적어도 하나의 처리 장치는 호스트 차량의 식별된 항법 상태에 의거하고 식별된 구역에 특유한 판단된 적어도 하나의 항법 규칙에 의거하여 호스트 차량에 대한 항법 변경을 유발할 수 있다. 일부 실시예에서, 호스트 차량의 항법 시스템의 적어도 하나의 처리 장치는 항법 변경에 필요한 호스트 차량에 대한 항법 동작(예, 좌회전, 정지, 마주 오는 차량에 대한 양보, 추월 금지, 차로 변경 금지, 추월시에만 차로 변경 등)을 판단된 항법 규칙에 의거하여 결정할 수 있다.
일 실시예에서, 처리 장치는 좌회전이 필요함을 항법 상태에 의거하여 판단할 수 있다. 처리 장치는 GPS 신호를 통해 판단된 차량의 위치에 의거하고 프로세서에 의해 수신된 이미지의 분석으로 표지판(2008)에서 할톰가를 추출(예, OCR 방식 적용)하여 구역을 식별했을 수 있다. 처리 장치는 이 구역이 비보호 좌회전을 허용하는 단일 구역의 지배를 받는다고 판단했을 수 있다. 이러한 판단에 의거하여, 처리 장치는 마주오는 차량을 양보하면서 좌회전을 개시할 수 있다.
항법 동작을 이행하기 위하여, 적어도 하나의 처리 장치는 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 예를 들면, 마주오는 차량에 양보하기 위하여 브레이크를 작동할 수 있고, 마주오는 차량이 통과한 경우에 호스트 차량의 좌회전을 유발하기 위하여 호스트 차량의 휠을 조향하면서 가속장치를 작동할 수 있다.
항법 시스템의 명령에 따른 추월 기능
일부 실시예에서, 호스트 차량 항법 시스템은 타깃 차량을 추월하고자 하는 희망에 의거하여 항법 규칙 사이의 선택을 할 수 있다. 타깃 차량의 크기, 유형, 가시성에 미치는 영향, 호스트 차량 탑승자의 안락에 미치는 영향, 호스트 차량 탑승자의 안전에 미치는 예상 효과 등과 같이, 타깃 차량을 따라가는 것이 바람직하지 않을 수 있는 여러 이유로 인해 추월을 원할 수 있다. 이하, 이러한 규칙을 차량의 자율 제어에 적용하는 시스템 및 방법에 대해 설명하기로 한다.
예를 들어, 일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 카메라(예, 이미지캡처장치(122, 124, 126)의 적어도 하나)로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신하도록 프로그램된 적어도 하나의 처리 장치(예, 처리 장치(110))를 포함할 수 있다. 적어도 하나의 처리 장치는 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하고, 복수의 이미지를 분석하여 타깃 차량의 적어도 하나의 특성을 식별하도록 더 프로그램될 수 있다. 호스트 차량의 적어도 하나의 특성은 타깃 차량의 하나 이상의 양상(예, 차량의 크기, 모양, 유형 등)에 관한 것일 수 있다. 적어도 하나의 특성을 식별한 후에, 적어도 하나의 처리 장치는 호스트 차량의 적어도 하나의 항법 변경을 유발하여 타깃 차량의 추월을 개시할 수 있다.
도 22에 도시된 바와 같이, 앞서 설명한 다른 모듈과 조합하여, 항법 규칙의 선정과 적용은 타깃 차량 특성 판단 모듈(2202)과 항법 변경 개시 모듈(2204)을 포함하는 두 개의 모듈로 구분될 수 있다. 일부 실시예에서, 모듈들(2202, 2204)은 시스템(100)의 메모리(140) 및/또는 메모리(150)에 저장될 수 있고, 모듈들(2202, 2204)은(또는 그 일부는) 시스템(100)으로부터 원격으로 저장(예, 무선 송수신기(172)를 통하여 시스템(100)에 접속 가능한 서버에 저장)될 수 있다.
타깃 차량 특성 판단 모듈(2202)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 감지 모듈(801)에 의해 감지된 타깃 차량의 하나 이상의 특성의 식별에 관한 다양한 작업을 처리할 수 있다. 이러한 작업은 호스트 차량과 연관된 다양한 센서 및 센싱 시스템으로부터의 입력에 의존할 수 있다. 이러한 입력에는 하나 이상의 탑재된 카메라로부터의 이미지 또는 이미지 스트림, 사용자 피드백, 또는 하나 이상의 사용자 인터페이스 장치, 레이더, 라이더 등으로의 사용자 입력이 포함될 수 있다.
일부 실시예에서, 타깃 차량 특성 판단 모듈(2202)은 타깃 차량의 크기 및/또는 형상을 판단할 수 있다. 이러한 판단은 선형 단위(예, 피트, 미터 등)의 치수와 같은 절대적 조건으로 내려지거나, 차로 폭의 퍼센트, 최대 높이의 퍼센트, 타깃 차량에 의해 가려진 시야의 부분 등과 같은 주행의 맥락에 대한 상대적인 특성에 관한 것일 수 있다. 차량 제원 및/또는 형상은 수신된 이미지의 분석을 통하여 판단될 수 있다. 예컨대, 이미지 내의 알려진 거리가 판단 및/또는 식별될 수 있고, 알려진 거리를 차량 제원과 비교하여 차량의 실제 크기가 판단될 수 있다. 형상의 연관성은 수신된 이미지에서 검색된 형상을 차량 및 기타 물체에서 검색된 알려진 형상과 비교하여 판단될 수 있다.
타깃 차량 특성 판단 모듈(2202)은 또한 차량 유형을 판단할 수 있다. 일부 실시예에서, 차량 범주(예, 세단, 트럭, 밴, 오토바이, 상용차 등)가 판단될 수 있다. 타깃 차량 특성 판단 모듈(2202)은 타깃 차량의 형상을 판단하고 이 형상을 차량 형상의 데이터베이스에 비교하여 차량 유형을 판단할 수 있다. 대안적으로, 타깃 차량 특성 판단 모듈(2202)은 타깃 차량의 타이어 사이즈와 같은 특정 특징을 활용하여 차량 유형을 판단할 수 있다. 학습 시스템을 활용하여 하나 이상의 이미지에서 형상 또는 기타 특성을 식별할 수 있으며, 추가적인 판단을 통해 신뢰도를 확보한다. 또한, 타깃 차량 특성 판단 모듈(2202)은 타이어, 차량 등과 같은 이미지의 OCR을 통해 차량 상에서 검색된 문자를 식별할 수 있다. 타깃 차량 특성 판단 모듈(2202)은 또한 타깃 차량이 공사 차량, 농기구, 오프로드 차량, 택시, 경찰차, 구급차 등과 같은 범주에 들어가는지 여부를 판단할 수 있다.
타깃 차량 특성 판단 모듈(2202)은 타깃 차량의 기타 특성, 특히 타깃 차량의 추월 결정에 대한 특성을 판단할 수 있다. 예컨대, 타깃 차량 특성 판단 모듈(2202)은 고정되지 않은 물질(예, 펄럭이는 천, 풀린 고정끈, 느슨한 판, 열린 문, 잠기지 않은 문, 또는 기타 고정되지 않은 물체)과 같은 호스트 차량 부근의 안전상 위험을 시사하는 조건을 검출할 수 있다.
추가적으로, 타깃 차량 특성 판단 모듈(2202)은 타깃 차량으로부터의 물질 유출(예, 액체, 자갈이나 얼음과 같은 고체, 연기나 그을음과 같은 특정 물질 등)과 같은 타깃 차량과 연관된 기타 조건 또는 사건을 판단할 수 있다. 앞서 설명한 차량 특성의 식별과 유사하게, 이러한 판단은 수신된 이미지와 데이터베이스 내의 물체의 형상 및/또는 크기와의 비교를 통한 분석, 학습 알고리즘, 또는 이들의 조합을 통해 내려질 수 있다.
일부 실시예에서, 타깃 차량 특성 판단 모듈(2202)은 호스트 차량에 탑재된 입자 검출기 하드웨어로부터 미립자 물질의 징후를 수신할 수 있다. 타깃 차량 특성 판단 모듈(2202)은 이러한 징후에 의거하여 미립자 물질이 예를 들어 타깃 차량이 배출한 연기 또는 그을음이라고 판단할 수 있다.
타깃 차량 특성 판단 모듈(2202)은 타깃 차량의 판단된 특성을 나타내는 정보를 출력할 수 있다. 이 출력은 사실상 단언적인 것으로서 특정 특성이 존재한다는 사실을 나타내는 것이거나, 대형 차량의 크기의 규모나 연기 배출의 정도 등과 같이 특성의 정도를 나타내는 것일 수 있다.
타깃 차량 특성 판단 모듈(2202)의 출력은 항법 변경 개시 모듈(2204)로 전달될 수 있다. 항법 변경 개시 모듈(2204)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 판단된 타깃 차량 특성에 대응하여 취할 호스트 차량에 대한 하나 이상의 항법 동작을 결정하기 위하여, 앞서 주행 방침 모듈(803)에 관하여 설명한 바와 같이, 요구되는 주행 방침을 이행할 수 있다. 항법 변경 개시 모듈(2204)은 호스트 차량의 적어도 하나의 항법 변경을 유발하여 타깃 차량의 추월을 개시할 수 있다.
항법 변경 개시 모듈(2204)은 가시성에 미치는 영향, 호스트 차량 탑승자의 안락에 미치는 영향, 호스트 차량 탑승자의 안전에 미치는 예상 효과 등과 같은 타깃 차량의 부정적 조건에 의거하여 항법 변경을 판단할 수 있다. 타깃 차량 또는 관찰된 부정적 조건을 회피하기 위하여, 호스트 차량의 감속, 다른 차로로 이동, 또는 타깃 차량 추월과 같은 주행 방침이 적용될 수 있다.
일부 실시예에서, 항법 변경 개시 모듈(2204)은 타깃 차량의 크기에 의거하여 항법 변경을 개시할 수 있다. 크기에 의거한 항법 변경은 높이, 폭, 면적, 형상 등과 같은 여러 요인 및/또는 측정 기준을 고려하여 개시될 수 있다. 항법 변경 개시 모듈(2204)은 또한 타깃 차량이 이동하는 속도에 의거하여 항법 변경을 개시할 수 있다. 예를 들어, 항법 변경 개시 모듈(2204)은 타깃 차량이 속도 제한 미만으로 이동하는 경우에 추월을 개시할 수 있다.
일부 실시예에서, 항법 변경 개시 모듈(2204)은 안전 고려사항에 의거하여 항법 변경을 개시할 수 있다. 예를 들면, 지그재그 운전, 빈번하거나 급작스런 제동, 차선 이탈 등과 같은 운전 행동은 항법 변경 개시 모듈(2204)에 의해 요인으로 활용될 수 있다.
일부 실시예에서, 항법 변경 개시 모듈(2204)은 차량 유형에 의거하여 항법 변경을 개시할 수 있다. 예를 들면, 항법 변경 개시 모듈(2204)은 호스트 차량이 공사 차량 또는 농업용 차량과 같은 특정 차량 유형을 추월하도록 유발하거나 특정 유형의 차량으로부터 다른 유형의 차량보다 거리를 많이 두도록 유발할 수 있다.
항법 변경 개시 모듈(2204)은 또한 항법 동작을 사용자 입력과 같은 다른 요인에 의거할 수 있다. 예컨대, 항법 변경 개시 모듈(2204)은 호스트 차량의 탑승자가 조작하는 사용자 인터페이스로부터 입력을 수신할 수 있다. 일부 실시예에서, 호스트 차량의 탑승자로부터의 입력은 비-기계적(non-mechanical) 입력과 같은 입력을 포함할 수 있다. 이러한 입력은 항법 변경의 개시, 항법 변경의 확인, 항법 변경의 무시, 항법 변경의 적절성 강화, 추후의 항법 변경 철회 요청 등에 활용되거나, 타깃 차량 특성 판단 모듈(2202)로부터 수신된 정보와의 여러 조합으로 활용될 수 있다.
항법 변경 개시 모듈(2204)은 항법을 위한 하나 이상의 공간적 타깃을 판단하여 항법 변경을 개시할 수 있다. 공간적 타깃은 호스트 차량이 항법 변경을 수행하기 위하여 항법을 의도하는 물리적 위치일 수 있다. 물리적 위치는 절대적 조건(예, 위도와 경도)으로, 고정된 물체에 대해 상대적으로, 타깃 차량에 대해 상대적으로, 또는 기타 공간적 위치의 정의 수단으로 정의될 수 있다. 공간적 타깃은 공간적 타깃에 도달하는 예상 또는 의도 시간 또는 시간대를 설정할 수 있는 시간적 사양과 연관될 수 있다. 따라서, 일부 실시예에서, 처리 장치는 선택된 시간 프레임 내에서 선택된 공간적 타깃으로의 차량 항법을 위한 제어 명령의 집합을 제공하도록 구성될 수 있다. 공간적 타깃 및/또는 시간적 사양의 판단은 자동으로 또는 사용자 입력에 대응하여 수행될 수 있다. 또한, 항법 변경 개시 모듈(2204)은 호스트 차량의 과실인 사고를 유발하지 않을 추월 동작이 있는지 여부를 판단하는 등을 통하여 안전한 추월 동작이 있는지 여부를 판단할 수 있다.
항법 변경 개시 모듈(2204)은 앞서 주행 방침 모듈(803)에 관하여 설명한 바와 같이 머신러닝 방침 모듈(machine learning policy module)을 작동시키도록 구성될 수 있다. 머신러닝 방침 모듈은 호스트 차량에 대한 동작의 세트를 결정하여 다른 차량의 추월을 개시 및 완료할 수 있다.
도 23은 도 12를 참조하여 설명한 바와 같이 호스트 차량의 카메라에 의해 캡처되고 호스트 차량의 항법 동안에 분석될 수 있는 장면(2300)의 일례를 도시한 것이다. 도 23에 도시된 장면은 호스트 차량에 의해 식별될 수 있는 타깃 차량(2302)을 포함한다. 타깃 차량(2302)은 수신된 이미지에서 보이고, 타깃 차량 특성 판단 모듈(2202)에 의해 식별되고, 항법 변경 개시 모듈(2204)이 항법 변경을 취하도록 유도할 수 있는 여러 예시적인 특성을 포함한다.
예를 들면, 타깃 차량(2302)의 높이(2304) 및 폭(2306) 중의 하나 또는 모두가 호스트 차량의 가시성을 저해할 정도로 클 수 있다. 연기(2310)를 배출하는 배기관(2308)은 호스트 차량의 가시성을 저해하거나 호스트 차량의 탑승자에게 환경 위험이 될 수 있다. 또한, 뒷문(2312)이 일부 또는 전부 열려 있거나 걸쇠(2314)가 열림 위치에 있을 수 있다. 일부의 경우, 타깃 차량은 불이 들어온 후미등(2316) 또는 '따라붙지 마시오' 안내문(2318)과 같은 타깃 차량(2302)을 회피하라는 명시적 표시를 포함할 수 있다. 도 23에 명시적으로 도시하지 않았지만, 타깃 차량은 펑크 나서 너덜거리는 타이어, 천으로 된 느슨해진 고정끈 등과 같은 기타 고정되지 않은 물질을 포함할 수 있다.
도 24는 타깃 차량을 추월하고자 하는 희망에 의거한 항법 규칙 사이의 선택을 위한 프로세스의 순서도(2400)의 일례를 도시한 것이다. 단계 2402에서, 호스트 차량 항법 시스템의 적어도 하나의 처리 장치(예, 처리 장치(110))는 호스트 차량과 연관된 카메라로부터, 앞서 도 2 및 도 5를 참조하여 설명한 바와 같은, 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 2404에서, 하나 이상의 수신된 이미지의 분석을 통하여, 적어도 하나의 프로세서는, 앞서 감지 모듈(801)에 관하여 설명한 바와 같이, 타깃 차량을 식별할 수 있다.
단계 2406에서, 적어도 하나의 처리 장치는 타깃 차량과 연관된 하나 이상의 특성을 식별할 수 있다. 식별은 앞서 설명한 바와 같이 타깃 차량 특성 판단 모듈(2202)에 의해 수행될 수 있다. 예를 들면, 적어도 하나의 처리 장치는 높이(2304) 및/또는 폭(2306)을 판단할 수 있다. 이 판단은 절대 치수(예, 미터. 제곱 미터) 또는 정성적 평가(예, 특대형)로 출력될 수 있다. 다른 예를 들면, 적어도 하나의 처리 장치는 연기(2310)를 식별하고 연기 농도의 적절한 표시 또는 단순히 연기가 존재한다는 표시를 출력할 수 있다.
단계 2408에서, 적어도 하나의 처리 장치는 단계 2406에서 식별된 하나 이상의 특성에 의거하여 항법 변경을 유발할 수 있다. 항법 변경은 앞서 설명한 바와 같이 항법 변경 개시 모듈(2204)에 의해 유발될 수 있다. 일부 실시예에서, 호스트 차량의 항법 시스템의 적어도 하나의 처리 장치는 타깃 차량과 연관된 식별된 하나 이상의 특성에 의거하여 호스트 차량에 대한 항법 동작(예, 감속, 추월, 차로 변경 등)을 결정할 수 있다. 항법 동작을 이행하기 위하여, 적어도 하나의 처리 장치는 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 예를 들어, 감속을 위하여 브레이크가 작동될 수 있고, 추월을 완료하기 위하여 호스트 차량의 조향과 함께 가속장치가 작동될 수 있다.
항법 동작은 사용자의 개입 없이 자동으로 수행될 수 있다. 예를 들면, 타깃 차량의 특정 특성의 존재를 판단한 이후, 적어도 하나의 처리 장치는 항법 액추에이터의 조정을 통하여 항법 동작을 개시할 수 있다. 하나 이상의 임계값도 활용될 수 있다. 일부 실시예에서, 특성에는 0과 1 사이의 점수와 같은 점수가 주어질 수 있다. 점수는 특성 자체의 관련성 또는 심각성에 의거하거나, 특성의 정도(예, 대형 차량의 크기, 느슨한 물체의 펄럭이는 동작의 정도, 연기의 양 등)에 따라 달라질 수 있다. 항법 동작은 특성 점수에 의거하여 수행될 수 있다. 예를 들면, 항법 동작은 특성의 점수가 미리 설정된 값을 초과하는 경우에, 또는 특성의 조합이 특정 값을 초과하는 경우에, 또는 점수에 의거한 다른 지시자에 따라 개시될 수 있다.
항법 동작은 또한 사용자 입력에 대응하여 수행될 수 있다. 예컨대, 호스트 차량의 탑승자는 사용자 인터페이스를 조작하여 타깃 차량 특성 판단 모듈(2202)에 의해 식별된 특성과 연관된 항법 동작을 개시할 수 있다. 이러한 조작은 음성 명령이나 버튼 누름, 터치스크린, 기타 제스처 인지 시스템, 또는 인터페이스의 동작 기술에서 알려진 기타 모든 수단을 통해 수행될 수 있다. 사용자 인터페이스는 하나 이상의 식별된 특성에 의거하여 항법 동작의 개시를 제안할 수 있고, 사용자의 확인을 기다릴 수 있다. 대안적으로 또는 추가적으로, 사용자 인터페이스는 사용자로부터의 명령을 수락할 수 있다.
일부 실시예에서, 항법 시스템은 명령 시에 존재하는 타깃 차량의 특성을 저장할 수 있다. 예를 들면, 이러한 특성은 데이터베이스에 저장되어 호스트 차량이 추후에 동일 또는 유사한 타깃 차량 특성의 식별에 대응하여 유사한 항법 변경을 개시 또는 제안할 수 있도록 할 수 있다. 이로써, 시스템은 추후의 주행에서 사용자가 선호하는 방법으로 대응할 수 있다. 예컨대, 사용자가 반복적인 제동을 특히 싫어하는 경우, 호스트 차량은 사용자가 이러한 제동을 줄이기 위하여 반복적으로 수동으로 항법 변경을 개시했음을 인지할 수 있다. 호스트 차량은 반복적으로 켜지는 후미등의 존재와 이러한 반복적 제동을 연관지음으로써 후미등이 켜지는 특성을 반복적으로 보이는 타깃 차량의 뒤에 있는 경우에 추월을 제안하거나 개시할 수 있다.
항법 타이브레이커 시스템
일부 실시예에서, 호스트 차량 항법 시스템은 적어도 하나의 타깃 차량의 항법 우선순위가 호스트 차량과 동일 또는 유사한 항법 시스템을 인지할 수 있다. 이러한 상황에서, 항법 시스템은 적어도 하나의 동작을 취하여 타이(tie)를 깨고 타깃 차량 또는 호스트 차량에 항법 이점을 제공할 수 있다. 이러한 동작은 동적인(dynamic) 이타적 또는 지배(dominance) 설정에 의거할 수 있다. 동작은 타깃 차량으로의 정보 신호의 전송('먼저, 가시오.' 또는 '제가 갑니다.'), 차량 등화의 깜빡임, 조금씩 밀고 들어가는 동작 등이 포함될 수 있다. 이하, 이러한 항법 타이브레이커(navigational tiebreaker)를 차량의 자율 제어에 적용하는 시스템 및 방법에 대해 설명하기로 한다.
예를 들어, 일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 카메라(예, 이미지캡처장치(122, 124, 126)의 하나)로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신하도록 프로그램된 적어도 하나의 처리 장치(예, 처리 장치(110))를 포함할 수 있다. 적어도 하나의 처리 장치는 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 적어도 하나의 타깃 차량을 식별하고, 복수의 이미지의 분석에 적어도 부분적으로 의거하여 타깃 차량과 호스트 차량이 항법 타이 상황을 가져오는(즉, 항법 우선순위를 확정 못 함) 유사한 항법 우선순위를 가지고 있다고 판단하도록 더 프로그램될 수 있다. 적어도 하나의 처리 장치는 호스트 차량에 의한 적어도 하나의 동작을 유발하여 호스트 차량 또는 타깃 차량에 항법 우선순위를 설정하고, 설정된 항법 우선순위에 따라 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발하도록 더 프로그램 될 수 있다.
도 25에 도시된 바와 같이, 앞서 설명한 다른 모듈과 조합하여, 이러한 타이의 인지와 해결은 항법 우선순위 판단 모듈(2502), 항법 우선순위 설정 모듈(2504), 및 항법 변경 개시 모듈(2506)을 포함하는 세 개의 모듈로 구분될 수 있다. 일부 실시예에서, 모듈들(2502, 2504, 2506)은 시스템(100)의 메모리(140) 및/또는 메모리(150)에 저장될 수 있고, 모듈들(2502, 2504, 2506)은(또는 그 일부는) 시스템(100)으로부터 원격으로 저장(예, 무선 송수신기(172)를 통하여 시스템(100)에 접속 가능한 서버에 저장)될 수 있다.
항법 우선순위 판단 모듈(2502)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 감지 모듈(801)에 의해 감지된 타깃 차량의 하나 이상의 특성의 식별에 관한 다양한 작업을 처리할 수 있다. 이러한 작업은 호스트 차량과 연관된 다양한 센서 및 센싱 시스템으로부터의 입력에 의존할 수 있다. 이러한 입력에는 하나 이상의 탑재된 카메라로부터의 이미지 또는 이미지 스트림, 사용자 피드백, 또는 하나 이상의 사용자 인터페이스 장치, 레이더, 라이더 등으로의 사용자 입력이 포함될 수 있다. 항법 우선순위 판단 모듈(2502)은 호스트 차량 또는 타깃 차량이 두 차량 사이의 특정 상호작용에 우선순위(즉, '선행권')를 가지고 있는지 여부를 판단할 수 있다. 호스트 차량과 타깃 차량의 항법 상태 및 각 차량에 적용 가능한 항법 규칙은 앞서 설명한 모든 시스템 및 방법, 예를 들면 처리 장치에 의해 수신된 이미지의 분석을 통해 판단될 수 있다. 그러나 항법 우선순위 판단 모듈(2502)이 타깃 차량과 호스트 차량 사이의 우선순위를 발견하지 못하는 경우, 또는 우선순위의 평가가 근사한 경우(예, 임계값 이내), 항법 우선순위 판단 모듈(2502)은 호스트 차량과 타깃 차량 사이의 항법 우선순위 타이를 판단할 수 있다.
항법 우선순위 판단 모듈(2502)은 항법 우선순위 점수 또는 타깃 차량에 대해 판단된 점수를 배정할 수 있다. 항법 우선순위 판단 모듈(2502)은 우선순위 점수가 배정된 점수의 미리 정해진 임계값 이내인지 밖인지 여부에 의거하여 항법 우선순위가 설정되었다고 또는 확정되지 않았다고 판단할 수 있다. 일부 실시예에서, 우선순위 값은 호스트 차량과 타깃 차량 각각에 대해 계산될 수 있다. 항법 우선순위 판단 모듈(2502)은 우선순위 값 사이의 차이가 미리 정해진 신뢰도 임계값 이내인지 여부에 의거하여 항법 우선순위가 설정되었는지 또는 확정되지 않았는지 여부를 판단할 수 있다.
항법 우선순위 판단 모듈(2502)의 출력은 항법 우선순위 설정 모듈(2504)로 전달될 수 있다. 항법 우선순위 설정 모듈(2504)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 항법 우선순위를 설정하기 위해 취할 호스트 차량에 대한 하나 이상의 동작을 결정하기 위하여 요구되는 주행 방침을 이행할 수 있다.
일부 실시예에서, 항법 우선순위 설정 모듈(2504)은 양보(즉, 이타심) 또는 지배(dominance)의 추정에 기반하여 우선순위를 설정하도록 구성될 수 있다. 양보를 추정하는 경우의 결과로 항법 우선순위 설정 모듈(2504)은 타깃 차량에게 양보를 함으로써(즉, 양도 우선('먼저, 가시오.')) 우선순위를 설정하는 반면, 지배를 추정하는 경우의 결과로 항법 우선순위 설정 모듈(2504)은 타깃 차량의 앞으로 항법 동작을 개시함으로써(즉, 주장 우선('제가 갑니다.')) 우선순위를 설정한다. 항법 우선순위 설정 모듈(2504)은 양보 대 지배의 설정이 고정, 호스트 차량의 승객에 의해 설정, 또는 여러 요인에 의거하여 유동적 이도록 구성될 수 있다. 예를 들어, 양보 대 지배는 원하는 위치로의 항법이 예정보다 앞서가는지 또는 뒤처지는지 여부에 의거하여 설정될 수 있다. 즉, 항법 우선순위 설정 모듈(2504)은 호스트 차량이 목적지 도착 일정에 늦지 않은 한, 양보를 통한 우선순위를 설정하도록 구성될 수 있다.
일부 실시예에서, 항법 우선순위 설정 모듈(2504)은 정보 신호를 타깃 차량으로 전송할 수 있다. 정보 신호는 호스트 차량이 타깃 차량에 양보하려는 의도를 나타내거나 호스트 차량이 타깃 차량 앞으로 항법 동작을 개시하고자 하는 의도를 나타낼 수 있다. 정보 신호는 시각적 신호, 음향적 신호, 동작, 무선 통신(예, 디지털 또는 아날로그 무선망)과 같은 알려진 수단을 통해 전송될 수 있다. 일례로, 항법 우선순위 설정 모듈(2504)은 호스트 차량을 우선순위를 조금씩 움직여서 우선순위를 나타내도록 구성될 수 있다. 조금씩 움직이는 동작은 호스트 차량이 한 번에 특정 거리 (예, 상황에 따라, 몇 센티미터, 1미터, 몇 미터 등과 같은 작은 거리)만큼 이동함을 나타낼 수 있다. 일부 실시예에서, 항법 우선순위 설정 모듈(2504)은 호스트 차량을 앞으로 조금씩 움직여서 우선순위를 주장할 수 있고, 호스트 차량을 뒤로 조금씩 움직여서 우선순위를 양보할 수 있다. 당업자라면 앞이나 뒤로 조금씩 움직이는 대신에 다른 움직임 기반의 신호가 사용될 수 있음을 인지할 수 있을 것이다. 일부 실시예에서, 시스템은 조금씩 움직이는 동작이 일어남에 따라 항법 우선순위를 평가할 수, 즉, 조금씩 움직이는 동작에 대응하여 상대 차량이 양보하였는지 여부의 판단으로 진행할 수 있다. 일부 실시예에서, 항법 우선순위 설정 모듈(2504)은 호스트 차량이 등화를 깜빡여서 우선순위를 나타내도록 구성될 수 있다. 예를 들어, 항법 우선순위 설정 모듈(2504)은 호스트 차량이 전조등을 깜박이도록 유발하여 타깃 차량에 우선순위를 양보할 의도를 나타낼 수 있다. 조금씩 움직이는 경우와 유사하게, 시스템은 상대 차량이 깜빡임에 대응하여 양보하였는지 여부의 판단으로 진행할 수 있다.
일부 실시예에서, 항법 우선순위 설정 모듈(2504)은 설정된 우선순위에 대한 타깃 차량의 반응을 검출하도록 구성될 수 있다. 타깃 차량으로 전송되는 정보 신호와 마찬가지로, 반응은 시각적 신호, 음향적 신호, 동작, 무선 통신(예, 디지털 또는 아날로그 무선망)과 같은 알려진 수단을 통해 전송될 수 있다. 일부 실시예에서, 검출된 반응은 설정된 우선순위에 따라 타깃 차량에 의해 취해지는 항법 변경을 검출한 것일 수 있다.
항법 우선순위 설정 모듈(2504)의 출력은 항법 변경 개시 모듈(2506)로 전달될 수 있다. 항법 변경 개시 모듈(2506)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 설정된 항법 우선순위에 대응하여 취할 호스트 차량에 대한 하나 이상의 항법 동작을 결정하기 위하여 요구되는 주행 방침을 이행할 수 있다.
도 26a는 도 12에 관하여 설명한 바와 같이 호스트 차량의 카메라에 의해 캡처되고 호스트 차량의 항법 동안에 분석될 수 있는 장면(2600)의 일례를 도시한 것이다. 도 26a에 도시된 장면은 교차로(2604)의 사방향 정지 표지(four-way stop)의 일측에 도달하기 전의 타깃 차량(2602)을 포함한다. 타깃 차량이 일시정지표지판(2608)에 도착하는 시점과 동시에 또는 거의 동시에 호스트 차량이 일시정지표지판(2606)에 도착하는 경우, 결과적으로 항법 타이가 될 수 있다. 항법 타이는 여러 방법으로 해결될 수 있다. 예를 들면, 호스트 차량의 전조등을 깜빡이거나, 호스트 차량을 살짝 움직여서 타깃 차량이 인지하도록 할 수 있다.
도 26b는 도 12에 관하여 설명한 바와 같이 호스트 차량의 카메라에 의해 캡처되고 호스트 차량의 항법 동안에 분석될 수 있는 장면(2650)의 일례를 도시한 것이다. 도 26b에 도시된 장면은 호스트 차량과 같은 고속도로의 차선으로 병합해 들어오는 타깃 차량(2652)을 포함한다. 타깃 차량이 병합하는 시점에 호스트 차량이 고속도로의 동일한 지점에 도달하는 경우, 결과적으로 항법 타이가 될 수 있다. 항법 타이는 호스트 차량의 전조등을 깜빡이는 등의 여러 방법으로 해결될 수 있다.
도 27은 항법 우선순위의 타이를 처리하기 위한 예시적인 프로세스를 나타내는 순서도(2700)의 일례이다. 도 27의 예에서, 항법 규칙은 호스트 차량의 위치에 관련된 구역에 의거하여 설정되거나 수정될 수 있다. 단계 2702에서, 호스트 차량 항법 시스템의 적어도 하나의 처리 장치(예, 처리 장치(110))는 호스트 차량과 연관된 카메라로부터, 앞서 도 2 및 도 5를 참조하여 설명한 바와 같은, 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다. 단계 2704에서, 하나 이상의 수신된 이미지의 분석을 통하여, 적어도 하나의 프로세서는, 앞서 감지 모듈(801)에 관하여 설명한 바와 같이, 타깃 차량을 식별할 수 있다.
단계 2706에서, 적어도 하나의 처리 장치는 타깃 차량과 호스트 차량은 유사한 항법 우선순위를 가지고 있고 그 결과로 항법 타이 상황이 발생한다고 판단할 수 있다. 이러한 판단은 앞서 설명한 바와 같이 항법 우선순위 판단 모듈(2502)에 의해 수행될 수 있다.
예를 들면, 호스트 차량과 타깃 차량(2602)은 도 26a에 도시된 바와 같이 사방향 정지 교차로(2604)에 거의 동시에 도착할 수 있다. 적어도 하나의 처리 장치는 수신된 이미지를 분석하여 일시정지표지판(2606)에 포함된 '사방향' 지시를 인지하거나 수신된 이미지를 분석하여 호스트 차량과 타깃 차량(2602)이 모두 일시정지표지판(2606, 2608)에 접근하고 있음을 인지하는 등을 통하여 호스트 차량과 타깃 차량(2602)이 모두 정지해야 한다고 판단할 수 있다. 호스트 차량과 타깃 차량(2602)이 모두 정지해야 한다는 것을 인지한 이후, 적어도 하나의 처리 장치는 호스트 차량과 타깃 차량(2602) 중의 어느 차량이 우선순위가 있는지를 판단하기 위하여 호스트 차량과 타깃 차량(2602) 중의 어느 차량이 사방향 정지 표지판에 먼저 도착하였는지 판단하려고 시도할 수 있다. 호스트 차량과 타깃 차량(2602)이 동시에 또는 서로 임계 시간 이내에 도착한 경우, 항법 우선순위 판단 모듈(2502)은 항법 우선순위가 타이라고 판단할 수 있다.
다른 예를 들면, 도 26b에 도시된 바와 같이, 호스트 차량과 타깃 차량(2652)은 동시에 또는 거의 동시에 도로의 동일 차로로 병합하여 들어가기 위하여 서로 접근할 수 있다. 적어도 하나의 처리 장치는 호스트 차량과 타깃 차량이 모두 안전하게 병합을 시도할 수 있는지 또는 둘 중의 한 차량이 양보해야 할지 여부를 판단할 수 있다. 호스트 차량과 타깃 차량 중의 한 차량이 양보해야 할 경우, 항법 우선순위 판단 모듈(2502)은 항법 우선순위가 타이라고 판단할 수 있다.
단계 2708에서, 적어도 하나의 처리 장치는 호스트 차량에 의한 동작을 유발하여 호스트 차량 또는 타깃 차량에 항법 우선순위를 설정할 수 있다. 항법 우선순위의 설정은 앞서 설명한 바와 같이 항법 우선순위 설정 모듈(2504)에 의해 수행될 수 있다. 즉, 호스트 차량은 정보 신호를 타깃 차량으로 전송하여 항법 우선순위를 설정할 수 있다. 예컨대, 도 26a의 사방향 정지 상황에서, 항법 우선순위 설정 모듈(2504)은 호스트 차량이 앞으로 살짝 움직여서 우선순위를 주장하거나 전조등을 깜빡여서 우선순위를 양보하도록 유발할 수 있다.
일부 실시예에서, 단계 2708에서, 항법 우선순위 설정 모듈(2504)은 또한 앞서 설명한 바와 같이 타깃 차량에 의한 반응을 검출하여 항법 우선순위를 설정할 수 있다. 검출된 반응은 우선순위의 설정을 확인하는 수신된 정보 신호일 수 있고, 또는 설정된 우선순위에 따라 타깃 차량에 의해 취해지는 항법 변경을 검출한 것일 수 있다. 예를 들어, 검출된 반응은 타깃 차량이 정지하거나, 감속하거나, 우선순위를 양보하는 것일 수 있다.
단계 2710에서, 적어도 하나의 처리 장치는 설정된 항법 우선순위에 따라 호스트 차량의 항법 액추에이터의 제어를 유발할 수 있다. 항법 액추에이터의 제어는 앞서 설명한 바와 같이 단계 2708에서 설정된 항법 우선순위에 의거할 수 있다. 예를 들어, 설정된 항법 우선순위에 따라 브레이크 작동, 가속장치 작동, 및/또는 호스트 차량의 조향이 수행될 수 있다.
자율 주행을 위한 임시적 규칙 보류
일부 실시예에서, 호스트 차량 항법 시스템은 일부 상황에서 정상적인 항법 규칙을 보류하거나 완화할 수 있다. 예를 들면, 교통 체증에서, 특정 선행권 규칙(예, 로터리 내에서)은 보류될 수 있다. 다른 예를 들면, 검출된 위험(예, 호스트 차량의 인접 차로에서 지그재그 운전하는 차량 도는 호스트 차량의 차로 내의 장애물 등)에 대응하여, 갓길 주행 금지 또는 다인승 전용차로 주행 금지에 관한 규칙은 임시적으로 보류될 수 있다. 이하, 차량의 자율 제어 동안에 항법 규칙을 보류하는 시스템 및 방법에 대해 설명하기로 한다.
예를 들어, 일 실시예에서, 호스트 차량의 항법 시스템은 적어도 하나의 카메라(예, 이미지캡처장치(122, 124, 126)의 하나)로부터 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신하도록 프로그램된 적어도 하나의 처리 장치(예, 처리 장치(110))를 포함할 수 있다. 적어도 하나의 처리 장치는 복수의 이미지를 분석하여 호스트 차량의 주변상황에서 항법 규칙 보류 조건의 존재를 식별하도록 더 프로그램될 수 있다. 적어도 하나의 처리 장치는 항법 규칙 보류 조건의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류하고 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제약받지 않는 호스트 차량의 적어도 하나의 항법 변경을 유발하도록 더 프로그램 될 수 있다.
도 28에 도시된 바와 같이, 앞서 설명한 다른 모듈과 조합하여, 항법 규칙의 보류와 연관된 작업은 규칙 보류 조건 판단 모듈(2802)과 항법 규칙 보류 모듈(2804)을 포함하는 두 개의 모듈로 구분될 수 있다. 일부 실시예에서, 모듈들(2802, 2804)은 시스템(100)의 메모리(140) 및/또는 메모리(150)에 저장될 수 있고, 모듈들(2802, 2804)은(또는 그 일부는) 시스템(100)으로부터 원격으로 저장(예, 무선 송수신기(172)를 통하여 시스템(100)에 접속 가능한 서버에 저장)될 수 있다.
규칙 보류 조건 판단 모듈(2802)은 처리부(110)에 의해 실행 가능한 명령을 저장할 수 있고, 하나 이상의 항법 규칙의 보류를 정당화 및/또는 요구할 수 있는 하나 이상의 조건의 식별에 관한 다양한 작업을 처리할 수 있다. 이러한 규칙에는 교통 규칙(예, 속도, 선행권, 일시정지표지판, 신호등, 갓길 주행 금지 등), 경로 규칙(예, 혼잡 구간 우회, 유료도로 우회 등), 또는 기타 규칙이 포함될 수 있다. 이러한 작업은 호스트 차량과 연관된 다양한 센서 및 센싱 시스템으로부터의 입력에 의존할 수 있다. 이러한 입력에는 하나 이상의 탑재된 카메라로부터의 이미지 또는 이미지 스트림, 사용자 피드백, 또는 하나 이상의 사용자 인터페이스 장치, 레이더, 라이더 등으로의 사용자 입력이 포함될 수 있다. 예를 들어, 규칙 보류 조건 판단 모듈은 교통 혼잡, 장애물, 안전상 위험, 하나 이상의 타깃 차량의 이상 행동, 비상 차량 등과 같은 하나 이상의 항법 규칙의 보류를 정당화 및/또는 요구할 수 있는 조건을 식별할 수 있다.
일부 실시예에서, 규칙 보류 조건 판단 모듈(2802)의 출력은 항법 규칙 보류 모듈(2804)로 전달될 수 있다. 항법 규칙 보류 모듈(2804)은 처리부(110)에 의해 실행 가능한 명령을 저장하여 규칙 보류 조건 판단 모듈(2802)에 의해 식별된 하나 이상의 조건에 의거하여 항법 규칙을 식별 및 보류할 수 있다. 임시로 보류된 규칙은 정상적인 작동 조건하에서 선택된 영역에서의 항법을 금지할 수 있다. 일부 실시예에서, 호스트 차량 전방의 도로에 장애물이 있다고 규칙 보류 조건 판단 모듈(2802)이 나타낸 이후에, 항법 규칙 보류 모듈(2804)은 장애물 우회를 간섭하는 규칙을 보류할 수 있다. 예를 들면, 항법 규칙 보류 모듈(2804)은 호스트 차량의 다인승 전용차로 진입 또는 갓길 진입을 금지하는 항법 규칙을 보류하여 호스트 차량이 장애물을 회피하게 허용할 수 있다. 마찬가지로, 항법 규칙 보류 모듈(2804)은 호스트 차량의 차로를 침범하는 타깃 차량에 대응하여 규칙을 보류할 수 있다. 또한, 교통 체증과 같은 교통 상황이 정상적인 교통 흐름이면 허용되지 않을 특정 동작을 허용하게 할 수 있다. 따라서, 교통의 경우의 예를 들면, 항법 규칙 보류 모듈(2804)은 정상 작동 조건하에서 항법 선행권, 속도 제한, 추월 금지 등을 설정하는 규칙을 보류할 수 있다.
항법 규칙 보류 모듈(2804)은 규칙 보류 조건의 정도에 의거하여 규칙을 보류할 수 있다. 예컨대, 항법 규칙 보류 모듈(2804)은 규칙 보류 조건이 장애물의 높이를 포함한다고 판단할 수 있고, 항법 규칙의 보류는 장애물의 높이가 임계값을 초과하는지 여부에 의거할 수 있다.
항법 규칙 보류 모듈(2804)은 규칙에 대한 근거보다 우선순위를 취할 것으로 고려될 수 있는 하나 이상의 요인에 의거하여 규칙 보류를 할 만한 조건인지 여부를 판단할 수 있다. 이러한 요인에는 호스트 차량 탑승자의 안전, 호스트 차량 부근 사람의 안전, 타깃 차량이나 다른 물체와의 충돌 임박, 호스트 차량의 손실 가능성 등이 포함될 수 있다.
예컨대, 규칙 보류 조건과 연관된 요인에는 0에서 1 사이 등의 가중치 또는 중요도가 부여될 수 있고, 규칙이 보류되려면 중요도가 임계값을 초과해야 할 수 있다. 일부 실시예에서, 규칙의 보류를 위한 임계값은 규칙에 따라 다를 수 있다. 예를 들어, 다인승 전용차로 진입을 금지하는 규칙을 보류하기 위한 임계값은 고속도로의 갓길 주행을 금지하는 규칙을 보류하기 위한 임계값보다 낮을 수 있다.
일부 실시예에서, 규칙 보류를 할 만한 조건인지 여부는 복수의 요인을 고려할 수 있다. 복수의 요인 각각에는 가중치 또는 중요도가 부여될 수 있다. 복수의 요인에 가중치를 부여한 값 또는 중요도에 관한 누적 점수를 고려하여 규칙을 보류할지 여부를 판단할 수 있다.
일부 실시예에서, 항법 규칙 보류 모듈(2804)은 임시로 보류된 규칙을 임시 규칙으로 대체할 수 있다. 예컨대, 임시 규칙은 보류된 규칙보다 더 완화된 것일 수 있거나 규칙 보류 조건과 연관된 조건에 특정한 것일 수 있다.
도 29는 도 12에 관하여 설명한 바와 같이 호스트 차량의 적어도 하나의 카메라에 의해 캡처되고 호스트 차량의 항법 동안에 분석될 수 있는 장면(2900)의 일례를 도시한 것이다. 장면(2900)에는 세 개의 차로(2904, 2916, 2918)를 포함하는 고속도로(2902)와 갓길(2910)이 포함된다. 표지판(2906)과 도로 표시(2908)로 나타낸 바와 같이 차로(2904)는 다인승 전용이고, 표지판(2912)은 갓길(2910)은 차량 통행을 위한 사용이 금지됨을 나타낸다. 차로(2916)와 차로(2918)는 일반 통행에 개방돼 있다. 장면(2900)은 또한 차로(2916)와 차로(2918)를 방해하는, 본 예에서는 큰 상자인, 물체(2914)를 포함한다. 물체(2914)를 우회하기 위하여, 호스트 차량은 주행 차로를 차로(2904)로 변경할 수 있다. 이를 위해, 차로(2904)에 다인승 차량이 아닌 차량의 진입을 금지하는 규칙이 호스트 차량의 항법 시스템에 의해 임시로 보류될 수 있다.
도 30은 도 12에 관하여 설명한 바와 같이 호스트 차량의 적어도 하나의 카메라에 의해 캡처되고 호스트 차량의 항법 동안에 분석될 수 있는 다른 장면(3000)의 다른 일례를 도시한 것이다. 장면(2900)과 유사한 특징 외에도, 장면(3000)은 차로(2918)에서 차로(2916)로 지그재그로 주행하는 차량(3002)을 포함한다. 차량(3002)을 우회하기 위하여, 호스트 차량은 주행 차로를 차로(2904) 또는 차로(2910)로 변경할 수 있다. 이를 위해, 다인승 차량이 아닌 차량의 차로(2904) 진입을 금지하는 항법 규칙과 차량의 차로(2910) 진입을 금지하는 규칙이 호스트 차량의 항법 시스템에 의해 임시로 보류될 수 있다.
일부 실시예에서, 이미 로터리 안에 있는 차량이 로터리로 진입하는 차량보다 정상적인 조건 하에서 선행권이 있음을 설정하는 규칙을 보류하는 경우에서, 항법 변경의 결과로, 호스트 차량이 선행권이 없이도 로터리에 진입할 수 있다.
도 31은 항법 규칙을 보류하는 예시적인 프로세스를 나타내는 순서도(3100)의 일례를 도시한 것이다. 도 31의 예에서, 항법 규칙은 호스트 차량에 의해 검출된 상황에 의거하여 보류될 수 있다.
단계 3102에서, 호스트 차량 항법 시스템의 적어도 하나의 처리 장치(예, 처리 장치(110))는 호스트 차량과 연관된 카메라로부터, 앞서 도 2 및 도 5를 참조하여 설명한 바와 같은, 호스트 차량의 주변상황을 나타내는 복수의 이미지를 수신할 수 있다.
단계 3104에서, 적어도 하나의 처리 장치는 수신된 이미지의 하나 이상을 분석하여 호스트 차량의 주변상황에서 규칙 보류 조건을 식별할 수 있다. 분석은 앞서 감지 모듈(801)에 관하여 설명한 바와 같이 수행될 수 있다. 일부 실시예에서, 단계 3104의 분석은 앞서 설명한 바와 같이 규칙 보류 조건 판단 모듈(2802)에 의해 수행될 수 있다. 예를 들면, 적어도 하나의 처리 장치는 장면(2900)과 장면(3000)에 각각 도시된 물체(2916) 또는 차량(3002)을 식별할 수 있다. 이에 따라, 적어도 하나의 처리 장치는 수신된 이미지에 규칙 보류 조건이 존재 하는지 여부를 판단할 수 있다.
단계 3106에서, 적어도 하나의 처리 장치는 항법 규칙 보류 조건의 식별에 대응하여 적어도 하나의 항법 규칙을 임시로 보류할 수 있다. 일부 실시예에서, 단계 3106은 앞서 설명한 바와 같이 항법 규칙 보류 모듈(2804)에 의해 수행될 수 있다. 예컨대, 적어도 하나의 처리 장치는 정상적인 조건하에서 갓길(2910) 주행을 금지하는 규칙을 보류하거나, 정상적인 조건하에서 의무 탑승 인원 미만의 차량의 다인승 전용차로 주행을 금지하는 규칙을 보류하거나, 정상적인 조건하에서 이미 로터리 안에 있는 차량이 로터리로 진입하는 차량보다 선행권이 있음을 설정하는 규칙을 보류할 수 있다. 규칙은 앞서 설명한 바와 같이 규칙 보류 조건의 정도에 의거하여 보류될 수 있다. 예를 들어, 물체(2914)의 높이가 미리 정해진 높이 이상이라는 판단에 의거하여 규칙이 보류될 수 있다. 또는, 물체(2914)의 높이가 미리 정해진 높이 이하인 경우에, 규칙을 보류하지 않고 유지함으로써 호스트 차량이 물체(2914)를 넘어 진행하도록 할 수 있다.
보류된 규칙은 임시 규칙으로 대체될 수 있다. 예를 들면, 시속 70마일의 속도 제한을 설정하는 규칙은 호스트 차량이 차량(3002)을 우회할 기회를 주기 위하여 시속 90마일의 속도 제한을 설정하는 더 완화된 규칙으로 대체될 수 있다. 임시 규칙은 미리 정해진 시간 및/또는 미리 정해진 거리 등에 의거한 만료와 연관될 수 있다.
단계 3108에서, 적어도 하나의 처리 장치는 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제약받지 않는 호스트 차량의 적어도 하나의 항법 변경을 유발할 수 있다. 호스트 차량의 항법 시스템의 적어도 하나의 처리 장치는 분석된 장면, 식별된 규칙 보류 조건, 및 보류된 항법 규칙에 의거하여, 규칙 보류 조건에 따른 호스트 차량에 대한 항법 동작(예, 좌회전, 정지, 양보, 추월, 차로 변경 등)을 결정할 수 있다. 항법 동작을 이행하기 위하여, 적어도 하나의 처리 장치는 결정된 항법 동작에 대응하여 호스트 차량의 항법 액추에이터의 적어도 하나의 조정을 유발할 수 있다. 예를 들면, 호스트 차량의 조향과 함께 브레이크 또는 가속장치가 작동될 수 있다. 다른 예를 들면, 단계 3104에서의 물체(2916) 또는 차량(3002)의 식별에 대응한 적어도 하나의 항법 변경의 결과로, 호스트 차량이 갓길 또는 다인승 전용 차로로 진입할 수 있다.
상기의 설명은 예시의 목적으로 제시되었다. 이 설명은 모든 것을 망라한 것이 아니며 기재된 그대로의 형태 또는 실시예로 제한되는 것이 아니다. 수정 및 응용은 본 명세서를 고려하고 기재된 실시예를 실시함으로써 당업자에게 당연할 것이다. 또한, 기재된 실시예의 양상들이 메모리에 저장되는 것으로 설명되었지만, 당업자라면 이러한 양상들이, 예를 들어, 하드 디스크 또는 CD ROM, 또는 다른 유형의 RAM 또는 ROM, USB 매체, DVD, 블루레이, 4K UHD 블루레이, 또는 기타 광드라이브 매체 등의 2차 저장장치와 같은 다른 유형의 컴퓨터 가독 매체에 저장될 수도 있음을 이해할 것이다.
기재된 설명과 방법에 기반한 컴퓨터 프로그램은 당업자에게는 당연한 기술이다. 다양한 프로그램 또는 프로그램 모듈이 당업자에게 공지인 기술을 사용하여 생성되거나 기존의 소프트웨어와 관련되어 설계될 수 있다. 예를 들어, 프로그램 섹션 또는 프로그램 모듈은 .Net Framework, .Net Compact Framework (및 Visual Basic, C 등과 같은 관련 언어), Java, C++, Objective-C, HTML, HTML/AJAX 조합, XML, 또는 자바 애플릿(Java applet)을 포함하는 HTML로 설계될 수 있다.
또한, 예시된 실시예들을 여기에 설명하였지만, 모든 실시예의 범위는 균등한 구성요소, 수정, 누락, 조합(예, 다양한 실시예에 걸친 양상의 조합), 응용, 및/또는 변경을 가짐은 본 발명의 당업자에게 당연하다. 청구항의 한정은 청구항에 사용된 언어에 근거하여 넓게 해석되어야 하며 본 명세서에서 또는 본 발명의 출원 중에 설명된 예시에 한정되지 않는다. 예시들은 배타적이지 않은 것으로 이해되어야 한다. 나아가, 기재된 방법의 단계들은 단계들의 순서를 재배열 및/또는 단계를 삽입 또는 삭제하는 등의 다양한 방법으로 수정될 수 있다. 따라서, 본 명세서와 예시들은 예시의 목적으로만 고려되고, 진정한 범위와 기술적 사상은 하기의 청구항과 그 균등한 범위에 의해 정의된다.

Claims (81)

  1. 호스트 차량의 항법 시스템에 있어서, 상기 항법 시스템은:
    적어도 하나의 처리 장치를 포함하고,
    상기 적어도 하나의 처리 장치는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 적어도 하나의 항법 상태를 식별;
    상기 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 상기 호스트 차량이 이동 중인 구역(jurisdiction)을 식별―여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거함;
    상기 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단; 및
    상기 호스트 차량의 상기 식별된 항법 상태에 의거하고 상기 식별된 구역에 특유한 상기 판단된 적어도 하나의 항법 규칙에 의거하여 상기 호스트 차량에 대한 항법 변경을 유발; 하도록 프로그램 된 것을 특징으로 하는, 항법 시스템.
  2. 제1항에 있어서,
    상기 호스트 차량의 상기 적어도 하나의 지시자는 GPS 신호를 포함하는 것을 특징으로 하는, 항법 시스템.
  3. 제1항에 있어서,
    상기 호스트 차량의 상기 위치의 상기 적어도 하나의 지시자는 인지된 도로 표지판을 포함하는 것을 특징으로 하는, 항법 시스템.

  4. 제1항에 있어서,
    상기 호스트 차량의 상기 위치의 상기 적어도 하나의 지시자는 상기 호스트 차량의 상기 위치에 관한 정보를 포함하는 수신된 신호를 포함하는 것을 특징으로 하는, 항법 시스템.
  5. 제1항에 있어서,
    상기 항법 변경은 상기 호스트 차량의 항법 액추에이터의 조정에 의해 유발되는 것을 특징으로 하는, 항법 시스템.
  6. 제5항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 시스템.
  7. 제1항에 있어서,
    상기 적어도 하나의 항법 규칙은 비보호 좌회전을 금지하는 것을 특징으로 하는, 항법 시스템.
  8. 제1항에 있어서,
    상기 적어도 하나의 항법 규칙은 비보호 좌회전을 허용하는 것을 특징으로 하는, 항법 시스템.
  9. 제1항에 있어서,
    상기 적어도 하나의 항법 규칙은 다차선 차로에서 추월 목적 이외의 1차선 차로 주행을 금지하는 것을 특징으로 하는, 항법 시스템.
  10. 호스트 차량의 항법 방법에 있어서, 적어도 하나의 처리 장치에 의해 수행되는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 적어도 하나의 항법 상태를 식별하는 단계;
    상기 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 상기 호스트 차량이 이동 중인 구역을 식별하는 단계―여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거함;
    상기 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단하는 단계; 및
    상기 호스트 차량의 상기 식별된 항법 상태에 의거하고 상기 식별된 구역에 특유한 상기 판단된 적어도 하나의 항법 규칙에 의거하여 상기 호스트 차량에 대한 항법 변경을 유발하는 단계;
    를 포함하는, 항법 방법.
  11. 제10항에 있어서,
    상기 호스트 차량의 상기 적어도 하나의 지시자는 GPS 신호를 포함하는 것을 특징으로 하는, 항법 방법.
  12. 제10항에 있어서,
    상기 호스트 차량의 상기 위치의 상기 적어도 하나의 지시자는 인지된 도로 표지판을 포함하는 것을 특징으로 하는, 항법 방법.
  13. 제10항에 있어서,
    상기 호스트 차량의 상기 위치의 상기 적어도 하나의 지시자는 상기 호스트 차량의 상기 위치에 관한 정보를 포함하는 수신된 신호를 포함하는 것을 특징으로 하는, 항법 방법.
  14. 제10항에 있어서,
    상기 항법 변경은 상기 호스트 차량의 항법 액추에이터의 조정에 의해 유발되는 것을 특징으로 하는, 항법 방법.
  15. 제14항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 방법.
  16. 제10항에 있어서,
    상기 적어도 하나의 항법 규칙은 비보호 좌회전을 금지하는 것을 특징으로 하는, 항법 방법.
  17. 제10항에 있어서,
    상기 적어도 하나의 항법 규칙은 비보호 좌회전을 허용하는 것을 특징으로 하는, 항법 방법.
  18. 제10항에 있어서,
    상기 적어도 하나의 항법 규칙은 다차선 차로에서 추월 목적 이외의 1차선 차로 주행을 금지하는 것을 특징으로 하는, 항법 방법.
  19. 자율주행차에 있어서,
    상기 자율주행차는,
    차체;
    상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치; 및
    적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 적어도 하나의 항법 상태를 식별;
    상기 호스트 차량의 위치의 적어도 하나의 지시자에 의거하여 상기 호스트 차량이 이동 중인 구역을 식별―여기서, 상기 적어도 하나의 지시자는 상기 복수의 이미지의 분석에 적어도 부분적으로 의거함;
    상기 식별된 구역에 특유한 적어도 하나의 항법 규칙을 판단; 및
    상기 호스트 차량의 상기 식별된 항법 상태에 의거하고 상기 식별된 구역에 특유한 상기 판단된 적어도 하나의 항법 규칙에 의거하여 상기 호스트 차량에 대한 항법 변경을 유발; 하도록 프로그램 된 것을 특징으로 하는,
    자율주행차.
  20. 제19항에 있어서,
    상기 호스트 차량의 상기 위치의 상기 적어도 하나의 지시자는 인지된 도로 표지판을 포함하는 것을 특징으로 하는, 자율주행차.
  21. 호스트 차량의 항법 시스템에 있어서,
    상기 항법 시스템은:
    적어도 하나의 처리 장치를 포함하고,
    상기 적어도 하나의 처리 장치는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별;
    상기 복수의 이미지를 분석하여 상기 호스트 차량에 부정적인 상기 타깃 차량의 적어도 하나의 특성을 식별; 및
    상기 호스트 차량의 적어도 하나의 항법 변경을 유발하여 상기 타깃 차량의 상기 적어도 하나의 특성을 식별한 이후에 상기 타깃 차량의 추월을 개시; 하도록 프로그램 된 것을 특징으로 하는,
    항법 시스템.
  22. 제21항에 있어서,
    상기 적어도 하나의 항법 변경은 상기 호스트 차량의 항법 액추에이터의 조정에 의해 유발되는 것을 특징으로 하는, 항법 시스템.
  23. 제22항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 시스템.
  24. 제21항에 있어서,
    상기 호스트 차량의 상기 적어도 하나의 항법 변경은 적어도 부분적으로 상기 호스트 차량의 탑승자로부터의 입력에 의해 유발되는 것을 특징으로 하는, 항법 시스템.
  25. 제24항에 있어서,
    상기 호스트 차량의 상기 탑승자로부터의 상기 입력은 음성 명령을 통해 제공되는 것을 특징으로 하는, 항법 시스템.
  26. 제24항에 있어서,
    상기 호스트 차량의 상기 탑승자로부터의 상기 입력은 버튼, 터치스크린, 및 제스처 인지 시스템 중의 적어도 하나를 포함하는 사용자 인터페이스를 통해 제공되는 것을 특징으로 하는, 항법 시스템.
  27. 제24항에 있어서,
    상기 처리 장치는, 상기 호스트 차량의 상기 탑승자로부터의 상기 입력에 의거하여, 추후의 상기 적어도 하나의 특성의 식별에 대응하여 상기 추후에 상기 적어도 하나의 항법 변경과 유사한 항법 변경을 하도록 구성된 것을 특징으로 하는, 항법 시스템.
  28. 제24항에 있어서,
    상기 탑승자로부터의 상기 입력에 대응하여, 상기 처리 장치는 하나 이상의 공간적 타깃 각각으로 상기 호스트 차량의 항법을 위해 시간적 사양과 함께 상기 하나 이상의 공간적 타깃을 판단하는 것을 특징으로 하는, 항법 시스템.
  29. 제24항에 있어서,
    상기 처리 장치는, 상기 탑승자로부터의 상기 입력에 대응하여, 하나 이상의 공간적 타깃 을 판단하고, 상기 처리 장치는 선택된 시간 프레임 이내에서 선택된 공간적 타깃으로 상기 호스트 차량의 항법을 위한 제어 명령의 집합을 제공하도록 구성된 것을 특징으로 하는, 항법 시스템.
  30. 제24항에 있어서,
    상기 처리 장치는, 상기 탑승자로부터의 상기 입력에 대응하여, 상기 호스트 차량에 대한 동작의 세트를 결정하여 상기 추월을 개시 및 완료하는 머신 러닝 방침 모듈을 작동시키도록 구성된 것을 특징으로 하는, 항법 시스템.
  31. 제24항에 있어서,
    상기 처리 장치는, 상기 탑승자로부터의 상기 입력에 대응하여, 안전한 추월 동작이 있는지 여부를 판단하는 것을 특징으로 하는, 항법 시스템.
  32. 제24항에 있어서,
    상기 처리 장치는, 상기 탑승자로부터의 상기 입력에 대응하여, 상기 호스트 차량의 과실인 사고를 유발하지 않을 추월 동작이 있는지 여부를 판단하도록 구성된 것을 특징으로 하는, 항법 시스템.
  33. 제21항에 있어서,
    상기 타깃 차량의 상기 식별된 특성은 차량 제원이고, 상기 적어도 하나의 항법 변경은 임계값을 초과하는 상기 차량 제원에 적어도 부분적으로 의거하는 것을 특징으로 하는, 항법 시스템.
  34. 제21항에 있어서,
    상기 타깃 차량의 상기 식별된 특성은 차량 유형이고, 상기 적어도 하나의 항법 변경은 상기 차량 유형에 적어도 부분적으로 의거하는 것을 특징으로 하는, 항법 시스템.
  35. 제29항에 있어서,
    상기 차량 유형은 타깃 차량이 공사 차량 및 농업용 차량 중의 적어도 하나인 것을 나타내는 것을 특징으로 하는, 항법 시스템.
  36. 제21항에 있어서,
    상기 타깃 차량의 상기 식별된 특성은 상기 타깃 차량과 연관된 고정되지 않은 물체이고, 상기 적어도 하나의 항법 변경은 상기 고정되지 않은 물체에 적어도 부분적으로 의거하는 것을 특징으로 하는, 항법 시스템.
  37. 제36항에 있어서,
    상기 고정되지 않은 물체는 펄럭이는 천을 포함하는 것을 특징으로 하는, 항법 시스템.
  38. 제36항에 있어서,
    상기 고정되지 않은 물체는 열린 문 및 잠기지 않은 문 중의 하나 이상을 포함하는 것을 특징으로 하는, 항법 시스템.
  39. 제21항에 있어서,
    상기 처리 장치는 입자 검출기로부터 타깃 차량에 의해 배출된 미립자 물질의 징후를 수신하도록 더 구성되고, 상기 적어도 하나의 항법 변경은 상기 미립자 물질의 징후에 적어도 부분적으로 의거하는 것을 특징으로 하는, 항법 시스템.
  40. 호스트 차량의 항법 방법에 있어서,
    적어도 하나의 처리 장치에 의해 수행되는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별하는 단계;
    상기 복수의 이미지를 분석하여 상기 타깃 차량의 적어도 하나의 특성을 식별하는 단계; 및
    상기 호스트 차량의 적어도 하나의 항법 변경을 유발하여 상기 타깃 차량의 상기 적어도 하나의 특성을 식별한 이후에 상기 타깃 차량의 추월을 개시하는 단계;
    를 포함하는, 항법 방법.
  41. 자율주행차에 있어서,
    상기 자율주행차는:
    차체;
    상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치; 및
    적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별;
    상기 복수의 이미지를 분석하여 상기 타깃 차량의 적어도 하나의 특성을 식별; 및
    상기 호스트 차량의 적어도 하나의 항법 변경을 유발하여 상기 타깃 차량의 상기 적어도 하나의 특성을 식별한 이후에 상기 타깃 차량의 추월을 개시; 하도록 프로그램 된 것을 특징으로 하는, 자율주행차.
  42. 호스트 차량의 항법 시스템에 있어서,
    상기 항법 시스템은:
    적어도 하나의 처리 장치를 포함하고,
    상기 적어도 하나의 처리 장치는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별;
    상기 복수의 이미지의 분석에 적어도 부분적으로 의거하여 상기 타깃 차량과 상기 호스트 차량의 항법 우선순위가 확정되지 않음을 판단;
    상기 호스트 차량에 의한 적어도 하나의 동작을 유발하여 상기 호스트 차량 또는 상기 타깃 차량에 항법 우선순위를 설정; 및
    상기 설정된 항법 우선순위에 의거하여 상기 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발; 하도록 프로그램 된 것을 특징으로 하는,
    항법 시스템.
  43. 제42항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 시스템.
  44. 제42항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 타깃 차량으로 정보 신호의 전송을 포함하고, 상기 정보 신호는 상기 타깃 차량에 양보할 상기 호스트 차량의 의도를 나타내는 것을 특징으로 하는, 항법 시스템.
  45. 제42항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 타깃 차량으로 정보 신호의 전송을 포함하고, 상기 정보 신호는 상기 타깃 차량의 앞으로 항법 동작을 개시할 상기 호스트 차량의 의도를 나타내는 것을 특징으로 하는, 항법 시스템.
  46. 제42항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 호스트 차량을 살짝 밀고 들어가는 동작을 포함하는 것을 특징으로 하는, 항법 시스템.
  47. 제42항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 호스트 차량과 연관된 등화의 깜빡임을 포함하는 것을 특징으로 하는, 항법 시스템.
  48. 제42항에 있어서,
    상기 확정되지 않은 항법 우선순위는 차로 병합 상황을 포함하는 것을 특징으로 하는, 항법 시스템.
  49. 제42항에 있어서,
    상기 확정되지 않은 항법 우선순위는 사방향 정지 교차로에 상기 호스트 차량과 상기 타깃 차량의 거의 동시 도착을 포함하는 것을 특징으로 하는, 항법 시스템.
  50. 제42항에 있어서,
    상기 처리 장치는 상기 설정된 우선순위에 대한 상기 타깃 차량의 대응을 검출하도록 더 구성된 것을 특징으로 하는, 항법 시스템.
  51. 제50항에 있어서,
    상기 복수의 이미지는 제1 복수의 이미지이고, 상기 대응의 검출은 제2 복수의 이미지의 분석을 포함하는 것을 특징으로 하는, 항법 시스템.
  52. 제42항에 있어서,
    상기 타깃 차량에 관한 판단된 우선순위는 미리 정해진 신뢰도 임계값 이내인 것을 특징으로 하는, 항법 시스템.
  53. 제42항에 있어서,
    상기 호스트 차량과 상기 타깃 차량 각각에 대해 우선순위 값이 계산되고, 상기 우선순위 값 사이의 차이는 미리 정해진 임계값 이내인 것을 특징으로 하는, 항법 시스템.
  54. 호스트 차량의 항법 방법에 있어서,
    적어도 하나의 처리 장치에 의해 수행되는,
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별하는 단계;
    상기 복수의 이미지의 분석에 적어도 부분적으로 의거하여 상기 타깃 차량과 상기 호스트 차량의 항법 우선순위가 확정되지 않음을 판단하는 단계;
    상기 호스트 차량에 의한 적어도 하나의 동작을 유발하여 상기 호스트 차량 또는 상기 타깃 차량에 항법 우선순위를 설정하는 단계; 및
    상기 설정된 항법 우선순위에 의거하여 상기 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발하는 단계;
    를 포함하는, 항법 방법.
  55. 제54항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 방법.
  56. 제54항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 타깃 차량으로 정보 신호의 전송을 포함하고, 상기 정보 신호는 상기 타깃 차량에 양보할 상기 호스트 차량의 의도를 나타내는 것을 특징으로 하는, 항법 방법.
  57. 제54항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 타깃 차량으로 정보 신호의 전송을 포함하고, 상기 정보 신호는 상기 타깃 차량의 앞으로 항법 동작을 개시할 상기 호스트 차량의 의도를 나타내는 것을 특징으로 하는, 항법 방법.
  58. 제54항에 있어서,
    상기 호스트 차량에 의한 상기 적어도 하나의 동작은 상기 호스트 차량과 연관된 등화의 깜빡임을 포함하는 것을 특징으로 하는, 항법 방법.
  59. 제54항에 있어서,
    상기 확정되지 않은 항법 우선순위는 차로 병합 상황을 포함하는 것을 특징으로 하는, 항법 방법.
  60. 제54항에 있어서,
    상기 확정되지 않은 항법 우선순위는 사방향 정지 교차로에 상기 호스트 차량과 상기 타깃 차량의 거의 동시 도착을 포함하는 것을 특징으로 하는, 항법 방법.
  61. 자율주행차에 있어서, 상기 자율주행차는:
    차체;
    상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치; 및
    적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 적어도 하나의 타깃 차량을 식별;
    상기 복수의 이미지의 분석에 적어도 부분적으로 의거하여 상기 타깃 차량과 상기 호스트 차량의 항법 우선순위가 확정되지 않음을 판단;
    상기 호스트 차량에 의한 적어도 하나의 동작을 유발하여 상기 호스트 차량 또는 상기 타깃 차량에 항법 우선순위를 설정; 및
    상기 설정된 항법 우선순위에 의거하여 상기 호스트 차량의 적어도 하나의 항법 액추에이터의 제어를 유발; 하도록 프로그램 된 것을 특징으로 하는,
    자율주행차.
  62. 호스트 차량의 항법 시스템에 있어서, 상기 항법 시스템은:
    적어도 하나의 처리 장치를 포함하고,
    상기 적어도 하나의 처리 장치는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 항법 규칙 보류 조건의 존재를 식별;
    상기 항법 규칙 보류 조건의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류; 및
    상기 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제약 받지 않는 상기 호스트 차량의 적어도 하나의 항법 변경을 유발; 하도록 프로그램 된 것을 특징으로 하는,
    항법 시스템.
  63. 제62항에 있어서,
    상기 항법 변경은 상기 호스트 차량의 항법 액추에이터의 조정에 의해 유발되는 것을 특징으로 하는, 항법 시스템.
  64. 제63항에 있어서,
    상기 항법 액추에이터는 조향 메커니즘, 브레이크, 및 가속장치 중의 적어도 하나를 포함하는 것을 특징으로 하는, 항법 시스템.
  65. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 정상적인 조건 하에서 갓길 주행을 금지하는 것을 특징으로 하는, 항법 시스템.
  66. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 정상적인 조건 하에서 의무 탑승 인원 미만의 차량의 다인승 전용 차로 주행을 금지하는 것을 특징으로 하는, 항법 시스템.
  67. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 정상적인 조건 하에서 이미 로터리 안에 있는 차량이 상기 로터리로 진입하는 차량보다 선행권이 있음을 설정하는 것을 특징으로 하는, 항법 시스템.
  68. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 정상 작동 조건 하에서 항법 선행권을 설정하는 것을 특징으로 하는, 항법 시스템.
  69. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 정상 작동 조건 하에서 선택된 영역에서의 항법을 금지하는 것을 특징으로 하는, 항법 시스템.
  70. 제62항에 있어서,
    상기 적어도 하나의 항법 변경의 유발의 결과로 상기 호스트 차량이 갓길에 진입하는 것을 특징으로 하는, 항법 시스템.
  71. 제62항에 있어서,
    상기 적어도 하나의 항법 변경의 유발의 결과로 상기 호스트 차량이 다인승 전용 차로에 진입하는 것을 특징으로 하는, 항법 시스템.
  72. 제62항에 있어서,
    상기 적어도 하나의 항법 변경의 유발의 결과로 상기 호스트 차량이 선행권이 없이도 로터리에 진입하는 것을 특징으로 하는, 항법 시스템.
  73. 제62항에 있어서,
    상기 적어도 하나의 항법 변경의 유발의 결과로 상기 호스트 차량이 선행권이 없이도 다른 진행 차로에 진입하는 것을 특징으로 하는, 항법 시스템.
  74. 제62항에 있어서,
    상기 항법 규칙 보류 조건은 교통 체증을 포함하는 것을 특징으로 하는, 항법 시스템.
  75. 제62항에 있어서,
    상기 항법 규칙 보류 조건은 상기 호스트 차량 전방 도로의 장애물을 포함하는 것을 특징으로 하는, 항법 시스템.
  76. 제75항에 있어서,
    상기 항법 규칙 보류 조건은 상기 장애물의 높이를 포함하고, 상기 항법 규칙의 보류는 상기 높이의 임계값 초과에 의거하는 것을 특징으로 하는, 항법 시스템.
  77. 제62항에 있어서,
    상기 항법 규칙 보류 조건은 타깃 차량의 상기 호스트 차량의 차로 침범을 포함하는 것을 특징으로 하는, 항법 시스템.
  78. 제62항에 있어서,
    상기 임시적으로 보류된 규칙은 임시 규칙으로 대체되는 것을 특징으로 하는, 항법 시스템.
  79. 제28항에 있어서,
    상기 임시 규칙은 보류된 규칙보다 더 완화된 것을 특징으로 하는, 항법 시스템.
  80. 호스트 차량의 항법 방법에 있어서, 적어도 하나의 처리 장치에 의해 수행되는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신하는 단계;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 항법 규칙 보류 조건의 존재를 식별하는 단계;
    상기 항법 규칙 보류 조건의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류하는 단계; 및
    상기 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제약 받지 않는 상기 호스트 차량의 적어도 하나의 항법 변경을 유발하는 단계;
    를 포함하는, 항법 방법.
  81. 자율주행차에 있어서,
    상기 자율주행차는:
    차체;
    상기 자율주행차의 주변상황을 나타내는 적어도 하나의 이미지를 확보하도록 구성된 적어도 하나의 이미지캡처장치; 및
    적어도 하나의 프로세서; 를 포함하고,
    상기 적어도 하나의 프로세서는:
    상기 호스트 차량의 주변상황을 나타내는 복수의 이미지를 카메라로부터 수신;
    상기 복수의 이미지를 분석하여 상기 호스트 차량의 상기 주변상황에서 항법 규칙 보류 조건의 존재를 식별;
    상기 항법 규칙 보류 조건의 식별에 대응하여 적어도 하나의 항법 규칙을 임시적으로 보류; 및
    상기 임시적으로 보류된 적어도 하나의 항법 규칙에 의해 제약 받지 않는 상기 호스트 차량의 적어도 하나의 항법 변경을 유발; 하도록 프로그램 된 것을 특징으로 하는, 자율주행차.
KR1020197023466A 2017-01-12 2018-01-11 규칙 기반 항법 KR102513185B1 (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201762445500P 2017-01-12 2017-01-12
US62/445,500 2017-01-12
US201762546343P 2017-08-16 2017-08-16
US62/546,343 2017-08-16
US201762565244P 2017-09-29 2017-09-29
US62/565,244 2017-09-29
US201762582687P 2017-11-07 2017-11-07
US62/582,687 2017-11-07
PCT/US2018/013391 WO2018132614A2 (en) 2017-01-12 2018-01-11 Rules-based navigation

Publications (2)

Publication Number Publication Date
KR20190107071A true KR20190107071A (ko) 2019-09-18
KR102513185B1 KR102513185B1 (ko) 2023-03-23

Family

ID=61054599

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020197023466A KR102513185B1 (ko) 2017-01-12 2018-01-11 규칙 기반 항법
KR1020197023769A KR102535540B1 (ko) 2017-01-12 2018-01-11 차량 움직임에 기반한 항법
KR1020197023073A KR102551130B1 (ko) 2017-01-12 2018-01-11 차량 움직임에 기반한 항법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020197023769A KR102535540B1 (ko) 2017-01-12 2018-01-11 차량 움직임에 기반한 항법
KR1020197023073A KR102551130B1 (ko) 2017-01-12 2018-01-11 차량 움직임에 기반한 항법

Country Status (8)

Country Link
US (9) US11738741B2 (ko)
EP (4) EP3545265A2 (ko)
JP (4) JP7283680B2 (ko)
KR (3) KR102513185B1 (ko)
CN (3) CN110325823B (ko)
CA (1) CA3049770A1 (ko)
IL (3) IL293713B2 (ko)
WO (3) WO2018132608A2 (ko)

Families Citing this family (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9499139B2 (en) 2013-12-05 2016-11-22 Magna Electronics Inc. Vehicle monitoring system
KR102235166B1 (ko) * 2015-09-21 2021-04-02 주식회사 레인보우로보틱스 실시간 로봇 시스템, 로봇 시스템 제어 장치 및 로봇 시스템 제어 방법
DE102015218809A1 (de) * 2015-09-29 2017-03-30 Continental Teves Ag & Co. Ohg Verfahren zum Aktualisieren einer elektronischen Karte eines Fahrzeugs
WO2018024320A1 (en) * 2016-08-02 2018-02-08 Bayerische Motoren Werke Aktiengesellschaft A method for learning an illumination-pattern of a monitored automobile and a respective automobile
WO2018132608A2 (en) * 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Navigation based on occlusion zones
US20180208203A1 (en) * 2017-01-26 2018-07-26 International Business Machines Corporation System, method and computer program product for braking control when approaching a traffic signal
FR3062944B1 (fr) * 2017-02-10 2021-05-14 Continental Automotive France Procede de detection de faux-positifs relatifs a un feu de signalisation
CA3052953C (en) * 2017-02-10 2021-11-09 Nissan North America, Inc. Autonomous vehicle operational management blocking monitoring
CN110431037B (zh) 2017-02-10 2022-11-29 日产北美公司 包括运用部分可观察马尔可夫决策过程模型示例的自主车辆操作管理
US10671076B1 (en) 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
US10133275B1 (en) 2017-03-01 2018-11-20 Zoox, Inc. Trajectory generation using temporal logic and tree search
CN108305477B (zh) * 2017-04-20 2019-08-13 腾讯科技(深圳)有限公司 一种车道选择方法及终端
CN110678372B (zh) * 2017-05-24 2022-11-11 本田技研工业株式会社 车辆控制装置
US10296004B2 (en) * 2017-06-21 2019-05-21 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous operation for an autonomous vehicle objective in a multi-vehicle environment
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10850732B2 (en) * 2017-09-05 2020-12-01 Aptiv Technologies Limited Automated speed control system
US11392120B2 (en) 2017-09-08 2022-07-19 Motional Ad Llc Planning autonomous motion
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
JP2019075008A (ja) * 2017-10-18 2019-05-16 トヨタ自動車株式会社 車両制御装置
US10836405B2 (en) 2017-10-30 2020-11-17 Nissan North America, Inc. Continual planning and metareasoning for controlling an autonomous vehicle
US11027751B2 (en) 2017-10-31 2021-06-08 Nissan North America, Inc. Reinforcement and model learning for vehicle operation
US11702070B2 (en) 2017-10-31 2023-07-18 Nissan North America, Inc. Autonomous vehicle operation with explicit occlusion reasoning
US20180079423A1 (en) * 2017-11-27 2018-03-22 GM Global Technology Operations LLC Active traffic participant
CA3083719C (en) * 2017-11-30 2021-03-02 Nissan North America, Inc. Autonomous vehicle operational management scenarios
EP3726329A4 (en) * 2017-12-12 2021-01-27 Sony Corporation INFORMATION PROCESSING DEVICE, MOBILE BODY, CONTROL SYSTEM, INFORMATION PROCESSING PROCESS AND PROGRAM
EP3724868A4 (en) * 2017-12-14 2021-08-11 Saab Ab VIEWING SYSTEM AND METHOD FOR REPRESENTING IMAGES FROM THE SURROUNDING AREA OF AN AIRCRAFT IN AN VIEWING SYSTEM
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190187719A1 (en) * 2017-12-19 2019-06-20 Trw Automotive U.S. Llc Emergency lane change assistance system
US11874120B2 (en) 2017-12-22 2024-01-16 Nissan North America, Inc. Shared autonomous vehicle operational management
US11422561B2 (en) * 2018-01-11 2022-08-23 Toyota Jidosha Kabushiki Kaisha Sensor system for multiple perspective sensor data sets
US10955851B2 (en) 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US11009356B2 (en) * 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
WO2019164531A1 (en) 2018-02-26 2019-08-29 Nissan North America, Inc. Centralized shared autonomous vehicle operational management
JP7000202B2 (ja) * 2018-02-27 2022-01-19 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP2019156180A (ja) * 2018-03-13 2019-09-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7043003B2 (ja) * 2018-03-29 2022-03-29 豊田合成株式会社 車両用ドア開閉装置
US11671329B2 (en) * 2018-04-04 2023-06-06 Arista Networks, Inc. Computation of network flooding topologies
US10414395B1 (en) 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US10895468B2 (en) * 2018-04-10 2021-01-19 Toyota Jidosha Kabushiki Kaisha Dynamic lane-level vehicle navigation with lane group identification
FR3080346B1 (fr) * 2018-04-23 2020-05-15 Renault S.A.S. Procede de selection par un vehicule automobile d’une voie de circulation preferee pour traverser une aire de peage
US10816968B2 (en) * 2018-05-08 2020-10-27 GM Global Technology Operations LLC System and method for access to restricted areas by an autonomous vehicle
US11126873B2 (en) * 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
AU2019272876B2 (en) * 2018-05-24 2021-12-16 Blue River Technology Inc. Boom sprayer including machine feedback control
US11218399B2 (en) 2018-06-20 2022-01-04 Arista Networks, Inc. Embedded area abstraction
US11120688B2 (en) 2018-06-29 2021-09-14 Nissan North America, Inc. Orientation-adjust actions for autonomous vehicle operational management
WO2020014689A1 (en) * 2018-07-12 2020-01-16 Raven Industries,Inc. Implement position control system and method for same
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
US11287814B2 (en) * 2018-08-07 2022-03-29 GM Global Technology Operations LLC Lane change detection system and method for an autonomous vehicle
CN112638749B (zh) * 2018-09-07 2023-03-24 日产自动车株式会社 车辆的行驶控制方法及行驶控制装置
JP7091956B2 (ja) * 2018-09-07 2022-06-28 トヨタ自動車株式会社 車両の車線変更支援装置
US10884424B2 (en) 2018-09-07 2021-01-05 GM Global Technology Operations LLC Traffic light occlusion detection for autonomous vehicle
US10752258B2 (en) * 2018-09-17 2020-08-25 GM Global Technology Operations LLC Apparatus and method for audible driver confirmation for maneuvers in an autonomous vehicle
KR102637599B1 (ko) * 2018-10-08 2024-02-19 주식회사 에이치엘클레무브 차량간 통신 정보를 이용한 차선변경 제어장치 및 방법과, 그를 위한 성향 정보 산출 장치
KR20200040374A (ko) * 2018-10-10 2020-04-20 삼성전자주식회사 거리 추정 방법 및 장치
US10627819B1 (en) * 2018-10-11 2020-04-21 Pony Ai Inc. On-site notification from autonomous vehicle for traffic safety
US10816987B2 (en) * 2018-10-15 2020-10-27 Zoox, Inc. Responsive vehicle control
US10940863B2 (en) * 2018-11-01 2021-03-09 GM Global Technology Operations LLC Spatial and temporal attention-based deep reinforcement learning of hierarchical lane-change policies for controlling an autonomous vehicle
EP3881102A1 (en) * 2018-11-12 2021-09-22 SRG Global, Inc. Detection of modified vehicle body components for aeb response
JP7183729B2 (ja) * 2018-11-26 2022-12-06 トヨタ自動車株式会社 撮影異常診断装置
US11537811B2 (en) * 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
WO2020115516A1 (ja) * 2018-12-06 2020-06-11 日産自動車株式会社 走行支援方法、及び走行支援装置
DK180555B1 (en) * 2018-12-10 2021-06-17 Motional Ad Llc Systems and methods for validating and calibrating sensors
JP7085973B2 (ja) * 2018-12-12 2022-06-17 本田技研工業株式会社 運転支援装置、車両、運転支援装置の制御方法および運転支援プログラム
US11403955B2 (en) 2018-12-14 2022-08-02 Brunswick Corporation Marine propulsion control system and method with proximity-based velocity limiting
US11373537B2 (en) 2018-12-21 2022-06-28 Brunswick Corporation Marine propulsion control system and method with collision avoidance override
CN110614995B (zh) * 2018-12-29 2021-01-22 长城汽车股份有限公司 车辆自动驾驶时的行车道选择方法、选择系统及车辆
US10780861B2 (en) * 2019-01-08 2020-09-22 Ford Global Technologies, Llc Liquid droplet path prediction
EP3683782B1 (en) 2019-01-18 2023-06-28 Honda Research Institute Europe GmbH Method for assisting a driver, driver assistance system, and vehicle including such driver assistance system
US11338807B2 (en) * 2019-01-30 2022-05-24 Allstate Insurance Company Dynamic distance estimation output generation based on monocular video
US11257378B2 (en) 2019-01-31 2022-02-22 Brunswick Corporation Marine propulsion control system and method
US10796571B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles
US11702178B2 (en) 2019-01-31 2023-07-18 Brunswick Corporation Marine propulsion control system, method, and user interface for marine vessel docking and launch
US11074480B2 (en) * 2019-01-31 2021-07-27 StradVision, Inc. Learning method and learning device for supporting reinforcement learning by using human driving data as training data to thereby perform personalized path planning
CN111325318B (zh) * 2019-02-01 2023-11-24 北京地平线机器人技术研发有限公司 神经网络的训练方法、神经网络的训练装置和电子设备
JP7275623B2 (ja) * 2019-02-12 2023-05-18 株式会社デンソー 運転支援装置
DE102019202107B3 (de) * 2019-02-18 2020-04-23 Zf Friedrichshafen Ag Kollisionsvermeidung einer autonomen Landmaschine
JP7199269B2 (ja) * 2019-03-20 2023-01-05 日立Astemo株式会社 外界センシング情報処理装置
US20220148283A1 (en) * 2019-03-28 2022-05-12 Sony Group Corporation Information processing apparatus, information processing method, and program
JP2020164045A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両走行制御装置
JP2020179729A (ja) * 2019-04-24 2020-11-05 マツダ株式会社 車両制御装置
JP7197832B2 (ja) * 2019-04-24 2022-12-28 マツダ株式会社 車両制御装置
US11267393B2 (en) * 2019-05-16 2022-03-08 Magna Electronics Inc. Vehicular alert system for alerting drivers of other vehicles responsive to a change in driving conditions
JP7303667B2 (ja) * 2019-05-31 2023-07-05 株式会社Subaru 自動運転支援装置
US20200406894A1 (en) * 2019-06-28 2020-12-31 Zoox, Inc. System and method for determining a target vehicle speed
US11209822B2 (en) * 2019-06-28 2021-12-28 Zoox, Inc. Techniques for contacting a teleoperator
US11275370B2 (en) 2019-06-28 2022-03-15 Zoox, Inc. Techniques for navigating vehicles using teleoperator instructions
JP6898388B2 (ja) * 2019-07-05 2021-07-07 本田技研工業株式会社 車両の制御システム、車両の制御方法、およびプログラム
US20210025738A1 (en) * 2019-07-24 2021-01-28 EMC IP Holding Company LLC System and method for device operation monitoring
KR20190098735A (ko) * 2019-08-01 2019-08-22 엘지전자 주식회사 차량 단말 및 그의 동작 방법
US11403853B2 (en) 2019-08-30 2022-08-02 Waymo Llc Occupancy prediction neural networks
JP7161458B2 (ja) * 2019-09-09 2022-10-26 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11614739B2 (en) 2019-09-24 2023-03-28 Apple Inc. Systems and methods for hedging for different gaps in an interaction zone
CN112572462B (zh) 2019-09-30 2022-09-20 阿波罗智能技术(北京)有限公司 自动驾驶的控制方法、装置、电子设备及存储介质
WO2021062596A1 (en) * 2019-09-30 2021-04-08 Beijing Voyager Technology Co., Ltd. Systems and methods for predicting a vehicle trajectory
US20210101625A1 (en) * 2019-10-08 2021-04-08 Motional Ad Llc Navigating multi-way stop intersections with an autonomous vehicle
US11420630B2 (en) 2019-10-24 2022-08-23 Zoox, Inc. Trajectory modifications based on a collision zone
US11643073B2 (en) * 2019-10-24 2023-05-09 Zoox, Inc. Trajectory modifications based on a collision zone
US11577757B2 (en) * 2019-11-01 2023-02-14 Honda Motor Co., Ltd. System and method for future forecasting using action priors
CN110728878A (zh) * 2019-11-06 2020-01-24 北京千种幻影科技有限公司 一种体感交互vr模拟驾驶装置
US11640155B2 (en) * 2019-11-07 2023-05-02 Baker Hughes Oilfield Operations Llc Customizable workflows for machinery management
CN110989568B (zh) * 2019-11-15 2021-03-30 吉林大学 一种基于模糊控制器的自动驾驶车辆安全通行方法及系统
US11635758B2 (en) 2019-11-26 2023-04-25 Nissan North America, Inc. Risk aware executor with action set recommendations
US11899454B2 (en) 2019-11-26 2024-02-13 Nissan North America, Inc. Objective-based reasoning in autonomous vehicle decision-making
CN115390554A (zh) * 2019-11-28 2022-11-25 华为技术有限公司 一种设计运行区域odd判断方法、装置及相关设备
CN112925301B (zh) * 2019-12-05 2024-05-17 杭州海康机器人股份有限公司 用于agv避险的控制方法和agv
US11609576B2 (en) * 2019-12-05 2023-03-21 Baidu Usa Llc Emergency vehicle audio detection
GB2594111B (en) 2019-12-18 2023-06-07 Motional Ad Llc Camera-to-LiDAR calibration and validation
US11592575B2 (en) * 2019-12-20 2023-02-28 Waymo Llc Sensor steering for multi-directional long-range perception
US11613269B2 (en) 2019-12-23 2023-03-28 Nissan North America, Inc. Learning safety and human-centered constraints in autonomous vehicles
US11300957B2 (en) 2019-12-26 2022-04-12 Nissan North America, Inc. Multiple objective explanation and control interface design
US11415992B2 (en) * 2019-12-27 2022-08-16 Woven Planet North America, Inc. Resource prioritization based on travel path relevance
WO2021134172A1 (zh) * 2019-12-30 2021-07-08 华为技术有限公司 一种轨迹预测方法及相关设备
US11296948B2 (en) 2020-01-09 2022-04-05 Arista Networks, Inc. Topology partition detection
CN113128315A (zh) * 2020-01-15 2021-07-16 宝马股份公司 一种传感器模型性能评估方法、装置、设备及存储介质
CN113677583B (zh) * 2020-01-21 2023-08-15 深圳元戎启行科技有限公司 基于图计算的车辆驾驶数据处理方法、装置和计算机设备
CN111258300B (zh) * 2020-01-22 2023-05-30 长安大学 一种无人车无信号灯环岛通行能力测试系统及测试方法
US11513603B2 (en) * 2020-01-30 2022-11-29 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for interpreting gestures
US11577746B2 (en) 2020-01-31 2023-02-14 Nissan North America, Inc. Explainability of autonomous vehicle decision making
US11714971B2 (en) 2020-01-31 2023-08-01 Nissan North America, Inc. Explainability of autonomous vehicle decision making
CN111289003A (zh) * 2020-02-06 2020-06-16 广州小马智行科技有限公司 路径规划方法、装置、系统、存储介质和处理器
JP7371520B2 (ja) * 2020-02-14 2023-10-31 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
US11599117B2 (en) * 2020-02-20 2023-03-07 Steering Solutions Ip Holding Corporation Systems and methods for obstacle proximity detection
CN111301410B (zh) * 2020-02-24 2022-01-28 新石器慧通(北京)科技有限公司 自动驾驶车辆及其车速调节方法
US11639173B2 (en) * 2020-02-26 2023-05-02 Ford Global Technologies, Llc Vehicle planned path signal
US11195033B2 (en) * 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
US20210284191A1 (en) * 2020-03-11 2021-09-16 Cartica Ai Ltd Autonomous driving using local driving patterns
JP7383532B2 (ja) * 2020-03-12 2023-11-20 本田技研工業株式会社 制御装置及び車両
US11782438B2 (en) 2020-03-17 2023-10-10 Nissan North America, Inc. Apparatus and method for post-processing a decision-making model of an autonomous vehicle using multivariate data
CN111352426B (zh) * 2020-03-17 2021-03-02 广西柳工机械股份有限公司 一种车辆避障方法、车辆避障装置、车辆避障系统和车辆
US11720114B2 (en) 2020-03-19 2023-08-08 Toyota Motor North America, Inc. Safety of transport maneuvering
US11488424B2 (en) 2020-03-19 2022-11-01 Toyota Motor North America, Inc. Motion-based transport assessment
US11097735B1 (en) 2020-03-19 2021-08-24 Toyota Motor North America, Inc. Transport lane usage
DE102020107880A1 (de) * 2020-03-23 2021-09-23 Ford Global Technologies, Llc Verfahren zum Steuern eines Geschwindigkeitsregelsystems in einem Kurvenverlauf
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) * 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
CN111497842B (zh) * 2020-04-30 2023-03-24 重庆大学 一种人机双闭环分层协同纵向跟车控制方法
US11145202B1 (en) * 2020-05-01 2021-10-12 United Services Automobile Association (Usaa) Systems and methods for providing warnings of imminent hazards
CN111580522A (zh) * 2020-05-15 2020-08-25 东风柳州汽车有限公司 无人驾驶汽车的控制方法、汽车和存储介质
CN111597986B (zh) * 2020-05-15 2023-09-29 北京百度网讯科技有限公司 用于生成信息的方法、装置、设备和存储介质
US11551429B2 (en) 2020-06-05 2023-01-10 Uatc, Llc Photorealistic image simulation with geometry-aware composition
GB2595856A (en) * 2020-06-08 2021-12-15 Daimler Ag A method for determining a trajectory of an autonomous motor vehicle, as well as an assistance system
CN111785045B (zh) * 2020-06-17 2022-07-05 南京理工大学 基于演员-评论家算法的分布式交通信号灯联合控制方法
US20210394756A1 (en) * 2020-06-18 2021-12-23 GM Global Technology Operations LLC System and method for predictive vehicle launch
CN111832179B (zh) * 2020-07-17 2023-08-15 北京赛目科技有限公司 无人车的测试场景创建方法及装置
US11644835B2 (en) 2020-07-29 2023-05-09 Toyota Research Institute, Inc. Game-theoretic planning for risk-aware interactive agents
US11396305B2 (en) 2020-07-30 2022-07-26 Toyota Research Institute, Inc. Systems and methods for improving driver warnings during automated driving
KR20220017228A (ko) * 2020-08-04 2022-02-11 현대자동차주식회사 차량 주행 제어 장치 및 방법
US11608067B2 (en) * 2020-08-12 2023-03-21 Honda Motor Co., Ltd. Probabilistic-based lane-change decision making and motion planning system and method thereof
US11501538B2 (en) * 2020-08-24 2022-11-15 Verizon Connect Development Limited Systems and methods for detecting vehicle tailgating
US11726471B2 (en) * 2020-08-27 2023-08-15 Waymo Llc Methods and systems for gradually adjusting vehicle sensor perspective using remote assistance
CN112232111B (zh) * 2020-09-01 2024-04-26 杭州鸿泉物联网技术股份有限公司 商砼车搅拌筒转向监测方法、系统、电子设备与存储介质
KR102551283B1 (ko) * 2020-09-08 2023-07-06 한국전자통신연구원 메타인지 기반 자율주행 보정 장치 및 방법
KR20220036423A (ko) * 2020-09-15 2022-03-23 현대자동차주식회사 차량 및 그를 위한 자율주행 제어방법
US11597388B2 (en) * 2020-09-24 2023-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for connected vehicle lane merge
DE102020212565A1 (de) * 2020-10-06 2022-04-07 Volkswagen Aktiengesellschaft Fahrzeug, Vorrichtung, Computerprogramm und Verfahren zur Durchführung in einem Fahrzeug
US11725950B2 (en) * 2020-10-24 2023-08-15 International Business Machines Corporation Substitute autonomous vehicle data
KR20220056922A (ko) * 2020-10-28 2022-05-09 현대자동차주식회사 자율주행 제어 장치 및 방법
JP2023543333A (ja) * 2020-11-02 2023-10-13 メルセデス・ベンツ グループ アクチェンゲゼルシャフト 自動運転車両を制御するための方法
CN114527737A (zh) * 2020-11-06 2022-05-24 百度在线网络技术(北京)有限公司 用于自动驾驶的速度规划方法、装置、设备、介质和车辆
CN112614382B (zh) * 2020-11-11 2022-03-04 山东卓智软件股份有限公司 相对距离智能化调节系统
US11461992B2 (en) * 2020-11-12 2022-10-04 Samsung Electronics Co., Ltd. Region of interest selection for object detection
EP4250268A4 (en) * 2020-11-19 2024-01-03 Nissan Motor VEHICLE TRAVEL CONTROL METHOD AND TRAVEL CONTROL DEVICE
CN112498351B (zh) * 2020-11-20 2021-11-23 东风汽车集团有限公司 一种基于v2v的自动驾驶优化系统及方法
KR102509622B1 (ko) * 2020-11-23 2023-03-13 한양대학교 산학협력단 자동주차 시스템 안정성을 보장하는 근사 클로소이드 기반 로컬 경로 생성 방법 및 장치
CN112560609B (zh) 2020-12-03 2022-11-15 北京百度网讯科技有限公司 路况预估方法、建立路况预估模型的方法及对应装置
CN112590791B (zh) * 2020-12-16 2022-03-11 东南大学 一种基于博弈论的智能车换道间隙选择方法及装置
US11776281B2 (en) 2020-12-22 2023-10-03 Toyota Research Institute, Inc. Systems and methods for traffic light detection and classification
CN114802245B (zh) * 2021-01-11 2024-04-05 广东科学技术职业学院 根据交通灯进行并道的方法
CN112706783B (zh) * 2021-01-12 2022-06-28 重庆大学 一种基于状态流的自动驾驶汽车纵向速度控制方法
US11834042B2 (en) * 2021-01-14 2023-12-05 GM Global Technology Operations LLC Methods, systems, and apparatuses for behavioral based adaptive cruise control (ACC) to driver's vehicle operation style
JP7428272B2 (ja) * 2021-01-22 2024-02-06 株式会社デンソー 処理方法、処理システム、処理プログラム、処理装置
JP2022125580A (ja) * 2021-02-17 2022-08-29 トヨタ自動車株式会社 衝突回避支援装置
CN113022555B (zh) * 2021-03-01 2023-01-20 重庆兰德适普信息科技有限公司 一种速差滑移转向车辆的目标跟随控制方法和装置
CN112918481A (zh) * 2021-03-25 2021-06-08 蔚来汽车科技(安徽)有限公司 确定驾驶参数的方法及车辆控制装置
US11810289B2 (en) 2021-03-31 2023-11-07 Caterpillar Inc. Estimating the moving state of rotating machines systems and methods
CN112937588B (zh) * 2021-04-01 2022-03-25 吉林大学 一种冰雪车辙路况的车辆稳定性分析方法
US20230020503A1 (en) * 2021-07-08 2023-01-19 Ford Global Technologies, Llc Machine control
CN113415274B (zh) * 2021-07-14 2022-07-05 重庆长安汽车股份有限公司 自动驾驶的跟车轨迹规划系统、方法、车辆及存储介质
US11724739B2 (en) * 2021-07-22 2023-08-15 GM Global Technology Operations LLC Vehicle actuation commands to affect transient handling
WO2023012671A1 (en) * 2021-08-02 2023-02-09 Mobileye Vision Technologies Ltd. Vulnerable road user (vru) collision avoidance system
CN113625718B (zh) * 2021-08-12 2023-07-21 上汽大众汽车有限公司 车辆的行驶路径规划方法
KR102624143B1 (ko) * 2021-09-24 2024-01-12 (주) 오토노머스에이투지 교차로에 설치된 라이다를 이용하여 신호등을 제어하기 위한 방법 및 이를 이용한 서버
DE102021125525A1 (de) * 2021-10-01 2023-04-06 Deere & Company Verfahren zur Ausgabe von Kollisionswarnungen für ein land-wirtschaftliches Fahrzeuggespann
US11760368B2 (en) * 2021-10-19 2023-09-19 Cyngn, Inc. System and method of same-loop adaptive simulation for autonomous driving
US20230127465A1 (en) * 2021-10-26 2023-04-27 Ford Global Technologies, Llc System and method for approaching vehicle detection
US11952014B2 (en) 2021-10-29 2024-04-09 Waymo Llc Behavior predictions for active emergency vehicles
US11938968B2 (en) 2021-11-10 2024-03-26 Robert Bosch Gmbh Trajectory design for image data acquisition for object detection/recognition
WO2023090166A1 (ja) * 2021-11-22 2023-05-25 株式会社デンソー 車両用制御装置及び車両用制御方法
CN114489038B (zh) * 2021-12-08 2024-02-27 农芯(南京)智慧农业研究院有限公司 一种基于强化学习的农林用车辆的导航控制方法
CN114550297B (zh) * 2022-02-25 2022-09-27 北京拙河科技有限公司 一种行人的意图分析方法及系统
CN114596470A (zh) * 2022-03-31 2022-06-07 广州文远知行科技有限公司 一种并道危险场景分类系统、方法、设备和介质
WO2023194801A1 (en) * 2022-04-06 2023-10-12 Mobileye Vision Technologies Ltd. Steering limiters for vehicle navigation
US20230351886A1 (en) * 2022-04-28 2023-11-02 Toyota Research Institute, Inc. Traffic signal understandings and representation for prediction, planning, and control
WO2023212338A1 (en) * 2022-04-29 2023-11-02 Apple Inc. Systems and methods for movement control in multi-device environments
CN115100540B (zh) * 2022-06-30 2024-05-07 电子科技大学 一种高分辨率遥感影像道路自动提取的方法
WO2024012660A1 (en) * 2022-07-12 2024-01-18 Volvo Autonomous Solutions AB A computer-implemented method for determining a speed profile along a predetermined travelling path for an autonomous vehicle
CN116028882B (zh) * 2023-03-29 2023-06-02 深圳市傲天科技股份有限公司 用户标注和分类方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140075787A (ko) * 2011-10-14 2014-06-19 콘티넨탈 테베스 아게 운트 코. 오하게 차량 주행 시 운전자를 지원하거나 차량의 자율 주행을 위한 장치

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104533B2 (ja) * 1993-12-02 2000-10-30 トヨタ自動車株式会社 車載用の物体検出装置
US5955945A (en) * 1995-07-10 1999-09-21 Fuhrer; Kenneth Fail safe system for providing warning signals upon the failure of motorcycle brake or tail lights
JPH11210513A (ja) * 1998-01-21 1999-08-03 Honda Motor Co Ltd 車両の駆動力制御装置
JP3805923B2 (ja) * 1999-04-28 2006-08-09 本田技研工業株式会社 車両通信装置
US6122593A (en) * 1999-08-03 2000-09-19 Navigation Technologies Corporation Method and system for providing a preview of a route calculated with a navigation system
AU2002225741A1 (en) * 2000-11-06 2002-05-15 Cathy D. Santa Cruz Method and apparatus used for installation and operation of a front vehicle brake light
US20030128112A1 (en) * 2002-01-09 2003-07-10 Cho-Ki Chow Wireless speed indicating system of automobile
US7774137B2 (en) * 2003-06-24 2010-08-10 Steve Thorne Speed-monitoring radar-activated brake light
JP3925474B2 (ja) * 2003-07-18 2007-06-06 日産自動車株式会社 車線変更支援装置
JP2005115484A (ja) * 2003-09-17 2005-04-28 Fujitsu Ten Ltd 運転支援装置
EP1741079B1 (en) 2004-04-08 2008-05-21 Mobileye Technologies Limited Collision warning system
DE102004031933A1 (de) * 2004-06-27 2006-02-09 Stiftung Alfred-Wegener-Institut Für Polar- Und Meeresforschung Rechnergestütztes Planungsverfahren für einen Reiseplan
JP2006251888A (ja) * 2005-03-08 2006-09-21 Denso Corp 車両用運転支援装置及び車両用ナビゲーション装置
JP2006260217A (ja) * 2005-03-17 2006-09-28 Advics:Kk 車両用走行支援装置
DE102005062275A1 (de) * 2005-12-24 2007-06-28 Daimlerchrysler Ag Verfahren zur Erkennung eines drohenden Heckaufpralls
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
EP1862988B1 (en) * 2006-05-30 2009-11-04 Mazda Motor Corporation A driving assist for a vehicle
JP4914234B2 (ja) * 2007-01-31 2012-04-11 富士重工業株式会社 先行車両検出装置
JP4900104B2 (ja) * 2007-07-18 2012-03-21 船井電機株式会社 ナビゲーション装置
TWI314115B (en) * 2007-09-27 2009-09-01 Ind Tech Res Inst Method and apparatus for predicting/alarming the moving of hidden objects
DE102008011228A1 (de) * 2008-02-26 2009-08-27 Robert Bosch Gmbh Verfahren zur Unterstützung eines Nutzers eines Fahrzeugs, Steuereinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs und Fahrzeug mit einer derartigen Steuereinrichtung
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
JP4957747B2 (ja) * 2009-05-18 2012-06-20 トヨタ自動車株式会社 車両環境推定装置
JP5441549B2 (ja) * 2009-07-29 2014-03-12 日立オートモティブシステムズ株式会社 道路形状認識装置
JP5381665B2 (ja) * 2009-12-02 2014-01-08 トヨタ自動車株式会社 車両制御装置
JP5609604B2 (ja) * 2009-12-11 2014-10-22 株式会社デンソー ナビゲーション装置
JP5545022B2 (ja) * 2010-05-14 2014-07-09 トヨタ自動車株式会社 障害物認識装置
WO2012009620A1 (en) * 2010-07-16 2012-01-19 Carnegie Mellon University Methods and systems for coordinating vehicular traffic using in-vehicle virtual traffic control signals enabled by vehicle-to-vehicle communications
WO2012033173A1 (ja) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
JP5583540B2 (ja) * 2010-10-01 2014-09-03 パナソニック株式会社 事故要因領域特定装置および事故要因領域特定プログラム
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
DE102010052406A1 (de) * 2010-11-24 2011-07-07 Daimler AG, 70327 Verfahren zur Vermeidung oder Verminderung von Fahrzeugkollisionen
JP5189157B2 (ja) * 2010-11-30 2013-04-24 株式会社豊田中央研究所 可動物の目標状態決定装置及びプログラム
DE102011012793B4 (de) * 2011-03-02 2023-05-04 Volkswagen Ag Fahrerassistenzverfahren und Fahrerassistenzsystem
CN103703496B (zh) * 2011-08-10 2016-01-20 丰田自动车株式会社 驾驶辅助装置
JP5863481B2 (ja) * 2012-01-30 2016-02-16 日立マクセル株式会社 車両用衝突危険予測装置
US9020760B2 (en) * 2012-02-08 2015-04-28 Telogis, Inc. System for classifying streets for vehicle navigation
US8731742B2 (en) * 2012-04-05 2014-05-20 GM Global Technology Operations LLC Target vehicle movement classification
US8504233B1 (en) * 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles
JP6163718B2 (ja) * 2012-08-30 2017-07-19 トヨタ自動車株式会社 車両制御装置
CN103903478A (zh) * 2012-12-29 2014-07-02 富泰华工业(深圳)有限公司 行车预警系统
US8788134B1 (en) * 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system
US9092986B2 (en) * 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
GB2511750B (en) * 2013-03-11 2015-07-29 Jaguar Land Rover Ltd A driving assistance system, vehicle and method
CN105074793A (zh) * 2013-03-15 2015-11-18 凯利普公司 用于车辆路径规划和交通管理的车道级车辆导航
US9254846B2 (en) * 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
US9260095B2 (en) * 2013-06-19 2016-02-16 Magna Electronics Inc. Vehicle vision system with collision mitigation
CN104422462A (zh) * 2013-09-06 2015-03-18 上海博泰悦臻电子设备制造有限公司 一种车辆导航的方法、装置
US9738280B2 (en) * 2013-10-03 2017-08-22 Robert Bosch Gmbh Adaptive cruise control with on-ramp detection
JP6138655B2 (ja) * 2013-10-10 2017-05-31 日立オートモティブシステムズ株式会社 車両の運動制御装置
US20150120244A1 (en) * 2013-10-31 2015-04-30 Here Global B.V. Method and apparatus for road width estimation
US9090260B2 (en) * 2013-12-04 2015-07-28 Mobileye Vision Technologies Ltd. Image-based velocity control for a turning vehicle
WO2015088522A1 (en) * 2013-12-11 2015-06-18 Intel Corporation Individual driving preference adapted computerized assist or autonomous driving of vehicles
US9988047B2 (en) * 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
KR101500238B1 (ko) * 2013-12-23 2015-03-06 현대자동차주식회사 차량용 헤드업 디스플레이 조명 표시 방법
KR101541483B1 (ko) * 2014-01-03 2015-08-03 현대모비스(주) 차선 변경 감시 장치 및 그 제어 방법
JP6331402B2 (ja) * 2014-01-14 2018-05-30 株式会社デンソー 移動体検出装置および移動体検出方法
US9809219B2 (en) * 2014-01-29 2017-11-07 Continental Automotive Systems, Inc. System for accommodating a pedestrian during autonomous vehicle operation
US9365214B2 (en) * 2014-01-30 2016-06-14 Mobileye Vision Technologies Ltd. Systems and methods for determining the status of a turn lane traffic light
JP6281483B2 (ja) * 2014-04-17 2018-02-21 株式会社デンソー 故障検出システム、情報処理装置、及び車両搭載装置
KR20150137799A (ko) * 2014-05-30 2015-12-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP6331858B2 (ja) * 2014-08-07 2018-05-30 日産自動車株式会社 先行車追越支援装置
US9796326B2 (en) * 2014-08-08 2017-10-24 GM Global Technology Operations LLC Systems and methods for vehicle hazard light control with selectable lighting patterns
CN107111742B (zh) * 2014-08-18 2021-04-02 无比视视觉技术有限公司 在导航中对车道限制和施工区域的识别和预测
US9528838B2 (en) * 2014-12-09 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to intersection priority
US9534910B2 (en) * 2014-12-09 2017-01-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to yield scenarios
JP6470039B2 (ja) * 2014-12-26 2019-02-13 日立オートモティブシステムズ株式会社 車両制御システム
US9406234B2 (en) * 2015-01-02 2016-08-02 Atieva, Inc. Automatically activated blind spot camera system
US10395541B2 (en) * 2015-01-16 2019-08-27 Texas Instruments Incorporated Integrated fault-tolerant augmented area viewing system
JP2016142612A (ja) * 2015-02-02 2016-08-08 日立オートモティブシステムズ株式会社 車両制御装置、距離算出装置および距離算出方法
EP3885217A1 (en) * 2015-02-10 2021-09-29 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
KR20160112552A (ko) * 2015-03-19 2016-09-28 현대자동차주식회사 차량, 차량의 통신 방법 및 차량에 포함된 무선 통신 장치
KR102034722B1 (ko) * 2015-03-19 2019-10-21 현대자동차주식회사 차량, 차량의 통신 방법 및 차량에 포함된 무선 통신 장치
CN104776854B (zh) * 2015-04-30 2018-01-23 上海卓易科技股份有限公司 跟车导航方法及系统、导航系统
EP3091370B1 (en) * 2015-05-05 2021-01-06 Volvo Car Corporation Method and arrangement for determining safe vehicle trajectories
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
US9511767B1 (en) * 2015-07-01 2016-12-06 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle action planning using behavior prediction
WO2017022474A1 (ja) * 2015-07-31 2017-02-09 日立オートモティブシステムズ株式会社 車両用操舵支援制御装置
US9550528B1 (en) * 2015-09-14 2017-01-24 Ford Global Technologies, Llc Lane change negotiation
CN105679090B (zh) * 2015-10-21 2017-11-28 天津师范大学 一种基于智能手机的夜间司机驾驶辅助方法
US10800455B2 (en) * 2015-12-17 2020-10-13 Ford Global Technologies, Llc Vehicle turn signal detection
US20170190286A1 (en) * 2016-01-03 2017-07-06 Edward Yavitz GPS Vehicle Speed and Velocity Change Indicator
CN108431549B (zh) * 2016-01-05 2020-09-04 御眼视觉技术有限公司 具有施加的约束的经训练的系统
JP6597344B2 (ja) * 2016-01-29 2019-10-30 トヨタ自動車株式会社 車両制御装置
JP2019059245A (ja) * 2016-02-05 2019-04-18 マクセル株式会社 ヘッドアップディスプレイ装置及びその表示制御方法
US10160437B2 (en) * 2016-02-29 2018-12-25 Magna Electronics Inc. Vehicle control system with reverse assist
DE102016002927A1 (de) * 2016-03-10 2016-10-06 Daimler Ag Verfahren zumindest zur Verringerung einer Kollisionsschwere für ein Fahrzeug
JP6270227B2 (ja) * 2016-03-14 2018-01-31 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
US9857795B2 (en) * 2016-03-24 2018-01-02 Honda Motor Co., Ltd. System and method for trajectory planning for unexpected pedestrians
JP6722756B2 (ja) * 2016-04-28 2020-07-15 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
KR101795249B1 (ko) * 2016-05-02 2017-11-07 현대자동차주식회사 차량 및 그것의 주행 안전 지원 방법
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
US20170329346A1 (en) * 2016-05-12 2017-11-16 Magna Electronics Inc. Vehicle autonomous parking system
US10354157B2 (en) * 2016-06-27 2019-07-16 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detection of a one-way road
JP6380919B2 (ja) * 2016-09-01 2018-08-29 マツダ株式会社 車両制御装置
JP6680170B2 (ja) * 2016-09-30 2020-04-15 株式会社デンソー 運転支援装置及び運転支援方法
WO2018066712A1 (ja) * 2016-10-07 2018-04-12 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
JP6916609B2 (ja) * 2016-11-21 2021-08-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 交差点情報配信装置及び交差点情報配信方法
JP6536554B2 (ja) * 2016-12-13 2019-07-03 トヨタ自動車株式会社 ウィンカ判定装置及び自動運転システム
KR102383427B1 (ko) * 2016-12-16 2022-04-07 현대자동차주식회사 자율주행 제어 장치 및 방법
JP6478415B2 (ja) * 2016-12-20 2019-03-06 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2018132608A2 (en) * 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Navigation based on occlusion zones
US10453344B2 (en) * 2017-02-16 2019-10-22 Panasonic Intellectual Corporation Of America Information processing apparatus and non-transitory recording medium
WO2018158642A1 (en) * 2017-03-01 2018-09-07 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
US10133275B1 (en) * 2017-03-01 2018-11-20 Zoox, Inc. Trajectory generation using temporal logic and tree search
MX2019010307A (es) * 2017-03-02 2019-10-09 Nissan Motor Metodo de asistencia a la conduccion y dispositivo de asistencia a la conduccion.
JP2018151858A (ja) * 2017-03-13 2018-09-27 株式会社デンソーテン 車載機器、駐車管理装置、駐車管理システム、出庫準備方法、及び駐車管理方法
JP6798611B2 (ja) * 2017-04-19 2020-12-09 日産自動車株式会社 走行支援方法及び走行支援装置
US20180307245A1 (en) * 2017-05-31 2018-10-25 Muhammad Zain Khawaja Autonomous Vehicle Corridor
WO2019008716A1 (ja) * 2017-07-06 2019-01-10 マクセル株式会社 可視外計測装置および可視外計測方法
US10620638B2 (en) * 2017-08-18 2020-04-14 Wipro Limited Method, system, and device for guiding autonomous vehicles based on dynamic extraction of road region
US10788585B2 (en) * 2017-09-15 2020-09-29 Toyota Research Institute, Inc. System and method for object detection using a probabilistic observation model
CN111247575B (zh) * 2017-11-17 2022-11-22 株式会社爱信 车辆驾驶辅助系统、方法及计算机可读取的存储介质
US20190278294A1 (en) * 2018-03-07 2019-09-12 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium
CN116968731A (zh) * 2018-03-20 2023-10-31 御眼视觉技术有限公司 用于导航主车辆和制动主车辆的系统
US10895468B2 (en) * 2018-04-10 2021-01-19 Toyota Jidosha Kabushiki Kaisha Dynamic lane-level vehicle navigation with lane group identification
US10642275B2 (en) * 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control
JP7101777B2 (ja) * 2018-07-12 2022-07-15 日産自動車株式会社 走行支援方法及び走行支援装置
US11724691B2 (en) * 2018-09-15 2023-08-15 Toyota Research Institute, Inc. Systems and methods for estimating the risk associated with a vehicular maneuver
JP7067400B2 (ja) * 2018-10-05 2022-05-16 オムロン株式会社 検知装置、移動体システム、及び検知方法
US10627819B1 (en) * 2018-10-11 2020-04-21 Pony Ai Inc. On-site notification from autonomous vehicle for traffic safety
JP6958537B2 (ja) * 2018-12-20 2021-11-02 オムロン株式会社 検知装置、移動体システム、及び検知方法
US11188082B2 (en) * 2019-01-11 2021-11-30 Zoox, Inc. Occlusion prediction and trajectory evaluation
JP7275623B2 (ja) * 2019-02-12 2023-05-18 株式会社デンソー 運転支援装置
US11016492B2 (en) * 2019-02-28 2021-05-25 Zoox, Inc. Determining occupancy of occluded regions
JP7199269B2 (ja) * 2019-03-20 2023-01-05 日立Astemo株式会社 外界センシング情報処理装置
DE112020002666T5 (de) * 2019-06-06 2022-05-12 Mobileye Vision Technologies Ltd. Systeme und verfahren für die fahrzeugnavigation
US20210031760A1 (en) * 2019-07-31 2021-02-04 Nissan North America, Inc. Contingency Planning and Safety Assurance
US11403943B2 (en) * 2020-07-14 2022-08-02 Argo AI, LLC Method and system for vehicle navigation using information from smart node
US11473917B2 (en) * 2020-07-14 2022-10-18 Argo AI, LLC System for augmenting autonomous vehicle perception using smart nodes
US20220097726A1 (en) * 2020-09-29 2022-03-31 Waymo Llc Planning for occlusions with surfel maps
US11295147B1 (en) * 2020-11-27 2022-04-05 HCL Technologies Italy S.p.A. Method and system for detecting and managing obfuscation of a road sign
US20220185267A1 (en) * 2020-12-16 2022-06-16 Zoox, Inc. Object determination in an occluded region
CN114643996A (zh) * 2020-12-19 2022-06-21 荷兰移动驱动器公司 辅助驾驶方法以及车辆
JP2022128712A (ja) * 2021-02-24 2022-09-05 本田技研工業株式会社 道路情報生成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140075787A (ko) * 2011-10-14 2014-06-19 콘티넨탈 테베스 아게 운트 코. 오하게 차량 주행 시 운전자를 지원하거나 차량의 자율 주행을 위한 장치

Also Published As

Publication number Publication date
IL287819A (en) 2022-01-01
US20190333381A1 (en) 2019-10-31
WO2018132608A2 (en) 2018-07-19
IL293713B2 (en) 2023-06-01
CN110383008B (zh) 2024-01-23
EP3548845B1 (en) 2021-10-13
US11608057B2 (en) 2023-03-21
EP3657130A1 (en) 2020-05-27
CN110657820A (zh) 2020-01-07
JP7283680B2 (ja) 2023-05-30
US20190329768A1 (en) 2019-10-31
JP2020516971A (ja) 2020-06-11
EP3545265A2 (en) 2019-10-02
US20190329782A1 (en) 2019-10-31
IL267857A (en) 2019-09-26
US20190329783A1 (en) 2019-10-31
WO2018132607A3 (en) 2018-08-23
EP3657130B1 (en) 2023-05-10
EP3548845A2 (en) 2019-10-09
KR102513185B1 (ko) 2023-03-23
JP2020015504A (ja) 2020-01-30
US10875528B2 (en) 2020-12-29
WO2018132607A2 (en) 2018-07-19
KR102551130B1 (ko) 2023-07-05
US20190329769A1 (en) 2019-10-31
WO2018132614A3 (en) 2018-08-23
US20230347877A1 (en) 2023-11-02
US20190329773A1 (en) 2019-10-31
US11034346B2 (en) 2021-06-15
CN110325823A (zh) 2019-10-11
CN110325823B (zh) 2023-08-29
EP4230964A1 (en) 2023-08-23
CA3049770A1 (en) 2018-07-19
US11173900B2 (en) 2021-11-16
KR20190107057A (ko) 2019-09-18
JP7160251B2 (ja) 2022-10-25
JP2022173452A (ja) 2022-11-18
JP2020506838A (ja) 2020-03-05
US20220363248A1 (en) 2022-11-17
JP7159533B2 (ja) 2022-10-25
IL293713A (en) 2022-08-01
CN110383008A (zh) 2019-10-25
US20210269021A1 (en) 2021-09-02
WO2018132608A3 (en) 2018-08-23
KR102535540B1 (ko) 2023-05-23
IL287819B (en) 2022-07-01
IL267857B (en) 2021-12-01
KR20190099088A (ko) 2019-08-23
US11738741B2 (en) 2023-08-29
WO2018132614A2 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
KR102513185B1 (ko) 규칙 기반 항법
KR102469732B1 (ko) 부과된 책임 제약이 있는 항법 시스템
KR102646644B1 (ko) 감지 불확실성이 있는 항법을 위한 시스템 및 방법
KR102369219B1 (ko) 차량의 항법을 위한 시스템 및 방법
US20210240197A1 (en) Navigation with a Safe Longitudinal Distance
CN114364591A (zh) 用于交通工具导航系统和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant