JP2020126625A - ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡 - Google Patents

ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡 Download PDF

Info

Publication number
JP2020126625A
JP2020126625A JP2020006187A JP2020006187A JP2020126625A JP 2020126625 A JP2020126625 A JP 2020126625A JP 2020006187 A JP2020006187 A JP 2020006187A JP 2020006187 A JP2020006187 A JP 2020006187A JP 2020126625 A JP2020126625 A JP 2020126625A
Authority
JP
Japan
Prior art keywords
network
learning
information
driver
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020006187A
Other languages
English (en)
Other versions
JP6917080B2 (ja
Inventor
− ヒョン キム、ケイ
Kye-Hyeon Kim
− ヒョン キム、ケイ
キム、ヨンジュン
Young Jun Kim
− キョン キム、ハク
Hak-Kyoung Kim
− キョン キム、ハク
ナム、ウヒョン
Woonhyu Nam
ブー、ソッフン
Sukhoon Boo
ソン、ミュンチュル
Myungchul Sung
シン、ドンス
Dongsoo Shin
ヨー、ドンフン
Donghun Yeo
リュー、ウジュ
Wooju Ryu
− チュン イ、ミョン
Myeong-Chun Lee
− チュン イ、ミョン
イ、ヒョンス
Hyungsoo Lee
チャン、テウン
Taewoong Jang
ジョン、キュンチョン
Kyungjoong Jeong
チェ、ホンモ
Hongmo Je
チョウ、ホジン
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126625A publication Critical patent/JP2020126625A/ja
Application granted granted Critical
Publication of JP6917080B2 publication Critical patent/JP6917080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/109Lateral acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/162Visual feedback on control action
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/566Mobile devices displaying vehicle information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • B60W2520/125Lateral acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/304Acceleration sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】運転者が着用した補助眼鏡を通じて走行安全情報を提供する方法。【解決手段】本方法は、走行安全情報分析装置が、(a)補助眼鏡に搭載されたカメラから、運転者の視角に対応する視角従属型走行イメージと、センサからの加速度情報と、ジャイロスコープ情報とを取得し、視角従属型走行イメージをコンボリューションネットワークに入力して特徴マップを生成し、特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力し、検出ネットワークに物体を検出させ、セグメンテーションネットワークに車線を検出させ、識別ネットワークに走行環境を検出させ、加速度情報とジャイロスコープ情報とを循環ネットワークに入力して運転者の状態情報を生成させる段階;及び(b)予測衝突可能性情報と、車線離脱情報と、走行環境とを運転者に知らせ、警告をする段階;を含む。【選択図】図1

Description

本発明は、運転者が着用する補助眼鏡に関し、より詳細には、ディープラーニングに基づいて、前記運転者が着用した前記補助眼鏡に搭載されたカメラから取得された、前記運転者の視角に対応する視角従属型走行イメージを分析して走行安全情報を提供する前記補助眼鏡に関する。
今日の車両はIT技術と結合して多様な機能を提供しており、車両の走行安定性強化及びユーザの利便性向上のために多様な運転者補助システム(Advanced Driver Assist System, ADAS)が進化している。
この場合、運転者補助システム(ADAS)は、自律走行のための多様な情報を提供するために先端感知装置と知能型映像装置とを利用して具現されるものであって、歩行者及び自動車認識システム、道路面認識システム、車線認識システム、衝突防止システム、及び車線離脱警告システムなどを含む。
しかし、これらの従来の運転者補助システムは、自動車の走行環境と運転者の状態を認識するための様々なセンサやカメラを利用するため、費用がかさむようになる。
また、従来の運転者補助システムでは、センサやカメラが関連情報を取得するための最適の位置に設置されなければならないが、位置及びセンシング方向の誤差などが生じた場合、正確な情報を取得することができないため、運転者補助のための正確な情報を提供することができない問題が発生するようになる。
本発明は、上述した問題点を全て解決することをその目的とする。
本発明は、従来方法に比べて安価な費用で少なくとも一つの運転者の状態と少なくとも一つの走行環境とを検出し得るようにすることを他の目的とする。
本発明は、少なくとも一つの走行イメージとセンサ情報とを利用したディープニューラルネットワークにより周辺モニタリング、運転者モニタリング、及び危険状況の識別を行うことができるようにすることをまた他の目的とする。
本発明は、前記走行イメージと前記センサ情報とを利用した前記ディープニューラルネットワークにより取得された運転補助情報を運転者に通知し得るようにすることをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、運転者が着用した補助眼鏡を通じて走行安全情報を提供する方法において、(a)自動車の前記運転者が着用した前記補助眼鏡に搭載されている少なくとも一つのカメラから撮影された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージと、前記補助眼鏡に搭載された一つ以上のセンサからの加速度情報と、ジャイロスコープ(gyroscope)情報とが取得されると、走行安全情報分析装置が、(i)前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(ii)前記加速度情報及び前記ジャイロスコープ情報を循環(recurrent)ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセスを遂行する段階;及び(b)前記走行安全情報分析装置が、(i)前記検出ネットワークにより検出された前記物体を参照して、前記自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転者に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して、前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークにより検出された前記走行環境を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び(ii)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行する段階;を含むことを特徴とする方法が提供される。
一実施例において、前記走行安全情報分析装置が、前記特徴マップを前記検出ネットワークに入力することによって、前記検出ネットワークをもって、(i)領域プロポーザルネットワークを通じて前記特徴マップ上で前記物体が位置するものと推定される一つ以上の領域に対応するプロポーザルボックスを生成させ、(ii)プーリングレイヤを通じて前記特徴マップ上で前記プロポーザルボックスそれぞれに対応する一つ以上の各領域にプーリング演算を適用して少なくとも一つの物体特徴ベクトルを生成させ、(iii)物体検出FC(fully−connected)レイヤを通じて前記物体特徴ベクトルに物体検出FC演算を適用して前記プロポーザルボックスに対応する多数の物体情報を生成するプロセスを遂行して、前記視角従属型走行イメージ上に位置する前記物体を検出させるプロセスを遂行する。
一実施例において、前記走行安全情報分析装置が、前記特徴マップを前記セグメンテーションネットワークに入力することによって、前記セグメンテーションネットワークをもって、少なくとも一つのデコンボリューションレイヤを通じて前記特徴マップにデコンボリューション演算を適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセスと、前記デコンボリューション特徴マップを少なくとも一つの車線検出FCレイヤに入力することによって、前記車線検出FCレイヤをもって、前記デコンボリューション特徴マップに車線検出FC演算を適用して前記視角従属型走行イメージ上に位置する前記車線を検出させるプロセスとを遂行する。
一実施例において、前記走行安全情報分析装置が、前記特徴マップを前記識別ネットワークに入力することによって、前記識別ネットワークをもって、(i)グローバルプーリングレイヤを通じて前記特徴マップにグローバルプーリング演算を適用して少なくとも一つのグローバル特徴ベクトルを生成させ、(ii)識別FCレイヤを通じて前記グローバル特徴ベクトルに識別FC演算を適用して走行環境情報を生成させるプロセスを遂行して、前記視角従属型走行イメージに対応する前記走行環境を検出するプロセスを遂行する。
一実施例において、前記走行安全情報分析装置が、前記加速度情報と前記ジャイロスコープ情報とを前記循環ネットワークに入力することによって、前記循環ネットワークをもって、一つ以上のLSTM(Long Short−Term Memory)を通じて予め設定された時間の間、前記加速度情報と前記ジャイロスコープ情報とのうち一つ以上の変化状態に循環演算を適用して、前記運転者の行動パターンに対応する前記運転者の前記状態情報を生成させる。
一実施例において、前記走行安全情報分析装置が、前記補助眼鏡に搭載されている少なくとも一つの照度センサから取得される照度情報に応答して、前記補助眼鏡のレンズ透明度を調整する。
一実施例において、前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと、(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含む。
一実施例において、前記コンボリューションネットワーク、前記検出ネットワーク、前記セグメンテーションネットワーク、及び前記識別ネットワークは、第1学習装置により学習された状態であり、前記第1学習装置は、(i)少なくとも一つの学習用視角従属型走行イメージを前記コンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、少なくとも一つの以前の学習済みコンボリューションパラメータを利用したコンボリューション演算を前記学習用視角従属型走行イメージに適用して少なくとも一つの学習用特徴マップを生成させるプロセス、(ii)(ii−1)前記学習用特徴マップを前記検出ネットワークに入力することによって、(ii−1−1)前記検出ネットワークの領域プロポーザルネットワークをもって、前記学習用特徴マップ上で少なくとも一つの学習用物体が位置するものと推定される一つ以上の領域に対応する一つ以上の学習用プロポーザルボックスを生成させ、(ii−1−2)前記検出ネットワークのプーリングレイヤをもって、前記学習用特徴マップ上で前記学習用プロポーザルボックスそれぞれに対応する一つ以上の領域にプーリング演算を適用して少なくとも一つの学習用物体特徴ベクトルを生成させ、(ii−1−3)前記検出ネットワークの物体検出FCレイヤをもって、少なくとも一つの以前の学習済み物体検出パラメータを利用した物体検出FC演算を前記学習用物体特徴ベクトルに適用して、前記学習用プロポーザルボックスに対応する多数の学習用物体情報を生成させるプロセス、(ii−2)前記学習用特徴マップを前記セグメンテーションネットワークに入力することによって、(ii−2−1)前記セグメンテーションネットワークのデコンボリューションレイヤをもって、少なくとも一つの以前の学習済みデコンボリューションパラメータを利用したデコンボリューション演算を前記学習用特徴マップに適用して少なくとも一つのデコンボリューション特徴マップを生成させ、(ii−2−2)車線検出FCレイヤをもって、少なくとも一つの以前の学習済み車線検出パラメータを利用した車線検出FC演算を前記デコンボリューション特徴マップに適用して、前記学習用視角従属型走行イメージ上に位置する一つ以上の学習用車線を検出させるプロセス、(ii−3)前記学習用特徴マップを前記識別ネットワークに入力することによって、(ii−3−1)前記識別ネットワークのグローバルプーリングレイヤをもって、前記学習用特徴マップにグローバルプーリング演算を適用して少なくとも一つの学習用グローバル特徴ベクトルを生成させ、(ii−3−2)前記識別ネットワークの識別FCレイヤをもって、少なくとも一つの以前の学習済み識別パラメータを利用した識別FC演算を前記学習用グローバル特徴ベクトルに適用して学習用走行環境情報を生成させるプロセス、及び(iii)(iii−1)前記多数の学習用物体情報と、これに対応する第1原本正解(ground truth)とを参照して、第1ロスレイヤから出力された一つ以上の第1ロスが最小化されるように前記物体検出FCレイヤの前記以前の学習済み物体検出パラメータをアップデートするプロセス、(iii−2)前記学習用車線と、これに対応する第2原本正解とを参照して、第2ロスレイヤから出力された一つ以上の第2ロスが最小化されるように前記車線検出FCレイヤの前記以前の学習済み車線検出パラメータと前記デコンボリューションレイヤの前記以前の学習済みデコンボリューションパラメータとのうち少なくとも一つをアップデートするプロセス、(iii−3)前記学習用走行環境情報と、これに対応する第3原本正解とを参照して、第3ロスレイヤから出力された一つ以上の第3ロスが最小化されるように前記識別FCレイヤの前記以前の学習済み識別パラメータをアップデートするプロセス、及び(iii−4)前記第1ロス、前記第2ロス、及び前記第3ロス、又はこれから加工した値を加重合算(weighted summation)して生成された少なくとも一つの第4ロスが最小化されるように前記コンボリューションネットワークの前記以前の学習済みコンボリューションパラメータをアップデートするプロセスを繰り返す。
一実施例において、前記循環ネットワークは、第2学習装置により学習され、前記第2学習装置は、(i)現在の時点tから以前の時点t−kまでの学習用加速度情報と学習用ジャイロスコープ情報とをそれぞれのLSTMに入力することによって、それぞれの前記LSTMをもって、前記現在の時点tから前記以前の時点t−kまでの前記学習用加速度情報と前記学習用ジャイロスコープ情報とにフォワード(forward)演算を適用して、前記運転者の行動パターンに対応する学習用走行状態情報を出力させるプロセス、及び(ii)第4ロスレイヤをもって、前記学習用走行状態情報と、これに対応する第4原本正解とを参照して生成された一つ以上の第5ロスが最小化されるように前記LSTMの一つ以上のパラメータを調整させるプロセスを遂行する。
本発明の他の態様によると、運転者が着用した補助眼鏡を通じて走行安全情報を提供する走行安全情報分析装置において、インストラクションを格納する少なくとも一つのメモリと、(I)自動車の前記運転者が着用した前記補助眼鏡に搭載されている少なくとも一つのカメラから撮影された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージと、前記補助眼鏡に搭載された一つ以上のセンサからの加速度情報と、ジャイロスコープ(gyroscope)情報とが取得されると、(I−1)前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(I−2)前記加速度情報と前記ジャイロスコープ情報とを循環ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセス、及び(II)(II−1)前記検出ネットワークにより検出された前記物体を参照して、前記自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転手に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークをもって検出された前記走行環境を前記出力ユニットを通じて前記運転手に知らせるプロセス、及び(II−2)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行するか、他の装置によって遂行させるための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする走行安全情報分析装置が提供される。
一実施例において、前記プロセッサが、前記特徴マップを前記検出ネットワークに入力することによって、前記検出ネットワークをもって、(i)領域プロポーザルネットワークを通じて前記特徴マップ上で前記物体が位置するものと推定される一つ以上の領域に対応するプロポーザルボックスを生成させ、(ii)プーリングレイヤを通じて前記特徴マップ上で前記プロポーザルボックスそれぞれに対応する一つ以上の各領域にプーリング演算を適用して、少なくとも一つの物体特徴ベクトルを生成させ、(iii)物体検出FC(fully−connected)レイヤを通じて前記物体特徴ベクトルに物体検出FC演算を適用して、前記プロポーザルボックスに対応する多数の物体情報を生成するプロセスを遂行して、前記視角従属型走行イメージ上に位置する前記物体を検出させるプロセスを遂行する。
一実施例において、前記プロセッサが、前記特徴マップを前記セグメンテーションネットワークに入力することによって、前記セグメンテーションネットワークをもって、少なくとも一つのデコンボリューションレイヤを通じて前記特徴マップにデコンボリューション演算を適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセスと、前記デコンボリューション特徴マップを少なくとも一つの車線検出FCレイヤに入力することによって、前記車線検出FCレイヤをもって、前記デコンボリューション特徴マップに車線検出FC演算を適用して前記視角従属型走行イメージ上に位置する前記車線を検出させるプロセスとを遂行する。
一実施例において、前記プロセッサが、前記特徴マップを前記識別ネットワークに入力することによって、前記識別ネットワークをもって、(i)グローバルプーリングレイヤを通じて前記特徴マップにグローバルプーリング演算を適用して少なくとも一つのグローバル特徴ベクトルを生成させ、(ii)識別FCレイヤを通じて前記グローバル特徴ベクトルに識別FC演算を適用して走行環境情報を生成させるプロセスを遂行して、前記視角従属型走行イメージに対応する前記走行環境を検出するプロセスを遂行する。
一実施例において、前記プロセッサが、前記加速度情報と前記ジャイロスコープ情報とを前記循環ネットワークに入力することによって、前記循環ネットワークをもって、一つ以上のLSTM(Long Short−Term Memory)を通じて予め設定された時間の間前記加速度情報と前記ジャイロスコープ情報とのうち一つ以上の変化状態に循環演算を適用して、前記運転者の行動パターンに対応する前記運転者の前記状態情報を生成させる。
一実施例において、前記プロセッサが、前記補助眼鏡に搭載されている少なくとも一つの照度センサから取得される照度情報に応答して、前記補助眼鏡のレンズ透明度を調整する。
一実施例において、前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと、(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含む。
一実施例において、前記コンボリューションネットワーク、前記検出ネットワーク、前記セグメンテーションネットワーク、及び前記識別ネットワークは、第1学習装置により学習された状態であり、前記第1学習装置は、(i)少なくとも一つの学習用視角従属型走行イメージを前記コンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、少なくとも一つの以前の学習済みコンボリューションパラメータを利用したコンボリューション演算を前記学習用視角従属型走行イメージに適用して少なくとも一つの学習用特徴マップを生成させるプロセス、(ii)(ii−1)前記学習用特徴マップを前記検出ネットワークに入力することによって、(ii−1−1)前記検出ネットワークの領域プロポーザルネットワークをもって、前記学習用特徴マップ上で少なくとも一つの学習用物体が位置するものと推定される一つ以上の領域に対応する一つ以上の学習用プロポーザルボックスを生成させ、(ii−1−2)前記検出ネットワークのプーリングレイヤをもって、前記学習用特徴マップ上で前記学習用プロポーザルボックスそれぞれに対応する一つ以上の領域にプーリング演算を適用して、少なくとも一つの学習用物体特徴ベクトルを生成させ、(ii−1−3)前記検出ネットワークの物体検出FCレイヤをもって、少なくとも一つの以前の学習済み物体検出パラメータを利用した物体検出FC演算を前記学習用物体特徴ベクトルに適用して、前記学習用プロポーザルボックスに対応する多数の学習用物体情報を生成させるプロセス、(ii−2)前記学習用特徴マップを前記セグメンテーションネットワークに入力することによって、(ii−2−1)前記セグメンテーションネットワークのデコンボリューションレイヤをもって、少なくとも一つの以前の学習済みデコンボリューションパラメータを利用したデコンボリューション演算を前記学習用特徴マップに適用して少なくとも一つのデコンボリューション特徴マップを生成させ、(ii−2−2)車線検出FCレイヤをもって、少なくとも一つの以前の学習済み車線検出パラメータを利用した車線検出FC演算を前記デコンボリューション特徴マップに適用して、前記学習用視角従属型走行イメージ上に位置する一つ以上の学習用車線を検出させるプロセス、(ii−3)前記学習用特徴マップを前記識別ネットワークに入力することによって、(ii−3−1)前記識別ネットワークのグローバルプーリングレイヤをもって、前記学習用特徴マップにグローバルプーリング演算を適用して少なくとも一つの学習用グローバル特徴ベクトルを生成させ、(ii−3−2)前記識別ネットワークの識別FCレイヤをもって、少なくとも一つの以前の学習済み識別パラメータを利用した識別FC演算を前記学習用グローバル特徴ベクトルに適用して学習用走行環境情報を生成させるプロセス、及び(iii)(iii−1)前記多数の学習用物体情報とこれに対応する第1原本正解(ground truth)とを参照して、第1ロスレイヤから出力された一つ以上の第1ロスが最小化されるように前記物体検出FCレイヤの前記以前の学習済み物体検出パラメータをアップデートするプロセス、(iii−2)前記学習用車線と、これに対応する第2原本正解とを参照して、第2ロスレイヤから出力された一つ以上の第2ロスが最小化されるように前記車線検出FCレイヤの前記以前の学習済み車線検出パラメータと前記デコンボリューションレイヤの前記以前の学習済みデコンボリューションパラメータとのうち少なくとも一つをアップデートするプロセス、(iii−3)前記学習用走行環境情報とこれに対応する第3原本正解とを参照して、第3ロスレイヤから出力された一つ以上の第3ロスが最小化されるように前記識別FCレイヤの前記以前の学習済み識別パラメータをアップデートするプロセス、及び(iii−4)前記第1ロス、前記第2ロス、及び前記第3ロス、又はこれから加工した値を加重合算(weighted summation)して生成された少なくとも一つの第4ロスが最小化されるように前記コンボリューションネットワークの前記以前の学習済みコンボリューションパラメータをアップデートするプロセスを繰り返す。
一実施例において、前記循環ネットワークは、第2学習装置により学習され、前記第2学習装置は、(i)現在の時点tから以前の時点t−kまでの学習用加速度情報と学習用ジャイロスコープ情報とをそれぞれのLSTMに入力することによって、それぞれの前記LSTMをもって、前記現在の時点tから前記以前の時点t−kまでの前記学習用加速度情報と前記学習用ジャイロスコープ情報とにフォワード(forward)演算を適用して、前記運転者の行動パターンに対応する学習用走行状態情報を出力させるプロセス、及び(ii)第4ロスレイヤをもって、前記学習用走行状態情報と、これに対応する第4原本正解とを参照して生成された一つ以上の第5ロスが最小化されるように前記LSTMの一つ以上のパラメータを調整させるプロセスを遂行する。
本発明のまた他の態様によると、運転者に対して走行安全情報を提供する補助眼鏡において、前記運転者が着用することができる前記補助眼鏡と、前記補助眼鏡に搭載された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージを撮影するカメラ、加速度センサ、及びジャイロスコープ(gyroscope)センサを含む一つ以上のセンサと、前記運転者に対して走行安全情報を提供する、前記補助眼鏡の出力ユニットと、を含み、前記補助眼鏡は、(I)(I−1)前記カメラから取得された前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(I−2)前記加速度センサから取得された加速度情報と前記ジャイロスコープセンサとから取得されたジャイロスコープ情報を循環ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセス、及び(II)(II−1)前記検出ネットワークにより検出された前記物体を参照して、前記運転者の自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転手に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して、前記運転者の前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークにより検出された前記走行環境を前記出力ユニットを通じて前記運転手に知らせるプロセス、及び(II−2)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行する走行安全情報分析装置を含むことを特徴とする補助眼鏡が提供される。
一実施例において、前記センサは、前記補助眼鏡に搭載されている少なくとも一つの照度センサをさらに含み、前記走行安全情報分析装置は、前記照度センサから取得される照度情報に応答して、前記補助眼鏡の一つ以上のレンズの透明度を調整するプロセスをさらに遂行する。
一実施例において、前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含む。
その他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明によると、補助眼鏡に含まれているカメラとセンサとからそれぞれ取得された走行イメージとセンサ情報とを利用したニューラルネットワークを通じて走行環境と運転者の状態とを識別し得るようにすることによって、従来の方法に比べて製作費用を低減することができる効果がある。
また、本発明によると、前記補助眼鏡に含まれている前記カメラと、前記センサからそれぞれ取得された前記走行イメージと、前記センサ情報とを利用した前記ニューラルネットワークを通じて、周辺モニタリング、運転者モニタリング、及び危険状況の識別を行うことができる効果がある。
また、本発明によると、前記走行イメージと前記センサ情報とを利用した前記ニューラルネットワークを通じて取得された運転者補助情報を運転者に対して通知することができる効果がある。
また、本発明によると、前記運転者が着用可能な前記補助眼鏡を通じて運転者補助システムを具現することによって、自動車に前記センサと前記カメラとを設置する従来方法に比べて、前記運転者補助システムの設置に所要される時間と費用を節減することができる効果がある。
また、本発明によると、前記運転者が着用した前記補助眼鏡を通じて前記運転者補助システムを具現することによって、前記運転者に最適化された走行情報を提供することができる効果がある。
発明の前記及び他の目的並びに特徴は、以下の添付図面とともに提供された好ましい実施例の説明において明らかにされる。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
本発明の一実施例による自律走行補助眼鏡を簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡のブロック構成図を簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡から取得される各情報を分析して運転補助情報を提供するために利用される走行安全情報分析装置を簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡の前記走行安全情報分析装置が少なくとも一つの視角従属型走行イメージを利用して、少なくとも一つの走行環境を検出するプロセスを簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡の前記走行安全分析装置がセンサ情報を利用して、少なくとも一つの運転者の状態を検出するプロセスを簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡の走行安全情報分析装置が一つ以上の衝突防止及び一つ以上の車線離脱を警告するプロセスを簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡の走行安全情報分析装置が少なくとも一つの走行状況を案内するプロセスを簡略に示したものである。 本発明の一実施例による前記自律走行補助眼鏡の走行安全情報分析装置により、安全運転を勧告する警告プロセスを簡略に示したものである。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、類似する機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
本願の明細書に提供された本発明の名称及び要約は、便宜のためのものであって、実施例の範囲を限定したり実施例の意味を解釈するものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例による補助眼鏡を簡略に示したものであって、前記補助眼鏡は、自動車の運転者が着用する眼鏡である。また、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージを検出する少なくとも一つのカメラが前記補助眼鏡に搭載され得、少なくとも一つの加速度センサ、少なくとも一つのジャイロスコープ(gyroscope)センサ、及び少なくとも一つの照度センサなどを含むセンサが前記補助眼鏡に搭載され得る。
そして、前記運転者に対して走行安全情報を出力して提供する少なくとも一つの出力ユニットが前記補助眼鏡に搭載され得る。前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)音声情報の出力に利用される、前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカ、及び(ii)視角情報の出力に利用される、前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)を含むことができるが、これに限定されるわけではない。
また、周辺の照度に応じて透明度を調整することができる、少なくとも一つの透明度調整レンズが前記補助眼鏡に利用され得る。この際、前記補助眼鏡は、一つ以上の透明度調整レンズを含むことができる。
また、前記補助眼鏡は、走行安全情報分析装置を含むことができる。前記走行安全情報分析装置は、前記カメラ及び前記センサからそれぞれ取得される前記視角従属型走行イメージ及び前記センサ情報をニューラルネットワーク、例えばディープニューラルネットワークを利用して分析することによって走行環境情報及び前記運転者の状態情報を取得し、これを参照して前記走行安全情報を提供することができる。この際、前記走行安全情報分析装置は前記補助眼鏡に搭載されるか、前記補助眼鏡から分離され得るが、有無線通信を介して前記補助眼鏡と通信することができる。
図2は、本発明の一実施例による前記補助眼鏡のブロック構成図を簡略に示したものであって、自律走行補助装置1000は、一つ以上の入力センサ100と、前記走行安全情報分析装置200と、少なくとも一つの出力ユニット300とを含むことができる。
前記入力センサ100は、走行情報を取得するために利用される、前記カメラ、前記加速度センサ、前記ジャイロスコープセンサ、及び前記照度センサなどのようなセンサを含むことができる。前記カメラは、走行中である前記自動車の前記運転者の視角に対応する前記視角従属型走行イメージを撮影し、前記加速度センサと前記ジャイロスコープセンサとは前記運転者の行動パターンによる加速度情報とジャイロスコープ情報とを取得し、前記照度センサは、前記運転者の周辺照度を取得することができる。この際、前記カメラは前記運転者の視角に対応する前記視角従属型走行イメージを検出し、前記視角従属型走行イメージは前記走行情報の一部として見ることもできるので、本発明にわたって前記入力センサが前記カメラを含むこともできる。
前記走行安全情報分析装置200は、前記視角従属型走行イメージを分析して少なくとも一人の歩行者と、他の自動車のうち少なくとも一つなどの一つ以上の物体を検出する検出ネットワークと、前記視角従属型走行イメージを分析して一つ以上の車線を識別するセグメンテーションネットワークと、前記視角従属型走行イメージを分析して天気、時間、場所などを識別する識別ネットワークとを含むことができる。この場合、それぞれの前記ネットワークは区別して説明されたが、一つのネットワークにおいてそれぞれの前記ネットワークの機能を遂行するように具現されることもある。
前記出力ユニット300は、前記走行安全情報を視角的に表す前記VRDと、前記走行安全情報を聴覚的に伝達する前記スピーカと、前記周辺照度に応じて透明度を調整することができる前記透明度調整レンズとを含むことができる。この場合、前記透明度調整レンズは前記照度センサから取得される周辺照度情報に応答して自動的にレンズの透明度を調整することができる。
一方、前記走行安全情報分析装置200は、前記カメラから取得された前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させ、前記特徴マップを前記検出ネットワーク、前記セグメンテーションネットワーク、及び前記識別ネットワークにそれぞれ入力することができる。そして、前記走行安全情報分析装置200は、(i)前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させるプロセス、(ii)前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上に位置した一つ以上の車線を検出させるプロセス、(iii)前記識別ネットワークをもって、前記視角従属型走行イメージに対応する前記走行環境を検出させるプロセス、及び(iv)前記加速度センサから取得された前記加速度情報及び前記ジャイロスコープセンサから取得された前記ジャイロスコープ情報を循環(recurrent)ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセスを遂行することができる。その後、前記走行安全情報分析装置200が、(i)前記検出ネットワークにより検出された前記物体を参照して、前記自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の前記出力ユニットを通じて前記運転手に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して、前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転手に知らせるプロセス、及び前記識別ネットワークにより検出された前記走行環境を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び(ii)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行することができる。これに加えて、前記走行安全情報分析装置200は、前記補助眼鏡に搭載された前記照度センサから取得される前記照度情報に応答して前記補助眼鏡のレンズの前記透明度を調節するプロセスをさらに遂行することができる。
図3は、本発明の一実施例による前記補助眼鏡から取得される情報を分析して、前記走行安全情報を提供する前記走行安全情報分析装置200を簡略に示したものである。図3を参照すると、前記走行安全情報分析装置200は、インストラクションを格納するメモリ201を含むことができ、前記メモリ201に格納された前記インストラクションに対応するプロセスを遂行するためのプロセッサ202を含むことができる。前記インストラクションは、ディープニューラルネットワークのような前記ニューラルネットワークを利用して前記カメラ及び前記センサから取得された前記視角従属型走行イメージと前記センサ情報とを分析して前記走行環境情報及び前記運転者の前記状態情報を取得し、これを参照して前記走行安全情報を提供するために使用され得る。すなわち、前記プロセッサ202は、前記ニューラルネットワークを利用して、前記カメラから取得された前記視角従属型走行イメージ及び前記センサから取得された前記センサ情報を分析し、前記走行環境情報及び前記状態情報を取得することによって、これを参照して前記走行安全情報を提供することができる。
具体的に、前記走行安全情報分析装置200は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他既存のコンピューティング装置の各構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(すなわち、コンピューティング装置をもって特定の方式で機能させるインストラクション)との組み合わせを利用して所望のシステム性能を達成するものであり得る。
前記コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が、本発明を実施するためのミディアム(medium)、プロセッサ、及びメモリが統合された形態である統合プロセッサを含む場合を排除するものではない。
本発明の一実施例による前記ニューラルネットワークを利用して前記カメラから取得された前記視角従属型走行イメージを分析し、前記走行安全情報分析装置200を利用して前記走行環境を検出する方法を、図4を参照して説明すると以下のとおりである。
まず、前記カメラから撮影された前記視角従属型走行イメージが取得されると、前記走行安全情報分析装置200が、前記視角従属型走行イメージを前記コンボリューションネットワーク210に入力することによって、前記コンボリューションネットワーク210をもって前記視角従属型走行イメージにコンボリューション演算を適用して、少なくとも一つの特徴マップを生成させることができる。この場合、前記コンボリューションネットワーク210は、少なくとも一つのコンボリューションレイヤを含み、前記視角従属型走行イメージに少なくとも一つのコンボリューション演算を適用することができる。
次に、前記走行安全情報分析装置200は、前記特徴マップを前記検出ネットワーク220に入力することによって、前記検出ネットワーク220をもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した前記他の自動車、前記歩行者などの前記物体を検出させることができる。
すなわち、前記走行安全情報分析装置200が、前記特徴マップを前記検出ネットワーク220に入力することによって、前記検出ネットワーク220をもって、(i)領域プロポーザルネットワーク221を通じて前記特徴マップ上で前記物体が位置するものと推定される一つ以上の領域に対応するプロポーザルボックスを生成させ、(ii)プーリングレイヤ222を通じて前記特徴マップ上で前記プロポーザルボックスそれぞれに対応する一つ以上の各領域にプーリング演算を適用して少なくとも一つの物体特徴ベクトルを生成させ、(iii)物体検出FC(fully−connected)レイヤ223を通じて前記物体特徴ベクトルに物体検出FC演算を適用して前記プロポーザルボックスに対応する多数の物体情報を生成するプロセス、及び結果的に前記視角従属型走行イメージ上に位置する前記物体を検出させるプロセスを遂行することができる。
この場合、前記物体検出FCレイヤ223は、単一レイヤとして説明されたが、前記視角従属型走行イメージ内の前記物体のうちの前記歩行者及び前記他の自動車を識別するために、多重の物体検出FCレイヤが利用されることもある。また、前記視角従属型走行イメージ内の前記物体の中で、前記歩行者及び前記他の自動車が識別されて出力されているが、本発明の範囲はこれに限定されない。
また、前記走行安全情報分析装置200は、前記特徴マップを前記セグメンテーションネットワーク230に入力することによって、前記セグメンテーションネットワーク230をもって前記視角従属型走行イメージ上の前記車線を検出させる。
すなわち、前記走行安全情報分析装置200が、前記特徴マップを前記セグメンテーションネットワーク230に入力することによって、前記セグメンテーションネットワーク230をもって少なくとも一つのデコンボリューションレイヤ231を通じて前記特徴マップにデコンボリューション演算を適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセス、及び前記デコンボリューション特徴マップを少なくとも一つの車線検出FCレイヤ232に入力することによって、前記車線検出FCレイヤ232をもって、前記デコンボリューション特徴マップに車線検出FC演算を適用して前記視角従属型走行イメージ上に位置する前記車線を検出させるプロセスを遂行することができる。
この場合、前記車線検出FCレイヤ232は、単一レイヤとして説明されたが、前記視角従属型走行イメージ内の前記車線を検出するために、多重の車線検出FCレイヤが利用されることもある。
一方、前記においては前記車線検出FCレイヤについて説明したが、これとは異なり、前記車線検出FCレイヤでなく少なくとも一つの1x1コンボリューションレイヤを利用して前記デコンボリューション特徴マップから前記車線を検出することができる。本発明は、前記車線検出FCレイヤと前記1x1コンボリューションレイヤ以外にも、イメージセグメンテーションに関する多様なニューラルネットワーク、あるいはディープニューラルネットワークを使用することができる。
また、前記走行安全情報分析装置200は、前記特徴マップを前記識別ネットワーク240に入力することによって、前記識別ネットワーク240をもって前記視角従属型走行イメージに対応する前記走行環境を検出させることができる。
すなわち、前記走行安全情報分析装置200が、前記特徴マップを前記識別ネットワーク240に入力することによって、前記識別ネットワーク240をもって、(i)グローバルプーリングレイヤ241を通じて前記特徴マップにグローバルプーリング演算を適用して少なくとも一つのグローバル特徴ベクトルを生成させ、(ii)識別FCレイヤ242を通じて前記グローバル特徴ベクトルに識別FC演算を適用して前記走行環境情報を生成させるプロセスを遂行して、前記視角従属型走行イメージに対応する、天気、時間、場所などのような前記走行環境を検出するプロセスを遂行することができる。
この場合、前記識別FCレイヤ242は、単一レイヤとして説明されたが、前記視角従属型走行イメージに対応する前記走行環境を検出するために、多重の識別FCレイヤが利用されることもある。
そして、本発明の一実施例による前記走行安全情報分析装置200を利用して、前記センサ情報から少なくとも一つの運転者の状態を検出する方法を、図5を参照して説明すると以下のとおりである。
前記加速度センサから、加速度X、加速度Y及び加速度Zの前記センサ情報、及び前記ジャイロスコープセンサから、角度X、角度Y及び角度Zの前記センサ情報が取得された場合、現在の時点tから以前の時点t−kまでの前記センサ情報それぞれが、少なくとも一つのフォワード(forward)演算のための多重のLSTM(Long Short−Term Memories)に入力されることによって、前記運転者の頭の速度及び位置に対応する前記運転者の行動パターンをもって利用して、前記運転者の少なくとも一つの行動及び少なくとも一つの状況、すなわち、前記運転者の状態を識別することができる。
この場合、前記運転者の状態は、注意分散、居眠り運転、DUI(driving under the influence)等を含むことができるが、本発明がこれに限定されるわけではない。
次に、前記のようなプロセスにより検出または識別された、前記走行環境及び前記運転者の状態を参照して、前記走行安全情報を提供する方法を説明する。
まず、図6を参照すると、図4のようなプロセスにしたがって前記視角従属型走行イメージ内の、前記歩行者及び前記他の自動車を含む前記物体が検出された状態で、前記走行安全情報分析装置200は、それぞれの前記物体が前記運転者の前記自動車との衝突の経路上にあるのかを判断する。一例として、速度、ハンドルの角度、ブレーキ状態などの現在走行情報を参照して、前記現在走行情報を保持する場合、前記視角従属型走行イメージのイメージ分析により検出されたそれぞれの前記物体が、前記運転者の前記自動車との前記衝突経路上にあるのかを判断することができる。
この場合、前記視角従属型走行イメージの前記イメージ分析により検出された前記物体のうち少なくともいずれか一つが前記衝突経路上にあるものと判断されれば、前記走行安全情報分析装置200は、衝突警告メッセージを前記VRDを通じて出力するか、衝突警告音声を前記スピーカを介して出力することによって、前記運転者が衝突を防止することができるようにする。
そして、前記走行安全情報分析装置200は、図4のようなプロセスにしたがって、前記視角従属型走行イメージから検出された車線情報を参照して前記車線が正常位置にあるか否か、すなわち、前記運転者の前記自動車の走行方向が前記車線を離脱せずに、正常位置にあるか否かを判断することができる。
この場合、前記視角従属型走行イメージの前記イメージ分析により検出された前記車線が正常位置でないものと判断される場合、すなわち、前記自動車が車線を離脱したものと判断される場合、前記走行安全情報分析装置200は、車線離脱警告メッセージを前記VRDを通じて出力するか、車線離脱警告音声を前記スピーカを通じて出力することによって、前記運転者が車線離脱を防止することが可能にする。
次に、図7を参照すると、図4のような前記プロセスにしたがって前記視角従属型走行イメージから識別された前記走行環境が取得された場合、前記走行安全情報分析装置200が、前記走行環境に対応する案内メッセージを前記VRDを通じて出力するか、前記走行環境に対応する案内音声を前記スピーカを通じて出力させることによって、前記運転者が前記走行環境を認知し得るようにする。一例として、前記走行安全情報分析装置200は、トンネル進入案内、逆光注意案内、豪雪及び豪雨の際の低速走行案内などのように、前記運転者の便宜のための前記走行環境及び走行安全に関する案内情報を前記運転者に通知することができる。
また、前記走行安全情報分析装置200は、前記照度センサから取得される周辺照度に応じて前記運転者の視野を確保するために、前記補助眼鏡の前記透明度調整レンズをもって、それ自体の透明度を前記周辺照度に応答して調整させることができる。この際、前記透明度調整レンズは、前記照度センサから直接的に取得された周辺照度情報に応答して、自動的に前記透明度を調整することができる。
次に、図8を参照すると、図5のような前記プロセスにしたがって、前記加速度センサと前記ジャイロスコープセンサとを利用して分析された前記運転者の状態が取得されると、前記走行安全情報分析装置200が、前記運転者に対して識別された行動に対応する警告メッセージを前記VRDを通じて出力するか、前記識別された行動に対応する警告音声を前記スピーカを介して出力することができる。一例として、前記運転者の状態が前記注意分散状態であるものと判断された場合、前記運転者が前方を注視するように警告を与えることができ、前記運転者の状態が前記居眠り運転又は前記DUI状態であるものと判断された場合、前記居眠り運転又は前記DUIに関する警告が運転者に提供され得る。
したがって、本発明は、前記自動車の前記運転手が着用する前記補助眼鏡に含まれている前記カメラと前記センサとから取得される前記視角従属型走行イメージと前記センサ情報とをディープニューラルネットワークを通じて分析することによって、前記走行環境と前記運転者とをモニタリングし、モニタリングされた前記走行環境と前記運転者の状態とに対応する危険状況を識別して、これを前記運転者に警告し、前記走行環境と前記運転者の状態とに対応する前記走行安全のための前記走行安全情報を生成して、ディスプレイ又は音声を利用して前記運転者が分かるように通知することができる。
一方、前記走行安全情報分析装置200の前記コンボリューションネットワーク210、前記検出ネットワーク220、前記セグメンテーションネットワーク230、及び前記識別ネットワーク240は、第1学習装置により学習された状態であり得る。
すなわち、前記第1学習装置は、学習用視角従属型走行イメージを前記コンボリューションネットワーク210に入力し、前記コンボリューションネットワーク210をもって、少なくとも一つの以前の学習済みコンボリューションパラメータを利用した少なくとも一つのコンボリューション演算を前記学習用視角従属型走行イメージに適用させることによって、少なくとも一つの学習用特徴マップを生成することができる。
そして、前記第1学習装置は、前記学習用特徴マップを前記検出ネットワーク220に入力することによって、(i)前記検出ネットワーク220の前記領域プロポーザルネットワーク221をもって、前記学習用特徴マップ上で少なくとも一つの学習用物体が位置するものと推定される一つ以上の領域に対応する学習用プロポーザルボックスを生成させ、(ii)前記検出ネットワーク220の前記プーリングレイヤ222をもって、前記学習用特徴マップ上で前記学習用プロポーザルボックスそれぞれに対応する一つ以上の領域それぞれにプーリング演算を適用して少なくとも一つの学習用物体特徴ベクトルを生成させ、(iii)前記検出ネットワーク220の前記物体検出FCレイヤ223をもって、少なくとも一つの以前の学習済み物体検出パラメータを利用した物体検出FC演算を前記学習用物体特徴ベクトルに適用して、前記学習用プロポーザルボックスに対応する多数の学習用物体情報を生成させるプロセスを遂行することができる。
また、前記第1学習装置は、前記学習用特徴マップを前記セグメンテーションネットワーク230に入力することによって、前記セグメンテーションネットワーク230の前記デコンボリューションレイヤ231をもって、少なくとも一つの以前の学習済みデコンボリューションパラメータを利用したデコンボリューション演算を前記学習用特徴マップに適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセス、及び前記デコンボリューション特徴マップを前記車線検出FCレイヤ232に入力することによって、前記車線検出FCレイヤ232をもって、少なくとも一つの以前の学習済み車線検出パラメータを利用した車線検出FC演算を前記デコンボリューション特徴マップに適用して、前記学習用視角従属型走行イメージ上に位置する一つ以上の学習用車線を検出させるプロセスを遂行することができる。
また、前記第1学習装置は、前記学習用特徴マップを前記識別ネットワーク240に入力することによって、(i)前記識別ネットワーク240の前記グローバルプーリングレイヤ241をもって、前記学習用特徴マップにグローバルプーリング演算を適用して少なくとも一つの学習用グローバル特徴ベクトルを生成させ、(ii)前記識別ネットワーク240の前記識別FCレイヤ242をもって、少なくとも一つの以前の学習済み識別パラメータを利用した識別FC演算を前記学習用グローバル特徴ベクトルに適用して学習用走行環境情報を生成させるプロセスを遂行することができる。
その後、前記第1学習装置は、(i)前記多数の学習用物体情報とこれに対応する第1原本正解(ground truth)とを参照して、第1ロスレイヤから出力された一つ以上の第1ロスが最小化されるように前記物体検出FCレイヤ223の前記以前の学習済み物体検出パラメータをアップデートするプロセス、(ii)前記学習用車線と、これに対応する第2原本正解とを参照して、第2ロスレイヤから出力された一つ以上の第2ロスが最小化されるように前記車線検出FCレイヤ232の前記以前の学習済み車線検出パラメータ及び前記デコンボリューションレイヤ231の前記以前の学習済みデコンボリューションパラメータのうち少なくとも一つをアップデートするプロセス、(iii)前記学習用走行環境情報とこれに対応する第3原本正解とを参照して、第3ロスレイヤから出力された一つ以上の第3ロスが最小化されるように前記識別FCレイヤの前記以前の学習済み識別パラメータをアップデートするプロセス、及び(iv)前記第1ロス、前記第2ロス、及び前記第3ロス、又はこれから加工した値を加重合算(weighted summation)して生成された少なくとも一つの第4ロスが最小化されるように前記コンボリューションネットワークの前記以前の学習済みコンボリューションパラメータをアップデートするプロセスを繰り返して、前記学習を遂行することができる。
この場合、前記第4ロスは、前記第1ロスを利用したバックプロパゲーション(backpropagation)により前記コンボリューションネットワーク210にバックワードされる少なくとも一つの第1加工値、前記第2ロスを利用したバックプロパゲーションにより前記コンボリューションネットワーク210にバックワードされる少なくとも一つの第2加工値、及び前記第3ロスを利用したバックプロパゲーションにより前記コンボリューションネットワーク210にバックワードされる少なくとも一つの第3加工値の加重合算値であり得る。
また、前記循環ネットワークは、第2学習装置により学習された状態であり得、前記第2学習装置は、現在の時点tから以前の時点t−kまでの学習用加速度情報と学習用ジャイロスコープ情報とをそれぞれの前記LSTMに入力することによって、それぞれの前記LSTMをもって、前記現在の時点tから前記以前の時点t−kまでの前記学習用加速度情報と前記学習用ジャイロスコープ情報とにフォワード(forward)演算を適用して、前記運転者の行動パターンに対応する学習用走行状態情報を出力させるプロセス、及び第4ロスレイヤをもって、前記学習用走行状態情報とこれに対応する第4原本正解とを参照して生成された一つ以上の第5ロスが最小化されるように前記LSTMの一つ以上のパラメータを調整させるプロセスを遂行することができる。
この場合、前記第1学習装置と前記第2学習装置とは、多数のシステムとして具現されるか、単一のシステムとして具現され得る。
また、以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (21)

  1. 運転者が着用した補助眼鏡を通じて走行安全情報を提供する方法において、
    (a)自動車の前記運転者が着用した前記補助眼鏡に搭載されている少なくとも一つのカメラから撮影された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージと、前記補助眼鏡に搭載された一つ以上のセンサからの加速度情報と、ジャイロスコープ(gyroscope)情報とが取得されると、走行安全情報分析装置が、(i)前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(ii)前記加速度情報及び前記ジャイロスコープ情報を循環(recurrent)ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセスを遂行する段階;及び
    (b)前記走行安全情報分析装置が、(i)前記検出ネットワークにより検出された前記物体を参照して、前記自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転者に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して、前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークにより検出された前記走行環境を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び(ii)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行する段階;
    を含むことを特徴とする方法。
  2. 前記走行安全情報分析装置が、前記特徴マップを前記検出ネットワークに入力することによって、前記検出ネットワークをもって、(i)領域プロポーザルネットワークを通じて前記特徴マップ上で前記物体が位置するものと推定される一つ以上の領域に対応するプロポーザルボックスを生成させ、(ii)プーリングレイヤを通じて前記特徴マップ上で前記プロポーザルボックスそれぞれに対応する一つ以上の各領域にプーリング演算を適用して少なくとも一つの物体特徴ベクトルを生成させ、(iii)物体検出FC(fully−connected)レイヤを通じて前記物体特徴ベクトルに物体検出FC演算を適用して前記プロポーザルボックスに対応する多数の物体情報を生成するプロセスを遂行して、前記視角従属型走行イメージ上に位置する前記物体を検出させるプロセスを遂行することを特徴とする請求項1に記載の方法。
  3. 前記走行安全情報分析装置が、前記特徴マップを前記セグメンテーションネットワークに入力することによって、前記セグメンテーションネットワークをもって、少なくとも一つのデコンボリューションレイヤを通じて前記特徴マップにデコンボリューション演算を適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセスと、前記デコンボリューション特徴マップを少なくとも一つの車線検出FCレイヤに入力することによって、前記車線検出FCレイヤをもって、前記デコンボリューション特徴マップに車線検出FC演算を適用して前記視角従属型走行イメージ上に位置する前記車線を検出させるプロセスとを遂行することを特徴とする請求項1に記載の方法。
  4. 前記走行安全情報分析装置が、前記特徴マップを前記識別ネットワークに入力することによって、前記識別ネットワークをもって、(i)グローバルプーリングレイヤを通じて前記特徴マップにグローバルプーリング演算を適用して少なくとも一つのグローバル特徴ベクトルを生成させ、(ii)識別FCレイヤを通じて前記グローバル特徴ベクトルに識別FC演算を適用して走行環境情報を生成させるプロセスを遂行して、前記視角従属型走行イメージに対応する前記走行環境を検出するプロセスを遂行することを特徴とする請求項1に記載の方法。
  5. 前記走行安全情報分析装置が、前記加速度情報と前記ジャイロスコープ情報とを前記循環ネットワークに入力することによって、前記循環ネットワークをもって、一つ以上のLSTM(Long Short−Term Memory)を通じて予め設定された時間の間、前記加速度情報と前記ジャイロスコープ情報とのうち一つ以上の変化状態に循環演算を適用して、前記運転者の行動パターンに対応する前記運転者の前記状態情報を生成させることを特徴とする請求項1に記載の方法。
  6. 前記走行安全情報分析装置が、前記補助眼鏡に搭載されている少なくとも一つの照度センサから取得される照度情報に応答して、前記補助眼鏡のレンズ透明度を調整することを特徴とする請求項1に記載の方法。
  7. 前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと、(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含むことを特徴とする請求項1に記載の方法。
  8. 前記コンボリューションネットワーク、前記検出ネットワーク、前記セグメンテーションネットワーク、及び前記識別ネットワークは、第1学習装置により学習された状態であり、前記第1学習装置は、(i)少なくとも一つの学習用視角従属型走行イメージを前記コンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、少なくとも一つの以前の学習済みコンボリューションパラメータを利用したコンボリューション演算を前記学習用視角従属型走行イメージに適用して少なくとも一つの学習用特徴マップを生成させるプロセス、(ii)(ii−1)前記学習用特徴マップを前記検出ネットワークに入力することによって、(ii−1−1)前記検出ネットワークの領域プロポーザルネットワークをもって、前記学習用特徴マップ上で少なくとも一つの学習用物体が位置するものと推定される一つ以上の領域に対応する一つ以上の学習用プロポーザルボックスを生成させ、(ii−1−2)前記検出ネットワークのプーリングレイヤをもって、前記学習用特徴マップ上で前記学習用プロポーザルボックスそれぞれに対応する一つ以上の領域にプーリング演算を適用して少なくとも一つの学習用物体特徴ベクトルを生成させ、(ii−1−3)前記検出ネットワークの物体検出FCレイヤをもって、少なくとも一つの以前の学習済み物体検出パラメータを利用した物体検出FC演算を前記学習用物体特徴ベクトルに適用して、前記学習用プロポーザルボックスに対応する多数の学習用物体情報を生成させるプロセス、(ii−2)前記学習用特徴マップを前記セグメンテーションネットワークに入力することによって、(ii−2−1)前記セグメンテーションネットワークのデコンボリューションレイヤをもって、少なくとも一つの以前の学習済みデコンボリューションパラメータを利用したデコンボリューション演算を前記学習用特徴マップに適用して少なくとも一つのデコンボリューション特徴マップを生成させ、(ii−2−2)車線検出FCレイヤをもって、少なくとも一つの以前の学習済み車線検出パラメータを利用した車線検出FC演算を前記デコンボリューション特徴マップに適用して、前記学習用視角従属型走行イメージ上に位置する一つ以上の学習用車線を検出させるプロセス、(ii−3)前記学習用特徴マップを前記識別ネットワークに入力することによって、(ii−3−1)前記識別ネットワークのグローバルプーリングレイヤをもって、前記学習用特徴マップにグローバルプーリング演算を適用して少なくとも一つの学習用グローバル特徴ベクトルを生成させ、(ii−3−2)前記識別ネットワークの識別FCレイヤをもって、少なくとも一つの以前の学習済み識別パラメータを利用した識別FC演算を前記学習用グローバル特徴ベクトルに適用して学習用走行環境情報を生成させるプロセス、及び(iii)(iii−1)前記多数の学習用物体情報と、これに対応する第1原本正解(ground truth)とを参照して、第1ロスレイヤから出力された一つ以上の第1ロスが最小化されるように前記物体検出FCレイヤの前記以前の学習済み物体検出パラメータをアップデートするプロセス、(iii−2)前記学習用車線と、これに対応する第2原本正解とを参照して、第2ロスレイヤから出力された一つ以上の第2ロスが最小化されるように前記車線検出FCレイヤの前記以前の学習済み車線検出パラメータと前記デコンボリューションレイヤの前記以前の学習済みデコンボリューションパラメータとのうち少なくとも一つをアップデートするプロセス、(iii−3)前記学習用走行環境情報と、これに対応する第3原本正解とを参照して、第3ロスレイヤから出力された一つ以上の第3ロスが最小化されるように前記識別FCレイヤの前記以前の学習済み識別パラメータをアップデートするプロセス、及び(iii−4)前記第1ロス、前記第2ロス、及び前記第3ロス、又はこれから加工した値を加重合算(weighted summation)して生成された少なくとも一つの第4ロスが最小化されるように前記コンボリューションネットワークの前記以前の学習済みコンボリューションパラメータをアップデートするプロセスを繰り返すことを特徴とする請求項1に記載の方法。
  9. 前記循環ネットワークは、第2学習装置により学習され、前記第2学習装置は、(i)現在の時点tから以前の時点t−kまでの学習用加速度情報と学習用ジャイロスコープ情報とをそれぞれのLSTMに入力することによって、それぞれの前記LSTMをもって、前記現在の時点tから前記以前の時点t−kまでの前記学習用加速度情報と前記学習用ジャイロスコープ情報とにフォワード(forward)演算を適用して、前記運転者の行動パターンに対応する学習用走行状態情報を出力させるプロセス、及び(ii)第4ロスレイヤをもって、前記学習用走行状態情報と、これに対応する第4原本正解とを参照して生成された一つ以上の第5ロスが最小化されるように前記LSTMの一つ以上のパラメータを調整させるプロセスを遂行することを特徴とする請求項1に記載の方法。
  10. 運転者が着用した補助眼鏡を通じて走行安全情報を提供する走行安全情報分析装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)自動車の前記運転者が着用した前記補助眼鏡に搭載されている少なくとも一つのカメラから撮影された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージと、前記補助眼鏡に搭載された一つ以上のセンサからの加速度情報と、ジャイロスコープ(gyroscope)情報とが取得されると、(I−1)前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(I−2)前記加速度情報と前記ジャイロスコープ情報とを循環ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセス、及び(II)(II−1)前記検出ネットワークにより検出された前記物体を参照して、前記自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転手に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークをもって検出された前記走行環境を前記出力ユニットを通じて前記運転手に知らせるプロセス、及び(II−2)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行するか、他の装置によって遂行させるための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする走行安全情報分析装置。
  11. 前記プロセッサが、前記特徴マップを前記検出ネットワークに入力することによって、前記検出ネットワークをもって、(i)領域プロポーザルネットワークを通じて前記特徴マップ上で前記物体が位置するものと推定される一つ以上の領域に対応するプロポーザルボックスを生成させ、(ii)プーリングレイヤを通じて前記特徴マップ上で前記プロポーザルボックスそれぞれに対応する一つ以上の各領域にプーリング演算を適用して、少なくとも一つの物体特徴ベクトルを生成させ、(iii)物体検出FC(fully−connected)レイヤを通じて前記物体特徴ベクトルに物体検出FC演算を適用して、前記プロポーザルボックスに対応する多数の物体情報を生成するプロセスを遂行して、前記視角従属型走行イメージ上に位置する前記物体を検出させるプロセスを遂行することを特徴とする請求項10に記載の走行安全情報分析装置。
  12. 前記プロセッサが、前記特徴マップを前記セグメンテーションネットワークに入力することによって、前記セグメンテーションネットワークをもって、少なくとも一つのデコンボリューションレイヤを通じて前記特徴マップにデコンボリューション演算を適用して少なくとも一つのデコンボリューション特徴マップを生成させるプロセスと、前記デコンボリューション特徴マップを少なくとも一つの車線検出FCレイヤに入力することによって、前記車線検出FCレイヤをもって、前記デコンボリューション特徴マップに車線検出FC演算を適用して前記視角従属型走行イメージ上に位置する前記車線を検出させるプロセスとを遂行することを特徴とする請求項10に記載の走行安全情報分析装置。
  13. 前記プロセッサが、前記特徴マップを前記識別ネットワークに入力することによって、前記識別ネットワークをもって、(i)グローバルプーリングレイヤを通じて前記特徴マップにグローバルプーリング演算を適用して少なくとも一つのグローバル特徴ベクトルを生成させ、(ii)識別FCレイヤを通じて前記グローバル特徴ベクトルに識別FC演算を適用して走行環境情報を生成させるプロセスを遂行して、前記視角従属型走行イメージに対応する前記走行環境を検出するプロセスを遂行することを特徴とする請求項10に記載の走行安全情報分析装置。
  14. 前記プロセッサが、前記加速度情報と前記ジャイロスコープ情報とを前記循環ネットワークに入力することによって、前記循環ネットワークをもって、一つ以上のLSTM(Long Short−Term Memory)を通じて予め設定された時間の間前記加速度情報と前記ジャイロスコープ情報とのうち一つ以上の変化状態に循環演算を適用して、前記運転者の行動パターンに対応する前記運転者の前記状態情報を生成させることを特徴とする請求項10に記載の走行安全情報分析装置。
  15. 前記プロセッサが、前記補助眼鏡に搭載されている少なくとも一つの照度センサから取得される照度情報に応答して、前記補助眼鏡のレンズ透明度を調整することを特徴とする請求項10に記載の走行安全情報分析装置。
  16. 前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと、(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含むことを特徴とする請求項10に記載の走行安全情報分析装置。
  17. 前記コンボリューションネットワーク、前記検出ネットワーク、前記セグメンテーションネットワーク、及び前記識別ネットワークは、第1学習装置により学習された状態であり、前記第1学習装置は、(i)少なくとも一つの学習用視角従属型走行イメージを前記コンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、少なくとも一つの以前の学習済みコンボリューションパラメータを利用したコンボリューション演算を前記学習用視角従属型走行イメージに適用して少なくとも一つの学習用特徴マップを生成させるプロセス、(ii)(ii−1)前記学習用特徴マップを前記検出ネットワークに入力することによって、(ii−1−1)前記検出ネットワークの領域プロポーザルネットワークをもって、前記学習用特徴マップ上で少なくとも一つの学習用物体が位置するものと推定される一つ以上の領域に対応する一つ以上の学習用プロポーザルボックスを生成させ、(ii−1−2)前記検出ネットワークのプーリングレイヤをもって、前記学習用特徴マップ上で前記学習用プロポーザルボックスそれぞれに対応する一つ以上の領域にプーリング演算を適用して、少なくとも一つの学習用物体特徴ベクトルを生成させ、(ii−1−3)前記検出ネットワークの物体検出FCレイヤをもって、少なくとも一つの以前の学習済み物体検出パラメータを利用した物体検出FC演算を前記学習用物体特徴ベクトルに適用して、前記学習用プロポーザルボックスに対応する多数の学習用物体情報を生成させるプロセス、(ii−2)前記学習用特徴マップを前記セグメンテーションネットワークに入力することによって、(ii−2−1)前記セグメンテーションネットワークのデコンボリューションレイヤをもって、少なくとも一つの以前の学習済みデコンボリューションパラメータを利用したデコンボリューション演算を前記学習用特徴マップに適用して少なくとも一つのデコンボリューション特徴マップを生成させ、(ii−2−2)車線検出FCレイヤをもって、少なくとも一つの以前の学習済み車線検出パラメータを利用した車線検出FC演算を前記デコンボリューション特徴マップに適用して、前記学習用視角従属型走行イメージ上に位置する一つ以上の学習用車線を検出させるプロセス、(ii−3)前記学習用特徴マップを前記識別ネットワークに入力することによって、(ii−3−1)前記識別ネットワークのグローバルプーリングレイヤをもって、前記学習用特徴マップにグローバルプーリング演算を適用して少なくとも一つの学習用グローバル特徴ベクトルを生成させ、(ii−3−2)前記識別ネットワークの識別FCレイヤをもって、少なくとも一つの以前の学習済み識別パラメータを利用した識別FC演算を前記学習用グローバル特徴ベクトルに適用して学習用走行環境情報を生成させるプロセス、及び(iii)(iii−1)前記多数の学習用物体情報とこれに対応する第1原本正解(ground truth)とを参照して、第1ロスレイヤから出力された一つ以上の第1ロスが最小化されるように前記物体検出FCレイヤの前記以前の学習済み物体検出パラメータをアップデートするプロセス、(iii−2)前記学習用車線と、これに対応する第2原本正解とを参照して、第2ロスレイヤから出力された一つ以上の第2ロスが最小化されるように前記車線検出FCレイヤの前記以前の学習済み車線検出パラメータと前記デコンボリューションレイヤの前記以前の学習済みデコンボリューションパラメータとのうち少なくとも一つをアップデートするプロセス、(iii−3)前記学習用走行環境情報とこれに対応する第3原本正解とを参照して、第3ロスレイヤから出力された一つ以上の第3ロスが最小化されるように前記識別FCレイヤの前記以前の学習済み識別パラメータをアップデートするプロセス、及び(iii−4)前記第1ロス、前記第2ロス、及び前記第3ロス、又はこれから加工した値を加重合算(weighted summation)して生成された少なくとも一つの第4ロスが最小化されるように前記コンボリューションネットワークの前記以前の学習済みコンボリューションパラメータをアップデートするプロセスを繰り返すことを特徴とする請求項10に記載の走行安全情報分析装置。
  18. 前記循環ネットワークは、第2学習装置により学習され、前記第2学習装置は、(i)現在の時点tから以前の時点t−kまでの学習用加速度情報と学習用ジャイロスコープ情報とをそれぞれのLSTMに入力することによって、それぞれの前記LSTMをもって、前記現在の時点tから前記以前の時点t−kまでの前記学習用加速度情報と前記学習用ジャイロスコープ情報とにフォワード(forward)演算を適用して、前記運転者の行動パターンに対応する学習用走行状態情報を出力させるプロセス、及び(ii)第4ロスレイヤをもって、前記学習用走行状態情報と、これに対応する第4原本正解とを参照して生成された一つ以上の第5ロスが最小化されるように前記LSTMの一つ以上のパラメータを調整させるプロセスを遂行することを特徴とする請求項10に記載の走行安全情報分析装置。
  19. 運転者に対して走行安全情報を提供する補助眼鏡において、
    前記運転者が着用することができる前記補助眼鏡と、
    前記補助眼鏡に搭載された、前記運転者の視角に対応する少なくとも一つの視角従属型走行イメージを撮影するカメラ、加速度センサ、及びジャイロスコープ(gyroscope)センサを含む一つ以上のセンサと、
    前記運転者に対して走行安全情報を提供する、前記補助眼鏡の出力ユニットと、
    を含み、
    前記補助眼鏡は、(I)(I−1)前記カメラから取得された前記視角従属型走行イメージをコンボリューションネットワークに入力することによって、前記コンボリューションネットワークをもって、前記視角従属型走行イメージにコンボリューション演算を適用して少なくとも一つの特徴マップを生成させるプロセスと、前記特徴マップを検出ネットワーク、セグメンテーションネットワーク、及び識別ネットワークにそれぞれ入力することによって、前記検出ネットワークをもって、前記特徴マップを利用して前記視角従属型走行イメージ上に位置した少なくとも一つの物体を検出させ、前記セグメンテーションネットワークをもって、前記視角従属型走行イメージ上の一つ以上の車線を検出させ、前記識別ネットワークをもって、前記視角従属型走行イメージに対応する走行環境を検出させるプロセス、及び(I−2)前記加速度センサから取得された加速度情報と前記ジャイロスコープセンサとから取得されたジャイロスコープ情報を循環ネットワークに入力することによって、前記循環ネットワークをもって、前記加速度情報と前記ジャイロスコープ情報とに対応する前記運転者の状態情報を生成させるプロセス、及び(II)(II−1)前記検出ネットワークにより検出された前記物体を参照して、前記運転者の自動車と前記物体との間の予測衝突可能性情報を前記補助眼鏡の出力ユニットを通じて前記運転手に知らせるプロセス、前記セグメンテーションネットワークにより検出された前記車線を参照して、前記運転者の前記自動車の車線離脱情報を前記出力ユニットを通じて前記運転者に知らせるプロセス、及び前記識別ネットワークにより検出された前記走行環境を前記出力ユニットを通じて前記運転手に知らせるプロセス、及び(II−2)前記循環ネットワークにより検出された前記運転者の前記状態情報を参照して、走行安全警告を前記出力ユニットを通じて前記運転者に対して提供するプロセスを遂行する走行安全情報分析装置を含むことを特徴とする補助眼鏡。
  20. 前記センサは、前記補助眼鏡に搭載されている少なくとも一つの照度センサをさらに含み、
    前記走行安全情報分析装置は、前記照度センサから取得される照度情報に応答して、前記補助眼鏡の一つ以上のレンズの透明度を調整するプロセスをさらに遂行することを特徴とする請求項19に記載の補助眼鏡。
  21. 前記出力ユニットは、前記運転者が前記補助眼鏡を着用した場合、(i)前記運転者の少なくとも一方の耳に対応する位置に設置される少なくとも一つのスピーカと(ii)前記運転者の少なくとも一方の目に対応する位置に設置される少なくとも一つのVRD(Virtual Retina Display)とを含むことを特徴とする請求項19に記載の補助眼鏡。
JP2020006187A 2019-01-31 2020-01-17 ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡 Active JP6917080B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799086P 2019-01-31 2019-01-31
US62/799,086 2019-01-31
US16/721,963 US10633007B1 (en) 2019-01-31 2019-12-20 Autonomous driving assistance glasses that assist in autonomous driving by recognizing humans' status and driving environment through image analysis based on deep neural network
US16/721,963 2019-12-20

Publications (2)

Publication Number Publication Date
JP2020126625A true JP2020126625A (ja) 2020-08-20
JP6917080B2 JP6917080B2 (ja) 2021-08-11

Family

ID=70332292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006187A Active JP6917080B2 (ja) 2019-01-31 2020-01-17 ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡

Country Status (5)

Country Link
US (1) US10633007B1 (ja)
EP (1) EP3690722A1 (ja)
JP (1) JP6917080B2 (ja)
KR (1) KR102320979B1 (ja)
CN (1) CN111506057B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036425A (ko) * 2021-09-07 2023-03-14 국민대학교산학협력단 차량 위험도 예측 장치 및 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111752273A (zh) * 2020-06-15 2020-10-09 华侨大学 一种电动履带式挖掘机无人驾驶行走系统及方法
CN112418157B (zh) * 2020-12-08 2022-09-16 北京深睿博联科技有限责任公司 基于差分神经网络和图像序列数据的车速识别方法及装置
CN112590786A (zh) * 2021-01-19 2021-04-02 湖南汽车工程职业学院 一种汽车计算机控制系统
CN112995519B (zh) * 2021-03-26 2024-03-01 精英数智科技股份有限公司 一种用于探水监测的摄像头自适应调整方法及装置
CN112849156B (zh) * 2021-04-25 2021-07-30 北京三快在线科技有限公司 一种行驶风险识别方法及装置
CN114516270B (zh) * 2022-03-11 2023-09-12 禾多科技(北京)有限公司 车辆控制方法、装置、电子设备和计算机可读介质
WO2023219236A1 (ko) * 2022-05-10 2023-11-16 주식회사 비브스튜디오스 스마트 안경에 광고를 디스플레이하는 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159383A (ja) * 2014-02-21 2015-09-03 ソニー株式会社 ウェアラブル機器、制御装置、撮影制御方法および自動撮像装置
WO2018070379A1 (ja) * 2016-10-11 2018-04-19 東海光学株式会社 眼球運動測定装置及び眼球運動解析システム
JP2018077829A (ja) * 2016-11-09 2018-05-17 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム
JP2018088151A (ja) * 2016-11-29 2018-06-07 株式会社Soken 境界線推定装置
JP2018173861A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITTO20030662A1 (it) * 2003-08-29 2005-02-28 Fiat Ricerche Disposizione di visualizzazione virtuale per un quadro
KR101421529B1 (ko) * 2012-10-18 2014-08-13 진성닷컴주식회사 차선 이탈 경고 안경
DE102013207063A1 (de) * 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
DE102013207528A1 (de) * 2013-04-25 2014-10-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Interagieren mit einem auf einer Datenbrille angezeigten Objekt
KR101459908B1 (ko) * 2013-05-20 2014-11-07 현대자동차주식회사 안전운전유도 게임 장치 및 방법
US9513702B2 (en) * 2013-07-15 2016-12-06 Lg Electronics Inc. Mobile terminal for vehicular display system with gaze detection
GB2517732A (en) * 2013-08-29 2015-03-04 Sim & Pin Ltd System for accessing data from multiple devices
KR102433291B1 (ko) * 2014-07-31 2022-08-17 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스의 컨텐트 제공 방법
DE102014225937A1 (de) * 2014-12-15 2016-06-16 Robert Bosch Gmbh Identifikations- und Prüfunterstützungs-Vorrichtung und -Verfahren
US20160178905A1 (en) * 2014-12-19 2016-06-23 Intel Corporation Facilitating improved viewing capabitlies for glass displays
KR101867915B1 (ko) * 2015-01-16 2018-07-19 현대자동차주식회사 차량에서 웨어러블 기기를 이용한 기능 실행 방법 및 이를 수행하는 차량
DE102015201456B4 (de) * 2015-01-28 2016-12-15 Volkswagen Aktiengesellschaft Verfahren und System zur Ausgabe einer Warnmeldung in einem Fahrzeug
US10175753B2 (en) * 2015-10-20 2019-01-08 Bragi GmbH Second screen devices utilizing data from ear worn device system and method
US20170111723A1 (en) * 2015-10-20 2017-04-20 Bragi GmbH Personal Area Network Devices System and Method
US20170287217A1 (en) * 2016-03-30 2017-10-05 Kahyun Kim Preceding traffic alert system and method
US10317900B2 (en) * 2016-05-13 2019-06-11 GM Global Technology Operations LLC Controlling autonomous-vehicle functions and output based on occupant position and attention
US20180134215A1 (en) * 2016-11-16 2018-05-17 Samsung Electronics Co., Ltd. Method and device for generating driving assistance information
US20180329209A1 (en) * 2016-11-24 2018-11-15 Rohildev Nattukallingal Methods and systems of smart eyeglasses
KR20180099280A (ko) * 2017-02-28 2018-09-05 삼성전자주식회사 가상 차로 생성 장치 및 방법
CN110582802A (zh) * 2017-03-24 2019-12-17 深圳市大疆创新科技有限公司 载运工具行为监测系统和方法
US11290518B2 (en) * 2017-09-27 2022-03-29 Qualcomm Incorporated Wireless control of remote devices through intention codes over a wireless connection
US10671868B2 (en) * 2017-10-02 2020-06-02 Magna Electronics Inc. Vehicular vision system using smart eye glasses
US11417128B2 (en) * 2017-12-22 2022-08-16 Motorola Solutions, Inc. Method, device, and system for adaptive training of machine learning models via detected in-field contextual incident timeline entry and associated located and retrieved digital audio and/or video imaging
US10496887B2 (en) * 2018-02-22 2019-12-03 Motorola Solutions, Inc. Device, system and method for controlling a communication device to provide alerts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159383A (ja) * 2014-02-21 2015-09-03 ソニー株式会社 ウェアラブル機器、制御装置、撮影制御方法および自動撮像装置
WO2018070379A1 (ja) * 2016-10-11 2018-04-19 東海光学株式会社 眼球運動測定装置及び眼球運動解析システム
JP2018077829A (ja) * 2016-11-09 2018-05-17 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム
JP2018088151A (ja) * 2016-11-29 2018-06-07 株式会社Soken 境界線推定装置
JP2018173861A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036425A (ko) * 2021-09-07 2023-03-14 국민대학교산학협력단 차량 위험도 예측 장치 및 방법
KR102552051B1 (ko) 2021-09-07 2023-07-06 국민대학교산학협력단 차량 위험도 예측 장치 및 방법

Also Published As

Publication number Publication date
JP6917080B2 (ja) 2021-08-11
KR102320979B1 (ko) 2021-11-04
KR20200096113A (ko) 2020-08-11
CN111506057A (zh) 2020-08-07
CN111506057B (zh) 2023-08-18
EP3690722A1 (en) 2020-08-05
US10633007B1 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
JP2020126625A (ja) ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡
US10791979B2 (en) Apparatus and method to train autonomous driving model, and autonomous driving apparatus
JP7153071B2 (ja) 自律型車両のための歩行者行動予測
US11068724B2 (en) Deep learning continuous lane lines detection system for autonomous vehicles
EP3660745B1 (en) Real time decision making for autonomous driving vehicles
JP6930765B2 (ja) V2v連結によって人の状態認識を活用して検出された運転者の異常状態を警告するための方法及び装置{method and device for alerting abnormal driver situation detected by using humans’ status recognition via v2v connection}
EP3441909B1 (en) Lane detection method and apparatus
EP3376432A2 (en) Method and device to generate virtual lane
US20190039613A1 (en) Apparatus and method for changing route of vehicle based on emergency vehicle
CN108885108B (zh) 基于操纵难度的u形转弯辅助
KR102349995B1 (ko) 운전자 상태에 따라 맞춤형의 캘리브레이션을 위해 운전자 보조 장치를 자동으로 조정하는 방법 및 장치
US10698222B1 (en) Method for monitoring blind spot of cycle using smart helmet for cycle rider and blind spot monitoring device using them
JP2020077393A (ja) 自動車の車線変更に対する危険を警報する方法及びこれを利用した警報装置
US10635915B1 (en) Method and device for warning blind spot cooperatively based on V2V communication with fault tolerance and fluctuation robustness in extreme situation
US10565863B1 (en) Method and device for providing advanced pedestrian assistance system to protect pedestrian preoccupied with smartphone
CN114435351A (zh) 用于基于神经网络的自动驾驶的系统和方法
KR20210039245A (ko) 자율주행차량의 관심 대상 신호등을 특정하기 위한 방법 및 이를 이용한 컴퓨팅 장치
JP2022142790A (ja) マルチタスクネットワークのための評価プロセス
CN115465283A (zh) 自适应信任校准
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
CN115690748B (zh) 用于占据类预测的方法和用于遮挡值确定的方法
US20230391366A1 (en) System and method for detecting a perceived level of driver discomfort in an automated vehicle
Shinmura et al. Driver's decision analysis in terms of pedestrian attributes—A case study in passing by a pedestrian
JP2020144417A (ja) リスク取得システム、リスク表示システムおよびリスク取得プログラム
CN115880763A (zh) 操作员接管预测

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6917080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150