JP2021518010A - 運転者注意力の監視方法および装置、ならびに電子機器 - Google Patents
運転者注意力の監視方法および装置、ならびに電子機器 Download PDFInfo
- Publication number
- JP2021518010A JP2021518010A JP2020550127A JP2020550127A JP2021518010A JP 2021518010 A JP2021518010 A JP 2021518010A JP 2020550127 A JP2020550127 A JP 2020550127A JP 2020550127 A JP2020550127 A JP 2020550127A JP 2021518010 A JP2021518010 A JP 2021518010A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- gaze
- area
- face image
- driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 184
- 238000000034 method Methods 0.000 title claims abstract description 140
- 238000001514 detection method Methods 0.000 claims description 83
- 238000013528 artificial neural network Methods 0.000 claims description 64
- 238000012549 training Methods 0.000 claims description 56
- 238000002372 labelling Methods 0.000 claims description 55
- 230000001186 cumulative effect Effects 0.000 claims description 45
- 230000000875 corresponding effect Effects 0.000 claims description 44
- 230000001815 facial effect Effects 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 20
- 238000013441 quality evaluation Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 14
- 238000012806 monitoring device Methods 0.000 claims description 10
- 230000002596 correlated effect Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000007619 statistical method Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 210000001508 eye Anatomy 0.000 description 97
- 210000003128 head Anatomy 0.000 description 48
- 230000006870 function Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 29
- 230000009466 transformation Effects 0.000 description 16
- 238000010606 normalization Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 10
- 238000013145 classification model Methods 0.000 description 8
- 206010039203 Road traffic accident Diseases 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 239000012141 concentrate Substances 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 230000000638 stimulation Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 239000006185 dispersion Substances 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 239000007921 spray Substances 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000036040 emmetropia Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 208000031968 Cadaver Diseases 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/229—Attention level, e.g. attentive to driving, reading or sleeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4048—Field of view, e.g. obstructed view or direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Ophthalmology & Optometry (AREA)
- Business, Economics & Management (AREA)
- Biodiversity & Conservation Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Marketing (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Geometry (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
Abstract
Description
本願は2019年3月18日に中国特許局に提出された、出願番号201910205328.X、発明名称「運転者注意力の監視方法および装置、ならびに電子機器」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
例えば、本願は以下の項目を提供する。
(項目1)
車両に設けられるカメラによって前記車両の運転領域のビデオを収集するステップと、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップであって、各フレームの顔画像の注視領域は、事前に前記車両の空間領域の分割を行って得られた複数種別の定義注視領域の1つに属する、ステップと、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定するステップと、を含むことを特徴とする運転者注意力の監視方法。
(項目2)
前記事前に前記車両の空間領域の分割を行って得られた前記複数種別の定義注視領域は、左フロントウインドウシールド領域、右フロントウインドウシールド領域、インストルメントパネル領域、車両インナーミラー領域、センターコンソール領域、左バックミラー領域、右バックミラー領域、サンバイザ領域、シフトロッド領域、ハンドル下方領域、助手席領域、および助手席前方のグローブボックス領域の2種以上を含むことを特徴とする項目1に記載の方法。
(項目3)
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定する前記ステップは、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間を決定するステップと、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、脇見運転であるか否かおよび/または脇見運転のレベルを含む前記運転者注意力の監視結果を決定するステップと、を含むことを特徴とする項目1または2に記載の方法。
(項目4)
前記時間閾値は、各種の前記定義注視領域にそれぞれ対応する複数の時間閾値を含み、ここで、前記複数種別の定義注視領域における少なくとも2つの異なる種別の定義注視領域に対応する時間閾値は異なり、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定する前記ステップは、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と該当する種別の定義注視領域の時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定するステップを含むことを特徴とする項目3に記載の方法。
(項目5)
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して視線および/または頭部姿勢の検出を行うステップと、
各フレームの顔画像の視線および/または頭部姿勢の検出結果に基づいて、各フレームの顔画像における前記運転者の注視領域の種別を決定するステップと、を含むことを特徴とする項目1から4のいずれか一項に記載の方法。
(項目6)
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、
複数フレームの前記顔画像をニューラルネットワークにそれぞれ入力し、前記ニューラルネットワークを介して、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ出力するステップを含み、ここで、前記ニューラルネットワークは予め注視領域種別のラベリング情報が含まれる顔画像集合を用いて事前にトレーニングして得られるか、または、予め注視領域種別のラベリング情報が含まれる顔画像集合、および前記顔画像集合における各顔画像に基づいて切り出した眼部画像を用いて事前にトレーニングして得られ、前記注視領域種別のラベリング情報は前記複数種別の定義注視領域の1つを含むことを特徴とする項目1から4のいずれか一項に記載の方法。
(項目7)
前記ニューラルネットワークのトレーニングは、
前記顔画像集合における、注視領域種別のラベリング情報が含まれる顔画像を取得するステップと、
前記顔画像における、左眼および/または右眼を含む少なくとも片眼の眼部画像を切り出すステップと、
前記顔画像の第1の特徴および少なくとも片眼の眼部画像の第2の特徴をそれぞれ抽出するステップと、
前記第1の特徴と前記第2の特徴を融合し、第3の特徴を得るステップと、
前記第3の特徴に基づいて前記顔画像の注視領域種別の検出結果を決定するステップと、
前記注視領域種別の検出結果と前記注視領域種別のラベリング情報との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するステップと、を含むことを特徴とする項目6に記載の方法。
(項目8)
前記方法は、
前記運転者注意力の監視結果が脇見運転である場合、前記運転者に対して、文字による注意喚起、音声による注意喚起、香りによる注意喚起、低電流刺激による注意喚起のうちの少なくとも1つを含む脇見運転の注意喚起を促すステップ、または
前記運転者注意力の監視結果が脇見運転である場合、予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係、および前記運転者注意力の監視結果に基づいて、前記運転者の脇見運転のレベルを決定し、予め設定された脇見運転のレベルと脇見運転の注意喚起とのマッピング関係、および前記運転者の脇見運転のレベルに基づいて、前記脇見運転の注意喚起から1つ決定して前記運転者に対して脇見運転の注意喚起を促すステップ、をさらに含むことを特徴とする項目1から7のいずれか一項に記載の方法。
(項目9)
前記予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係は、複数の連続したスライディング時間窓の監視結果がいずれも脇見運転であった場合、前記脇見運転のレベルがスライディング時間窓の数と正に相関しているという関係を含むことを特徴とする項目1から8のいずれか一項に記載の方法。
(項目10)
前記車両に設けられるカメラによって前記車両の運転領域のビデオを収集する前記ステップは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するステップを含み、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップは、画質評価指標に基づいて、収集された複数のビデオの各々に含まれる、前記運転領域に位置する運転者の複数フレームの顔画像における各フレームの顔画像の画質スコアをそれぞれ決定するステップと、前記複数のビデオにおける時刻が揃っている各フレームの顔画像のうち、画質スコアが最も高い顔画像をそれぞれ決定するステップと、画質スコアが最も高い各顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップと、を含む、ことを特徴とする項目1から9のいずれか一項に記載の方法。
(項目11)
前記画質評価指標は、画像に眼部画像が含まれるか否か、画像における眼部領域の精細度、画像における眼部領域の遮蔽状況、画像における眼部領域の眼開閉状態のうちの少なくとも1つを含むことを特徴とする項目10に記載の方法。
(項目12)
前記車両に設けられるカメラによって前記車両の運転領域のビデオを収集する前記ステップは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するステップを含み、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、収集された複数のビデオの各々に含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して、時刻が揃っている各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ検出するステップと、得られた各注視領域種別に多数を占める結果を当該時刻の顔画像の注視領域種別として決定することとを含む、ことを特徴とする項目1から9のいずれか一項に記載の方法。
(項目13)
前記方法は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信するステップ、および/または
前記運転者注意力の監視結果について統計分析を行うステップ、をさらに含むことを特徴とする項目1から12のいずれか一項に記載の方法。
(項目14)
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信した後、さらに
前記サーバまたは前記端末から送信される制御コマンドを受信した場合、前記制御コマンドに従って前記車両を制御するステップを含むことを特徴とする項目13に記載の方法。
(項目15)
車両に設けられるカメラによって前記車両の運転領域のビデオを収集するための第1の制御ユニットと、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するための第1の決定ユニットであって、各フレームの顔画像の注視領域は、事前に前記車両の空間領域の分割を行って得られた複数種別の定義注視領域の1つに属する、第1の決定ユニットと、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定するための第2の決定ユニットと、を含むことを特徴とする運転者注意力の監視装置。
(項目16)
前記事前に前記車両の空間領域の分割を行って得られた前記複数種別の定義注視領域は、左フロントウインドウシールド領域、右フロントウインドウシールド領域、インストルメントパネル領域、車両インナーミラー領域、センターコンソール領域、左バックミラー領域、右バックミラー領域、サンバイザ領域、シフトロッド領域、ハンドル下方領域、助手席領域、および助手席前方のグローブボックス領域の2種以上を含むことを特徴とする項目15に記載の装置。
(項目17)
前記第2の決定ユニットは、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間を決定するための第1の決定サブユニットと、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、脇見運転であるか否かおよび/または脇見運転のレベルを含む前記運転者注意力の監視結果を決定するための第2の決定サブユニットと、を含むことを特徴とする項目15または16に記載の装置。
(項目18)
前記時間閾値は、各種の前記定義注視領域にそれぞれ対応する複数の時間閾値を含み、ここで、前記複数種別の定義注視領域における少なくとも2つの異なる種類の定義注視領域に対応する時間閾値は異なり、
前記第2の決定サブユニットは、さらに前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と該当する種別の定義注視領域の時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定するために用いられることを特徴とする項目17に記載の装置。
(項目19)
前記第1の決定ユニットは、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して視線および/または頭部姿勢の検出を行うための第1の検出サブユニットと、
各フレームの顔画像の視線および/または頭部姿勢の検出結果に基づいて、各フレームの顔画像における前記運転者の注視領域の種別を決定するための第3の決定サブユニットと、を含むことを特徴とする項目15から18のいずれか一項に記載の装置。
(項目20)
前記第1の決定ユニットは、
複数フレームの前記顔画像をニューラルネットワークにそれぞれ入力し、前記ニューラルネットワークを介して、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ出力するための処理サブユニットをさらに含み、ここで、前記ニューラルネットワークは予め注視領域種別のラベリング情報が含まれる顔画像集合を用いて事前にトレーニングして得られるか、または、予め注視領域種別のラベリング情報が含まれる顔画像集合、および前記顔画像集合における各顔画像に基づいて切り出した眼部画像を用いて事前にトレーニングして得られ、前記注視領域種別のラベリング情報は前記複数種別の定義注視領域の1つを含むことを特徴とする項目15から18のいずれか一項に記載の装置。
(項目21)
前記装置は前記ニューラルネットワークのトレーニングユニットをさらに含み、前記トレーニングユニットは、
前記顔画像集合における、注視領域種別のラベリング情報が含まれる顔画像を取得するための取得サブユニットと、
前記顔画像における、左眼および/または右眼を含む少なくとも片眼の眼部画像を切り出すための画像切り出しサブユニットと、
前記顔画像の第1の特徴および少なくとも片眼の眼部画像の第2の特徴をそれぞれ抽出するための特徴抽出サブユニットと、
前記第1の特徴と前記第2の特徴を融合し、第3の特徴を得るための特徴融合サブユニットと、
前記第3の特徴に基づいて前記顔画像の注視領域種別の検出結果を決定するための第4の決定サブユニットと、
前記注視領域種別の検出結果と前記注視領域種別のラベリング情報との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するための調整サブユニットと、を含むことを特徴とする項目20に記載の装置。
(項目22)
前記装置は、
前記運転者注意力の監視結果が脇見運転である場合、前記運転者に対して、文字による注意喚起、音声による注意喚起、香りによる注意喚起、低電流刺激による注意喚起のうちの少なくとも1つを含む脇見運転の注意喚起を促すための注意喚起ユニットと、
前記運転者注意力の監視結果が脇見運転である場合、予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係、および前記運転者注意力の監視結果に基づいて、前記運転者の脇見運転のレベルを決定するための第3の決定ユニットと、
予め設定された脇見運転のレベルと脇見運転の注意喚起とのマッピング関係、および前記運転者の脇見運転のレベルに基づいて、前記脇見運転の注意喚起から1つ決定して前記運転者に対して脇見運転の注意喚起を促す第4の決定ユニットと、をさらに含むことを特徴とする項目15から21のいずれか一項に記載の装置。
(項目23)
前記予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係は、複数の連続したスライディング時間窓の監視結果がいずれも脇見運転であった場合、前記脇見運転のレベルがスライディング時間窓の数と正に相関しているという関係を含むことを特徴とする項目15から22のいずれか一項に記載の装置。
(項目24)
前記第1の制御ユニットは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するためにも用いられ、
前記第1の決定ユニットは、
画質評価指標に基づいて、収集された複数のビデオの各々に含まれる、前記運転領域に位置する運転者の複数フレームの顔画像における各フレームの顔画像の画質スコアをそれぞれ決定するための第5の決定ユニットと、
前記複数のビデオにおける時刻が揃っている各フレームの顔画像のうち、画質スコアが最も高い顔画像をそれぞれ決定するための第6の決定ユニットと、
画質スコアが最も高い各顔画像における前記運転者の注視領域の種別をそれぞれ決定するための第7の決定サブユニットと、をさらに含むことを特徴とする項目15から23のいずれか一項に記載の装置。
(項目25)
前記画質評価指標は、画像に眼部画像が含まれるか否か、画像における眼部領域の精細度、画像における眼部領域の遮蔽状況、画像における眼部領域の眼開閉状態のうちの少なくとも1つを含むことを特徴とする項目24に記載の装置。
(項目26)
前記第1の制御ユニットは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するためにも用いられ、
前記第1の決定ユニットは、
収集された複数のビデオの各々に含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して、時刻が揃っている各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ検出するための第2の検出サブユニットと、
得られた各注視領域種別に多数を占める結果を当該時刻の顔画像の注視領域種別として決定するための第8の決定サブユニットと、をさらに含むことを特徴とする項目15から23のいずれか一項に記載の装置。
(項目27)
前記装置は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信するための送信ユニット、および/または
前記運転者注意力の監視結果について統計分析を行うための分析ユニット、をさらに含むことを特徴とする項目15から26のいずれか一項に記載の装置。
(項目28)
前記装置は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信した後、且つ前記サーバまたは前記端末から送信される制御コマンドを受信した場合、前記制御コマンドに従って前記車両を制御するための第2の制御ユニットをさらに含むことを特徴とする項目27に記載の装置。
(項目29)
コンピュータ実行可能コマンドが記憶されているメモリと、前記メモリ上のコンピュータ実行可能コマンドを実行する時に項目1から14のいずれか一項に記載の方法を実現するプロセッサと、を含むことを特徴とする電子機器。
(項目30)
プロセッサによって実行される時に項目1から14のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されていることを特徴とするコンピュータ可読記憶媒体。
(項目31)
コンピュータ上で実行される時に項目1から14のいずれか一項に記載の方法を実現するコンピュータプログラムまたはコマンドを含むことを特徴とするコンピュータプログラム製品。
Claims (31)
- 車両に設けられるカメラによって前記車両の運転領域のビデオを収集するステップと、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップであって、各フレームの顔画像の注視領域は、事前に前記車両の空間領域の分割を行って得られた複数種別の定義注視領域の1つに属する、ステップと、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定するステップと、を含むことを特徴とする運転者注意力の監視方法。 - 前記事前に前記車両の空間領域の分割を行って得られた前記複数種別の定義注視領域は、左フロントウインドウシールド領域、右フロントウインドウシールド領域、インストルメントパネル領域、車両インナーミラー領域、センターコンソール領域、左バックミラー領域、右バックミラー領域、サンバイザ領域、シフトロッド領域、ハンドル下方領域、助手席領域、および助手席前方のグローブボックス領域の2種以上を含むことを特徴とする請求項1に記載の方法。
- 前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定する前記ステップは、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間を決定するステップと、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、脇見運転であるか否かおよび/または脇見運転のレベルを含む前記運転者注意力の監視結果を決定するステップと、を含むことを特徴とする請求項1または2に記載の方法。 - 前記時間閾値は、各種の前記定義注視領域にそれぞれ対応する複数の時間閾値を含み、ここで、前記複数種別の定義注視領域における少なくとも2つの異なる種別の定義注視領域に対応する時間閾値は異なり、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定する前記ステップは、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と該当する種別の定義注視領域の時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定するステップを含むことを特徴とする請求項3に記載の方法。 - 前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して視線および/または頭部姿勢の検出を行うステップと、
各フレームの顔画像の視線および/または頭部姿勢の検出結果に基づいて、各フレームの顔画像における前記運転者の注視領域の種別を決定するステップと、を含むことを特徴とする請求項1から4のいずれか一項に記載の方法。 - 前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、
複数フレームの前記顔画像をニューラルネットワークにそれぞれ入力し、前記ニューラルネットワークを介して、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ出力するステップを含み、ここで、前記ニューラルネットワークは予め注視領域種別のラベリング情報が含まれる顔画像集合を用いて事前にトレーニングして得られるか、または、予め注視領域種別のラベリング情報が含まれる顔画像集合、および前記顔画像集合における各顔画像に基づいて切り出した眼部画像を用いて事前にトレーニングして得られ、前記注視領域種別のラベリング情報は前記複数種別の定義注視領域の1つを含むことを特徴とする請求項1から4のいずれか一項に記載の方法。 - 前記ニューラルネットワークのトレーニングは、
前記顔画像集合における、注視領域種別のラベリング情報が含まれる顔画像を取得するステップと、
前記顔画像における、左眼および/または右眼を含む少なくとも片眼の眼部画像を切り出すステップと、
前記顔画像の第1の特徴および少なくとも片眼の眼部画像の第2の特徴をそれぞれ抽出するステップと、
前記第1の特徴と前記第2の特徴を融合し、第3の特徴を得るステップと、
前記第3の特徴に基づいて前記顔画像の注視領域種別の検出結果を決定するステップと、
前記注視領域種別の検出結果と前記注視領域種別のラベリング情報との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するステップと、を含むことを特徴とする請求項6に記載の方法。 - 前記方法は、
前記運転者注意力の監視結果が脇見運転である場合、前記運転者に対して、文字による注意喚起、音声による注意喚起、香りによる注意喚起、低電流刺激による注意喚起のうちの少なくとも1つを含む脇見運転の注意喚起を促すステップ、または
前記運転者注意力の監視結果が脇見運転である場合、予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係、および前記運転者注意力の監視結果に基づいて、前記運転者の脇見運転のレベルを決定し、予め設定された脇見運転のレベルと脇見運転の注意喚起とのマッピング関係、および前記運転者の脇見運転のレベルに基づいて、前記脇見運転の注意喚起から1つ決定して前記運転者に対して脇見運転の注意喚起を促すステップ、をさらに含むことを特徴とする請求項1から7のいずれか一項に記載の方法。 - 前記予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係は、複数の連続したスライディング時間窓の監視結果がいずれも脇見運転であった場合、前記脇見運転のレベルがスライディング時間窓の数と正に相関しているという関係を含むことを特徴とする請求項1から8のいずれか一項に記載の方法。
- 前記車両に設けられるカメラによって前記車両の運転領域のビデオを収集する前記ステップは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するステップを含み、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップは、画質評価指標に基づいて、収集された複数のビデオの各々に含まれる、前記運転領域に位置する運転者の複数フレームの顔画像における各フレームの顔画像の画質スコアをそれぞれ決定するステップと、前記複数のビデオにおける時刻が揃っている各フレームの顔画像のうち、画質スコアが最も高い顔画像をそれぞれ決定するステップと、画質スコアが最も高い各顔画像における前記運転者の注視領域の種別をそれぞれ決定するステップと、を含む、ことを特徴とする請求項1から9のいずれか一項に記載の方法。 - 前記画質評価指標は、画像に眼部画像が含まれるか否か、画像における眼部領域の精細度、画像における眼部領域の遮蔽状況、画像における眼部領域の眼開閉状態のうちの少なくとも1つを含むことを特徴とする請求項10に記載の方法。
- 前記車両に設けられるカメラによって前記車両の運転領域のビデオを収集する前記ステップは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するステップを含み、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定する前記ステップは、収集された複数のビデオの各々に含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して、時刻が揃っている各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ検出するステップと、得られた各注視領域種別に多数を占める結果を当該時刻の顔画像の注視領域種別として決定することとを含む、ことを特徴とする請求項1から9のいずれか一項に記載の方法。 - 前記方法は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信するステップ、および/または
前記運転者注意力の監視結果について統計分析を行うステップ、をさらに含むことを特徴とする請求項1から12のいずれか一項に記載の方法。 - 前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信した後、さらに
前記サーバまたは前記端末から送信される制御コマンドを受信した場合、前記制御コマンドに従って前記車両を制御するステップを含むことを特徴とする請求項13に記載の方法。 - 車両に設けられるカメラによって前記車両の運転領域のビデオを収集するための第1の制御ユニットと、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に基づいて、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ決定するための第1の決定ユニットであって、各フレームの顔画像の注視領域は、事前に前記車両の空間領域の分割を行って得られた複数種別の定義注視領域の1つに属する、第1の決定ユニットと、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記運転者注意力の監視結果を決定するための第2の決定ユニットと、を含むことを特徴とする運転者注意力の監視装置。 - 前記事前に前記車両の空間領域の分割を行って得られた前記複数種別の定義注視領域は、左フロントウインドウシールド領域、右フロントウインドウシールド領域、インストルメントパネル領域、車両インナーミラー領域、センターコンソール領域、左バックミラー領域、右バックミラー領域、サンバイザ領域、シフトロッド領域、ハンドル下方領域、助手席領域、および助手席前方のグローブボックス領域の2種以上を含むことを特徴とする請求項15に記載の装置。
- 前記第2の決定ユニットは、
前記ビデオ内の少なくとも1つのスライディング時間窓内に含まれる各フレームの顔画像の前記注視領域の各々の種別分布に基づいて、前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間を決定するための第1の決定サブユニットと、
前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と予め定められた時間閾値との比較結果に基づいて、脇見運転であるか否かおよび/または脇見運転のレベルを含む前記運転者注意力の監視結果を決定するための第2の決定サブユニットと、を含むことを特徴とする請求項15または16に記載の装置。 - 前記時間閾値は、各種の前記定義注視領域にそれぞれ対応する複数の時間閾値を含み、ここで、前記複数種別の定義注視領域における少なくとも2つの異なる種類の定義注視領域に対応する時間閾値は異なり、
前記第2の決定サブユニットは、さらに前記少なくとも1つのスライディング時間窓内の各種の前記注視領域の注視累計時間と該当する種別の定義注視領域の時間閾値との比較結果に基づいて、前記運転者注意力の監視結果を決定するために用いられることを特徴とする請求項17に記載の装置。 - 前記第1の決定ユニットは、
前記ビデオに含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して視線および/または頭部姿勢の検出を行うための第1の検出サブユニットと、
各フレームの顔画像の視線および/または頭部姿勢の検出結果に基づいて、各フレームの顔画像における前記運転者の注視領域の種別を決定するための第3の決定サブユニットと、を含むことを特徴とする請求項15から18のいずれか一項に記載の装置。 - 前記第1の決定ユニットは、
複数フレームの前記顔画像をニューラルネットワークにそれぞれ入力し、前記ニューラルネットワークを介して、各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ出力するための処理サブユニットをさらに含み、ここで、前記ニューラルネットワークは予め注視領域種別のラベリング情報が含まれる顔画像集合を用いて事前にトレーニングして得られるか、または、予め注視領域種別のラベリング情報が含まれる顔画像集合、および前記顔画像集合における各顔画像に基づいて切り出した眼部画像を用いて事前にトレーニングして得られ、前記注視領域種別のラベリング情報は前記複数種別の定義注視領域の1つを含むことを特徴とする請求項15から18のいずれか一項に記載の装置。 - 前記装置は前記ニューラルネットワークのトレーニングユニットをさらに含み、前記トレーニングユニットは、
前記顔画像集合における、注視領域種別のラベリング情報が含まれる顔画像を取得するための取得サブユニットと、
前記顔画像における、左眼および/または右眼を含む少なくとも片眼の眼部画像を切り出すための画像切り出しサブユニットと、
前記顔画像の第1の特徴および少なくとも片眼の眼部画像の第2の特徴をそれぞれ抽出するための特徴抽出サブユニットと、
前記第1の特徴と前記第2の特徴を融合し、第3の特徴を得るための特徴融合サブユニットと、
前記第3の特徴に基づいて前記顔画像の注視領域種別の検出結果を決定するための第4の決定サブユニットと、
前記注視領域種別の検出結果と前記注視領域種別のラベリング情報との差異に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するための調整サブユニットと、を含むことを特徴とする請求項20に記載の装置。 - 前記装置は、
前記運転者注意力の監視結果が脇見運転である場合、前記運転者に対して、文字による注意喚起、音声による注意喚起、香りによる注意喚起、低電流刺激による注意喚起のうちの少なくとも1つを含む脇見運転の注意喚起を促すための注意喚起ユニットと、
前記運転者注意力の監視結果が脇見運転である場合、予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係、および前記運転者注意力の監視結果に基づいて、前記運転者の脇見運転のレベルを決定するための第3の決定ユニットと、
予め設定された脇見運転のレベルと脇見運転の注意喚起とのマッピング関係、および前記運転者の脇見運転のレベルに基づいて、前記脇見運転の注意喚起から1つ決定して前記運転者に対して脇見運転の注意喚起を促す第4の決定ユニットと、をさらに含むことを特徴とする請求項15から21のいずれか一項に記載の装置。 - 前記予め設定された脇見運転のレベルと注意力の監視結果とのマッピング関係は、複数の連続したスライディング時間窓の監視結果がいずれも脇見運転であった場合、前記脇見運転のレベルがスライディング時間窓の数と正に相関しているという関係を含むことを特徴とする請求項15から22のいずれか一項に記載の装置。
- 前記第1の制御ユニットは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するためにも用いられ、
前記第1の決定ユニットは、
画質評価指標に基づいて、収集された複数のビデオの各々に含まれる、前記運転領域に位置する運転者の複数フレームの顔画像における各フレームの顔画像の画質スコアをそれぞれ決定するための第5の決定ユニットと、
前記複数のビデオにおける時刻が揃っている各フレームの顔画像のうち、画質スコアが最も高い顔画像をそれぞれ決定するための第6の決定ユニットと、
画質スコアが最も高い各顔画像における前記運転者の注視領域の種別をそれぞれ決定するための第7の決定サブユニットと、をさらに含むことを特徴とする請求項15から23のいずれか一項に記載の装置。 - 前記画質評価指標は、画像に眼部画像が含まれるか否か、画像における眼部領域の精細度、画像における眼部領域の遮蔽状況、画像における眼部領域の眼開閉状態のうちの少なくとも1つを含むことを特徴とする請求項24に記載の装置。
- 前記第1の制御ユニットは、車上の複数領域にそれぞれ配置される複数のカメラによって、異なる角度から運転領域のビデオをそれぞれ収集するためにも用いられ、
前記第1の決定ユニットは、
収集された複数のビデオの各々に含まれる前記運転領域に位置する運転者の複数フレームの顔画像に対して、時刻が揃っている各フレームの顔画像における前記運転者の注視領域の種別をそれぞれ検出するための第2の検出サブユニットと、
得られた各注視領域種別に多数を占める結果を当該時刻の顔画像の注視領域種別として決定するための第8の決定サブユニットと、をさらに含むことを特徴とする請求項15から23のいずれか一項に記載の装置。 - 前記装置は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信するための送信ユニット、および/または
前記運転者注意力の監視結果について統計分析を行うための分析ユニット、をさらに含むことを特徴とする請求項15から26のいずれか一項に記載の装置。 - 前記装置は、
前記車両と通信接続されるサーバまたは端末に、前記運転者注意力の監視結果を送信した後、且つ前記サーバまたは前記端末から送信される制御コマンドを受信した場合、前記制御コマンドに従って前記車両を制御するための第2の制御ユニットをさらに含むことを特徴とする請求項27に記載の装置。 - コンピュータ実行可能コマンドが記憶されているメモリと、前記メモリ上のコンピュータ実行可能コマンドを実行する時に請求項1から14のいずれか一項に記載の方法を実現するプロセッサと、を含むことを特徴とする電子機器。
- プロセッサによって実行される時に請求項1から14のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されていることを特徴とするコンピュータ可読記憶媒体。
- コンピュータ上で実行される時に請求項1から14のいずれか一項に記載の方法を実現するコンピュータプログラムまたはコマンドを含むことを特徴とするコンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910205328.XA CN111709264A (zh) | 2019-03-18 | 2019-03-18 | 驾驶员注意力监测方法和装置及电子设备 |
CN201910205328.X | 2019-03-18 | ||
PCT/CN2019/119936 WO2020186801A1 (zh) | 2019-03-18 | 2019-11-21 | 驾驶员注意力监测方法和装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021518010A true JP2021518010A (ja) | 2021-07-29 |
JP7105316B2 JP7105316B2 (ja) | 2022-07-22 |
Family
ID=72519412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550127A Active JP7105316B2 (ja) | 2019-03-18 | 2019-11-21 | 運転者注意力の監視方法および装置、ならびに電子機器 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210012128A1 (ja) |
JP (1) | JP7105316B2 (ja) |
KR (1) | KR20200123183A (ja) |
CN (1) | CN111709264A (ja) |
SG (1) | SG11202009677WA (ja) |
TW (1) | TWI741512B (ja) |
WO (1) | WO2020186801A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023106367A1 (de) | 2022-03-22 | 2023-09-28 | Subaru Corporation | Insassenzustands-überwachungsvorrichtung |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7057879B2 (en) * | 2002-11-29 | 2006-06-06 | Honda Motor Co., Ltd. | Polarizable electrode for electric double-layer capacitor, process for producing the polarizable electrode and process for producing the electric double-layer capacitor |
JP7297705B2 (ja) * | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
CN112183386B (zh) * | 2020-09-30 | 2024-03-01 | 中国汽车工程研究院股份有限公司 | 一种关于注视时间的智能座舱测试评价方法 |
CN112258026B (zh) * | 2020-10-21 | 2023-12-15 | 国网江苏省电力有限公司信息通信分公司 | 基于视频身份识别的动态定位调度方法及系统 |
CN112289003B (zh) * | 2020-10-23 | 2022-06-17 | 江铃汽车股份有限公司 | 疲劳驾驶不端驾驶行为监测方法及主动安全驾驶监控系统 |
CN112381025A (zh) * | 2020-11-23 | 2021-02-19 | 恒大新能源汽车投资控股集团有限公司 | 一种驾驶员注意力检测方法、装置、电子设备及存储介质 |
TWI741892B (zh) * | 2020-12-01 | 2021-10-01 | 咸瑞科技股份有限公司 | 車內駕駛監測系統 |
WO2022126419A1 (zh) * | 2020-12-16 | 2022-06-23 | 华为技术有限公司 | 一种后视镜控制的方法以及相关设备 |
CN115179957A (zh) * | 2021-04-01 | 2022-10-14 | 华为技术有限公司 | 一种驾驶提醒方法及装置 |
CN113129170A (zh) * | 2021-04-15 | 2021-07-16 | 浙江绿农生态环境有限公司 | 一种工程渣土分类方法、系统、智能终端及存储介质 |
CN113111789B (zh) * | 2021-04-15 | 2022-12-20 | 山东大学 | 一种基于视频流的面部表情识别方法及系统 |
CN113378771B (zh) * | 2021-06-28 | 2022-07-26 | 济南大学 | 驾驶员状态确定方法、装置、驾驶员监控系统、车辆 |
CN113525402B (zh) * | 2021-07-20 | 2023-06-02 | 张鹏 | 高级辅助驾驶及无人驾驶视场智能响应方法及系统 |
CN113386786B (zh) * | 2021-07-29 | 2023-05-02 | 阿波罗智联(北京)科技有限公司 | 信息提示方法、装置、设备、介质、云控平台和车辆 |
CN113591812A (zh) * | 2021-09-29 | 2021-11-02 | 武汉未来幻影科技有限公司 | 一种驾驶员查看动作的识别方法、装置以及处理设备 |
CN114332451A (zh) * | 2021-12-07 | 2022-04-12 | 虹软科技股份有限公司 | 分心区域的自动标定方法及装置、道路车辆、电子设备 |
EP4239598A1 (en) * | 2022-03-02 | 2023-09-06 | Bayerische Motoren Werke Aktiengesellschaft | Method for determining an attentiveness of a driver of an automated vehicle |
CN114598797A (zh) * | 2022-03-07 | 2022-06-07 | 合众新能源汽车有限公司 | 驾驶员监控系统与舱内监控系统共用补光灯的系统和方法 |
CN114677665A (zh) * | 2022-03-08 | 2022-06-28 | 燕山大学 | 驾驶场景注意力量化方法、装置、电子设备及存储介质 |
DE102022106797B3 (de) | 2022-03-23 | 2023-04-27 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur automatischen Einstellung zumindest eines Rückspiegels eines Kraftfahrzeugs |
CN114399753A (zh) * | 2022-03-25 | 2022-04-26 | 北京魔门塔科技有限公司 | 分心判断方法、装置、存储介质、电子设备及车辆 |
TWI801255B (zh) * | 2022-06-01 | 2023-05-01 | 和碩聯合科技股份有限公司 | 車用隱私保護的方法及系統 |
CN115097933A (zh) * | 2022-06-13 | 2022-09-23 | 华能核能技术研究院有限公司 | 专注度的确定方法、装置、计算机设备和存储介质 |
CN115100725B (zh) * | 2022-08-23 | 2022-11-22 | 浙江大华技术股份有限公司 | 目标识别方法、目标识别装置以及计算机存储介质 |
TWI828457B (zh) * | 2022-12-01 | 2024-01-01 | 鼎天國際股份有限公司 | 駕駛人行為偵測輔助系統 |
CN115909254B (zh) * | 2022-12-27 | 2024-05-10 | 钧捷智能(深圳)有限公司 | 一种基于摄像头原始图像的dms系统及其图像处理方法 |
CN115984787A (zh) * | 2023-03-20 | 2023-04-18 | 齐鲁云商数字科技股份有限公司 | 一种产业大脑公交智能车载实时告警方法 |
CN116052136B (zh) * | 2023-03-27 | 2023-09-05 | 中国科学技术大学 | 分心检测方法、车载控制器和计算机存储介质 |
CN116112645B (zh) * | 2023-04-11 | 2023-11-21 | 重庆华悦生态环境工程研究院有限公司深圳分公司 | 水库环境的多影像传输方法及装置 |
CN117197786B (zh) * | 2023-11-02 | 2024-02-02 | 安徽蔚来智驾科技有限公司 | 驾驶行为检测方法、控制装置及存储介质 |
CN117382644B (zh) * | 2023-12-11 | 2024-02-27 | 安徽蔚来智驾科技有限公司 | 分心驾驶检测方法、计算机设备、存储介质及智能设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307298A (ja) * | 2000-04-24 | 2001-11-02 | Kenwood Corp | 車載用ナビゲーション装置及び表示装置 |
JP2005199814A (ja) * | 2004-01-14 | 2005-07-28 | Omron Corp | 車載アプリケーション選択システム及び車載アプリケーション選択装置 |
JP2006231962A (ja) * | 2005-02-22 | 2006-09-07 | Toyota Motor Corp | 車両用運転支援装置 |
CN102510480A (zh) * | 2011-11-04 | 2012-06-20 | 大连海事大学 | 驾驶员视线自动校准和跟踪系统 |
JP2014213636A (ja) * | 2013-04-23 | 2014-11-17 | アルパイン株式会社 | 車両用表示装置 |
CN106355838A (zh) * | 2016-10-28 | 2017-01-25 | 深圳市美通视讯科技有限公司 | 一种疲劳驾驶检测方法和系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080074618A1 (en) * | 2006-05-15 | 2008-03-27 | Baohua Qi | Fatigue detection device using encoded light signals |
US8344894B2 (en) * | 2009-04-02 | 2013-01-01 | GM Global Technology Operations LLC | Driver drowsy alert on full-windshield head-up display |
US8660735B2 (en) * | 2011-12-14 | 2014-02-25 | General Motors Llc | Method of providing information to a vehicle |
TWI582707B (zh) * | 2012-01-19 | 2017-05-11 | Utechzone Co Ltd | 車內眼控的方法 |
TW201330827A (zh) * | 2012-01-19 | 2013-08-01 | Utechzone Co Ltd | 依據駕駛反射動作之注意力偵測裝置及其方法 |
US9881221B2 (en) * | 2013-10-24 | 2018-01-30 | Conduent Business Services, Llc | Method and system for estimating gaze direction of vehicle drivers |
CN106709420B (zh) * | 2016-11-21 | 2020-07-10 | 厦门瑞为信息技术有限公司 | 一种监测营运车辆驾驶人员驾驶行为的方法 |
CN106585629B (zh) * | 2016-12-06 | 2019-07-12 | 广东泓睿科技有限公司 | 一种车辆控制方法和装置 |
CN107832721B (zh) * | 2017-11-16 | 2021-12-07 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
-
2019
- 2019-03-18 CN CN201910205328.XA patent/CN111709264A/zh active Pending
- 2019-11-21 JP JP2020550127A patent/JP7105316B2/ja active Active
- 2019-11-21 SG SG11202009677WA patent/SG11202009677WA/en unknown
- 2019-11-21 KR KR1020207026835A patent/KR20200123183A/ko not_active IP Right Cessation
- 2019-11-21 WO PCT/CN2019/119936 patent/WO2020186801A1/zh active Application Filing
-
2020
- 2020-03-02 TW TW109106775A patent/TWI741512B/zh active
- 2020-09-28 US US17/034,307 patent/US20210012128A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307298A (ja) * | 2000-04-24 | 2001-11-02 | Kenwood Corp | 車載用ナビゲーション装置及び表示装置 |
JP2005199814A (ja) * | 2004-01-14 | 2005-07-28 | Omron Corp | 車載アプリケーション選択システム及び車載アプリケーション選択装置 |
JP2006231962A (ja) * | 2005-02-22 | 2006-09-07 | Toyota Motor Corp | 車両用運転支援装置 |
CN102510480A (zh) * | 2011-11-04 | 2012-06-20 | 大连海事大学 | 驾驶员视线自动校准和跟踪系统 |
JP2014213636A (ja) * | 2013-04-23 | 2014-11-17 | アルパイン株式会社 | 車両用表示装置 |
CN106355838A (zh) * | 2016-10-28 | 2017-01-25 | 深圳市美通视讯科技有限公司 | 一种疲劳驾驶检测方法和系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023106367A1 (de) | 2022-03-22 | 2023-09-28 | Subaru Corporation | Insassenzustands-überwachungsvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
CN111709264A (zh) | 2020-09-25 |
KR20200123183A (ko) | 2020-10-28 |
WO2020186801A1 (zh) | 2020-09-24 |
US20210012128A1 (en) | 2021-01-14 |
TW202036465A (zh) | 2020-10-01 |
JP7105316B2 (ja) | 2022-07-22 |
TWI741512B (zh) | 2021-10-01 |
SG11202009677WA (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7105316B2 (ja) | 運転者注意力の監視方法および装置、ならびに電子機器 | |
JP7146959B2 (ja) | 運転状態検出方法及び装置、運転者監視システム並びに車両 | |
CN111079476B (zh) | 驾驶状态分析方法和装置、驾驶员监控系统、车辆 | |
KR102391279B1 (ko) | 운전 상태 모니터링 방법 및 장치, 운전자 모니터링 시스템 및 차량 | |
US11726577B2 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
WO2019232972A1 (zh) | 驾驶管理方法和系统、车载智能系统、电子设备、介质 | |
CN113056390A (zh) | 情境驾驶员监控系统 | |
US11783600B2 (en) | Adaptive monitoring of a vehicle using a camera | |
JP2022547479A (ja) | 車載デジタル人に基づくインタラクション | |
US20220203996A1 (en) | Systems and methods to limit operating a mobile phone while driving | |
JP2020525884A (ja) | 車両制御方法及びシステム、車載インテリジェントシステム、電子機器並びに媒体 | |
JP2019528217A (ja) | 資源配分管理を改善するために注意力バッファを使用するシステムおよび方法 | |
KR20210102413A (ko) | 주시 영역 검출 방법과 신경망 트레이닝 방법, 장치 및 디바이스 | |
JP2017007652A (ja) | 言語制御のための文脈を認識する方法、言語制御のための言語制御信号を決定する方法、および方法を実施するための装置 | |
US20230347903A1 (en) | Sensor-based in-vehicle dynamic driver gaze tracking | |
US20190149777A1 (en) | System for recording a scene based on scene content | |
US20240051465A1 (en) | Adaptive monitoring of a vehicle using a camera | |
WO2022224173A1 (en) | Systems and methods for determining driver control over a vehicle | |
CN115891830A (zh) | 一种内后视镜自适应调节方法及系统 | |
CN116985819A (zh) | 驾驶状态监测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7105316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |