JP7252348B2 - 注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイス - Google Patents
注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイス Download PDFInfo
- Publication number
- JP7252348B2 JP7252348B2 JP2021540840A JP2021540840A JP7252348B2 JP 7252348 B2 JP7252348 B2 JP 7252348B2 JP 2021540840 A JP2021540840 A JP 2021540840A JP 2021540840 A JP2021540840 A JP 2021540840A JP 7252348 B2 JP7252348 B2 JP 7252348B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- neural network
- face image
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、出願日が2019年3月18日であり、出願番号が201910204566.9であり、発明名称が「注視エリア検出およびニューラルネットワークのトレーニング方法、装置、及びデバイス」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
本発明は、コンピュータビジョン技術に関し、特に注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイスに関する。
||Wyi||xi||φ(θyi)
は、前記の中間ベクトルと呼ばれ得、j=yiであると、画像特徴と顔画像の注視エリア種類ラベリング情報に対応する種類の重みとに対して内積を実行することを表す。
Claims (16)
- 注視エリア検出用ニューラルネットワークトレーニング方法であって、
少なくともトレーニングサンプルとする顔画像および当該顔画像に対応する注視エリア種類ラベリング情報を前記ニューラルネットワークに入力することと、
前記ニューラルネットワークを利用して入力された前記顔画像に対して特徴抽出を実行し、抽出された特徴に基づいて前記顔画像の注視エリア種類予測情報を確定することと、
前記注視エリア種類予測情報と前記注視エリア種類ラベリング情報との間の差異を確定することと、
前記差異に基づいて前記ニューラルネットワークのパラメータを調整することと、を含み、
ラベリングした注視エリア種類は、指定された空間エリアを事前に分割して得られた複数種類の定義された注視エリアのうちの1つに属し、
抽出された特徴に基づいて前記注視エリア種類予測情報を確定することは、
抽出された特徴および複数の種類重みに対してそれぞれ内積演算を実行して、中間ベクトルを得ることと、
前記中間ベクトルに基づいて、前記顔画像の注視エリア種類予測情報を確定することと、を含み、
前記複数の種類重みは、それぞれ前記複数種類の定義された注視エリアに対応され、前記中間ベクトルの次元の数は、前記複数種類の定義された注視エリアの数と等しいし、抽出された特徴および前記注視エリア種類ラベリング情報に対応する種類重みに対して内積演算を実行するときに、当該特徴と当該種類重みとの間のベクトルのなす角のコサイン値を調整することによって、種類間の距離を増やし、種類内の距離を減らす
ことを特徴とする注視エリア検出用ニューラルネットワークトレーニング方法。 - 少なくとも前記顔画像および当該顔画像に対応する注視エリア種類ラベリング情報を前記ニューラルネットワークに入力する前に、前記顔画像内の少なくとも1つの目領域をカッティングして少なくとも1つの目画像を得ることをさらに含み、
少なくとも前記顔画像および当該顔画像に対応する注視エリア種類ラベリング情報を前記ニューラルネットワークに入力することは、
前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することを含む
ことを特徴とする請求項1に記載の注視エリア検出用ニューラルネットワークトレーニング方法。 - 前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することは、
前記顔画像および前記少なくとも1つの目画像を同一の所定のサイズに調整した後に同時に前記ニューラルネットワークに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行することは、
前記ニューラルネットワークを利用して前記顔画像内の特徴および前記少なくとも1つの目画像内の特徴を同時に抽出することを含み、または、
前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することは、
サイズが互いに異なる前記顔画像および前記少なくとも1つの目画像を、それぞれ前記ニューラルネットワークの異なる特徴抽出ブランチに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行し、前記注視エリア種類予測情報を確定することは、
前記ニューラルネットワークの該当する特徴抽出ブランチを利用して前記顔画像内の特徴および前記少なくとも1つの目画像内の特徴をそれぞれ抽出することと、
前記ニューラルネットワークの該当する特徴抽出ブランチによってそれぞれ抽出された各特徴を融合して融合特徴を得ることと、
前記融合特徴に基づいて前記顔画像の注視エリア種類予測情報を確定することと、を含む
ことを特徴とする請求項2に記載の注視エリア検出用ニューラルネットワークトレーニング方法。 - 前記指定された空間エリアは、車の空間エリアを含み、
前記顔画像は、前記車の空間エリア内の運転エリアに対して収集した画像に基づいて確定され、
前記複数種類の定義された注視エリアは、左フロントガラスエリア、右フロントガラスエリア、インストルメントパネルエリア、インテリアミラーエリア、センターコンソールエリア、左バックミラーエリア、右バックミラーエリア、遮陽板エリア、シフトレバーエリア、ステアリングホイールの下方エリア、副操縦士エリア、副操縦士の前方のグローブボックスエリアの中の少なくとも2種類を含む
ことを特徴とする請求項1~3の中のいずれか1項に記載の注視エリア検出用ニューラルネットワークトレーニング方法。 - 注視エリア検出方法であって、
指定された空間エリア内で収集された画像内の顔領域をカッティングして顔画像を得ることと、
前記顔画像を請求項1~4の中のいずれか1項に記載の注視エリア検出用ニューラルネットワークトレーニング方法により得られたニューラルネットワークに入力することと、
前記ニューラルネットワークを利用して入力された前記顔画像に対して特徴抽出を実行し、抽出された特徴に基づいて前記顔画像に対応する注視エリア検出種類を確定することと、を含み、
前記ニューラルネットワークは、事前に、複数の顔画像サンプルおよび当該複数の顔画像サンプルにそれぞれ対応する注視エリア種類ラベリング情報を含むトレーニングサンプルセットを採用してトレーニングされたものであり、ラベリングした注視エリア種類は、事前に前記指定された空間エリアを分割して得られた複数種類の定義された注視エリアのうちの1つに属する
ことを特徴とする注視エリア検出方法。 - 前記ニューラルネットワークを事前にトレーニングするための前記トレーニングサンプルセットは、それぞれ前記複数の顔画像サンプルからカッティングした複数の目画像サンプルをさらに含み、
前記注視エリア検出方法は、
前記顔画像を得た後に、前記顔画像内の少なくとも1つの目領域をカッティングして少なくとも1つの目画像を得ることをさらに含み、
前記顔画像を前記ニューラルネットワークに入力することは、
前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することを含む
ことを特徴とする請求項5に記載の注視エリア検出方法。 - 前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することは、
前記顔画像および前記少なくとも1つの目画像を同一の所定のサイズに調整した後に同時に前記ニューラルネットワークに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行することは、
前記ニューラルネットワークを利用して前記顔画像内の特徴および前記少なくとも1つの目画像内の特徴を同時に抽出することを含み、または、
前記顔画像および前記少なくとも1つの目画像を同時に前記ニューラルネットワークに入力することは、
サイズが互いに異なる前記顔画像および前記少なくとも1つの目画像を、それぞれ前記ニューラルネットワークの異なる特徴抽出ブランチに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行し、前記注視エリア検出種類を確定することは、
前記ニューラルネットワークの該当する特徴抽出ブランチを利用して前記顔画像内の特徴および前記少なくとも1つの目画像内の特徴をそれぞれ抽出することと、
前記ニューラルネットワークの該当する特徴抽出ブランチによってそれぞれ抽出された各特徴を融合して融合特徴を得ることと、
前記融合特徴に基づいて前記顔画像に対応する注視エリア検出種類を確定することと、を含む
ことを特徴とする請求項6に記載の注視エリア検出方法。 - 前記注視エリア検出方法は、前記指定された空間エリア内で収集された画像内の顔領域をカッティングする前に、
当該指定された空間エリアに配置された複数のカメラを利用して、同じ時点で当該指定された空間エリアの1つの特定のサブエリアに対して異なる角度からそれぞれ収集された複数の画像を取得することと、
画像品質に基づいて指標を評価して、前記複数の画像の中の画像品質スコアがいちばん高い画像を確定することと、をさらに含み、
前記指定された空間エリア内で収集された画像内の顔領域をカッティングすることは、前記画像品質スコアがいちばん高い画像内の顔領域をカッティングすることを含む
ことを特徴とする請求項5乃至7の中のいずれか1項に記載の注視エリア検出方法。 - 前記注視エリア検出方法は、前記指定された空間エリア内で収集された画像内の顔領域をカッティングする前に、
当該指定された空間エリアに配置された複数のカメラを利用して、同じ時点で当該指定された空間エリアの1つの特定のサブエリアに対して異なる角度からそれぞれ収集された複数の画像を取得することと、
画像品質に基づいて指標を評価して、前記複数の画像の中の画像品質スコアがいちばん高い画像を確定することと、をさらに含み、
前記指定された空間エリア内で収集された画像内の顔領域をカッティングして顔画像を得ることは、
前記複数の画像内の顔領域をそれぞれカッティングして該当する複数の顔画像を得ることを含み、
前記顔画像を前記ニューラルネットワークに入力することは、
当該複数の顔画像をそれぞれ前記ニューラルネットワークに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行し、前記顔画像に対応する注視エリア検出種類を確定することは、
当該複数の顔画像内の各々の顔画像に対して、前記ニューラルネットワークを利用して当該顔画像に対して特徴抽出を実行し、抽出された特徴に基づいて当該顔画像に対応する注視エリア検出種類を確定することを含み、
前記注視エリア検出方法は、
確定された、当該複数の顔画像にそれぞれ対応する複数の注視エリア検出種類から、前記画像品質スコアがいちばん高い画像に関連される顔画像に対応する注視エリア検出種類を前記時点での注視エリア検出種類として選択することをさらに含む
ことを特徴とする請求項5乃至7の中のいずれか1項に記載の注視エリア検出方法。 - 前記画像品質評価指標は、画像内に目画像が含まれているか否か、画像内の目領域の解像度、画像内の目領域の遮蔽状況、画像内の目の開/閉状況の中の少なくとも1つを含む
ことを特徴とする請求項8または9に記載の注視エリア検出方法。 - 前記注視エリア検出方法は、
前記指定された空間エリア内で収集された画像内の顔領域をカッティングする前に、当該指定された空間エリアに配置された複数のカメラを利用して、同じ時点で当該指定された空間エリアの1つの特定のサブエリアに対して異なる角度からそれぞれ収集された複数の画像を取得することをさらに含み、
前記指定された空間エリア内で収集された画像内の顔領域をカッティングして顔画像を得ることは、
前記複数の画像内の顔領域をそれぞれカッティングして該当する複数の顔画像を得ることを含み、
前記顔画像を前記ニューラルネットワークに入力することは、
当該複数の顔画像をそれぞれ前記ニューラルネットワークに入力することを含み、
入力された前記顔画像に対して特徴抽出を実行し、前記顔画像に対応する注視エリア検出種類を確定することは、
当該複数の顔画像内の各々の顔画像に対して、前記ニューラルネットワークを利用して当該顔画像に対して特徴抽出を実行し、抽出された特徴に基づいて当該顔画像に対応する注視エリア検出種類を確定することを含み、
前記注視エリア検出方法は、
確定された当該複数の顔画像にそれぞれ対応する複数の注視エリア検出種類の中の過半数の結果を前記時点での注視エリア検出種類として選択することをさらに含む
ことを特徴とする請求項5乃至7の中のいずれか1項に記載の注視エリア検出方法。 - 前記指定された空間エリアは、車の空間エリアを含み、
前記指定された空間エリア内で収集された画像は、前記車の空間エリア内の運転エリアに対して収集された画像を含み、
前記複数種類の定義された注視エリアは、左フロントガラスエリア、右フロントガラスエリア、インストルメントパネルエリア、インテリアミラーエリア、センターコンソールエリア、左バックミラーエリア、右バックミラーエリア、遮陽板エリア、シフトレバーエリア、ステアリングホイールの下方エリア、副操縦士エリア、副操縦士の前方のグローブボックスエリアの中の少なくとも2種類を含む
ことを特徴とする請求項5乃至11の中のいずれか1項に記載の注視エリア検出方法。 - 前記注視エリア検出種類に基づいて注視エリア種類検出結果を得、当該注視エリア種類検出結果に基づいて、前記顔画像に対応する人物の注意力モニタリング結果を確定することと、
前記注意力モニタリング結果を出力し、および/または、前記注意力モニタリング結果に基づいて注意散漫プロンプト情報を出力することと、をさらに含み、または、
前記注視エリア検出種類に基づいて注視エリア種類検出結果を得、前記注視エリア種類検出結果に対応する制御命令を確定することと、
電子デバイスが前記制御命令に該当する操作を実行するように制御することと、をさらに含む
ことを特徴とする請求項5乃至12の中のいずれか1項に記載の注視エリア検出方法。 - 注視エリア検出用ニューラルネットワークのトレーニングデバイスであって、
メモリとプロセッサとを備え、
前記メモリには、前記プロセッサによって実行されるコンピュータ命令が記憶されており、
前記プロセッサが前記コンピュータ命令を実行するときに、請求項1乃至4の中のいずれか1項に記載の方法が実現される
ことを特徴とする注視エリア検出用ニューラルネットワークのトレーニングデバイス。 - 注視エリア検出デバイスであって、
メモリとプロセッサとを備え、
前記メモリには、前記プロセッサによって実行されるコンピュータ命令が記憶されており、
前記プロセッサが前記コンピュータ命令を実行するときに、請求項5乃至13の中のいずれか1項に記載の方法が実現される
ことを特徴とする注視エリア検出デバイス。 - コンピュータプログラムが記憶されているコンピュータ可読記録媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、当該プロセッサが、請求項1乃至4の中のいずれか1項に記載の方法を実現するようにし、または、
前記コンピュータプログラムがプロセッサによって実行されると、当該プロセッサが、請求項5至13の中のいずれか1項に記載の方法を実現するようにする
ことを特徴とするコンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204566.9A CN111723596B (zh) | 2019-03-18 | 2019-03-18 | 注视区域检测及神经网络的训练方法、装置和设备 |
CN201910204566.9 | 2019-03-18 | ||
PCT/CN2019/129893 WO2020186883A1 (zh) | 2019-03-18 | 2019-12-30 | 注视区域检测及神经网络训练的方法、装置和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517121A JP2022517121A (ja) | 2022-03-04 |
JP7252348B2 true JP7252348B2 (ja) | 2023-04-04 |
Family
ID=72518968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540840A Active JP7252348B2 (ja) | 2019-03-18 | 2019-12-30 | 注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイス |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7252348B2 (ja) |
KR (1) | KR20210102413A (ja) |
CN (1) | CN111723596B (ja) |
WO (1) | WO2020186883A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113842B2 (en) * | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
CN112541436B (zh) * | 2020-12-15 | 2024-05-07 | 平安科技(深圳)有限公司 | 专注度分析方法、装置、电子设备及计算机存储介质 |
CN112656431A (zh) * | 2020-12-15 | 2021-04-16 | 中国科学院深圳先进技术研究院 | 基于脑电的注意力识别方法、装置、终端设备和存储介质 |
CN112560783A (zh) * | 2020-12-25 | 2021-03-26 | 京东数字科技控股股份有限公司 | 用于评估关注状态的方法、装置、系统、介质及产品 |
CN113065997B (zh) * | 2021-02-27 | 2023-11-17 | 华为技术有限公司 | 一种图像处理方法、神经网络的训练方法以及相关设备 |
CN113052064B (zh) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
CN113283340B (zh) * | 2021-05-25 | 2022-06-14 | 复旦大学 | 一种基于眼表特征的疫苗接种情况检测方法、装置及系统 |
CN113391699B (zh) * | 2021-06-10 | 2022-06-21 | 昆明理工大学 | 一种基于动态眼动指标的眼势交互模型方法 |
CN113900519A (zh) * | 2021-09-30 | 2022-01-07 | Oppo广东移动通信有限公司 | 注视点获取方法、装置以及电子设备 |
KR20230054982A (ko) * | 2021-10-18 | 2023-04-25 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN114863093B (zh) * | 2022-05-30 | 2024-05-31 | 厦门大学 | 基于眼动技术的神经网络训练方法及建筑设计方法和系统 |
CN116048244B (zh) * | 2022-07-29 | 2023-10-20 | 荣耀终端有限公司 | 一种注视点估计方法及相关设备 |
CN116030512B (zh) * | 2022-08-04 | 2023-10-31 | 荣耀终端有限公司 | 注视点检测方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407935A (zh) * | 2016-09-21 | 2017-02-15 | 俞大海 | 基于人脸图像和眼动注视信息的心理测试方法 |
DE112017007252T5 (de) * | 2017-03-14 | 2019-12-19 | Omron Corporation | Fahrerüberwachungsvorrichtung, fahrerüberwachungsverfahren, lernvorrichtung und lernverfahren |
CN108229284B (zh) * | 2017-05-26 | 2021-04-09 | 北京市商汤科技开发有限公司 | 视线追踪及训练方法和装置、系统、电子设备和存储介质 |
CN107590482A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 信息生成方法和装置 |
CN107697069B (zh) * | 2017-10-31 | 2020-07-28 | 上海汽车集团股份有限公司 | 汽车驾驶员疲劳驾驶智能控制方法 |
CN109002753B (zh) * | 2018-06-01 | 2022-07-08 | 上海大学 | 一种基于卷积神经网络级联的大场景监控图像人脸检测方法 |
CN108985181B (zh) * | 2018-06-22 | 2020-07-24 | 华中科技大学 | 一种基于检测分割的端对端人脸标注方法 |
CN109446892B (zh) * | 2018-09-14 | 2023-03-24 | 杭州宇泛智能科技有限公司 | 基于深度神经网络的人眼注意力定位方法及系统 |
CN109460780A (zh) * | 2018-10-17 | 2019-03-12 | 深兰科技(上海)有限公司 | 人工神经网络的车辆安全驾驶检测方法、装置及存储介质 |
-
2019
- 2019-03-18 CN CN201910204566.9A patent/CN111723596B/zh active Active
- 2019-12-30 WO PCT/CN2019/129893 patent/WO2020186883A1/zh active Application Filing
- 2019-12-30 JP JP2021540840A patent/JP7252348B2/ja active Active
- 2019-12-30 KR KR1020217022190A patent/KR20210102413A/ko not_active Application Discontinuation
Non-Patent Citations (2)
Title |
---|
Iman Rahmansyah Tayibnapis et al.,Driver's gaze zone estimation by transfer learning,2018 IEEE International Conference on Consumer Electronics(ICCE),IEEE,2018年,https://ieeexplore.ieee.org/document/8326308 |
In-Ho Choi et al.,Real-time categorization of driver's gaze zone using the deep learning techniques,2016 International Conference on Big Data and Smart Computing (BigComp),IEEE,2016年,pp.143-148,https://ieeexplore.ieee.org/document/7425813 |
Also Published As
Publication number | Publication date |
---|---|
JP2022517121A (ja) | 2022-03-04 |
CN111723596A (zh) | 2020-09-29 |
CN111723596B (zh) | 2024-03-22 |
WO2020186883A1 (zh) | 2020-09-24 |
KR20210102413A (ko) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7252348B2 (ja) | 注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイス | |
JP7244655B2 (ja) | 注視エリア検出方法、装置、及び電子デバイス | |
US10867195B2 (en) | Systems and methods for monitoring driver state | |
CN110167823B (zh) | 用于驾驶员监测的系统和方法 | |
US10748446B1 (en) | Real-time driver observation and progress monitoring | |
TWI741512B (zh) | 駕駛員注意力監測方法和裝置及電子設備 | |
US20210357670A1 (en) | Driver Attention Detection Method | |
US9881221B2 (en) | Method and system for estimating gaze direction of vehicle drivers | |
US20200357124A1 (en) | Method and apparatus for tracking object | |
US11112791B2 (en) | Selective compression of image data during teleoperation of a vehicle | |
US9613459B2 (en) | System and method for in-vehicle interaction | |
JP2020509466A (ja) | 完全な畳み込みアーキテクチャを使用する運転者の視覚的注意のための計算フレームワークのシステム及び方法 | |
CN110678873A (zh) | 基于级联神经网络的注意力检测方法、计算机装置及计算机可读存储介质 | |
García et al. | Driver monitoring based on low-cost 3-D sensors | |
CN105829938A (zh) | 用于制作场景图像的设备 | |
WO2020231401A1 (en) | A neural network for head pose and gaze estimation using photorealistic synthetic data | |
CN106092123B (zh) | 一种视频导航方法及装置 | |
JP2020126625A (ja) | ディープニューラルネットワークを基盤としたイメージ分析を通じて人の状態及び走行環境を識別して自律走行を補助する自律走行補助眼鏡 | |
KR101986734B1 (ko) | 차량 운전 보조 장치 및 이의 안전 운전 유도 방법 | |
US20200209850A1 (en) | Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine | |
US20210380143A1 (en) | Handover assistant for machine to driver transitions | |
Ma et al. | Cemformer: Learning to predict driver intentions from in-cabin and external cameras via spatial-temporal transformers | |
JP7474160B2 (ja) | 情報処理装置 | |
Palazzi et al. | Where should you attend while driving? | |
WO2021112048A1 (ja) | 運転分析装置、及び運転分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A603 | Late request for extension of time limit during examination |
Free format text: JAPANESE INTERMEDIATE CODE: A603 Effective date: 20221124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7252348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |