JP7244655B2 - 注視エリア検出方法、装置、及び電子デバイス - Google Patents
注視エリア検出方法、装置、及び電子デバイス Download PDFInfo
- Publication number
- JP7244655B2 JP7244655B2 JP2021540793A JP2021540793A JP7244655B2 JP 7244655 B2 JP7244655 B2 JP 7244655B2 JP 2021540793 A JP2021540793 A JP 2021540793A JP 2021540793 A JP2021540793 A JP 2021540793A JP 7244655 B2 JP7244655 B2 JP 7244655B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- area
- face image
- information
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 166
- 210000003128 head Anatomy 0.000 claims description 85
- 238000000034 method Methods 0.000 claims description 70
- 238000012549 training Methods 0.000 claims description 62
- 230000001815 facial effect Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
Description
本発明は、出願日が2019年3月18日であり、出願番号が201910204793.1であり、発明名称が「注視エリア検出方法、装置、及び電子デバイス」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
本発明は、コンピュータビジョン技術の分野に関し、特に、注視エリア検出方法、装置、及び電子デバイスに関する。
Claims (17)
- 注視エリア検出方法であって、
所定の3次元空間で収集された顔画像を取得することと、
前記顔画像に基づいて視線検出を実行して視線検出結果を得ることであって、前記視線検出結果は、前記顔画像内の人物の視線開始点情報および視線方向情報を含むことと、
前記視線検出結果を前記所定の3次元空間に対して事前にトレーニングされた注視エリア分類器に入力して、前記顔画像に対応する目標注視エリアの種類を検出することと、を含み、
ここで、前記目標注視エリアは、前記所定の3次元空間を事前に分割することにより得られた複数種類の定義された注視エリアのうちの1つに属する
ことを特徴とする注視エリア検出方法。 - 前記顔画像に基づいて視線検出を実行して視線検出結果を得ることは、
前記顔画像内の目の位置を検出することと、
前記目の位置が両目の位置を含む場合、前記両目の中間位置を前記視線開始点情報として確定することと、を含むか、または、
前記顔画像内の目の位置を検出することと、
前記目の位置が両目の位置を含む場合、前記両目中の任意の1つの目の位置を前記視線開始点情報として確定し、または、前記目の位置が片目の位置を含む場合、前記片目の位置を前記視線開始点情報として確定することと、を含む
ことを特徴とする請求項1に記載の注視エリア検出方法。 - 前記顔画像内の目の位置を検出することは、
前記顔画像内の人物の頭部姿態情報を検出することと、
前記頭部姿態情報に基づいて前記顔画像内の目の位置を確定することと、を含む
ことを特徴とする請求項2に記載の注視エリア検出方法。 - 前記顔画像に基づいて視線検出を実行して視線検出結果を得ることは、
前記顔画像内の人物の頭部姿態情報を検出することと、
前記頭部姿態情報に基づいて前記顔画像内の人物の視線方向情報を検出することと、を含む
ことを特徴とする請求項1に記載の注視エリア検出方法。 - 前記顔画像内の人物の頭部姿態情報を検出することは、
前記顔画像内の複数の顔キーポイントを検出することと、
前記顔キーポイントおよび所定の平均顔モデルに基づいて、前記顔画像内の人物の頭部姿態情報を確定することと、を含む
ことを特徴とする請求項3または4に記載の注視エリア検出方法。 - 前記頭部姿態情報に基づいて前記顔画像内の人物の視線方向情報を検出することは、
前記頭部姿態情報に基づいて前記顔画像に対して正規化処理を行って、正規化された顔画像を得ることと、
前記正規化された顔画像に基づいて視線方向検出を実行して、第1検出視線方向を得ることと、
前記第1検出視線方向に対して座標逆変換処理を行って、前記顔画像内の人物の視線方向情報を得ることと、を含む
ことを特徴とする請求項4または5に記載の注視エリア検出方法。 - 前記頭部姿態情報に基づいて前記顔画像に対して正規化処理を行って正規化された顔画像を得ることは、
前記頭部姿態情報に基づいて前記顔画像内の人物の頭部座標系を確定することと、
前記頭部座標系に基づいて前記顔画像に対応する実際のカメラ座標系に対して回転および平行移動を行って、仮想カメラ座標系を得ることと、
前記実際のカメラ座標系と前記仮想カメラ座標系との間の位置変換関係に基づいて、前記顔画像に対して正規化処理を行って、前記正規化された顔画像を得ることと、を含む
ことを特徴とする請求項6に記載の注視エリア検出方法。 - 前記注視エリア分類器は、前記所定の3次元空間に対するトレーニングサンプルセットに基づいて事前にトレーニングされ、ここで、前記トレーニングサンプルセットは、複数の視線特徴サンプルを含み、各前記視線特徴サンプルは、視線開始点情報、視線方向情報、および、当該視線特徴サンプルに対応する注視エリア種類のラベリング情報を含み、ラベリングした注視エリアの種類は、前記所定の3次元空間を分割して得られた前記複数種類の定義された注視エリアのうちの1つに属する
ことを特徴とする請求項1乃至7の中のいずれか1項に記載の注視エリア検出方法。 - 複数の空間分布が異なる3次元空間のそれぞれに対して事前にトレーニングされた複数の注視エリア分類器から、前記所定の3次元空間に対して事前にトレーニングされた注視エリア分類器を決定することをさらに含む
ことを特徴とする請求項1乃至8の中のいずれか1項に記載の注視エリア検出方法。 - 前記所定の3次元空間で収集された顔画像を取得する前に、
少なくとも1つの前記視線特徴サンプルの前記視線開始点情報および前記視線方向情報をトレーニング待ちの注視エリア分類器に入力して、当該視線特徴サンプルに対応する注視エリア種類予測情報を得ることと、
前記注視エリア種類予測情報と当該視線特徴サンプルに対応する注視エリア種類のラベリング情報との間の偏差に基づいて、前記注視エリア分類器に対してパラメータ調整を実行して、前記注視エリア分類器をトレーニングすることと、をさらに含むか、または、
前記所定の3次元空間の空間識別子に基づいて所定の注視エリア分類器セットから前記空間識別子に対応する注視エリア分類器を取得することをさらに含み、
ここで、前記所定の注視エリア分類器セットは、異なる3次元空間の空間識別子にそれぞれ対応する注視エリア分類器を含む
ことを特徴とする請求項8に記載の注視エリア検出方法。 - 前記所定の3次元空間は、車両空間を含む
ことを特徴とする請求項1乃至10の中のいずれか1項に記載の注視エリア検出方法。 - 前記顔画像は、前記車両空間内の運転エリアに対して収集された画像に基づいて確定され、
前記複数種類の定義された注視エリアは、左フロントガラスエリア、右フロントガラスエリア、インストルメントパネルエリア、インテリアミラーエリア、センターコンソールエリア、左バックミラーエリア、右バックミラーエリア、シェーディングプレートエリア、シフトレバーエリア、ステアリングホイールの下方エリア、副操縦士エリア、副操縦士の前方のグローブボックスエリアの中の少なくとも2種類を含む
ことを特徴とする請求項11に記載の注視エリア検出方法。 - 注視エリア種類検出結果に基づいて、前記顔画像に対応する人物の注意力モニタリング結果を確定することと、
前記注意力モニタリング結果を出力し、および/または、前記注意力モニタリング結果に基づいて注意散漫プロンプト情報を出力することと、をさらに含む
ことを特徴とする請求項1乃至12の中のいずれか1項に記載の注視エリア検出方法。 - 注視エリア種類検出結果に対応する制御命令を確定することと、
電子デバイスが前記制御命令に該当する操作を実行するように制御することと、をさらに含む
ことを特徴とする請求項1乃至13の中のいずれか1項に記載の注視エリア検出方法。 - 注視エリア検出装置であって、
所定の3次元空間で収集された顔画像を取得するための画像取得モジュールと、
前記顔画像に基づいて視線検出を実行して視線検出結果を得るための視線検出モジュールであって、前記視線検出結果は、前記顔画像内の人物の視線開始点情報および視線方向情報を含む視線検出モジュールと、
前記視線検出結果を前記所定の3次元空間に対して事前にトレーニングされた注視エリア分類器に入力して、前記顔画像に対応する目標注視エリアの種類を検出するための注視エリア検出モジュールと、を備え、
ここで、前記目標注視エリアは、前記所定の3次元空間を事前に分割することにより得られた複数種類の定義された注視エリアのうちの1つに属する
ことを特徴とする注視エリア検出装置。 - コンピュータプログラムが記憶されているコンピュータ可読記録媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、当該プロセッサが、請求項1乃至14の中のいずれか1項に記載の方法を実現するようにする
ことを特徴とするコンピュータ可読記録媒体。 - 電子デバイスであって、
メモリとプロセッサとを備え、
ここで、前記メモリには、コンピュータプログラムが記憶されており、
前記プロセッサが前記コンピュータプログラムを実行するときに、請求項1乃至14の中のいずれか1項に記載の方法が実現される
ことを特徴とする電子デバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910204793.1A CN111723828A (zh) | 2019-03-18 | 2019-03-18 | 注视区域检测方法、装置及电子设备 |
CN201910204793.1 | 2019-03-18 | ||
PCT/CN2019/127833 WO2020186867A1 (zh) | 2019-03-18 | 2019-12-24 | 注视区域检测方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517254A JP2022517254A (ja) | 2022-03-07 |
JP7244655B2 true JP7244655B2 (ja) | 2023-03-22 |
Family
ID=72519550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540793A Active JP7244655B2 (ja) | 2019-03-18 | 2019-12-24 | 注視エリア検出方法、装置、及び電子デバイス |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7244655B2 (ja) |
KR (1) | KR20210104107A (ja) |
CN (1) | CN111723828A (ja) |
WO (1) | WO2020186867A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434741A (zh) * | 2020-11-25 | 2021-03-02 | 杭州盛世传奇标识系统有限公司 | 一种互动介绍标识的使用方法、系统、装置和存储介质 |
CN112580522A (zh) * | 2020-12-22 | 2021-03-30 | 北京每日优鲜电子商务有限公司 | 睡眠人员检测方法、装置、设备及存储介质 |
WO2022141114A1 (zh) * | 2020-12-29 | 2022-07-07 | 深圳市大疆创新科技有限公司 | 视线估计方法、装置、车辆及计算机可读存储介质 |
CN112766097B (zh) * | 2021-01-06 | 2024-02-13 | 中国科学院上海微系统与信息技术研究所 | 视线识别模型的训练方法、视线识别方法、装置及设备 |
CN112733740A (zh) * | 2021-01-14 | 2021-04-30 | 深圳数联天下智能科技有限公司 | 一种注意力信息的生成方法、装置、终端设备及存储介质 |
CN113115086B (zh) * | 2021-04-16 | 2023-09-19 | 浙江闪链科技有限公司 | 基于视频视线识别对电梯媒体收视信息进行采集的方法 |
CN113692371A (zh) * | 2021-06-30 | 2021-11-23 | 华为技术有限公司 | 一种目标位置的确定方法、确定装置及确定系统 |
CN113627267A (zh) * | 2021-07-15 | 2021-11-09 | 中汽创智科技有限公司 | 一种视线检测方法、装置、设备及介质 |
CN113569785A (zh) * | 2021-08-04 | 2021-10-29 | 上海汽车集团股份有限公司 | 驾驶状态感知方法及装置 |
CN113807330B (zh) * | 2021-11-19 | 2022-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 面向资源受限场景的三维视线估计方法及装置 |
KR20230101580A (ko) * | 2021-12-29 | 2023-07-06 | 삼성전자주식회사 | 안구 모델에 기초하여 센싱 범위를 결정하는 시선 추적 방법, 장치 및 시선 추적 센서 |
CN114967935B (zh) * | 2022-06-29 | 2023-04-07 | 深圳职业技术学院 | 基于视线估计的交互方法、装置、终端设备及存储介质 |
CN116030512B (zh) * | 2022-08-04 | 2023-10-31 | 荣耀终端有限公司 | 注视点检测方法及装置 |
CN115761871B (zh) * | 2022-12-01 | 2023-08-11 | 北京中科睿医信息科技有限公司 | 基于眼动检测的检测图像生成方法、装置、设备及介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106293031B (zh) * | 2015-06-04 | 2019-05-21 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CN107878326A (zh) * | 2016-09-30 | 2018-04-06 | 法乐第(北京)网络科技有限公司 | 车辆驾驶辅助装置及车辆驾驶辅助控制方法 |
CN106891811A (zh) * | 2017-03-15 | 2017-06-27 | 黄建平 | 一种汽车显示系统 |
US10843686B2 (en) * | 2017-06-08 | 2020-11-24 | Envisics Ltd | Augmented reality (AR) visualization of advanced driver-assistance system |
JP6638701B2 (ja) * | 2017-06-08 | 2020-01-29 | トヨタ自動車株式会社 | 運転意識推定装置 |
CN107590482A (zh) * | 2017-09-29 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | 信息生成方法和装置 |
CN107679490B (zh) * | 2017-09-29 | 2019-06-28 | 百度在线网络技术(北京)有限公司 | 用于检测图像质量的方法和装置 |
CN108875524B (zh) * | 2018-01-02 | 2021-03-02 | 北京旷视科技有限公司 | 视线估计方法、装置、系统和存储介质 |
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
-
2019
- 2019-03-18 CN CN201910204793.1A patent/CN111723828A/zh active Pending
- 2019-12-24 JP JP2021540793A patent/JP7244655B2/ja active Active
- 2019-12-24 KR KR1020217022187A patent/KR20210104107A/ko not_active Application Discontinuation
- 2019-12-24 WO PCT/CN2019/127833 patent/WO2020186867A1/zh active Application Filing
Non-Patent Citations (1)
Title |
---|
Borhan Vasli et al.,On Driver Gaze Estimation: Explorations and Fusion of Geometric and Data Driven Approaches,2016 IEEE 19th International Conference on Intelligent Transportation Systems (ITSC),IEEE,2016年,pp.655-660,https://ieeexplore.ieee.org/document/7795623 |
Also Published As
Publication number | Publication date |
---|---|
CN111723828A (zh) | 2020-09-29 |
KR20210104107A (ko) | 2021-08-24 |
WO2020186867A1 (zh) | 2020-09-24 |
JP2022517254A (ja) | 2022-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7244655B2 (ja) | 注視エリア検出方法、装置、及び電子デバイス | |
EP3491493B1 (en) | Gesture based control of autonomous vehicles | |
CN111566612A (zh) | 基于姿势和视线的视觉数据采集系统 | |
Yang et al. | Fast depth prediction and obstacle avoidance on a monocular drone using probabilistic convolutional neural network | |
WO2019214313A1 (zh) | 一种车辆定损的交互处理方法、装置、处理设备及客户端 | |
JP7252348B2 (ja) | 注視エリア検出方法とニューラルネットワークトレーニング方法、装置、及びデバイス | |
CN105916730B (zh) | 车辆视镜调节 | |
García et al. | Driver monitoring based on low-cost 3-D sensors | |
WO2019184573A1 (en) | Passenger-related item loss mitigation | |
US9383826B2 (en) | System and method for recognizing user's gesture for carrying out operation of vehicle | |
CN112590794A (zh) | 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置 | |
US20150116493A1 (en) | Method and system for estimating gaze direction of vehicle drivers | |
US20140168061A1 (en) | System and method for manipulating user interface in vehicle using finger valleys | |
CN110853073A (zh) | 确定关注点的方法、装置、设备、系统及信息处理方法 | |
US20220058407A1 (en) | Neural Network For Head Pose And Gaze Estimation Using Photorealistic Synthetic Data | |
US20140152549A1 (en) | System and method for providing user interface using hand shape trace recognition in vehicle | |
US20140168068A1 (en) | System and method for manipulating user interface using wrist angle in vehicle | |
CN110910628B (zh) | 车损图像拍摄的交互处理方法、装置、电子设备 | |
CN113785263A (zh) | 用于在自动驾驶车辆与外部观察者之间的通信的虚拟模型 | |
CN111127837A (zh) | 一种报警方法、摄像机及报警系统 | |
JP7230345B2 (ja) | 情報処理装置及び情報処理プログラム | |
CN113228103A (zh) | 目标跟踪方法、装置、无人机、系统及可读存储介质 | |
Dong et al. | Simultaneous pose and correspondence determination combining softassign and orthogonal iteration | |
CN112655021A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
US20220114748A1 (en) | System and Method for Capturing a Spatial Orientation of a Wearable Device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210714 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210714 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220721 |
|
A603 | Late request for extension of time limit during examination |
Free format text: JAPANESE INTERMEDIATE CODE: A603 Effective date: 20221124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7244655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |