JP6970305B2 - 顔姿勢解析方法、装置、デバイス、記憶媒体及びプログラム - Google Patents
顔姿勢解析方法、装置、デバイス、記憶媒体及びプログラム Download PDFInfo
- Publication number
- JP6970305B2 JP6970305B2 JP2020537835A JP2020537835A JP6970305B2 JP 6970305 B2 JP6970305 B2 JP 6970305B2 JP 2020537835 A JP2020537835 A JP 2020537835A JP 2020537835 A JP2020537835 A JP 2020537835A JP 6970305 B2 JP6970305 B2 JP 6970305B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- information
- driver
- posture
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2017年12月25日に中国特許局に提出された、出願番号が201711424986.5であり、出願名称が「顔姿勢解析方法、装置、デバイス、記憶媒体及びプログラム」である中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願により提供される顔姿勢解析方法、ニューラルネットワークのトレーニング方法及び運転状態監視方法は、ワンチップコンピュータ、FPGA(Field Programmable Gate Array、フィールド・プログラマブル・ゲート・アレイ)、CPU(Central Processing Unit、中央処理ユニット)、マイクロプロセッサ等のデータ処理デバイスによりメモリに記憶された対応のコマンドを呼び出すことによって実行されてもよい。
図8は本願を実現するのに適する例示的装置800を示し、装置800は自動車に配置されるコントロールシステム/電子システム、携帯端末(例えば、スマートフォン等)、パーソナルコンピュータ(PC;例えば、デスクトップコンピュータ又はノートパソコン等)、タブレット型コンピュータ及びサーバ等であってよい。図8において装置800は1つ又は複数のプロセッサ、通信部などを含み、前記1つ又は複数のプロセッサは、例えば、1つ又は複数の中央処理ユニット(CPU)801、及び/又は1つ又は複数の画像プロセッサ(GPU)813などであり、プロセッサは、読み取り専用メモリ(ROM)802に記憶された実行可能コマンド又は記憶部808からランダムアクセスメモリ(RAM)803にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部812はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されない。プロセッサは読み取り専用メモリ802及び/又はランダムアクセスメモリ803と通信して実行可能コマンドを実行し、通信バス804を介して通信部812に接続され、通信部812を介して他のターゲットデバイスと通信してよく、それにより本願における対応のステップを完成する。
Claims (19)
- 顔画像の顔キーポイントを取得することと、
前記顔画像の顔キーポイントをニューラルネットワークに入力して、前記ニューラルネットワークから出力される前記顔画像の顔姿勢情報を取得することと、を含み、
前記ニューラルネットワークのトレーニング方法は、
トレーニングデータセットから、顔キーポイントと顔姿勢アノテーション情報を含むトレーニングデータを取得することと、
前記トレーニングデータにおける顔キーポイントを、トレーニング対象であるニューラルネットワークに入力して、前記トレーニング対象であるニューラルネットワークから出力される顔姿勢情報を取得することと、
前記トレーニング対象であるニューラルネットワークから出力される顔姿勢情報と前記トレーニングデータ中の顔姿勢アノテーション情報との差をガイダンス情報として、前記トレーニング対象であるニューラルネットワークに対して教師あり学習を行うこととを、含むことを特徴とする顔姿勢解析方法。 - 前記顔姿勢情報は、
X軸を中心に回転する情報、Y軸を中心に回転する情報及びZ軸を中心に回転する情報のうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。 - 前記顔画像の顔キーポイントを取得することは、
畳み込みニューラルネットワークを用いて被処理顔画像の顔キーポイントを取得することを含み、
前記顔画像の顔キーポイントをニューラルネットワークに入力することは、
前記被処理顔画像の顔キーポイントに対して座標正規化処理を行い、座標正規化処理後の顔キーポイントをニューラルネットワークに入力することを含むことを特徴とする請求項1又は2に記載の方法。 - 前記ニューラルネットワークは、顔キーポイントと顔姿勢アノテーション情報を含むトレーニングデータに基づいて予めトレーニングして得られるものであり、
前記ニューラルネットワークは、正規化線形ユニットを備えた少なくとも2つの全結合層と出力層とされる1つの全結合層とを含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。 - 前記X軸を中心に回転する情報は、X軸を中心に回転する角度を含み、及び/又は、
前記Y軸を中心に回転する情報は、Y軸を中心に回転する角度を含み、及び/又は
前記Z軸を中心に回転する情報は、Z軸を中心に回転する角度を含むことを特徴とする請求項2又は4に記載の方法。 - 前記顔画像の顔姿勢情報に基づいて、前記顔画像に対して、顔識別、顔変形処理、美顔処理、メイクアップ処理、顔の画像レンダリング処理、顔状態検出処理、表情検出処理、器官微細位置決定処理及び運転状態決定処理のうちの少なくとも1つを含む処理を行うことを更に含むことを特徴とする請求項1〜5のいずれか一項に記載の方法。
- 前記トレーニングデータセットにおけるトレーニングデータの生成方法は、
顔画像サンプルの顔キーポイントを取得することと、
前記顔画像サンプルの顔キーポイントに基づいて、3次元顔モデルを用いて前記顔画像サンプルの顔姿勢アノテーション情報を決定することと、を含み、
前記顔画像サンプルの顔キーポイントと顔画像サンプルの顔姿勢アノテーション情報が、トレーニングデータセットにおける1つのトレーニングデータとされることを特徴とする請求項1に記載の方法。 - 前記顔画像サンプルの顔キーポイントに基づいて、3次元顔モデルを用いて前記顔画像サンプルの顔姿勢アノテーション情報を決定することは、
勾配降下法により3次元顔モデルのパラメータを調整して、前記顔画像サンプルの顔キーポイントとパラメータ調整後の3次元顔モデルの顔キーポイントとを投影して得られた2次元顔キーポイントの間の距離の和を最適化して、前記顔画像サンプルの顔姿勢アノテーション情報を決定することを含み、
前記の3次元顔モデルのパラメータを調整することは、
3次元顔モデルの位置、3次元顔モデルの姿勢及び3次元顔モデルの表情のうちの少なくとも1つを調整することを含むことを特徴とする請求項7に記載の方法。 - 前記トレーニングデータセットにおけるトレーニングデータの生成方法は、
トレーニングデータセットにおける1つのトレーニングデータを取得し、当該一つのトレーニングデータにおける顔キーポイントに対して座標変換を行い、且つ顔キーポイントの座標変換により当該一つのトレーニングデータ中の顔姿勢アノテーション情報に対して、対応する変換を行うことと、
変換処理後の顔キーポイントと顔姿勢アノテーション情報とを1つの新しいトレーニングデータとして前記トレーニングデータセットに加えることと、を含むことを特徴とする請求項1〜8のいずれか一項に記載の方法。 - 顔が正面顔である時に、顔キーポイントの、Y軸を中心に回転する情報とZ軸を中心に回転する角情報がいずれも回転していないことを示すとした場合に、前記の当該一つのトレーニングデータにおける顔キーポイントに対して座標変換を行い、且つ顔キーポイントの座標変換により当該一つのトレーニングデータ中の顔姿勢アノテーション情報に対して、対応する変換を行うことは、当該一つのトレーニングデータにおける顔キーポイントのX軸座標に対してミラーリング処理を行い、且つ当該一つのトレーニングデータ中の顔姿勢アノテーション情報中のY軸を中心に回転する情報とZ軸を中心に回転する情報とに対してそれぞれ負の値をとることを含み、
又は、
前記の当該一つのトレーニングデータにおける顔キーポイントに対して座標変換を行い、且つ顔キーポイントの座標変換により当該一つのトレーニングデータ中の顔姿勢アノテーション情報に対して、対応する変換を行うことは、当該一つのトレーニングデータにおける顔キーポイントの座標を所定の角度で2次元回転させ、且つこの所定の角度に基づいて、当該一つのトレーニングデータ中の顔姿勢アノテーション情報中のZ軸を中心に回転する情報を調整することを含むことを特徴とする請求項9に記載の方法。 - 請求項1〜10のいずれか一項に記載の顔姿勢解析方法を用いて、車載カメラにより収集された運転者画像の顔姿勢情報を得ることと、
所定時間内の運転者画像の顔姿勢情報に基づいて、注意散漫運転状態及び疲労運転状態のうちの少なくとも1つを含む運転者の運転状態を決定することと、を含むことを特徴とする運転状態監視方法。 - 所定時間内の運転者画像の顔キーポイントにより運転者の開眼閉眼動作を決定することを更に含み、前記の所定時間内の運転者画像の顔姿勢情報に基づいて、運転者の運転状態を決定することは、所定時間内の運転者画像の顔姿勢情報及び前記開眼閉眼動作に基づいて、運転者の運転状態を決定することを含み、
又は、
所定時間内の運転者画像の顔キーポイントに基づいて、運転者の開口閉口動作を決定することを更に含み、前記の所定時間内の運転者画像の顔姿勢情報に基づいて、運転者の運転状態を決定することは、所定時間内の運転者画像の顔姿勢情報及び前記開口閉口動作に基づいて、運転者の運転状態を決定することを含むことを特徴とする請求項11に記載の方法。 - 運転者画像の手部キーポイントを取得することと、
所定時間内の運転者画像の顔キーポイントと手部キーポイントに基づいて、運転者の手の顔部領域での滞留状態を決定することと、を更に含み、
前記の所定時間内の運転者画像の顔姿勢情報に基づいて、運転者の運転状態を決定することは、
所定時間内の運転者画像の顔姿勢情報及び前記滞留状態に基づいて、運転者の運転状態を決定することを含むことを特徴とする請求項11に記載の方法。 - 所定時間内の運転者画像の顔キーポイントに基づいて、運転者の顔向き方向を決定することを更に含み、
前記の所定時間内の運転者画像の顔姿勢情報に基づいて、運転者の運転状態を決定することは、
所定時間内の運転者画像の顔姿勢情報及び前記顔向き方向に基づいて、運転者の運転状態を決定することを含むことを特徴とする請求項11に記載の方法。 - 前記の運転者の運転状態を決定したに、
前記運転者の運転状態が所定の警告条件を満たしたことに応答して、
警告通知情報を出力する操作、
クラウドサーバ又は所定の関連付け通信端末に情報を送信する操作であって、前記情報が、前記運転者の運転状態、前記運転者の運転状態に対応する少なくとも1フレームの運転者画像のうちの少なくとも1つを含む操作、
の少なくとも一項を実行することを更に含み、ことを特徴とする請求項11〜14のいずれか一項に記載の方法。 - 顔画像の顔キーポイントを取得するためのキーポイント取得モジュールと、
前記顔画像の顔キーポイントをニューラルネットワークに入力して、前記ニューラルネットワークから出力される前記顔画像の顔姿勢情報を取得するための姿勢取得モジュールと、を含み、
前記ニューラルネットワークは、
トレーニングデータセットから、顔キーポイントと顔姿勢アノテーション情報を含むトレーニングデータを取得することと、
前記トレーニングデータにおける顔キーポイントを、トレーニング対象であるニューラルネットワークに入力して、前記トレーニング対象であるニューラルネットワークから出力される顔姿勢情報を取得することと、
前記トレーニング対象であるニューラルネットワークから出力される顔姿勢情報と前記トレーニングデータ中の顔姿勢アノテーション情報との差をガイダンス情報として、前記トレーニング対象であるニューラルネットワークに対して教師あり学習を行うこととを実施することによって、トレーニングされることを特徴とする顔姿勢解析装置。 - 請求項16に記載の顔姿勢解析装置を用いて、車載カメラにより収集された運転者画像の顔姿勢情報を得るものと、
所定時間内の運転者画像の顔姿勢情報に基づいて、注意散漫運転状態及び疲労運転状態のうちの少なくとも1つを含む運転者の運転状態を決定するための運転状態決定モジュールと、を含むことを特徴とする運転状態監視装置。 - コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されたコンピュータプログラムを実行し、前記コンピュータプログラムが実行される時に、上記請求項1〜15のいずれか一項に記載の方法を実現するためのプロセッサと、を含む電子デバイス。 - コンピュータプログラムが記憶されたコンピュータ読み取り可能記憶媒体であって、当該コンピュータプログラムがプロセッサにより実行される時に、上記請求項1〜15のいずれか一項に記載の方法を実現するコンピュータ読み取り可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711424986.5 | 2017-12-25 | ||
CN201711424986.5A CN109960986A (zh) | 2017-12-25 | 2017-12-25 | 人脸姿态分析方法、装置、设备、存储介质以及程序 |
PCT/CN2018/123156 WO2019128932A1 (zh) | 2017-12-25 | 2018-12-24 | 人脸姿态分析方法、装置、设备、存储介质以及程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020535568A JP2020535568A (ja) | 2020-12-03 |
JP6970305B2 true JP6970305B2 (ja) | 2021-11-24 |
Family
ID=67021409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537835A Active JP6970305B2 (ja) | 2017-12-25 | 2018-12-24 | 顔姿勢解析方法、装置、デバイス、記憶媒体及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11341769B2 (ja) |
JP (1) | JP6970305B2 (ja) |
CN (1) | CN109960986A (ja) |
SG (1) | SG11202002740SA (ja) |
WO (1) | WO2019128932A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN110059522B (zh) * | 2018-01-19 | 2021-06-25 | 北京市商汤科技开发有限公司 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
US10970571B2 (en) * | 2018-06-04 | 2021-04-06 | Shanghai Sensetime Intelligent Technology Co., Ltd. | Vehicle control method and system, vehicle-mounted intelligent system, electronic device, and medium |
US10915769B2 (en) | 2018-06-04 | 2021-02-09 | Shanghai Sensetime Intelligent Technology Co., Ltd | Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium |
CN110490067A (zh) * | 2019-07-11 | 2019-11-22 | 平安科技(深圳)有限公司 | 一种基于人脸姿态的人脸识别方法及装置 |
CN110555404A (zh) * | 2019-08-29 | 2019-12-10 | 西北工业大学 | 基于人体姿态识别的飞翼无人机地面站交互装置及方法 |
CN110781728B (zh) * | 2019-09-16 | 2020-11-10 | 北京嘀嘀无限科技发展有限公司 | 一种人脸朝向估计方法、装置、电子设备及存储介质 |
CN110956691B (zh) * | 2019-11-21 | 2023-06-06 | Oppo广东移动通信有限公司 | 一种三维人脸重建方法、装置、设备及存储介质 |
CN111297367A (zh) * | 2019-11-26 | 2020-06-19 | 北京海益同展信息科技有限公司 | 一种动物状态监测方法、装置、电子设备及存储介质 |
CN111368751A (zh) * | 2020-03-06 | 2020-07-03 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN111476709B (zh) * | 2020-04-09 | 2023-04-07 | 广州方硅信息技术有限公司 | 人脸图像处理方法、装置及电子设备 |
CN111814573A (zh) * | 2020-06-12 | 2020-10-23 | 深圳禾思众成科技有限公司 | 一种人脸信息的检测方法、装置、终端设备及存储介质 |
CN111768485B (zh) * | 2020-06-28 | 2024-01-12 | 北京百度网讯科技有限公司 | 三维图像的关键点标注方法、装置、电子设备及存储介质 |
CN112200765B (zh) * | 2020-09-04 | 2024-05-14 | 浙江大华技术股份有限公司 | 车辆中被误检的关键点的确定方法及装置 |
CN112165573B (zh) * | 2020-09-14 | 2023-04-18 | 上海商汤智能科技有限公司 | 拍摄处理方法和装置、设备、存储介质 |
CN112183657B (zh) * | 2020-10-14 | 2022-03-01 | 北京字跳网络技术有限公司 | 获取标注信息的方法、装置、电子设备和计算机可读介质 |
CN112287820A (zh) * | 2020-10-28 | 2021-01-29 | 广州虎牙科技有限公司 | 人脸检测神经网络及训练方法、人脸检测方法、存储介质 |
CN112287855B (zh) * | 2020-11-02 | 2024-05-10 | 东软睿驰汽车技术(沈阳)有限公司 | 基于多任务神经网络的驾驶行为检测方法和装置 |
CN112489036A (zh) * | 2020-12-14 | 2021-03-12 | Oppo(重庆)智能科技有限公司 | 图像评价方法、图像评价装置、存储介质与电子设备 |
CN112622892B (zh) * | 2020-12-14 | 2023-03-24 | 深圳技术大学 | 基于人脸和肢体姿态识别的紧急制动方法及系统 |
CN112699784A (zh) * | 2020-12-29 | 2021-04-23 | 深圳市普渡科技有限公司 | 一种人脸朝向估计方法、装置、电子设备及存储介质 |
CN112734632B (zh) * | 2021-01-05 | 2024-02-27 | 百果园技术(新加坡)有限公司 | 图像处理方法、装置、电子设备和可读存储介质 |
CN112861776A (zh) * | 2021-03-05 | 2021-05-28 | 罗普特科技集团股份有限公司 | 一种基于密集关键点的人体姿态分析方法和系统 |
CN115082978A (zh) * | 2021-03-10 | 2022-09-20 | 佳能株式会社 | 面部姿态的检测装置、方法、图像处理系统及存储介质 |
WO2022234741A1 (en) * | 2021-05-05 | 2022-11-10 | Nec Corporation | Methods and apparatuses for processing an image |
CN113239861B (zh) * | 2021-05-28 | 2024-05-28 | 多伦科技股份有限公司 | 驾驶员头部动作的确定方法、存储介质、电子装置 |
CN113379832B (zh) * | 2021-06-23 | 2022-06-07 | 南京领行科技股份有限公司 | 一种摄像头的位姿调整方法、装置、电子设备及存储介质 |
CN113453034B (zh) * | 2021-06-29 | 2023-07-25 | 上海商汤智能科技有限公司 | 数据展示方法、装置、电子设备以及计算机可读存储介质 |
CN113850198B (zh) * | 2021-09-27 | 2024-06-07 | 平安科技(深圳)有限公司 | 基于边缘计算的行为检测方法、装置、介质及计算机设备 |
CN113947799B (zh) * | 2021-11-11 | 2023-03-14 | 石家庄学院 | 三维人脸数据预处理方法及设备 |
CN114220149A (zh) * | 2021-12-09 | 2022-03-22 | 东软睿驰汽车技术(沈阳)有限公司 | 一种头部姿势真值的获取方法、装置、设备及存储介质 |
CN114496263B (zh) * | 2022-04-13 | 2022-07-12 | 杭州研极微电子有限公司 | 用于体重指数估计的神经网络模型建立方法及存储介质 |
CN114549711B (zh) * | 2022-04-27 | 2022-07-12 | 广州公评科技有限公司 | 一种基于表情肌定位的视频智能渲染方法和系统 |
GB2621863A (en) * | 2022-08-25 | 2024-02-28 | Continental Automotive Tech Gmbh | Pose classification and in-cabin monitoring methods and associated systems |
CN116597427B (zh) * | 2023-07-18 | 2023-10-20 | 山东科技大学 | 一种基于深度学习的舰船驾驶台身份识别方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060011399A1 (en) | 2004-07-15 | 2006-01-19 | International Business Machines Corporation | System and method for controlling vehicle operation based on a user's facial expressions and physical state |
JP4501937B2 (ja) | 2004-11-12 | 2010-07-14 | オムロン株式会社 | 顔特徴点検出装置、特徴点検出装置 |
JP4795281B2 (ja) * | 2007-03-15 | 2011-10-19 | 本田技研工業株式会社 | 車両の安全装置 |
JP5451302B2 (ja) * | 2009-10-19 | 2014-03-26 | キヤノン株式会社 | 画像処理装置及び方法、プログラム及び記憶媒体 |
US9405982B2 (en) * | 2013-01-18 | 2016-08-02 | GM Global Technology Operations LLC | Driver gaze detection system |
CN103605965A (zh) * | 2013-11-25 | 2014-02-26 | 苏州大学 | 一种多姿态人脸识别方法和装置 |
CN105096528B (zh) | 2015-08-05 | 2017-07-11 | 广州云从信息科技有限公司 | 一种疲劳驾驶检测方法及系统 |
EP3345127A4 (en) | 2015-08-31 | 2019-08-21 | SRI International | METHOD AND SYSTEM FOR MONITORING DRIVING BEHAVIORS |
CN105389570A (zh) * | 2015-11-19 | 2016-03-09 | 吴建忠 | 一种人脸角度判定方法及其系统 |
CN106897658B (zh) * | 2015-12-18 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 人脸活体的鉴别方法和装置 |
CN105354565A (zh) | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
CN105719248B (zh) * | 2016-01-14 | 2019-06-21 | 深圳市商汤科技有限公司 | 一种实时的人脸变形方法及其系统 |
CN105760836A (zh) * | 2016-02-17 | 2016-07-13 | 厦门美图之家科技有限公司 | 基于深度学习的多角度人脸对齐方法、系统及拍摄终端 |
CN106257489A (zh) * | 2016-07-12 | 2016-12-28 | 乐视控股(北京)有限公司 | 表情识别方法及系统 |
CN106203376B (zh) | 2016-07-19 | 2020-04-10 | 北京旷视科技有限公司 | 人脸关键点定位方法及装置 |
CN106339680B (zh) | 2016-08-25 | 2019-07-23 | 北京小米移动软件有限公司 | 人脸关键点定位方法及装置 |
CN106384098B (zh) * | 2016-09-23 | 2019-11-26 | 北京小米移动软件有限公司 | 基于图像的头部姿态检测方法、装置以及终端 |
CN106651910A (zh) * | 2016-11-17 | 2017-05-10 | 北京蓝天多维科技有限公司 | 驾驶员异常行为状态的智能图像分析方法和告警系统 |
CN106909879A (zh) | 2017-01-11 | 2017-06-30 | 开易(北京)科技有限公司 | 一种疲劳驾驶检测方法及系统 |
CN107038429A (zh) * | 2017-05-03 | 2017-08-11 | 四川云图睿视科技有限公司 | 一种基于深度学习的多任务级联人脸对齐方法 |
CN107194381A (zh) * | 2017-07-06 | 2017-09-22 | 重庆邮电大学 | 基于Kinect的驾驶员状态监测系统 |
CN107609519B (zh) * | 2017-09-15 | 2019-01-22 | 维沃移动通信有限公司 | 一种人脸特征点的定位方法及装置 |
-
2017
- 2017-12-25 CN CN201711424986.5A patent/CN109960986A/zh active Pending
-
2018
- 2018-12-24 JP JP2020537835A patent/JP6970305B2/ja active Active
- 2018-12-24 SG SG11202002740SA patent/SG11202002740SA/en unknown
- 2018-12-24 WO PCT/CN2018/123156 patent/WO2019128932A1/zh active Application Filing
-
2020
- 2020-03-19 US US16/823,392 patent/US11341769B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN109960986A (zh) | 2019-07-02 |
WO2019128932A1 (zh) | 2019-07-04 |
SG11202002740SA (en) | 2020-04-29 |
US11341769B2 (en) | 2022-05-24 |
JP2020535568A (ja) | 2020-12-03 |
US20200218883A1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6970305B2 (ja) | 顔姿勢解析方法、装置、デバイス、記憶媒体及びプログラム | |
US11227147B2 (en) | Face image processing methods and apparatuses, and electronic devices | |
US11747898B2 (en) | Method and apparatus with gaze estimation | |
US10915167B2 (en) | Rendering rich media content based on head position information | |
Hasan et al. | RETRACTED ARTICLE: Static hand gesture recognition using neural networks | |
CN109196526B (zh) | 用于生成多模态数字图像的方法和系统 | |
US11481869B2 (en) | Cross-domain image translation | |
US20210174519A1 (en) | Scalable Real-Time Hand Tracking | |
WO2018219198A1 (zh) | 一种人机交互方法、装置及人机交互终端 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
US9747695B2 (en) | System and method of tracking an object | |
CN115039166A (zh) | 增强现实地图管理 | |
Shukran et al. | Kinect-based gesture password recognition | |
Koutras et al. | Estimation of eye gaze direction angles based on active appearance models | |
US20230040793A1 (en) | Performance of Complex Optimization Tasks with Improved Efficiency Via Neural Meta-Optimization of Experts | |
Jha et al. | Estimation of gaze region using two dimensional probabilistic maps constructed using convolutional neural networks | |
EP4315171A1 (en) | Unsupervised learning of object representations from video sequences using attention over space and time | |
Kacete et al. | Unconstrained gaze estimation using random forest regression voting | |
EP3872768A1 (en) | Method for processing two-dimensional image and device for executing method | |
Mahbub et al. | Contactless human monitoring: Challenges and future direction | |
Moreira et al. | Fast and accurate gesture recognition based on motion shapes | |
Salam Khan | Mask segmentation and classification with enhanced grasshopper optimization of 3D hand gestures | |
Harish et al. | Vision‐Based Gesture Recognition: A Critical Review | |
Uke et al. | Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video | |
Jhon et al. | Simulation of a Wheelchair Control System Based on Computer Vision Through Head Movements for Quadriplegic People |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |