JP2021517312A - 動作認識、運転動作分析の方法及び装置、並びに電子機器 - Google Patents

動作認識、運転動作分析の方法及び装置、並びに電子機器 Download PDF

Info

Publication number
JP2021517312A
JP2021517312A JP2020551540A JP2020551540A JP2021517312A JP 2021517312 A JP2021517312 A JP 2021517312A JP 2020551540 A JP2020551540 A JP 2020551540A JP 2020551540 A JP2020551540 A JP 2020551540A JP 2021517312 A JP2021517312 A JP 2021517312A
Authority
JP
Japan
Prior art keywords
motion
frame
candidate
predetermined
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551540A
Other languages
English (en)
Other versions
JP7061685B2 (ja
Inventor
イエンジエ チェン
イエンジエ チェン
フェイ ワン
フェイ ワン
チェン チエン
チェン チエン
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド, ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2021517312A publication Critical patent/JP2021517312A/ja
Application granted granted Critical
Publication of JP7061685B2 publication Critical patent/JP7061685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本願の実施例は、顔が含まれる画像内の特徴を抽出するステップと、前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を抽出するステップと、前記複数の候補枠に基づいて動作目標枠を特定するステップであって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含むステップと、前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るステップと、を含む動作認識、運転動作分析の方法及び装置、並びに電子機器を開示する。

Description

(関連出願の相互参照)
本願は、出願番号が201811130798.6であり、出願日が2018年9月27日である中国特許出願に基づいて提出されるものであり、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は画像処理の技術分野に関し、特に動作認識、運転動作分析の方法及び装置、並びに電子機器に関する。
近年、動作認識技術はその応用研究が盛んになっており、多くの分野や製品において適用されるようになり、今後、この技術はマンマシンインタラクション発展の潮流となり、特に運転者監視の分野において広範な利用可能性が期待される。
本願の実施例は、動作認識の技術的解決手段及び運転動作分析の技術的解決手段を提供する。
第1の態様によれば、本願の実施例は、顔が含まれる画像内の特徴を抽出するステップと、前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定するステップと、前記複数の候補枠に基づいて動作目標枠を特定するステップであって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含むステップと、前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るステップと、を含む動作認識方法を提供する。
第2の態様によれば、本願の実施例は、車載カメラによって、運転者の顔画像を含むビデオストリームを収集するステップと、本願の実施例に記載の動作認識方法のいずれか1つの実施形態により、前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るステップと、動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するステップと、を含む運転動作分析方法を提供する。
第3の態様によれば、本願の実施例は、顔が含まれる画像の特徴を抽出するための第1の抽出ユニットと、前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定するための第2の抽出ユニットと、前記複数の候補枠に基づいて動作目標枠を特定するための特定ユニットであって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含む特定ユニットと、前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るための分類ユニットと、を含む動作認識装置を提供する。
第4の態様によれば、本願の実施例は、運転者の顔画像を含むビデオストリームを収集するための車載カメラと、本願の実施例に記載の動作認識装置のいずれか1つの実施形態により、前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るための取得ユニットと、動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するための生成ユニットと、を含む運転動作分析装置を提供する。
第5の態様によれば、本願の実施例は、コンピュータ実行可能コマンドが記憶されているメモリと、前記メモリ上のコンピュータ実行可能コマンドを実行する時に、本願の実施例の第1の態様又は第2の態様に記載の方法を実現するプロセッサと、を含む電子機器を提供する。
第6の態様によれば、本願の実施例は、コンピュータ上で実行されると、コンピュータに本願の実施例の第1の態様又は第2の態様に記載の方法を実行させるコマンドが記憶されている、コンピュータ可読記憶媒体を提供する。
第7の態様によれば、本願の実施例は、機器のプロセッサ上で実行されると、本願の実施例の第1の態様又は第2の態様に記載の方法を実現するコンピュータコマンドを含む、コンピュータプログラムを提供する。
本願の実施例では、顔が含まれる画像内の特徴を抽出し、抽出された特徴に基づいて所定動作を含む可能性がある複数の候補枠を特定し、複数の候補枠に基づいて動作目標枠を特定し、さらに動作目標枠に基づいて所定動作を分類し、動作認識結果を得る。本願の実施例に記載の動作目標枠は顔の局所領域及び動作インタラクティブ物体を含むため、動作目標枠に基づいて所定動作を分類するプロセスにおいて、人体部位と動作インタラクティブ物体を別々にするのではなく、顔の局所領域及び動作インタラクティブ物体に対応する動作を全体とし、当該全体に対応する特徴に基づいて分類を行っており、したがって、微細動作の認識、特に顔領域又は顔領域付近の微細動作の認識を実現し、動作認識の正確度及び精度を高めることができる。
本願の実施例が提供する動作認識方法のフローチャートである。 本願の実施例が提供する目標動作枠の模式図である。 本願の実施例が提供する別の動作認識方法のフローチャートである。 本願の実施例が提供する所定動作と類似する動作が含まれる負サンプル画像の模式図である。 本願の実施例が提供する運転動作分析方法のフローチャートである。 本願の実施例が提供するニューラルネットワークのトレーニング方法のフローチャートである。 本願の実施例が提供する飲水動作監視枠の模式図である。 本願の実施例が提供する電話かけ動作監視枠の模式図である。 本願の実施例が提供する動作認識装置の構造模式図である。 本願の実施例が提供するニューラルネットワークのトレーニングコンポーネントの構造模式図である。 本願の実施例が提供する運転動作分析装置の構造模式図である。 本願の実施例が提供する電子機器のハードウェア構成図である。
本願の実施例又は背景技術における技術的解決手段をより明瞭に説明するために、以下、本願の実施例又は背景技術に用いられる図面について説明する。
以下、本願の実施例における図面と関連付けて本願の実施例を説明する。
図1は本願の実施例が提供する動作認識方法のフローチャートであり、図1に示すように、前記方法は以下を含む。
101では、顔が含まれる画像内の特徴を抽出する。
本願の実施例は主に車両乗員の動作を対象として認識する。運転者を例にすると、本願の実施例では、車両運転時に車両の運転者により行われるいくつかの運転動作を認識し、認識結果に応じて運転者にリマインドすることができる。発明者は本願の実施例を実現する過程において、人体キーポイントの検出又は人体姿勢の推定により、運転者が水を飲み、運転者が電話をかけるなどのような車両乗員の顔に関わるいくつかの微細動作を認識することが困難であり、ひいては不可能であることを覚る。本願の実施例では、処理対象画像に対して特徴抽出を行い、抽出された特徴に基づいて処理対象画像内の動作の認識を実現する。上記動作は、手部領域の動作及び/又は顔の局所領域の動作、動作インタラクティブ物体に対する動作などであり得、そのため、車載カメラにより車両乗員の画像を収集し、顔が含まれる処理対象画像を得る必要がある。その後、処理対象画像に対して畳み込み操作を行い、動作特徴を抽出する。
本願の一代替的実施例では、前記方法は、車載カメラによって車両乗員の顔が含まれる画像を撮影するステップをさらに含む。前記車両乗員は、前記車両の運転領域の運転者、前記車両の助手席領域の人、前記車両の後部座席の人の少なくとも1つを含む。
前記車載カメラは、赤緑青(RGB)カメラ、赤外線カメラ又は近赤外線カメラであり得る。
102では、前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定する。
本願の実施例は、主に車両乗員の所定動作を認識し、車両乗員が運転者であることを例にすると、前記所定動作は、例えば運転者の危険運転に対応する所定動作であってもよく、又は運転者に対しての幾つかの危険動作の所定動作であってもよい。一代替的な実施形態では、まず上記所定動作の特徴を定義し、その後ニューラルネットワークにより、定義された特徴及び抽出された画像内の特徴に基づいて、画像に所定動作が存在するか否かを判定し、画像に所定動作が存在すると判定した場合、画像における所定動作が含まれる複数の候補枠を特定する。
本実施例におけるニューラルネットワークはいずれもトレーニングを完了したものであり、即ち、ニューラルネットワークにより画像内の所定動作の特徴を抽出することができる。本願の一代替的実施例では、前記ニューラルネットワークは、複数の畳み込み層を設けて、複数の畳み込み層により画像からより豊富な情報を抽出し、これにより所定動作の判定の正確率を高めるようにしてもよい。
本実施例では、上記抽出された特徴が、手部領域、顔の局所領域、動作インタラクティブ物体対応領域などの少なくとも1つに対応する場合、ニューラルネットワークの特徴抽出処理により、手部領域及び顔の局所領域が含まれる特徴領域を取得し、前記特徴領域に基づいて候補領域を特定し、例えば矩形枠で表されてもよい候補枠により前記候補領域を識別する。同様に、別の候補枠により、手部領域、顔の局所領域及び動作インタラクティブ物体対応領域が含まれる特徴領域を識別する。このように、所定動作に対応する特徴を抽出することで、複数の候補領域を取得し、複数の候補領域に基づいて、複数の候補枠を特定する。
103では、前記複数の候補枠に基づいて動作目標枠を特定し、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含む。
本願の実施例では、認識する動作はいずれも顔に関わる微細動作であり、これらの顔に関わる微細動作の認識を、人体キーポイントの検出により実現することが困難であり、ひいては不可能である。また、これらの微細動作に対応する領域のいずれも、少なくとも顔の局所領域及び動作インタラクティブ物体対応領域という2つの領域を含み、例えば、顔の局所領域及び動作インタラクティブ物体対応領域を含むか、又は顔の局所領域、動作インタラクティブ物体対応領域及び手部領域を含むなどである。したがって、複数の候補枠から得られた動作目標枠内の特徴を認識することで、これらの微細動作の認識が実現可能となる。
本願の一代替的実施例では、前記顔の局所領域は、口部領域、耳部領域、眼部領域の少なくとも1つを含む。前記動作インタラクティブ物体は、容器、煙草、携帯電話、食べ物、工具、飲料ボトル、眼鏡、マスクの少なくとも1つを含む。
本願の一代替的実施例では、前記動作目標枠は、手部領域をさらに含む。
例えば、図2に示される目標動作枠内には、顔の局所、携帯電話(即ち、動作インタラクティブ物体)及び手が含まれる。また例えば、喫煙動作について、目標動作枠内には口部及び煙草(即ち、動作インタラクティブ物体)が含まれ得る。
本実施例では、候補枠には所定動作に対応する特徴以外の特徴が含まれることや、所定動作に対応する全ての特徴(いずれか1つの所定動作の全ての特徴を意味する)が含まれていないことがあり、両者とも最終的な動作認識結果に影響を及ぼす可能性がある。したがって、最終的な認識結果の正確度を保証するためには、候補枠の位置を調整し、即ち、複数の候補枠に基づいて動作目標枠を特定する必要があり、前記動作目標枠の位置及び大きさは、複数の候補枠のうちの少なくとも一部の候補枠の位置及び大きさとの間にずれが生じる可能性がある。図2に示すように、所定動作に対応する特徴の位置及び大きさに基づいて、対応する候補枠の位置オフセット及びズーム倍率を特定し、その後位置オフセット及びズーム倍率に基づいて、候補枠の位置及び大きさを調整することができ、これにより調整後の動作目標枠内には所定動作に対応する特徴のみが含まれ、且つ所定動作に対応する全ての特徴が含まれるようになる。これを基に、各候補枠の位置及び大きさを調整することで、調整後の候補枠を動作目標枠として特定する。調整後の複数の候補枠は1つの候補枠として重ねることができ、この場合、重なった候補枠が動作目標枠として特定されることが理解される。
104では、前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得る。
本願の一代替的実施例では、前記所定動作は、電話かけ、喫煙、水や飲料の飲用、食事、工具の使用、眼鏡かけ、化粧の少なくとも1つを含む。
本実施例では、前記動作目標枠内に含まれる所定動作に対応する特徴に基づいて、所定動作を分類することができる。一実施形態として、動作分類のためのニューラルネットワークにより、前記動作目標枠内に含まれる所定動作に対応する特徴に対して分類処理を行い、特徴に対応する所定動作の分類認識結果を得ることができる。
本願の実施例の動作認識方法によれば、顔が含まれる画像内の特徴を抽出し、抽出された特徴に基づいて所定動作を含む可能性がある複数の候補枠を特定し、その後複数の候補枠に基づいて動作目標枠を特定し、目標動作枠に基づいて所定動作を分類する。本願の実施例では、前記動作目標枠が顔の局所領域及び動作インタラクティブ物体を含むため、動作目標枠に基づいて所定動作を分類するプロセスにおいて、人体部位と動作インタラクティブ物体を別々にするのではなく、顔の局所領域及び動作インタラクティブ物体に対応する動作を全体とし、当該全体に対応する特徴に基づいて分類を行っており、したがって、微細動作の認識、特に顔領域又は顔領域付近の微細動作の認識を実現し、認識の正確度及び精度を高めることができる。
図3は本願の実施例が提供する別の動作認識方法のフローチャートであり、図3に示すように、前記方法は以下を含む。
301では、顔が含まれる処理対象画像を取得する。
本願の一代替的実施例では、処理対象画像を取得する前記ステップは、車載カメラにより車両乗員の写真を撮って処理対象画像を取得するステップを含んでもよく、また車載カメラにより車両乗員をビデオ撮影し、撮影したビデオのフレーム画像を処理対象画像とするようにしてもよい。ここで、前記車両乗員は、前記車両の運転領域の運転者、前記車両の助手席領域の人、前記車両の後部座席の人の少なくとも1つを含む。上記車載カメラはRGBカメラ、赤外線カメラ又は近赤外線カメラであり得る。
RGBカメラは3本の別個のケーブルにより3つの基本の色成分が提供され、このようなカメラは、一般的には3つの独立した電荷結合素子(CCD、Charge Coupled Device)センサで3種類の色信号を取得する。また、RGBカメラは高精度のカラー画像収集に用いることが多い。
現実環境内における光線が複雑で、車内光線はなおさらに、一層複雑になり、一方、光強度は撮影品質に直接影響を及ぼし、特に車内の光強度が低い場合、一般的なカメラは鮮明な写真又はビデオ映像を収集することができず、画像又はビデオの一部の有用な情報が失われ、結果として後続の処理に影響を及ぼす。赤外線カメラは被写体に赤外線を照射し、反射された赤外線に基づいて結像することができ、一般的なカメラの薄暗い光や暗所条件で撮影した画像の品質が低く又は正常に撮影できないという問題を解決することができる。これに基づき、本実施例では、一般的なカメラや赤外線カメラを設置し、光強度が設定値より高い場合、一般的なカメラにより処理対象画像を取得し、光強度が設定値より低い場合、赤外線カメラにより処理対象画像を取得することができる。
302では、ニューラルネットワークの特徴抽出ブランチにより、前記処理対象画像内の特徴を抽出し、特徴マップを得る。
本願の一代替的実施例では、ニューラルネットワークの特徴抽出ブランチにより、処理対象画像に対して畳み込み操作を行い、特徴マップを得る。
一例では、ニューラルネットワークの特徴抽出ブランチにより処理対象画像に対して畳み込み操作を行うのは、畳み込みカーネルを利用して処理対象画像上において「スライド」させることをいう。例えば、畳み込みカーネルが画像の特定の画素点に対応する時、該画素点のグレースケール値を畳み込みカーネルにおける各数値に乗算し、全ての積を加算して畳み込みカーネルに対応する前記画素点のグレースケール値とし、さらに、畳み込みカーネルを次の画素点において「スライド」させ、以降同様にして、最終的には前記処理対象画像における全ての画素点の畳み込み処理を完了し、特徴マップを得る。
本実施例のニューラルネットワークの特徴抽出ブランチは複数の畳み込み層を含み得、前の畳み込み層で特徴抽出により得られた特徴マップが、次の畳み込み層の入力データとして利用可能であり、複数の畳み込み層により画像からより豊富な情報を抽出することで、特徴抽出の正確率が高まることを理解されたい。複数の畳み込み層を含むニューラルネットワークの特徴抽出ブランチにより処理対象画像に対して段階的な畳み込み操作を行うことで、処理対象画像に対応する特徴マップを得ることができる。
303では、上記ニューラルネットワークの候補枠抽出ブランチにより、上記特徴マップ上において、所定動作を含む可能性がある複数の候補枠を特定する。
本実施例では、ニューラルネットワークの候補枠抽出ブランチにより特徴マップを処理することで、所定動作を含む可能性がある複数の候補枠を特定する。例えば、特徴マップには手、煙草、コップ、携帯電話、眼鏡、マスク、顔の局所領域に対応する特徴の少なくとも1つが含まれ得、前記少なくとも1つの特徴に基づいて複数の候補枠を特定する。説明すべきものとして、ステップ302では、ニューラルネットワークの特徴抽出ブランチにより処理対象画像の特徴を抽出することができるが、抽出された特徴には所定動作に対応する特徴以外の他の特徴が含まれることがあるため、ここでのニューラルネットワークの候補枠抽出ブランチにより特定された複数の候補枠のうちに、所定動作に対応する特徴以外の他の特徴が含まれている一部の候補枠が存在する可能性があり、又は所定動作に対応する全ての特徴が含まれていない少なくとも一部の候補枠が存在する可能性があり、したがって、前記複数の候補枠が所定動作を含む可能性がある。
本実施例のニューラルネットワークの候補枠抽出ブランチは複数の畳み込み層を含み得、前の畳み込み層で抽出された特徴は次の畳み込み層の入力データとして利用され、複数の畳み込み層によってより豊富な情報が抽出され、これにより特徴抽出の正確率が高まることを理解されたい。
本願の一代替的実施例では、前記ニューラルネットワークの候補枠抽出ブランチにより、前記特徴マップにおいて所定動作を含む可能性がある複数の候補枠を特定する前記ステップは、前記所定動作の特徴に基づいて、前記特徴マップ内の特徴を分割し、複数の候補領域を得るステップと、前記複数の候補領域に基づいて、複数の候補枠と前記複数の候補枠のうちの各候補枠の第1の信頼度とを得るステップであって、前記第1の信頼度が、前記候補枠が前記動作目標枠である確率であるステップと、を含む。
本実施例では、ニューラルネットワークの候補枠抽出ブランチは、前記特徴マップを認識し、特徴マップに含まれる手部特徴及び顔の局所領域対応特徴、又は特徴マップに含まれる手部特徴、動作インタラクティブ物体対応特徴(例えば携帯電話対応特徴)及び顔の局所領域対応特徴を特徴マップから分割し、分割された特徴に基づいて候補領域を特定し、候補枠(前記候補枠は例えば矩形枠である)により前記候補領域を識別する。このように、候補枠により識別された複数の候補領域を得る。
本実施例では、ニューラルネットワークの候補枠抽出ブランチは、各候補枠に対応する第1の信頼度を特定することもでき、前記第1の信頼度は、候補枠が目標動作枠である可能性を確率の形で表すために用いられる。ニューラルネットワークの候補枠抽出ブランチにより特徴マップを処理することで、複数の候補枠が得られると共に、複数の候補枠のうちの各候補枠の第1の信頼度も得られる。前記第1の信頼度は、候補枠内の特徴に基づいてニューラルネットワークの候補枠抽出ブランチにより得られた、候補枠が目標動作枠である予測値であることを理解されたい。
304では、前記ニューラルネットワークの検出枠リファインメントブランチにより、前記複数の候補枠に基づいて動作目標枠を特定し、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含む。
本願の一代替的実施例では、前記ニューラルネットワークの検出枠リファインメントブランチにより、前記複数の候補枠に基づいて動作目標枠を特定する前記ステップは、前記ニューラルネットワークの検出枠リファインメントブランチによって、第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得るステップと、前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得るステップと、前記少なくとも1つの第2の候補枠に基づいて、動作目標枠を特定するステップと、を含む。
本実施例では、候補枠を得るプロセスにおいて、所定動作と極めて類似する何らかの動作はニューラルネットワークの候補枠抽出ブランチに大きく干渉することがある。図4の左から右の画像では、目標対象は電話かけ、飲水及び喫煙などと類似する動作を順に行い、これらの動作は類似しており、いずれも頬のあたりに右手を当てる動作であるが、目標対象の手には携帯電話、コップ及び煙草がない。しかし、ニューラルネットワークは目標対象のこれらの動作を電話かけ、飲水及び喫煙として誤認識しやすい。一方、所定動作が所定の危険運転動作である場合、車両運転中に、運転者により例えば耳部領域が痒くて耳を掻く動作、又は他の理由から口を開く動作又は唇に手を当てる動作がなされていることがあり、これらの動作は所定の危険運転動作に該当しないことが明らかであるが、これらの動作は、ニューラルネットワークの候補枠抽出ブランチによる候補枠抽出のプロセスに大きく干渉し、さらに後続の動作分類に影響を及ぼし、誤った動作認識結果をもたらす。
本願の実施例では、事前トレーニングによって、ニューラルネットワークの検出枠リファインメントブランチを得て、第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得る。前記少なくとも1つの第1の候補枠の第1の信頼度はいずれも第1の閾値以上である。ここで、候補枠の第1の信頼度が第1の閾値より小さい場合、該候補枠は上記類似動作の候補枠であり、該候補枠を除去する必要がある。これにより所定動作と類似動作を効果的に区別することができ、その上、誤検出率が低下し、動作認識結果の正確率が大幅に高まる。ここで、上記第1の閾値は例えば0.5とすることができるが、当然のことながら、本願の実施例における前記第1の閾値の値はこれに限定されない。
本願の一代替的実施例では、前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得る前記ステップは、前記少なくとも1つの第1の候補枠をプーリング処理し、前記少なくとも1つの第1の候補枠に対応する少なくとも1つの第1の特徴領域を得るステップと、各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得るステップと、を含む。
本実施例では、第1の候補枠が位置する領域内の特徴の量が多いことがあり、第1の候補枠が位置する領域内の特徴をそのまま使用すると、計算量は膨大となる。したがって、第1の候補枠が位置する領域内の特徴に対して後続の処理を行う前に、後続の処理プロセスにおける計算量に対する要件を満たし、後続処理の計算量を大幅に低減させるように、まず第1の候補枠をプーリング処理し、即ち、第1の候補枠が位置する領域内の特徴をプーリング処理し、第1の候補枠が位置する領域内の特徴の次元を削減する。ステップ303における候補領域の取得と同様に、所定動作の特徴に基づいて上記プーリング処理された特徴を分割し、複数の第1の特徴領域を得る。本実施例では、第1の候補枠に対応する領域をプーリング処理することで、第1の特徴領域内の所定動作に対応する特徴が低次元の形で表現されることが理解される。
一例として、プーリング処理の具体的な実現プロセスは下記のようになる。第1の候補枠の大きさをh*wで表し、そのうち、hは第1の候補枠の高さを表すことができ、wは第1の候補枠の幅を表すことができるものとすると、所望の特徴の目標寸法がH*Wである場合、該第1の候補枠をH*W個の格子に分割し、各格子の大きさを(h/H)*(w/W)で表すことができ、その後、各格子における画素点の平均グレースケール値を計算し、又は各格子における最大グレースケール値を特定し、前記平均グレースケール値又は前記最大グレースケール値を各格子に対応する値とし、第1の候補枠のプーリング処理結果を得る。
本願の一代替的実施例では、各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得る前記ステップは、前記第1の特徴領域内の前記所定動作に対応する特徴に基づいて、前記所定動作の特徴に対応する第1の動作特徴枠を得るステップと、前記第1の動作特徴枠の幾何中心座標に基づいて、前記少なくとも1つの第1の候補枠の第1の位置オフセットを得るステップと、前記第1の動作特徴枠の大きさに基づいて、前記少なくとも1つの第1の候補枠の第1のズーム倍率を得るステップと、少なくとも1つの第1の位置オフセット及び少なくとも1つの第1のズーム倍率に基づいて、前記少なくとも1つの第1の候補枠の位置及び大きさをそれぞれ調整し、少なくとも1つの第2の候補枠を得るステップと、を含む。
本実施例では、後続の処理を容易にするために、各第1の特徴領域内の所定動作に対応する特徴をそれぞれ第1の動作特徴枠により識別し、前記第1の動作特徴枠は具体的には矩形枠であり得、例えば、矩形枠により各第1の特徴領域内の所定動作に対応する特徴を識別する。
本実施例では、事前に確立されたXOY座標系における第1の動作特徴枠の幾何中心座標を得て、幾何中心座標に基づいて、前記第1の動作特徴枠に対応する第1の候補枠の第1の位置オフセットを特定する。ここで、XOY座標系は、一般的には座標原点Oを設定し、水平方向をX軸とし、X軸に垂直な方向をY軸とするように確立された座標系である。第1の動作特徴枠が、所定動作の特徴に基づいて第1の特徴領域から特定されたものであり、第1の特徴領域が、所定動作の特徴に基づいて第1の候補枠から分割して特定されたものであるため、第1の動作特徴枠の幾何中心と第1の候補枠の幾何中心は通常、一定のずれが存在し、前記ずれに基づいて第1の候補枠の第1の位置オフセットを特定する。一例として、第1の動作特徴枠の幾何中心と、同様の所定動作の特徴に対応する第1の候補枠の幾何中心との間のオフセットは、前記第1の候補枠の第1の位置オフセットとなり得る。
ここで、同様の所定動作の特徴に対応する第1の候補枠の数が複数である場合、第1の候補枠ごとに第1の位置オフセットが対応されており、前記第1の位置オフセットは、X軸方向の位置オフセットとY軸方向のオフセットを含む。ここで一例として、XOY座標系は、第1の特徴領域の左上隅(ニューラルネットワークの候補枠リファインメントブランチに入力される方位を基準とする)を座標原点とし、水平右方向をX軸の正方向とし、鉛直下方向をY軸の正方向とする座標系である。他の例では、第1の特徴領域の左下隅、右上隅、右下隅又は第1の特徴領域の中心点を原点とし、水平右方向をX軸の正方向とし、鉛直下方向をY軸の正方向とするようにしてもよい。
本実施例では、第1の動作特徴枠の寸法を取得し、具体的には第1の動作特徴枠の長さ及び幅を取得し、第1の動作特徴枠の長さ及び幅に基づいて対応する第1の候補枠の第1のズーム倍率を特定する。一例では、第1の動作特徴枠の長さと幅、及び対応する第1の候補枠の長さと幅に基づいて前記第1の候補枠の第1のズーム倍率を特定することができる。ここで、第1の候補枠ごとに第1のズーム倍率が対応付けられ、異なる第1の候補枠の第1のズーム倍率は同一であってもよく、異なってもよい。
本実施例では、各第1の候補枠に対応する第1の位置オフセット及び第1のズーム倍率に基づいて前記第1の候補枠の位置及び大きさを調整する。一実施形態として、第1の候補枠を上記第1の位置オフセットで移動させ、且つ第1の候補枠を、幾何中心が中心となるようにし、第1のズーム倍率で寸法を調整し、第2の候補枠を得る。第2の候補枠の数は第1の候補枠の数と一致することを理解されたい。以上のようにして得られた第2の候補枠は、可能な限り小さい寸法で所定動作の全ての特徴を含むようになり、後続の動作分類結果の正確度の向上に寄与する。
本実施例では、複数の第2の候補枠のうち、寸法に大差がなく、且つ幾何中心との距離に大差がない第2の候補枠を合併し、合併後の第2の候補枠を動作目標枠とすることができる。同一の所定動作に対応する第2の候補枠の寸法及び幾何中心との距離に大差がないため、各所定動作は1つの動作目標枠に対応してもよいことを理解されたい。
一例として、運転者は電話で通話しながら喫煙しており、この場合、得られた処理対象画像には電話かけ及び喫煙という2つの所定動作に対応する特徴が含まれ得る。上記のように処理することで、電話かけという所定動作に対応する特徴が含まれる候補枠を得ることができ、前記候補枠には手部、携帯電話及び顔の局所領域が含まれ、また喫煙という所定動作に対応する特徴が含まれる候補枠を得ることもでき、前記候補枠には手部、煙草及び顔の局所領域が含まれる。電話かけという所定動作に対応する候補枠、及び喫煙という所定動作に対応する候補枠の両方とも複数である可能性があるが、電話かけという所定動作に対応する全ての候補枠が、寸法及び幾何中心との距離に大差がなく、喫煙という所定動作に対応する全ての候補枠が、寸法およい幾何中心との距離に大差がなく、同時に電話かけという所定動作に対応するいずれか1つの候補枠の寸法と喫煙という所定動作に対応するいずれか1つの候補枠の寸法との差は、電話かけという所定動作に対応するいずれか2つの候補枠間の寸法の差より大きく、また喫煙という所定動作に対応するいずれか2つの候補枠間の寸法の差よりも大きく、そして電話かけという所定動作に対応するいずれか1つの候補枠と喫煙という所定動作に対応するいずれか1つの候補枠との幾何中心との距離は、電話かけという所定動作に対応するいずれか2つの候補枠の幾何中心との距離より大きく、また喫煙という所定動作に対応するいずれか2つの候補枠の幾何中心との距離よりも大きい。電話かけという所定動作に対応する全ての候補枠を合併し、1つの動作目標枠を得て、喫煙という所定動作に対応する全ての候補枠を合併し、別の動作目標枠を得る。このように、2つの所定動作に対応して、それぞれ2つの動作目標枠を得る。
305では、前記ニューラルネットワークの動作分類ブランチにより、上記特徴マップ上の上記動作目標枠に対応する領域マップを取得し、前記領域マップに基づいて所定動作を分類し、動作認識結果を得る。
本実施例では、ニューラルネットワークの動作分類ブランチは、特徴マップから分割された前記動作目標動作枠に対応する領域に基づいて領域マップを得て、前記領域マップ内の特徴に基づいて所定動作を分類し、第1の動作認識結果を得て、そして全ての目標動作枠に対応する第1の動作認識結果に基づいて、処理対象画像に対応する動作認識結果を得る。
本願の一代替的実施例において、ニューラルネットワークの動作分類ブランチにより第1の動作認識結果が得られ、一方、ニューラルネットワークの動作分類ブランチにより、さらに前記第1の動作認識結果の第2の信頼度も得られ、前記第2の信頼度は、前記動作認識結果の正確率を表すものである。この場合、全ての目標動作枠に対応する第1の動作認識結果に基づいて、処理対象画像に対応する動作認識結果を得る前記ステップは、各目標動作枠に対応する第1の動作認識結果の第2の信頼度と設定閾値とを比較し、第2の信頼度が前記設定閾値より大きい第1の動作結果を得て、第2の信頼度が前記設定閾値より大きい第1の動作結果に基づいて前記処理対象画像に対応する動作認識結果を特定する。
例えば、車載カメラにより運転者を撮影し、運転者の顔が含まれる画像を取得し、処理対象画像としてニューラルネットワークに入力する。処理対象画像内の運転者には「電話かけ」の動作が対応付けられ、ニューラルネットワークの処理により、「電話かけ」の動作認識結果及び「飲水」の動作認識結果という2つの動作認識結果が得られ、そのうち、「電話かけ」の動作認識結果の第2の信頼度は0.8、「飲水」の動作認識結果の第2の信頼度は0.4であると仮定すると、設定閾値が0.6である場合、前記処理対象画像の動作認識結果を「電話かけ」の動作として特定できる。
本実施例では、動作認識結果が特定の所定動作である場合、前記方法は、リマインディング情報を出力するステップをさらに含むことができる。ここで、前記特定の所定動作は、運転者の車両運転中に運転に危険を及ぼし得る危険運転動作であり得る。前記危険運転動作は、運転者自身の動作であってもよく、運転室内の他の人の動作であってもよい。ここで、リマインディング情報を出力する前記ステップは、オーディオ、ビデオ、文字の少なくとも1つの方式でリマインディング情報を出力してもよい。例えば、端末によって車両乗員(例えば運転者及び/又は車内の他の人)にリマインディング情報を出力してもよく、リマインディング情報の出力方式は、端末の文字表示による注意喚起、端末の音声データ出力による注意喚起などであり得る。ここで、前記端末は車載端末であり得、任意選択的に、端末は表示画面及び/又はオーディオ出力の機能を備え得る。
ここで、特定の所定動作は飲水、電話かけ、眼鏡かけなどである。ニューラルネットワークにより得られた動作認識結果が上記特定の所定動作のいずれか1つ又は複数である場合、リマインディング情報を出力し、さらに特定の所定動作(例えば危険運転動作)の種別も出力できる。特定の所定動作が検出されていない場合、リマインディング情報を出力しなくてもよく、又は所定動作の種別を出力してもよい。
一例として、得られた動作認識結果には特定の所定動作(例えば危険運転動作)が含まれる場合、ヘッドアップディスプレイ(head up display、HUD)によってダイアログボックスを表示させ、表示内容で運転者にリマインディング情報を発信してもよく、車両に搭載されたオーディオ出力の機能によってリマインディング情報、例えば「運転動作に気を付けてください」などのオーディオ情報を出力してもよい。また意識をはっきりさせる効果がある気体を放出、例えば、車載噴霧ノズルによってオーデコロンを噴霧させるようにリマインディング情報を出力してもよい。オーデコロンはすがすがしい香りをして心地良く、運転者に対して注意喚起を行うと共に、意識をはっきりさせる効果も生じる。さらに、注意喚起及び警告の目的を達成するよう、座席から低電流を放出して運転者に刺激を与えるようにリマインディング情報を出力してもよい。
本願の実施例では、ニューラルネットワークの特徴抽出ブランチにより処理対象画像の特徴抽出を行い、次にニューラルネットワークの候補枠抽出ブランチにより、抽出された特徴に基づいて所定動作を含む可能性がある候補枠を取得し、その後ニューラルネットワークの検出枠リファインメントブランチにより動作目標枠を特定し、最後にニューラルネットワークの動作分類ブランチにより目標動作枠内の特徴に対して所定動作の分類を行い、処理対象画像の動作認識結果を得る。全認識プロセスにおいて、処理対象画像内の特徴を抽出(例えば手部領域、顔の局所領域、動作インタラクティブ物体対応領域の特徴抽出)し、処理することで、微細動作に対する正確な認識を自律的且つ迅速に実現することができる。
本願の実施例はさらに、運転動作分析方法を提供する。図5は本願の実施例が提供する運転動作分析方法のフローチャートである。図5に示すように、前記方法は、
車載カメラによって、運転者の顔画像を含むビデオストリームを収集するステップ401と、
前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るステップ402と、
動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するステップ403と、を含む。
本実施例では、車載カメラにより運転者をビデオ撮影し、ビデオストリームを取得し、且つビデオストリームの各フレーム画像を処理対象画像とする。フレーム画像ごとに動作認識を行うことで、対応する動作認識結果を得て、その後、連続した複数フレームの画像の動作認識結果を踏まえて運転者の運転状態を認識し、運転状態が危険運転動作に対応する危険運転状態であるか否かを特定する。ここで、複数フレームの画像に対する動作認識の処理プロセスは上記実施例の記載を参照すればよく、ここでは繰り返して詳述しない。
本願の一代替的実施例では、前記所定条件は、特定の所定動作が現れること、所定時間内で特定の所定動作が現れる回数、前記ビデオストリームに現れている特定の所定動作の持続時間の少なくとも1つを含む。
本実施例では、前記特定の所定動作は、前記実施例に記載の所定動作の種別のうち危険運転動作、例えば運転者の飲水動作、電話かけ動作などに対応する所定動作であり得る。動作認識結果が所定条件を満たすことに応答する前記ステップは、動作認識結果に特定の所定動作が含まれる場合、動作認識結果が所定条件を満たすと判定すること、又は動作認識結果に特定の所定動作が含まれ、且つ所定時間内で前記特定の所定動作が現れる回数が所定回数に達した場合、動作認識結果が所定条件を満たすと判定すること、又は動作認識結果に特定の所定動作が含まれ、且つ前記ビデオストリームに現れている前記特定の所定動作の持続時間が所定時間長に達した場合、動作認識結果が所定条件を満たすと判定することを含む。
例えば、運転者の飲水、電話かけ、眼鏡かけのいずれか1つの動作が検出されると、車載端末により危険運転のリマインディング情報を生成して出力することができ、さらに特定の所定動作の種別を出力することもできる。ここで、危険運転のリマインディング情報の出力方式は、車載端末の文字表示による危険運転のリマインディング情報出力、車載端末のオーディオ出力機能による危険運転のリマインディング情報出力を含み得る。
本願の一代替的実施例では、前記方法は、車載デュアルカメラが設けられている車両の車速を取得するステップをさらに含み、動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成する前記ステップは、前記車速が設定閾値より大きく且つ前記動作認識結果が前記所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するステップを含む。
本実施例では、車速が設定閾値以下である場合、動作認識結果が前記所定条件を満たしても危険運転のリマインディング情報を生成及び出力しないようにしてもよい。車速が設定閾値より大きい場合のみ、動作認識結果が前記所定条件を満たす時危険運転のリマインディング情報を生成して出力する。
本実施例では、車載カメラにより運転者をビデオ撮影し、撮影されたビデオの各フレーム画像を処理対象画像とする。カメラにより撮影された各フレーム画像を認識することで、対応する認識結果を得て、その後、連続した複数フレームの画像の結果を踏まえて運転者の動作を認識する。運転者の飲水、電話かけ、眼鏡かけのいずれか1つの動作が検出されると、表示端末によって運転者に警告を行い、危険運転動作の種別を提示することができる。警告の方式は、ポップアップダイアログボックスの文字による警告、内蔵の音声データによる警告を含む。
本願の実施例のニューラルネットワークは、トレーニング画像セットに基づいて事前に教師ありトレーニングを行って得られたものであり、前記ニューラルネットワークは畳み込み層、非線形層、プーリング層などのネットワーク層を含み得、本願の実施例は具体的なネットワーク構造を制限しない。ニューラルネットワーク構造を決定した後、ラベリング情報付きのサンプル画像に基づいて、教師あり方式でニューラルネットワークに対して勾配バックプロパゲーションなどの方法による反復トレーニングを行うことができ、具体的なトレーニング方式について本願の実施例は制限しない。
図6は本願の実施例が提供するニューラルネットワークのトレーニング方法のフローチャートであり、図6に示すように、前記方法は以下を含む。
501では、サンプル画像の第1の特徴マップを抽出する。
本実施例では、複数のサンプル画像が含まれ得るトレーニング画像セットから、ニューラルネットワークをトレーニングするためのサンプル画像を取得することができる。
本願の一代替的実施例では、前記トレーニング画像セット内のサンプル画像は正サンプル画像及び負サンプル画像を含む。前記正サンプル画像は、例えば目標対象の飲水、喫煙、電話かけ、眼鏡かけ、マスク着用など目標対象に対応する少なくとも1つの所定動作を含む。前記負サンプル画像は、例えば目標対象の唇に手を当てる動作、耳を掻く動作、鼻を触る動作など所定動作と類似する少なくとも1つの動作を含む。
本実施例では、所定動作と極めて類似する動作が含まれるサンプル画像を負サンプル画像とし、ニューラルネットワークに対して正サンプル画像及び負サンプル画像を区別するためのトレーニングを行うことで、トレーニング後のニューラルネットワークは所定動作と類似する動作を効率よく区別することができ、動作分類結果の正確率及びロバスト性が大幅に向上する。
本実施例では、ニューラルネットワークにおける畳み込み層によりサンプル画像の第1の特徴マップを抽出することができる。ここで、サンプル画像の第1の特徴マップを抽出する詳細なプロセスは上記ステップ302の記載を参照すればよく、ここでは繰り返して詳述しない。
502では、所定動作を含む可能性がある第1の特徴マップの複数の第3の候補枠を抽出する。
本ステップの詳細なプロセスは前述した実施例のステップ303の記載を参照すればよく、ここでは繰り返して詳述しない。
503では、前記複数の第3の候補枠に基づいて動作目標枠を特定する。
本願の一代替的実施例では、複数の第3の候補枠に基づいて動作目標枠を特定する前記ステップは、前記所定動作に基づいて第1の動作監視枠を得るステップであって、前記第1の動作監視枠が、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含むステップと、前記複数の第3の候補枠の第2の信頼度を得るステップであって、前記第2の信頼度が、前記第3の候補枠が前記動作目標枠である第1の確率、及び前記第3の候補枠が前記動作目標枠でない第2の確率を含むステップと、前記複数の第3の候補枠と前記第1の動作監視枠の面積重なり具合を特定するステップと、前記面積重なり具合が第2の閾値以上である場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第1の確率とし、前記面積重なり具合が前記第2の閾値より小さい場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第2の確率とするステップと、前記第2の信頼度が前記第1の閾値より小さい前記複数の第3の候補枠を除去し、複数の第4の候補枠を得るステップと、前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得るステップと、を含む。
本実施例では、顔に関わる微細動作の認識について、事前に所定動作の特徴を定義することができる。例えば、飲水の動作特徴は、手部領域、顔の局所領域及びコップ領域(即ち、動作インタラクティブ物体対応領域)の特徴を含む。喫煙の動作特徴は、手部領域、顔の局所領域及び煙草領域(即ち、動作インタラクティブ物体対応領域)の特徴を含む。電話かけの動作特徴は、手部領域、顔の局所領域及び携帯電話領域(即ち、動作インタラクティブ物体対応領域)の特徴を含む。眼鏡かけの動作特徴は、手部領域、顔の局所領域及び眼鏡領域(即ち、動作インタラクティブ物体対応領域)の特徴を含む。マスク着用の動作特徴は、手部領域、顔の局所領域、マスク領域(即ち、動作インタラクティブ物体対応領域)の特徴を含む。
本実施例では、前記サンプル画像のラベリング情報は、動作監視枠、及び前記動作監視枠に対応する動作種別を含む。ニューラルネットワークにより前記サンプル画像を処理する前に、各サンプル画像に対応するラベリング情報を得る必要があることが理解される。ここで、前記動作監視枠は具体的にサンプル画像内の所定動作を識別するために用いられ、具体的には図7における目標対象の飲水の動作監視枠及び図8における目標対象の電話かけの動作監視枠を参照すればよい。
所定動作と極めて類似する動作は、ニューラルネットワークによる候補枠抽出のプロセスに大きく干渉する傾向がある。例えば、図4において左から右へ、順に電話かけ、飲水及び喫煙と類似する動作が行われ、即ち、目標対象は頬のあたりの異なる部位に右手をそれぞれ当てていたが、この時目標対象の手には携帯電話、コップ及び煙草がなかった。しかし、ニューラルネットワークはこれらの動作を電話かけ、飲水及び喫煙として誤認識し、対応する候補枠をそれぞれ識別してしまいやすい。したがって、本願の実施例では、ニューラルネットワークに対して正サンプル画像及び負サンプル画像を区別するためのトレーニングを行っており、正サンプル画像に対応する第1の動作監視枠には所定動作が含まれ得、負サンプル画像に対応する第1の動作監視枠にはさらに所定動作と類似する動作も含まれる。
本実施例では、ニューラルネットワークにより第3の候補枠を識別すると共に、前記第3の候補枠に対応する第2の信頼度を得ることができ、第2の信頼度は、前記第3の候補枠が動作目標枠である第1の確率、及び該第3の候補枠が動作目標枠でない第2の確率を含む。このように、ニューラルネットワークにより複数の第3の候補枠を得ると共に、さらに各第3の候補枠の第2の信頼度も得る。第2の信頼度は、第3の候補枠内の特徴に基づいてニューラルネットワークにより得られた、第3の候補枠が目標動作枠である予測値であることを理解されたい。また、第3の候補枠及び第2の信頼度を得ると共に、ニューラルネットワークの処理により座標系xoyにおける第3の候補枠の座標(x3,y3)、及び前記第3の候補枠の寸法を得ることができ、前記第3の候補枠の寸法は長さと幅の積で表され得る。ここで、前記第3の候補枠の座標(x3,y3)は、前記第3の候補枠の1つの頂点の座標、例えば前記第3の候補枠の左上隅、右上隅、左下隅又は右下隅の頂点の座標であり得る。前記第3の候補枠の座標(x3,y3)が第3の候補枠の左上隅の頂点の座標であることを例にすると、第3の候補枠の右上隅の横座標x4と左下隅の縦座標y4を得て、さらに第3の候補枠をbbox(x3,y3,x4,y4)で表すことができる。同様に、前記第1の動作監視枠はbbox_gt(x1,y1,x2,y2)で表すことができる。
本実施例では、第3の候補枠の各集合bbox(x3,y3,x4,y4)のそれぞれと第1の動作監視枠bbox_gt(x1,y1,x2,y2)の面積重なり具合
Figure 2021517312
が特定され、任意選択的に、面積重なり具合
Figure 2021517312
の計算式は下記のようになる。
Figure 2021517312
(1)
式中、
Figure 2021517312

Figure 2021517312
はそれぞれ第3の候補枠の面積、第1の動作監視枠の面積を表し、
Figure 2021517312
は第3の候補枠と第1の動作監視枠の重なり領域の面積を表し、
Figure 2021517312
は第3の候補枠及び第1の動作監視枠に含まれる全ての領域の面積を表す。
面積重なり具合
Figure 2021517312
が第2の閾値以上である場合、第3の候補枠を所定動作を含む可能性がある候補枠として判定し、この第3の候補枠の第2の信頼度を上記第1の確率とする。面積重なり具合
Figure 2021517312
が前記第2の閾値より小さい場合、この第3の候補枠を所定動作が含まれ得ない候補枠として判定し、該第3の候補枠の第2の信頼度を上記第2の確率とする。ここで、前記第2の閾値の値は0以上且つ1以下であり、前記第2の閾値の具体的な値はネットワークのトレーニング効果に応じて決定することができる。
本実施例では、第2の信頼度が前記第1の閾値より小さい前記複数の第3の候補枠を除去し、複数の第4の候補枠を得て、そして前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得ることができる。ここで、動作目標枠を得る方法について、詳しくは前述した実施例のステップ304の記載を参照すればよい。
ここで、前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得る前記ステップは、第4の候補枠をプーリング処理し、前記第4の候補枠に対応する第2の特徴領域を得るステップと、前記第2の特徴領域に基づいて対応する第4の候補枠の位置及び大きさを調整し、第5の候補枠を得るステップと、前記第5の候補枠に基づいて動作目標枠を得るステップと、を含む。ここで、前記第2の特徴領域に基づいて対応する第4の候補枠の位置及び大きさを調整し、第5の候補枠を得る前記ステップは、所定動作に対応する前記第2の特徴領域内の特徴に基づいて前記所定動作の特徴に対応する第2の動作特徴枠を得るステップと、前記第2の動作特徴枠の幾何中心座標に基づいて、前記第4の候補枠の第2の位置オフセットを得るステップと、前記第2の動作特徴枠の大きさに基づいて、前記第4の候補枠の第2のズーム倍率を得るステップと、前記第2の位置オフセット及び前記第2のズーム倍率に基づいて、前記第4の候補枠の位置及び大きさを調整し、第5の候補枠を得るステップと、を含む。
本実施例では、座標系xoyにおける上記第4の候補枠の幾何中心座標
Figure 2021517312
、及び座標系xoyにおける第2の動作特徴枠の幾何中心座標
Figure 2021517312
をそれぞれ取得し、第4の候補枠の幾何中心と第2の動作特徴枠の幾何中心との第2の位置オフセット
Figure 2021517312
を求め、式中、
Figure 2021517312
は正の整数であり、nの数は第4の候補枠の数と一致する。
Figure 2021517312
は複数の第4の候補枠の第2の位置オフセットである。
本実施例では、第4の候補枠及び第2の動作特徴枠の寸法をそれぞれ取得し、その後、第2の動作特徴枠の寸法を第4の候補枠の寸法で除算することで、第4の候補枠の第2のズーム倍率
Figure 2021517312
を得る。ここで、第2のズーム倍率
Figure 2021517312
は、第4の候補枠の長さのズーム倍率
Figure 2021517312
及び幅のズーム倍率
Figure 2021517312
を含む。
第4の候補枠の幾何中心座標の集合が
Figure 2021517312
で表されると仮定すると、第2の位置オフセット
Figure 2021517312
から、幾何中心の位置調整後の第4の候補枠の幾何中心座標の集合
Figure 2021517312
が得られ、この場合、
Figure 2021517312
(2)
。また、第4の候補枠の幾何中心の位置を調整する時、前記第4の候補枠の長さ及び幅は不変のままであることを理解されたい。
幾何中心の位置が調整された1つ以上の第4の候補枠を得た後、第4の候補枠の幾何中心を一定とし、前記第2のズーム倍率
Figure 2021517312
に基づいて前記第4の候補枠の長さを
Figure 2021517312
倍に調整し、幅を
Figure 2021517312
倍に調整し、第5の候補枠を得る。
本実施例では、前記第5の候補枠に基づいて動作目標枠を得る前記ステップは、寸法及び距離が近い複数の第5の候補枠を合併し、合併後の第5の候補枠を動作目標枠とするステップを含む。同一の所定動作に対応する第5の候補枠の大きさ及び距離が極めて近いため、合併後の各動作目標枠は単に1つの所定動作に対応するようになる。
本願の一代替的実施例では、ニューラルネットワークの処理により動作目標枠が得られると共に、前記動作目標枠の第3の信頼度も得られ、第3の信頼度は、前記動作目標枠内の動作が所定の動作種別である第3の確率を表す。例えば、上記所定動作は、飲水、喫煙、電話かけ、眼鏡かけ、マスク着用の5つの種別を含み得、この場合、各動作目標枠の第3の確率はいずれも5つの確率値を含み、それぞれ動作目標枠内の動作の、飲水動作である確率
Figure 2021517312
、喫煙動作である確率
Figure 2021517312
、電話かけの動作である確率
Figure 2021517312
、眼鏡かけの動作である確率
Figure 2021517312
及びマスク着用の動作である確率
Figure 2021517312
となる。
ステップ504では、前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得る。
本実施例では、動作目標枠に含まれる所定動作が飲水、喫煙、電話かけ、眼鏡かけ、マスク着用の5つの種別を含む場合を例にして、動作目標枠の第3の信頼度はそれぞれ
Figure 2021517312

Figure 2021517312

Figure 2021517312

Figure 2021517312

Figure 2021517312
であると仮定すると、動作認識結果はマスク着用の動作となり得る。この場合、本実施例では、動作認識結果として、異なる所定動作に対応する動作目標枠の第3の信頼度(即ち、第3の確率)から、第3の信頼度(即ち、第3の確率)が最も大きい所定動作の種別を選定することができる。ここで、最大の第3の信頼度(即ち、第3の確率)は第4の確率と記すことができる。
ステップ505では、前記サンプル画像の候補枠の検出結果と検出枠のラベリング情報の第1の損失、及び動作認識結果と動作種別ラベリング情報の第2の損失を特定する。
ステップ506では、前記第1の損失及び前記第2の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整する。
本実施例では、ニューラルネットワークは、ニューラルネットワークの特徴抽出ブランチ、ニューラルネットワークの候補枠抽出ブランチ、ニューラルネットワークの検出枠リファインメントブランチ及びニューラルネットワークの動作分類ブランチを含み得、上記ニューラルネットワークの各ブランチの機能について、詳細は前述した実施例のステップ301からステップ305の記載を参照すればよい。
本実施例では、候補枠の座標回帰損失関数
Figure 2021517312
及び種別損失関数
Figure 2021517312
を計算することでニューラルネットワークのネットワークパラメータを更新する。
任意選択的に、候補枠抽出の損失関数(Region Proposal Loss)の表現式は下記のようになる。
Figure 2021517312
(3)
式中、
Figure 2021517312

Figure 2021517312
はいずれもニューラルネットワークの候補枠抽出ブランチの重みパラメータであり、
Figure 2021517312
は教師変数である。
種別損失関数
Figure 2021517312
及び候補枠の座標回帰損失関数
Figure 2021517312
の具体的な表現式は下記のようになる。
Figure 2021517312
(4)
Figure 2021517312
(5)
式中、
Figure 2021517312
ニューラルネットワークの検出枠リファインメントブランチは、損失関数によりネットワークの重みパラメータが更新され、損失関数(Bbox Refine Loss)の具体的な表現式は下記のようになる。
Figure 2021517312
(6)
式中、
Figure 2021517312
は第6の候補枠の数で、
Figure 2021517312
はニューラルネットワークの検出枠リファインメントブランチの重みパラメータで、
Figure 2021517312
は教師変数であり、
Figure 2021517312
損失関数及び
Figure 2021517312
損失関数の表現式は式(4)及び式(5)に示されるとおりであり、特に、式(6)における
Figure 2021517312
はリファインされた動作目標枠の幾何中心座標であり、
Figure 2021517312
は動作監視枠の幾何中心座標である。
本実施例では、損失関数はニューラルネットワークが最適化された目的関数であり、ニューラルネットワークのトレーニング又は最適化のプロセスは、損失関数を最小化するプロセスであり、即ち、損失関数値が0に近づくほど、対応する予測結果は実際の結果の値に近くなる。
本実施例では、第4の候補枠の第2の信頼度で式(3)及び式(4)における教師変数
Figure 2021517312
を代替して式(3)に代入し、そしてニューラルネットワークの候補枠抽出ブランチの重みパラメータ
Figure 2021517312

Figure 2021517312
を調整することでRegion Proposal Lossの値(即ち、第1の損失)を変え、且つRegion Proposal Lossの値が0に最も近づくように重みパラメータ
Figure 2021517312

Figure 2021517312
の組み合わせを選定する。
本実施例では、動作目標枠の第4の確率(即ち、複数の第3の信頼度(即ち、第3の確率)のうちの最大値)で教師変数
Figure 2021517312
を代替して式(6)に代入し、そしてニューラルネットワークの検出枠リファインメントブランチの重みパラメータ
Figure 2021517312
を調整することでBbox Refine Lossの値(即ち、第2の損失)を変え、且つBbox Refine Lossの値が0に最も近づくように重みパラメータ
Figure 2021517312
を選定し、勾配バックプロパゲーションの方式でニューラルネットワークの検出枠リファインメントブランチの重みパラメータの更新を行う。
重みパラメータが更新された候補枠抽出ブランチ、重みパラメータが更新された検出枠リファインメントブランチ、特徴抽出ブランチ、及び動作分類ブランチを再びトレーニングし、即ち、ニューラルネットワークにサンプル画像を入力し、ニューラルネットワークによる処理によって、最終的にニューラルネットワークの動作分類ブランチから認識結果を出力する。動作分類ブランチの出力結果と実際の結果との間に誤差があるため、動作分類ブランチの出力値と実際値との間の誤差を、入力層に伝播するまで、出力層から畳み込み層へ逆伝播する。逆伝播のプロセスにおいて、誤差に応じてニューラルネットワークにおける重みパラメータを調整し、収束するまで上記プロセスを反復し、ニューラルネットワークのネットワークパラメータの再更新を完了する。
本実施例では、動作特徴に基づいて車両乗員の顔の微細動作、例えば手及び顔に関わる運転者の危険運転動作を認識する。しかし実際の応用時には、運転者によりなされた、危険運転動作と類似する動作はニューラルネットワークに干渉しやすく、後続の動作に対する分類認識に影響を及ぼし、結果として動作認識結果の正確度が低下するだけでなく、ユーザ体験も劇的に低下することとなる。本実施例では、正サンプル画像及び負サンプル画像をニューラルネットワークのトレーニングに用いられるサンプル画像とし、損失関数を教師とし、勾配バックプロパゲーションの方式でニューラルネットワークのネットワークパラメータ(特にニューラルネットワークの特徴抽出ブランチ及びニューラルネットワークの候補枠抽出ブランチの重みパラメータ)を更新してトレーニングを完了させ、トレーニング後のニューラルネットワークの特徴抽出ブランチを、危険運転動作の特徴を正確に抽出可能にし、さらにニューラルネットワークの候補枠抽出ブランチにより、所定動作(例えば危険運転動作)と類似する動作が含まれる候補枠を自動的に除去し、危険運転動作の誤検出率が大幅に低下する。
また、ニューラルネットワークの候補枠抽出ブランチから出力された動作候補枠は寸法が大きく、そのまま後続の処理を行うと、計算量が大きくなる。本実施例では、候補枠をプーリング処理し、所定寸法に調整することで、後続処理の計算量が大きく減少し、処理速度が高まる。ニューラルネットワークの検出枠リファインメントブランチにより候補枠のリファインを行い、これによりリファインされた動作目標枠は所定動作(例えば危険運転動作)の特徴のみを含み、認識結果の正確率が高まる。
図9は本願の実施例が提供する動作認識装置の構造模式図であり、該認識装置1000は、
顔が含まれる画像内の特徴を抽出するための第1の抽出ユニット11と、
前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定するための第2の抽出ユニット12と、
前記複数の候補枠に基づいて動作目標枠を特定するための特定ユニット13であって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含む特定ユニット13と、
前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るための分類ユニット14と、を含む。
本願の一代替的実施例では、前記顔の局所領域は、口部領域、耳部領域、眼部領域の少なくとも1つを含む。
本願の一代替的実施例では、前記動作インタラクティブ物体は、容器、煙草、携帯電話、食べ物、工具、飲料ボトル、眼鏡、マスクの少なくとも1つを含む。
本願の一代替的実施例では、前記動作目標枠は、手部領域をさらに含む。
本願の一代替的実施例では、前記所定動作は、電話かけ、喫煙、水や飲料の飲用、食事、工具の使用、眼鏡かけ、化粧の少なくとも1つを含む。
本願の一代替的実施例では、動作認識装置1000は、車両乗員の顔が含まれる画像を撮影するための車載カメラをさらに含む。
本願の一代替的実施例では、前記車両乗員は、前記車両の運転領域の運転者、前記車両の助手席領域の人、前記車両の後部座席の人の少なくとも1つを含む。
本願の一代替的実施例では、前記車載カメラはRGBカメラ、赤外線カメラ又は近赤外線カメラである。
本願の実施例では、処理対象画像に対して特徴抽出を行い、抽出された特徴に基づいて処理対象画像内の動作の認識を実現する。上記動作は、手部領域の動作及び/又は顔の局所領域の動作、動作インタラクティブ物体に対する動作などであり得るため、車載カメラにより車両乗員の画像を収集し、顔が含まれる処理対象画像を得る必要がある。その後、処理対象画像に対して畳み込み操作を行い、動作特徴を抽出する。
一代替的な実施形態では、まず上記所定動作の特徴を定義し、その後ニューラルネットワークにより、定義された特徴及び抽出された画像内の特徴に基づいて画像に所定動作が存在するか否かを判定し、画像に所定動作が存在すると判定した場合、画像における所定動作が含まれる複数の候補枠を特定する。
本実施例では、上記抽出された特徴は手部領域、顔の局所領域、動作インタラクティブ物体対応領域などの少なくとも1つに対応する場合、ニューラルネットワークの特徴抽出処理により手部領域及び顔の局所領域が含まれる特徴領域を取得し、前記特徴領域に基づいて候補領域を特定し、例えば矩形枠で表されてもよい候補枠により前記候補領域を識別する。同様に、別の候補枠により手部領域、顔の局所領域及び動作インタラクティブ物体対応領域が含まれる特徴領域を識別する。このように、所定動作に対応する特徴を抽出することで、複数の候補領域を取得し、複数の候補領域に基づいて、複数の候補枠を特定する。
本実施例では、候補枠には所定動作に対応する特徴以外の特徴が含まれることや、所定動作に対応する全ての特徴(いずれか1つの所定動作の全ての特徴を意味する)が含まれていないことがあり、両方の場合とも最終的な動作認識結果に影響を及ぼす可能性がある。したがって、最終的な認識結果の正確度を保証するためには、候補枠の位置を調整し、即ち、複数の候補枠に基づいて動作目標枠を特定する必要がある。これを基に、各候補枠の位置及び大きさを調整することで、調整後の候補枠を動作目標枠として特定する。調整後の複数の候補枠は1つの候補枠として重ねることができ、この場合、重なった候補枠が動作目標枠として特定されることが理解される。
本願の一代替的実施例では、前記第1の抽出ユニット11は、顔が含まれる画像の特徴を抽出し、特徴マップを得るためのニューラルネットワークの特徴抽出ブランチ111を含む。
本実施例では、ニューラルネットワークの特徴抽出ブランチにより処理対象画像に対して畳み込み操作を行うとは、畳み込みカーネルを処理対象画像上に「スライド」させることをいう。例えば、畳み込みカーネルが画像の特定の画素点に対応する時、該画素点のグレースケール値を畳み込みカーネルにおける各数値に乗算し、全ての積を加算して畳み込みカーネルに対応する前記画素点のグレースケール値とし、さらに、畳み込みカーネルを次の画素点に「スライド」させ、以降同様にして、最終的には前記処理対象画像における全ての画素点の畳み込み処理を完了し、特徴マップを得る。
ここで、ニューラルネットワークの特徴抽出ブランチ111は複数の畳み込み層を含み得、前の畳み込み層で特徴抽出により得られた特徴マップは次の畳み込み層の入力データとして利用可能であり、複数の畳み込み層により画像からより豊富な情報を抽出することで、特徴抽出の正確率が高まる。
本願の一代替的実施例では、前記第2の抽出ユニット12は、前記特徴マップにおいて所定動作を含む可能性がある複数の候補枠を抽出するためのニューラルネットワークの候補枠抽出ブランチ121を含む。
例えば、特徴マップには手、煙草、コップ、携帯電話、眼鏡、マスク、顔の局所領域に対応する特徴の少なくとも1つが含まれ得、前記少なくとも1つの特徴に基づいて複数の候補枠を特定する。説明すべきものとして、ニューラルネットワークの特徴抽出ブランチにより処理対象画像の特徴を抽出することができるが、抽出された特徴には所定動作に対応する特徴以外の他の特徴が含まれることがあるため、ここのニューラルネットワークの候補枠抽出ブランチにより特定された複数の候補枠のうち、少なくとも一部の候補枠には所定動作に対応する特徴以外の他の特徴が含まれることや、所定動作に対応する全ての特徴が含まれていないことがあり、したがって、前記複数の候補枠には所定動作を含む可能性がある。
本願の一代替的実施例では、前記ニューラルネットワークの候補枠抽出ブランチ121は、さらに前記所定動作の特徴に基づいて、前記特徴マップ内の特徴を分割し、複数の候補領域を得るステップと、前記複数の候補領域に基づいて、前記複数の候補枠のうちの各候補枠の第1の信頼度を得るステップであって、前記第1の信頼度が、前記候補枠が前記動作目標枠である確率であるステップと、に用いられる。
ここで、前記ニューラルネットワークの候補枠抽出ブランチ121は、前記所定動作の特徴に基づいて、前記特徴マップ内の特徴を分割し、複数の候補領域を得るための分割サブユニットと、
前記複数の候補領域に基づいて、前記複数の候補枠のうちの各候補枠の第1の信頼度を得るステップであって、前記第1の信頼度が、前記候補枠が前記動作目標枠である確率であるステップに用いられる第1の取得サブユニットと、を含む。
本実施例では、ニューラルネットワークの候補枠抽出ブランチ121は各候補枠に対応する第1の信頼度を特定することもでき、前記第1の信頼度は候補枠が目標動作枠である可能性を確率の形で表すために用いられる。ニューラルネットワークの候補枠抽出ブランチにより特徴マップを処理することで、複数の候補枠が得られると共に、複数の候補枠のうちの各候補枠の第1の信頼度も得られる。前記第1の信頼度は、候補枠内の特徴に基づいてニューラルネットワークの候補枠抽出ブランチにより得られた、候補枠が目標動作枠である予測値であることを理解されたい。
本願の一代替的実施例では、前記特定ユニット13は、前記複数の候補枠に基づいて動作目標枠を特定するためのニューラルネットワークの検出枠リファインメントブランチ131を含む。
本願の一代替的実施例では、前記ニューラルネットワークの検出枠リファインメントブランチ131はさらに、前記第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得るステップと、前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得るステップと、前記少なくとも1つの第2の候補枠に基づいて、動作目標枠を特定するステップと、に用いられる。
ここで、前記ニューラルネットワークの検出枠リファインメントブランチは、第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得るための除去サブユニットと、
前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得るための第2の取得サブユニットと、
前記少なくとも1つの第2の候補枠に基づいて、動作目標枠を特定するための特定サブユニットと、を含む。
本実施例では、候補枠を得るプロセスにおいて、所定動作と極めて類似する何らかの動作はニューラルネットワークの候補枠抽出ブランチに大きく干渉することがある。図4の左から右の画像では、目標対象は順に電話かけ、飲水及び喫煙などと類似する動作を行い、これらの動作は類似しており、いずれも頬のあたりに右手を当てる動作であるが、目標対象の手には携帯電話、コップ及び煙草がなかった。しかし、ニューラルネットワークは目標対象のこれらの動作を電話かけ、飲水及び喫煙として誤認識しやすい。
本願の実施例では、ニューラルネットワークの検出枠リファインメントブランチ131により第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得る。ここで、候補枠の第1の信頼度が第1の閾値より小さい場合、該候補枠は上記類似動作の候補枠であり、該候補枠を除去する必要がある。これにより所定動作と類似動作を効果的に区別することができ、その上、誤検出率が低下し、動作認識結果の正確率が大幅に高まる。
本願の一代替的実施例では、前記ニューラルネットワークの検出枠リファインメントブランチ131(又は前記第2の取得サブユニット)はさらに、前記少なくとも1つの第1の候補枠をそれぞれプーリング処理し、前記少なくとも1つの第1の候補枠に対応する少なくとも1つの第1の特徴領域を得るステップと、各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得るステップと、を実行するために用いられる。
本実施例では、第1の候補枠が位置する領域内の特徴の量が多いことがあり、第1の候補枠が位置する領域内の特徴をそのまま使用すると計算量は膨大となる。したがって、第1の候補枠が位置する領域内の特徴に対して後続の処理を行う前に、後続の処理プロセスにおける計算量に対する要件を満たし、後続処理の計算量を大幅に低減させるように、まず第1の候補枠をプーリング処理し、即ち、第1の候補枠が位置する領域内の特徴をプーリング処理し、第1の候補枠が位置する領域内の特徴の次元を削減する。
本願の一代替的実施例では、前記ニューラルネットワークの検出枠リファインメントブランチ131(又は前記第2の取得サブユニット)はさらに、前記第1の特徴領域内の前記所定動作に対応する特徴に基づいて、前記所定動作の特徴に対応する第1の動作特徴枠を得るステップと、前記第1の動作特徴枠の幾何中心座標に基づいて、前記少なくとも1つの第1の候補枠の第1の位置オフセットを得るステップと、前記第1の動作特徴枠の大きさに基づいて、前記少なくとも1つの第1の候補枠の第1のズーム倍率を得るステップと、少なくとも1つの第1の位置オフセット及び少なくとも1つの第1のズーム倍率に基づいて、少なくとも1つの第1の候補枠の位置及び大きさをそれぞれ調整し、少なくとも1つの第2の候補枠を得るステップと、を実行するために用いられる。
本願の一代替的実施例では、前記分類ユニット14は、前記特徴マップ上の前記動作目標枠に対応する領域マップを取得し、前記領域マップに基づいて所定動作を分類し、動作認識結果を得るための前記ニューラルネットワークの動作分類ブランチ141を含む。
本願の一代替的実施例では、ニューラルネットワークの動作分類ブランチ141により第1の動作認識結果が得られ、一方、ニューラルネットワークの動作分類ブランチ141によりさらに前記第1の動作認識結果の第2の信頼度も得られ、前記第2の信頼度は前記動作認識結果の正確率を表すものである。
本願の一代替的実施例では、前記ニューラルネットワークは、複数のサンプル画像を含むトレーニング画像セットに基づいて事前に教師ありトレーニングを行って得られたものであり、前記サンプル画像のラベリング情報は、動作監視枠、及び前記動作監視枠に対応する動作種別を含む。
本願の一代替的実施例では、前記トレーニング画像セットは正サンプル画像と負サンプル画像とを含み、前記負サンプル画像の動作が前記正サンプル画像の動作と類似し、前記正サンプルの動作監視枠は、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含む。
本願の一代替的実施例では、前記正サンプル画像の動作は電話をかける動作を含み、前記負サンプル画像は耳を掻く動作を含み、及び/又は、前記正サンプル画像は喫煙、食事や飲水を含み、前記負サンプル画像は口を開く動作又は唇に手を当てる動作を含む。
本願の実施例では、ニューラルネットワークの特徴抽出ブランチ111により処理対象画像の特徴抽出を行い、次にニューラルネットワークの候補枠抽出ブランチ121により、抽出された特徴に基づいて所定動作を含む可能性がある候補枠を取得し、その後ニューラルネットワークの検出枠リファインメントブランチ131により動作目標枠を特定し、最後にニューラルネットワークの動作分類ブランチ141により目標動作枠内の特徴に対して所定動作の分類を行い、処理対象画像の動作認識結果を得る。全認識プロセスにおいて、処理対象画像内の特徴を抽出(例えば手部領域、顔の局所領域、動作インタラクティブ物体対応領域の特徴抽出)し、処理することで、微細動作に対する正確な認識を自律的且つ迅速に実現することができる。
本願の実施例に記載の動作認識装置は、前記ニューラルネットワークのトレーニングコンポーネントをさらに含む。図10は、本願の実施例が提供するニューラルネットワークのトレーニングコンポーネントの構造模式図であり、該トレーニングコンポーネント2000は、
サンプル画像が含まれる第1の特徴マップを抽出するための第1の抽出ユニット21と、
所定動作を含む可能性がある前記第1の特徴マップの複数の第3の候補枠を抽出するための第2の抽出ユニット22と、
前記複数の第3の候補枠に基づいて動作目標枠を特定するための第1の特定ユニット23と、
前記動作目標枠に基づいて所定動作を分類し、第1の動作認識結果を得るための取得ユニット24と、
前記サンプル画像の候補枠の検出結果と検出枠のラベリング情報の第1の損失、及び動作認識結果と動作種別ラベリング情報の第2の損失を特定するための第2の特定ユニット25と、
前記第1の損失及び前記第2の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するための調整ユニット26と、を含む。
本願の一代替的実施例では、前記第1の特定ユニット23は、前記所定動作に基づいて第1の動作監視枠を得るための第1の取得サブユニット231であって、前記第1の動作監視枠が、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含む第1の取得サブユニット231と、
前記複数の第3の候補枠の第2の信頼度を得るための第2の取得サブユニット232であって、前記第2の信頼度が、前記第3の候補枠が前記動作目標枠である第1の確率、及び前記第3の候補枠が前記動作目標枠でない第2の確率を含む第2の取得サブユニット232と、
前記複数の第3の候補枠と前記第1の動作監視枠の面積重なり具合を特定するための特定サブユニット233と、
前記面積重なり具合が第2の閾値以上である場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第1の確率とし、前記面積重なり具合が前記第2の閾値より小さい場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第2の確率とするための選定サブユニット234と、
前記第2の信頼度が前記第1の閾値より小さい前記複数の第3の候補枠を除去し、複数の第4の候補枠を得るための除去サブユニット235と、
前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得るための調整サブユニット236と、を含む。
本実施例では、動作特徴に基づいて車両乗員の顔の微細動作、例えば手及び顔に関わる運転者の危険運転動作を認識する。しかし実際の応用時には、運転者によりなされた、危険運転動作と類似する動作はニューラルネットワークに干渉しやすく、後続の動作に対する分類認識に影響を及ぼし、結果として動作認識結果の正確度が低下するだけでなく、ユーザ体験も劇的に低下することとなる。本実施例では、正サンプル画像及び負サンプル画像をニューラルネットワークのトレーニングに用いられるサンプル画像とし、損失関数を教師とし、勾配バックプロパゲーションの方式でニューラルネットワークのネットワークパラメータ(特にニューラルネットワークの特徴抽出ブランチ及びニューラルネットワークの候補枠抽出ブランチの重みパラメータ)を更新してトレーニングを完了させ、トレーニング後のニューラルネットワークの特徴抽出ブランチを、危険運転動作の特徴を正確に抽出可能にし、さらにニューラルネットワークの候補枠抽出ブランチにより、所定動作(例えば危険運転動作)と類似する動作が含まれる候補枠を自動的に除去し、危険運転動作の誤検出率が大幅に低下する。
また、ニューラルネットワークの候補枠抽出ブランチから出力された動作候補枠は寸法が大きく、そのまま後続の処理を行うと、計算量が大きくなる。本実施例では、候補枠をプーリング処理し、所定寸法に調整することで、後続処理の計算量が大きく減少し、処理速度が高まる。ニューラルネットワークの検出枠リファインメントブランチにより候補枠のリファインを行い、これによりリファインされた動作目標枠は所定動作(例えば危険運転動作)の特徴のみを含み、認識結果の正確率が高まる。
図11は、本願の実施例が提供する運転動作分析装置の構造模式図であり、該分析装置3000は、
運転者の顔画像を含むビデオストリームを収集するための車載カメラ31と、
本願の前記実施例に記載の動作認識装置により、前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るための第1の取得ユニット32と、
動作認識結果が所定条件を満たすことに応答して、注意散漫又は危険運転のリマインディング情報を生成するための生成ユニット33と、を含む。
本願の一代替的実施例では、前記所定条件は、特定の所定動作が現れること、所定時間内で特定の所定動作が現れる回数、前記ビデオストリームに現れている特定の所定動作の持続時間の少なくとも1つを含む。
本願の一代替的実施例では、前記分析装置3000は、車載デュアルカメラが設けられている車両の車速を取得するための第2の取得ユニット34をさらに含み、前記生成ユニット33は、前記車速が設定閾値より大きく且つ前記動作認識結果が前記所定条件を満たすことに応答して、注意散漫又は危険運転のリマインディング情報を生成するためにも用いられる。
本実施例では、車載カメラにより運転者をビデオ撮影し、撮影されたビデオの各フレーム画像を処理対象画像とする。カメラにより撮影された各フレーム画像を認識することで、対応する認識結果を得て、その後、連続した複数フレームの画像の結果を踏まえて運転者の動作を認識する。運転者の飲水、電話かけ、眼鏡かけのいずれか1つの動作が検出されると、表示端末によって運転者に警告を行い、危険運転動作の種別を提示することができる。警告の方式は、ポップアップダイアログボックスの文字による警告、内蔵の音声データによる警告を含む。
本願の実施例は電子機器をさらに提供する。図12は、本願の実施例が提供する電子機器のハードウェア構成図である。該電子機器4000は、コンピュータ実行可能コマンドが記憶されているメモリ44と、前記メモリ44上のコンピュータ実行可能コマンドを実行する時に、本願の実施例に記載の動作認識方法、又は本願の実施例に記載の運転動作分析方法を実現するプロセッサ41と、を含む。
本願の一代替的実施例では、前記電子機器は入力装置42、出力装置43をさらに含んでもよい。該入力装置42、出力装置43、メモリ44及びプロセッサ41はバスを介して互いに接続され得る。
メモリは、ランダム記憶メモリ(Random Access Memory、RAM)、読み出し専用メモリ(Read−Only Memory、ROM)、消去可能プログラム可能読み出し専用メモリ(Erasable Programmable Read Only Memory、EPROM)、又は携帯型読み出し専用メモリ(Compact Disc Read−Only Memory、CD−ROM)を含むが、これらに限定されず、該メモリは関連コマンド及びデータを記憶するために用いられる。
入力装置はデータ及び/又は信号を入力するために用いられ、出力装置はデータ及び/又は信号を出力するために用いられる。出力装置及び入力装置は個別の装置であってもよく、一体化された装置であってもよい。
プロセッサは1つ以上のプロセッサ、例えば1つ以上の中央処理装置(Central Processing Unit、CPU)を含み得、プロセッサが1つのCPUである場合、該CPUはシングルコアCPUであっても、マルチコアCPUであってもよい。プロセッサはGPU、FPGAなどが含まれ得る加速処理のための1つ以上の専用プロセッサを含んでもよい。
メモリは、ネットワーク機器のプログラムコード及びデータを記憶するために用いられる。
プロセッサは、該メモリ内のプログラムコード及びデータを呼び出し、上記方法の実施例に記載のステップを実行するために用いられる。具体的には方法の実施例の記載を参照すればよく、ここでは繰り返して詳述しない。
図12は電子機器の簡略化した設計を示しているものに過ぎず、実際の応用時には、電子機器は必要とされる他の素子をそれぞれ含んでもよく、それは任意の数の入力/出力装置、プロセッサ、コントローラ、メモリなどを含むが、これらに限定されず、本願の実施例を実現できる電子機器は全て本願の実施例の保護範囲内に含まれることが理解される。
本願の実施例は、実行されると、本願の上記いずれか1つの実施例に記載の動作認識方法の操作、又は本願の上記いずれか1つの実施例に記載の運転動作分析方法の操作を実現するコンピュータ可読コマンドを記憶するためのコンピュータ記憶媒体をさらに提供する。
本願の実施例は、機器上で実行されると、該機器内のプロセッサは本願の上記いずれか1つの実施例に記載の動作認識方法におけるステップ、又は本願の上記いずれか1つの実施例に記載の運転動作分析方法におけるステップを実現するための実行可能コマンドを実行するコンピュータ可読コマンドを含む、コンピュータプログラムをさらに提供する。
本願が提供するいくつかの実施例では、開示する装置及び方法は、他の形態で実現できることを理解すべきである。以上で説明した装置実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現時に別の形態で分割してもよく、例えば複数のユニット又はコンポーネントは組み合わせてもよく、又は別のシステムに統合してもよく、又はいくつかの特徴を省略してもよく、もしくは実行しなくてもよい。また、示した又は論じた各構成部分間のカップリング又は直接カップリング又は通信接続はいくつかのインターフェイスによるものであってもよく、装置又はユニットの間接カップリング又は通信接続は、電気的、機械的又は他の形式であってもよい。
別々の部材として前述したユニットは物理的に分離されてもされなくてもよく、ユニットとして示された部材は物理的ユニットであってもなくてもよく、一箇所にあっても複数のネットワークユニットに分散してもよく、本実施例の解決手段の目的を達成するには、実際の必要に応じて一部又は全てのユニットを選択することができる。
また、本発明の各実施例における各機能ユニットは全て1つの処理ユニットに統合されてもよいし、1つのユニットとして別々に使用されてもよいし、2つ以上で1つのユニットに統合されてもよく、上記統合されたユニットはハードウェアの形で、又はハードウェアとソフトウェアを組み合わせた機能ユニットの形で実現され得る。
当業者であれば、上記各方法の実施例を実現する全て又は一部のステップはプログラムによって関連ハードウェアにコマンドを出すことにより完了できることを理解でき、前記プログラムは、携帯型記憶装置、ROM、RAM、磁気ディスク又は光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ可読記憶媒体に記憶可能であり、該プログラムは実行される時に、上記各方法の実施例を含むステップを実行する。
あるいは、本発明の上記統合されたユニットはソフトウェア機能モジュールの形で実現されかつ独立した製品として販売又は使用される場合、コンピュータ可読記憶媒体に記憶されてもよい。このような見解をもとに、本発明の実施例の技術的解決手段は実質的に又は従来技術に寄与する部分がソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってもよい)に本発明の各実施例に記載の方法の全て又は一部を実行させる複数のコマンドを含む。前記記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスク又は光ディスクなどのプログラムコードを記憶可能である様々な媒体を含む。
本願が提供するいくつかの方法の実施例が開示した方法は、矛盾なく任意に組み合わせて、新たな方法の実施例を得ることができる。
本願が提供するいくつかの製品の実施例が開示した特徴は、矛盾なく任意に組み合わせて、新たな製品の実施例を得ることができる。
本願が提供するいくつかの方法又は機器の実施例が開示した特徴は、矛盾なく任意に組み合わせて、新たな方法の実施例又は機器の実施例を得ることができる。
以上で説明したのは本発明の具体的な実施形態に過ぎず、本発明の保護範囲がそれに限定されるものでなく、本発明に開示された技術範囲内に当業者に容易に想到される変化又は取り替えは、全て本発明の保護範囲に含まれる。従って、本発明の保護範囲は請求項の保護範囲に準ずるべきである。

Claims (51)

  1. 顔が含まれる画像内の特徴を抽出するステップと、
    前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定するステップと、
    前記複数の候補枠に基づいて動作目標枠を特定するステップであって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含むステップと、
    前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るステップと、を含む、動作認識方法。
  2. 前記顔の局所領域は、口部領域、耳部領域、眼部領域の少なくとも1つを含む、請求項1に記載の方法。
  3. 前記動作インタラクティブ物体は、容器、煙草、携帯電話、食べ物、工具、飲料ボトル、眼鏡、マスクの少なくとも1つを含む、請求項1又は2に記載の方法。
  4. 前記動作目標枠は、手部領域をさらに含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記所定動作は、電話かけ、喫煙、水や飲料の飲用、食事、工具の使用、眼鏡かけ、化粧の少なくとも1つを含む、請求項1から4のいずれか一項に記載の方法。
  6. 車載カメラによって車両乗員の顔が含まれる画像を撮影するステップをさらに含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記車両乗員は、前記車両の運転領域の運転者、前記車両の助手席領域の人、前記車両の後部座席の人の少なくとも1つを含む、請求項6に記載の方法。
  8. 前記車載カメラはRGBカメラ、赤外線カメラ又は近赤外線カメラである、請求項6又は7に記載の方法。
  9. 顔が含まれる画像内の特徴を抽出する前記ステップは、
    ニューラルネットワークの特徴抽出ブランチにより、顔が含まれる画像内の特徴を抽出し、特徴マップを得るステップを含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定する前記ステップは、
    前記ニューラルネットワークの候補枠抽出ブランチにより、前記特徴マップにおいて所定動作を含む可能性がある複数の候補枠を特定するステップを含む、請求項9に記載の方法。
  11. 前記ニューラルネットワークの候補枠抽出ブランチにより、前記特徴マップにおいて所定動作を含む可能性がある複数の候補枠を特定する前記ステップは、
    前記所定動作の特徴に基づいて、前記特徴マップ内の特徴を分割し、複数の候補領域を得るステップと、
    前記複数の候補領域に基づいて、複数の候補枠と前記複数の候補枠のうちの各候補枠の第1の信頼度とを得るステップであって、前記第1の信頼度が、前記候補枠が前記動作目標枠である確率であるステップと、を含む、請求項10に記載の方法。
  12. 前記複数の候補枠に基づいて動作目標枠を特定する前記ステップは、
    前記ニューラルネットワークの検出枠リファインメントブランチにより、前記複数の候補枠に基づいて動作目標枠を特定するステップを含む、請求項9から11のいずれか一項に記載の方法。
  13. 前記ニューラルネットワークの検出枠リファインメントブランチにより、前記複数の候補枠に基づいて動作目標枠を特定する前記ステップは、
    前記ニューラルネットワークの検出枠リファインメントブランチによって、第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得るステップと、
    前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得るステップと、
    前記少なくとも1つの第2の候補枠に基づいて、動作目標枠を特定するステップと、を含む、請求項12に記載の方法。
  14. 前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得る前記ステップは、
    前記少なくとも1つの第1の候補枠をそれぞれプーリング処理し、前記少なくとも1つの第1の候補枠に対応する少なくとも1つの第1の特徴領域を得るステップと、
    各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得るステップと、を含む、請求項13に記載の方法。
  15. 各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得る前記ステップは、
    前記第1の特徴領域内の前記所定動作に対応する特徴に基づいて、前記所定動作の特徴に対応する第1の動作特徴枠を得るステップと、
    前記第1の動作特徴枠の幾何中心座標に基づいて、前記少なくとも1つの第1の候補枠の第1の位置オフセットを得るステップと、
    前記第1の動作特徴枠の大きさに基づいて、前記少なくとも1つの第1の候補枠の第1のズーム倍率を得るステップと、
    少なくとも1つの第1の位置オフセット及び少なくとも1つの第1のズーム倍率に基づいて、前記少なくとも1つの第1の候補枠の位置及び大きさをそれぞれ調整し、少なくとも1つの第2の候補枠を得るステップと、を含む、請求項14に記載の方法。
  16. 前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得る前記ステップは、
    前記ニューラルネットワークの動作分類ブランチにより、前記特徴マップ上の前記動作目標枠に対応する領域マップを取得し、前記領域マップに基づいて所定動作を分類し、動作認識結果を得るステップを含む、請求項1から15のいずれか一項に記載の方法。
  17. 前記ニューラルネットワークは、複数のサンプル画像を含むトレーニング画像セットに基づいて事前に教師ありトレーニングを行って得られたものであり、前記サンプル画像のラベリング情報は、動作監視枠、及び前記動作監視枠に対応する動作種別を含む、請求項9から16のいずれか一項に記載の方法。
  18. 前記トレーニング画像セットは正サンプル画像と負サンプル画像とを含み、前記負サンプル画像の動作が前記正サンプル画像の動作と類似し、前記正サンプルの動作監視枠は、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含む、請求項17に記載の方法。
  19. 前記正サンプル画像の動作は電話をかける動作を含み、前記負サンプル画像は耳を掻く動作を含み、及び/又は、前記正サンプル画像は喫煙、食事や飲水を含み、前記負サンプル画像は口を開く動作又は唇に手を当てる動作を含む、請求項17又は18に記載の方法。
  20. 前記ニューラルネットワークのトレーニング方法は、
    サンプル画像の第1の特徴マップを抽出するステップと、
    所定動作を含む可能性がある前記第1の特徴マップの複数の第3の候補枠を抽出するステップと、
    前記複数の第3の候補枠に基づいて動作目標枠を特定するステップと、
    前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るステップと、
    前記サンプル画像の候補枠の検出結果と検出枠のラベリング情報の第1の損失、及び動作認識結果と動作種別ラベリング情報の第2の損失を特定するステップと、
    前記第1の損失及び前記第2の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するステップと、を含む、請求項17から19のいずれか一項に記載の方法。
  21. 複数の第3の候補枠に基づいて動作目標枠を特定する前記ステップは、
    前記所定動作に基づいて第1の動作監視枠を得るステップであって、前記第1の動作監視枠が、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含むステップと、
    前記複数の第3の候補枠の第2の信頼度を得るステップであって、前記第2の信頼度が、前記第3の候補枠が前記動作目標枠である第1の確率、及び前記第3の候補枠が前記動作目標枠でない第2の確率を含むステップと、
    前記複数の第3の候補枠と前記第1の動作監視枠の面積重なり具合を特定するステップと、
    前記面積重なり具合が第2の閾値以上である場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第1の確率とし、前記面積重なり具合が前記第2の閾値より小さい場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第2の確率とするステップと、
    前記第2の信頼度が前記第1の閾値より小さい前記複数の第3の候補枠を除去し、複数の第4の候補枠を得るステップと、
    前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得るステップと、を含む、請求項20に記載の方法。
  22. 車載カメラによって、運転者の顔画像を含むビデオストリームを収集するステップと、
    請求項1から21のいずれか一項に記載の動作認識方法により、前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るステップと、
    動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するステップと、を含む、運転動作分析方法。
  23. 前記所定条件は、特定の所定動作が現れること、所定時間内で特定の所定動作が現れる回数、前記ビデオストリームに現れている特定の所定動作の持続時間の少なくとも1つを含む、請求項22に記載の方法。
  24. 車載デュアルカメラが設けられている車両の車速を取得するステップをさらに含み、
    動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成する前記ステップは、前記車速が設定閾値より大きく且つ前記動作認識結果が前記所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するステップを含む請求項22又は23に記載の方法。
  25. 顔が含まれる画像の特徴を抽出するための第1の抽出ユニットと、
    前記特徴に基づいて、所定動作を含む可能性がある複数の候補枠を特定するための第2の抽出ユニットと、
    前記複数の候補枠に基づいて動作目標枠を特定するための特定ユニットであって、前記動作目標枠が、顔の局所領域及び動作インタラクティブ物体を含む特定ユニットと、
    前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るための分類ユニットと、を含む、動作認識装置。
  26. 前記顔の局所領域は、口部領域、耳部領域、眼部領域の少なくとも1つを含む、請求項25に記載の装置。
  27. 前記動作インタラクティブ物体は、容器、煙草、携帯電話、食べ物、工具、飲料ボトル、眼鏡、マスクの少なくとも1つを含む、請求項25又は26に記載の装置。
  28. 前記動作目標枠は、手部領域をさらに含む、請求項25から27のいずれか一項に記載の装置。
  29. 前記所定動作は、電話かけ、喫煙、水や飲料の飲用、食事、工具の使用、眼鏡かけ、化粧の少なくとも1つを含む、請求項25から28のいずれか一項に記載の装置。
  30. 車両乗員の顔が含まれる画像を撮影するための車載カメラをさらに含む、請求項25から29のいずれか一項に記載の装置。
  31. 前記車両乗員は、前記車両の運転領域の運転者、前記車両の助手席領域の人、前記車両の後部座席の人の少なくとも1つを含む、請求項30に記載の装置。
  32. 前記車載カメラはRGBカメラ、赤外線カメラ又は近赤外線カメラである、請求項30又は31に記載の装置。
  33. 前記第1の抽出ユニットは、顔が含まれる画像の特徴を抽出し、特徴マップを得るためのニューラルネットワークの特徴抽出ブランチを含む、請求項25から32のいずれか一項に記載の装置。
  34. 前記第2の抽出ユニットは、
    前記特徴マップにおいて所定動作を含む可能性がある複数の候補枠を抽出するための前記ニューラルネットワークの候補枠抽出ブランチを含む、請求項33に記載の装置。
  35. 前記候補枠抽出ブランチは、
    前記所定動作の特徴に基づいて、前記特徴マップ内の特徴を分割し、複数の候補領域を得るための分割サブユニットと、
    前記複数の候補領域に基づいて、前記複数の候補枠と前記複数の候補枠のうちの各候補枠の第1の信頼度とを得るための第1の取得サブユニットであって、前記第1の信頼度が、前記候補枠が前記動作目標枠である確率である第1の取得サブユニットと、を含む、請求項34に記載の装置。
  36. 前記特定ユニットは、前記複数の候補枠に基づいて動作目標枠を特定するための前記ニューラルネットワークの検出枠リファインメントブランチを含む、請求項33から35のいずれか一項に記載の装置。
  37. 前記検出枠リファインメントブランチは、
    前記第1の信頼度が第1の閾値より小さい候補枠を除去し、少なくとも1つの第1の候補枠を得るための除去サブユニットと、
    前記少なくとも1つの第1の候補枠をプーリング処理し、少なくとも1つの第2の候補枠を得るための第2の取得サブユニットと、
    前記少なくとも1つの第2の候補枠に基づいて、動作目標枠を特定するための特定サブユニットと、を含む、請求項36に記載の装置。
  38. 前記第2の取得サブユニットはさらに、
    前記少なくとも1つの第1の候補枠をそれぞれプーリング処理し、前記少なくとも1つの第1の候補枠に対応する少なくとも1つの第1の特徴領域を得るステップと、各第1の特徴領域に基づいて、対応する第1の候補枠の位置及び大きさを調整し、少なくとも1つの第2の候補枠を得るステップと、を実行するために用いられる、請求項37に記載の装置。
  39. 前記第2の取得サブユニットはさらに、
    前記第1の特徴領域内の前記所定動作に対応する特徴に基づいて、前記所定動作の特徴に対応する第1の動作特徴枠を得るステップと、前記第1の動作特徴枠の幾何中心座標に基づいて、前記少なくとも1つの第1の候補枠の第1の位置オフセットを得るステップと、前記第1の動作特徴枠の大きさに基づいて、前記少なくとも1つの第1の候補枠の第1のズーム倍率を得るステップと、少なくとも1つの第1の位置オフセット及び少なくとも1つの第1のズーム倍率に基づいて、前記少なくとも1つの第1の候補枠の位置及び大きさをそれぞれ調整し、少なくとも1つの第2の候補枠を得るステップと、を実行するために用いられる、請求項38に記載の装置。
  40. 前記分類ユニットは、前記特徴マップ上の前記動作目標枠に対応する領域マップを取得し、前記領域マップに基づいて所定動作を分類し、動作認識結果を得るための前記ニューラルネットワークの動作分類ブランチを含む、請求項25から39のいずれか一項に記載の装置。
  41. 前記ニューラルネットワークは、複数のサンプル画像を含むトレーニング画像セットに基づいて事前に教師ありトレーニングを行って得られたものであり、前記サンプル画像のラベリング情報は、動作監視枠、及び前記動作監視枠に対応する動作種別を含む、請求項35から40のいずれか一項に記載の装置。
  42. 前記トレーニング画像セットは正サンプル画像と負サンプル画像とを含み、前記負サンプル画像の動作が前記正サンプル画像の動作と類似し、前記正サンプルの動作監視枠は、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含む、請求項41に記載の装置。
  43. 前記正サンプル画像の動作は電話をかける動作を含み、前記負サンプル画像は耳を掻く動作を含み、及び/又は、前記正サンプル画像は喫煙、食事や飲水を含み、前記負サンプル画像は口を開く動作又は唇に手を当てる動作を含む、請求項41又は42に記載の装置。
  44. 前記動作認識装置は、
    サンプル画像の第1の特徴マップを抽出するための第1の抽出ユニットと、
    所定動作を含む可能性がある前記第1の特徴マップの複数の第3の候補枠を抽出するための第2の抽出ユニットと、
    前記複数の第3の候補枠に基づいて動作目標枠を特定するための第1の特定ユニットと、
    前記動作目標枠に基づいて所定動作を分類し、動作認識結果を得るための第3の取得ユニットと、
    前記サンプル画像の候補枠の検出結果と検出枠のラベリング情報の第1の損失、及び動作認識結果と動作種別ラベリング情報の第2の損失を特定するための第2の特定ユニットと、
    前記第1の損失及び前記第2の損失に基づいて、前記ニューラルネットワークのネットワークパラメータを調整するための調整ユニットと、
    を含むニューラルネットワークのトレーニングコンポーネントをさらに含む、請求項41から43のいずれか一項に記載の装置。
  45. 前記第1の特定ユニットは、
    前記所定動作に基づいて第1の動作監視枠を得るための第1の取得サブユニットであって、前記第1の動作監視枠が、顔の局所領域及び動作インタラクティブ物体を含むか、又は顔の局所領域、手部領域及び動作インタラクティブ物体を含む第1の取得サブユニットと、
    前記複数の第3の候補枠の第2の信頼度を得るための第2の取得サブユニットであって、前記第2の信頼度が、前記第3の候補枠が前記動作目標枠である第1の確率、及び前記第3の候補枠が前記動作目標枠でない第2の確率を含む第2の取得サブユニットと、
    前記複数の第3の候補枠と前記第1の動作監視枠の面積重なり具合を特定するための特定サブユニットと、
    前記面積重なり具合が第2の閾値以上である場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第1の確率とし、前記面積重なり具合が前記第2の閾値より小さい場合、前記面積重なり具合に対応する前記第3の候補枠の前記第2の信頼度を前記第2の確率とするための選定サブユニットと、
    前記第2の信頼度が前記第1の閾値より小さい前記複数の第3の候補枠を除去し、複数の第4の候補枠を得るための除去サブユニットと、
    前記第4の候補枠の位置及び大きさを調整し、前記動作目標枠を得るための調整サブユニットと、を含む請求項44に記載の装置。
  46. 運転者の顔画像を含むビデオストリームを収集するための車載カメラと、
    請求項25から45のいずれか一項に記載の動作認識装置により、前記ビデオストリーム内の少なくとも1フレームの画像の動作認識結果を得るための第1の取得ユニットと、
    動作認識結果が所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するための生成ユニットと、を含む運転動作分析装置。
  47. 前記所定条件は、特定の所定動作が現れること、所定時間内で特定の所定動作が現れる回数、前記ビデオストリームに現れている特定の所定動作の持続時間の少なくとも1つを含む請求項46に記載の装置。
  48. 車載デュアルカメラが設けられている車両の車速を取得するための第2の取得ユニットをさらに含み、
    前記生成ユニットは、前記車速が設定閾値より大きく且つ前記動作認識結果が前記所定条件を満たすことに応答して、危険運転のリマインディング情報を生成するためにも用いられる請求項46又は47に記載の装置。
  49. コンピュータ実行可能コマンドが記憶されているメモリと、前記メモリ上のコンピュータ実行可能コマンドを実行する時に、請求項1から21のいずれか一項に記載の方法、又は請求項22から24のいずれか一項に記載の方法を実現するプロセッサと、を含む電子機器。
  50. プロセッサにより実行されると、請求項1から21のいずれか一項に記載の方法、又は請求項22から24のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されているコンピュータ可読記憶媒体。
  51. 機器のプロセッサ上で実行されると、請求項1から21のいずれか一項に記載の方法、又は請求項22から24のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2020551540A 2018-09-27 2019-09-26 動作認識、運転動作分析の方法及び装置、並びに電子機器 Active JP7061685B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811130798.6 2018-09-27
CN201811130798.6A CN110956060A (zh) 2018-09-27 2018-09-27 动作识别、驾驶动作分析方法和装置及电子设备
PCT/CN2019/108167 WO2020063753A1 (zh) 2018-09-27 2019-09-26 动作识别、驾驶动作分析方法和装置、电子设备

Publications (2)

Publication Number Publication Date
JP2021517312A true JP2021517312A (ja) 2021-07-15
JP7061685B2 JP7061685B2 (ja) 2022-04-28

Family

ID=69951010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551540A Active JP7061685B2 (ja) 2018-09-27 2019-09-26 動作認識、運転動作分析の方法及び装置、並びに電子機器

Country Status (6)

Country Link
US (1) US20210012127A1 (ja)
JP (1) JP7061685B2 (ja)
KR (1) KR102470680B1 (ja)
CN (1) CN110956060A (ja)
SG (1) SG11202009320PA (ja)
WO (1) WO2020063753A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023509572A (ja) * 2020-04-29 2023-03-09 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 車両を検出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490202B (zh) * 2019-06-18 2021-05-25 腾讯科技(深圳)有限公司 检测模型训练方法、装置、计算机设备和存储介质
US11222242B2 (en) * 2019-08-23 2022-01-11 International Business Machines Corporation Contrastive explanations for images with monotonic attribute functions
US10803334B1 (en) * 2019-10-18 2020-10-13 Alpine Electronics of Silicon Valley, Inc. Detection of unsafe cabin conditions in autonomous vehicles
KR102374211B1 (ko) * 2019-10-28 2022-03-15 주식회사 에스오에스랩 객체 인식 방법 및 이를 수행하는 객체 인식 장치
US11043003B2 (en) * 2019-11-18 2021-06-22 Waymo Llc Interacted object detection neural network
CN112947740A (zh) * 2019-11-22 2021-06-11 深圳市超捷通讯有限公司 基于动作分析的人机交互方法、车载装置
CN111931640B (zh) * 2020-08-07 2022-06-10 上海商汤临港智能科技有限公司 异常坐姿识别方法、装置、电子设备及存储介质
CN112270210B (zh) * 2020-10-09 2024-03-01 珠海格力电器股份有限公司 数据处理、操作指令识别方法、装置、设备和介质
CN112257604A (zh) * 2020-10-23 2021-01-22 北京百度网讯科技有限公司 图像检测方法、装置、电子设备和存储介质
CN112339764A (zh) * 2020-11-04 2021-02-09 杨华勇 一种基于大数据的新能源汽车驾驶姿态分析系统
CN113011279A (zh) * 2021-02-26 2021-06-22 清华大学 粘膜接触动作的识别方法、装置、计算机设备和存储介质
WO2022217551A1 (zh) * 2021-04-15 2022-10-20 华为技术有限公司 目标检测方法和装置
CN113205067B (zh) * 2021-05-26 2024-04-09 北京京东乾石科技有限公司 作业人员监控方法、装置、电子设备和存储介质
CN113205075A (zh) * 2021-05-31 2021-08-03 浙江大华技术股份有限公司 一种检测吸烟行为的方法、装置及可读存储介质
CN113362314B (zh) * 2021-06-18 2022-10-18 北京百度网讯科技有限公司 医学图像识别方法、识别模型训练方法及装置
CN114670856B (zh) * 2022-03-30 2022-11-25 湖南大学无锡智能控制研究院 一种基于bp神经网络的参数自整定纵向控制方法及系统
CN116901975B (zh) * 2023-09-12 2023-11-21 深圳市九洲卓能电气有限公司 一种车载ai安防监控系统及其方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001979A (ja) * 2013-06-14 2015-01-05 由田新技股▲ふん▼有限公司 車両運転用の警告方法および車両用の電子装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8447100B2 (en) * 2007-10-10 2013-05-21 Samsung Electronics Co., Ltd. Detecting apparatus of human component and method thereof
KR101386823B1 (ko) * 2013-10-29 2014-04-17 김재철 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치
CN104573659B (zh) * 2015-01-09 2018-01-09 安徽清新互联信息科技有限公司 一种基于svm的驾驶员接打电话监控方法
CN105260705B (zh) * 2015-09-15 2019-07-05 西安邦威电子科技有限公司 一种适用于多姿态下的驾驶人员接打电话行为检测方法
CN105260703B (zh) * 2015-09-15 2019-07-05 西安邦威电子科技有限公司 一种适用于多姿态下的驾驶人员抽烟行为检测方法
JP6443393B2 (ja) * 2016-06-01 2018-12-26 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム
CN106096607A (zh) * 2016-06-12 2016-11-09 湘潭大学 一种车牌识别方法
CN106504233B (zh) * 2016-10-18 2019-04-09 国网山东省电力公司电力科学研究院 基于Faster R-CNN的无人机巡检图像电力小部件识别方法及系统
CN106780612B (zh) * 2016-12-29 2019-09-17 浙江大华技术股份有限公司 一种图像中的物体检测方法及装置
CN106815574B (zh) * 2017-01-20 2020-10-02 博康智能信息技术有限公司北京海淀分公司 建立检测模型、检测接打手机行为的方法和装置
CN106941602B (zh) * 2017-03-07 2020-10-13 中国铁路总公司 机车司机行为识别方法及装置
CN107316001A (zh) * 2017-05-31 2017-11-03 天津大学 一种自动驾驶场景中小且密集的交通标志检测方法
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107563446B (zh) * 2017-09-05 2020-08-18 华中科技大学 一种微操作系统目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001979A (ja) * 2013-06-14 2015-01-05 由田新技股▲ふん▼有限公司 車両運転用の警告方法および車両用の電子装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023509572A (ja) * 2020-04-29 2023-03-09 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 車両を検出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7357789B2 (ja) 2020-04-29 2023-10-06 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 車両を検出するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム

Also Published As

Publication number Publication date
KR20200124280A (ko) 2020-11-02
JP7061685B2 (ja) 2022-04-28
SG11202009320PA (en) 2020-10-29
WO2020063753A1 (zh) 2020-04-02
US20210012127A1 (en) 2021-01-14
KR102470680B1 (ko) 2022-11-25
CN110956060A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
JP7061685B2 (ja) 動作認識、運転動作分析の方法及び装置、並びに電子機器
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
US9891716B2 (en) Gesture recognition in vehicles
KR101198322B1 (ko) 얼굴 표정 인식 방법 및 시스템
US20210081754A1 (en) Error correction in convolutional neural networks
CN110956061B (zh) 动作识别方法及装置、驾驶员状态分析方法及装置
EP2490155A1 (en) A user wearable visual assistance system
EP3382510A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP2022530605A (ja) 子供状態検出方法及び装置、電子機器、記憶媒体
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
US11341680B2 (en) Gaze point estimation processing apparatus, gaze point estimation model generation apparatus, gaze point estimation processing system, and gaze point estimation processing method
KR20210058887A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체
EP4042318A1 (en) System and method of generating a video dataset with varying fatigue levels by transfer learning
WO2021047587A1 (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
CN111062328A (zh) 一种图像处理方法、装置及智能机器人
CN111222444A (zh) 一种考虑驾驶员情绪的增强现实抬头显示方法和系统
CN111488774A (zh) 一种图像处理方法、装置和用于图像处理的装置
CN115035581A (zh) 面部表情识别方法、终端设备及存储介质
CN116824533A (zh) 一种基于注意力机制的远小目标点云数据特征增强方法
KR20180071156A (ko) 동영상을 필터링하는 방법 및 장치
CN115205262A (zh) 显微图像的处理方法、装置、计算机设备及存储介质
CN114663863A (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN114267041A (zh) 场景中对象的识别方法及装置
US20230334907A1 (en) Emotion Detection
WO2024001539A1 (zh) 说话状态识别方法及模型训练方法、装置、车辆、介质、计算机程序及计算机程序产品

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7061685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150