JP2022530605A - 子供状態検出方法及び装置、電子機器、記憶媒体 - Google Patents

子供状態検出方法及び装置、電子機器、記憶媒体 Download PDF

Info

Publication number
JP2022530605A
JP2022530605A JP2021557464A JP2021557464A JP2022530605A JP 2022530605 A JP2022530605 A JP 2022530605A JP 2021557464 A JP2021557464 A JP 2021557464A JP 2021557464 A JP2021557464 A JP 2021557464A JP 2022530605 A JP2022530605 A JP 2022530605A
Authority
JP
Japan
Prior art keywords
child
target
information
face
center point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021557464A
Other languages
English (en)
Other versions
JP7259078B2 (ja
Inventor
王▲飛▼
▲錢▼晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Lingang Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Publication of JP2022530605A publication Critical patent/JP2022530605A/ja
Application granted granted Critical
Publication of JP7259078B2 publication Critical patent/JP7259078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/24Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles
    • B60N2/26Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children
    • B60N2/266Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children with detection or alerting means responsive to presence or absence of children; with detection or alerting means responsive to improper locking or installation of the child seats or parts thereof
    • B60N2/267Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles for particular purposes or particular vehicles for children with detection or alerting means responsive to presence or absence of children; with detection or alerting means responsive to improper locking or installation of the child seats or parts thereof alerting means responsive to presence or absence of children
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Child & Adolescent Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体を提供する。ここで、第1態様によれば、本発明は、子供状態検出方法を提供し、前記子供状態検出方法は、キャビン内の目標画像を取得することと、前記目標画像内の子供を認識することと、前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む。【選択図】図1

Description

[関連出願への相互参照]
本願は、2020年03月30日に中国特許局に提出された、出願番号が202010239259.7である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が引用によって本願に組み込まれる。
[技術分野]
本発明は、コンピュータビジョンの技術分野に関し、特に、子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体に関する。
現在の自動車用電子産業は急速に発展しており、人々が車に乗るのに便利で快適なキャビン環境を提供している。インテリジェントで安全なキャビンは、現在の自動車産業の発展重要な発展方向である。
身体の発達やその他の制限により、子供にとって車に乗るリスクが高い。車載システムの安全認識に関しては、現在、乗車中の子供の安全性を効果的に認識して早期警告することができないため、乗車中の子供の安全に問題が生じる可能性がある。
これを鑑みて、本発明は、少なくとも、子供状態検出方法及び装置を提供する。
第1態様によれば、本発明は、子供状態検出方法を提供し、前記子供状態検出方法は、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む。
この態様によれば、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
一可能な実施形態において、上記の子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、
前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む。
一可能な実施形態において、前記子供状態検出方法は、
前記目標画像内のチャイルドシートを認識することと、
キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む。
一可能な実施形態において、前記目標画像内の子供を認識することは、
前記子供の状態特徴情報を認識することと、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む。
一可能な実施形態において、前記目標画像内の子供を認識することは、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含む。
一可能な実施形態において、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む。
一可能な実施形態において、前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む。
一可能な実施形態において、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む。
一可能な実施形態において、前記対象は顔及び体を含み、
前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングすることと、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む。
一可能な実施形態において、前記子供状態検出方法は、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む。
一可能な実施形態において、前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む。
一可能な実施形態において、前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む。
一可能な実施形態において、前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することと、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定することと、を含む。
一可能な実施形態において、顔の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
一可能な実施形態において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔の器官の動作として決定することと、を含む。
第2態様によれば、本発明は、子供状態検出装置を提供し、前記子供状態検出装置は、
キャビン内の目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の子供を認識するように構成される子供認識モジュールと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備える。
第3態様によれば、本発明は、電子機器を提供し、前記電子機器は、プロセッサ、メモリ及びバスを備え、前記メモリには、前記プロセッサ実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記メモリはバスを介して通信し、前記機械可読命令が前記プロセッサによって実行されるときに、上記の子供状態検出方法のステップを実行する。
第4態様によれば、本発明は、コンピュータ可読記憶媒体を更に提供し、当該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサによって実行されるときに、上記委の子供状態検出方法のステップを実行する。
本発明は、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品はコンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器によって実行されるときに、前記電子機器のプロセッサに、上記の1つまたは複数の実施例における方法を実行させる。
本発明の装置、電子機器、及びコンピュータ可読記憶媒体は、少なくとも、本発明の上記の方法の任意の態様又は任意の態様の任意の実施形態に係る技術的特徴と同じ又は類似の技術的特徴を含むため、上記の装置、電子機器、及びコンピュータ可読記憶媒体の技術的効果については、上記の方法の技術的効果の説明を参照でき、ここでは繰り返して説明しない。
本発明の実施例の技術的解決策をより明確に説明するために、以下では、実施例に使用される図面について簡単に説明し、以下の図面は、本発明のいくつかの特定の実施例のみを示し、範囲を限定するものと見なされるべきではことを理解されたい。当業者にとっては、創造的な作業なしに、これらの図面にしたがって他の図面を得ることもできる。
本発明の実施例に係る子供状態検出方法のフローチャートを示す。 本発明の実施例に係る別の子供状態検出方法において、目標画像内の各対象の対象情報を決定することを示すフローチャートを示す。 本発明の実施例に係る更に別の子供状態検出方法において、対象の対象タイプ情報を決定することを示すフローチャートを示す。 本発明の実施例に係る更に別の子供状態検出方法において、子供の気分状態特徴情報を決定することを示すフローチャートを示す。 本発明の実施例に係る子供状態検出装置の概略構造図を示す。 本発明の実施例に係る電子機器の概略構造図を示す。
本発明の実施例の目的、技術的解決策および利点をより明確にするために、以下、本発明の実施例における図面を参照して、本発明の実施例における技術的解決策を明確且つ完全に説明するが、理解できることとして、本発明の図面は、説明及び解釈するためのものに過ぎず、本発明の保護範囲を限定するものではない。また、理解できることとして、例示の図面は、原寸に比例して描かれていない。本発明で使用されるフローチャートは、本発明に係るいくつかの実施例に係る動作を示す。理解できることとして、フローチャートの動作は順番に実現することではなく、論理的なコンテキスト関係を有しないステップは、逆順に実施されたり、又は同時実施されることができる。さらに、当業者は、本発明に基づき、フローチャートに1つ又は複数の他の動作を追加してもよく、フローチャートから1つ又は複数の動作を取り消してもよい。
さらに、説明された実施例は、実施例のすべてではなく、本発明の実施例の一部に過ぎない。通常、本明細書の図面に記載および図示されている本発明の実施例のコンポーネントは、様々な異なる構成で配置および設計することができる。したがって、図面に提供される本発明の実施例の以下の詳細な説明は、本発明の保護範囲を制限するものではなく、本発明の特定の実施例を示すものに過ぎない。本発明の実施例に基づき、創造的な努力なしに当業者が取得した他のすべての実施例は、本発明の保護範囲に含まれる。
本発明の実施例の「含む」という用語は、その後の特徴の存在を表すた目のものであり、他の特徴が追加される場合を排除しない。
本発明は、子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体を提供する。本発明は、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
以下では、実施例を参照して、本発明に係る子供状態検出方法及び装置、電子機器、コンピュータ可読記憶媒体を説明する。
本発明の実施例は、子供状態検出方法を提供し、当該方法は、子供状態及び安全性を検出するための端末機器動作を認識するステップは、又はサーバに適用される。図1に示されたように、本発明の実施例に係る子供状態検出方法は、次のステップを含む。
ステップS110において、キャビン内の目標画像を取得する。
ここで、目標画像は、子供を含む場合と含まない場合があり、当該画像は、子供の状態と安全性を検出するための端末機器によって撮影されてもよいし、他の撮影機器によって撮影された後に上記の子供の状態と安全性を検出するための端末機器やサーバに伝送されてもよい。
ステップS120において、前記目標画像内の子供を認識する。
ここで、目標画像内の子供を認識することは、目標画像内の各対象から子供を選別し、子供の位置情報を決定することを含む。
目標画像内の子供を認識する場合、先ず、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することができる。ここで、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む。その後、決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定する。
上記の対象タイプ情報は、子供タイプ、後部座席タイプ、チャイルドシートタイプ、成人タイプなどを含み得、中心点情報は、対応する対象の中心点の位置情報を含み得る。そうすると、実施するとき、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象から子供を選別した後、子供に属する中心点情報を用いて子供の位置情報を決定することができる。
このステップでは、対象の中心点及び中心点に対応する対象タイプ情報を認識及び決定することにより、目標画像内の子供を正確に決定することができ、画像内の子供認識の精度を向上させることができる。
ステップS130において、前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定する。
ここで、子供がキャビン内の後部座席にいるかどうかを判断する前に、先ず、目標画像内の後部座席を認識し、後部座席の位置情報を決定する必要がある。
目標画像内の後部座席を認識し、後部座席の位置情報を決定する方法は、目標画像内の子供を認識し、子供の位置情報を決定する上記の方法と同じである。つまり、前記方式は、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象から後部座席を選別した後、後部座席に属する中心点情報を用いて後部座席の位置情報を決定することであってもよい。
子供の位置情報及び後部座席の位置情報を決定した後、当該2つの位置情報を用いて、子供がキャビン内の後部座席にいるかどうかを決定することができる。
ステップS140において、前記子供がキャビン内の後部座席にいない場合、警告を発する。
ここで、上記の判断により、子供が後部座席にいないと決定した場合、子供の乗車状態が不安全であると決定し、この場合、運転者や他の乗客に警報を発して、キャビン内の子供の位置を調整するようにすることにより、乗車中の子供の安全性を向上させる。
乗車中の子供の安全性をさらに向上させるために、子供は、後部座席だけでなく、チャイルドシートにもいる必要があり、したがって、上記の子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含み得る。
上記のステップを実行する前に、先ず、目標画像内のチャイルドシートを認識する必要があり、キャビン内にチャイルドシートがある場合、チャイルドシートの位置情報を決定する。
目標画像内のチャイルドシートを認識し、チャイルドシートの位置情報を決定する方法は、目標画像内の子供を認識し、子供の位置情報を決定する上記の方法と同じである。つまり、前記方式は、決定された中心点に対応する対象タイプ情報を用いて、目標画像内の各対象からチャイルドシートを選別した後、チャイルドシートに属する中心点情報を用いてチャイルドシートの位置情報を決定することであってもよい。
子供の位置情報及びチャイルドシートの位置情報を決定した後、当該2つの位置情報を用いて、子供がキャビン内のチャイルドシートにいるかどうかを決定することができる。
認識により、キャビン内にチャイルドシートがないと決定し、キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発する。このようにして、子供が車に乗っているシナリオでは、キャビン内にチャイルドシートがない場合、警告を時間内に発して、乗車中の子供の安全性を向上させることができる。
上記において、子供がチャイルドシートに位置せず、キャビンの移動速度がプリセットされた値より大きい場合、警告を発することにより、乗車中の子供の安全状態認識の精度を更に向上させ、乗車中の子供の安全性を向上させる。
上記の実施例によれば、対象情報に従って、子供、後部座席、及びチャイルドシートなどに対して認識及び位置決めを実行することができる。上記の対象は、顔、体、後部座席、チャイルドシートなどであってもよい。
そうすると、図2に示されたように、いくつかの実施例において、次のステップにより、目標画像内の各対象の対象情報を決定することができる。
ステップS210において、前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得する。
ここで、先ず、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行することができ、例えば、目標画像をバックボーンネットワーク(backbone)というニューラルネットワークに入力して画像特徴抽出を実行することにより、1つの初期特徴マップを取得することができる。その後、当該初期特徴マップを、対象情報を抽出するためのニューラルネットワークに入力して、上記の第1特徴マップを取得する。
実施する場合、上記の目標画像は、640*480ピクセルのサイズの画像であってもよく、backbone処理後、80*60*Cの初期特徴マップを取得することができる。ここで、Cは、チャネルの数を表す。対象情報を抽出するためのニューラルネットワークを介して初期特徴マップを処理した後、80*60*3の第1特徴マップを取得することができる。
ステップS220において、前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得する。
ここで、第1プリセットされたチャネルは、第1特徴マップにおける第0チャネルであってもよく、当該チャネルは、対象の中心点のチャネルであり、当該チャネル内の応答値は、各特徴点が対象の中心点として使用される可能性を表すことができる。
第1プリセットされたチャネル内の各特徴点に対応する応答値を取得した後、sigmoid活性化関数を介して、これらの応答値を0~1に転換することができる。
ステップS230において、前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定する。
ここで、特徴マップに対して、3*3のステップ幅が1である最大プーリング化(max pooling)操作を実行して、3*3内の最大応答値及び第1特徴マップにおけるその位置インデックスを取得することができる。つまり、60*80個の最大の応答値及びそれに対応する位置インデックスを取得することができる。
その後、同じ位置インデックスを合併して、N個の最大の応答値、各最大の応答値に対応する位置インデックス、及び各最大の応答値に対応する特徴点を取得することもできる。
ステップS240において、最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定する。
ここで、閾値thrdを事前に設定し、最大の応答値がthrdより大きい場合、当該特徴点が対象の中心点であると判定することができる。
このように、特徴マップ内の応答値に対して最大プーリング処理を実行することにより、局部範囲において対象である可能性が最も高い対象の中心点の特徴点を見つけることができ、それにより、決定された中心点の精度を効果的に向上させることができる。
上記では、対象の中心点及び中心点の位置情報を中心点情報として使用する。いくつかの実施例において、中心点情報は、対象の中心点の長さ情報及び幅情報を更に含む。この場合、次のステップにより、中心点の長さ情報及び幅情報を決定することができる。
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得する。前記第1特徴マップの第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得する。
上記の第2プリセットされたチャネルは、第1特徴マップにおける第1チャネルであってもよく、第3プリセットされたチャネルは、第1特徴マップにおける第2チャネルであってもよい。上記のステップでは、第1特徴マップにおける第1チャネルの、中心点に対応する位置から、中心点の長さ情報を取得し、第1特徴マップにおける第2チャネルの、中心点に対応する位置から、中心点の幅情報を取得する。
対象の中心点を決定した後、中心点の位置インデックスを用いて、特徴マップのプリセットされた他のチャネルから、対象の中心点の長さ情報及び幅情報を正確に取得することができる。
対象は顔、体、後部座席、チャイルドシートなどであり得るため、実施するとき、異なるニューラルネットワークを用いて異なる対象に対応する第1特徴マップを決定した後、異なる第1特徴マップに基づいて異なる対象の中心点、各中心点の位置情報、各中心点の長さ情報及び各中心点の幅情報を決定する必要がある。
上記の説明から分かるように、対象情報は、対象の中心点に対応する対象タイプ情報を含み、いくつかの実施例において、図3に示されたように、次のステップにより対象タイプ情報を決定することができる。
ステップS310において、前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得する。
ここで、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行することができ、例えば、目標画像をbackboneニューラルネットワークに入力して画像特徴抽出を実行して、1つの初期特徴マップを取得し、その後、当該初期特徴マップを、対象タイプ認識用のニューラルネットワークに入力して処理して、第2特徴マップを取得し、当該第2特徴マップに基づいて、各対象の中心点に対応する対象タイプ情報を決定することができる。上記の第2特徴マップは、1つの80*60*2の特徴マップであってもよい。
子供を認識する適用シナリオでは、第2特徴マップの各特徴点は、1つの2次元の特徴ベクトルに対応し、対象の中心点に対応する上記の第2特徴マップの特徴点の2次元の特徴ベクトルに対して分類処理を実行して、分類結果を取得することができ、1つの分類結果が子供を表し、もう1つの分類結果がその他を表す場合、上記の分類結果に基づいて中心点に対応する対象タイプ情報が子供であるかどうかを決定することができる。子供を認識する適用シナリオでは、上記の対象は体又は顔であってもよい。
チャイルドシートを認識する適用シナリオでは、第2特徴マップの各特徴点は、1つの2次元の特徴ベクトルに対応し、対象の中心点に対応する上記の第2特徴マップの特徴点の2次元の特徴ベクトルに対して分類処理を実行して、分類結果を取得することができ、1つの分類結果がチャイルドシートを表し、もう1つの分類結果が他を表す場合、上記の分類結果に基づいて中心点に対応する対象タイプ情報がチャイルドシートであるかどうかを決定することができる。
もちろん、同じ方法で、後部座席を認識することもできる。
対象は、顔、体、後部座席、チャイルドシートなどであり得るため、実施するとき、異なるニューラルネットワークを用いて異なる対象に対応する第2特徴マップを決定した後、異なる第2特徴マップに基づいて異なる対象の対象タイプ情報を決定する必要がある。
ステップS320において、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定する。
ここで、目標特徴点は、対象の中心点である。目標特徴点は、プリセットされた閾値より大きい、最大の応答値に対応する特徴点である。
ステップS330において、前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得する。
対象の中心点を決定した後、中心点の位置インデックスを用いて、対象の中心点に対応する対象タイプ情報を正確に取得することができる。
子供を認識する適用シナリオでは、各対象の中心点に対応する対象タイプ情報を決定した後、次のステップにより、目標画像内の子供を認識することができる。
ステップ1において、各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定し、同一人に属する体と顔は互いにマッチングする。
このステップを実行する前に、先ず、各体の中心点及び同一人に属する顔の中心点の位置オフセット情報を決定する必要があり、その後、位置オフセット情報を用いて予測位置情報を決定する。
上記の位置オフセット情報を決定する場合、先ず、目標画像を1つのニューラルネットワークに入力して画像特徴抽出を実行し、例えば、目標画像をbackboneニューラルネットワークに入力して画像特徴抽出を実行することにより、1つの初期特徴マップを取得することができる。その後、上記の位置オフセット情報を決定するためのニューラルネットワークに当該初期特徴マップを入力して、1つの特徴マップを取得し、当該特徴マップに基づいて、各体の中心点に対応する位置オフセット情報を決定することができる。
実施するとき、上記の位置オフセット情報を決定するためのニューラルネットワークを介して初期特徴マップを処理した後、1つの80*60*2の特徴マップを取得することができる。
ステップ2において、決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定する。
ここで、予測位置情報に対応する位置に最も近い中心点の位置に対応する顔を、体とマッチングする顔として使用する。
ステップ3において、マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定する。
ここで、マッチングに成功した体の中心点に対応する対象タイプ情報が、対応する体が属する人が子供であることを指示するか、又は顔の中心点に対応する対象タイプ情報が、対応する顔が属する人が子供であることを指示する場合、当該マッチングに成功した体と顔が属する人は子供であると決定する。
上記によれば、体の中心点に対応する位置オフセット情報を用いて、各体とマッチングする顔の中心点の予測位置情報を決定することができ、予測位置情報を用いて、各体とマッチングする顔を決定することができる。マッチングに成功した体と顔を用いて子供を認識し、これにより、認識の精度を向上させることができる。
ブロックされることなどの原因により、マッチングに成功しない体又は顔がある可能性があり、この場合、マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定する。当該体の中心点に対応する対象タイプ情報が子供であることを指示する場合、当該体が属する人が子供であると決定する。
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定する。当該顔の中心点に対応する対象タイプ情報が子供であることを指示する場合、当該顔が属する人が子供であると決定する。
マッチングに成功しなかった体又は顔について、それ自体の中心点に対応する対象タイプ情報を用いて、子供を正確に認識することができる。
乗車中の子供の安全性を向上させながら、子供の状態特徴情報を認識し、状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することにより、子供のためにより快適で安全な乗車環境を提供することができる。
上記の状態特徴情報は、睡眠状態特徴情報、気分状態特徴情報などを含み得る。ここで、気分状態特徴情報は、嬉しい、泣き、落ち着きなどを含み得る。
上記の状態特徴情報を決定した後、前記キャビン内のキャビン環境を調整することは、前記状態特徴情報が、子供が睡眠状態にあることを指示する場合、ライトを柔らかな状態に調整したり、子守唄を再生したりすること、前記状態特徴情報が、前記子供が嬉しいという気分状態にあることを指示する場合、再生する音楽のタイプを陽気な音楽に設定すること、前記状態特徴情報が、前記子供が泣いているという気分状態にあることを指示する場合、再生する音楽のタイプをなだめる音楽に設定することであってもよい。
いくつかの実施例において、次のステップにより、子供が睡眠状態にいるかどうかを決定することができる。
ステップ1において、前記目標画像から子供の顔サブ画像を抽出する。
ここで、以上の実施例で決定された顔の中心点及び顔の中心点の長さ情報と幅情報を用いて、目標画像から子供の顔サブ画像を抽出することができる。
顔サブ画像を利用することにより、睡眠状態を認識するための画像のサイズとピクセルの数を減らすことができ、つまり、睡眠状態認識を実行するためのデータ処理量を減らし、睡眠状態認識の効率を向上させることができる。
ステップ2において、前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定する。
ここで、左目の開閉状態情報は、左目が見えないこと、左目が見えかつ開いていること、左目が見えかつ閉じていることを含む。右目の開閉状態情報は、右目が見えないこと、右目が見えかつ開いていること、右目が見えかつ閉じていることを含む。
実施するとき、顔サブ画像をトレーニング済みのニューラルネットワークに入力して、当該ニューラルネットワークによって処理されることにより、9つの左目と右目の状態情報を出力することができる。
上記のニューラルネットワークは、2つの全結合層で構成され、当該ニューラルネットワークの入力は、顔サブ画像に対して画像特徴抽出を実行することによって取得された特徴マップである。最初の全結合層は、入力した特徴マップをK4次元の特徴ベクトルに変換し、2番目の全結合層は、K4次元の特徴ベクトルを9次元のベクトルに変換して出力し、その後、分類softmax処理を実行して、softmaxによって出力されたスコアが最大の次元に対応する状態情報は、最終の予測状態情報である。
ステップ3において、子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定する。
ここで、上記のステップ3は、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含み得る。
このように、子供の左目と右目の開閉状態情報に基づいて、子供の目を閉じた累積持続時間を決定し、子供の目を閉じた累積持続時間とプリセットされた閾値との関係を用いて、子供が睡眠状態にいるかどうかを正確に決定することができる。
上記の説明から分かるように、状態特徴情報は、子供の気分状態特徴情報を更に含み、図4に示されたように、次のステップにより前記子供の気分状態特徴情報を認識することができる。
ステップS410において、前記目標画像から子供の顔サブ画像を抽出する。
ここで、以上の実施例で決定された顔の中心点及び顔の中心点の長さ情報と幅情報を用いて、目標画像から子供の顔サブ画像を抽出することができる。
顔サブ画像を利用することにより、気分状態を認識するための画像のサイズとピクセルの数を減らすことができ、つまり、気分状態認識を実行するためのデータ処理量を減らし、気分状態認識の効率を向上させることができる。
ステップS420において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識する。
ここで、顔の器官の動作は、顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含み得る。
顔サブ画像をトレーニング済みのニューラルネットワークに入力して顔の器官の動作認識を実行する前に、ニューラルネットワークが動作認識を実行する効率や精度を向上させるために、一可能な実施形態において、先ず、顔サブ画像に対して画像前処理を実行して、処理後の顔サブ画像を取得することもでき、ここで、前記画像前処理は、顔サブ画像に対してキー情報強調処理を実行するために使用され、その後、処理後の顔サブ画像をトレーニング済みのニューラルネットワークに入力して動作認識を実行する。
ステップS430において、認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定する。
ここで、気分状態特徴情報と顔の器官の動作との間には、一定の対応関係があり、例示的に、顔の器官の動作が口角を上げることである場合、対応する気分状態特徴情報が嬉しいであり、顔の器官の動作が目を大きく開く同時に口を開くことである場合、対応する気分状態特徴は驚きである。
実施プロセスにおいて、認識された顔の器官の動作に基づいて、顔の気分状態特徴情報を決定する場合、認識された顔の各器官の動作、及び事前に設定された動作と気分状態特徴情報との間の対応関係に基づいて、顔サブ画像によって表される顔の気分状態特徴情報を決定することができる。
上記のステップ420において、顔サブ画像に対して画像前処理を実行する場合、顔サブ画像内のキーポイントの位置情報を決定し、キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行して、顔サブ画像に対応する補正された画像を取得し、補正された画像に対して正規化処理を実行して、処理後の顔サブ画像を取得することができる。
顔サブ画像内のキーポイントは、例えば、眼角、口角、眉、眉の尻尾、鼻などを含み得る。実施中、顔サブ画像内のキーポイントは、必要に応じて設定でき、キーポイントの位置情報は、顔サブ画像におけるキーポイントの位置座標であってもよい。
キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行する場合、先ず、キーポイントの位置情報、及び事前に保存された目標キーポイントのプリセット位置情報に基づいて、変換行列を決定することができ、変換行列は、顔サブ画像内の各キーポイントの位置情報と、当該キーポイントとマッチングする目標キーポイントのプリセット位置情報との間の変換関係を表す。その後、変換行列に基づいて、顔サブ画像に対してアフィン変換を実行する。
キーポイントの位置情報、及び事前に保存された目標キーポイントのプリセット位置情報に基づいて、変換行列を決定する場合、次の式1で計算できる。
Figure 2022530605000002
ここで、x’、y’は、事前に保存された目標キーポイントの横座標と縦座標を示し、x、yは、キーポイントの横座標と縦座標を示し、
Figure 2022530605000003
は変換行列を示す。
変換行列に基づいて、顔サブ画像に対してアフィン変換を実行する場合、先ず、顔サブ画像内の各ピクセルの座標を決定し、次に、顔サブ画像内の各ピクセルの座標を上記の式に取り込んで、各ピクセルに対応する変換後の座標を決定し、各ピクセルに対応する変換後の座標に基づいて、顔サブ画像に対応する補正後の画像を決定することができる。
顔サブ画像に対してアフィン変換を実行することにより、顔サブ画像のうちの異なる向きの顔サブ画像を正面向きの顔サブ画像に変換し、顔サブ画像に対応する補正後の画像に基づいて動作認識を実行することにより、動作認識の精度を向上させることができる。
キーポイントの位置情報に基づいて、顔サブ画像に対してアフィン変換を実行して、顔サブ画像に対応する補正後の画像を取得した後、更に、キーポイントの位置情報に基づいて、補正後の画像を切り取って、切り取られた画像を取得し、切り取られた画像を正規化処理することができる。
このように、先ず、顔の器官の動作を認識し、その後、認識された動作に基づいて、顔に対応する表情状態を決定し、顔の器官の動作と顔の表情状態との間の関係は客観的に存在するものであるため、この方式により、ユーザが顔サブ画像の表情状態を主観的に定義する必要がない。また、顔の器官の動作はいくつかの特定の顔特徴に焦点を合わせることができるため、顔サブ画像上の器官の動作を認識する精度は、表情姿勢を直接認識する精度と比較して大幅に向上できるため、本実施形態は、顔表情認識の精度を向上させることができる。
いくつかの実施例において、上記の顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用される。
上記の前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、以下のステップを含み得る。
ステップ1において、バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得する。
ステップ2において、各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得する。
ステップ3において、発生確率がプリセットされた確率より大きい動作を前記顔サブ画像によって表される顔の器官の動作として決定する。
顔サブ画像によって表される顔が複数の器官の動作を含む場合、上記の方法により、顔サブ画像に対応する複数の器官の動作を同時に認識することができ、さらに、各分類ブランチネットワークを用いて、対応する器官の動作を認識する。各分類ブランチネットワークをトレーニングする場合、特定の器官の動作に対応する画像特徴に焦点を合わせるようにトレーニングすることができため、このようにして、トレーニングされた分類ブランチネットワークの認識精度をより高めることができ、それにより、気分状態認識を実行するときの精度を向上させることができる。
上記の子供状態検出方法に対応して、本発明は、子供状態検出装置を更に提供し、当該装置は、子供状態及び安全性を検出するための端末機器又はサーバに適用され、各モジュールは、上記の方法と同じ方法のステップを実現しかつ同じ有益な効果を得ることができるため、同じ部分については、本発明では繰り返して説明しない。
図5に示されたように、本発明に係る子供状態検出装置は、
キャビン内の目標画像を取得するように構成される画像取得モジュール510と、
前記目標画像内の子供を認識するように構成される子供認識モジュール520と、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュール530と、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュール540と、を備える。
いくつかの実施例において、上記の位置判定モジュール530は更に、前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定するように構成され、
早期警告モジュール540は、前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発する。
いくつかの実施例において、前記子供状態検出装置は更に、前記目標画像内のチャイルドシートを認識するように構成されるチャイルドシート認識モジュール520を備え、
上述早期警告モジュール540は更に、キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発するように構成される。
いくつかの実施例において、上記の子供認識モジュール520は更に、
前記子供の状態特徴情報を認識し、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整するように構成される。
いくつかの実施例において、前記子供認識モジュール520は、前記目標画像内の子供を認識するとき、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定し、ここで、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含み、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定するように構成される。
いくつかの実施例において、前記子供認識モジュール520は、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定するとき、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得し、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得し、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定し、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定するように構成される。
いくつかの実施例において、前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記子供認識モジュール520は更に、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得し、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得するように構成される。
いくつかの実施例において、前記子供認識モジュール520は更に、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定するとき、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得し、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定し、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得するように構成される。
いくつかの実施例において、前記対象は顔及び体を含み、
前記子供認識モジュール520は、決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定するとき、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングし、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定し、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定するように構成される。
いくつかの実施例において、前記子供認識モジュール520は更に、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定し、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定するように構成される。
いくつかの実施例において、前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供認識モジュール520は、前記子供の状態特徴情報を認識するときに、
前記目標画像から子供の顔サブ画像を抽出し、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定し、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定するように構成される。
いくつかの実施例において、前記子供認識モジュール520は、子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定するときに、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定し、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定し、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定するように構成される。
いくつかの実施例において、前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供認識モジュール520は、前記子供の状態特徴情報を認識するときに、
前記目標画像から子供の顔サブ画像を抽出し、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識し、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔の気分状態特徴情報を決定するように構成される。
いくつかの実施例において、顔の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
いくつかの実施例において、前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を前記顔サブ画像によって表される顔の器官の動作として決定することと、を含む。
本発明の実施例は、電子機器を開示し、図6に示されたように、電子機器は、プロセッサ601、メモリ602及びバス603を備え、前記メモリ602には、前記プロセッサ601によって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサ601と前記メモリ602は、バス603を介して通信する。
前記機械可読命令が前記プロセッサ601によって実行されるときに、子供状態検出方法のステップを実行し、前記子供状態検出方法は、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む。
さらに、機械可読命令がプロセッサ601によって実行されるときに、上記の方法の任意の実施形態における方法を実行してもよく、ここでは繰り返して説明しない。
加えて、本発明の実施例は、コンピュータ可読記憶媒体を更に提供し、当該コンピュータ可読記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサによって実行されるときに、上記の方法の実施例に記載の方法のステップを実行する。
本発明の実施例は、上記の方法及び装置に対応する、プログラムコードが記憶されているコンピュータプログラム製品を更に提供し、前記プログラムコードに含まれる命令は、上記の方法の実施例における方法のステップを実行するために使用でき、その実装については、方法の実施例を参照でき、ここでは繰り返して説明しない。
各実施例の上記の説明は、各実施例間の違いを強調する傾向があり、それらの同じまたは類似なところは互いに参照することができ、簡潔にするために、ここでは繰り返して説明しない。
当業者なら明確に理解できるが、説明の便宜上及び簡潔にするために、上記に説明されたシステム、装置の作業プロセスは、上記の方法の実施例における対応するプロセスを参照することができ、本発明では繰り返して説明しない。本発明で提供されたいくつかの実施例において、開示されたシステム、装置及び方法は、他の方式で実現できることを理解されたい。上記で説明された装置の実施例は例示的なものに過ぎず、例えば、前記モジュールの分割は、論理機能の分割に過ぎず、実際の実現では、他の分割方法があり、例えば、複数のモジュール又はコンポーネントを別のシステムに統合又は集積したり、又は一部の特徴を無視したり、又は実行しないことができる。なお、表示又は議論された相互結合又は直接結合又は通信接続は、電気的、機械的又は他の形態の一部の通信インターフェース、装置又はモジュールを介した間接的な結合又は通信接続であり得る。
前記分離部材として説明されたモジュールは、物理的に分離されている場合とされていない場合があり、ユニットとして表示された部材は、物理モジュールである場合もそうでない場合もあり、1箇所に配置される場合もあれば、複数のネットワークユニットに分散される場合もある。実際の必要に応じて、その中のユニットの一部又は全部を選択して本実施例の技術案の目的を実現することができる。
また、本発明の各実施例における各機能ユニットを1つの処理ユニットに統合してもよく、各ユニットを別々に1つのユニットとして使用してもよいし、2つ以上のユニットを1つのユニットに統合してもよい。
前記機能が、ソフトウェア機能ユニットの形で実現され、独立した製品として販売又は使用される場合、プロセッサによって実行可能な不揮発性コンピュータ読み取り可能な記憶媒体に記憶されることができる。このような理解に基づいて、本発明の技術的解決策の本質的な部分、すなわち、先行技術に貢献のある部分、又は前記技術的解決策の一部は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であり得る)に、本開示の各実施例に記載の方法のステップの全部又は一部を実行させるためのいくつかの命令を含む。上記した記憶媒体は、Uディスク、モバイルハードディスク、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶することができる様々なメディアを含む。
上記の内容は、本発明の実施形態に過ぎず、本発明の保護範囲はこれに限定されない。当業者は、本発明に開示された技術的範囲内で容易に想到し得る変更又は置換は、すべて本開示の保護範囲内に含まれるべきである。したがって、本発明の保護範囲は、特許請求の範囲の保護範囲に従うものとする。
本発明は、キャビン内の子供及び子供位置を認識することにより、キャビン内の子供が後部座席にいるかどうかを判断し、子供が後部座席にいない場合、警告を発し、これにより、乗車中の子供の安全状態の認識の精度を向上させ、乗車中の子供の安全性を向上させるのに役に立つ。
本発明は、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品はコンピュータ可読コードを含み、前記コンピュータ可読コードが電子機器によって実行されるときに、前記電子機器のプロセッサに、上記の1つまたは複数の実施例における方法を実行させる。
例えば、本願は以下の項目を提供する。
(項目1)
子供状態検出方法であって、
キャビン内の目標画像を取得することと、
前記目標画像内の子供を認識することと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む、前記子供状態検出方法。
(項目2)
前記子供状態検出方法は、
前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、
前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目3)
前記子供状態検出方法は、
前記目標画像内のチャイルドシートを認識することと、
キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目4)
前記目標画像内の子供を認識することは、
前記子供の状態特徴情報を認識することと、
前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む、
項目1に記載の子供状態検出方法。
(項目5)
前記目標画像内の子供を認識することは、
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含む、
項目1に記載の子供状態検出方法。
(項目6)
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む、
項目5に記載の子供状態検出方法。
(項目7)
前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む、
項目6に記載の子供状態検出方法。
(項目8)
前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む、
項目6に記載の子供状態検出方法。
(項目9)
前記対象は顔及び体を含み、
前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングする、ことと、
決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む、
項目5ないし8のいずれか一項に記載の子供状態検出方法。
(項目10)
前記子供状態検出方法は、
マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む、
項目9に記載の子供状態検出方法。
(項目11)
前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む、
項目4に記載の子供状態検出方法。
(項目12)
前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む、
項目11に記載の子供状態検出方法。
(項目13)
前記状態特徴情報は、子供の気分状態特徴情報を含み、
前記子供の状態特徴情報を認識することは、
前記目標画像から子供の顔サブ画像を抽出することと、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することと、
認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔上の気分状態特徴情報を決定することと、を含む、
項目4に記載の子供状態検出方法。
(項目14)
顔上の器官の動作は、
顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
項目13に記載の子供状態検出方法。
(項目15)
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔上の1つの器官の動作を認識するために使用され、
前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することは、
バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔上の器官の動作として決定することと、を含む、
項目11又は12に記載の子供状態検出方法。
(項目16)
子供状態検出装置であって、
キャビン内の目標画像を取得するように構成される画像取得モジュールと、
前記目標画像内の子供を認識するように構成される子供認識モジュールと、
前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備える、前記子供状態検出装置。
(項目17)
電子機器であって、
プロセッサ、記憶媒体及びバスを備え、前記記憶媒体には、前記プロセッサによって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記記憶媒体は、バスを介して通信し、前記プロセッサは、前記機械可読命令を実行することにより、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記電子機器。
(項目18)
コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるときに、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記コンピュータ可読記憶媒体。
(項目19)
コンピュータ可読コードを含むコンピュータプログラム製品あって、
前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、項目1ないし15のいずれか一項に記載の子供状態検出方法を実行させる、前記コンピュータプログラム製品。

Claims (19)

  1. 子供状態検出方法であって、
    キャビン内の目標画像を取得することと、
    前記目標画像内の子供を認識することと、
    前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定することと、
    前記子供がキャビン内の後部座席にいない場合、警告を発することと、を含む、前記子供状態検出方法。
  2. 前記子供状態検出方法は、
    前記子供の位置情報及び前記目標画像内のチャイルドシートの位置情報に基づいて、前記子供がチャイルドシートにいるかどうかを決定することと、
    前記子供がチャイルドシートにいない場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
    請求項1に記載の子供状態検出方法。
  3. 前記子供状態検出方法は、
    前記目標画像内のチャイルドシートを認識することと、
    キャビン内にチャイルドシートがないと決定した場合、前記キャビンの移動速度がプリセットされた値より大きいことに応答して、警告を発することと、を更に含む、
    請求項1に記載の子供状態検出方法。
  4. 前記目標画像内の子供を認識することは、
    前記子供の状態特徴情報を認識することと、
    前記状態特徴情報に基づいて、前記キャビン内のキャビン環境を調整することと、を更に含む、
    請求項1に記載の子供状態検出方法。
  5. 前記目標画像内の子供を認識することは、
    前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することであって、1つの対象の対象情報は、前記対象の中心点情報及び前記対象の中心点に対応する対象タイプ情報を含む、ことと、
    決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することと、を含む、
    請求項1に記載の子供状態検出方法。
  6. 前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
    前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第1特徴マップを取得することと、
    前記第1特徴マップの第1プリセットされたチャネルから、前記第1特徴マップの各特徴点を対象の中心点の応答値として取得することと、
    前記第1特徴マップを複数のサブ領域に分割し、各サブ領域の最大の応答値及び最大の応答値に対応する特徴点を決定することと、
    最大の応答値がプリセットされた閾値より大きい目標特徴点を対象の中心点として使用し、第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、対象の中心点の位置情報を決定することと、を含む、
    請求項5に記載の子供状態検出方法。
  7. 前記対象の中心点情報は、対象の中心点の長さ情報及び幅情報を更に含み、前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
    前記第1特徴マップの第2プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の長さ情報を取得することと、
    前記第1特徴マップ的第3プリセットされたチャネルの、前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象の中心点の幅情報を取得することと、を更に含む、
    請求項6に記載の子供状態検出方法。
  8. 前記目標画像に基づいて、前記目標画像内の各対象の対象情報を決定することは、
    前記目標画像に対して特徴抽出を実行して、前記目標画像に対応する第2特徴マップを取得することと、
    第1特徴マップにおける前記目標特徴点の位置インデックスに基づいて、前記第2特徴マップにおける前記目標特徴点の位置インデックスを決定することと、
    前記第2特徴マップにおける前記目標特徴点の位置インデックスに対応する位置から、前記目標特徴点に対応する対象タイプ情報を取得することと、を更に含む、
    請求項6に記載の子供状態検出方法。
  9. 前記対象は顔及び体を含み、
    前記決定された各対象の対象情報に基づいて、前記目標画像内の子供を決定することは、
    各体の中心点に対応する位置オフセット情報に基づいて、各体とマッチングする顔の中心点の予測位置情報をそれぞれ決定することであって、同一人に属する体と顔は互いにマッチングする、ことと、
    決定された予測位置情報及び各顔の中心点の位置情報に基づいて、各体とマッチングする顔を決定することと、
    マッチングに成功した体と顔について、マッチングに成功した体の中心点に対応する対象タイプ情報及び顔の中心点に対応する対象タイプ情報を用いて、前記マッチングに成功した体と顔が属する人が子供であるかどうかを決定することと、を含む、
    請求項5ないし8のいずれか一項に記載の子供状態検出方法。
  10. 前記子供状態検出方法は、
    マッチングに成功しなかった体について、前記体の中心点に対応する対象タイプ情報を用いて前記体の中心点が属する人が子供であるかどうかを決定することと、
    マッチングに成功しなかった顔について、前記顔の中心点に対応する対象タイプ情報を用いて前記顔の中心点が属する人が子供であるかどうかを決定することと、を更に含む、
    請求項9に記載の子供状態検出方法。
  11. 前記状態特徴情報は、子供の睡眠状態特徴情報を含み、
    前記子供の状態特徴情報を認識することは、
    前記目標画像から子供の顔サブ画像を抽出することと、
    前記顔サブ画像に基づいて、子供の左目の開閉状態情報及び右目の開閉状態情報を決定することと、
    子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することと、を含む、
    請求項4に記載の子供状態検出方法。
  12. 前記子供の左目の開閉状態情報及び右目の開閉状態情報に基づいて、子供の睡眠状態特徴情報を決定することは、
    連続する複数のフレームの前記目標画像に対応する左目の開閉状態情報及び右目の開閉状態情報に基づいて、前記子供が目を閉じた累積持続時間を決定することと、
    前記目を閉じた累積持続時間がプリセットされた閾値より大きい場合、前記睡眠状態特徴情報が睡眠状態であると決定することと、
    前記目を閉じた累積持続時間がプリセットされた閾値より小さいか等しい場合、前記睡眠状態特徴情報が非睡眠状態であると決定することと、を含む、
    請求項11に記載の子供状態検出方法。
  13. 前記状態特徴情報は、子供の気分状態特徴情報を含み、
    前記子供の状態特徴情報を認識することは、
    前記目標画像から子供の顔サブ画像を抽出することと、
    前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することと、
    認識された前記各器官の動作に基づいて、前記顔サブ画像によって表される顔上の気分状態特徴情報を決定することと、を含む、
    請求項4に記載の子供状態検出方法。
  14. 顔上の器官の動作は、
    顔をしかめること、目を大きく開くこと、口角を上げること、上唇を上げること、口角を下げること、及び口を開くことを含む。
    請求項13に記載の子供状態検出方法。
  15. 前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識するステップは、動作認識用のニューラルネットワークによって実行され、前記動作認識用のニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔上の1つの器官の動作を認識するために使用され、
    前記顔サブ画像によって表される顔上の少なくとも2つの器官の各器官の動作を認識することは、
    バックボーンネットワークを用いて前記顔サブ画像に対して特徴抽出を実行して、前記顔サブ画像の特徴マップを取得することと、
    各分類ブランチネットワークを用いて、前記顔サブ画像の特徴マップに従って動作認識をそれぞれ実行して、各分類ブランチネットワークによって認識できる動作の発生確率を取得することと、
    発生確率がプリセットされた確率より大きい動作を、前記顔サブ画像によって表される顔上の器官の動作として決定することと、を含む、
    請求項11又は12に記載の子供状態検出方法。
  16. 子供状態検出装置であって、
    キャビン内の目標画像を取得するように構成される画像取得モジュールと、
    前記目標画像内の子供を認識するように構成される子供認識モジュールと、
    前記子供の位置情報に基づいて、前記子供がキャビン内の後部座席にいるかどうかを決定するように構成される位置判定モジュールと、
    前記子供がキャビン内の後部座席にいない場合、警告を発するように構成される早期警告モジュールと、を備える、前記子供状態検出装置。
  17. 電子機器であって、
    プロセッサ、記憶媒体及びバスを備え、前記記憶媒体には、前記プロセッサによって実行可能な機械可読命令が記憶され、電子機器が動作するときに、前記プロセッサと前記記憶媒体は、バスを介して通信し、前記プロセッサは、前記機械可読命令を実行することにより、請求項1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記電子機器。
  18. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるときに、請求項1ないし15のいずれか一項に記載の子供状態検出方法を実行する、前記コンピュータ可読記憶媒体。
  19. コンピュータ可読コードを含むコンピュータプログラム製品あって、
    前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサに、請求項1ないし15のいずれか一項に記載の子供状態検出方法を実行させる、前記コンピュータプログラム製品。
JP2021557464A 2020-03-30 2020-12-14 子供状態検出方法及び装置、電子機器、記憶媒体 Active JP7259078B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010239259.7 2020-03-30
CN202010239259.7A CN111439170B (zh) 2020-03-30 2020-03-30 儿童状态检测方法及装置、电子设备、存储介质
PCT/CN2020/136250 WO2021196738A1 (zh) 2020-03-30 2020-12-14 儿童状态检测方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
JP2022530605A true JP2022530605A (ja) 2022-06-30
JP7259078B2 JP7259078B2 (ja) 2023-04-17

Family

ID=71649227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021557464A Active JP7259078B2 (ja) 2020-03-30 2020-12-14 子供状態検出方法及び装置、電子機器、記憶媒体

Country Status (6)

Country Link
US (1) US20220084384A1 (ja)
JP (1) JP7259078B2 (ja)
KR (1) KR20210142177A (ja)
CN (1) CN111439170B (ja)
SG (1) SG11202113260SA (ja)
WO (1) WO2021196738A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111439170B (zh) * 2020-03-30 2021-09-17 上海商汤临港智能科技有限公司 儿童状态检测方法及装置、电子设备、存储介质
WO2021196751A1 (zh) * 2020-03-30 2021-10-07 上海商汤临港智能科技有限公司 基于数字人的车舱交互方法、装置及车辆
CN112085701B (zh) * 2020-08-05 2024-06-11 深圳市优必选科技股份有限公司 一种人脸模糊度检测方法、装置、终端设备及存储介质
CN111931639B (zh) * 2020-08-07 2024-06-11 上海商汤临港智能科技有限公司 驾驶员行为检测方法、装置、电子设备及存储介质
CN111931640B (zh) * 2020-08-07 2022-06-10 上海商汤临港智能科技有限公司 异常坐姿识别方法、装置、电子设备及存储介质
CN112001348A (zh) * 2020-08-31 2020-11-27 上海商汤临港智能科技有限公司 车舱内的乘员检测方法及装置、电子设备和存储介质
CN112418243A (zh) * 2020-10-28 2021-02-26 北京迈格威科技有限公司 特征提取方法、装置及电子设备
CN113581187A (zh) * 2021-08-06 2021-11-02 阿尔特汽车技术股份有限公司 用于车辆的控制方法及相应的系统、车辆、设备和介质
CN113920492A (zh) * 2021-10-29 2022-01-11 上海商汤临港智能科技有限公司 车内人员检测方法及装置、电子设备和存储介质
CN114998871A (zh) * 2022-06-07 2022-09-02 东风汽车集团股份有限公司 一种车内哄娃模式实现系统及实现方法
CN115284976B (zh) * 2022-08-10 2023-09-12 东风柳州汽车有限公司 车辆座椅自动调节方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11198705A (ja) * 1998-01-12 1999-07-27 Honda Motor Co Ltd 乗員検知装置
JP2007233475A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 居眠り判定装置および居眠り運転警告装置
CN103359038A (zh) * 2013-08-05 2013-10-23 北京汽车股份有限公司 一种识别儿童坐副驾驶位置的方法、系统及汽车
JP2017110990A (ja) * 2015-12-16 2017-06-22 アルパイン株式会社 走行支援装置および走行支援方法
JP2019123354A (ja) * 2018-01-16 2019-07-25 株式会社デンソー 乗員検知装置
CN110135300A (zh) * 2019-04-30 2019-08-16 信利光电股份有限公司 儿童安全监控方法、装置、计算机设备及计算机可读存储介质
US20190258263A1 (en) * 2018-02-21 2019-08-22 Waymo Llc Determining and responding to an internal status of a vehicle
WO2019180876A1 (ja) * 2018-03-22 2019-09-26 三菱電機株式会社 体格推定装置および体格推定方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6578870B2 (en) * 2000-07-12 2003-06-17 Siemens Ag Vehicle occupant weight classification system
US20140361889A1 (en) * 2012-11-26 2014-12-11 II Billy Russell Wall Child Occupancy Monitoring System for a Vehicle Seat
CN103043003B (zh) * 2012-12-24 2016-02-03 朱佩芬 车载儿童安全保障系统
CN107229893A (zh) * 2016-03-24 2017-10-03 杭州海康威视数字技术股份有限公司 一种检测车辆的副驾驶室中是否存在儿童的方法及装置
CN106781282A (zh) * 2016-12-29 2017-05-31 天津中科智能识别产业技术研究院有限公司 一种智能行车驾驶员疲劳预警系统
CN109740516B (zh) * 2018-12-29 2021-05-14 深圳市商汤科技有限公司 一种用户识别方法、装置、电子设备及存储介质
CN110781799B (zh) * 2019-10-22 2022-01-28 上海商汤智能科技有限公司 车舱内图像处理方法及装置
CN110826521A (zh) * 2019-11-15 2020-02-21 爱驰汽车有限公司 驾驶员疲劳状态识别方法、系统、电子设备和存储介质
CN111439170B (zh) * 2020-03-30 2021-09-17 上海商汤临港智能科技有限公司 儿童状态检测方法及装置、电子设备、存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11198705A (ja) * 1998-01-12 1999-07-27 Honda Motor Co Ltd 乗員検知装置
JP2007233475A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 居眠り判定装置および居眠り運転警告装置
CN103359038A (zh) * 2013-08-05 2013-10-23 北京汽车股份有限公司 一种识别儿童坐副驾驶位置的方法、系统及汽车
JP2017110990A (ja) * 2015-12-16 2017-06-22 アルパイン株式会社 走行支援装置および走行支援方法
JP2019123354A (ja) * 2018-01-16 2019-07-25 株式会社デンソー 乗員検知装置
US20190258263A1 (en) * 2018-02-21 2019-08-22 Waymo Llc Determining and responding to an internal status of a vehicle
WO2019180876A1 (ja) * 2018-03-22 2019-09-26 三菱電機株式会社 体格推定装置および体格推定方法
CN110135300A (zh) * 2019-04-30 2019-08-16 信利光电股份有限公司 儿童安全监控方法、装置、计算机设备及计算机可读存储介质

Also Published As

Publication number Publication date
US20220084384A1 (en) 2022-03-17
CN111439170A (zh) 2020-07-24
JP7259078B2 (ja) 2023-04-17
KR20210142177A (ko) 2021-11-24
SG11202113260SA (en) 2021-12-30
WO2021196738A1 (zh) 2021-10-07
CN111439170B (zh) 2021-09-17

Similar Documents

Publication Publication Date Title
JP2022530605A (ja) 子供状態検出方法及び装置、電子機器、記憶媒体
US20210012127A1 (en) Action recognition method and apparatus, driving action analysis method and apparatus, and storage medium
CN108764185B (zh) 一种图像处理方法及装置
Wang et al. A survey on driver behavior analysis from in-vehicle cameras
CN106682602B (zh) 一种驾驶员行为识别方法及终端
US20210081754A1 (en) Error correction in convolutional neural networks
CN110427867A (zh) 基于残差注意力机制的面部表情识别方法及系统
CN111160239A (zh) 专注度评估方法和装置
Yan et al. Recognizing driver inattention by convolutional neural networks
CN112241667A (zh) 图像检测方法、装置、设备及存储介质
CN115331205A (zh) 一种云边协同的驾驶员疲劳检测系统
CN112115790A (zh) 人脸识别方法、装置、可读存储介质和电子设备
CN111797654A (zh) 驾驶员疲劳状态检测方法、装置、存储介质及移动终端
EP4064113A1 (en) User information detection method and system, and electronic device
CN115546875B (zh) 基于多任务的座舱内行为检测方法、装置以及设备
CN116740792A (zh) 一种观光车作业人员人脸识别方法及系统
CN116486383A (zh) 吸烟行为识别方法、吸烟检测模型、装置、车辆及介质
JP7469467B2 (ja) デジタルヒューマンに基づく車室インタラクション方法、装置及び車両
Chuang et al. Driver behavior recognition using recurrent neural network in multiple depth cameras environment
CN113553877B (zh) 深度手势识别方法及其系统和电子设备
CN210983433U (zh) 一种基于计算机视觉技术的驾驶员抽烟检测系统
Dehkordi et al. An effective system to detect face drowsiness status using local features in a hierarchical decision-making structure
JP7412514B1 (ja) キャビンモニタリング方法及び上記キャビンモニタリング方法を実行するキャビンモニタリングシステム
CN117755315A (zh) 基于用户姿态控制设备运行的方法、装置及电子设备
Barhate et al. Design and Implementation of Facial Expressions Recognition based on LBP & DRLBP with CNN

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7259078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150