JP7311640B2 - 行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体 - Google Patents

行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP7311640B2
JP7311640B2 JP2021573491A JP2021573491A JP7311640B2 JP 7311640 B2 JP7311640 B2 JP 7311640B2 JP 2021573491 A JP2021573491 A JP 2021573491A JP 2021573491 A JP2021573491 A JP 2021573491A JP 7311640 B2 JP7311640 B2 JP 7311640B2
Authority
JP
Japan
Prior art keywords
target object
target
information
keypoint information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021573491A
Other languages
English (en)
Other versions
JP2022536354A (ja
Inventor
豊 邱
旻 汪
文▲トウ▼ 劉
晨 銭
利庄 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2022536354A publication Critical patent/JP2022536354A/ja
Application granted granted Critical
Publication of JP7311640B2 publication Critical patent/JP7311640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータビジョン技術分野に関し、具体的に、行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体に関する。
オブジェクトに対して行動分析及び認識を行うことは、人工知能分野における1種の基本的な需要である。行動分析及び認識を行う際に、一般的に多段階の3次元人体姿勢認識を採用し、且つオブジェクトビデオを撮影するカメラのパラメータに依存したり、カメラの撮影画角を制限したりする等が必要ある。
第1態様において、本発明は、行動予測方法を提供する。当該行動予測方法は、それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定するステップと、前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測するステップと、を含む。
本態様では、目標ビデオセグメントにおける目標オブジェクトの2次元キーポイント情報に基づくことにより、予測された歩容データ及び目標重心座標の正確度を向上させることができ、正確な歩容データ及び目標重心座標に基づくことにより、予測された行動特徴情報の正確性を向上させることができるため、目標オブジェクトの安全を有効に保証することができる。
1つの可能な実施形態において、上記行動予測方法は、前記行動特徴情報に基づいて、前記目標オブジェクトの前記所定時間帯における安全特徴情報と前記安全特徴情報にマッチングする安全措置対策とを特定するステップを更に含む。
1つの可能な実施形態において、前記各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データを特定することは、各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することと、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定することと、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識することと、を含む。
本実施形態では、ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を用いて、ビデオセグメントの最後1フレームの画像における目標オブジェクトの3次元キーポイント情報を特定し、特定された各3次元キーポイント情報に多値多義性の問題が現れることを回避可能であるため、3次元キーポイント情報に基づいて歩容分析及び認識を行う成功率及び正確率を向上させることができ、また、目標オブジェクトの複数の3次元キーポイント情報が特定された後、3次元キーポイント情報を用いて目標オブジェクトの前進方向を特定し、特定された前進方向及び3次元キーポイント情報に基づいて目標オブジェクトの歩容データを特定し、目標オブジェクトに対して歩容分析及び認識を行い、ビデオセグメントの撮影に使用されるカメラのカメラパラメータに依存していないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
1つの可能な実施形態において、前記各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの目標重心座標を特定することは、各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標オブジェクトの第1重心座標と、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報とを特定することと、前記目標画像における前記目標オブジェクトの複数の2次元キーポイント情報と前記複数の3次元キーポイント情報とに基づいて、前記目標オブジェクトの第2重心座標を特定することと、前記第1重心座標及び前記第2重心座標に基づいて、前記目標画像における前記目標オブジェクトの目標重心座標を特定することと、を含む。
本実施形態では、特定された2つの重心座標も合わせて使用されるため、目標オブジェクトの最終的な目標重心座標は、より正確に特定することができる。
1つの可能な実施形態において、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、各目標ビデオセグメントにおける各フレームの画像について、当該フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、当該フレームの画像における前記目標オブジェクトの検出枠を特定することと、前記検出枠のサイズ情報と前記検出枠の中心点の座標とに基づいて、当該フレームの画像における各2次元キーポイント情報に対応する座標情報に対して正規化処理を行い、当該フレームの画像における目標オブジェクトの複数の目標2次元キーポイント情報を取得することと、前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することと、を含む。
本実施形態では、まず、画像における目標オブジェクトの2次元キーポイント情報を用いて目標オブジェクトの検出枠を特定し、次に、検出枠のサイズ情報及び中心点座標等を用いて2次元キーポイント情報に対応する座標情報に対して正規化処理を行い、ビデオセグメントを撮影するカメラのカメラパラメータ又はオリジナル画像のサイズ情報に依存しないため、カメラパラメータに対する依存性を逸脱し、切り出された画像については依然として優れた汎用性を有している。
1つの可能な実施形態において、前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報をトレーニングされた第1ニューラルネットワークに入力し、入力された複数の目標2次元キーポイント情報に対して前記第1ニューラルネットワークを介して処理し、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することを含む。
本実施形態では、トレーニングされたニューラルネットワークを用いて3次元キーポイント情報を特定するため、情報処理及び特定の自動化レベルを向上させ、情報処理及び特定の正確度を向上させることができる。
1つの可能な実施形態において、上記行動予測方法は、前記第1ニューラルネットワークをトレーニングするステップを更に含み、前記第1ニューラルネットワークをトレーニングするステップは、第1サンプル画像を含むとともに前記第1サンプル画像よりも前のNフレームの画像も含む第1サンプルビデオセグメントと、前記第1サンプル画像における第1サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得することと、
前記複数の標準3次元キーポイント情報に基づいて、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することと、特定された前記複数のサンプル2次元キーポイント情報をトレーニングすべき第1初期ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報に対して前記第1初期ニューラルネットワークを介して処理し、前記第1サンプル画像における前記第1サンプルオブジェクトの複数の予測3次元キーポイント情報を特定することと、前記複数の予測3次元キーポイント情報と前記複数の標準3次元キーポイント情報との間の誤差情報に基づいて、前記第1初期ニューラルネットワークのネットワークパラメータを調整することと、前記第1初期ニューラルネットワークのトレーニングが完了された後、前記第1ニューラルネットワークを取得することと、を含む。
本実施形態では、複数の標準3次元キーポイント情報に基づいて複数のサンプル2次元キーポイント情報を逆投影的に特定するため、特定されたサンプル2次元キーポイント情報の正確度を向上させることができる。
1つの可能な実施形態において、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することは、前記第1サンプルビデオセグメントを撮影する撮影機器の機器パラメータ情報と、前記第1サンプルビデオセグメントの各フレームの画像のRGB画面とを取得することと、前記機器パラメータ情報と、前記各フレームの画像のRGB画面と、前記複数の標準3次元キーポイント情報とに基づいて、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することと、を含む。
本実施形態では、撮影機器の機器パラメータ情報と複数の標準3次元キーポイント情報とを組み合わせるため、複数のサンプル2次元キーポイント情報を正確に特定することができる。
1つの可能な実施形態において、前記複数の予測3次元キーポイント情報と前記複数の標準3次元キーポイント情報との間の誤差情報に基づいて、前記第1初期ニューラルネットワークのネットワークパラメータを調整することは、前記第1サンプルオブジェクトの物理サイズ情報を取得することと、前記第1サンプルオブジェクトの物理サイズ情報に基づいて、各標準3次元キーポイント情報の、ネットワーク尺度空間に対応する目標標準3次元キーポイント情報を特定することと、前記複数の予測3次元キーポイント情報と複数の前記目標標準3次元キーポイント情報との間の誤差情報に基づいて、前記第1初期ニューラルネットワークのネットワークパラメータを調整することと、を含む。
本実施形態では、サンプルオブジェクトの物理サイズ情報を用いて、物理尺度空間の標準3次元キーポイント情報をネットワーク尺度空間の目標標準3次元キーポイント情報に変換し、ネットワーク尺度空間の目標標準3次元キーポイント情報でトレーニングされたニューラルネットワークに基づいて、ネットワーク尺度空間の3次元キーポイント情報を特定することができ、即ち、3次元キーポイント情報の特定への目標オブジェクトの大きさの影響を解消可能であり、歩容認識の正確度の向上に有利である。
1つの可能な実施形態において、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定することは、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定することと、前記第1接続線と前記第2接続線との間の最小誤差平面を特定することと、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定することと、を含み、又は、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線であって前記第1接続線である第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線であって前記第2接続線である第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定することと、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定することと、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定することと、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定することと、を含む。
本実施形態では、3次元キーポイント情報のみを用いて第1接続線、第2接続線及び第1接続線と第2接続線の間の最小誤差平面を特定し、更に最小誤差平面と水平面の間の交線を用いて目標オブジェクトの前進方向を特定し、あえて撮影機器の機器パラメータに基づいて前進方向を特定することがなく、即ち、撮影機器の機器パラメータに基づいて歩容分析及び認識を行うことがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
また、本実施形態では、3次元キーポイント情報のみを用いて複数本の接続線を特定し、その後、特定された各接続線を用いて、水平面に対する目標オブジェクトの第1胴体方向と鉛直面に対する目標オブジェクトの第2胴体方向とを特定し、最後に第1胴体方向及び第2胴体方向を用いて目標オブジェクトの前進方向を特定し、あえて撮影機器の機器パラメータに基づいて前進方向を特定することがなく、即ち、撮影機器の機器パラメータに基づいて歩容分析及び認識を行うことがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
1つの可能な実施形態において、前記歩容データは、前記目標オブジェクトの歩幅情報を含み、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識することは、前記複数の3次元キーポイント情報に基づいて、前記前進方向における前記目標オブジェクトの両足の間の接続線の第1投影を特定することと、前記第1投影の長さ情報に基づいて、前記目標オブジェクトの歩幅情報を特定することとを含み、及び/又は、前記歩容データは、前記目標オブジェクトの歩隔情報を含み、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識することは、前記複数の3次元キーポイント情報に基づいて、前記前進方向に垂直な方向における前記目標オブジェクトの両足の間の接続線の第2投影を特定することと、前記第2投影の長さ情報に基づいて、前記目標オブジェクトの歩隔情報を特定することと、を含む。
上記2種の実施形態では、3次元キーポイント情報で特定された目標オブジェクトの両足の間の接続線と3次元キーポイント情報で特定された目標オブジェクトの前進方向とのみを用いて目標オブジェクトの歩幅情報及び歩隔情報を特定し、あえて撮影機器の機器パラメータに依存して上記歩幅情報及び歩隔情報を特定することがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
1つの可能な実施形態において、前記各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標オブジェクトの第1重心座標を特定することは、各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報をトレーニングされた第2ニューラルネットワークに入力し、入力された複数の2次元キーポイント情報を前記第2ニューラルネットワークを介して処理し、前記目標オブジェクトの第1重心座標を特定することを含む。
本実施形態では、トレーニングされたニューラルネットワークを用いて重心座標を特定し、情報処理及び特定の自動化レベルを向上させ、情報処理及び特定の正確度を向上させることができる。
1つの可能な実施形態において、上記行動予測方法は、前記第2ニューラルネットワークをトレーニングするステップを更に含み、前記第2ニューラルネットワークをトレーニングするステップは、第2サンプル画像を含むとともに前記第2サンプル画像よりも前のNフレームの画像も含む第2サンプルビデオセグメントと、前記第2サンプル画像における第2サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得することと、前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルビデオセグメントの各フレームの画像における前記第2サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することと、前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルオブジェクトの標準重心座標を特定することと、特定された前記複数のサンプル2次元キーポイント情報をトレーニングすべき第2初期ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報を前記第2初期ニューラルネットワークを介して処理し、前記第2サンプル画像における前記第2サンプルオブジェクトの予測重心座標を出力することと、前記予測重心座標と前記標準重心座標との間の誤差情報に基づいて、前記第2初期ニューラルネットワークのネットワークパラメータを調整することと、前記第2初期ニューラルネットワークのトレーニングが完了された後、前記第2ニューラルネットワークを取得することと、を含む。
本実施形態では、複数の標準3次元キーポイント情報に基づいて複数のサンプル2次元キーポイント情報を逆投影的に特定するため、特定されたサンプル2次元キーポイント情報の正確度を向上させることができる。
第2態様において、本発明は、歩容認識方法を提供する。当該歩容認識方法は、それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定するステップと、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するステップと、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップと、を含む。
1つの可能な実施形態において、前記複数の3次元キーポイント情報がネットワーク尺度空間の3次元キーポイント情報である場合に、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定する前に、上記歩容認識方法は、前記目標オブジェクトの物理サイズ情報を取得するステップと、前記目標オブジェクトの物理サイズ情報に基づいて、ネットワーク尺度空間の3次元キーポイント情報を物理尺度空間の3次元キーポイント情報に更新するステップと、を更に含む。
本実施形態では、ネットワーク尺度空間の3次元キーポイント情報が特定された後、物理尺度空間における目標オブジェクトの歩容データを正確に特定するために、ネットワーク尺度空間の3次元キーポイント情報を物理尺度空間の3次元キーポイント情報に更新する必要がある。
1つの可能な実施形態において、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するステップは、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定することと、前記第1接続線と前記第2接続線との間の最小誤差平面を特定することと、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定することと、を含み、又は、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定することと、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定することと、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定することと、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定することと、を含む。
1つの可能な実施形態において、前記歩容データは、前記目標オブジェクトの歩幅情報を含み、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップは、前記複数の3次元キーポイント情報に基づいて、前記前進方向における前記目標オブジェクトの両足の間の接続線の第1投影を特定することと、前記第1投影の長さ情報に基づいて、前記目標オブジェクトの歩幅情報を特定することと、を含み、及び/又は、前記歩容データは、前記目標オブジェクトの歩隔情報を含み、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップは、前記複数の3次元キーポイント情報に基づいて、前記前進方向に垂直な方向における前記目標オブジェクトの両足の間の接続線の第2投影を特定することと、前記第2投影の長さ情報に基づいて、前記目標オブジェクトの歩隔情報を特定することと、を含む。
第3態様において、本発明は、歩容認識装置を提供する。当該歩容認識装置は、
それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するためのビデオ取得モジュールと、
各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定するためのキーポイント処理モジュールと、
前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するための前進方向特定モジュールと、
前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するための歩容認識モジュールと、を備える。
第4態様において、本発明は、行動予測装置を提供する。当該行動予測装置は、
それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するための画像取得モジュールと、
各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定するための画像処理モジュールと、
前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測するための予測モジュールと、を備える。
第5態様において、本発明は、電子機器を提供する。当該電子機器は、プロセッサと、メモリと、バスとを備え、前記メモリには、前記プロセッサで実行され得る機器読み取り可能な指令が記憶され、前記電子機器が動作しているとき、前記プロセッサと前記メモリとは、前記バスを介して互いに通信され、前記プロセッサは、前記機器読み取り可能な指令を実行することにより、上記行動予測方法又は上記歩容認識方法を実施する。
第6態様において、本発明は、コンピュータ可読記憶媒体を更に提供する。当該コンピュータ可読記憶媒体には、コンピュータプログラムが記憶され、当該コンピュータプログラムがプロセッサによって運転されたときに、前記プロセッサは、上記歩容認識方法又は行動予測方法を実施する。
本発明では、上記装置、電子機器及びコンピュータ可読記憶媒体が本発明の上記方法の何れか1つの態様又は何れか1つの態様の何れか1つの実施形態の技術特徴とは実質的に同じ又は類似する技術特徴を少なくとも含むため、上記装置、電子機器及びコンピュータ可読記憶媒体に関する効果の記述は、上記方法内容の効果の記述を参照すればよく、ここで繰り返して説明しない。
本発明の実施例がより明瞭に説明されるように、以下では、本発明の実施例に使用必要な図面を簡単に紹介する。理解できるように、以下の図面が本発明の幾つかの実施例のみを示し、範囲に対する制限として見なされるべきではない。当業者であれば、進歩性に値する労力を掛けずにこれらの図面から他の関連する図面を取得可能である。
本発明の実施例に係る行動予測方法のフローチャートを示す。 本発明の実施例に係る別の行動予測方法において目標画像における目標オブジェクトの複数の3次元キーポイント情報を特定するフローチャートを示す。 本発明の実施例に係る更に別の行動予測方法における検出枠の模式図を示す。 本発明の実施例に係るもう1つの行動予測方法において前進方向を特定する模式図を示す。 本発明の実施例に係る重心予測方法のフローチャートを示す。 従来技術における時間的膨張畳み込みニューラルネットワークの構造模式図を示す。 簡素化された時間的膨張畳み込みニューラルネットワークの構造模式図を示す。 本発明の実施例に係る歩容認識方法のフローチャートを示す。 本発明の実施例に係る行動予測装置の構造模式図を示す。 本発明の実施例に係る歩容認識装置の構造模式図を示す。 本発明の実施例に係る電子機器の構造模式図を示す。
本発明の実施例の目的、特徴およびメリットがより明瞭になるように、以下では、図面を参照しながら、本発明の実施例について明瞭で完全に記述する。本発明における図面が説明及び記述の目的のみを果たし、本発明の保護範囲を制限するためのものではないことは、理解されるべきである。また、模式的な図面が実物の縮尺通りに描かれていないことは、理解されるべきである。本発明に使用されるフローチャートは、本発明の幾つかの実施例に基づいて実施される操作を示す。フローチャートの操作が順番通りに実施されなくてもよく、ロジックのない文脈関係のステップが反対する順番で又は同時に実施されてもよいことは、理解されるべきである。また、当業者は、本発明の内容のガイドのもとで、フローチャートに1つ又は複数の他の操作を追加してもよく、フローチャートから1つ又は複数の操作を除去してもよい。
また、記述される実施例は、単に本発明の一部の実施例であり、全ての実施例ではない。通常、ここの図面に記述や示される本発明の実施例のユニットは、各種の異なる配置で配備及び設計されてもよい。したがって、図面に供される本発明の実施例に対する以下の詳細な記述は、保護請求される本発明の範囲を制限するためのものでなく、本発明の特定の実施例を示すだけである。本発明の実施例に基づいて当業者が進歩性に値する労働を掛けずになした全ての他の実施例は、何れも本発明の保護範囲に属する。
説明すべきことは、本発明の実施例は、用語「含む」を採用し、それは、その後の声明する特徴の存在を指すためのものであり、あえて他の特徴の追加を排除しない。
上述した通り、行動分析及び認識を行う際に、一般的に多段階3次元人体姿勢認識を採用し、且つオブジェクトビデオを撮影するカメラのパラメータに依存したりカメラの撮影画角等を制限したりする必要がある。上記行動分析及び認識の方式には、認識正確度及び成功率の両方が低く、制限性が強く、汎用化能力が悪いという欠陥が存在する。
本発明は、行動予測方法及び装置を提供する。本発明では、ビデオセグメントにおける目標オブジェクトの2次元キーポイント情報に基づくことにより、予測された歩容データ及び目標重心座標の正確度を向上させることができ、正確な歩容データ及び目標重心座標に基づくことにより、予測された行動特徴情報の正確性を向上させることができるため、目標オブジェクトの安全を有効に保証することができる。
また、本発明は、歩容認識方法及び装置を更に提供する。本発明では、ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報を用いてビデオセグメントの最後1フレームの画像における目標オブジェクトの3次元キーポイント情報を特定することにより、特定された3次元キーポイント情報に多値多義性の問題が現れることを回避可能であるため、3次元キーポイント情報に基づいて歩容分析及び認識を行う成功率及び正確率を向上させることができる。また、本発明では、3次元キーポイント情報を用いて目標オブジェクトの前進方向を特定し、特定された前進方向及び3次元キーポイント情報に基づいて目標オブジェクトの歩容データを特定し、目標オブジェクトに対して歩容分析及び認識を行い、ビデオセグメントの撮影に使用されるカメラのカメラパラメータに依存していないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
以下では、具体的な実施例により、本発明の行動予測方法及び装置、歩容認識方法及び装置、電子機器、コンピュータ可読記憶媒体について説明する。
本発明の実施例は、行動予測方法を提供する。当該方法は、目標オブジェクトに対して行動予測を行う端末機器又はサーバ等に用いられる。具体的に、図1に示すように、本発明の実施例に係る行動予測方法は、以下のステップを含む。
S110では、複数の目標ビデオセグメントを取得し、各目標ビデオセグメントは、目標画像と前記目標画像よりも前のNフレームの画像とを含み、Nは、正整数である。
ここで、目標画像は、目標ビデオセグメントの最後1フレームの画像であってもよく、行動予測すべき画像である。本実施例では、目標画像における目標オブジェクトの行動特徴情報、安全特徴情報等を特定してもよい。
目標ビデオセグメントは、行動予測を行う端末機器が自身のカメラヘッド等の撮影機器を用いて撮影したものであってもよく、他の撮影機器が撮影したものであってもよい。他の撮影機器は、撮影した後、目標ビデオセグメントを行動予測を行う端末機器又はサーバへ伝送すればよい。
S120では、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定する。
ここで、まず、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を用いて前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を予測し、次に、前記目標画像における目標オブジェクトの複数の3次元キーポイント情報を用いて前記目標画像における目標オブジェクトの歩容データを特定し、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報及び前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を用いて、前記目標画像における前記目標オブジェクトの目標重心座標を特定してもよい。
幾つかの実施例において、上記歩容データは、目標オブジェクトの歩幅(gait-length)情報及び/又は歩隔(gait-width)情報を含んでもよい。
S130では、前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測する。
ここで、目標ビデオは、複数の目標ビデオセグメントを含んでもよく、各目標ビデオセグメントは、目標画像を含む。各目標ビデオセグメントの目標画像における目標オブジェクトの歩容データ及び目標重心座標を特定することにより、複数の連続する時点における目標オブジェクトの歩容データ及び目標重心座標を取得することができる。複数の連続する時点における目標オブジェクトの歩容データが取得された後、取得された歩容データに基づいて目標オブジェクトの所定時間帯における行動をモニタリング及び予測してもよい。複数の連続する時点における目標オブジェクトの目標重心座標が取得された後、目標オブジェクトの所定時間帯における運動軌跡を予測してもよい。その後、予測された目標オブジェクトの行動及び運動軌跡を纏めて、目標オブジェクトの所定時間帯における行動特徴情報を特定する。
幾つかの実施例において、上記行動特徴情報は、目標オブジェクトの所定時間帯における軌跡特徴及び行動特徴を含む。例えば、行動特徴情報は、具体的に、目標オブジェクトの所定時間帯における運動軌跡座標や、目標オブジェクトの所定時間帯における運動の歩幅及び歩隔等を含む。
幾つかの実施例では、取得された歩容データ及び目標重心座標を用いて、児童又は認知障害を持つ老人の行動及び運動軌跡を遠隔にモニタリングして予測することにより、児童又は認知障害を持つ老人の人身安全を保障することができる。また、現在予測された児童又は認知障害を持つ老人の行動及び運動軌跡を纏めると、児童又は認知障害を持つ老人の次の行動の行動特徴情報を予測することができる。当該行動特徴情報は、児童又は認知障害を持つ老人の次の行動に危険が発生するか否かを示すか特定するために用いられてもよく、マッチングする安全措置対策の実施を容易にする。
S140では、前記行動特徴情報に基づいて、前記目標オブジェクトの前記所定時間帯における安全特徴情報と前記安全特徴情報にマッチングする安全措置対策とを特定する。
上記安全特徴情報は、目標オブジェクトの所定時間帯における運動に危険が発生するか否か及び何の危険が発生するか等を示すために用いられる。例えば、安全特徴情報は、目標オブジェクトの所定時間帯における運動歩調が大きすぎて他の物体に衝突したり転倒したりする等の危険状况を示す。
上記安全措置対策は、予め設定され、且つ安全特徴情報に対してマッピング関係を有する。当該マッピング関係と特定された安全特徴情報とに基づいて、目標オブジェクトに対して実施された安全措置対策を特定することができる。当該安全措置対策は、目標オブジェクト又は目標オブジェクトの保護者へアラートを発す等であってもよい。例えば、目標オブジェクトは歩調が大きすぎて転倒する可能性のある場合に、目標オブジェクト又は目標オブジェクトの保護者へ転倒防止のアラート(alert)を発し、目標オブジェクトに衝突が発生する可能性のある場合において、目標オブジェクト又は目標オブジェクトの保護者へ衝突防止のアラートを発す。
本実施例では、目標ビデオセグメントにおける目標オブジェクトの2次元キーポイント情報に基づくことにより、予測された歩容データ及び目標重心座標の正確度を向上させることができ、正確な歩容データ及び目標重心座標に基づくことにより、予測された行動特徴情報の正確性を向上させることができるため、目標オブジェクトの安全を有効に保証することができる。
幾つかの実施例において、前記目標画像における前記目標オブジェクトの歩容データの特定過程は、以下のステップを含んでもよい。
ステップ一では、前記目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定する。
このステップ一が実行される前に、まず、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を特定する必要がある。具体的に実施する際に、2次元キーポイント検出ネットワークを介して各フレームの画像に対して検出を行い、各フレームの画像における複数の2次元キーポイント情報を特定してもよい。
各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報が特定された後、例えば、時間的膨張畳み込みニューラルネットワークを介して、特定された複数の2次元キーポイント情報に基づいて、目標画像における目標オブジェクトの複数の3次元キーポイント情報を特定してもよい。
目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を用いて、目標画像即ち目標ビデオセグメントの最後1フレームの画像における目標オブジェクトの3次元キーポイント情報を特定することにより、単一フレームの画像の2次元キーポイント情報を用いて3次元キーポイント情報を特定するときに現れやすい多値多義性の問題は、回避可能であり、より良好なシーケンス連続性と3次元キーポイント情報の予測の安定性が取得されるため、3次元キーポイント情報に基づいて歩容分析及び認識を行う成功率及び正確率は、向上することができる。
ステップ二では、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定する。
幾つかの実施例では、目標ビデオセグメントを撮影する撮影機器の機器パラメータに依存せずに、3次元キーポイント情報における目標オブジェクトの股部、肩部、骨盤、頸椎等に対応する3次元キーポイント情報を用いて目標オブジェクトの前進方向を特定してもよい。
上記前進方向は、物理尺度(scale)空間における目標オブジェクトの前進方向であり、3次元キーポイント情報は、ネットワーク尺度空間における目標オブジェクトの情報であってもよく、物理尺度空間における目標オブジェクトの情報であってもよい。3次元キーポイント情報がネットワーク尺度空間における目標オブジェクトの情報である場合に、まず、ネットワーク尺度空間における3次元キーポイント情報を物理尺度空間におけるものに変換する必要がある。
上記物理尺度空間は、実世界における物理尺度であり、単位が国際単位制における長さの標準単位「メートル」であってもよい。ネットワーク尺度空間は、人工的に定義される1つの算術尺度であり、単位が1であり、その目的は、関連計算へのオブジェクト自身のサイズの影響を解消して計算を簡単にすることにある。両者の次元は、異なる。
ステップ三では、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識する。
目標オブジェクトの前進方向が特定された後、3次元キーポイント情報における目標オブジェクトの足部に対応する3次元キーポイント情報を用いて目標オブジェクトの歩容データを特定してもよい。
ここで、上記歩容データは、目標オブジェクトの歩幅情報及び/又は歩隔情報を含んでもよい。
具体的に実施する際に、以下のサブステップを用いて来特定目標画像における目標オブジェクトの歩幅情報を特定してもよい。
前記複数の3次元キーポイント情報に基づいて、前記前進方向における前記目標オブジェクトの両足の間の接続線の第1投影を特定し、前記第1投影の長さ情報に基づいて、前記目標オブジェクトの歩幅情報を特定する。
具体的に実施する際には、前記複数の3次元キーポイント情報に基づいて、前記前進方向に垂直な方向における前記目標オブジェクトの両足の間の接続線の第2投影を特定するサブステップと、前記第2投影の長さ情報に基づいて、前記目標オブジェクトの歩隔情報を特定するサブステップとを用いて、目標画像における目標オブジェクトの歩隔情報を特定してもよい。
上記では、両足の間の接続線を目標オブジェクトの前進方向と前進方向に垂直な方向とに投影してから、投影の長さに基づいて目標オブジェクトの歩幅情報及び歩隔情報を特定する。具体的に、3次元キーポイント情報が物理尺度空間における情報であるときに、直接第1投影の長さ情報を前記目標オブジェクトの歩幅情報、第2投影の長さ情報を前記目標オブジェクトの歩隔情報としてもよい。また、3次元キーポイント情報が物理尺度空間における情報ではないときに、第1投影及び第2投影が取得された後、第1投影の長さ情報と第2投影の長さ情報とを物理尺度空間に変換し、物理尺度空間における第1投影の長さ情報及び第2投影の長さ情報をそれぞれ歩幅情報及び歩隔情報とする必要がある。空間変換の過程において、特定された第1投影の長さ情報をそのまま空間変換の所定比率と乗算し、変換後の物理尺度空間における歩幅情報を取得し、特定された第2投影の長さ情報をそのまま空間変換の所定比率と乗算し、変換後の物理尺度空間における歩隔情報を取得してもよい。
上記では、3次元キーポイント情報で特定された目標オブジェクトの両足の間の接続線と3次元キーポイント情報で特定された目標オブジェクトの前進方向とのみを用いて、目標オブジェクトの歩幅情報及び歩隔情報を特定し、あえて撮影機器の機器パラメータに依存して上記歩幅情報及び歩隔情報を特定することがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
本実施例では、目標オブジェクトの複数の3次元キーポイント情報が特定された後、3次元キーポイント情報を用いて目標オブジェクトの前進方向を特定し、特定された前進方向及び3次元キーポイント情報に基づいて目標オブジェクトの歩容データを特定し、目標オブジェクトに対して歩容分析及び認識を行い、あえてビデオセグメントの撮影に使用されるカメラのカメラパラメータに依存していないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
幾つかの実施例において、図2に示すように、上記目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、具体的に、以下のステップを含む。
S210では、目標ビデオセグメントにおける各フレームの画像について、当該フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、当該フレームの画像における前記目標オブジェクトの検出枠を特定する。
ここで、まず、2次元キーポイント検出ネットワークを介して、各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を特定してもよい。
複数の2次元キーポイント情報におけるキーポイント座標に基づいて、目標オブジェクトを囲む1つの検出枠、例えば、図3における検出枠31を特定してもよい。図において、wdは、検出枠の幅を示し、hdは、検出枠の高さを示す。
S220では、前記検出枠のサイズ情報と前記検出枠の中心点の座標とに基づいて、当該フレームの画像における各2次元キーポイント情報に対応する座標情報に対して正規化処理を行い、当該フレームの画像における目標オブジェクトの複数の目標2次元キーポイント情報を取得する。
正規化処理時に、検出枠のサイズ情報、即ち、検出枠の幅及び検出枠の高さに基づいて、1つの大きな正方形枠32を特定し、その後、当該正方形枠32を用いて正規化処理を行ってもよい。当該正方形枠32の辺長は、m×max{wd、hd}である。mの値は、実際の応用場面に応じて定められ、例えば、値が1.2であってもよい。正方形枠32の中心と検出枠31の中心とは、重なり合う。
具体的に実施する際に、以下の数式を用いて正規化処理を行ってもよい。
Figure 0007311640000001
式において、Kx、yは、正規化処理後の2次元キーポイント情報を示し、即ち、上記目標2次元キーポイント情報に対応する座標であり、
Figure 0007311640000002
は、2次元キーポイント情報に対応する座標を示し、
Figure 0007311640000003
は、検出枠の中心点の座標を示す。
S230では、前記各フレームの画像における目標オブジェクトの複数の目標2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定する。
本実施例では、まず、画像における目標オブジェクトの2次元キーポイント情報を用いて目標オブジェクトの検出枠を特定し、その後、検出枠のサイズ情報及び中心点座標等を用いて2次元キーポイント情報に対応する座標情報に対して正規化処理を行い、あえてビデオセグメントを撮影するカメラのカメラパラメータ又はオリジナル画像のサイズ情報に依存しないため、カメラパラメータに対する依存性を逸脱し、切り出された画像については依然として優れた汎用性を有している。
上記2次元キーポイント情報に対して正規化処理を行った後、正規化処理された2次元キーポイント情報を、トレーニングされた第1ニューラルネットワーク例えばトレーニングされた時間的膨張畳み込みニューラルネットワークに入力し、3次元キーポイント情報を特定してもよい。
トレーニングされた第1ニューラルネットワークを用いて3次元キーポイント情報を特定することにより、情報処理及び特定の自動化レベルを向上させ、情報処理及び特定の正確度を向上させることができる。
具体的に実施する際に、以下のステップを利用して上記第1ニューラルネットワークをトレーニングしてもよい。
ステップ一では、第1サンプル画像を含む第1サンプルビデオセグメントと、前記第1サンプル画像における第1サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得し、前記第1サンプルビデオセグメントは、前記第1サンプル画像よりも前のNフレームの画像を更に含む。
ここで、第1サンプル画像は、歩容認識すべき画像である。上記標準3次元キーポイント情報は、サンプルマーキング情報として使用される。
具体的に実施する際に、ニューラルネットワークを介して前記第1サンプル画像における第1サンプルオブジェクトの複数の標準3次元キーポイント情報を特定してもよい。当該複数の標準3次元キーポイント情報は、例えば17個のキーポイントの情報を含むオブジェクト骨格であってもよい。
ステップ二では、前記複数の標準3次元キーポイント情報に基づいて、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定する。
ここで、標準3次元キーポイント情報を用いて逆投影してサンプル2次元キーポイント情報を取得してもよい。例えば、以下のステップを利用して逆投影処理を行ってもよい。
つまり、前記第1サンプルビデオセグメントを撮影する撮影機器の機器パラメータ情報、及び第1サンプルビデオセグメントにおける各フレームの画像のRGB画面を取得するステップと、前記機器パラメータ情報、各フレームの画像のRGB画面、及び前記複数の標準3次元キーポイント情報に基づいて、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定するステップとを利用する。
複数の標準3次元キーポイント情報に基づいて複数のサンプル2次元キーポイント情報を逆投影的に特定するため、特定されたサンプル2次元キーポイント情報の正確度を向上させることができる。
また、具体的に実施する際に、逆投影処理を利用せずにサンプル2次元キーポイント情報を取得してもよい。例えば、直接2次元キーポイント検出ネットワークを介して各フレームの画像における第1サンプルオブジェクトに対して検出を行い、前記第1サンプルビデオセグメントの各フレームの画像における第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を取得してもよい。
サンプル2次元キーポイント情報を取得した後、サンプル2次元キーポイント情報を用いて第1初期ニューラルネットワークのトレーニングを行う前には、サンプル2次元キーポイント情報に対応する座標情報に対して正規化処理を行う必要がある。当該正規化処理の方法は、上記実施例において2次元キーポイント情報に対応する座標情報に対して正規化処理を行う方法と同じであり、同様に、前記第1サンプルビデオセグメントにおける各フレームの画像について、当該フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報に基づいて、当該フレームの画像における前記第1サンプルオブジェクトのサンプル検出枠を特定するステップと、前記サンプル検出枠のサイズ情報、前記サンプル検出枠の中心点の座標に基づいて、当該フレームの画像における各サンプル2次元キーポイント情報に対応する座標情報に対して正規化処理を行うステップと、を含む。
ステップ三では、上記複数のサンプル2次元キーポイント情報をトレーニングすべき第1初期ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報を前記第1初期ニューラルネットワークを介して処理し、前記第1サンプル画像における前記第1サンプルオブジェクトの複数の予測3次元キーポイント情報を特定する。
ステップ四では、前記複数の予測3次元キーポイント情報と前記複数の標準3次元キーポイント情報との間の誤差情報に基づいて、前記第1初期ニューラルネットワークのネットワークパラメータを調整し、トレーニングの完了後で前記第1ニューラルネットワークを取得する。
上記では、ステップ一における複数の標準3次元キーポイント情報は、物理尺度空間の情報であり、当該物理尺度空間の標準3次元キーポイント情報が取得された後、直接当該物理尺度空間の標準3次元キーポイント情報と前記複数の予測3次元キーポイント情報との間の誤差情報を用いて、前記第1初期ニューラルネットワークのネットワークパラメータを調整してもよい。このように、トレーニングされた第1ニューラルネットワークは、使用されるとき、直接予測して得られた3次元キーポイント情報も物理尺度空間の情報である。そうすると、予測された3次元キーポイント情報を用いて目標オブジェクトの歩容データを特定する際に、物理尺度空間の変換を行う必要がない。
無論、ステップ一における物理尺度空間の標準3次元キーポイント情報をネットワーク尺度空間における情報に変換し、その後、ネットワーク尺度空間の標準3次元キーポイント情報と複数の予測3次元キーポイント情報との間の誤差情報を用いて、前記第1初期ニューラルネットワークのネットワークパラメータを調整してもよい。このように、トレーニングされた第1ニューラルネットワークは、使用されるとき、直接予測して得られた3次元キーポイント情報もネットワーク尺度空間の情報である。そうすると、予測された3次元キーポイント情報を用いて目標オブジェクトの歩容データを特定する際に、ネットワーク尺度空間の3次元キーポイント情報を物理尺度空間における3次元キーポイント情報に変換する必要がある。
具体的に実施する際に、前記第1サンプルオブジェクトの物理サイズ情報を取得するステップと、前記第1サンプルオブジェクトの物理サイズ情報に基づいて、物理尺度空間の複数の標準3次元キーポイント情報をそれぞれネットワーク尺度空間における情報とするステップとにより、物理尺度空間の複数の標準3次元キーポイント情報をネットワーク尺度空間における情報に変換してもよい。
第1サンプルオブジェクトの物理サイズ情報が取得された後、物理尺度空間の標準3次元キーポイント情報における座標情報を当該物理サイズ情報で割って、物理尺度空間の標準3次元キーポイント情報の変換後のネットワーク尺度空間における情報を取得してもよい。
幾つかの実施例において、上記物理サイズ情報は、第1サンプルオブジェクト(例えば、1つの人物)の身長情報等であってもよい。
上記サンプルオブジェクトの物理サイズ情報を用いて、物理尺度空間の標準3次元キーポイント情報をネットワーク尺度空間の情報に変換し、ネットワーク尺度空間の情報でトレーニングされたニューラルネットワークを介してネットワーク尺度空間の3次元キーポイント情報を特定することができ、即ち、尺度多様性を解消可能であり、3次元キーポイント情報の特定への目標オブジェクトの大きさの影響を解消し、歩容認識の正確度の向上に有利である。
第1ニューラルネットワークで予測して得られた3次元キーポイント情報がネットワーク尺度空間における情報である場合に、予測された3次元キーポイント情報を用いて歩容分析を行う、即ち、前進方向及び歩容データを特定する前に、ネットワーク尺度空間における3次元キーポイント情報を物理尺度空間における情報に変換する必要があり、具体的に以下のステップによって変換してもよい。
つまり、前記目標オブジェクトの物理サイズ情報を取得するステップと、前記目標オブジェクトの物理サイズ情報に基づいて、ネットワーク尺度空間の3次元キーポイント情報を物理尺度空間の3次元キーポイント情報に更新するステップとによって変換してもよい。
上記のように、目標オブジェクトの物理サイズ情報が取得された後、ネットワーク尺度空間の3次元キーポイント情報における座標情報を当該物理サイズ情報と乗算し、ネットワーク尺度空間の3次元キーポイント情報の変換後の物理尺度空間における情報を取得してもよい。
幾つかの実施例において、上記物理サイズ情報は、目標オブジェクト(例えば、1つの人物)の身長情報等であってもよい。
幾つかの実施例において、上記前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定し、具体的に、以下のステップを含む。
つまり、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定するステップと、前記第1接続線と前記第2接続線との間の最小誤差平面を特定するステップと、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定するステップと、を含む。
上記第1接続線と第2接続線との特定に使用される3次元キーポイント情報は、物理尺度空間における3次元キーポイント情報である。
図4に示すように、具体的に実施する際に、第1接続線L2と第2接続線L1の間の最小誤差平面を特定した後、最小誤差平面と水平面(XZ平面)の間の交線L0を特定し、当該交線L0の水平面内に位置する垂線C0を目標オブジェクトの前進方向とする。
上記3次元キーポイント情報のみを用いて第1接続線、第2接続線、及び第1接続線と第2接続線の間の最小誤差平面を特定し、更に最小誤差平面と水平面の間の交線を用いて目標オブジェクトの前進方向を特定し、あえて撮影機器の機器パラメータに基づいて前進方向を特定することがなく、即ち、撮影機器の機器パラメータに基づいて歩容分析及び認識を行うことがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
幾つかの実施例において、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定することは、具体的に以下のステップを含んでもよい。
つまり、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定するステップと、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定するステップと、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定するステップと、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定するステップと、を含んでもよい。
上記第3接続線と第4接続線と第5接続線との特定に使用される3次元キーポイント情報は、物理尺度空間における情報である。
具体的に実施する際に、上記第3接続線と第4接続線とでなされた角の平分線の方向を目標オブジェクトの左右方向即ち上記第1胴体方向とし、第5接続線の方向を目標オブジェクトの上下方向即ち上記第2胴体方向としてもよい。その後、第1胴体方向と第2胴体方向とのクロス積を目標オブジェクトの前進方向とする。
上記3次元キーポイント情報のみを用いて複数本の接続線を特定し、その後、特定された各接続線を用いて、水平面に対する目標オブジェクトの第1胴体方向と鉛直面に対する目標オブジェクトの第2胴体方向とを特定し、最後に第1胴体方向及び第2胴体方向を用いて目標オブジェクトの前進方向を特定し、あえて撮影機器の機器パラメータに基づいて前進方向を特定することがなく、即ち、撮影機器の機器パラメータに基づいて歩容分析及び認識を行うことがないため、他のデータ又は機器に対する依存性が強くて汎用化能力が悪いという、歩容分析及び認識に存在する欠陥は、克服される。
上記実施例により、認識して複数の連続する時点における目標オブジェクトの歩容データを取得可能であり、複数の連続する時点における目標オブジェクトの歩容データが認識によって取得された後、認識で得られた歩容データモニタリング及び予測目標オブジェクトの行動に基づいて、具体的な応用において、認識で得られた歩容データを用いて児童又は認知障害を持つ老人の行動を遠隔にモニタリングして予測することにより、児童又は認知障害を持つ老人の人身安全を保障することができる。
本発明は、重心予測方法を更に提供する。当該方法は、目標オブジェクトに対して重心予測を行う単独の端末機器又はサーバに適用されてもよく、無論上記行動予測を行う端末機器又はサーバに適用されてもよい。図5に示すように、本発明に係る重心予測方法可以は、以下のステップS510を含む。
S510では、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標オブジェクトの第1重心座標と、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報とを特定する。
ここで、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、上記実施例における方法と同じであるため、ここで繰り返して説明しない。
ここで、具体的にトレーニングされた時間的膨張畳み込みニューラルネットワークを用いて第1重心座標を特定してもよい。ここでの時間的膨張畳み込みニューラルネットワークは、上記3次元キーポイント情報を特定する時間的膨張畳み込みニューラルネットワークと異なり、再度トレーニングされる必要がある。
時間的膨張畳み込みニューラルネットワークを用いて第1重心座標を特定する際に、入力された2次元キーポイント情報に対して正規化処理を行う必要がない。同様に、当該時間的膨張畳み込みニューラルネットワークをトレーニングする際、サンプル2次元キーポイント情報に対して正規化処理を行う必要がない。
本ステップでは、トレーニングされたニューラルネットワークを用いて重心座標を特定し、情報処理及び特定の自動化レベルを向上させ、情報処理及び特定の正確度を向上させることができる。
上記時間的膨張畳み込みニューラルネットワークで特定された第1重心座標が深さ方向(Z方向)において正確であるため、第1重心座標に基づいて目標重心座標を特定する際に、第1重心座標の深さ方向における座標のみを取ってもよい。
S520では、目標画像における前記目標オブジェクトの複数の2次元キーポイント情報及び前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの第2重心座標を特定する。
ここで、例えばSolvePnPアルゴリズム又は類似する最適化方法を用いて2次元キーポイント情報及び3次元キーポイント情報に基づいて第2重心座標を特定してもよい。上記アルゴリズムで特定された第2重心座標が水平方向(X方向)及び鉛直方向(Y方向)において正確であるため、第2重心座標に基づいて目標重心座標を特定する際に、第2重心座標の水平方向及び鉛直方向における座標のみを取ってもよい。
上記3次元キーポイント情報は、物理尺度空間における情報である。
S530では、前記第1重心座標及び前記第2重心座標に基づいて、前記目標画像における前記目標オブジェクトの目標重心座標を特定する。
ここで、具体的に、第1重心座標の深さ方向における座標並びに第2重心座標の水平方向及び鉛直方向における座標を前記目標画像における目標オブジェクトの目標重心座標としてもよい。
本実施例では、特定された2つの重心座標も合わせて使用されるため、目標オブジェクトの最終的な目標重心座標は、より正確に特定することができる。
上記実施例により、複数の連続する時点における目標オブジェクトの目標重心座標を取得可能であり、複数の連続する時点における目標オブジェクトの目標重心座標が取得された後、取得された複数の目標重心座標に基づいて、当該複数の連続する時点における目標オブジェクトの変位推定結果(運動軌跡)を特定してもよい。
目標オブジェクトの変位推定結果が特定された後、当該変位推定結果に基づいて目標オブジェクトの後続の運動軌跡を予測してもよい。例えば、具体的な応用において、バスケットボール選手の現在の運動軌跡を利用してこのバスケットボール選手の後続の運動軌跡を予測することにより、対抗戦術を策定してもよい。又は、バスケットボールの試合後、あるバスケットボール選手の運動軌跡を分析し、当該運動軌跡を利用してこのバスケットボール選手の戦術を分析して総括し、対抗戦術を策定してもよい。
また、上記実施例で得られた目標オブジェクトの歩容データを用いて目標オブジェクトの行動を予測し、上記実施例で得られた目標オブジェクトの目標重心座標を用いて目標オブジェクトの運動軌跡を予測した後、予測された目標オブジェクトの行動及び運動軌跡を総合的に考慮し、目標オブジェクトの次の行動に危険が発生するか否かを予測してもよい。例えば、現在予測された児童の行動及び運動軌跡を総合的に考慮し、児童の次の行動の行動特徴情報を予測し、当該行動特徴情報に基づいて児童の次の行動に危険が発生するか否かを特定することにより、マッチングする安全措置対策の実施を容易にする。
上記目標オブジェクトの重心座標を特定するためのニューラルネットワークは、第2ニューラルネットワークとしてもよく、具体的に実施する際に、以下のステップを利用して前記第2ニューラルネットワークをトレーニングしてもよい。
ステップ一では、第2サンプル画像を含む第2サンプルビデオセグメントと、前記第2サンプル画像における第2サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得し、前記第2サンプルビデオセグメントは、前記第2サンプル画像よりも前のNフレームの画像を更に含む。
ここで、第2サンプル画像は、重心座標を特定すべき画像である。上記標準3次元キーポイント情報は、サンプルマーキング情報として使用される。
具体的に実施する際に、ニューラルネットワークを介して前記第2サンプル画像における第2サンプルオブジェクトの複数の標準3次元キーポイント情報を特定してもよい。当該複数の標準3次元キーポイント情報は、例えば17個のキーポイントの情報を含むオブジェクト骨格であってもよく、物理尺度空間における情報である。
ステップ二では、前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルビデオセグメントの各フレームの画像における前記第2サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定する。
ここで、上記標準3次元キーポイント情報を用いて逆投影してサンプル2次元キーポイント情報を取得してもよい。例えば、以下のステップを利用して逆投影処理を行ってもよい。
つまり、前記第2サンプルビデオセグメントを撮影する撮影機器の機器パラメータ情報、及び第2サンプルビデオセグメントにおける各フレームの画像のRGB画面を取得するステップと、前記機器パラメータ情報、各RGB画面及び前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルビデオセグメントの各フレームの画像における前記第2サンプルオブジェクトの複数のサンプル2次元キーポイント情報をそれぞれ特定するステップと、を利用する。
複数の標準3次元キーポイント情報に基づいて複数のサンプル2次元キーポイント情報を逆投影的に特定するため、特定されたサンプル2次元キーポイント情報の正確度を向上させることができる。
また、具体的に実施する際に、逆投影処理で得られたサンプル2次元キーポイント情報を利用しなくてもよい。例えば、2次元キーポイント検出ネットワークをそのまま利用して各フレームの画像における第2サンプルオブジェクトに対して検出を行い、前記第2サンプルビデオセグメントの各フレームの画像における第2サンプルオブジェクトの複数のサンプル2次元キーポイント情報を取得してもよい。
ステップ三では、前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルオブジェクトの標準重心座標を特定する。
ステップ四では、特定された前記複数のサンプル2次元キーポイント情報をトレーニングすべき第2初期ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報を前記第2初期ニューラルネットワークを介して処理し、前記第2サンプル画像における前記第2サンプルオブジェクトの予測重心座標を出力する。
ステップ五では、前記予測重心座標と前記標準重心座標との間の誤差情報に基づいて、前記第2初期ニューラルネットワークのネットワークパラメータを調整し、トレーニングの完了後で前記第2ニューラルネットワークを取得する。
上記では、ステップ一における複数の標準3次元キーポイント情報が物理尺度空間の情報であり、当該物理尺度空間の標準3次元キーポイント情報が取得された後、直接当該物理尺度空間の標準3次元キーポイント情報を用いて物理尺度空間の標準重心座標を特定し、前記予測重心座標と物理尺度空間の標準重心座標との間の誤差情報を用いて、前記第2初期ニューラルネットワークのネットワークパラメータを調整してもよい。このように、トレーニングされた第2ニューラルネットワークは、使用されるとき、直接予測して得られた重心座標も物理尺度空間の情報である。
幾つかの実施例において、上記第1ニューラルネットワークは、時間的膨張畳み込みニューラルネットワークを含んでもよく、目標画像における前記3次元キーポイント情報を特定するために用いられないニューロンは、前記第1ニューラルネットワークから除去されている。
時間的膨張畳み込みニューラルネットワークを用いて3次元キーポイント情報を特定することにより、単一フレームの画像検出において2次元キーポイント情報から3次元キーポイント情報に変換するときに現れやすい多値多義性の欠陥は、克服可能である。また、本実施例では、時間的膨張畳み込みニューラルネットワークを簡素化してその中の目標画像における3次元キーポイント情報を特定するために用いられないニューロンを除去したため、2次元キーポイント情報から3次元キーポイント情報に変換するときに存在する、時間がかかってリアルタイム性が悪いという欠陥は、克服することができ、歩容分析及び認識の効率の向上に有利である。具体的に、本発明における簡素化された時間的膨張畳み込みニューラルネットワークは、家庭用コンピュータにおいて、720Pの各フレームの画像について、2次元キーポイント情報から3次元キーポイント情報への変換を10ミリ秒以内に完了することができる。
また、上記第2ニューラルネットワークは、時間的膨張畳み込みニューラルネットワークを含んでもよく、目標画像における重心座標を特定するために用いられないニューロンは、前記第2ニューラルネットワークから除去されている。
上記では、時間的膨張畳み込みニューラルネットワークを簡素化してその中の目標画像における重心座標を特定するために用いられないニューロンを除去したため、重心座標を特定する過程に存在する、時間がかかってリアルタイム性が悪いという欠陥は、克服することができる。
また、第1ニューラルネットワークと第2ニューラルネットワークとにおけるニューロンを除去せず、その中の、3次元キーポイント情報と重心座標とを特定するためのニューロンのみを使用してデータ処理を行い、他のニューロンを使用しない。図6Aに示す時間的膨張畳み込みニューラルネットワークは、全てのニューロンを使用して3次元キーポイント情報を特定し、図6Bに示す時間的膨張畳み込みニューラルネットワークは、目標画像における前記3次元キーポイント情報を特定するためのニューロンのみを使用して3次元キーポイント情報を特定する。
本発明の実施例は、歩容認識方法を更に提供する。当該方法は、目標オブジェクトに対して歩容認識を行う端末機器又はサーバに適用される。具体的に、図7に示すように、本発明の実施例に係る歩容認識方法は、以下のステップを含む。
S710では、複数の目標ビデオセグメントを取得し、各目標ビデオセグメントは、目標画像と前記目標画像よりも前のNフレームの画像とを含み、Nは、正整数である。
ここで、目標画像は、目標ビデオセグメントの最後1フレームの画像であってもよく、歩容認識すべき画像である。即ち、本実施例では、目標画像における目標オブジェクトの歩容データを特定してもよい。
目標ビデオセグメントは、歩容認識を行う端末機器が自身のカメラヘッド等の撮影機器を用いて撮影したものであってもよく、他の撮影機器が撮影したものであってもよい。他の撮影機器は、撮影した後、目標ビデオセグメントを歩容認識を行う端末機器又はサーバへ伝送すればよい。
上記Nは、具体的な応用場面に応じて柔軟に設定されてもよく、例えば、27と設定されてもよい。
S720では、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定する。
このステップが実行される前に、まず、目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を特定する必要がある。具体的に実施する際に、2次元キーポイント検出ネットワークを介して各フレームの画像に対して検出を行い、各フレームの画像における複数の2次元キーポイント情報を特定してもよい。
各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報が特定された後、例えば時間的膨張畳み込みニューラルネットワークを介して、特定された複数の2次元キーポイント情報に基づいて、目標画像における目標オブジェクトの複数の3次元キーポイント情報を特定してもよい。
目標ビデオセグメントの各フレームの画像における目標オブジェクトの複数の2次元キーポイント情報を用いて、目標画像即ち目標ビデオセグメントの最後1フレームの画像における目標オブジェクトの3次元キーポイント情報を特定することにより、単一フレームの画像の2次元キーポイント情報を用いて3次元キーポイント情報を特定するときに現れやすい多値多義性の問題は、回避可能であり、より良好なシーケンス連続性と3次元キーポイント情報の予測の安定性が取得されるため、3次元キーポイント情報に基づいて歩容分析及び認識を行う成功率及び正確率は、向上することができる。
S730では、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定する。
幾つかの実施例において、目標ビデオセグメントを撮影する撮影機器の機器パラメータに依存せずに、3次元キーポイント情報における目標オブジェクトの股部、肩部、骨盤、頸椎等に対応する3次元キーポイント情報を用いて目標オブジェクトの前進方向を特定してもよい。
上記前進方向は、物理尺度空間における目標オブジェクトの前進方向であり、3次元キーポイント情報は、ネットワーク尺度空間における目標オブジェクトの情報であってもよく、物理尺度空間における目標オブジェクトの情報であってもよい。3次元キーポイント情報がネットワーク尺度空間における目標オブジェクトの情報である場合に、まず、ネットワーク尺度空間における3次元キーポイント情報を物理尺度空間におけるものに変換する必要がある。
上記物理尺度空間は、実世界における物理尺度であり、単位が国際単位制における長さの標準単位「メートル」であってもよい。ネットワーク尺度空間は、人工的に定義される1つの算術尺度であり、単位が1であり、その目的は、関連計算へのオブジェクト自身のサイズの影響を解消して計算を簡単にすることにある。両者の次元は、異なる。
S740では、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識する。
幾つかの実施例において、前記複数の3次元キーポイント情報がネットワーク尺度空間の3次元キーポイント情報である場合に、前記複数の3次元キーポイント情報に基づいて前記目標オブジェクトの前進方向を特定する前に、上記歩容認識方法は、前記目標オブジェクトの物理サイズ情報を取得するステップと、前記目標オブジェクトの物理サイズ情報に基づいて、ネットワーク尺度空間の3次元キーポイント情報を物理尺度空間の3次元キーポイント情報に更新するステップと、を更に含む。
上記歩容認識方法の実施例において、複数の3次元キーポイント情報、目標オブジェクトの前進方向、歩容データ等の実施案は、上記行動予測方法実施例における対応する実施案と同じであり、奏する技術効果も同じであるため、ここで繰り返して説明しない。
上記行動予測方法に相応し、本発明は、行動予測装置を更に提供する。当該装置は、行動予測を行う端末機器又はサーバに適用され、各モジュールが上記方法における同じ方法ステップを実施可能であり、且つ同じ有利な作用効果を奏することができるため、その中の同じ部分について、本発明では繰り返し説明しない。
図8に示すように、本発明に係る行動予測装置は、以下のモジュールを備えてもよい。
画像取得モジュール810は、複数の目標ビデオセグメントを取得し、各目標ビデオセグメントは、目標画像と前記目標画像よりも前のNフレームの画像とを含む。Nは、正整数である。
画像処理モジュール820は、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定する。
予測モジュール830は、前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測する。
情報処理モジュール840は、前記行動特徴情報に基づいて、前記目標オブジェクトの前記所定時間帯における安全特徴情報と前記安全特徴情報にマッチングする安全措置対策とを特定する。
上記歩容認識方法に相応し、本発明は、歩容認識装置を更に提供する。当該装置は、歩容認識を行う端末機器又はサーバに適用され、各モジュールが上記方法における同じ方法ステップを実施可能であり、且つ同じ有利な作用効果を奏することができるため、その中の同じ部分について、本発明では繰り返し説明しない。
具体的に、図9に示すように、本発明に係る歩容認識装置は、以下のモジュールを備えてもよい。
ビデオ取得モジュール910は、複数の目標ビデオセグメントを取得し、各目標ビデオセグメントは、目標画像と前記目標画像よりも前のNフレームの画像とを含む。Nは、正整数である。
キーポイント処理モジュール920は、各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定する。
前進方向特定モジュール930は、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定する。
歩容認識モジュール940は、前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識する。
本発明の実施例は、電子機器を提供する。図10に示すように、前記電子機器は、プロセッサ1001と、メモリ1002と、バス1003とを備え、前記メモリ1002には、前記プロセッサ1001で実行され得る機器読み取り可能な指令が記憶され、電子機器が運転されたときに、前記プロセッサ1001と前記メモリ1002とは、バス1003を介して互いに通信される。
前記機器読み取り可能な指令が前記プロセッサ1001によって実行されたときに、前記プロセッサ1001は、以下の行動予測方法を実施する。当該行動予測方法は、
それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、
各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定するステップと、
前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測するステップと、
前記行動特徴情報に基づいて、前記目標オブジェクトの前記所定時間帯における安全特徴情報と前記安全特徴情報にマッチングする安全措置対策とを特定するステップと、を含む。
又は、前記機器読み取り可能な指令が前記プロセッサ1001によって実行されたときに、前記プロセッサ1001は、以下の歩容認識方法を実施する。当該歩容認識方法は、
それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、
各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定するステップと、
前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するステップと、
前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップと、を含む。
その他、機器読み取り可能な指令がプロセッサ1001によって実行されたときに、前記プロセッサ1001に上記方法部分に記述される何れか1つの実施形態における方法内容を実施させてもよく、ここで繰り返して説明しない。
本発明の実施例は、上記方法及び装置に対応するコンピュータプログラム製品を更に提供する。当該コンピュータプログラム製品は、プログラムコードが記憶されるコンピュータ可読記憶媒体を含み、プログラムコードに含まれる指令は、上記方法実施例における方法を実行するために用いられてもよく、具体的な実施は、方法実施例を参照すればよく、ここで繰り返し説明しない。
上記各実施例に対する記述に各実施例同士の相違点を強調する傾向があり、同じ又は類似するところは、互いに参照可能である。簡潔のために、本文で繰り返し説明しない。
当業者であれば明白で理解できるように、記述の利便性及び簡潔性のために、上述した装置の具体的な動作手順は、方法実施例における対応する手順を参照可能であり、本発明では繰り返して説明しない。本発明に係る幾つかの実施例において、開示された機器及び方法が他の方式にて実現され得ることは、理解されるべきである。上述した装置実施例が単に模式的なものであり、例えば、前記モジュールの区分が、単に1種の論理機能区分であり、実際に実施するときに別の区分方式もあり得る。更に例えば、複数のモジュール或いはユニットは、組み合わせられてもよく、又は、別のシステムに統合されてもよく、又は、幾つかの特徴が略され、若しくは実行しないようにしてもよい。また、示され或いは議論された互いの結合、直接結合又は通信接続は、幾つかの通信インターフェース、装置又はモジュールを介する間接結合又は通信接続であってもよく、電気的なもの、機械的なもの或いは他の形態であってもよい。
上記分離部品として説明されたモジュールが物理的に分離されるものであってもよくでなくてもよい。また、モジュールとして表示された部品は、物理手段であってもでなくてもよい。更に、それらの手段は、1箇所に位置してもよく、複数のネットワークセルに分散してもよい。実際の需要に応じてその中の一部又は全部の手段を選択して本発明の実施例の目的を果たすことが可能である。
また、本発明の各実施例における各機能手段は、全部で1つの処理手段に集積されてもよく、各手段がそれぞれ単独で物理的に存在してもよく、2つ或いは2つ以上の手段が1つの手段に集積されてもよい。
上記機能は、ソフトウェア機能手段の形式で実現され、且つ独立の製品として販売や使用されるときに、プロセッサで実行され得る不揮発性のコンピュータ可読記憶媒体に記憶されてもよい。このような理解を基に、本発明の実施例は本質的に又は本発明の実施例の全部又は一部がコンピュータソフトウェア製品の形式で体現されてもよい。当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、幾つかの指令を含むことで一台のコンピュータ機器(パソコン、サーバ又はネットワーク機器等であってもよい)に本発明の各実施例の前記方法の全部或いは一部のステップを実行させる。上述した記憶媒体は、Uディスク、モバイルハードディスク、ROM(Read-Only Memory、読み出し専用メモリ)、RAM(Random Access Memory、ランダムアクセスメモリ)、磁気ディスク又は光ディスク等の、プログラムコードを格納可能な各種の媒体を含む。
上述したのが単に本発明の具体的な実施形態であるが、本発明の保護範囲は、これに限定されない。当技術分野に精通している如何なる技術者が本発明に開示された技術範囲内で容易に想到し得る変更又は置換は、何れも本発明の保護範囲内に含まれるべきである。したがって、本発明の保護範囲は、請求項の保護範囲に準じるべきである。
本願は、2020年2月28日に提出された、出願番号が202010129936.Xであって発明名称が「行動予測方法及び装置、歩容認識方法及び装置」である中国特許出願の優先権を要求し、当該中国特許出願に開示された全ての内容が引用によって本願に組み込まれる。

Claims (15)

  1. それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、
    各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定するステップと、
    前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測するステップと、を含むことを特徴とする行動予測方法。
  2. 前記各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定することは、
    各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報及び前記目標オブジェクトの第1重心座標を特定することと、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定することと、
    前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識することと、
    前記目標画像における前記目標オブジェクトの複数の2次元キーポイント情報と前記複数の3次元キーポイント情報とに基づいて、前記目標オブジェクトの第2重心座標を特定することと、
    前記第1重心座標及び前記第2重心座標に基づいて、前記目標画像における前記目標オブジェクトの目標重心座標を特定することと、を含むことを特徴とする請求項1に記載の行動予測方法。
  3. 前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、
    各目標ビデオセグメントにおける各フレームの画像について、当該フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、当該フレームの画像における前記目標オブジェクトの検出枠を特定することと、
    前記検出枠のサイズ情報と前記検出枠の中心点の座標とに基づいて、当該フレームの画像における各2次元キーポイント情報に対応する座標情報に対して正規化処理を行い、当該フレームの画像における目標オブジェクトの複数の目標2次元キーポイント情報を取得することと、
    前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することと、を含むことを特徴とする請求項2に記載の行動予測方法。
  4. 前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することは、
    前記各フレームの画像における前記目標オブジェクトの複数の目標2次元キーポイント情報をトレーニングされた第1ニューラルネットワークに入力し、入力された複数の目標2次元キーポイント情報に対して前記第1ニューラルネットワークを介して処理し、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定することを含むことを特徴とする請求項3に記載の行動予測方法。
  5. 前記第1ニューラルネットワークをトレーニングするステップを更に含み、
    前記第1ニューラルネットワークをトレーニングするステップは、
    第1サンプル画像を含むとともに前記第1サンプル画像よりも前のNフレームの画像も含む第1サンプルビデオセグメントと、前記第1サンプル画像における第1サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得することと、
    前記第1サンプルオブジェクトの物理サイズ情報に基づいて、各標準3次元キーポイント情報の、ネットワーク尺度空間に対応する目標標準3次元キーポイント情報を特定することと、
    前記複数の標準3次元キーポイント情報に基づいて、前記第1サンプルビデオセグメントの各フレームの画像における前記第1サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することと、
    特定された前記複数のサンプル2次元キーポイント情報をトレーニングすべき第1ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報に対して前記第1ニューラルネットワークを介して処理し、前記第1サンプル画像における前記第1サンプルオブジェクトの複数の予測3次元キーポイント情報を特定することと、
    前記複数の予測3次元キーポイント情報と前記複数の目標標準3次元キーポイント情報との間の誤差情報に基づいて、前記第1ニューラルネットワークのネットワークパラメータを調整することと、を含むことを特徴とする請求項4に記載の行動予測方法。
  6. 前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定することは、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定することと、前記第1接続線と前記第2接続線との間の最小誤差平面を特定することと、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定することと、を含み、又は、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線であって前記第1接続線である第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線であって前記第2接続線である第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定することと、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定することと、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定することと、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定することと、を含むことを特徴とする請求項2に記載の行動予測方法。
  7. 前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識することは、前記複数の3次元キーポイント情報に基づいて、前記前進方向における前記目標オブジェクトの両足の間の接続線の第1投影の長さ情報を特定し、前記目標オブジェクトの歩幅情報とすることとを含み、
    及び/又は、
    前記複数の3次元キーポイント情報に基づいて、前記前進方向に垂直な方向における前記目標オブジェクトの両足の間の接続線の第2投影の長さ情報を特定し、前記目標オブジェクトの歩隔情報とすることと、を含むことを特徴とする請求項2又は6に記載の行動予測方法。
  8. 前記各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標オブジェクトの第1重心座標を特定することは、
    各目標ビデオセグメントの各フレームの画像における前記目標オブジェクトの複数の2次元キーポイント情報をトレーニングされた第2ニューラルネットワークに入力し、入力された複数の2次元キーポイント情報に対して前記第2ニューラルネットワークを介して処理し、前記目標オブジェクトの第1重心座標を特定することを含むことを特徴とする請求項2に記載の行動予測方法。
  9. 前記第2ニューラルネットワークをトレーニングするステップを更に含み、
    前記第2ニューラルネットワークをトレーニングするステップは、
    第2サンプル画像を含むとともに前記第2サンプル画像よりも前のNフレームの画像も含む第2サンプルビデオセグメントと、前記第2サンプル画像における第2サンプルオブジェクトの複数の標準3次元キーポイント情報とを取得することと、
    前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルビデオセグメントの各フレームの画像における前記第2サンプルオブジェクトの複数のサンプル2次元キーポイント情報を特定することと、
    前記複数の標準3次元キーポイント情報に基づいて、前記第2サンプルオブジェクトの標準重心座標を特定することと、
    特定された前記複数のサンプル2次元キーポイント情報をトレーニングすべき第2ニューラルネットワークに入力し、入力された複数のサンプル2次元キーポイント情報に対して前記第2ニューラルネットワークを介して処理し、前記第2サンプル画像における前記第2サンプルオブジェクトの予測重心座標を出力することと、
    前記予測重心座標と前記標準重心座標との間の誤差情報に基づいて、前記第2ニューラルネットワークのネットワークパラメータを調整することと、を含むことを特徴とする請求項8に記載の行動予測方法。
  10. それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するステップと、
    各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定するステップと、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するステップと、
    前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップと、を含み、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するステップは、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定することと、前記第1接続線と前記第2接続線との間の最小誤差平面を特定することと、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定することと、を含み、又は、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定することと、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定することと、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定することと、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定することと、を含む、
    ことを特徴とする歩容認識方法。
  11. 前記歩容データは、
    前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するステップは、前記複数の3次元キーポイント情報に基づいて、前記前進方向における前記目標オブジェクトの両足の間の接続線の第1投影の長さ情報を特定し、前記目標オブジェクトの歩幅情報とすることと、を含み、
    及び/又は、
    前記複数の3次元キーポイント情報に基づいて、前記前進方向に垂直な方向における前記目標オブジェクトの両足の間の接続線の第2投影の長さ情報を特定し、前記目標オブジェクトの歩隔情報とすることと、を含むことを特徴とする請求項10に記載の歩容認識方法。
  12. それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するためのビデオ取得モジュールと、
    各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの複数の3次元キーポイント情報を特定するためのキーポイント処理モジュールと、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの前進方向を特定するための前進方向特定モジュールと、
    前記複数の3次元キーポイント情報及び前記前進方向に基づいて、前記目標画像における前記目標オブジェクトの歩容データを認識するための歩容認識モジュールと、を備え
    前進方向特定モジュールは、前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第1接続線、及び前記目標オブジェクトの左肩部と右肩部の間の第2接続線を特定し、前記第1接続線と前記第2接続線との間の最小誤差平面を特定し、前記最小誤差平面と水平面との交線に基づいて、前記目標オブジェクトの前進方向を特定し、又は、
    前記複数の3次元キーポイント情報に基づいて、前記目標オブジェクトの左股部と右股部の間の第3接続線、前記目標オブジェクトの左肩部と右肩部の間の第4接続線、及び前記目標オブジェクトの骨盤点と頸椎点の間の第5接続線を特定し、前記第3接続線及び前記第4接続線に基づいて、水平面に対する前記目標オブジェクトの第1胴体方向を特定し、前記第5接続線に基づいて、鉛直面に対する前記目標オブジェクトの第2胴体方向を特定し、前記第1胴体方向及び前記第2胴体方向に基づいて、前記目標オブジェクトの前進方向を特定する、
    ことを特徴とする歩容認識装置。
  13. それぞれが目標画像と前記目標画像よりも前のN(Nは正整数)フレームの画像とを含む複数の目標ビデオセグメントを取得するための画像取得モジュールと、
    各目標ビデオセグメントにおける目標オブジェクトの複数の2次元キーポイント情報に基づいて、前記目標画像における前記目標オブジェクトの歩容データ及び目標重心座標を特定するための画像処理モジュールと、
    前記歩容データ及び前記目標重心座標に基づいて、前記目標オブジェクトの所定時間帯における行動特徴情報を予測するための予測モジュールと、を備えることを特徴とする行動予測装置。
  14. 電子機器であって、
    プロセッサと、メモリと、バスとを備え、
    前記メモリには、前記プロセッサで実行され得る機器読み取り可能な指令が記憶され、前記電子機器が動作しているとき、前記プロセッサと前記メモリとは、前記バスを介して互いに通信され、前記プロセッサは、前記機器読み取り可能な指令を実行することにより、請求項1から9の何れか一項に記載の行動予測方法、あるいは、請求項10又は11に記載の歩容認識方法実施することを特徴とする電子機器。
  15. コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって運転されたときに、前記プロセッサは、請求項1から9の何れか一項に記載の行動予測方法、あるいは、請求項10又は11に記載の歩容認識方法実施することを特徴とするコンピュータ可読記憶媒体。
JP2021573491A 2020-02-28 2021-02-22 行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体 Active JP7311640B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010129936.XA CN111291718B (zh) 2020-02-28 2020-02-28 行为预测方法及装置、步态识别方法及装置
CN202010129936.X 2020-02-28
PCT/CN2021/077297 WO2021169924A1 (zh) 2020-02-28 2021-02-22 行为预测方法及装置、步态识别方法及装置、电子设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2022536354A JP2022536354A (ja) 2022-08-15
JP7311640B2 true JP7311640B2 (ja) 2023-07-19

Family

ID=71022337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573491A Active JP7311640B2 (ja) 2020-02-28 2021-02-22 行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US20220114839A1 (ja)
EP (1) EP3979122A4 (ja)
JP (1) JP7311640B2 (ja)
KR (1) KR20220008843A (ja)
CN (1) CN111291718B (ja)
TW (1) TW202133036A (ja)
WO (1) WO2021169924A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291718B (zh) * 2020-02-28 2022-06-03 上海商汤智能科技有限公司 行为预测方法及装置、步态识别方法及装置
CN112597903B (zh) * 2020-12-24 2021-08-13 珠高电气检测有限公司 基于步幅测量的电力人员安全状态智能识别方法及介质
US11475628B2 (en) * 2021-01-12 2022-10-18 Toyota Research Institute, Inc. Monocular 3D vehicle modeling and auto-labeling using semantic keypoints
CN112907892A (zh) * 2021-01-28 2021-06-04 上海电机学院 基于多视图的人体跌倒报警方法
CN113015022A (zh) * 2021-02-05 2021-06-22 深圳市优必选科技股份有限公司 行为识别方法、装置、终端设备及计算机可读存储介质
US20230230465A1 (en) * 2022-01-20 2023-07-20 Johnson Controls Tyco IP Holdings LLP Computer vision system and methods for anomalous event detection
CN114821805B (zh) * 2022-05-18 2023-07-18 湖北大学 一种危险行为预警方法、装置和设备
KR102476777B1 (ko) * 2022-05-25 2022-12-12 주식회사 유투에스알 인공지능 기반 경로 예측시스템
CN114818989B (zh) * 2022-06-21 2022-11-08 中山大学深圳研究院 基于步态的行为识别方法、装置、终端设备及存储介质
CN116999852A (zh) * 2022-07-11 2023-11-07 腾讯科技(深圳)有限公司 用于控制虚拟角色的ai模型的训练方法、装置及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015042241A (ja) 2013-01-18 2015-03-05 株式会社東芝 動作情報処理装置及び方法
CN107392097A (zh) 2017-06-15 2017-11-24 中山大学 一种单目彩色视频的三维人体关节点定位方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3834629B2 (ja) * 2002-09-26 2006-10-18 独立行政法人産業技術総合研究所 歩行ロボットの歩行歩容生成装置
CN101558996B (zh) * 2009-05-15 2010-11-10 天津大学 基于人体运动结构正投影三维重建的步态识别方法
CN102697508B (zh) * 2012-04-23 2013-10-16 中国人民解放军国防科学技术大学 采用单目视觉的三维重建来进行步态识别的方法
US10096125B1 (en) * 2017-04-07 2018-10-09 Adobe Systems Incorporated Forecasting multiple poses based on a graphical image
CN108229355B (zh) * 2017-12-22 2021-03-23 北京市商汤科技开发有限公司 行为识别方法和装置、电子设备、计算机存储介质
WO2019216593A1 (en) * 2018-05-11 2019-11-14 Samsung Electronics Co., Ltd. Method and apparatus for pose processing
CN109214282B (zh) * 2018-08-01 2019-04-26 中南民族大学 一种基于神经网络的三维手势关键点检测方法和系统
CN109840500B (zh) * 2019-01-31 2021-07-02 深圳市商汤科技有限公司 一种三维人体姿态信息检测方法及装置
CN111291718B (zh) * 2020-02-28 2022-06-03 上海商汤智能科技有限公司 行为预测方法及装置、步态识别方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015042241A (ja) 2013-01-18 2015-03-05 株式会社東芝 動作情報処理装置及び方法
CN107392097A (zh) 2017-06-15 2017-11-24 中山大学 一种单目彩色视频的三维人体关节点定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
X. Gu,外4名,Markerless Gait Analysis Based on a Single RGB Camera,2018 IEEE 15th International Conference on Wearable and Implantable Body Sensor Networks (BSN),2018年03月04日,pp. 42-45

Also Published As

Publication number Publication date
EP3979122A1 (en) 2022-04-06
US20220114839A1 (en) 2022-04-14
KR20220008843A (ko) 2022-01-21
TW202133036A (zh) 2021-09-01
EP3979122A4 (en) 2022-10-12
JP2022536354A (ja) 2022-08-15
WO2021169924A1 (zh) 2021-09-02
CN111291718B (zh) 2022-06-03
CN111291718A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
JP7311640B2 (ja) 行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体
US10417775B2 (en) Method for implementing human skeleton tracking system based on depth data
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
Kamal et al. A hybrid feature extraction approach for human detection, tracking and activity recognition using depth sensors
CN105531995B (zh) 用于使用多个摄像机进行对象和事件识别的系统和方法
Radwan et al. Monocular image 3D human pose estimation under self-occlusion
US20110091073A1 (en) Moving object detection apparatus and moving object detection method
US20060269145A1 (en) Method and system for determining object pose from images
CN108875586B (zh) 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法
WO2008057107A2 (en) Method and system for object surveillance and real time activity recognition
CN115427982A (zh) 用于使用卷积神经网络标识数字视频中的人体行为的方法、系统和介质
JP5598751B2 (ja) 動作認識装置
KR20160121379A (ko) 골프 동작 분석 장치 및 방법
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
Burgermeister et al. PedRecNet: Multi-task deep neural network for full 3D human pose and orientation estimation
CN115471863A (zh) 三维姿态的获取方法、模型训练方法和相关设备
Sunney et al. A real-time machine learning framework for smart home-based Yoga Teaching System
CN114548224B (zh) 一种用于强交互人体运动的2d人体位姿生成方法及装置
Nie et al. A child caring robot for the dangerous behavior detection based on the object recognition and human action recognition
CN113610969B (zh) 一种三维人体模型生成方法、装置、电子设备及存储介质
CN115631155A (zh) 一种基于时空自注意力的骨骼疾病筛查方法
Liu et al. Adaptive recognition method for VR image of Wushu decomposition based on feature extraction
CN111274854B (zh) 一种人体动作识别方法和视觉增强处理系统
US20240087353A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
Jian et al. Realistic face animation generation from videos

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150