JP2022542199A - KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA - Google Patents

KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA Download PDF

Info

Publication number
JP2022542199A
JP2022542199A JP2021539648A JP2021539648A JP2022542199A JP 2022542199 A JP2022542199 A JP 2022542199A JP 2021539648 A JP2021539648 A JP 2021539648A JP 2021539648 A JP2021539648 A JP 2021539648A JP 2022542199 A JP2022542199 A JP 2022542199A
Authority
JP
Japan
Prior art keywords
keypoint
information
keypoints
map model
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021539648A
Other languages
Japanese (ja)
Inventor
ション ジン
ウェンタオ リウ
チェン チエン
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2022542199A publication Critical patent/JP2022542199A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Storage Device Security (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本発明は、キーポイントの検出方法、装置、電子機器および記憶媒体を提供し、前記方法は、検出される画像を取得することと、前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成することであって、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応することと、前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成することであって、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジであることと、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することと、を含む。【選択図】図1The present invention provides a keypoint detection method, apparatus, electronic device and storage medium, the method comprising: obtaining a detected image; based on the detected image, an image feature map; wherein said image feature map is used to represent the relative positional relationship between each target object in said detected image, each said keypoint heat map comprising said based on the image feature map and a plurality of the keypoint heatmaps, comprising keypoints of one category of a detected image, wherein keypoints of different categories correspond to different parts of the target object; generating a keypoint map model, wherein the keypoint map model includes information of keypoints of different categories in the detected image and information of connecting edges, each connecting edge consisting of two being edges between keypoints of different categories; and determining each keypoint belonging to the same target object based on the keypoint map model. [Selection drawing] Fig. 1

Description

本願は、2020年06月30日に中国特許局に提出された、出願番号が202010622132.3である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、引用によって本願に組み込まれる。 This application is filed based on a Chinese patent application numbered 202010622132.3 filed with the Chinese Patent Office on June 30, 2020, and claims priority to the Chinese patent application; The entire content of the Chinese patent application is incorporated herein by reference.

本発明は、画像検出技術分野に関し、特に、キーポイントの検出方法、装置、電子機器および記憶媒体に関する。 TECHNICAL FIELD The present invention relates to the field of image detection technology, and more particularly to a keypoint detection method, device, electronic device and storage medium.

人体キーポイントの検出は、ビデオ内の人間の行動を分析することのために上位層情報のサポートを提供し、ビデオの人体の動き認識および人間とコンピュータとの対話を実現するための基礎となる。近年、ディープニューラルネットワークに基づく人体キーポイントの検出方法は、入力画像への取得が容易で、検出効果が、効率的かつ正確であるため、研究のホットスポットになっている。 Human body keypoint detection provides support for higher-layer information for analyzing human behavior in video, and is the basis for realizing video body motion recognition and human-computer interaction. . In recent years, the detection method of human body keypoints based on deep neural network has become a research hotspot because it is easy to acquire into the input image and the detection effect is efficient and accurate.

通常、ディープニューラルネットワークに基づく人体キーポイントの検出方法において、キーポイントの検出とキーポイントのクラスタリングは、2つの独立したステップであり、即ち、キーポイントのクラスタリングは、通常、微分不可能な後処理動作である。しかし、このような方式では、キーポイントのクラスタリングプロセスの精度は低く、即ち、クラスタリングエラーが発生する可能性があり、異なる人のキーポイントが同じ人のキーポイントとしてクラスタリングされ、それにより、検出結果にエラーが発生する。 Usually, in human body keypoint detection methods based on deep neural networks, keypoint detection and keypoint clustering are two independent steps, i.e. keypoint clustering is usually a non-differentiable post-processing It is action. However, in such a method, the accuracy of the keypoint clustering process is low, i.e., clustering errors may occur, and different people's keypoints are clustered as the same person's keypoints, so that the detection result an error occurs.

これを鑑みて、本発明の実施例は、少なくともキーポイントの検出方法、装置、電子機器および記憶媒体を提供する。 In view of this, embodiments of the present invention provide at least a keypoint detection method, apparatus, electronic device and storage medium.

第1態様において、本発明の実施例は、キーポイントの検出方法を提供し、前記方法は、
検出される画像を取得することと、
前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成することであって、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応することと、
前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成することであって、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジであることと、
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することと、を含む。
In a first aspect, embodiments of the present invention provide a keypoint detection method, the method comprising:
obtaining an image to be detected;
generating an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map represents the relative positional relationship between each target object in the detected image. wherein each said keypoint heatmap contains keypoints of one category of said detected image, with keypoints of different categories corresponding to different parts of said target object;
generating a keypoint map model based on the image feature map and a plurality of the keypoint heatmaps, wherein the keypoint map model contains information of different categories of keypoints in the detected image; and connecting edge information, each connecting edge being an edge between two different categories of keypoints;
determining each keypoint belonging to the same target object based on the keypoint map model.

上記の方法を採用することにより、生成される画像特徴マップと、複数のキーポイントヒートマップに基づいて、検出される画像に対応するキーポイントマップモデルを生成することができ、キーポイントマップモデルには、画像特徴マップと、キーポイントヒートマップ内の情報が含まれ、画像特徴マップは、検出される画像内の異なるターゲット対象間の相対位置関係を表すことができるため、キーポイントマップモデルに基づいて、異なるターゲット対象のキーポイントを正しく区別して、キーポイントクラスタリングの精度を向上させることができるようにする。 By adopting the above method, a keypoint map model corresponding to the detected image can be generated based on the generated image feature map and multiple keypoint heatmaps, and the keypoint map model is contains the information in the image feature map and the keypoint heat map, and the image feature map can represent the relative positional relationship between different target objects in the detected image, so it is based on the keypoint map model. to correctly distinguish keypoints of different target objects to improve the accuracy of keypoint clustering.

一可能な実施形態において、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することは、
前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することと、
決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定することと、を含む。
In one possible embodiment, determining each keypoint belonging to the same target object based on said keypoint map model comprises:
determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edge;
determining each keypoint belonging to the same target object based on the determined correlation.

一可能な実施形態において、決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定することは、対応する前記相関性が設定閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用することを含む。 In one possible embodiment, determining each keypoint belonging to the same target subject based on the determined correlation is performed by identifying each keypoint for which the corresponding correlation is greater than a set threshold as a key point of the same target subject. Including using it as a point.

一可能な実施形態において、前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することは、各キーポイントに対して、前記キーポイントの情報、および前記キーポイントマップモデルの前記キーポイントと接続関係を持つ他のキーポイントの情報に基づいて、前記キーポイントの融合特徴を決定することと、各キーポイントにそれぞれ対応する融合特徴に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することと、を含む。 In one possible embodiment, determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edges. determining, for each keypoint, a fusion feature of the keypoint based on information of the keypoint and information of other keypoints having a connection relationship with the keypoint in the keypoint map model; and determining the correlation between two keypoints with a connection relationship in the keypoint map model based on the fusion features respectively corresponding to each keypoint.

一可能な実施形態において、前記キーポイントの情報は、位置情報、カテゴリ情報、およびピクセル特徴情報を含み、前記キーポイントヒートマップに基づいて、各キーポイントの位置情報を決定すること、各前記キーポイントの位置情報に基づいて、前記画像特徴マップから前記キーポイントのピクセル特徴情報を抽出し、前記キーポイントが属するキーポイントヒートマップのカテゴリラベルに基づいて、前記キーポイントに対応するカテゴリ情報を決定することに従って、前記キーポイントマップモデルの各キーポイントの情報を決定する。 In one possible embodiment, the keypoint information includes location information, category information, and pixel feature information, and based on the keypoint heatmap, determining location information for each keypoint; Extract pixel feature information of the keypoint from the image feature map based on the position information of the point, and determine category information corresponding to the keypoint based on the category label of the keypoint heatmap to which the keypoint belongs. Determine the information of each keypoint in the keypoint map model according to what is done.

一可能な実施形態において、各キーポイントに対応する前記カテゴリ情報に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する。 In one possible embodiment, based on the category information corresponding to each keypoint, each keypoint is connected with other keypoints that are different from the category to which the keypoint belongs, in the keypoint map model. Generate each connecting edge in the keypoint map model according to forming connecting edges.

一可能な実施形態において、各キーポイントに対応する前記カテゴリ情報、およびプリセットの異なるカテゴリ間のマッチング関係に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する
一可能な実施形態において、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象の行動タイプを決定することをさらに含む。
In one possible embodiment, based on the category information corresponding to each keypoint and the matching relationship between different categories of presets, each keypoint is identified by a key corresponding to a target category that matches the category to which the keypoint belongs. generating each connecting edge in said keypoint map model according to connecting points to form connecting edges in said keypoint map model. In one possible embodiment, based on said keypoint map model: After determining each keypoint belonging to the same target object, further comprising determining a behavior type of the target object based on the information of each keypoint corresponding to each target object.

一可能な実施形態において、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象に対する特殊効果情報を生成することをさらに含む。 In one possible embodiment, after determining each keypoint belonging to the same target object based on the keypoint map model, based on the information of each keypoint corresponding to each target object, a special effect for the target object Further including generating the information.

以下の装置、電子機器などの効果の説明は、上記の方法の説明を参照でき、ここでは、繰り返して説明しない。 The description of the effects of the following devices, electronic devices, etc. can refer to the description of the above method, and will not be repeated here.

第2態様において、本発明の実施例は、キーポイントの検出装置を提供し、前記装置は、
検出される画像を取得するように構成される、取得モジュールと、
前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成するように構成される第1生成モジュールであって、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応する、第1生成モジュールと、
前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成するように構成される第2生成モジュールであって、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジである、第2生成モジュールと、
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定するように構成される、決定モジュールと、を備える。
In a second aspect, an embodiment of the present invention provides an apparatus for detecting keypoints, said apparatus comprising:
an acquisition module configured to acquire the detected image;
A first generating module configured to generate an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map is for each target of the detected image. used to represent the relative positional relationship between objects, each said keypoint heatmap contains keypoints of one category of said detected image, and keypoints of different categories correspond to different positions of said target object; a first generation module corresponding to the part;
A second generation module configured to generate a keypoint map model based on the image feature map and a plurality of the keypoint heat maps, wherein the keypoint map model includes: a second generating module comprising information of keypoints of different categories and information of connecting edges of
a determination module configured to determine each keypoint belonging to the same target object based on the keypoint map model.

第3態様において、本発明の実施例は、プロセッサ、メモリおよびバスを備える、電子機器を提供し、前記メモリは、前記プロセッサの実行可能な機械可読命令を記憶し、電子機器が実行される場合に、前記プロセッサと前記メモリとは、バスを介して通信し、前記機械可読命令は、前記プロセッサによって実行されるとき、上記の第1態様または任意の実施形態に記載のキーポイントの検出方法のステップを実行する。 In a third aspect, an embodiment of the present invention provides an electronic device comprising a processor, a memory and a bus, the memory storing machine-readable instructions executable by the processor, when the electronic device executes and said processor and said memory are in communication via a bus, and said machine-readable instructions, when executed by said processor, perform a keypoint detection method according to the first aspect or any embodiment above. Execute the step.

第4態様において、本発明の実施例は、コンピュータプログラムを記憶する、コンピュータ可読記憶媒体を提供し、前記コンピュータプログラムが、プロセッサによって実行されるとき、上記の第1態様または任意の実施形態に記載のキーポイントの検出方法のステップを実行する。 In a fourth aspect, an embodiment of the invention provides a computer readable storage medium storing a computer program, said computer program, when executed by a processor, as described in the first aspect or any embodiment above. , perform the keypoint detection method steps.

本発明の実施例は、コンピュータ可読コードを含む、コンピュータプログラム製品を提供し、前記コンピュータ可読コードが、電子機器で実行されるとき、前記電子機器内のプロセッサは、上記の1つまたは複数の実施例を実現するためのサーバを実行して上記の方法を実行する。 An embodiment of the invention provides a computer program product comprising computer readable code, the computer readable code, when executed in an electronic device, causing a processor in the electronic device to perform one or more of the above implementations. Run the server to implement the example and perform the above method.

本発明の上記の目的、特徴および利点をより明確且つ理解しすくするために、以下は、好ましい実施例を添付の図面と合わせて、詳細な説明をする。 In order to make the above objects, features and advantages of the present invention clearer and easier to understand, the following detailed description will be made of the preferred embodiments together with the accompanying drawings.

本発明の実施例の技術的解決策をより明確に説明するために、以下は、実施例で必要な図面を簡単に紹介する。ここでの図面は、本明細書に組み込まれてその一部を構成し、これらの図面は、本発明と一致する実施例を示すものであり、明細書とともに本発明の実施例の技術的解決策を説明するために使用される。以下の図面は、本発明のいくつかの実施例のみを示したため、範囲の限定として見なされるべきではなく、当業者にとっては、創造的な作業なしに、これらの図面に従って他の関連する図面を得ることもできることを理解されたい。
本発明の実施例によるキーポイントの検出方法の例示的なフローチャートである。 本発明の実施例によるキーポイントマップモデルの概略図である。 本発明の実施例によるキーポイントの検出方法のシステムのブロック図である。 本発明の実施例によるキーポイントの検出方法の適用シナリオ図である。 本発明の実施例によるキーポイントの検出装置のアーキテクチャの概略図である。 本発明の実施例による電子機器400の例示的な構造図である。
To describe the technical solutions in the embodiments of the present invention more clearly, the following briefly introduces the drawings required in the embodiments. The drawings herein are incorporated in and constitute a part of this specification, and these drawings illustrate embodiments consistent with the present invention, and together with the description, the technical solution of the embodiments of the present invention. used to describe policies. The following drawings show only some embodiments of the present invention and should not be considered as limiting the scope, and those skilled in the art can follow these drawings to construct other relevant drawings without creative work. It should be understood that it is also possible to obtain
4 is an exemplary flowchart of a keypoint detection method according to an embodiment of the present invention; 1 is a schematic diagram of a keypoint map model according to an embodiment of the invention; FIG. 1 is a block diagram of a system of keypoint detection method according to an embodiment of the present invention; FIG. FIG. 4 is an application scenario diagram of a keypoint detection method according to an embodiment of the present invention; 1 is a schematic diagram of the architecture of a keypoint detection device according to an embodiment of the present invention; FIG. 4 is an exemplary structural diagram of an electronic device 400 according to an embodiment of the present invention; FIG.

本発明の実施例の目的、技術的解決策および利点をより明確にするために、以下は、本発明の実施例の図面を参照して、本発明の実施例における技術的解決策を明確、且つ完全に説明し、明らかに、説明される実施例は、本発明の実施例の一部に過ぎず、実施例の全てではない。通常、ここでの図面で説明および示された本発明の実施例のコンポーネンは、様々な異なる構成で配置および設計されることができる。そのため、以下は、図面で提供された本発明の実施例の詳細な説明は、保護請求の本発明の範囲を制限することを目的としなく、本発明の選択された実施例を表示することに過ぎない。本発明の実施例に基づいて、創造的な努力なしに当業者によって取得される他のすべての実施例は、すべて本発明の保護範囲に含まれる。 In order to make the objects, technical solutions and advantages of the embodiments of the present invention clearer, the following will refer to the drawings of the embodiments of the present invention to clarify the technical solutions in the embodiments of the present invention, And fully described, apparently, the described embodiments are only some, but not all of the embodiments of the present invention. Generally, the components of the embodiments of the invention described and illustrated in the drawings herein can be arranged and designed in a variety of different configurations. Therefore, the detailed description of embodiments of the invention provided in the drawings, below, are not intended to limit the scope of the claimed invention, but rather to display selected embodiments of the invention. Not too much. All other embodiments obtained by persons skilled in the art without creative efforts based on the embodiments of the present invention shall all fall within the protection scope of the present invention.

通常、ディープニューラルネットワークを使用して画像を検出し、画像に含まれるターゲット対象のキーポイント情報を決定することができ、ここで、ディープニューラルネットワークに基づくキーポイントの検出方法では、キーポイントの検出と、キーポイントのクラスタリングが含まれる。 Normally, deep neural network can be used to detect an image and determine the keypoint information of the target object contained in the image, where the keypoint detection method based on deep neural network is to detect the keypoint and clustering of keypoints.

現在、キーポイントの検出とキーポイントのクラスタリングは、2つの独立したステップであり、即ち、キーポイントのクラスタリングは、通常、微分できない後の処理動作である。しかし、このような方式を使用する場合、キーポイントのクラスタリングプロセスの精度は低くなり、即ち、クラスタリングエラーが生成される可能性があり、異なる人のキーポイントを同じ人のキーポイントとしてクラスタリングされ、それにより、検出結果にエラーが発生する。 Currently, keypoint detection and keypoint clustering are two independent steps: keypoint clustering is a post-processing operation that is usually not differentiable. However, when using such a scheme, the accuracy of the keypoint clustering process is low, i.e., clustering errors may be generated, and different people's keypoints are clustered as the same person's keypoints, As a result, an error occurs in the detection result.

上記の問題を解決するために、本発明の実施例は、キーポイントの検出方法を提供。 To solve the above problems, embodiments of the present invention provide a keypoint detection method.

本発明の実施例を理解し易くするために、まず、本発明の実施例で開示されるキーポイントの検出方法を詳細に紹介する。 To facilitate understanding of the embodiments of the present invention, firstly, the keypoint detection methods disclosed in the embodiments of the present invention are introduced in detail.

本発明の実施例によるキーポイントの検出方法の実行主体は、サーバであり得、当該サーバは、ローカルサーバであってもよいし、クラウドサーバであってもよい。または、当該方法の実行主体は、携帯電話、タブレット、AR眼鏡などの端末機器であってもよい。 The execution entity of the keypoint detection method according to the embodiments of the present invention may be a server, which may be a local server or a cloud server. Alternatively, the execution subject of the method may be a terminal device such as a mobile phone, tablet, or AR glasses.

図1を参照すると、図1は、本発明の実施例によるキーポイントの検出方法の例示的なフローチャートであり、当該方法は、S101~S104を含む。 Please refer to FIG. 1, which is an exemplary flow chart of a keypoint detection method according to an embodiment of the present invention, which includes S101-S104.

S101において、検出される画像を取得する。 In S101, a detected image is obtained.

S102において、検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成し、画像特徴マップは、検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各キーポイントヒートマップには、検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、ターゲット対象の異なる部位に対応する。 At S102, an image feature map and a plurality of keypoint heat maps are generated based on the detected image, and the image feature map is used to represent the relative positional relationship between each target object in the detected image. , each keypoint heatmap contains keypoints of one category of the detected image, and keypoints of different categories correspond to different parts of the target object.

S103において、画像特徴マップおよび複数のキーポイントヒートマップに基づいて、キーポイントマップモデルを生成し、キーポイントマップモデルには、検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジである。 At S103, generate a keypoint map model based on the image feature map and the plurality of keypoint heatmaps, the keypoint map model includes information of keypoints of different categories and information of connecting edges in the detected image; , where each connecting edge is an edge between two different categories of keypoints.

S104において、キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定する。 At S104, each keypoint belonging to the same target object is determined based on the keypoint map model.

上記の方法において、生成される画像特徴マップと、複数のキーポイントヒートマップに基づいて、検出される画像に対応するキーポイントマップモデルを生成することができ、キーポイントマップモデルには、画像特徴マップと、キーポイントヒートマップ内の情報が含まれ、画像特徴マップは、検出される画像内の異なるターゲット対象間の相対位置関係を表すことができるため、キーポイントマップモデルに基づいて、異なるターゲット対象のキーポイントを正しく区別して、キーポイントクラスタリングの精度を向上させることができるようにする。 In the above method, a keypoint map model corresponding to the detected image can be generated based on the generated image feature map and a plurality of keypoint heat maps, wherein the keypoint map model includes image features Based on the keypoint map model, different target To improve accuracy of keypoint clustering by correctly distinguishing target keypoints.

S101およびS102について、
検出される画像は、任意の1つのターゲット対象を含む画像であり得る。実施プロセスでは、接続された記憶装置から、検出される画像を取得することができ、接続された撮影装置からリアルタイムで収集された検出される画像を取得することもできる。
Regarding S101 and S102,
The detected image can be an image containing any one target object. In the implementation process, the detected images can be obtained from the connected storage device, and the detected images collected in real time from the connected imaging device can also be obtained.

実施プロセスでは、取得された検出される画像を、トレーニングされたキーポイント検出ニューラルネットワークに入力して、画像特徴マップと、複数のキーポイントヒートマップを生成し、画像特徴マップ、複数のキーポイントヒートマップ、およびトレーニングされたキーポイント検出ニューラルネットワークに基づいて、各ターゲット対象の各キーポイントを決定することができる。 In the implementation process, the acquired detected image is input to a trained keypoint detection neural network to generate an image feature map and multiple keypoint heatmaps, and the image feature map, multiple keypoint heatmaps Based on the map and a trained keypoint detection neural network, each keypoint for each target object can be determined.

ここで、各キーポイントヒートマップには、検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、ターゲット対象の異なる部位に対応する。例えば、キーポイントのカテゴリは、頭、首、手などであり得、さらに、キーポイントヒートマップは、頭のキーポイントを含む画像であり得、または、キーポイントヒートマップは、首のキーポイントを含む画像などであり得、または、キーポイントのカテゴリは、設定された第1カテゴリ、第2カテゴリなどであり得る。ここで、第1カテゴリキーポイントは、親指のキーポイントであり得、第2カテゴリキーポイントは、食指のキーポイントであり得、さらに、キーポイントヒートマップは、第1カテゴリキーポイントを含む画像であり得、または、キーポイントヒートマップは、第2カテゴリキーポイントを含む画像などであり得る。ここで、キーポイントのカテゴリおよびカテゴリの数は、実際のニーズに従って設定することができる。および、各ターゲット対象に対応するキーポイントの数は、実際のニーズに従って設定でき、例えば、各ターゲット対象に対応するキーポイントの数は、17個、105個などであり得る。 Here, each keypoint heatmap contains keypoints of one category of the detected image, and keypoints of different categories correspond to different parts of the target object. For example, the keypoint categories could be head, neck, hands, etc., and a keypoint heatmap could be an image containing keypoints of the head, or a keypoint heatmap could contain keypoints of the neck. or the category of the keypoint may be a set first category, second category, etc. Here, the first category keypoint can be the thumb keypoint, the second category keypoint can be the forefinger keypoint, and the keypoint heatmap is an image containing the first category keypoint. Alternatively, the keypoint heatmap may be an image containing the second category keypoints, or the like. Here, the categories of key points and the number of categories can be set according to actual needs. And the number of keypoints corresponding to each target object can be set according to actual needs, for example, the number of keypoints corresponding to each target object can be 17, 105, and so on.

ここで、キーポイントヒートマップの数と、設定したキーポイントカテゴリの数は一致し、例えば、設定したキーポイントのカテゴリ数が、17個である場合、検出される画像に基づいて生成されるキーポイントヒートマップの数も17個である。ここで、各カテゴリのキーポイントの数は、1つまたは複数であり得る。 Here, the number of keypoint heatmaps matches the number of set keypoint categories. For example, when the number of set keypoint categories is 17, the key generated based on the detected image The number of point heat maps is also 17. Here, the number of keypoints in each category can be one or more.

画像特徴マップの数は、1つであってもよいし、複数であってもよい。ここで、画像特徴マップの数は、1つである場合、当該画像特徴マップは、検出される画像内の各ターゲット対象の、各カテゴリのキーポイントに対応する部位間の相対位置関係を表すことができる。画像特徴マップの数が、複数である場合、画像特徴マップの数とキーポイントヒートマップの数は、同じであり得、即ち、各画像特徴マップは、検出される画像内の各ターゲット対象の1つのカテゴリのキーポイントに対応する部位間の相対位置関係を表すことができる。ここで、画像特徴マップのサイズと、キーポイントヒートマップのサイズは、一致する。 The number of image feature maps may be one or plural. Here, when the number of image feature maps is one, the image feature map represents the relative positional relationship between the parts corresponding to the key points of each category of each target object in the detected image. can be done. If the number of image feature maps is multiple, the number of image feature maps and the number of keypoint heatmaps can be the same, i.e. each image feature map corresponds to one of each target object in the detected image. It can represent the relative positional relationship between parts corresponding to two categories of keypoints. Here, the size of the image feature map and the size of the keypoint heatmap match.

実施プロセスでは、キーポイント検出ニューラルネットワークで異なる損失関数を設定することにより、画像特徴マップ及び複数のキーポイントヒートマップを取得することができる。 In the implementation process, an image feature map and multiple keypoint heatmaps can be obtained by setting different loss functions in the keypoint detection neural network.

S103について、
ここで、複数のキーポイントヒートマップおよび画像特徴マップから各キーポイントの情報を抽出し、情報を含む各キーポイントをノードとし、異なるカテゴリのキーポイント間のエッジを、接続エッジとして、キーポイントマップモデルを構成することができる。
Regarding S103,
Here, we extract the information of each keypoint from multiple keypoint heatmaps and image feature maps, let each keypoint containing information be a node, and the edges between keypoints of different categories as connecting edges, and extract the keypoint map Models can be constructed.

一代替実施形態において、キーポイントの情報は、位置情報、カテゴリ情報、およびピクセル特徴情報を含み得る。ここで、キーポイントヒートマップに基づいて、各キーポイントの位置情報を決定すること、各キーポイントの位置情報に基づいて、画像特徴マップからキーポイントのピクセル特徴情報を抽出し、キーポイントが属するキーポイントヒートマップのカテゴリラベルに基づいて、キーポイントに対応するカテゴリ情報を決定することに従って、キーポイントマップモデルの各キーポイントの情報を決定することができる。 In an alternative embodiment, keypoint information may include location information, category information, and pixel feature information. where, based on the keypoint heat map, determine the location information of each keypoint; based on the location information of each keypoint, extract the pixel feature information of the keypoint from the image feature map, and determine where the keypoint belongs Based on the category labels of the keypoint heatmap, the information of each keypoint of the keypoint map model can be determined according to determining the category information corresponding to the keypoint.

実施プロセスでは、キーポイントヒートマップの各ピクセルのピクセル値に基づいて、各キーポイントの位置情報を決定することができる。例示的に、各キーポイントヒートマップに対して、ピクセル値が最大値であるピクセルを選択して、1つのキーポイントとして決定し、選択された当該ピクセルの位置情報を、キーポイントの位置情報として決定することができる。ここで、キーポイントヒートマップにおける特定のピクセルのピクセル値が、周囲のピクセルのピクセル値より大きい場合、当該ピクセルのピクセル値が、最大値であり、当該ピクセルが、キーポイントであると見なす。 In the implementation process, location information for each keypoint can be determined based on the pixel value of each pixel in the keypoint heatmap. Exemplarily, for each keypoint heatmap, a pixel with the maximum pixel value is selected and determined as one keypoint, and the position information of the selected pixel is used as the position information of the keypoint. can decide. Here, if the pixel value of a particular pixel in the keypoint heatmap is greater than the pixel values of the surrounding pixels, the pixel value of that pixel is considered to be the maximum value and that pixel is a keypoint.

各ピクセルの位置情報を取得した後、画像特徴マップから当該位置情報に対応するピクセルのピクセル値を抽出し、抽出されたピクセル値をキーポイントのピクセル特徴情報として決定することができる。 After obtaining the position information of each pixel, the pixel value of the pixel corresponding to the position information can be extracted from the image feature map, and the extracted pixel value can be determined as the pixel feature information of the key point.

同時に、各キーポイントが属するキーポイントヒートマップのカテゴリラベルに従って、キーポイントに対応するカテゴリ情報を決定することもできる。例えば、キーポイントヒートマップAのカテゴリラベルが、頭である場合、キーポイントヒートマップAに含まれる各キーポイントのカテゴリ情報は、頭のキーポイントであり、キーポイントヒートマップBのカテゴリラベルが、首である場合、キーポイントヒートマップBに含まれる各キーポイントのカテゴリ情報は、首のキーポイントである。 At the same time, the category information corresponding to the keypoint can also be determined according to the category label of the keypoint heatmap to which each keypoint belongs. For example, if the category label of keypoint heatmap A is head, the category information of each keypoint included in keypoint heatmap A is the keypoint of head, and the category label of keypoint heatmap B is If it is the neck, the category information of each keypoint included in the keypoint heatmap B is the neck keypoint.

一代替実施形態において、以下の2つの方式に従って、キーポイントマップモデル内の各接続エッジを生成することができる。 In an alternative embodiment, each connecting edge in the keypoint map model can be generated according to the following two schemes.

方式1において、各キーポイントに対応するカテゴリ情報に基づいて、各キーポイントを、キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、キーポイントマップモデル内の接続エッジを形成する。 In method 1, based on the category information corresponding to each keypoint, each keypoint is connected with other keypoints different from the category to which the keypoint belongs to form connecting edges in the keypoint map model.

方式2において、各キーポイントに対応するカテゴリ情報、およびプリセットの異なるカテゴリ間のマッチング関係に基づいて、各キーポイントを、キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、キーポイントマップモデル内の接続エッジを形成する。 In method 2, each keypoint is connected with the keypoint corresponding to the target category matching the category to which the keypoint belongs, based on the category information corresponding to each keypoint and the matching relationship between different categories of presets. , form the connecting edges in the keypoint map model.

方式1には、各キーポイントに対応するカテゴリ情報に基づいて、カテゴリ情報が同じであるキーポイントを接続しなく、カテゴリ情報が、異なるキーポイントを接続して、キーポイントマップモデル内の接続エッジを形成することができる。 In method 1, based on the category information corresponding to each keypoint, keypoints with the same category information are not connected, keypoints with different category information are connected, and connecting edges in the keypoint map model can be formed.

ここで、各キーポイントに対応するカテゴリ情報に基づいて、各キーポイントを、キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、キーポイントマップモデル内の接続エッジを形成することにより、キーポイントマップモデルを取得し、後続の各ターゲット対象の各キーポイントを決定することにデータサポートを提供する。 Here, based on the category information corresponding to each keypoint, by connecting each keypoint with other keypoints that are different from the category to which the keypoint belongs to form connecting edges in the keypoint map model. , to obtain the keypoint map model and provide data support for determining each keypoint for each subsequent target object.

方式2には、人体構造に基づいて、異なるカテゴリ間のマッチング関係を事前にプリセットすることができ、例えば、プリセットの異なるカテゴリ間のマッチング関係は、頭カテゴリと首カテゴリをマッチングし、首カテゴリのポイントをそれぞれ左肩カテゴリ、右肩カテゴリ、および頭カテゴリとマッチングし、足カテゴリと膝カテゴリをマッチングすることなどであり得る。ここで、異なるカテゴリ間のマッチング関係は、実際のニーズに従って設定することができる。 For method 2, the matching relationship between different categories can be preset in advance based on the human body structure, for example, the preset matching relationship between different categories is to match the head category and the neck category, Matching points with left shoulder, right shoulder, and head categories, respectively, foot and knee categories, and so on. Here, the matching relationship between different categories can be set according to actual needs.

さらに、各キーポイントに対して、当該キーポイントのカテゴリとマッチングするターゲットカテゴリを決定し、当該キーポイントをターゲットカテゴリに対応するキーポイントと接続して、キーポイントマップモデル内の接続エッジを形成することができる。 Further, for each keypoint, determine a target category that matches the keypoint's category, and connect the keypoint with the keypoint corresponding to the target category to form a connecting edge in the keypoint map model. be able to.

上記の実施形態において、異なるカテゴリ間のマッチング関係をプリセットすることができ、例えば、頭のキーポイントと首のキーポイントをマッチングするようにプリセットし、足のキーポイントと膝のキーポイントをマッチングするようにプリセットするなどができ、各キーポイントを、キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、各キーポイントを、マッチングしないキーポイントと接続しないよいにして、相関性を計算する計算量を減少し、さらに、キーポイント検出の効率を向上させることができる。 In the above embodiments, the matching relationship between different categories can be preset, for example, the head keypoints and neck keypoints are preset to match, and the foot keypoints and knee keypoints are preset to match. such that each keypoint is connected with the keypoint corresponding to the target category that matches the category to which the keypoint belongs, and each keypoint is not connected with keypoints that do not match, and the correlation It is possible to reduce the amount of computation for calculating properties and further improve the efficiency of keypoint detection.

図2Aに示されたキーポイントマップモデルの概略図を参照すると、当該図面には、方式1に基づいて生成されたキーポイントマップモデル21と、方式2に基づいて生成されたキーポイントマップモデル22が含まれる。ここで、図面には、第1カテゴリのキーポイント201、第2カテゴリのキーポイント202、および第3カテゴリのキーポイント203を含み、さらに、異なるキーポイント間の接続エッジ204を含む。図面から分かるように、キーポイントマップモデル21は、異なるカテゴリの各キーポイント間の接続エッジを含み、キーポイントマップモデル22は、マッチング関係を持つ異なるキーポイント間の接続エッジを含み、図面から分かるように、プリセットの異なるカテゴリ間のマッチング関係は、第1カテゴリと第2カテゴリがマッチングし、第2カテゴリと第3カテゴリがマッチングすることである。 Referring to the schematic diagram of the keypoint map model shown in FIG. is included. Here, the drawing includes first category keypoints 201, second category keypoints 202, and third category keypoints 203, and further includes connecting edges 204 between different keypoints. As can be seen from the drawing, the keypoint map model 21 contains the connecting edges between each keypoint of different categories, and the keypoint map model 22 contains the connecting edges between different keypoints with matching relations. As such, the matching relationship between different categories of presets is that the first category matches the second category, and the second category matches the third category.

S104について、
ここで、キーポイントマップモデルに基づいて、キーポイントマップモデルに含まれる各キーポイントを分割し、同じターゲット対象に属する複数のキーポイントを分割することができ、それにより、検出される画像に含まれる各ターゲット対象に対応する複数のキーポイントを取得することができる。ここで、各ターゲット対象に対応するキーポイントの数は、同じである。
Regarding S104,
Now, based on the keypoint map model, each keypoint included in the keypoint map model can be split to split multiple keypoints belonging to the same target object, thereby dividing the keypoints included in the detected image. Multiple keypoints can be obtained corresponding to each target object that is displayed. Here, the number of keypoints corresponding to each target object is the same.

一代替実施形態において、キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することは、以下のステップを含み得る。 In an alternative embodiment, determining each keypoint belonging to the same target object based on the keypoint map model may include the following steps.

A1において、キーポイントマップモデルの各キーポイントの情報および接続エッジの情報に基づいて、キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定する。 At A1, based on the information of each keypoint in the keypoint map model and the information of the connecting edge, the correlation between two keypoints having a connection relationship in the keypoint map model is determined.

A2において、決定される相関性に基づいて、同じターゲット対象に属する各キーポイントを決定する。 At A2, each keypoint belonging to the same target object is determined based on the determined correlation.

上記の実施形態で、各キーポイントの情報および接続エッジの情報に基づいて、キーポイントマップモデルで接続関係を持つ2つのキーポイント間の相関性を決定することができ、当該相関性が、対応する2つのキーポイント間が同じターゲット対象に属する確率を表すことができるため、決定された相関性を介して、同じターゲット対象に属する各キーポイントをクラスタリングし、各ターゲット対象に対応する各キーポイントを取得することを実現することができる。 In the above embodiment, based on the information of each keypoint and the information of connecting edges, the correlation between two keypoints having a connection relationship in the keypoint map model can be determined, and the correlation is the corresponding can represent the probability that two keypoints belonging to the same target object belong to the same target object. can be realized to obtain

ステップA1において、キーポイントマップモデルの各接続エッジに対して、当該接続エッジに対応する2つのキーポイント間の相関性を決定することができ、即ち、各接続エッジに対応する相関性を取得することができる。 In step A1, for each connecting edge of the keypoint map model, the correlation between two keypoints corresponding to the connecting edge can be determined, i.e. obtaining the correlation corresponding to each connecting edge be able to.

一代替実施形態として、キーポイントマップモデルの各キーポイントの情報および接続エッジの情報に基づいて、キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することは、以下のステップを含む。 As an alternative embodiment, determining the correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint and the information of the connecting edges of the keypoint map model is as follows: Including steps.

1、各キーポイントに対して、キーポイントの情報、およびキーポイントマップモデル内の、キーポイントと接続関係を持つ他のキーポイントの情報に基づいて、キーポイントの融合特徴を決定する。 1. For each keypoint, determine the fusion features of the keypoint based on the information of the keypoint and the information of other keypoints that have a connection relationship with the keypoint in the keypoint map model.

2、各キーポイントにそれぞれ対応する融合特徴に基づいて、キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定する。 2. Determine the correlation between two keypoints with connection relation in the keypoint map model based on the fusion features respectively corresponding to each keypoint.

各キーポイントの融合特徴を決定する場合に、当該キーポイントの情報、および当該キーポイントと接続関係持つキーポイントマップモデルにおける他のキーポイントの情報に基づいて、キーポイントの融合特徴を決定することができ、ここで、他のキーポイントは、当該キーポイント間に接続エッジがあるキーポイントマップモデルにおけるキーポイントであり得る。 When determining the fusion feature of each keypoint, determining the fusion feature of the keypoint based on the information of the keypoint and the information of other keypoints in the keypoint map model having a connection relationship with the keypoint. , where the other keypoints can be keypoints in the keypoint map model with connecting edges between them.

ここで、キーポイントマップモデルにおける各キーポイントに、対応する融合特徴を決定し、各キーポイントにそれぞれ対応する融合特徴に基づいて、キーポイントマップモデルの各接続エッジに対応する2つのキーポイント間の相関性を決定することができる。 Here, for each keypoint in the keypoint map model, determine the corresponding fusion feature, and based on the fusion feature respectively corresponding to each keypoint, between the two keypoints corresponding to each connecting edge in the keypoint map model can be determined.

実施プロセスでは、融合特徴は、各キーポイントに対応する特徴ベクトルであり得る場合、各接続エッジに対応する2つのキーポイントの融合特徴(特徴ベクトル)間の類似度を計算し、計算して得た類似度を介してこの2つのキーポイント間の相関性を決定することができる。 In the implementation process, if the fusion feature can be a feature vector corresponding to each keypoint, the similarity between the fusion features (feature vectors) of the two keypoints corresponding to each connecting edge is calculated and obtained by computing Correlation between the two keypoints can be determined through similarity.

上記の実施形態で、各キーポイントに対して、当該キーポイントの情報と、当該キーポイントと接続関係を持つ他のキーポイントの情報に基づいて、当該キーポイントの融合特徴を決定し、このようにして、当該キーポイントの融合特徴は、当該キーポイントの特徴を表すことができるだけでなく、当該キーポイントと他のキーポイントとの関連付け関係を表すこともでき、さらに、各キーポイントにそれぞれ対応する融合特徴に基づいて、接続関係を持つ2つのキーポイント間の相関性を決定でき、当該相関性に基づいて、各ターゲット対象に対応する各キーポイントをより正しく決定することができる。 In the above embodiment, for each keypoint, the fusion feature of the keypoint is determined based on the information of the keypoint and the information of other keypoints having a connection relationship with the keypoint; Then, the fusion feature of the keypoint can not only represent the feature of the keypoint, but also can represent the relationship between the keypoint and other keypoints. Based on the fused features, the correlation between two keypoints having a connection relationship can be determined, and each keypoint corresponding to each target object can be more accurately determined based on the correlation.

ステップA2において、キーポイントマップモデルの各接続エッジに対応する2つのキーポイントの相関性を取得することを決定した後、決定された各相関性に基づいて、各キーポイントを分割し、同じターゲット対象に属する各キーポイントを決定することができる。 In step A2, after determining to obtain the correlation of two keypoints corresponding to each connecting edge of the keypoint map model, based on each determined correlation, each keypoint is divided to obtain the same target Each keypoint belonging to the object can be determined.

一代替実施形態として、決定された相関性に基づいて、同じターゲット対象に属する各キーポイントを決定することは、対応する相関性が設定閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用することを含み得る。 As an alternative embodiment, determining each keypoint belonging to the same target subject based on the determined correlation uses each keypoint whose corresponding correlation is greater than a set threshold as the keypoint of the same target subject. can include doing

実施プロセスでは、設定された相関性の閾値、およびプリセットの各カテゴリのキーポイントのターゲット数に基づいて、対応する相関性が設定された閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用することができる。ここで、各ターゲット対象のキーポイントは、複数の異なるカテゴリのキーポイントを含み、各カテゴリのキーポイントの数は、プリセットのターゲット数と一致する。 Based on the set correlation threshold and the target number of keypoints in each category in the preset, the implementation process uses each keypoint whose corresponding correlation is greater than the set threshold as the same targeted keypoint can do. Here, each target keypoint includes multiple different categories of keypoints, and the number of keypoints in each category matches the preset target number.

一代替実施形態において、キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、各ターゲット対象に対応する各キーポイントの情報に基づいて、ターゲット対象の行動タイプを決定することをさらに含み得る。 In an alternative embodiment, after each keypoint belonging to the same target subject is determined based on the keypoint map model, the behavior type of the target subject is determined based on the information of each keypoint corresponding to each target subject. can further include:

ここで、各ターゲット対象の各キーポイントの情報を取得した後、各ターゲット対象の各キーポイントの情報を行動検出ニューラルネットワークに入力して、当該ターゲット対象の行動タイプを決定することができ、例えば、当該行動タイプは、走る、歩く、腕を上げるなどであり得る。 Here, after obtaining the information of each keypoint of each target object, the information of each keypoint of each target object can be input into a behavior detection neural network to determine the behavior type of the target object, such as , the action type may be running, walking, raising arms, and so on.

一代替実施形態において、キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、各ターゲット対象に対応する各キーポイントの情報に基づいて、ターゲット対象に対する特殊効果情報を生成することをさらに含み得る。 In an alternative embodiment, after each keypoint belonging to the same target object is determined based on the keypoint map model, special effect information for the target object is generated based on the information of each keypoint corresponding to each target object. may further include:

ここで、ターゲット対象の各キーポイントの情報に対して、ターゲット対象のターゲット部位の位置を決定し、プリセットのターゲット部位に対応する特殊効果情報に基づいて、ターゲット対象のターゲット部位の位置で対応する特殊効果情報を生成することができる。ここで、ターゲット部位は、腕、頭、手などであり得る。例えば、ターゲット対象の各キーポイントの情報に対して、ターゲット対象の腕の位置を決定し、プリセットの腕の特殊効果情報に基づいて、ターゲット対象の腕の位置で対応する特殊効果情報を生成することができる。 Here, for the information of each key point of the target target, the position of the target site of the target target is determined, and based on the special effect information corresponding to the preset target site, the position of the target site of the target target is corresponded. Special effect information can be generated. Here, the target site may be an arm, head, hand, or the like. For example, for each keypoint information of the target target, determine the arm position of the target target, and generate corresponding special effect information at the arm position of the target target based on the preset arm special effect information. be able to.

ここで、各ターゲット対象に対応する各キーポイントの情報に対して、当該ターゲット対象の動きタイプを決定し、プリセットの動きタイプと特殊効果情報とのマッピング関係に基づいて、当該ターゲット対象に、対応する特殊効果情報を生成することもできる。例えば、ターゲット対象Aに対応する各キーポイントの情報に基づいて、当該ターゲット対象の動きタイプが、ハートを作る動きであると決定した場合、当該ターゲット対象にハートの特殊効果情報を生成することができる。 Here, for the information of each key point corresponding to each target object, the motion type of the target object is determined, and based on the mapping relationship between the preset motion type and the special effect information, the corresponding target object is It is also possible to generate special effect information to be used. For example, if it is determined based on the information of each keypoint corresponding to the target object A that the motion type of the target object is a heart-making motion, a heart special effect information can be generated for the target object. can.

関連技術において、ターゲット対象に対するキーポイント検出は、ボトムアップの複数のターゲット対象キーポイントの検出方法を介して実現される。このような方法は、まず、写真内のすべての可能なターゲット対象のキーポイントを検出する同時に、キーポイントの嵌め込み特徴(Embedding feature)などの各キーポイントの情報を抽出し、その後、最適化方程式を解くことを介して、これらのキーポイントをクラスタリングし複数の異なるターゲット対象に割り当てる。これから分かるように、ボトムアップの方法の実行速度がよき速く、近くのターゲットまたはオクルージョン状況に対してより堅牢である。 In the related art, keypoint detection for a target object is realized through a bottom-up multiple target object keypoint detection method. Such a method first detects all possible target object keypoints in a photograph, and at the same time extracts the information of each keypoint, such as the embedding feature of the keypoint, and then applies the optimization equation These keypoints are clustered and assigned to different target subjects through solving for . As can be seen, the bottom-up method has better execution speed and is more robust to nearby targets or occlusion situations.

キーポイントを抽出する嵌め込み特徴は、以下の2つの方法がある。 There are two methods of fitting features for extracting keypoints.

方法1において、キーポイント嵌め込み特徴(KE:Keypoint Embedding)に基づいて実現する。 In Method 1, the implementation is based on Keypoint Embedding (KE).

方法2において、空間インスタンスの嵌め込み特徴(SIE:Spatial Instance Embedding)のキーポイントの検出方法に基づいて実現する。 Method 2 is implemented based on the key point detection method of Spatial Instance Embedding (SIE).

ここで、方法1のトレーニングプロセスでは、KEが、主に、キーポイントの近くのピクセルの見かけの情報を含むため、同じターゲット対象の各キーポイントの嵌め込み値をズームインし、異なるターゲット対象のキーポイントの嵌め込み値をズームアウトすることにより、キーポイントの嵌め込み特徴を抽出することができる。 Here, in the training process of Method 1, since KE mainly contains the apparent information of pixels near keypoints, we zoom in on the inset value of each keypoint of the same target object, and keypoints of different target objects By zooming out on the inset values of , keypoint inset features can be extracted.

ここで、方法2のトレーニングプロセスでは、SIEが、ターゲット対象の中心位置情報を含むため、各ピクセル値をターゲット対象中心のベクトルに戻ることにより、キーポイントの嵌め込み特徴を抽出することができる。 Now, in the training process of Method 2, since the SIE contains the target object center location information, we can extract keypoint inset features by returning each pixel value to a vector of the target object center.

これから分かるように、KEは、主に、ピクセル特徴情報に関し、ここで、前記ピクセル特徴情報は、ピクセルのピクセル値などのピクセルの見かけの情報を含み得、空間位置情報に敏感ではなく、長い距離のキーポイント間の関係を構築することができ、しかしながら、空間の制限がないため、KEのみを依存すると、遠くの異なるターゲット対象のキーポイントをまとめる問題が発生する可能性がある。 As can be seen, KE is mainly concerned with pixel feature information, where said pixel feature information may include pixel apparent information such as pixel values of pixels, is not sensitive to spatial location information, and is long-range However, relying only on KE can lead to problems of grouping together keypoints of distant and different targets because there is no spatial limitation.

これから分かるように、関連技術において、ボトムアップのキーポイントの検出方法では、キーポイントの検出と、キーポイントのクラスタリングは、2つの独立したステップである。キーポイントのクラスタリングは、微分できない後の処理動作である。以下のいくつかの問題がある。1)キーポイントのクラスタリングプロセスは、固定した後処理であり、データで最適化を学習できない。2)共同最適化がないため、キーポイントのクラスタリング精度は、高くなく、クラスタリングエラーを生成する可能性があり、例えば、異なるターゲット対象のキーポイントを、同じターゲット対象のキーポイントとしてクラスタリングする。3)クラスタリング後の処理プロセスには、追加のハイパーパラメータ設定が必要である。 It can be seen that in the related art, in the bottom-up keypoint detection method, keypoint detection and keypoint clustering are two independent steps. Keypoint clustering is a post-processing operation that cannot be differentiated. There are some problems below. 1) The keypoint clustering process is a fixed post-processing and cannot learn optimization with data. 2) Because there is no co-optimization, the clustering accuracy of keypoints is not high and may produce clustering errors, for example, clustering keypoints of different target subjects as keypoints of the same target subject. 3) Post-clustering processing requires additional hyperparameter settings.

上記の問題を解決するために、本発明の実施例は、キーポイントの検出方法を提供し、前記方法のシステムブロック図は、2Bに示された通りである。 To solve the above problems, an embodiment of the present invention provides a keypoint detection method, the system block diagram of which is shown in 2B.

関連技術において、キーポイントの検出S21と、キーポイントのクラスタリングS22の2つのステップを含む。キーポイントのクラスタリングステップは、キーポイント検出の後の後処理動作である。 The related art includes two steps: keypoint detection S21 and keypoint clustering S22. The keypoint clustering step is a post-processing operation after keypoint detection.

本発明の実施例は、キーポイントの検出方法を提供し、キーポイント候補抽出モジュールG1(Keypoint Candidate Proposal)と、グラフのクラスタリングモジュールG2(Graph Grouping)の2つのサブモジュールを含む。 An embodiment of the present invention provides a keypoint detection method and includes two sub-modules: a keypoint candidate extraction module G1 (Keypoint Candidate Proposal) and a graph clustering module G2 (Graph Grouping).

キーポイント候補抽出モジュールG1は、各フレーム画像に対して、まず、マルチタスクのボトムアップのターゲット対象キーポイントモデルを介して、ターゲット対象キーポイントのキーポイントヒートマップ(Heatmaps)、および画像特徴マップまたは空間インスタンスの画像特徴マップ(Feature Maps)を直接に出力するように構成される。キーポイントヒートマップを介して最大値(argmax)を取得して、キーポイントのピクセル座標位置Xを取得することができる。その同時に、画像特徴マップの対応する位置情報から、キーポイントの特徴情報Fを取得することができる。 The keypoint candidate extraction module G1 first extracts, for each frame image, keypoint heatmaps (Heatmaps) of target keypoints, and image feature maps or It is configured to directly output Image Feature Maps for spatial instances. The maximum value (argmax) can be obtained through the keypoint heatmap to obtain the pixel coordinate position X of the keypoint. At the same time, the keypoint feature information F can be obtained from the corresponding position information of the image feature map.

グラフクラスタリングモジュールG2は、2つのキーポイントが、同じターゲット対象に属するか否かを判断し、同じターゲット対象のキーポイントをクラスタリングするように構成される。 The graph clustering module G2 is configured to determine whether two keypoints belong to the same target object and cluster the keypoints of the same target object.

例を挙げて説明すると、図2Cは、キーポイントヒートマップP1および画像特徴マップP2によって、グラフ畳み込みネットワークを入力するプロセスを示す。まず、キーポイントの情報を抽出し、キーポイントマップモデルG={V,E}を構築する。キーポイントマップモデルGは、キーポイントVと、エッジEの2つの部分に分けられ、ここで、キーポイントVは、各キーポイントの情報であり、即ち、「キーポイントのカテゴリT、キーポイントの座標X、キーポイントの特徴情報F」を含む。エッジEは、キーポイント間の関係、即ち、同じターゲット対象に属するか否かを表す。キーポイントマップモデルを構築した後、キーポイント相関性を計算する。エッジ畳み込み(EdgeConv)を使用してグラフ畳み込みニューラルネットワークモデルを構築し、キーポイントマップモデルを畳み込み、キーポイントの特徴情報を更新し続ける。次に、1つのエッジ分類器をトレーニングして、各ペアのキーポイントを弁別し、このペアのキーポイントが、同じターゲット対象に属するか否かを判断する。キーポイント候補抽出モジュールG1、グラフクラスタリングモジュールG2、エッジ分類器を介して、エンドツーエンドにトレーニング最適化を実行することができる。 By way of example, FIG. 2C shows the process of inputting a graph convolutional network with a keypoint heatmap P1 and an image feature map P2. First, keypoint information is extracted and a keypoint map model G={V, E} is constructed. The keypoint map model G is divided into two parts: keypoints V and edges E, where keypoints V are the information of each keypoint, i.e., "keypoint category T, keypoint Coordinate X, key point feature information F”. Edge E represents the relationship between keypoints, ie whether they belong to the same target object or not. After building the keypoint map model, we compute the keypoint correlations. We build a graph convolutional neural network model using edge convolution (EdgeConv), convolve the keypoint map model, and keep updating the feature information of the keypoints. Then, one edge classifier is trained to discriminate each pair of keypoints and determine whether the pair of keypoints belong to the same target object. End-to-end training optimization can be performed via a keypoint candidate extraction module G1, a graph clustering module G2, and an edge classifier.

一可能な実施形態において、本発明の実施例によるキーポイントの検出方法の一態様において、ターゲット対象のキーポイントの位置情報を発行予測することができ、一方、前記ターゲット対象の行動タイプを決定でき、もう一方では、ターゲット対象の異なる部位にリアルタイムの特殊効果情報を追加することができる。 In one possible embodiment, in one aspect of a keypoint detection method according to an embodiment of the present invention, location information of a target subject's keypoints can be predicted, while determining a behavior type of said target subject. On the other hand, real-time special effect information can be added to different parts of the target object.

上記の方法を使用して、マルチターゲット対象姿勢を推定しグラフクラスタリング問題に変換することができ、ターゲット対象の位相構造情報を保留し、マルチターゲット対象姿勢図の特徴情報を抽出することができ、1つのディープニューラルネットワークモデルを介して、マルチターゲット対象姿勢のクラスタリング結果を取得することができ、関連技術における、キーポイントに対してクラスタリングなどの後処理動作を実行して、動作ステップを簡略化することができ、キーポイントの検出と、キーポイントのクラスタリングを統合し、キーポイントのクラスタリング精度を向上させることができる。 Using the above method, the multi-target object pose can be estimated and transformed into a graph clustering problem, the topological structure information of the target object can be preserved, and the feature information of the multi-target object pose diagram can be extracted, Through a single deep neural network model, the clustering results of multi-target object poses can be obtained, and post-processing operations such as clustering are performed on the key points in the related art to simplify the operation steps. It can integrate keypoint detection and keypoint clustering to improve the accuracy of keypoint clustering.

当業者は、実施形態の上記の方法において、ステップの書き込み順序は、厳密な実行順序で、実装プロセスの制限となることではなく、各ステップの実行順序は、その機能と可能性に基づくべきであることを理解することができる。 Those skilled in the art will know that in the above method of the embodiment, the writing order of the steps is a strict execution order, not a limitation of the implementation process, and the execution order of each step should be based on its functions and possibilities. can understand something.

同じ概念に基づいて、本発明の実施例は、さらに、キーポイントの検出装置を提供し、本発明の実施例によりキーポイントの検出装置のアーキテクチャの概略図である、図3を参照すると、取得モジュール301、第1生成モジュール302、第2生成モジュール303、決定モジュール304、行動タイプ決定モジュール305、および特殊効果情報生成モジュール306を備え、ここで、
取得モジュール301は、検出される画像を取得するように構成され、
第1生成モジュール302は、前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成するように構成され、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応し、
第2生成モジュール303は、前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成するように構成され、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジであり、
決定モジュール304は、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定するように構成される。
Based on the same concept, an embodiment of the present invention further provides a keypoint detection device, see FIG. comprising a module 301, a first generation module 302, a second generation module 303, a determination module 304, an action type determination module 305, and a special effect information generation module 306, wherein:
The acquisition module 301 is configured to acquire the detected image,
A first generation module 302 is configured to generate an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map is for each target object of the detected image. each keypoint heatmap contains keypoints of one category of the detected image, keypoints of different categories correspond to different parts of the target object corresponds to
A second generation module 303 is configured to generate a keypoint map model based on the image feature map and a plurality of the keypoint heat maps, wherein the keypoint map model includes a contains information of keypoints of different categories and information of connecting edges, each connecting edge being an edge between keypoints of two different categories;
A determination module 304 is configured to determine each keypoint belonging to the same target object based on said keypoint map model.

一可能な実施形態において、前記決定モジュール304は、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定する場合に、
前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定し、
決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定するように構成される。
In one possible embodiment, when the determination module 304 determines each keypoint belonging to the same target object based on the keypoint map model,
determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint in the keypoint map model and the information of the connecting edge;
It is configured to determine each keypoint belonging to the same target object based on the determined correlation.

一可能な実施形態において、前記決定モジュール304は、決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定する場合に、
対応する前記相関性が設定閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用するように構成される。
In one possible embodiment, when the determining module 304 determines each keypoint belonging to the same target subject based on the determined correlations,
Each keypoint for which the corresponding correlation is greater than a set threshold is configured to be used as a keypoint of the same target object.

一可能な実施形態において、前記決定モジュール304は、前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定する場合に、
各キーポイントに対して、前記キーポイントの情報、および前記キーポイントと接続関係を持つ前記キーポイントマップモデル内の他のキーポイントの情報に基づいて、前記キーポイントの融合特徴を決定し、
各キーポイントにそれぞれ対応する融合特徴に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定するように構成される。
In one possible embodiment, the determination module 304 determines the relationship between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edge. When determining correlation,
determining, for each keypoint, a fusion feature of the keypoint based on information about the keypoint and information about other keypoints in the keypoint map model that have a connection relationship with the keypoint;
It is configured to determine a correlation between two keypoints having a connection relationship in the keypoint map model based on the fused features respectively corresponding to each keypoint.

一可能な実施形態において、前記キーポイントの情報は、位置情報、カテゴリ情報、およびピクセル特徴情報を含み、
前記第2生成モジュール303は、
前記キーポイントヒートマップに基づいて、各キーポイントの位置情報を決定し、
各前記キーポイントの位置情報に基づいて、前記画像特徴マップから前記キーポイントのピクセル特徴情報を抽出し、前記キーポイントが属するキーポイントヒートマップのカテゴリラベルに基づいて、前記キーポイントに対応するカテゴリ情報を決定することに従って、前記キーポイントマップモデルの各キーポイントの情報を決定するように構成される。
In one possible embodiment, the keypoint information includes location information, category information, and pixel feature information,
The second generation module 303 is
determining location information for each keypoint based on the keypoint heatmap;
extracting the pixel feature information of the keypoint from the image feature map based on the location information of each of the keypoints, and determining the category corresponding to the keypoint based on the category label of the keypoint heatmap to which the keypoint belongs; It is configured to determine information for each keypoint of said keypoint map model according to determining information.

一可能な実施形態において、前記第2生成モジュール303は、
各キーポイントに対応する前記カテゴリ情報に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する。
In one possible embodiment, the second generation module 303 comprises:
according to the category information corresponding to each keypoint, connecting each keypoint with other keypoints different from the category to which the keypoint belongs to form a connecting edge in the keypoint map model; , to generate each connected edge in the keypoint map model.

一可能な実施形態において、前記第2生成モジュール303は、
各キーポイントに対応する前記カテゴリ情報、およびプリセットの異なるカテゴリ間のマッチング関係に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する。
In one possible embodiment, the second generation module 303 comprises:
connecting each keypoint with a keypoint corresponding to a target category that matches the category to which the keypoint belongs, based on the category information corresponding to each keypoint and the matching relationship between different categories of the preset; Each connecting edge in the keypoint map model is generated according to forming connecting edges in the keypoint map model.

一可能な実施形態において、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、さらに、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象の行動タイプを決定するように構成される、行動タイプ決定モジュール305を備える。
In one possible embodiment, after determining each keypoint belonging to the same target object based on said keypoint map model, further:
A behavior type determination module 305 is provided, configured to determine a behavior type of the target object based on the information of each keypoint corresponding to each target object.

一可能な実施形態において、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、さらに、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象に対する特殊効果情報を生成するように構成される、特殊効果情報生成モジュール306を備える。
In one possible embodiment, after determining each keypoint belonging to the same target object based on said keypoint map model, further:
A special effect information generation module 306 is provided, configured to generate special effect information for each target object based on the information of each keypoint corresponding to each target object.

いくつかの実施例において、本発明の実施例による装置が備える機能またはテンプレートは、上記の方法の実施例で説明される方法を実行するために使用され得、その実現は、上記の方法の実施例における説明を参照することができ、簡潔にするために、ここで再び説明しない。 In some embodiments, the functions or templates provided by the apparatus according to embodiments of the present invention can be used to perform the methods described in the above method embodiments, and the implementation thereof The description in the example can be referred to and will not be described again here for the sake of brevity.

同じ技術的概念に基づいて、本発明の実施例は、さらに、電子機器を提供する。本発明の実施例提供の電子機器の例示的な構造図である図4を参照すると、プロセッサ401、メモリ402、およびバス403を含む。ここで、メモリ402は、実行命令を記憶するように構成され、ストレージ4021および外部メモリ4022を含み、ここでのストレージ4021は、内部メモリとも称し得、プロセッサ401内の演算データ、およびハードディスクなどの外部メモリ4022と交換するデータを一時的に格納するように構成され、プロセッサ401は、ストレージ4021を介して外部メモリ4022とデータを交換し、電子機器400が実行される場合に、プロセッサ401とメモリ402は、バス403を介して通信して、プロセッサ401を、
検出される画像を取得し、
前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成し、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応し、
前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成し、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジであり、
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定する命令を実行させる。
Based on the same technical concept, embodiments of the present invention further provide an electronic device. Referring to FIG. 4, which is an exemplary structural diagram of an electronic device provided by an embodiment of the present invention, it includes a processor 401 , a memory 402 and a bus 403 . Here, memory 402 is configured to store execution instructions and includes storage 4021 and external memory 4022, where storage 4021 may also be referred to as internal memory, operational data in processor 401, and storage such as a hard disk. The processor 401 is configured to temporarily store data to exchange with the external memory 4022, the processor 401 exchanges data with the external memory 4022 via the storage 4021, and when the electronic device 400 is executed, the processor 401 and the memory 402 communicates via bus 403 to processor 401 to
Get the detected image,
generating an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map is used to represent the relative positional relationship between each target object in the detected image; , each of said keypoint heatmaps includes keypoints of one category of said detected image, wherein keypoints of different categories correspond to different parts of said target object;
generating a keypoint map model based on the image feature map and a plurality of the keypoint heatmaps, wherein the keypoint map model includes information of keypoints of different categories in the detected image and connection edge information; information is included, each connecting edge is an edge between two different categories of keypoints,
Cause the instructions to determine each keypoint belonging to the same target object based on the keypoint map model.

なお、本発明の実施例は、さらに、コンピュータプログラムを記憶する、コンピュータ可読記憶媒体を提供し、前記コンピュータプログラムが、プロセッサによって実行されるときに、上記の方法実施例に記載のキーポイントの検出方法のステップを実行する。 It should be noted that an embodiment of the present invention further provides a computer readable storage medium storing a computer program, which, when executed by a processor, detects keypoints according to the above method embodiments. Carry out the steps of the method.

本発明の実施例によるキーポイントの検出方法のコンピュータプログラム製品は、プログラムコードを記憶するコンピュータ可読記憶媒体を含み、前記プログラムコードに含まれる命令は、上記の方法実施例に記載のキーポイントの検出方法のステップを実行するように構成されることができ、上記の方法実施例を参照でき、ここでは繰り返して説明しない。 A computer program product of a method for detecting keypoints according to an embodiment of the present invention includes a computer readable storage medium storing program code, instructions contained in the program code are instructions for detecting keypoints according to the above method embodiments. It can be configured to perform the steps of the method, and reference can be made to the above method embodiments, which will not be repeated here.

当業者なら理解できるが、説明の便宜および簡潔のために、上記に説明されるシステムおよび装置の作業プロセスは、上記の方法の実施例における対応するプロセスを参照することができ、ここでは繰り返して説明しない。本発明によるいくつかの実施例において、開示されたシステム、装置および方法は、他の方法で実現できることを理解されたい。上記で説明された装置実施例は、例示的なものに過ぎず、例えば、前記ユニットの分離は、論理機能の分離に過ぎず、実際の実現ときには別の分離方法があり、例えば、複数のユニットまたはコンポーネントを別のシステムに統合または集積したり、または一部の特徴を無視したり、または実行しないことができる。なお、表示または議論される相互結合、または直接結合、または通信接続は、いくつかの通信インターフェースを使用して実現することができ、装置またはユニット間の間接結合または通信接続は、電気的または機械的な形であってもよく、他の形であってもよい。 It can be understood by those skilled in the art that for convenience and brevity of explanation, the working process of the system and apparatus described above can refer to the corresponding process in the above method embodiments, and here again No explanation. It should be understood that in some embodiments according to this invention, the disclosed systems, devices and methods can be implemented in other ways. The device embodiments described above are only exemplary, for example, the separation of the units is only the separation of logical functions, and there are other separation methods in actual implementation, such as multiple units Or components may be integrated or integrated into another system, or some features may be ignored or not performed. It should be noted that the mutual couplings or direct couplings or communication connections shown or discussed may be realized using a number of communication interfaces, and the indirect couplings or communication connections between devices or units may be electrical or mechanical. It may be in a typical form or in another form.

前記分離部品として説明されるユニットは、物理的に分離されいてもされなくてもよく、ユニットとして表示される部品は、物理的ユニットであってもなくてもよい。つまり、1箇所に配置されてもよく、複数のネットワークユニットに分散されてもよい。実際のニーズに従って、その中の一部またはすべてのユニットを選択して、本実施例の技術案の目的を実現することができる。 Units described as separate parts may or may not be physically separated, and parts denoted as units may or may not be physical units. That is, it may be located at one location or distributed over a plurality of network units. According to actual needs, some or all of the units can be selected to achieve the purpose of the technical solution of this embodiment.

さらに、本発明の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、または各ユニットが、物理的に別々に存在してもよく、または2つまたは2つ以上のユニットが1つのユニットに統合されてもよい。 Furthermore, each functional unit in each embodiment of the present invention may be integrated into one processing unit, or each unit may exist physically separately, or two or more units may be present. may be integrated into one unit.

前記機能が、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用される場合、プロセッサ実行可能な不揮発のコンピュータ可読記憶媒体に記憶されることができる。このような理解に基づいて、本発明の技術的解決策は、本質的にまたは先行技術に対して寄与する部分または前記技術的解決策の一部は、ソフトウェア製品の形で具現されることができ、前記コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、1台のコンピュータ機器(パーソナルコンピュータ、サーバ、またはネットワーク機器等であり得る)に本発明の各実施例に記載の方法のすべてまたは一部のステップを実行させるためのいくつかの命令を含む。前述した記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスクまたは光ディスク等のプログラムコードを記憶することができる様々な媒体を含む。 When the functions are implemented in the form of software functional units and sold or used as stand-alone products, they can be stored in a processor-executable non-volatile computer-readable storage medium. Based on this understanding, the technical solution of the present invention may be embodied in the form of a software product, essentially or the part that contributes to the prior art or part of the said technical solution. The computer software product may be stored on a single storage medium and may be stored on a single computer device (which may be a personal computer, server, network device, etc.) to perform all or one of the methods described in each embodiment of the present invention. contains some instructions to cause the steps of the part to be carried out. The above-mentioned storage media include U disk, mobile hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, optical disk, etc., which can store program code. media.

以上は、本発明の具体的な実施形態に過ぎないが、本発明の保護範囲はこれに限定されず、当業者は、本発明に開示された技術的範囲内で容易に想到し得る変更または置換は、すべて本発明の保護範囲内に含まれるべきである。したがって、本発明の保護範囲は、特許請求の保護範囲を基準とするべきである。 The above are only specific embodiments of the present invention, but the scope of protection of the present invention is not limited thereto. All permutations should fall within the protection scope of the present invention. Therefore, the protection scope of the present invention should be based on the protection scope of the claims.

本発明は、生成される画像特徴マップと、複数のキーポイントヒートマップに基づいて、検出される画像に対応するキーポイントマップモデルを生成し、キーポイントマップモデルには、画像特徴マップと、キーポイントヒートマップ内の情報が含まれ、画像特徴マップは、検出される画像内の異なるターゲット対象間の相対位置関係を表すことができるため、キーポイントマップモデルに基づいて、異なるターゲット対象のキーポイントを正しく区別して、キーポイントクラスタリングの精度を向上させることができるようにする。 The present invention generates a keypoint map model corresponding to the detected image based on the generated image feature map and a plurality of keypoint heat maps, wherein the keypoint map model includes an image feature map and a key point heat map. Based on the keypoint map model, because the information in the point heat map is included, and the image feature map can represent the relative positional relationship between different target objects in the image to be detected, the keypoints of different target objects can be correctly distinguished to improve the accuracy of keypoint clustering.

Claims (21)

キーポイントの検出方法であって、
検出される画像を取得することと、
前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成することであって、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応することと、
前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成することであって、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジであることと、
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することと、を含む、前記キーポイントの検出方法。
A keypoint detection method comprising:
obtaining an image to be detected;
generating an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map represents the relative positional relationship between each target object in the detected image. wherein each said keypoint heatmap contains keypoints of one category of said detected image, with keypoints of different categories corresponding to different parts of said target object;
generating a keypoint map model based on the image feature map and a plurality of the keypoint heatmaps, wherein the keypoint map model contains information of different categories of keypoints in the detected image; and connecting edge information, each connecting edge being an edge between two different categories of keypoints;
determining each keypoint belonging to the same target object based on the keypoint map model.
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定することは、
前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することと、
決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定することと、を含む、
請求項1に記載のキーポイントの検出方法。
Determining each keypoint belonging to the same target object based on the keypoint map model includes:
determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edge;
determining each keypoint belonging to the same target subject based on the determined correlation;
The keypoint detection method according to claim 1 .
決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定することは、
対応する前記相関性が設定閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用することを含む、
請求項2に記載のキーポイントの検出方法。
Determining each keypoint belonging to the same target subject based on the determined correlations includes:
using each keypoint for which the corresponding correlation is greater than a set threshold as a keypoint of the same target;
The keypoint detection method according to claim 2.
前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することは、
各キーポイントに対して、前記キーポイントの情報、および前記キーポイントと接続関係を持つ前記キーポイントマップモデル内の他のキーポイントの情報に基づいて、前記キーポイントの融合特徴を決定することと、
各キーポイントにそれぞれ対応する融合特徴に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定することと、を含む、
請求項2または3に記載のキーポイントの検出方法。
Determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edge,
determining, for each keypoint, a fusion feature for the keypoint based on information about the keypoint and information about other keypoints in the keypoint map model that have a connection relationship with the keypoint; ,
determining a correlation between two keypoints with a connection relationship in the keypoint map model based on the fusion features respectively corresponding to each keypoint;
4. The keypoint detection method according to claim 2 or 3.
前記キーポイントの情報は、位置情報、カテゴリ情報、およびピクセル特徴情報を含み、
前記キーポイントヒートマップに基づいて、各キーポイントの位置情報を決定すること、
各前記キーポイントの位置情報に基づいて、前記画像特徴マップから前記キーポイントのピクセル特徴情報を抽出し、前記キーポイントが属するキーポイントヒートマップのカテゴリラベルに基づいて、前記キーポイントに対応するカテゴリ情報を決定することに従って、前記キーポイントマップモデルの各キーポイントの情報を決定する、
請求項1ないし4のいずれか一項に記載のキーポイントの検出方法。
the keypoint information includes location information, category information, and pixel feature information;
determining location information for each keypoint based on the keypoint heatmap;
extracting the pixel feature information of the keypoint from the image feature map based on the location information of each of the keypoints, and determining the category corresponding to the keypoint based on the category label of the keypoint heatmap to which the keypoint belongs; determining information for each keypoint of the keypoint map model according to determining information;
A keypoint detection method according to any one of claims 1 to 4.
各キーポイントに対応する前記カテゴリ情報に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する、
請求項5に記載のキーポイントの検出方法。
according to the category information corresponding to each keypoint, connecting each keypoint with other keypoints different from the category to which the keypoint belongs to form a connecting edge in the keypoint map model; , to generate each connecting edge in the keypoint map model;
The keypoint detection method according to claim 5 .
各キーポイントに対応する前記カテゴリ情報、およびプリセットの異なるカテゴリ間のマッチング関係に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する、
請求項5に記載のキーポイントの検出方法。
connecting each keypoint with a keypoint corresponding to a target category that matches the category to which the keypoint belongs, based on the category information corresponding to each keypoint and the matching relationship between different categories of the preset; generating each connecting edge in the keypoint map model according to forming connecting edges in the keypoint map model;
The keypoint detection method according to claim 5 .
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象の行動タイプを決定することをさらに含む、
請求項1ないし7のいずれか一項に記載のキーポイントの検出方法。
After determining each keypoint belonging to the same target object based on the keypoint map model,
further comprising determining a behavior type of the target subject based on the information of each keypoint corresponding to each target subject;
A keypoint detection method according to any one of claims 1 to 7.
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象に対する特殊効果情報を生成することをさらに含む、
請求項1ないし7のいずれか一項に記載のキーポイントの検出方法。
After determining each keypoint belonging to the same target object based on the keypoint map model,
further comprising generating special effect information for each target object based on the information of each keypoint corresponding to each target object;
A keypoint detection method according to any one of claims 1 to 7.
キーポイントの検出装置であって、
検出される画像を取得するように構成される、取得モジュールと、
前記検出される画像に基づいて、画像特徴マップと、複数のキーポイントヒートマップを生成するように構成される第1生成モジュールであって、前記画像特徴マップは、前記検出される画像の各ターゲット対象間の相対位置関係を表すために使用され、各前記キーポイントヒートマップには、前記検出される画像の1つのカテゴリのキーポイントが含まれ、異なるカテゴリのキーポイントは、前記ターゲット対象の異なる部位に対応する、第1生成モジュールと、
前記画像特徴マップおよび複数の前記キーポイントヒートマップに基づいて、キーポイントマップモデルを生成するように構成される第2生成モジュールであって、前記キーポイントマップモデルには、前記検出される画像内の異なるカテゴリのキーポイントの情報および接続エッジの情報が含まれ、各接続エッジは、2つの異なるカテゴリのキーポイント間のエッジである、第2生成モジュールと、
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定するように構成される、決定モジュールと、を備える、前記キーポイントの検出装置。
A keypoint detection device comprising:
an acquisition module configured to acquire the detected image;
A first generating module configured to generate an image feature map and a plurality of keypoint heat maps based on the detected image, wherein the image feature map is for each target of the detected image. used to represent the relative positional relationship between objects, each said keypoint heatmap contains keypoints of one category of said detected image, and keypoints of different categories correspond to different positions of said target object; a first generation module corresponding to the part;
A second generation module configured to generate a keypoint map model based on the image feature map and a plurality of the keypoint heat maps, wherein the keypoint map model includes: a second generating module comprising information of keypoints of different categories and information of connecting edges of
a determination module configured to determine each keypoint belonging to the same target object based on the keypoint map model.
前記決定モジュールは、前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定する場合に、
前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定し、
決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定するように構成される、
請求項10に記載のキーポイントの検出装置。
When the determination module determines each keypoint belonging to the same target object based on the keypoint map model,
determining a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint in the keypoint map model and the information of the connecting edge;
configured to determine each keypoint belonging to the same target subject based on the determined correlation;
The keypoint detection apparatus according to claim 10.
前記決定モジュールは、決定された前記相関性に基づいて、同じターゲット対象に属する各キーポイントを決定する場合に、
対応する前記相関性が設定閾値より大きい各キーポイントを同じターゲット対象のキーポイントとして使用するように構成される、
請求項11に記載のキーポイントの検出装置。
When the determining module determines each keypoint belonging to the same target object based on the determined correlation,
configured to use each keypoint for which the corresponding correlation is greater than a set threshold as the same target keypoint;
The keypoint detection device according to claim 11 .
前記決定モジュールは、前記キーポイントマップモデルの各キーポイントの情報および前記接続エッジの情報に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定する場合に、
各キーポイントに対して、前記キーポイントの情報、および前記キーポイントと接続関係を持つ前記キーポイントマップモデル内の他のキーポイントの情報に基づいて、前記キーポイントの融合特徴を決定し、
各キーポイントにそれぞれ対応する融合特徴に基づいて、前記キーポイントマップモデルにおける接続関係を持つ2つのキーポイント間の相関性を決定するように構成される、
請求項11または12に記載のキーポイントの検出装置。
When the determination module determines a correlation between two keypoints having a connection relationship in the keypoint map model based on the information of each keypoint of the keypoint map model and the information of the connecting edge,
determining, for each keypoint, a fusion feature of the keypoint based on information about the keypoint and information about other keypoints in the keypoint map model that have a connection relationship with the keypoint;
configured to determine a correlation between two keypoints having a connection relationship in the keypoint map model based on the fusion features respectively corresponding to each keypoint;
A keypoint detection device according to claim 11 or 12.
前記キーポイントの情報は、位置情報、カテゴリ情報、およびピクセル特徴情報を含み、
前記第2生成モジュールは、
前記キーポイントヒートマップに基づいて、各キーポイントの位置情報を決定すること、
各前記キーポイントの位置情報に基づいて、前記画像特徴マップから前記キーポイントのピクセル特徴情報を抽出し、前記キーポイントが属するキーポイントヒートマップのカテゴリラベルに基づいて、前記キーポイントに対応するカテゴリ情報を決定することに従って、前記キーポイントマップモデルの各キーポイントの情報を決定するように構成される、
請求項10ないし13のいずれか一項に記載のキーポイントの検出装置。
the keypoint information includes location information, category information, and pixel feature information;
The second generation module is
determining location information for each keypoint based on the keypoint heatmap;
extracting the pixel feature information of the keypoint from the image feature map based on the location information of each of the keypoints, and determining the category corresponding to the keypoint based on the category label of the keypoint heatmap to which the keypoint belongs; configured to determine information for each keypoint of the keypoint map model according to determining information;
14. A keypoint detection device according to any one of claims 10-13.
前記第2生成モジュールは、
各キーポイントに対応する前記カテゴリ情報に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとは異なる他のキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する、
請求項14に記載のキーポイントの検出装置。
The second generation module is
according to the category information corresponding to each keypoint, connecting each keypoint with other keypoints different from the category to which the keypoint belongs to form a connecting edge in the keypoint map model; , to generate each connecting edge in the keypoint map model;
15. The keypoint detection apparatus according to claim 14.
前記第2生成モジュールは、
各キーポイントに対応する前記カテゴリ情報、およびプリセットの異なるカテゴリ間のマッチング関係に基づいて、各キーポイントを、前記キーポイントが属するカテゴリとマッチングするターゲットカテゴリに対応するキーポイントと接続して、前記キーポイントマップモデル内の接続エッジを形成することに従って、前記キーポイントマップモデル内の各接続エッジを生成する、
請求項14に記載のキーポイントの検出装置。
The second generation module is
connecting each keypoint with a keypoint corresponding to a target category that matches the category to which the keypoint belongs, based on the category information corresponding to each keypoint and the matching relationship between different categories of the preset; generating each connecting edge in the keypoint map model according to forming connecting edges in the keypoint map model;
15. The keypoint detection apparatus according to claim 14.
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、さらに、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象の行動タイプを決定するように構成される、行動タイプ決定モジュールを備える、
請求項10ないし16のいずれか一項に記載のキーポイントの検出装置。
After determining each keypoint belonging to the same target object based on the keypoint map model, further:
a behavior type determination module configured to determine a behavior type of each target subject based on information of each keypoint corresponding to each target subject;
17. A keypoint detection device according to any one of claims 10-16.
前記キーポイントマップモデルに基づいて、同じターゲット対象に属する各キーポイントを決定した後、さらに、
各ターゲット対象に対応する各キーポイントの情報に基づいて、前記ターゲット対象に対する特殊効果情報を生成するように構成される、特殊効果情報生成モジュールを備える、
請求項10ないし16のいずれか一項に記載のキーポイントの検出装置。
After determining each keypoint belonging to the same target object based on the keypoint map model, further:
a special effect information generation module configured to generate special effect information for each target object based on information of each keypoint corresponding to each target object;
17. A keypoint detection device according to any one of claims 10-16.
プロセッサ、メモリおよびバスを備える、電子機器であって、前記メモリは、前記プロセッサの実行可能な機械可読命令を記憶し、電子機器が実行されるとき、前記プロセッサと前記メモリとは、バスを介して通信し、前記機械可読命令は、前記プロセッサによって実行されるとき、請求項1ないし9のいずれか一項に記載のキーポイントの検出方法のステップを実行する、前記電子機器。 An electronic device comprising a processor, a memory and a bus, wherein the memory stores executable machine-readable instructions of the processor, and when the electronic device is executed, the processor and the memory are connected via the bus. , wherein the machine-readable instructions, when executed by the processor, perform the steps of the keypoint detection method of any one of claims 1 to 9. コンピュータプログラムを記憶する、コンピュータ可読記憶媒体であって、前記コンピュータプログラムは、プロセッサによって実行されるときに、請求項1ないし9のいずれか一項に記載のキーポイントの検出方法のステップを実行する、前記コンピュータ可読記憶媒体。 A computer readable storage medium storing a computer program, said computer program, when executed by a processor, performing the steps of the keypoint detection method according to any one of claims 1 to 9. , said computer readable storage medium. コンピュータ可読コードを含む、コンピュータプログラム製品であって、前記コンピュータ可読コードが、電子機器で実行されるとき、前記電子機器内のプロセッサは、請求項1ないし9のいずれか一項に記載のキーポイントの検出方法を実現するためのステップを実行する、前記コンピュータプログラム製品。 10. A computer program product comprising computer readable code, wherein when said computer readable code is executed in an electronic device, a processor in said electronic device executes the key point of any one of claims 1-9. Said computer program product for performing the steps for realizing the detection method of
JP2021539648A 2020-06-30 2021-02-03 KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA Pending JP2022542199A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010622132.3 2020-06-30
CN202010622132.3A CN111783882B (en) 2020-06-30 2020-06-30 Key point detection method and device, electronic equipment and storage medium
PCT/CN2021/075128 WO2022001106A1 (en) 2020-06-30 2021-02-03 Key point detection method and apparatus, and electronic device, and storage medium

Publications (1)

Publication Number Publication Date
JP2022542199A true JP2022542199A (en) 2022-09-30

Family

ID=72761609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021539648A Pending JP2022542199A (en) 2020-06-30 2021-02-03 KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA

Country Status (5)

Country Link
JP (1) JP2022542199A (en)
KR (1) KR20220004009A (en)
CN (1) CN111783882B (en)
TW (1) TWI774271B (en)
WO (1) WO2022001106A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898642B (en) * 2020-06-30 2021-08-13 北京市商汤科技开发有限公司 Key point detection method and device, electronic equipment and storage medium
CN111783882B (en) * 2020-06-30 2022-09-09 北京市商汤科技开发有限公司 Key point detection method and device, electronic equipment and storage medium
CN112336342B (en) * 2020-10-29 2023-10-24 深圳市优必选科技股份有限公司 Hand key point detection method and device and terminal equipment
CN113762315A (en) * 2021-02-04 2021-12-07 北京京东振世信息技术有限公司 Image detection method, image detection device, electronic equipment and computer readable medium
CN114972808A (en) * 2022-05-19 2022-08-30 深圳大学 Graph relation network people counting method and related equipment
KR102660127B1 (en) * 2023-04-06 2024-04-25 주식회사 써지컬에이아이 Apparatus and method for detecting center point of joint in x-ray image using heatmap

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135668A (en) * 2007-11-29 2009-06-18 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2015061577A (en) * 2013-01-18 2015-04-02 株式会社東芝 Movement-information processing device
JP2019175321A (en) * 2018-03-29 2019-10-10 大日本印刷株式会社 Image evaluation device, image evaluation method, and computer program
JP2019532532A (en) * 2016-08-02 2019-11-07 アトラス5ディー, インコーポレイテッド Systems and methods for identifying and / or identifying and quantifying pain, fatigue, mood, and intent of persons with privacy protection
JP2020119250A (en) * 2019-01-23 2020-08-06 Kddi株式会社 Object extraction method and device
JP2020123352A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. Method and device for predicting body height and weight of passenger using length of each body region and face information based on human state recognition

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657126B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for search portions of objects in images and features thereof
US20130231258A1 (en) * 2011-12-09 2013-09-05 Veracyte, Inc. Methods and Compositions for Classification of Samples
EP3547211B1 (en) * 2018-03-30 2021-11-17 Naver Corporation Methods for training a cnn and classifying an action performed by a subject in an inputted video using said cnn
CN108520251A (en) * 2018-04-20 2018-09-11 北京市商汤科技开发有限公司 Critical point detection method and device, electronic equipment and storage medium
US20200050342A1 (en) * 2018-08-07 2020-02-13 Wen-Chieh Geoffrey Lee Pervasive 3D Graphical User Interface
US11238612B2 (en) * 2018-08-28 2022-02-01 Beijing Jingdong Shangke Information Technology Co., Ltd. Device and method of tracking poses of multiple objects based on single-object pose estimator
CN109948526B (en) * 2019-03-18 2021-10-29 北京市商汤科技开发有限公司 Image processing method and device, detection equipment and storage medium
CN110322702B (en) * 2019-07-08 2020-08-14 中原工学院 Intelligent vehicle speed measuring method based on binocular stereo vision system
CN110532984B (en) * 2019-09-02 2022-10-11 北京旷视科技有限公司 Key point detection method, gesture recognition method, device and system
CN111339903B (en) * 2020-02-21 2022-02-08 河北工业大学 Multi-person human body posture estimation method
CN111783882B (en) * 2020-06-30 2022-09-09 北京市商汤科技开发有限公司 Key point detection method and device, electronic equipment and storage medium
CN111898642B (en) * 2020-06-30 2021-08-13 北京市商汤科技开发有限公司 Key point detection method and device, electronic equipment and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135668A (en) * 2007-11-29 2009-06-18 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2015061577A (en) * 2013-01-18 2015-04-02 株式会社東芝 Movement-information processing device
JP2019532532A (en) * 2016-08-02 2019-11-07 アトラス5ディー, インコーポレイテッド Systems and methods for identifying and / or identifying and quantifying pain, fatigue, mood, and intent of persons with privacy protection
JP2019175321A (en) * 2018-03-29 2019-10-10 大日本印刷株式会社 Image evaluation device, image evaluation method, and computer program
JP2020119250A (en) * 2019-01-23 2020-08-06 Kddi株式会社 Object extraction method and device
JP2020123352A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. Method and device for predicting body height and weight of passenger using length of each body region and face information based on human state recognition

Also Published As

Publication number Publication date
CN111783882A (en) 2020-10-16
KR20220004009A (en) 2022-01-11
CN111783882B (en) 2022-09-09
TWI774271B (en) 2022-08-11
WO2022001106A1 (en) 2022-01-06
TW202203211A (en) 2022-01-16

Similar Documents

Publication Publication Date Title
JP2022542199A (en) KEYPOINT DETECTION METHOD, APPARATUS, ELECTRONICS AND STORAGE MEDIA
CN110147717B (en) Human body action recognition method and device
WO2018228218A1 (en) Identification method, computing device, and storage medium
US11928800B2 (en) Image coordinate system transformation method and apparatus, device, and storage medium
WO2020259481A1 (en) Positioning method and apparatus, electronic device, and readable storage medium
WO2020215672A1 (en) Method, apparatus, and device for detecting and locating lesion in medical image, and storage medium
WO2018028546A1 (en) Key point positioning method, terminal, and computer storage medium
CN106203242B (en) Similar image identification method and equipment
WO2016107482A1 (en) Method and device for determining identity identifier of human face in human face image, and terminal
WO2019033571A1 (en) Facial feature point detection method, apparatus and storage medium
CN110705478A (en) Face tracking method, device, equipment and storage medium
CN109325456B (en) Target identification method, target identification device, target identification equipment and storage medium
WO2021174941A1 (en) Physical attribute recognition method, system, computer device, and storage medium
CN111401318B (en) Action recognition method and device
CN110765882B (en) Video tag determination method, device, server and storage medium
WO2019033567A1 (en) Method for capturing eyeball movement, device and storage medium
WO2023151237A1 (en) Face pose estimation method and apparatus, electronic device, and storage medium
WO2019119396A1 (en) Facial expression recognition method and device
CN110738650B (en) Infectious disease infection identification method, terminal device and storage medium
WO2021169642A1 (en) Video-based eyeball turning determination method and system
JP2019204518A (en) Person tracking method, device, instrument and storage medium
CN112200056A (en) Face living body detection method and device, electronic equipment and storage medium
CN113392741A (en) Video clip extraction method and device, electronic equipment and storage medium
CN113780145A (en) Sperm morphology detection method, sperm morphology detection device, computer equipment and storage medium
CN114902299A (en) Method, device, equipment and storage medium for detecting associated object in image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509