JP7096910B2 - データ処理方法及び装置、電子機器並びに記憶媒体 - Google Patents

データ処理方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP7096910B2
JP7096910B2 JP2020560178A JP2020560178A JP7096910B2 JP 7096910 B2 JP7096910 B2 JP 7096910B2 JP 2020560178 A JP2020560178 A JP 2020560178A JP 2020560178 A JP2020560178 A JP 2020560178A JP 7096910 B2 JP7096910 B2 JP 7096910B2
Authority
JP
Japan
Prior art keywords
pixel
target
distance
xth
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560178A
Other languages
English (en)
Other versions
JP2021519994A (ja
Inventor
フーバオ シエ
ジュアン ゾウ
ウェンタオ リウ
チェン チエン
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2021519994A publication Critical patent/JP2021519994A/ja
Application granted granted Critical
Publication of JP7096910B2 publication Critical patent/JP7096910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

(関連願の相互参照)
本願は、2018年09月18日に提出された願番号201811090338.5の中国特許願に基づく優先権を主張し、該中国特許願の全内容が参照として本願に組み込まれる。
本願は、情報技術分野に関し、特にデータ処理方法及び装置、電子機器並びに記憶媒体に関する。
カメラにより撮影された画像を利用する場合、撮影された画像からターゲットを抽出することがある。関連技術において、画像におけるターゲットを抽出する方式は、多様である。
方式1において、ターゲットの特徴に基づいて、ターゲット抽出を行う。
方式2において、深層学習モデルに基づいて、ターゲット抽出を行う。深層学習モデルに基づいたターゲット抽出の場合、深層学習モデルの訓練の難度が大きく、訓練周期が長いなどの問題が存在する。また、深層学習モデルは、状態が異なったターゲットを抽出する場合、抽出精度が大きく異なる。
これに鑑みて、本願の実施例は、データ処理方法及び装置、電子機器並びに記憶媒体を提供することが望ましい。
データ処理方法であって、前記方法は、
2D画像に基づいて、ターゲットのサポートを取得することと、
前記2D画像における第x画素から前記サポートまでの第x距離を決定することと、
前記第x距離に基づいて、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定することと、を含む。
データ処理装置であって、前記装置は、
2D画像に基づいて、ターゲットのサポートを取得するように構成される第1取得モジュールと、
前記2D画像における第x画素から前記サポートまでの第x距離を決定するように構成される第1決定モジュールと、
前記第x距離に基づいて、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定するように構成される第2決定モジュールと、を備える。
コンピュータ記憶媒体であって、前記コンピュータ記憶媒体にコンピュータによる実行可能なコードが記憶されており、前記コンピュータによる実行可能なコードが実行された後、1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させることができる。
電子機器であって、前記電子機器は、
情報を記憶するように構成されるメモリと、
前記メモリに接続され、前記メモリに記憶されたコンピュータによる実行可能な命令を実行し、1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させるように構成されるプロセッサと、を備える。
本願の実施例で提供される技術的解決手段は、まず、2D画像に基づいてターゲットのサポートを抽出し、続いて2D画像における画素からサポートまでの距離に基づいて、対応する画素がターゲットの画素であるかどうかを判定することで、ターゲットと背景との分離を実現させる。このような方式でターゲットと背景との分離を行う場合、深層学習モジュールは、2D画像から、限られた特定の数のキーポイントを抽出し、前記ターゲットのサポートを形成することができる。深層学習モデルにより2D画像における各画素を処理するという方式に比べて、深層学習モデルを簡略化することができ、深層学習モデルの訓練を簡略化することができる。なお、抽出されたターゲットの姿勢に基づいてターゲットと背景との分離を行う。ターゲットのサポートがターゲットの姿勢を反映する。また、本実施例におけるターゲットのサポートの形態は、ターゲットの姿勢の変動に伴って変動するため、ターゲットがどのような姿勢であるかに関わらず、ターゲットの姿勢の抽出に成功しさえすれば、第x距離に基づいてターゲットと背景を正確に分離させることができる。これにより、ターゲットの姿勢が異なることにより、ある姿勢に対する認識率の低い深層学習モデルを用いる場合の正確度が不十分であるという問題を低減させ、深層学習モデルの訓練を簡略化し、ターゲット抽出の正確度を向上させる。
本願の実施例によるデータ処理方法を示すフローチャートである。 本願の実施例によるターゲットのサポートを示す概略図である。 本願の実施例によるもう1つのターゲットのサポートを示す概略図である。 本願の実施例による1つの画像から対応するサポート体までの距離の決定を示す概略図である。 本願の実施例によるもう1つのデータ処理方法を示すフローチャートである。 本願の実施例によるまた1つのデータ処理方法を示すフローチャートである。 本願の実施例によるデータ処理装置の構造を示す概略図である。 本願の実施例による電子機器の構造を示す概略図である。
以下、明細書の図面及び具体的な実施例を参照しながら、本願の技術的解決手段を更に詳しく説明する。
図1に示すように、本実施例は、データ処理方法を提供する。前記方法は、
2D画像に基づいて、ターゲットのサポートを取得するステップS110と、
前記2D画像における第x画素から前記サポートまでの第x距離を決定するステップS120と、
前記第x距離に基づいて、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定するステップS130と、を含む。
本実施例において、データ処理方法を提供する。該データ処理方法は、一台又は複数台の電子機器に適用される。前記電子機器は、プロセッサを備えてもよい。該プロセッサは、コンピュータプログラムなどの実行可能な命令を実行することで、データ処理方法における1つ又は複数の工程を実現させることができる。幾つかの実施例において、単一型電子機器により、集中型データ処理を行うことができる。また、複数台の電子機器により分散型データ処理を行うこともできる。
本実施例において、前記2D画像は、3D画像の構成部分であってもよい。前記3D画像は、前記2D画像に対応する深度画像を更に含む。ここで、前記2D画像と前記深度画像は、同一のターゲットの収集画像であってもよい。
前記2D画像は、RGB画像又はYUV画像等であってもよい。前記深度画像は、深度収集モジュールにより収集された深度情報を含む。前記深度画像の画素値は深度値である。前記深度値は、画像収集モジュールとターゲットとの距離であってもよい。ここで、本願の実施例における前記実際の深度値は、深度画像からのものである。
前記ターゲットが人間又は動物である場合、前記ターゲットサポートは、人間又は動物の骨格であってもよい。前記人間又は骨格におけるキーポイントは、前記ターゲットサポート全体を表す。従って、前記ターゲットサポートの3D特徴は、前記ターゲットサポートのキーポイントの3D特徴であってもよい。前記3D特徴は、カメラ座標系内のx方向及びy方向での座標値を含み、ターゲットとカメラとの深度値を更に含む。
本実施例において、3D画像に基づいて出力された3D座標を処理し、3D姿勢を得る。本実施例において、前記3D姿勢は、三次元空間座標系内に位置する3D座標間の相対的位置で表される。
前記ステップS110は、ニューラルネットワークなどの深層学習モジュールを利用して、前記2D画像を入力として、ターゲットのサポートを抽出することを含んでもよい。例えば、ターゲットが動物であることを例として、前記サポートは、動物の骨格であってもよい。ターゲットが人間であることを例として、前記サポートは、人体の骨格であってもよい。また、例えば、ターゲットが可動工具であることを例として、前記サポートは、可動工具のサポート体であってもよい。
ステップS110において、2D画像に基づいて、ターゲットのサポートを得ることは、ニューラルネットワークなどの深層学習モデルを利用してターゲットのキーポイントを抽出し、これらのキーポイントを連結して前記サポートを得ることを含んでもよい。
例えば、ステップS110において、ターゲットが人間であることを例として説明すると、人間の関節に対応する画素を抽出し、前記キーポイントを決定することができる。続いて、これらのキーポイントを連結して前記サポートを形成する。幾つかの実施例において、前記キーポイントは、頭、頸、肘、手首、寛骨、膝及び踝の位置を表す画素であってもよい。図2は、ターゲットが人間である場合のターゲットのサポートを示す概略図である。図2において、14個のキーポイントが表示されており、それぞれキーポイント1からキーポイント14と番号付けられる。図3は、ターゲットが人間である場合のターゲットのサポートを示す概略図である。図3において、17個のキーポイントが表示されており、それぞれキーポイント0からキーポイント16と番号付けられる。図2及び図3におけるキーポイントの番号は、例に過ぎず、具体的には、上記番号に限定されない。
図3において、キーポイント0は、ルートノードであってもよい。カメラ座標系での、キーポイント0の2D座標は、(0,0)であってもよく、カメラ座標系での3D座標は、(0,0,0)であってもよい。
本実施例において、2D画像により、ターゲットのサポートを得る。該ターゲットのサポートは、ターゲットの現在の姿勢を正確に反映することができる。
ターゲットと背景を正確に分離させるために、本実施例のステップS120において、2D画像における各画素をトラバースすることで、前記2D画像における各画素からサポートまでの距離を決定する。本実施例において、前記第x画素は、2D画像におけるいずれか1つの画素であってもよい。本実施例において、区別のために、第x画素とサポートとの間の距離を第x距離と呼ぶ。本実施例において、xの値は、前記2D画像に含まれる画素の数より小さくてもよい。
本実施例において、第x距離に基づいて、2D画像における第x画素がターゲットを構成する画素であるかどうかを判定することができる。第x画素が前記ターゲットを構成する画素ではないと、該第x画素は、ターゲット以外の背景の画素であってもよい。
従って、第x距離がターゲットを構成する画素であるかどうかを判定することにより、2D画像におけるターゲットと背景を正確に分離させることができる。
ニューラルネットワーク等の深層学習モデルにより、2D画像から、限られた特定の数(例えば、14又は17等の数値)のキーポイントを取り出し、前記ターゲットのサポートを形成する。深層学習モデルを、画素ごとにターゲットに属するかどうかを決定するように訓練することに相当する。データ処理の難度及び処理量を大幅に低減させ、更に、深層学習モデルの複雑さを大幅に低下させ、深層学習モデルの訓練を簡略化して訓練速度を向上させる。本実施例におけるターゲットのサポートの形態は、ターゲットの姿勢の変動に伴って変動するため、ターゲットがどのような姿勢であるかに関わらず、ターゲットの姿勢の抽出に成功しさえすれば、第x距離に基づいてターゲットと背景を正確に分離させることができる。これにより、ターゲットの姿勢が異なることにより、ある姿勢に対する認識率の低い深層学習モデルを用いる場合の正確度が不十分であるという問題を低減させ、深層学習モデルの訓練を簡略化し、ターゲット抽出の正確度を向上させる。
幾つかの実施例において、前記ステップS120は、
前記第x画素と、前記サポート内の対応するサポート体が位置する線分との間の距離を決定することであって、前記対応するサポート体は、前記サポート内の前記第x画素に最も近いサポート体である、ことを含んでもよい。
図2及び図3に示すように、サポートは、各キーポイントにより複数のサポート体に分けられる。1つの前記サポート体は、1本の線分と見なされる。本実施例において、前記第x距離を算出するために、まず、第x画素の画素座標に基づいて、カメラ座標系での、ターゲットサポートの座標を参照して、第x画素に最も近いサポート体を決定する。続いて、サポート体を線分と見なし、第x画素から該線分までの距離を求める。第x画素の、対応するサポート体が位置する直線への垂直投影が、前記サポート体に位置する場合、該第x距離は、第x画素と、対応するサポート体が位置する線分と、の垂直距離であってもよく、又は、第x画素の、対応するサポート体が位置する直線への垂直投影が、前記サポート体に位置する場合、前記第x距離は、第x画素と、前記サポート体が位置する線分の最も近い端点と、の距離であってもよい。
図4に示すように、画素1に最も近いサポート体と画素2に最も近いサポート体は同一のものであるが、画素1と該サポート体との距離は、画素1から該サポート体が位置する線分上に直接的に垂線を降ろすことで得られた距離であってよく、画素2と該サポート体との距離は、該サポートが位置する線分の最も近い端点との距離である。本実施例において、前記距離は、画素の数で表されてもよく、画像上での空間的距離で直接的に表されてもよい。例えば、ミリメートル又はセンチメートルなどで表される。
幾つかの実施例において、図5に示すように、前記ステップS130は、
前記第x距離が距離閾値以上であるかどうかを決定するステップS132と、
前記第x距離が前記距離閾値より大きい場合、前記第x画素が前記ターゲットを構成する画素ではないと決定するステップS133と、を含んでもよい。
本実施例において、前記距離閾値は、事前決定された値であってもよく、経験値、統計値又はシミュレーション値であってもよい。例えば、幾つかの実施例において、腕の画素から腕に対応するサポート体の画素までの画素の数は、10から20個であるか又は6から15個であってもよい。勿論、ここで例を挙げるに過ぎず、具体的に実現する場合、これに限定されない。
幾つかの実施例において、図6に示すように、前記方法は、
前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、前記距離閾値を決定するステップS131を更に含む。
異なるサポート体に対応する閾値は異なるものである。本実施例において、このような対応関係を体現するために、本実施例で、電子機器は、各サポート体と候補閾値との対応関係を予め記憶してもよいか又は他の機器から予め受信してもよい。例えば、第xの画素に最も近いサポート体がサポート体yであると決定した場合、サポート体yと候補閾値との対応関係に基づいて、前記距離閾値を決定することができる。
幾つかの実施例において、前記サポート体yと対応関係にある候補閾値を直接的に前記距離閾値とすることができる。例えば、前記サポート体yと対応関係にある候補閾値が複数である場合、複数の候補閾値から1つを選択して前記距離閾値として出力することができる。
別の幾つかの実施例において、前記方法は、電子機器が前記候補閾値を決定した後、修正パラメータ等により前記候補閾値を修正することで最終的な距離閾値を得ることを更に含む。
幾つかの実施例において、前記ステップS131は、
前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、基準閾値を得ることと、
前記2D画像に対応する深度画像に基づいて、前記ターゲットに対応する収集対象とカメラとの間の相対的距離を決定することと、
前記サポートの寸法及び相対的距離に基づいて、調整パラメータを得ることと、
前記基準閾値及び前記調整パラメータに基づいて、前記距離閾値を決定することと、を含んでもよい。
幾つかの実施例において、収集対象がカメラから離れた距離が異なるため、2D画像におけるターゲットの寸法に影響を与える。ターゲットの寸法が大きいほど、前記距離閾値は大きくなる。ターゲット寸法が小さいほど、前記距離閾値も小さくなる。要するに、前記ターゲットの寸法は前記距離閾値と正に相関する。従って、本実施例において、深度画像に基づいて、ターゲットに対応する収集対象とカメラとの間の相対的距離を考慮する。
サポートの寸法は、ターゲットの寸法を反映する。一般的には、相対的距離が遠いほど、サポートの寸法が小さくなる。従って、本実施例において、サポートの寸法及び相対的距離に基づいて、調整パラメータを得る。
前記調整パラメータの決定は以下を含んでもよい。ターゲットの寸法、相対的距離及び焦点距離などにより、収集対象の寸法とターゲットの寸法との寸法比を換算することができる。更に、該寸法比に基づいて、比例パラメータ又は重みパラメータを得ることができる。
前記基準閾値及び前記比例パラメータに基づいて、距離閾値を決定する。
例えば、第x画素に最も近いサポート体に対応する候補閾値に基づいて、基準閾値を決定する。続いて、サポートの寸法(例えば、サポートの高さ及び/又はサポートの幅)に基づいて、調整パラメータを換算することができる。該調整パラメータは、比例パラメータ及び/又は重みパラメータであってもよい。前記調整パラメータが比例パラメータである場合、基準閾値と比例パラメータとの積を算出して、前記距離閾値を得ることができる。
幾つかの実施例において、前記比例パラメータは、基準寸法と収集対象の実際の寸法との比であってもよい。取集対象の実際の寸法は、前記比例パラメータに反比例する場合、収集対象が人間であることを例として説明すると、人間の身長が長いほど、比例パラメータは、小さくなる。人間の身長が低いほど、比例パラメータは、大きくなることがある。従って、決定されたサポートの寸法を一致させ、寸法が一致したサポートを利用して3D姿勢を取得することができる。寸法の異なるサポートの3D姿勢の取得に比べて、正確度を向上させることができる。
前記調整パラメータが前記重みパラメータである場合、前記基準閾値と前記重みパラメータを加算して、前記距離閾値を得ることができる。
幾つかの実施例において、図6に示すように、前記方法は、
前記2D画像に対応する深度画像に基づいて、前記第x画素の第x深度値を取得するステップS121を更に含み、
前記ステップS130は、ステップS131を含んでもよく、前記ステップS131は、前記第x距離及び前記第x深度値を参照して、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定することであってもよい。
本実施例において、ターゲットと背景の分割の正確度を更に向上させるために、画素からターゲットのサポートとの間の距離を参照して、対応する画素がターゲットに属するかどうかを判定するだけでなく、該画素の深度値とターゲットに属する隣接画素の深度値との関連関係を参照して、第x画素がターゲットの画素であるかどうかを決定する。
ターゲットが人間である場合、人体の表面の移行は、相対的に緩やかであるため、深度画像における深度値も穏やかに移行し、大きな変異が発生することがない。大きな変異が発生した場合、人体以外の他の物体に対応する可能性がある。
幾つかの実施例において、前記ステップS130は、前記第x距離が第1条件を満たしており、且つ前記第x深度値が第2条件を満たしている場合、前記第x画素が前記ターゲットを構成する画素であると決定することを含んでもよい。
幾つかの実施例において、前記第x距離が第1条件を満たしていることは、前記第x距離が距離閾値以下であることを含む。
ここの距離閾値の取得方式は、前記実施例を参照することができる。ここで、詳細な説明を所略する。
幾つかの実施例において、前記第x深度値が第2条件を満たしていることは、
前記第x深度値と第y深度値との差が深度値閾値以下である場合、前記第x深度値が前記第2条件を満たしていると決定することであって、前記第y深度値が第y画素の深度値であり、前記第y画素は、前記ターゲットを構成する画素であると決定された、ことを含む。
幾つかの実施例において、前記第y画素は、前記第x画素の隣接画素である。又は、前記第y画素は、前記第x画素と特定の数の画素による間隔が取られた画素である。例えば、第y画素と第x画素との間に、1つ又は2つの画素による間隔が取られた。幾つかの実施例において、第x画素がターゲットに属するかどうかに基づいて、第y画素と第x画素との間の画素がターゲットに属するかどうかを判定することができる。これにより演算量を低減し、ターゲットと背景の分離速度を向上させる。
本実施例において、第y画素がターゲットの画素であることを確保するために、1つ目の第y画素を選択する場合、ターゲットのサポート上のいずれか1つの画素を始点として選択する。また、好ましくは、ターゲットのサポート上の中心点に対応する画素を始点として選択するか又は、中心キーポイントの画素を始点として選択することができる。本実施例において、人体骨格を例として、前記中心キーポイントは、前記ルートノードであってもよいが、前記ルートノードに限定されない。
幾つかの実施例において、前記ステップS121は、前記サポートにおける所定の画素を始点として幅優先探索を行う過程において、前記第x画素の第x深度値を得ることを含んでもよい。
前記幅優先探索により、深度画像における各画素の深度値をトラバースすることができる。従って、対応する画素の深度値を得ることができる。幅優先探索により、深度画像における各画素をトラバースすることで、漏れが避けられ、ターゲットと背景を正確に分離させることができる。
幾つかの実施例において、前記サポートにN個のキーポイントが設けられ、前記所定の画素は、前記N個のキーポイントのうちの中心キーポイントが位置する画素である。
例えば、幾つかの実施例において、幅優先探索に基づいて、基準点から画素トラバースを行い、トラバースされた1つ目のトラバース画素に対応する深度値と基準点に対応する深度値との差が、深度差閾値以下である場合、1つ目のトラバースされた画素は、前記ターゲットを構成する画素であると認め、1つ目のトラバースされた画素に対応する深度値と基準点に対応する深度値との差が、深度差閾値より大きい場合、1つ目のトラバースされた画素が前記ターゲットを構成する画素ではないと認める。従って、上記操作を繰り返して実行することで、画像の少なくとも1つの画素をトラバースし、画像全体における全ての画素を選択的にトラバースする。
第m個のトラバースされた画素と、ターゲットを構成する画素であると判定された第m-1画素に対応する深度値と、の差は、深度閾値以下である場合、第m画素が前記ターゲットを構成する画素であると認める。そうでなければ、第m画素がターゲットを構成する画素ではないと認める。ここで、前記第m画素は、前記第m-1画素の隣接画素であってもよい。
幾つかの実施例において、幅優先探索に基づいて、2D画像における各画素をトラバースし、画素漏れなしを確保し、ターゲットと背景の分離の正確度を確保する。
別の幾つかの実施例において、幅優先探索に基づいた画素トラバース過程において、
第x画素と第y画素との深度値差に基づいて、トラバース中止条件を満たすかどうかを決定することと、
前記深度値差が前記トラバース中止条件を満たしている場合、前記幅優先探索に基づいた画素トラバースを中止することを更に含む。
第x画素と第y画素との深度値差に基づいて、トラバース中止条件を満たすかどうかを決定することは、
前記第x画素と第y画素との深度値差が中止閾値より大きい場合、前記トラバース中止条件を満たしていると決定することと、
現在統計された所定の数の第y画素と第x画素との深度値差が中止閾値より大きい場合、前記トラバース中止条件を満たしていると決定することと、のうちの少なくとも1つを含む。前記Nは、前記14又は17であってもよい。幾つかの実施例において、前記Nは15であってもよい。例えば、図3に示したキーポイント0からキーポイント14であってもよい。従って、幅優先探索された1つ目の参照用第y画素がターゲットに位置することを確保し、探索の正確度を更に向上させる。
本実施例において、画像収集モジュールにより収集された、異なる収集対象のターゲットの寸法が異なる。例えば、2D画像において、太った人が占用した画素が多く、痩せた人が占用した画素が少ない。本実施例において、ターゲットと背景の分離の正確度を向上させるために、ターゲットの画素を背景と誤判定することを低減させるか又は背景をターゲットと誤判定することを低減させる。本実施例において、第1条件及び第2条件を組み合わせて、1つの画素がターゲットを構成する画素であるかどうかを総合的に判定する。例えば、太った人について、その体表に対応する画素と、サポートと、の距離が大きい。痩せた人について、その体表に対応する画素と、サポートと、の距離が小さい。この場合、一般的な距離閾値によれば、痩せた人の体表以外の画素を、ターゲットを構成する画素と判定する。このような誤判定を更に低減させるために、深度値を参照して、第2条件の判定を行う。痩せた人が空中で写真を撮る場合、その体表と背景壁との画素深度差を検出した場合に、その体表と背景壁との画素深度差は、必ずその体表の隣接する2つの画素の深度値の差より大きいため、第2条件を満たすかどうかを決定することで、距離閾値が大きいことによる誤差を少なくとも無くすことができ、更に、ターゲットと背景との分離の正確度を向上させる。
図7に示すように、本実施例は、データ処理装置を提供する。前記装置は、
2D画像に基づいて、ターゲットのサポートを取得するように構成される第1取得モジュール110と、
前記2D画像における第x画素から前記サポートまでの第x距離を決定するように構成される第1決定モジュール120と、
前記第x距離に基づいて、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定するように構成される第2決定モジュール130と、を備える。
幾つかの実施例において、前記第1取得モジュール110、第1決定モジュール120及び第2決定モジュール130は、プログラムモジュールであってもよく、該プログラムモジュールは、プロセッサにより実行された後、上記機能を実行することができる。
別のいくつかの実施例において、前記第1取得モジュール110、第1決定モジュール120及び第2決定モジュール130は、ハードウェアモジュールとプログラムモジュールとの組み合わせであってもよく、例えば、複雑なプログラマブルアレイ又はフィールドプログラマブルアレイであってもよい。
幾つかの実施例において、前記第1決定モジュール120は、前記第x画素と、前記サポート内の対応するサポート体が位置する線分との間の距離を決定するように構成され、前記対応するサポート体は、前記サポート体内の前記第x画素に最も近いサポート体である。
幾つかの実施例において、前記第2決定モジュール130は、前記第x距離が距離閾値以上であるかどうかを決定し、前記第x距離が前記距離閾値より大きい場合、前記第x画素が前記ターゲットを構成する画素ではないと決定するように構成される。
幾つかの実施例において、前記装置は、
前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、前記距離閾値を決定するように構成される第3決定モジュールを更に備える。
幾つかの実施例において、前記第3決定モジュールは、前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、基準閾値を得て、
前記2D画像に対応する深度画像に基づいて、前記ターゲットに対応する収集対象とカメラとの間の相対的距離を決定し、
前記サポートの寸法及び相対的距離に基づいて、調整パラメータを得て、
前記基準閾値及び前記調整パラメータに基づいて、前記距離閾値を決定するように構成される。
幾つかの実施例において、前記装置は、
前記2D画像に対応する深度画像に基づいて、前記第x画素の第x深度値を取得するように構成される第2取得モジュールを更に備え、
前記第2決定モジュール130は、前記第x距離及び前記第x深度値を参照して、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定するように構成される。
幾つかの実施例において、前記第2決定モジュール130は、前記第x距離と前記サポートとの間の距離が第1条件を満たしており、且つ前記第x深度値が第2条件を満たしている場合、前記第x画素が前記ターゲットを構成する画素であると決定するように構成される。
幾つかの実施例において、前記第x距離と前記サポートとの間の距離が第1条件を満たしていることは、前記第x距離と前記サポートとの間の距離が距離閾値以下であることを含む。
幾つかの実施例において、前記第x深度値が第2条件を満たしていることは、前記第x深度値と第y画素の深度値との差が深度値閾値以下である場合、前記第x深度値が前記第2条件を満たしていると決定することであって、前記第y深度値が第y画素の深度値であり、前記第y画素は、前記ターゲットを構成する画素であると決定されており、且つ前記第y画素は、前記第x画素の隣接画素である、ことを含む。
幾つかの実施例において、前記第2取得モジュールは、前記サポートにおける所定の画素を始点として幅優先探索を行う過程において、前記第x画素の第x深度値を得るように構成される。
幾つかの実施例において、前記サポートにN個のキーポイントが設けられ、前記所定の画素は、前記N個のキーポイントのうちの中心キーポイントが位置する画素である。
図8に示すように、本願の実施例は電子機器を提供する。該電子機器は、
情報を記憶するように構成されるメモリと、
前記メモリに接続され、前記メモリに記憶されているコンピュータによる実行可能な命令を実行することで、前記1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させ、例えば図1、図5及び図6に示した方法のうちの1つ又は複数を実現させるように構成されるプロセッサと、を備える。
該メモリは、ランダムメモリ、読み出し専用メモリ、フラッシュメモリなどのような様々なメモリであってもよい。前記メモリは、情報記憶に用いられ、例えば、コンピュータによる実行可能な命令などの記憶に用いられる。前記コンピュータによる実行可能な命令は、ターゲットプログラム命令及び/又はソースプログラム命令などのような様々なプログラム命令であってもよい。
前記プロセッサは、中央演算処理装置、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルアレイ、デジタル信号プロセッサ、特定用途向け集積回路又は画像処理装置などのような様々なプロセッサであってもよい。
前記プロセッサは、バスを経由して前記メモリに接続される。前記バスは、集積回路バスなどであってもよい。
幾つかの実施例において、前記端末装置は、通信インタフェースを更に備えてもよい。該通信インタフェースは、ローカルエリアネットワーク、送受信アンテナなどのようなネットワークインタフェースであってもよい。前記通信インタフェースも、前記プロセッサに接続され、情報送受信に用いられる。
幾つかの実施例において、前記端末装置は、ヒューマンインタラクティブインタフェースを更に備える。例えば、前記ヒューマンインタラクティブインタフェースは、キーボード、タッチパネルなどのような様々な入力出力装置を含んでもよい。
本願の実施例は、コンピュータ記憶媒体を提供する。前記コンピュータ記憶媒体には、コンピュータによる実行可能なコードが記憶されており、前記コンピュータによる実行可能なコードが実行された後、前記1つ又は複数の技術的解決手段で提供されるデータ処理方法を実現させ、例えば図1、図5及び図6に示した方法のうちの1つ又は複数を実現させる。
前記記憶媒体は、携帯型記憶装置、読み出し専用メモリ(ROM:Read-only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。前記記憶媒体は、非一時的記憶媒体であってもよい。
本願の実施例は、コンピュータプログラム製品を提供する。前記プログラム製品は、コンピュータによる実行可能な命令を含み、前記コンピュータによる実行可能な命令が実行された後、前記いずれかの実施例で提供されるデータ処理方法を実現させ、例えば図1、図5及び図6に示した方法のうちの1つ又は複数を実現させる。
本願で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した上記ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットとを組み合わせて実現してもよい。
上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶され、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、読み出し専用メモリ(Read-only Memory:ROM)、ランダムアクセスメモリ(RAM:Random Access Memory)磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者であれば理解すべきである。
以上は本発明の具体的な実施形態に過ぎず、本発明の保護の範囲はそれらに制限されるものではなく、当業者が本発明に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本発明の保護範囲内に含まれるべきである。従って、本発明の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。

Claims (12)

  1. データ処理方法であって、
    2D画像に基づいて、ターゲットのサポートを取得することであって、前記ターゲットのサポートは前記ターゲットの骨格である、ことと、
    前記2D画像における第x画素と、前記サポート内の対応するサポート体が位置する線分との間の第x距離を決定することであって、前記対応するサポート体は、前記サポート内の前記第x画素に最も近いサポート体である、ことと、
    前記第x距離が距離閾値以上であるかどうかを決定することと、
    前記第x距離が前記距離閾値より大きい場合、前記第x画素が前記ターゲットを構成する画素ではないと決定することと、を含み、
    前記方法は、前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、前記距離閾値を決定することを更に含む、前記方法。
  2. 前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、前記距離閾値を決定することは、
    前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、基準閾値を得ることと、
    前記2D画像に対応する深度画像に基づいて、前記ターゲットに対応する収集対象とカメラとの間の相対的距離を決定することと、
    前記サポートの寸法及び相対的距離に基づいて、調整パラメータを得ることと、
    前記基準閾値及び前記調整パラメータに基づいて、前記距離閾値を決定することと、を含むことを特徴とする
    請求項に記載の方法。
  3. 前記方法は、前記2D画像に対応する深度画像に基づいて、前記第x画素の第x深度値を取得することを更に含み、
    前記第x距離に基づいて、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定することは、
    前記第x距離及び前記第x深度値を参照して、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定することを含むことを特徴とする
    請求項1又は2に記載の方法。
  4. 前記第x距離及び前記第x深度値を参照して、前記第x画素が前記ターゲットを構成する画素であるかどうかを決定することは、
    前記第x距離が第1条件を満たしており、且つ前記第x深度値が第2条件を満たしている場合、前記第x画素が前記ターゲットを構成する画素であると決定することを含むことを特徴とする
    請求項に記載の方法。
  5. 前記第x距離が第1条件を満たしていることは、
    前記第x距離が距離閾値以下であることを含むことを特徴とする
    請求項に記載の方法。
  6. 前記第x深度値が第2条件を満たしていることは、
    前記第x深度値と第y深度値との差が深度値閾値以下である場合、前記第x深度値が前記第2条件を満たしていると決定することであって、前記第y深度値が第y画素の深度値であり、前記第y画素は、前記ターゲットを構成する画素であると決定されており、前記第y画素は、前記第x画素の隣接画素である、ことを含むことを特徴とする
    請求項4又は5に記載の方法。
  7. 前記2D画像に対応する深度画像に基づいて、前記第x画素の第x深度値を取得することは、
    前記サポートにおける所定の画素を始点として幅優先探索を行う過程において、前記第x画素の第x深度値を得ることを含むことを特徴とする
    請求項3から5のうちいずれか一項に記載の方法。
  8. 前記サポートにN個のキーポイントが設けられ、前記所定の画素は、前記N個のキーポイントのうちの中心キーポイントが位置する画素であることを特徴とする
    請求項に記載の方法。
  9. データ処理装置であって、
    2D画像に基づいて、ターゲットのサポートを取得するように構成される第1取得モジュールであって、前記ターゲットのサポートは前記ターゲットの骨格である、第1取得モジュールと、
    前記2D画像における第x画素と、前記サポート内の対応するサポート体が位置する線分との間の第x距離を決定するように構成される第1決定モジュールであって、前記対応するサポート体は、前記サポート内の前記第x画素に最も近いサポート体である、第1決定モジュールと、
    前記第x距離が距離閾値以上であるかどうかを決定し、前記第x距離が前記距離閾値より大きい場合、前記第x画素が前記ターゲットを構成する画素ではないと決定するように構成される第2決定モジュールと、を備え
    前記装置は、前記第x画素に最も近い前記サポート体と候補閾値との対応関係に基づいて、前記距離閾値を決定するように構成される第3決定モジュールを更に備える、前記装置。
  10. 請求項1からのうちいずれか一項に記載の方法を実施するために実行される、コンピュータ実行可能なコードを記憶しているコンピュータ記憶媒体。
  11. 電子機器であって、
    情報を記憶するように構成されるメモリと、
    前記メモリに接続され、前記メモリに記憶されたコンピュータ実行可能な命令を実行して、請求項1からのうちいずれか一項に記載の方法を実施するように構成されるプロセッサと、を備える、前記電子機器。
  12. コンピュータに、請求項1からのうちいずれか一項に記載の方法を実行させる、コンピュータプログラム。
JP2020560178A 2018-09-18 2019-04-23 データ処理方法及び装置、電子機器並びに記憶媒体 Active JP7096910B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811090338.5 2018-09-18
CN201811090338.5A CN110910393B (zh) 2018-09-18 2018-09-18 数据处理方法及装置、电子设备及存储介质
PCT/CN2019/083963 WO2020057122A1 (zh) 2018-09-18 2019-04-23 数据处理方法及装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021519994A JP2021519994A (ja) 2021-08-12
JP7096910B2 true JP7096910B2 (ja) 2022-07-06

Family

ID=69813758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560178A Active JP7096910B2 (ja) 2018-09-18 2019-04-23 データ処理方法及び装置、電子機器並びに記憶媒体

Country Status (5)

Country Link
US (1) US20210042947A1 (ja)
JP (1) JP7096910B2 (ja)
CN (1) CN110910393B (ja)
SG (1) SG11202010518QA (ja)
WO (1) WO2020057122A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221088A (ja) 2011-04-06 2012-11-12 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2013085133A (ja) 2011-10-11 2013-05-09 Dainippon Printing Co Ltd 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
CN106886741A (zh) 2015-12-16 2017-06-23 芋头科技(杭州)有限公司 一种基手指识别的手势识别方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07333168A (ja) * 1994-06-08 1995-12-22 Matsushita Electric Ind Co Ltd パターン外観検査装置
KR101636370B1 (ko) * 2009-11-10 2016-07-05 삼성전자주식회사 영상 처리 장치 및 방법
CN101789125B (zh) * 2010-01-26 2013-10-30 北京航空航天大学 一种无标记单目视频人体骨架运动跟踪方法
JP5490080B2 (ja) * 2011-12-06 2014-05-14 株式会社セルシス スケルトンモデルの姿勢制御方法,及びプログラム
CN105336005B (zh) * 2014-06-27 2018-12-14 华为技术有限公司 一种获取目标物体体征数据的方法、装置及终端
CN107085850B (zh) * 2017-03-24 2019-10-01 大连成者科技有限公司 遮蔽采集图像中异物的标记体、识别图像中异物标记体的方法以及书籍扫描方法
CN107564020B (zh) * 2017-08-31 2020-06-12 北京奇艺世纪科技有限公司 一种图像区域确定方法及装置
CN108229332B (zh) * 2017-12-08 2020-02-14 华为技术有限公司 骨骼姿态确定方法、装置及计算机可读存储介质
HUE059001T2 (hu) * 2018-02-26 2022-09-28 Touchless Animal Metrics Sl Eljárás és készülék élõ mintadarabok jellemzéséhez egy adott távolságból
CN108389155B (zh) * 2018-03-20 2021-10-01 北京奇虎科技有限公司 图像处理方法、装置及电子设备
WO2019218626A1 (zh) * 2018-05-14 2019-11-21 昆山国显光电有限公司 显示屏、显示装置及显示屏的制作方法
CN108986023A (zh) * 2018-08-03 2018-12-11 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
US10832472B2 (en) * 2018-10-22 2020-11-10 The Hong Kong Polytechnic University Method and/or system for reconstructing from images a personalized 3D human body model and thereof
CN111460871B (zh) * 2019-01-18 2023-12-22 北京市商汤科技开发有限公司 图像处理方法及装置、存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221088A (ja) 2011-04-06 2012-11-12 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2013085133A (ja) 2011-10-11 2013-05-09 Dainippon Printing Co Ltd 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
CN106886741A (zh) 2015-12-16 2017-06-23 芋头科技(杭州)有限公司 一种基手指识别的手势识别方法

Also Published As

Publication number Publication date
WO2020057122A1 (zh) 2020-03-26
CN110910393B (zh) 2023-03-24
US20210042947A1 (en) 2021-02-11
JP2021519994A (ja) 2021-08-12
SG11202010518QA (en) 2020-11-27
CN110910393A (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
CN110363817B (zh) 目标位姿估计方法、电子设备和介质
US8885920B2 (en) Image processing apparatus and method
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN102902355B (zh) 移动设备的空间交互方法
CN109410316B (zh) 物体的三维重建的方法、跟踪方法、相关装置及存储介质
JP5222946B2 (ja) オブジェクトモデルを三次元ポイントクラウドに対応させる方法
WO2015172679A1 (zh) 一种图像处理方法和装置
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
KR20120048370A (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
US11335025B2 (en) Method and device for joint point detection
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
JP2021513175A (ja) データ処理方法及び装置、電子機器並びに記憶媒体
CN113343840B (zh) 基于三维点云的对象识别方法及装置
US20200057778A1 (en) Depth image pose search with a bootstrapped-created database
CN110832542B (zh) 识别处理设备、识别处理方法和程序
JP4938748B2 (ja) 画像認識装置及びプログラム
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
CN110007764B (zh) 一种手势骨架识别方法、装置、系统及存储介质
JP2019016164A (ja) 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
JP7096910B2 (ja) データ処理方法及び装置、電子機器並びに記憶媒体
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP2014178967A (ja) 3次元物体認識装置及び3次元物体認識方法
JP6641313B2 (ja) 領域抽出装置及びプログラム
JP2018200175A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220624

R150 Certificate of patent or registration of utility model

Ref document number: 7096910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150