JP2022512262A - 画像処理方法及び装置、画像処理機器並びに記憶媒体 - Google Patents

画像処理方法及び装置、画像処理機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022512262A
JP2022512262A JP2020570014A JP2020570014A JP2022512262A JP 2022512262 A JP2022512262 A JP 2022512262A JP 2020570014 A JP2020570014 A JP 2020570014A JP 2020570014 A JP2020570014 A JP 2020570014A JP 2022512262 A JP2022512262 A JP 2022512262A
Authority
JP
Japan
Prior art keywords
target
model
deformation
parameter
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020570014A
Other languages
English (en)
Inventor
トン リー
ウェンタオ リウ
チェン チエン
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201911148068.3A external-priority patent/CN111031305A/zh
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2022512262A publication Critical patent/JP2022512262A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

本願の実施例は、画像処理方法及び装置、画像処理機器並びに記憶媒体を提供する。前記画像処理方法は、ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得ることと、3D変形パラメータを取得し、前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換することと、前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得ることと、前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含む。

Description

(関連出願の相互参照)
本願は、2019年11月21日に提出された出願番号201911148068.3の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、画像処理技術分野に関し、特に画像処理方法及び装置、画像処理機器並びに記憶媒体に関する。
収集された画像に、収集対象のイメージ(ターゲット)が含まれる。そのイメージング効果を調整する必要がある場合、例えば、人体のボディシェーピング、顔の美容などのようなターゲットの変形を行う。しかしながら、幾つかの場合、画像の変形効果は、好ましくなく、ひいては、変形した後に、所望外の不必要な変形が発生してしまう。
本願の実施例は、画像処理方法及び装置、画像処理機器並びに記憶媒体を提供することが望ましい。
本願の実施例の技術的解決手段は、以下のように実現する。
本願の実施例の第1態様によれば、画像処理方法を提供する。前記方法は、ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得ることと、3D変形パラメータを取得し、前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換することと、前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得ることと、前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含む。
本願の幾つかの任意選択的な実施例において、ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得ることは、人体メッシュ復元モデルにより、前記第1の2D画像から、前記ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出することと、抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することと、を含む。
本願の幾つかの任意選択的な実施例において、前記第1再構築パラメータは、前記ターゲットの第1関節点パラメータ、前記ターゲットの第1形態パラメータ及び前記第1の2D画像のカメラパラメータのうちの少なくとも1つを含む。
本願の幾つかの任意選択的な実施例において、前記方法は、人体検知モデルにより、前記第1の2D画像から、前記ターゲットの第2関節点パラメータを抽出することであって、第2関節点パラメータで表される第2関節点と前記第1関節点パラメータで表される一部の第1関節点とは重なり合いがある、ことを更に含み、抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することは、前記第1再構築パラメータのうちの、前記第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを前記第2関節点パラメータに置き換え、第2再構築パラメータを形成することと、前記第2再構築パラメータに基づいて、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することと、を含む。
本願の幾つかの任意選択的な実施例において、前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得ることは、前記第1の2D画像に対応するカメラパラメータに基づいて、前記第1の3Dモデル及び前記第2の3Dモデルをそれぞれ2D空間にマッピングして前記第1の2D座標及び前記第2の2D座標を得ることを含む。
本願の幾つかの任意選択的な実施例において、前記方法は、前記第1の2D画像の第1の2D変形パラメータを取得することを更に含み、3D変形パラメータを取得することは、前記第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、前記3D変形パラメータを得ることを含む。
本願の幾つかの任意選択的な実施例において、前記方法は、前記第1の2D画像における前記ターゲットの輪郭点パラメータを取得することと、前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することと、を更に含み、前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることは、前記第1の2D座標及び前記第2の2D座標に基づいて、前記変形方向において、前記第1の2D画像における前記ターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得ることを含む。
本願の幾つかの任意選択的な実施例において、前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することは、前記輪郭点パラメータに基づいて、前記ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、前記変形方向を決定することであって、前記変形方向は、前記第1結線方向に平行な第1変形方向、前記第1結線方向に垂直な第2変形方向のうちの少なくとも1つを含む、ことを含む。
本願の幾つかの任意選択的な実施例において、前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することは、前記輪郭点パラメータに基づいて、前記ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、前記変形方向を決定することであって、前記変形方向は、前記第2結線方向に平行な第3変形方向、及び/又は、前記第2結線方向に垂直な第4変形方向を含む、ことを含む。
本願の幾つかの任意選択的な実施例において、前記第1の2D座標及び前記第2の2D座標に基づいて前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることは、前記第1の2D座標が前記変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定することと、前記第2の2D変形パラメータに基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含む。
本願の幾つかの任意選択的な実施例において、前記第1の3Dモデルを第2の3Dモデルに変換することは、前記3D変形パラメータに基づいて、前記第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて前記第2の3Dモデルを得ることを含む。
本願の実施例の第2態様によれば、画像処理装置を提供する。前記装置は、
ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得るように構成される第1取得モジュールと、
3D変形パラメータを取得し、前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換するように構成される第2取得モジュールと、
前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得るように構成されるマッピングモジュールと、
前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される変形モジュールと、を備える。
本願の幾つかの任意選択的な実施例において、前記第1取得モジュールは、人体メッシュ復元モデルにより、前記第1の2D画像から、前記ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出し、抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築するように構成される。
本願の幾つかの任意選択的な実施例において、前記第1再構築パラメータは、前記ターゲットの第1関節点パラメータ、前記ターゲットの第1形態パラメータ及び前記第1の2D画像のカメラパラメータのうちの少なくとも1つを含む。
本願の幾つかの任意選択的な実施例において、前記装置は、人体検知モデルにより、前記第1の2D画像から、前記ターゲットの第2関節点パラメータを抽出するように構成される抽出モジュールであって、前記第2関節点パラメータで表される第2関節点と前記第1関節点パラメータで表される一部の第1関節点とは重なり合いがある抽出モジュールを更に備え、
前記第1取得モジュールは、前記第1再構築パラメータのうちの、前記第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを前記第2関節点パラメータに置き換え、第2再構築パラメータを形成し、前記第2再構築パラメータに基づいて、3D空間内での、前記ターゲットの第1の3Dモデルを再構築するように構成される。
本願の幾つかの任意選択的な実施例において、前記マッピングモジュールは、前記第1の2D画像に対応するカメラパラメータに基づいて、前記第1の3Dモデル及び前記第2の3Dモデルをそれぞれ2D空間にマッピングして前記第1の2D座標及び前記第2の2D座標を得るように構成される。
本願の幾つかの任意選択的な実施例において、前記装置は、前記第1の2D画像の第1の2D変形パラメータを取得するように構成される第3取得モジュールを更に備え、
前記第2取得モジュールは、前記第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、前記3D変形パラメータを得るように構成される。
本願の幾つかの任意選択的な実施例において、前記装置は、前記第1の2D画像における前記ターゲットの輪郭点パラメータを取得するように構成される第4取得モジュールと、
前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定するように構成される決定モジュールと、を更に備え、
前記変形モジュールは、前記第1の2D座標及び前記第2の2D座標に基づいて、前記変形方向において、前記第1の2D画像における前記ターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、前記決定モジュールは、前記輪郭点パラメータに基づいて、前記ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、前記変形方向を決定するように構成され、前記変形方向は、前記第1結線方向に平行な第1変形方向、前記第1結線方向に垂直な第2変形方向のうちの少なくとも1つを含む。
本願の幾つかの任意選択的な実施例において、前記決定モジュールは、前記輪郭点パラメータに基づいて、前記ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、前記変形方向を決定するように構成され、前記変形方向は、前記第2結線方向に平行な第3変形方向、及び/又は、前記第2結線方向に垂直な第4変形方向を含む。
本願の幾つかの任意選択的な実施例において、前記変形モジュールは、前記第1の2D座標が前記変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定し、前記第2の2D変形パラメータに基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、前記第2取得モジュールは、前記3D変形パラメータに基づいて、前記第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて前記第2の3Dモデルを得るように構成される。
本願の実施例の第3態様によれば、画像処理機器を提供する。前記画像処理機器は、
コンピュータによる実行可能な命令を記憶するように構成されるメモリと、
前記メモリに接続され、前記コンピュータによる実行可能な命令を実行することで、前記いずれか1つの技術的解決手段により提供される画像処理方法を実現させるように構成されるプロセッサと、を備える。
本願の実施例の第4態様によれば、コンピュータ記憶媒体を提供する。前記コンピュータ記憶媒体には、コンピュータによる実行可能な命令が記憶されており、前記コンピュータによる実行可能な命令がプロセッサにより実行された後、前記いずれか1つの技術的解決手段により提供される画像処理方法を実現させる。
本願の実施例により提供される技術的解決手段によれば、第1の2D画像内のターゲットを変形する場合、2D平面内で画像変形を直接的に行うことなく、第1の2D画像におけるターゲットを3D空間内での第1の3Dモデルに変換する。変形を行う時、3D変形パラメータを取得することにより、第1の3Dモデルを直接的に変形し、変形された第2の3Dモデルを得る。続いて、第1の3Dモデル及び第2の3Dモデルをそれぞれ2D空間にマッピングし、2D平面内にマッピングし返された第1の2D座標及び第2の2D座標を得て、第1の2D座標及び第2の2D座標に基づいて、第1の2D画像におけるターゲットの変形を行う。これにより、2D平面内でターゲットを直接的に変形することに比べて、不必要な変形の発生を減少させ、2D画像の変形効果を向上させることができる。
本願の実施例による第1種画像処理方法を示すフローチャートである。 本願の実施例による14個の人体関節点を示す概略図である。 本願の実施例による25個の人体関節点を示す概略図である。 本願の実施例による第2種画像処理方法を示すフローチャートである。 本願の実施例による2D画像の効果を示す概略図である。 本願の実施例による抽出された人体関節点を示す概略図である。 本願の実施例による抽出された人体輪郭点を示す概略図である。 本願の実施例による第1変形方向を示す概略図である。 本願の実施例による第2変形方向を示す概略図である。 本願の実施例による3Dモデルの効果を示す概略図である。 本願の実施例によるもう1つの3Dモデルの効果を示す概略図である。 本願の実施例による画像処理装置の構造を示す概略図である。 本願の実施例による画像処理機器の構造を示す概略図である。
以下、明細書の図面及び具体的な実施例を参照しながら、本願の技術的解決手段を更に詳しく説明する。
図1に示すように、本実施例は、画像処理方法を提供する。前記方法は、以下を含む。
S110において、ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得る。
S120において、3D変形パラメータを取得し、3D変形パラメータに基づいて、第1の3Dモデルを第2の3Dモデルに変換する。
S130において、第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、第2の3Dモデルを2D空間にマッピングして第2の2D座標を得る。
S140において、第1の2D座標及び第2の2D座標に基づいて、第1の2D画像におけるターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得る。
本実施例の画像処理方法は、種々の画像処理機器に適用可能である。例示的には、画像処理機器は、種々の端末機器を含んでもよい。端末機器は、携帯電話又はウェアラブル機器などを含む。端末機器は、車載端末機器又はある部位に固定される画像収集撮影専用の固定端末機器を更に含んでもよい。別の幾つかの実施例において、画像処理機器は、例えば、ローカルサーバ又はクラウドプラットフォームに位置して画像処理サービスを提供するクラウドサーバ等のようなサーバを更に含んでもよい。
幾つかの任意選択的な実施例において、2D画像は、2Dカメラにより収集されてもよい。例示的には、2D画像は、赤緑青(Red Green Blue:RGB)画像又はYUV画像であってもよい。ここで、YUVは、色の符号化形態であり、「Y」は、輝度(Luminance又はLuma)を表し、つまり、階調値である。「U」及び「V」は、色度(Chrominance又はChroma)を表し、映像の色彩及び飽和度を描写するために用いられる。
幾つかの任意選択的な実施例において、2D画像におけるターゲットの最適化及び変形を実現させるために、本実施例は、2D画像におけるターゲットを直接的に変形することなく、2D画像に基づいて、3D空間内での、ターゲットの3Dモデルを得る。上記3Dモデルは、第1の3Dモデルと表記される。図6A及び図6Bは、異なるターゲットに対応する2つの第1の3Dモデルの効果を示す概略図である。
第1の3Dモデルに基づいて、3D変形パラメータを得る。例示的には、3D変形パラメータは、3D空間内の第1の3Dモデルでの1つ又は複数の3D座標の変換パラメータを含んでもよい。
例示的には、変換パラメータは、所望の3Dモデルの異なる局所の比例値、所望の3Dモデルの異なる局所のサイズ値、第1の3Dモデルを第2の3Dモデルに変換する変形方向及び/又は対応する変形方向での変形幅値のうちの少なくとも1つを含んでもよい。
ここで、所望の3Dモデルの異なる局所の比例値は、スカラーであり、異なる局所の比例を表す。例えば、比例値は、人体の上半身の長さと脚部の長さとの比であってもよい。
ターゲット人体を例として、所望の3Dモデルの異なる局所のサイズ値は、例えば、人体の脚長の値、腰幅の値、身長の値等のサイズ値を含んでもよい。
幾つかの実施例において、方法は、第1の2D画像の第1の2D変形パラメータを取得することを更に含み、3D変形パラメータを取得することは、第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、3D変形パラメータを得ることを含んでもよい。
例えば、2Dのマンマシンインタフェースに第1の2D画像を表示する。ユーザは、手動操作などの方式により、第1の2D画像でのターゲットの1つ又は複数の部位の2D座標を移動することができる。画像処理機器は、ユーザにより入力されたユーザ操作に基づいて、第1の2D変形パラメータを決定することができる。第1の2D変形パラメータは、2D空間内で第1の2D画像における2D座標変換が発生した輪郭点及びこれらの輪郭点の座標変換値を含んでもよい。2D空間と3D空間とのマッピング関係に基づいて、第1の2D変形パラメータを3D変形パラメータに変換する。
幾つかの実施例において、3D変形パラメータは、マンマシンインタフェースから受信されたユーザ命令に基づいて生成された変形パラメータであってもよい。例えば、第1の3Dモデルを構築した後、2Dインタフェースに一回で第1の3Dモデルの1つの平面を展示することができる。回転又は移動の方式により、2Dインタフェースに第1の3Dモデルの異なる平面を展示することができる。第1の3Dモデルにおける異なる平面に対する各ユーザ操作により、3D変形パラメータを決定することもできる。
幾つかの実施例において、マンマシンインタフェースにおいて、ユーザから入力された変形効果又は変形量を少なくとも指示するためのユーザ命令を受信し、ユーザ命令を定量化することで、3D変形パラメータを得る。例えば、ユーザAは自分の写真に対してスリミングを行った後に2尺の胴囲を呈することを望む。この場合、マンマシンインタフェースにおいて所望の胴囲を入力してもよい。画像処理機器は、第1の2D画像を3D空間にマッピングすることで得られた第1の3Dモデルに基づいて、ユーザの実際の胴囲を推算する。続いて、推算された実際の胴囲及び所望の胴囲に基づいて、三次元空間内で変形を必要とする胴囲量を得る。また、腰部の望ましい形状により、第1の3Dモデルでの、腰部表面の各座標の変位量を決定することで、3D変形パラメータを得る。この場合に得られた3D変形パラメータは、第1の3Dモデルを第2の3Dモデルに変換するために用いられる。
3D変形パラメータを取得した後、3D変形パラメータに基づいて、第1の3Dモデルに対して変換を行い、第1の3Dモデルと異なる第2の3Dモデルを生成する。第2の3Dモデルと第1の3Dモデルの相違点は、第2の3Dモデルの表面の輪郭点の3D座標が第1の3Dモデルの表面の輪郭点の座標と少なくとも部分的に異なることである。従って、第2の3Dモデルに対応する形態を第1の3Dモデルに対応する形態と異ならせる。例示的には、ターゲットが人体であることを例として、第2の3Dモデルに対応する人体の形態は、第1の3Dモデルに対応する人体の形態と異なる。例えば、第1の3Dモデルに対応する人体は、第2の3Dモデルに対応する人体よりも、感覚上、体重が重い。
従って、ステップS120の後に、第1の3Dモデル及び第2の3Dモデルを得る。
幾つかの任意選択的な実施例において、本実施例におけるステップS130は、投影の方式により、第1の3Dモデル及び第2の3Dモデルをそれぞれ2D平面内に投影し、第1の3Dモデルに対応する第1投影を表す第1の2D座標及び第2の3Dモデルに対応する第2投影を表す第2の2D座標をそれぞれ得ることを含んでもよい。
幾つかの任意選択的な実施例において、ステップS130は、第1の2D座標及び第2の2D座標に基づいて、第2の2D変形パラメータを得て、第2の2D変形パラメータは、第1の2D座標を第2の2D座標に変換することができる、ことを更に含んでもよい。
本願の幾つかの任意選択的な実施例において、第1の2D座標と第2の2D座標の座標値を比較することで、第1の2D座標と第2の2D座標との差を得る。該差は、第2の2D変形パラメータの1つとしてもよい。例えば、人体の豊胸変形を例として、第1の2D座標は、第1の3Dモデルの胸部表面の輪郭点を2D空間にマッピングし戻すことで得られた第1の2D座標を含む。第1の3Dモデルに対して豊胸を行った後に得られた第2の3Dモデルの胸部表面の輪郭点を2D空間にマッピングし戻すことで、第2の2D座標を得る。該2つの胸部の2D座標を比較することで、第2の2D変形パラメータを得る。
幾つかの実施例において、ある局所の変化が、複数の輪郭点の2D座標の変換に係わる場合、第1の2D座標及び対応する第2の2D座標に対して変換フィッティングを行うことで、第1の2D座標を第2の2D座標に変換する変換行列を得る。該変換行列は直接的に第2の2D変形パラメータとしてもよい。それは、第1の2D画像におけるターゲットに対して変形を行うために用いられる。第2の2D変形パラメータに基づいて、2D画像におけるターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得る。
本願の幾つかの任意選択的な実施例において、該第2の2D変形パラメータは、ターゲットにおける各画素の再構成アルゴリズム又は再構成パラメータ、ターゲットにおける各画素の色変化アルゴリズム等のうちの少なくとも1つを含むが、これに限定されない。
例示的には、2D画像におけるターゲットの変形は、ターゲットの太さの変形、ターゲットの身長の変形、ターゲットの五官の形状の変形のうちの少なくとも1つを含むが、これに限定されない。
例えば、ターゲットが人体であることを例として説明すると、ターゲットの変形例は、例えば、人体の太さの変形、人体の身長の変形、人体の五官の変形、人体の手の長さ又は足の長さの変動などであってもよい。
本実施例において、2D平面におけるターゲットの変形を行う場合、2D平面内で画像変形を直接的に行うことなく、第1の2D画像におけるターゲットを3D空間内での第1の3Dモデルに変換する。ターゲットの変形を行う時、3D変形パラメータを取得することにより、第1の3Dモデルを直接的に変形し、変形された第2の3Dモデルを得る。続いて、第1の3Dモデル及び第2の3Dモデルをそれぞれ2D空間にマッピングし、2D平面内にマッピングし返された第1の2D座標及び第2の2D座標を得て、第1の2D座標及び第2の2D座標に基づいて、第1の2D画像におけるターゲットの変形を行う。これにより、2D平面内でターゲットを直接的に変形することに比べて、不必要な変形の発生を減少させ、2D画像の変形効果を向上させることができる。
幾つかの任意選択的な実施例において、ステップS110で、ターゲットを含む第1の2D画像に基づいて、3D空間内での、複数の多辺形メッシュからなるターゲットの第1の3Dモデルを得ることができる。
例示的には、第1の3Dモデルは、3D空間内に位置する立体モデルである。該第1の3Dモデルは、多くのキーポイントを含む。多くのキーポイントのうちの複数のキーポイントを連結して多辺形メッシュを形成する。ここで、多辺形メッシュは、meshとも呼ばれ、コンピュータグラフィクスにおいて種々の不規則な物体のためにモデルを確立するためのデータ構造である。ここで、三角メッシュ(三角パッチとも呼ばれる)は、多辺形メッシュの1種である。多くのキーポイントのうちの3つの隣接するキーポイントを連結して三角メッシュを形成することで、複数の三角メッシュからなる第1の3Dモデルを得ることができる。
meshからなるこのような第1の3Dモデルは、3D空間におけるターゲットに対応する収集対象をリアルに模擬することができる。従って、3D空間内で収集対象を高度に復元することを実現させ、画像の変形効果を確保する。
幾つかの実施例において、第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得る過程であるステップS110において、人体メッシュ復元(Human Mesh Recovery:HMR)モデルにより、第1の2D画像から、ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出し、抽出された第1再構築パラメータを利用して、3D空間内での、ターゲットの第1の3Dモデルを再構築することができる。ここで、第1再構築パラメータは、ターゲットの第1関節点パラメータ、ターゲットの第1形態パラメータ及び第1の2D画像のカメラパラメータなどのうちの少なくとも1つを含んでもよい。例示的には、2D画像のカメラパラメータ、ターゲットの第1形態パラメータ及びターゲットの第1関節点パラメータに基づいて、第1の3Dモデルを正確に構築することができる。
幾つかの実施例において、第1関節点パラメータは、第1関節点の3D座標等を含む。ターゲットに含まれる関節点は、多数存在し得る。第1の3Dモデルを形成する場合、幾つかの関節点は利用されないことがある。第1の3Dモデルを形成する場合に利用される別の幾つかの関節点は、第1関節点と呼ばれる。例えば、人体を例とすると、人体に多くの関節が含まれ、これらの関節のキーポイントは、関節点と呼ばれる。第1の3Dモデルを構築する場合、外観を呈することにとって重要でない人体の幾つかの関節点は、無視されてもよい。例えば、指を湾曲させるための手部の関節に対応する関節点は、重要でなく、無視されてもよい。
幾つかの実施例において、ターゲットの第1形態パラメータは、ターゲットの身長、太さ、異なる局所の大きさを示すためのパラメータのような、異なる次元でのターゲットのサイズを示すための種々のパラメータを含んでもよい。上記様々な局所のサイズは、例えば、胴囲、バスト長、腰囲又は顔の長さ等のサイズを含んでもよい。
幾つかの実施例において、2D画像のカメラパラメータ(例えば、第1の2D画像のカメラパラメータ)は、2D画像を撮るカメラの内部パラメータを含んでもよい。内部パラメータは、焦点距離、ワールド座標系での、2D画像の単一の画素の幅dx、及びワールド座標系での、2D画像の単一の画素の高さdyを含むが、これらに限定されない。
例示的には、ターゲットが人体であることを例として説明すると、人体を含む第1の2D画像をHMRモデルに入力した後、HMRモデルは、第1の2D画像での、人体の各キーポイントのパラメータを計算により得る。例えば、これらのパラメータは、24個の人体骨格における関節に対応する関節点の3D座標及び人体の形態パラメータを含む。また、HMRモデルは更に、第1の2D画像を撮るカメラのカメラパラメータを出力する。カメラパラメータは、例えば、焦点距離及び光心座標などを含んでもよい。
更に、パラメータ化された人体モデル及びHMRモデルから出力された上記パラメータを利用して、第1の3Dモデルの骨格を再構築し、骨格に対してレンダリングを行うこともできる。ここで、パラメータ化された人体モデルとして、例えば、皮膚付きマルチパーソン線形(A Skinned Multi-Person Linear Model:SMPL)モデルを用いてもよい。SMPLモデルは、ヌード状態(skinned)の、頂点ベース(vertex-based)人体三次元モデルであり、人体の異なる形状(shape)及び姿勢(pose)を正確に表すことができる。
例示的には、HMRモデルは、第1の2D画像における各骨格での各関節に対応する関節点の座標を出力する。人体の形態は、骨格によって決まるだけでなく、筋肉などの組織器官の特徴にもよって決まる。SMPLモデルによれば、HMRモデルで得られた骨格の3D座標及び第1の2D画像から抽出された人体の形態パラメータに基づいて、骨格の外周の筋肉運動及び組織分布を模擬することができ、これにより、骨格をレンダリングして第1の3Dモデルを得る。このような方式で得られた第1の3Dモデルは、第1の2D画像におけるターゲットの各特徴をリアルに反映することができる。
図5Aは、取得されたオリジナルの第1の2D画像を示す概略図である。図5Bは、図5Aに示した人体から抽出された第1関節点を含む概略図である。人体に分布した中実点で表される。
幾つかの実施例において、方法は、第1の2D画像から、ターゲットの第2関節点パラメータを抽出することを更に含む。上記第2関節点パラメータ及び第1関節点パラメータはいずれも人体内の関節点のパラメータであるが、抽出方式が異なり、又は、第1関節点パラメータと第2関節点パラメータの正確度が異なり、又は第1関節点パラメータと第2関節点パラメータのタイプが異なる。
例えば、第1関節点パラメータは、第1関節点の3D座標を含む。第2関節点パラメータは、第1関節点の2D座標を含む。
また、例えば、第1関節点パラメータは、HMRモデルにより抽出されたものであるが、第2関節点パラメータは、人体検出モデルにより抽出されたものである。人体検出モデルは、入力された第1の2D画像に基づいて、人体の骨格における関節点の2D座標を得ることができる。
幾つかの任意選択的な実施例において、2D画像から単独で抽出された第2関節点パラメータは、第1再構築パラメータにおける第1関節点パラメータの正確度より高いことがある。これに鑑み、方法は、人体検出モデル(例えば、OPEN POSEモデル)により、第1の2D画像から、ターゲットの第2関節点パラメータを抽出し、第2関節点パラメータで表される第2関節点と前記第1関節点パラメータで表される一部の第1関節点とは重なり合いがある、ことを更に含んでもよく。
抽出された第1再構築パラメータを利用して、3D空間内での、ターゲットの第1の3Dモデルを再構築することは、第1再構築パラメータのうちの、第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを第2関節点パラメータに置き換え、第2再構築パラメータを形成することと、第2再構築パラメータに基づいて、3D空間内での、ターゲットの第1の3Dモデルを再構築することと、を含む。
第2再構築パラメータは、第1再構築パラメータについて一部の第1関節点パラメータを第2関節点パラメータで置き換えることで得られたものである。
例えば、第1関節点パラメータは、M個であり、第2関節点パラメータは、N個であり、Nは、M以下である。例示的には、Mは、25であってもよく、Nは、14であってもよい。25個の第1関節点パラメータのうち、14個の第2関節点パラメータと共に同一の関節点を指向する第1関節点パラメータを第2関節点パラメータに置き換える。ここで、第2関節点パラメータが2D座標であるため、第1関節点パラメータに対して置き換えを行う場合、3D座標に含まれる2D座標が置き換えられ、3D座標における他のパラメータは不変あってもよい。つまり、第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータが第2関節点パラメータに置き換えられ、第2再構築パラメータを構成する。例えば、3D座標は、x軸、y軸及びz軸に対応する3つの座標を含み、2D座標は、x軸及びy軸に対応する2つの座標を含む。置き換えを行う場合、1つの3D座標と2D座標が同一の関節点を指向すると、2D座標で3D座標におけるx軸及びy軸での座標値を置き換え、前記第2再構築パラメータを得る。
ターゲットが人体であることを例として説明すると、図2は、14個の第2関節点の人体骨格を示し、図3は、25個の第1関節点の人体骨格を示す。ここで、図3における脊柱根部関節点は、左臀関節点と右臀関節点の中心点であるため、無視されてもよい。図2における14個の関節点は、図3における25個の関節点内に含まれることが明らかである。
図2における関節点は、以下を含む。関節点1は頭部関節点であり、関節点2は、頸関節点であり、関節点4は、左肩関節点であり、関節点3は、右肩関節点であり、関節点6は、左肘関節点であり、関節点5は、右肘関節点であり、関節点8は、左手首関節点であり、関節点7は、右手首関節点であり、関節点10は、左臀関節点であり、関節点9は、右臀関節点であり、関節点12は、左膝関節点であり、関節点11は、右膝関節点であり、関節点13は、左足首関節点であり、関節点14は、右足首関節点である。
図2と図3を比較すると、図2に比べて、図3に、脊柱根部関節点、脊柱肩部関節点、脊柱中間関節点、左手先端関節点、右手先端関節点、左手親指関節点、右手親指関節点、左手関節点、右手関節点、左足関節点及び右足関節点が追加されたことが明らかである。
第2関節点パラメータの統計精度は、第1関節点パラメータの統計精度より高いため、第1の3Dモデルのモデリング精度を向上させるために、第2関節点パラメータを利用して第1関節点パラメータにおける対応する部分を直接的に置き換え、続いて、置き換えた第2所定のパラメータに基づいて、第1の3Dモデルを構築する。
幾つかの実施例において、ステップS130は、第1の2D画像に対応するカメラパラメータに基づいて、第1の3Dモデルを2D空間にマッピングして第1の2D座標及び第2の2D座標を得ることを含んでもよい。
カメラパラメータは、カメラの内部パラメータである。カメラパラメータは、ワールド座標系における相互垂直な2つの方向での、第1の2D画像の長さを含んでもよく、焦点距離などのパラメータを更に含んでもよい。ワールド座標系における相互垂直な2つの方向での、第1の2D画像の長さにより、第1の3Dモデル及び第2の3Dモデルを投影面に投影した大きさを決定することができる。また、焦点距離に基づいて、第1の3Dモデル及び第2の3Dモデルを投影面に投影した投影面積を決定することもできる。従って、第1の3Dモデルの、2D空間内へのマッピング、第2の3Dモデルの、2D空間へのマッピングを実現させることができる。
第1の3Dモデルを2D空間内にマッピングした後に、マッピング投影を得る。該マッピング投影の座標は、第1の2D座標である。同様に、第2の3Dモデルを2D空間内にマッピングした後に、マッピング投影を得る。該マッピング投影の座標は、第2の2D座標である。
幾つかの実施例において、図4に示すように、上記方法は、以下を更に含む。
ステップS201において、第1の2D画像におけるターゲットの輪郭点パラメータを取得する。
ステップS202において、輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、連結関係で表される変形方向を決定する。
上記S140において、第1の2D座標及び第2の2D座標に基づいて、第1の2D画像におけるターゲットに対して変形を行い、変形されたターゲットターゲットを含む第2の2D画像を得ることは、第1の2D座標及び第2の2D座標に基づいて、変形方向において、第1の2D画像におけるターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得ることを含む。
本実施例は、第1の2D画像におけるターゲット輪郭点を抽出できる輪郭点モデルを利用して、第1の2D画像におけるターゲットの輪郭点パラメータを抽出する。輪郭点パラメータは、輪郭点座標を含むが、これに限定されない。ここで、図5Cは、抽出された図5Aにおける人体の輪郭点を示す概略図である。
第1の2D座標及び第2の2D座標に基づいて、ターゲットの変形を行い、第1の2D画像を第2の2D画像に変形させる過程において、第1の2D座標を第2の2D座標に変換する操作に係わる。実際の適用において、第1の2D座標を第2の2D座標に変換する方式は多種であるが、幾つかの変換方式は、変形されたターゲットに混乱を発生させてしまう。このような現象を減少させるために、本実施例において、第1の2D画像におけるターゲットの輪郭点パラメータを取得し、輪郭点パラメータに基づいて、所定の2つの輪郭点を連結し、ターゲットの1つの部分に対応する第1の2D座標を第2の2D座標に変換する変形方向を得る。
ステップS140において、ターゲットの変形を行う場合、第1の2D座標を第2の2D座標に変形するという変形のみを随意に行うことなく、ステップS202で決定された変形方向に沿って変形することができる。変形方式で変形を行うことで、変形効果を更に向上させる。
幾つかの任意選択的な実施例において、ステップS201は、輪郭点パラメータに基づいて、ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、変形方向を決定し、変形方向は、第1結線方向に平行な第1変形方向、第1結線方向に垂直な第2変形方向のうちの少なくとも1種を含む、ことを含んでもよい。
例示的には、人体における対称に分布する2つの局所は、人体の左肩及び右肩、人体の左脚及び右脚、人体の左胸及び右胸、人体の左臀及び右臀等のうちの少なくとも1つを含む。
例示的には、人体における対称に分布する2つの対称な局所を4つの所定局所とする。人体左肩及び右肩を1組として、人体の正面を変形するための第1結線方向を決定し、人体の左臀及び右臀に基づいて、人体の背面を変形するための第1結線方向を決定する。
別の幾つかの実施例において、ステップS201は、輪郭点パラメータに基づいて、ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、変形方向を決定し、変形方向は、第2結線方向に平行な第3変形方向、及び/又は、第2結線方向に垂直な第4変形方向を含む、ことを更に含んでもよい。
例えば、人体を例として説明すると、該所定の局所は、左脚、右脚、左腕、右腕等のうちの少なくとも1つを含んでもよい。
例えば、左脚の両側の輪郭点の結線方向は第2結線方向であり、右脚の両側の輪郭点の結線方向は第2結線方向である。
本願の幾つかの任意選択的な実施例において、変形方向は、少なくとも以下の2種類の方向を含む。1種類の方向は、ターゲットの太さを調整する変形方向であり、例えば、第1変形方向及び/又は第3変形方向である。別の1種類の方向は、ターゲットの身長を調整する変形方向であり、例えば、第2変形方向及び/又は第4変形方向である。ここで、第2変形方向は第1変形方向に垂直であり、第4変形方向は第2変形方向に垂直である。
例示的には、図5Dは、図5Aに示す人体に中実横線を追加したものである。該中実横線は、第1変形方向及び/又は第3変形方向である。図5Eに示す人体を覆う垂直な破線は、図5Dにおける中実横線に垂直な線であり、第2変形方向及び/又は第4変形方向に対応する。
幾つかの任意選択的な実施例において、ステップS140は、第1の2D座標が変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定することと、第2の2D変形パラメータに基づいて、第1の2D画像におけるターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含んでもよい。
例えば、第1の2D座標及び第2の2D座標は、ターゲットに対応する同一位置又はターゲットの同一の関節点に対応し、変形方向に沿って移動することで、2D画像におけるターゲットに対応する位置で変形を行う変形アルゴリズム(変形関数)をフィッティングし、2D変形パラメータを得ることができる。最後に、ステップS140において、2D変形パラメータに基づいて、2D画像におけるターゲットに対して変形を行う。
幾つかの実施例において、ステップS120は、3D変形パラメータに基づいて、第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて第2の3Dモデルを得ることを含んでもよい。第1の3Dモデルの表面の輪郭点の1つ又は複数の3D座標を変えることで、新たな3Dモデルを得る。該新たな3Dモデルは、本願の実施例において、第2の3Dモデルと呼ばれる。
本願の実施例は、画像処理装置を更に提供する。図7に示すように、画像処理装置は、
ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得るように構成される第1取得モジュール110と、
3D変形パラメータを取得し、3D変形パラメータに基づいて、第1の3Dモデルを第2の3Dモデルに変換するように構成される第2取得モジュール120と、
第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、第2の3Dモデルを2D空間にマッピングして第2の2D座標を得るように構成されるマッピングモジュール130と、
第1の2D座標及び第2の2D座標に基づいて、第1の2D画像におけるターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される変形モジュール140と、を備える。
幾つかの実施例において、第1取得モジュール110、第2取得モジュール120、マッピングモジュール130及び変形モジュール140はいずれもプログラムモジュールであってもよく、該プログラムモジュールは、プロセッサにより実行された後、前記機能を実現させることができる。
別の幾つかの実施例において、第1取得モジュール110、第2取得モジュール120、マッピングモジュール130及び変形モジュール140はいずれもソフトウェアとハードウェアを組み合わせたモジュールであってもよい。該ソフトウェアとハードウェアを組み合わせたモジュールは、プログラマブルアレイを含むが、これに限定されない。プログラマブルアレイは、複合プログラマブルアレイ又はフィールドプログラマブルアレイを含むが、これらに限定されない。
別の幾つかの実施例において、第1取得モジュール110、第2取得モジュール120、マッピングモジュール130及び変形モジュール140はいずれも単純なハードウェアモジュールであってもよい。該単純なハードウェアモジュールは、特定用途向け集積回路を含むが、これに限定されない。
幾つかの実施例において、第1取得モジュール110は、人体メッシュ復元モデルにより、第1の2D画像から、ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出し、抽出された第1再構築パラメータを利用して、3D空間内での、ターゲットの第1の3Dモデルを再構築するように構成される。
幾つかの実施例において、第1再構築パラメータは、ターゲットの第1関節点パラメータ、ターゲットの第1形態パラメータ及び第1の2D画像のカメラパラメータのうちの少なくとも1つを含む。
幾つかの実施例において、装置は、
人体検知モデルにより、第1の2D画像から、ターゲットの第2関節点パラメータを抽出するように構成される抽出モジュールであって、第2関節点パラメータで表される第2関節点と第1関節点パラメータで表される一部の第1関節点とは重なり合いがある抽出モジュールを更に備え、
第1取得モジュール110は、第1再構築パラメータのうちの、第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを第2関節点パラメータに置き換え、第2再構築パラメータを形成し、第2再構築パラメータに基づいて、3D空間内での、ターゲットの第1の3Dモデルを再構築するように構成される。
幾つかの実施例において、マッピングモジュール130は、第1の2D画像に対応するカメラパラメータに基づいて、第1の3Dモデル及び第2の3Dモデルをそれぞれ2D空間にマッピングして第1の2D座標及び第2の2D座標を得るように構成される。
幾つかの実施例において、装置は、
第1の2D画像の第1の2D変形パラメータを取得するように構成される第3取得モジュールを更に備え、
第2取得モジュール120は、第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、3D変形パラメータを得るように構成される。
幾つかの実施例において、装置は、
第1の2D画像におけるターゲットの輪郭点パラメータを取得するように構成される第4取得モジュールと、
輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、連結関係で表される変形方向を決定するように構成される決定モジュールと、を更に備え、
前記変形モジュール140は、第1の2D座標及び第2の2D座標に基づいて、変形方向において、第1の2D画像におけるターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される。
幾つかの実施例において、決定モジュールは、輪郭点パラメータに基づいて、ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、変形方向を決定するように構成され、変形方向は、第1結線方向に平行な第1変形方向、第1結線方向に垂直な第2変形方向のうちの少なくとも1つを含む。
幾つかの実施例において、決定モジュールは、輪郭点パラメータに基づいて、ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、変形方向を決定するように構成され、変形方向は、第2結線方向に平行な第3変形方向、及び/又は、第2結線方向に垂直な第4変形方向を含む。
幾つかの実施例において、変形モジュール140は、第1の2D座標が変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定し、第2の2D変形パラメータに基づいて、第1の2D画像におけるターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される。
幾つかの実施例において、第2取得モジュール120は、3D変形パラメータに基づいて、第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて第2の3Dモデルを得るように構成される。
以下、上記任意の実施例を参照しながら、1つの具体的な例を提供する。
該例は、画像処理方法を提供する。前記方法は、以下を含む。
Open Poseモデルを利用して一枚の第1の2D画像から人体のN個の関節の関節点パラメータを抽出し、Nは、正整数である。
第1の2D画像をHMRモデルに入力し、HMRモデルから、抽出された第1再構築パラメータを出力する。第1再構築パラメータは、人体内のM1個の関節点(脊柱根関節点を除く)の3D座標を含んでもよい。従って、M1×3個のパラメータを得ることができる。それと同時に、HMRモデルは、該第1の2D画像のカメラのM2個の内部パラメータを取得する。M2個の内部パラメータはそれぞれ、第1の2D画像を収集する時の焦点距離、ワールド座標系内での、2D画像の単一の画素の幅及び高さを含んでもよい。従って、HMRモデルにより、M1×3+M2個のパラメータからなる第1再構築パラメータを得ることができる。M1及びM2はいずれも正整数である。
M1×3+M2個のパラメータにおけるN1個の関節点パラメータをOpen Poseモデルにより提供されたN個の関節点パラメータで置き換え、更新された第1再構築パラメータを形成し、つまり、前記第2再構築パラメータを形成する。N1は正整数である。
また、SMPLモデルを利用して、第2再構築パラメータに基づいて、3Dモデルを再構築し、該3Dモデルに対してレンダリングを行い、前記第1の3Dモデルを得る。該第1の3Dモデルは、X個の関節点からなるものであり、また、これらの関節点で形成されたY万枚あまりの三角パッチからなるものである。X及びYはいずれも正整数である。
マンマシンインタフェース又は他の機器から2D変形パラメータを受信し、該2D変形パラメータに基づいて3D変形パラメータに変形し、3D変形パラメータに基づいて、第1の3Dモデルを調整し、第1の3Dモデルを変換することで得られた第2の3Dモデルを生成する。
第2の3Dモデルを得た後、カメラパラメータに基づいて、2つの3Dモデルをそれぞれ2D平面内にマッピングし、2つのモデルにそれぞれ対応する第1の2D座標及び第2の2D座標を得る。ここで、1つの第1の2D座標及び1つの第2の2D座標はそれぞれ人体の1つの関節点に対応する。
人体輪郭検出モデルを利用して第1の2D画像における人体の輪郭点を検出し、輪郭点の座標を得る。変形を必要とする局所及び変形需要に応じて、変形方向を決定する。
例示的には、該輪郭点の数は、Z個であってもよい。Zは、正整数である。
例えば、人体に対して太さに関する変形を行う場合、人体の輪郭点を横方向に連結し、対応する結線方向を得る。左肩輪郭点と右肩輪郭点を連結することで、第1結線方向を得る。肩部に対してサイズの変形を行う場合、肩部の第1の2D座標、第1結線方向及び肩部の第2の2D座標に基づいて、肩部変形のための2D変形パラメータ(例えば、2D変形アルゴリズム)をフィッティングする。後続で、2D変形パラメータに基づいて、ターゲットにおける肩部の変形を行う。
具体的には、第1の2D座標及び第2の2D座標に対応する部位の輪郭点に基づいて、該部位に平行な2つの端点の結線方向を取得し、第1組のベクトルのベクトル方向とする。それと同時に、第2組のベクトルを導入する。第2組のベクトルのベクトル方向は、第1組のベクトルのベクトル方向に垂直である。第1組のベクトルのベクトル方向は、人体が太くなるか又は痩せる方向と一致すると、人体の太さを変える時に、第1組のベクトルのベクトル方向に沿って変形を行う。それと同時に、人体の身長変形を行う必要があると、人体の身長変形を行う場合、第2組のベクトルのベクトル方向に沿って変形を行う。
例えば、肩部を広くする場合、第1の2D画像における肩部の伸長処理を直接的に行えばよい。肩部を小さくする場合、第1の2D画像における肩部の縮小処理を行った後、人体(即ち、ターゲット)以外の背景に対して伸長処理を行い、人体の肩部の縮小による空白を補い、変形された第2の2D画像を更に得る。
図8に示すように、本願の実施例は、画像処理機器を更に提供する。前記機器は、
コンピュータによる実行可能な命令を記憶するように構成されるメモリと、
メモリに接続され、メモリに記憶されているコンピュータによる実行可能な命令を実行することで、前記1つ又は複数の技術的解決手段で提供される画像処理方法を実現させ、例えば図1及び/又は図4に示す画像処理方法のうちの少なくとも1つを実現させるように構成されるプロセッサと、を備える。
該メモリは、ランダムメモリ、読出し専用メモリ、フラッシュのような様々なメモリであってもよい。メモリは、情報記憶に用いられ、例えば、コンピュータによる実行可能な命令などの記憶に用いられる。コンピュータによる実行可能な命令は、ターゲットプログラム命令及び/又はソースプログラム命令などのような様々なプログラム命令であってもよい。
プロセッサは、例えば、中央演算処理装置、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルアレイ、デジタル信号プロセッサ、特定用途向け集積回路又は画像処理装置などのような様々なプロセッサであってもよい。
プロセッサは、バスを経由して前記メモリに接続される。前記バスは、集積回路バスなどであってもよい。
幾つかの実施例において、端末機器は、通信インタフェースを更に備えてもよい。該通信インタフェースは、例えば、ローカルエリアネットワークインタフェース、送受信アンテナなどのようなネットワークインタフェースであってもよい。通信インタフェースも、プロセッサに接続され、情報送受信に用いられる。
幾つかの実施例において、前記端末装置は、マンマシンインタフェースを更に備える。例えば、マンマシンインタフェースは、例えば、キーボード、タッチパネルなどのような様々な入力出力装置を含んでもよい。
幾つかの実施例において、画像処理機器は、ディスプレイを更に備える。該ディスプレイは、様々なリマインド情報、収集された顔画像及び/又は様々なインタフェースを表示することができる。
本願の実施例は、コンピュータ記憶媒体を提供する。コンピュータ記憶媒体には、コンピュータによる実行可能な命令が記憶されており、コンピュータによる実行可能な命令が実行されてから、前記1つ又は複数の技術的解決手段で提供される画像処理方法を実現させ、例えば図1及び/又は図4に示す画像処理方法のうちの少なくとも1つを実現させる。
本願で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した該ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットとの組み合わせで実現してもよい。
上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶され、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、読出し専用メモリ(ROM:Read-only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者であれば理解されるべきである。
矛盾が生じない限り、本願で提供される幾つかの方法実施例で開示された方法を互いに任意に組み合わせて、新たな方法実施例を得ることができる。
矛盾が生じない限り、本願で提供される幾つかの製品実施例で開示された特徴を互いに任意に組み合わせて、新たな製品実施例を得ることができる。
矛盾が生じない限り、本願で提供される幾つかの方法又は装置実施例で開示された特徴を互いに任意に組み合わせて、新たな方法実施例又は装置実施例を得ることができる。
以上は本願の任意選択的な実施形態に過ぎず、本願の保護の範囲はそれらに制限されるものではなく、当業者が本願に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本願の保護範囲内に含まれるべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。

Claims (24)

  1. 画像処理方法であって、前記方法は、
    ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得ることと、
    3D変形パラメータを取得し、前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換することと、
    前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得ることと、
    前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含む、画像処理方法。
  2. ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得ることは、
    人体メッシュ復元モデルにより、前記第1の2D画像から、前記ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出することと、
    抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1再構築パラメータは、前記ターゲットの第1関節点パラメータ、前記ターゲットの第1形態パラメータ及び前記第1の2D画像のカメラパラメータのうちの少なくとも1つを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記方法は、
    人体検知モデルにより、前記第1の2D画像から、前記ターゲットの第2関節点パラメータを抽出することであって、第2関節点パラメータで表される第2関節点と前記第1関節点パラメータで表される一部の第1関節点とは重なり合いがある、ことを更に含み、
    抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することは、
    前記第1再構築パラメータのうちの、前記第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを前記第2関節点パラメータに置き換え、第2再構築パラメータを形成することと、
    前記第2再構築パラメータに基づいて、3D空間内での、前記ターゲットの第1の3Dモデルを再構築することと、を含むことを特徴とする
    請求項3に記載の方法。
  5. 前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得ることは、
    前記第1の2D画像に対応するカメラパラメータに基づいて、前記第1の3Dモデル及び前記第2の3Dモデルをそれぞれ2D空間にマッピングして前記第1の2D座標及び前記第2の2D座標を得ることを含むことを特徴とする
    請求項1から4のうちいずれか一項に記載の方法。
  6. 前記方法は、
    前記第1の2D画像の第1の2D変形パラメータを取得することを更に含み、
    3D変形パラメータを取得することは、
    前記第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、前記3D変形パラメータを得ることを含むことを特徴とする
    請求項1から4のうちいずれか一項に記載の方法。
  7. 前記方法は、
    前記第1の2D画像における前記ターゲットの輪郭点パラメータを取得することと、
    前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することと、を更に含み、
    前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることは、
    前記第1の2D座標及び前記第2の2D座標に基づいて、前記変形方向において、前記第1の2D画像における前記ターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得ることを含むことを特徴とする
    請求項1から6のうちいずれか一項に記載の方法。
  8. 前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することは、
    前記輪郭点パラメータに基づいて、前記ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、前記変形方向を決定することであって、前記変形方向は、前記第1結線方向に平行な第1変形方向、前記第1結線方向に垂直な第2変形方向のうちの少なくとも1つを含む、ことを含むことを特徴とする
    請求項7に記載の方法。
  9. 前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定することは、
    前記輪郭点パラメータに基づいて、前記ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、前記変形方向を決定することであって、前記変形方向は、前記第2結線方向に平行な第3変形方向、及び/又は、前記第2結線方向に垂直な第4変形方向を含む、ことを含むことを特徴とする
    請求項7又は8に記載の方法。
  10. 前記第1の2D座標及び前記第2の2D座標に基づいて前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることは、
    前記第1の2D座標が前記変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定することと、
    前記第2の2D変形パラメータに基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得ることと、を含むことを特徴とする
    請求項6から8のうちいずれか一項に記載の方法。
  11. 前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換することは、
    前記3D変形パラメータに基づいて、前記第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて前記第2の3Dモデルを得ることを含むことを特徴とする
    請求項1から10のうちいずれか一項に記載の方法。
  12. 画像処理装置であって、前記装置は、
    ターゲットを含む第1の2D画像に基づいて、3D空間内での、ターゲットの第1の3Dモデルを得るように構成される第1取得モジュールと、
    3D変形パラメータを取得し、前記3D変形パラメータに基づいて、前記第1の3Dモデルを第2の3Dモデルに変換するように構成される第2取得モジュールと、
    前記第1の3Dモデルを2D空間にマッピングして第1の2D座標を得て、前記第2の3Dモデルを2D空間にマッピングして第2の2D座標を得るように構成されるマッピングモジュールと、
    前記第1の2D座標及び前記第2の2D座標に基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成される変形モジュールと、を備える、画像処理装置。
  13. 前記第1取得モジュールは、人体メッシュ復元モデルにより、前記第1の2D画像から、前記ターゲットの3Dモデルを再構築するための第1再構築パラメータを抽出し、抽出された前記第1再構築パラメータを利用して、3D空間内での、前記ターゲットの第1の3Dモデルを再構築するように構成されることを特徴とする
    請求項12に記載の装置。
  14. 前記第1再構築パラメータは、
    前記ターゲットの第1関節点パラメータ、前記ターゲットの第1形態パラメータ及び前記第1の2D画像のカメラパラメータのうちの少なくとも1つを含むことを特徴とする
    請求項13に記載の装置。
  15. 前記装置は、
    人体検知モデルにより、前記第1の2D画像から、前記ターゲットの第2関節点パラメータを抽出するように構成される抽出モジュールであって、前記第2関節点パラメータで表される第2関節点と前記第1関節点パラメータで表される一部の第1関節点とは重なり合いがある抽出モジュールを更に備え、
    前記第1取得モジュールは、前記第1再構築パラメータのうちの、前記第2関節点とは重なり合いがある一部の第1関節点の第1関節点パラメータを前記第2関節点パラメータに置き換え、第2再構築パラメータを形成し、前記第2再構築パラメータに基づいて、3D空間内での、前記ターゲットの第1の3Dモデルを再構築するように構成されることを特徴とする
    請求項14に記載の装置。
  16. 前記マッピングモジュールは、前記第1の2D画像に対応するカメラパラメータに基づいて、前記第1の3Dモデル及び前記第2の3Dモデルをそれぞれ2D空間にマッピングして前記第1の2D座標及び前記第2の2D座標を得るように構成されることを特徴とする
    請求項12から15のうちいずれか一項に記載の装置。
  17. 前記装置は、前記第1の2D画像の第1の2D変形パラメータを取得するように構成される第3取得モジュールを更に備え、
    前記第2取得モジュールは、前記第1の2D変形パラメータ、及び2D空間と3D空間とのマッピング関係に基づいて、前記3D変形パラメータを得るように構成されることを特徴とする
    請求項12から16のうちいずれか一項に記載の装置。
  18. 前記装置は、前記第1の2D画像における前記ターゲットの輪郭点パラメータを取得するように構成される第4取得モジュールと、
    前記輪郭点パラメータに基づいて、少なくとも2つの輪郭点間の連結関係を決定し、前記連結関係で表される変形方向を決定するように構成される決定モジュールと、を更に備え、
    前記変形モジュールは、前記第1の2D座標及び前記第2の2D座標に基づいて、前記変形方向において、前記第1の2D画像における前記ターゲットに対して変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成されることを特徴とする
    請求項12から17のうちいずれか一項に記載の装置。
  19. 前記決定モジュールは、前記輪郭点パラメータに基づいて、前記ターゲットにおける対称に分布する少なくとも2つの局所の輪郭点の第1結線方向に応じて、前記変形方向を決定するように構成され、前記変形方向は、前記第1結線方向に平行な第1変形方向、前記第1結線方向に垂直な第2変形方向のうちの少なくとも1つを含むことを特徴とする
    請求項18に記載の装置。
  20. 前記決定モジュールは、前記輪郭点パラメータに基づいて、前記ターゲットにおける、所定の局所の中心点又は中心線を中心として対称に分布する少なくとも2つの輪郭点の第2結線方向に応じて、前記変形方向を決定するように構成され、前記変形方向は、前記第2結線方向に平行な第3変形方向、及び/又は、前記第2結線方向に垂直な第4変形方向を含むことを特徴とする
    請求項18又は19に記載の装置。
  21. 前記変形モジュールは、前記第1の2D座標が前記変形方向に沿って第2の2D座標に移動する第2の2D変形パラメータを決定し、前記第2の2D変形パラメータに基づいて、前記第1の2D画像における前記ターゲットの変形を行い、変形されたターゲットを含む第2の2D画像を得るように構成されることを特徴とする
    請求項18から20のうちいずれか一項に記載の装置。
  22. 前記第2取得モジュールは、前記3D変形パラメータに基づいて、前記第1の3Dモデルの少なくとも一部の輪郭点の座標を変えて前記第2の3Dモデルを得るように構成されることを特徴とする
    請求項12から21のうちいずれか一項に記載の装置。
  23. 画像処理機器であって、前記画像処理機器は、
    コンピュータによる実行可能な命令を記憶するように構成されるメモリと、
    前記メモリに接続され、前記コンピュータによる実行可能な命令を実行することで、請求項1から11のうちいずれか一項に記載の方法を実現させるように構成されるプロセッサと、を備える、画像処理機器。
  24. コンピュータ記憶媒体であって、前記コンピュータ記憶媒体には、コンピュータによる実行可能な命令が記憶されており、前記コンピュータによる実行可能な命令がプロセッサにより実行された後、請求項1から11のうちいずれか一項に記載の方法を実現させる、前記コンピュータ記憶媒体。
JP2020570014A 2019-11-21 2020-04-24 画像処理方法及び装置、画像処理機器並びに記憶媒体 Pending JP2022512262A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911148068.3A CN111031305A (zh) 2019-11-21 2019-11-21 图像处理方法及装置、图像设备及存储介质
CN201911148068.3 2019-11-21
PCT/CN2020/086695 WO2021098143A1 (zh) 2019-11-21 2020-04-24 图像处理方法及装置、图像处理设备及存储介质

Publications (1)

Publication Number Publication Date
JP2022512262A true JP2022512262A (ja) 2022-02-03

Family

ID=75975021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570014A Pending JP2022512262A (ja) 2019-11-21 2020-04-24 画像処理方法及び装置、画像処理機器並びに記憶媒体

Country Status (2)

Country Link
US (1) US11450068B2 (ja)
JP (1) JP2022512262A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113409430B (zh) 2021-06-01 2023-06-23 北京百度网讯科技有限公司 可驱动三维人物生成方法、装置、电子设备及存储介质
CN113436063B (zh) * 2021-07-30 2024-03-05 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN114136562B (zh) * 2021-10-14 2023-12-08 福建省特种设备检验研究院 一种基于双目视觉的主梁挠度的监测装置及其监测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
JPH11175765A (ja) * 1997-12-11 1999-07-02 Alpine Electron Inc 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
JP2003085588A (ja) * 2001-06-28 2003-03-20 Shiyuusaku Furushima 三次元形状モデリング方法
US20110064331A1 (en) * 2007-02-06 2011-03-17 Accenture Global Services Gmbh Transforming A Submitted Image Of A Person Based On A Condition Of The Person
JP6013669B1 (ja) * 2016-03-28 2016-10-25 株式会社3D body Lab 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
JP6116784B1 (ja) * 2016-02-16 2017-04-19 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム
JP2018129009A (ja) * 2017-02-10 2018-08-16 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IE42162B1 (en) 1974-10-11 1980-06-18 Lingner & Fischer Gmbh Thickening solutions of film-forming polymer
JPS6013669B2 (ja) 1981-12-11 1985-04-09 成和化成株式会社 カタラ−ゼの製造方法
JP3538263B2 (ja) 1995-08-09 2004-06-14 株式会社日立製作所 画像生成方法
US6769771B2 (en) * 2002-03-14 2004-08-03 Entertainment Design Workshop, Llc Method and apparatus for producing dynamic imagery in a visual medium
TWI315042B (en) 2006-11-21 2009-09-21 Jing Jing Fan Method of three-dimensional digital human model construction from two photos and obtaining anthropometry information
TW201023092A (en) 2008-12-02 2010-06-16 Nat Univ Tsing Hua 3D face model construction method
US10134177B2 (en) 2015-01-15 2018-11-20 Samsung Electronics Co., Ltd. Method and apparatus for adjusting face pose
CN105938627B (zh) 2016-04-12 2020-03-31 湖南拓视觉信息技术有限公司 用于人脸虚拟整形的处理方法和系统
CN108765273B (zh) 2018-05-31 2021-03-09 Oppo广东移动通信有限公司 人脸拍照的虚拟整容方法和装置
CN112330824A (zh) 2018-05-31 2021-02-05 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和存储介质
CN109146769A (zh) 2018-07-24 2019-01-04 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
CN109584168B (zh) 2018-10-25 2021-05-04 北京市商汤科技开发有限公司 图像处理方法和装置、电子设备和计算机存储介质
CN109685915B (zh) 2018-12-11 2023-08-15 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN109934766B (zh) 2019-03-06 2021-11-30 北京市商汤科技开发有限公司 一种图像处理方法及装置
CN110335343B (zh) 2019-06-13 2021-04-06 清华大学 基于rgbd单视角图像人体三维重建方法及装置
CN111031305A (zh) 2019-11-21 2020-04-17 北京市商汤科技开发有限公司 图像处理方法及装置、图像设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240908A (ja) * 1997-02-27 1998-09-11 Hitachi Ltd 映像合成方法
JPH11175765A (ja) * 1997-12-11 1999-07-02 Alpine Electron Inc 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
JP2003085588A (ja) * 2001-06-28 2003-03-20 Shiyuusaku Furushima 三次元形状モデリング方法
US20110064331A1 (en) * 2007-02-06 2011-03-17 Accenture Global Services Gmbh Transforming A Submitted Image Of A Person Based On A Condition Of The Person
JP6116784B1 (ja) * 2016-02-16 2017-04-19 楽天株式会社 3次元モデル生成システム、3次元モデル生成方法、及びプログラム
JP6013669B1 (ja) * 2016-03-28 2016-10-25 株式会社3D body Lab 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
JP2018129009A (ja) * 2017-02-10 2018-08-16 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANGJOO KANAZAWA, MICHAEL J. BLACK, DAVID W. JACOBS, JITENDRA MALIK: ""End-to-endRecovery of Human Shape and Pose"", PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022007011, 30 August 2018 (2018-08-30), US, pages 7122 - 7131, ISSN: 0005052552 *
ARJUN JAIN, ET AL.: ""MovieReshape: Tracking and Reshaping of Humans in Videos"", [ONLINE], SIGGRAPH ASIA 2010, vol. ACM Trans. Graph. 29 (5), JPN6022040791, 2010, ISSN: 0005052549 *
FEDERICA BOGO, ET. AL: "Keep it SMPL: Automatic Estimation of 3D Human Pose and Shape from a Single Image", COMPUTER VISION AND PATTERN RECOGNITION ECCV 2016, vol. arXiv:1607.08128 [cs.CV], JPN6022040790, 27 July 2016 (2016-07-27), ISSN: 0005052550 *
SHIZHE ZHOU, ET.AL: "Parametric reshaping of human bodies in images", ACM SIGGRAPH 2010, JPN7022004591, 26 July 2010 (2010-07-26), pages 1 - 10, ISSN: 0005052551 *

Also Published As

Publication number Publication date
US11450068B2 (en) 2022-09-20
US20210158616A1 (en) 2021-05-27

Similar Documents

Publication Publication Date Title
CN111460875B (zh) 图像处理方法及装置、图像设备及存储介质
KR102406438B1 (ko) 이미지 처리 방법 및 장치, 이미지 처리 기기 및 저장 매체
US10685454B2 (en) Apparatus and method for generating synthetic training data for motion recognition
KR20210038436A (ko) 인체 검출 방법, 장치, 컴퓨터 기기 및 저장 매체
US8922547B2 (en) 3D model shape transformation method and apparatus
JP2022512262A (ja) 画像処理方法及び装置、画像処理機器並びに記憶媒体
CN110892408A (zh) 用于立体视觉和跟踪的系统、方法和装置
EP3971841A1 (en) Three-dimensional model generation method and apparatus, and computer device and storage medium
CN104794722A (zh) 利用单个Kinect计算着装人体三维净体模型的方法
KR20160138729A (ko) 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법
CN111861872A (zh) 图像换脸方法、视频换脸方法、装置、设备和存储介质
CN113421328A (zh) 一种三维人体虚拟化重建方法及装置
CN112365589B (zh) 一种虚拟三维场景展示方法、装置及系统
JP7160958B2 (ja) 画像処理方法及び装置、画像処理デバイス並びに記憶媒体
CN111435550A (zh) 图像处理方法及装置、图像设备及存储介质
WO2023160074A1 (zh) 一种图像生成方法、装置、电子设备以及存储介质
JP2013008137A (ja) 三次元形状モデリング用データ送信装置、三次元形状モデリング用データ受信装置、三次元形状モデリングシステム、三次元形状モデリング用データ送信プログラム、及び三次元形状モデリング用データ受信プログラム
Li et al. Augmented reality registration method based on natural feature points
CN115049764A (zh) Smpl参数预测模型的训练方法、装置、设备及介质
JP3850080B2 (ja) 画像生成表示装置
KR20120121034A (ko) 2차원 영상으로부터 사전입력을 통한 3차원 얼굴형상의 획득 장치
CN116246041A (zh) 一种基于ar的手机虚拟试衣系统和方法
CN116071485A (zh) 一种人体三维重建方法及设备
CN112927330A (zh) 用于生成虚拟人体图像的方法和系统
CN110838182A (zh) 一种图像贴合人台的方法及其系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509