JP7214926B1 - 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents

画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP7214926B1
JP7214926B1 JP2022537296A JP2022537296A JP7214926B1 JP 7214926 B1 JP7214926 B1 JP 7214926B1 JP 2022537296 A JP2022537296 A JP 2022537296A JP 2022537296 A JP2022537296 A JP 2022537296A JP 7214926 B1 JP7214926 B1 JP 7214926B1
Authority
JP
Japan
Prior art keywords
video frame
frame image
image
keypoints
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022537296A
Other languages
English (en)
Other versions
JP2023504926A (ja
Inventor
ジュゴ,ジンジン
ニ,グアンヤオ
ヤン,ホイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Application granted granted Critical
Publication of JP7214926B1 publication Critical patent/JP7214926B1/ja
Publication of JP2023504926A publication Critical patent/JP2023504926A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体であって、そのうち、この画像処理方法は、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別すること(S101)と、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったこと(S102)と、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ること(S103)と、を含む。上記の方法により、従来技術における、対象上にオーバーレイしたエフェクトが対象の本来の特徴を表すことができないことに起因する現実感に欠けるという技術課題を解決した。【選択図】 図1

Description

[関連出願の相互参照]
本開示は、2019年12月18日に中国特許局に提出された、出願番号が201911306421.6であり、出願の名称が「画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体」である中国特許出願の優先権を主張し、その内容の全てが参照によって本開示に組み込まれる。
[技術分野]
本開示は、画像処理分野に関し、特に画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
コンピュータネットワークの発展やスマートフォンの普及に伴い、一般ユーザは、単調な画像や文字だけで自分の感情を表すことに満足できない。ビデオは、より多様な内容と形式を呈し、直観的な感覚をもたらすことができるため、ユーザに深く好ましくなっており、徐々に流行ってきており、一般ユーザがオリジナルビデオを制作することは徐々にトレンドになる。しかし、自分撮りビデオのようなオリジナルビデオでは表現形式が無味乾燥であるが、一方、映画・テレビ作品におけるビデオエフェクトの活用がますます豊富になり、内容表現形式もより多様であるため、ビデオエフェクトは、成功した映画・テレビ作品の支え、保障になると言える。
しかしながら、従来技術では、直接的に目標対象(例えば、人の顔)をエフェクトによって覆うことによりエフェクトを制作するのが一般的であるが、覆われた箇所がエフェクトによって遮られ、目標対象の本来の特徴を表すことができないため、エフェクトの実際の効果が不自然で、現実感に欠ける。
この発明の概要は、構想を簡単な形で紹介するために提供され、これら構想は、後の発明を実施するための形態で詳細に記述される。この発明の概要は、権利化しようとする技術案のキーポイントとなる特徴又は必須な特徴を標識することを意図するものではなく、権利化しようとする技術案の範囲を制限することも意図していない。
第一の側面によれば、本開示の実施例は、
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法を提供する。
第二の側面によれば、本開示の実施例は、
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象と、を識別するための対象識別モジュールと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置を提供する。
第三の側面によれば、本開示の実施例は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが前記第一の側面のいずれかの前記画像処理方法を実行できるようにした、電子機器を提供する。
第四の側面によれば、本開示の実施例は、コンピュータに前記第一の側面のいずれかの前記画像処理方法を実行させるためのコンピュータ命令を記憶したことを特徴とする、非一時的なコンピュータ読み取り可能な記憶媒体を提供する。
第五の側面によれば、本開示の実施例は、コンピュータによって実行されると、前記コンピュータに前記第一の側面のいずれかの前記画像処理方法を実行させるコンピュータプログラムを提供する。
本開示の実施例には、画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体が開示されている。この画像処理方法は、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む。上記の方法により、従来技術における、対象上にオーバーレイしたエフェクトが対象の本来の特徴を表すことができないことに起因する現実感に欠けるという技術課題を解決した。
上記の説明は本開示の技術案の概要に過ぎず、本開示の技術的手段をより明確に理解させるために、明細書の内容に基づいて実施でき、また、本開示の上記及び他の目的、特徴及び利点をより明らかで理解しやすいようにするために、以下、好ましい実施例を挙げて、添付図面を結び付けながら、以下のように詳しく説明する。
本開示の各実施例の上記及び他の特徴、利点、並びに態様は、添付図面を結び付けながら、以下の発明を実施するための形態を参照することでより明らかとなる。全ての添付図面において、同一又は類似する要素を同一又は類似する符号で示している。添付図面は概略的なものであり、素子及び要素は必ずしも縮尺通りに描かれていないことを理解されたい。
本開示による画像処理方法の実施例のフローチャートである。 本開示による画像処理方法の実施例において人の顔のポジショニングポイントを算出する模式図である。 本開示による画像処理方法の実施例におけるステップS103の具体例のフローチャートである。 本開示による画像処理方法の実施例におけるステップS302の具体例のフローチャートである。 本開示の実施例による画像処理装置の実施例の構造模式図である。 本開示の実施例による電子機器の構造模式図である。
以下は、添付図面を参照しながら、本開示の実施例をより詳細に記述する。添付図面においては本開示のいくつかの実施例が示されたが、本開示を各種の形態で実現することができ、ここで記述された実施例に限定されると解釈されるべきではないことを理解されたい。逆に、これらの実施例は、本開示をより徹底的且つ完全に理解するために提供される。本開示の添付図面及び実施例は、例示的なものに過ぎず、本開示の保護範囲を制限するものではないことを理解されたい。
本開示の方法の実施形態に記載された各ステップは、異なる順序で実行されてもよく、及び/又は並行して実行されてもよいことを理解されたい。なお、方法の実施形態は、追加のステップを含んでもよく、及び/又は示されたステップの実行を省略してもよい。本開示の範囲はこの点において制限されない。
本明細書で使用される「含む」という用語及びその変形は、開放式包括であり、即ち、「を含むが、それらに限らない」ことを意味する。「基づいて」という用語は、「少なくとも部分的に基づいて」を意味する。「一実施例」という用語は、「少なくとも1つの実施例」を意味し、「別の実施例」という用語は、「少なくとも1つの別の実施例」を意味し、「いくつかの実施例」という用語は、「少なくともいくつかの実施例」を意味する。他の用語の関連定義は、以下の記述において与えられる。
なお、本開示で記載された「第一の」、「第二の」などの概念は、単に異なる装置、モジュール、又はユニットを区別するためのものであり、これらの装置、モジュール、又はユニットによって実行される機能の順序又は相互依存関係を限定するためのものではない。
なお、本開示で記載された「1つ」、「複数」の修飾は、模式的なものであり、制限性のあるものではない。特別な説明がない限り、「1つ又は複数」と理解されるべきであることは当業者にとって自明である。
本開示の実施形態における複数の装置間でやりとりされるメッセージ又は情報の名称は、説明的なものに過ぎず、これらメッセージ又は情報の範囲を制限するものではない。
図1は本開示による画像処理方法の実施例のフローチャートである。本実施例によるこの画像処理方法は、1つの画像処理装置によって実行されてもよい。この画像処理装置は、ソフトウェアとして実現され、又はソフトウェアとハードウェアの組み合わせとして実現されてもよい。この画像処理装置は、画像処理システムにおける、画像処理サーバ又は画像処理端末機器などの機器に集積設置されてもよい。図1に示すように、この方法は以下のようなステップを含む。
ステップS101:第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別する。
このステップにおいて、前記第1のビデオフレーム画像は、イメージセンサ又はメモリによって取得される。そのうち、前記イメージセンサとは、画像を取り込むことができる様々な機器を指し、典型的なイメージセンサは、ビデオカメラ、カメラヘッド、カメラなどである。この実施例では、前記イメージセンサは、端末機器上のカメラヘッド、例えば、スマートフォン上の前向き又は後ろ向きカメラヘッドであってもよく、カメラヘッドで撮像した画像をそのまま携帯電話の表示画面に表示することができる。そのうち、前記メモリは、ローカルストレージ又はネットワークストレージであり、ローカルストレージでの記憶位置又はネットワークストレージでの記憶アドレスからビデオフレーム画像を取得し、メモリにおけるビデオフレーム画像は、予め撮像されたビデオフレーム画像ファイルであり、端末機器でのプレーヤにより端末機器の表示装置に表示可能である。
前記第1のビデオフレーム画像には、第1の対象が含まれ、前記第1の対象は、第1のビデオフレーム画像における任意の物体であってもよい。例示的に、前記第1の対象は、人の顔であり、前記第2の対象は、第1の対象の一部であり、第1の対象内に位置する。例示的に、前記第1の対象が人の顔である場合、前記第2の対象は、人の顔における目、口などの五官である。
この実施例では、対象のキーポイントを用いて対象を識別する。例示的に、予め設定された複数のキーポイントに基づいて対象を識別してもよい。前記複数のキーポイントが識別された場合、前記対象が識別される。選択的に、前記の、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することは、前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、前記第2の対象の複数の第2のキーポイントに基づいて前記第2の対象を識別することと、を含み、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントである。そのうち、前記エッジキーポイントは、前記第2の対象の輪郭を特定する。例示的に、前記第1の対象は、人の顔であり、前記第2の対象は、人の顔における目と口である。前記複数の第1のキーポイントは、人の顔における両目の中心キーポイントと鼻先キーポイントであり、前記両目の中心キーポイントと鼻先キーポイントが識別された場合、前記人の顔が識別されてもよい。前記複数の第2のキーポイントは、前記目のエッジキーポイントと口のエッジキーポイントであり、同様に、前記目のエッジキーポイントと口のエッジキーポイントの場合、前記目と口が識別される。例示的に、前記第1のキーポイントと第2のキーポイントは、ディープラーニングアルゴリズムを用いて識別されることができ、前記第1のキーポイントと第2のキーポイントがマークされたフレーム画像集合を直接に用いてディープラーニングネットワークを訓練して、第1のキーポイントと第2のキーポイントを回帰できるネットワークモデルを得て、その後、第1のビデオフレーム画像を前記ネットワークモデルに入力することができ、前記第1のビデオフレーム画像に第1の対象と第2の対象が含まれる場合、前記ネットワークモデルは、第1のキーポイントと第2のキーポイントの位置を出力し、これにより第1の対象と第2の対象が直接に識別されるとともに、第1のキーポイントと第2のキーポイントの位置が識別される。他の任意のキーポイント識別アルゴリズムを用いて前記第1のキーポイントと第2のキーポイントを識別してもよいことを理解されたく、ここではこれ以上説明しない。
ステップS102:前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得る。
選択的に、前記第3の対象は3次元仮想対象であり、かつ前記3次元仮想対象の前記第1のビデオフレーム画像における2次元投影の領域は、前記第1の対象の領域よりも大きく、つまり、前記第3の対象は、前記第1の対象を完全に覆うことができる。例示的に、前記3次元仮想対象は、3次元オレンジ、3次元ボール、3次元スイカなどの球形の仮想対象であってもよい。前記第3の対象は、前記第3の対象の位置を位置決めるための第3の対象のポジショニングポイントを含む。
前記第3の対象は、上述した3次元仮想対象に限らず、2次元仮想対象や現実の対象など任意の対象であってもよく、前記現実の対象は、現実の物体が撮像された画像に形成される対象であり、例えば、第1のビデオフレーム画像に人の顔画像及び動物の顔画像が含まれており、このとき、動物の顔画像は、第3の対象として、前記人の顔画像上にオーバーレイしてよいこと、を理解されたい。
このステップでは、第3の対象を前記第1の対象上にオーバーレイする際に、単一キーポイントアライメントという方法を用いて、第3の対象が覆う位置を特定し得る。例示的に、第3の対象に第3の対象のポジショニングポイントが含まれ、前記第1の対象には、前記第3の対象のポジショニングポイントに対応する第1の対象のポジショニングキーポイントが予め設置され、前記第1の対象のポジショニングキーポイントは、前記第1のキーポイントのうちの1つであってもよい。第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイする際に、前記第3の対象のポジショニングポイントと第1の対象のポジショニングキーポイントの位置とをアライメントすることにより、前記第3の対象を前記第1の対象上にオーバーレイすることができる。
単一のキーポイントを用いたアライメントはそれほど正確でない場合があるため、選択的に、前記の、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして第2のビデオフレーム画像を得ることは、前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントから、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、前記第3の対象のポジショニングポイントと前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。この選択的な実施例では、前記第1の対象のポジショニングポイントは、複数の第1のキーポイントから算出され、このように前記第1の対象のポジショニングポイントに複数の第1のキーポイントの位置情報が含まれるので、単一の第1のキーポイントよりも位置決めが正確になる。例示的に、図2に示すように、前記第1の対象は人の顔であり、前記複数の第1のキーポイントは、左右両目の中心キーポイント201と202、鼻先キーポイント203であり、両目の中心キーポイントと鼻先キーポイントのそれぞれが1/3ずつの重みを占めるようにして前記人の顔のポジショニングポイントを算出することができ、このように算出されるのは、両目の中心キーポイントと鼻先キーポイントとで構成される三角形の中心点204であり、このように単一のキーポイントの位置の歪みがポジショニングポイントの位置に与える影響がかなり小さく、第1の対象のポジショニングポイントがより安定で正確になる。
第1の対象のポジショニングポイントを得た後、前記第3の対象のポジショニングポイントを前記第1の対象のポジショニングポイントの位置に設置し、第3の対象を前景として第1のビデオフレーム画像をレンダリングして第2のビデオフレーム画像を得る。
ステップS103:前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得る。
ステップS101で既に第2の対象が識別され、そのうち、前記第2の対象の前記第1のビデオフレーム画像における位置は、前記第2の対象の中心点の位置又は前記複数の第2のキーポイントによって特定され得、例示的に、前記第2の対象を識別する際に、前記第2の対象のポジショニングポイントを1つのキーポイントとして直接に識別し、又は前記複数の第2のキーポイントから前記第2の対象のポジショニングポイントを算出し、前記第2の対象のポジショニングポイントを算出する際に、算出に関与する第2のキーポイント毎に重み値を設定することができ、前記第2の対象のポジショニングポイントの位置は、前記複数の第2のキーポイントの位置の加重平均値である。前記第2の対象の前記第1のビデオフレーム画像における位置を得た後、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象の対応位置上に重ね合わせる。
選択的に、前記第3の対象が3次元対象である場合、3次元対象は一定の奥行き(Z軸方向の情報)を有し、第2の対象は2次元対象であり、奥行きを有しないため、第2の対象を第3の対象上に重ね合わせると、一定のずれが生じるので、第2の対象を第3の対象上に重ね合わせる際に、重ね合わせ結果が比較的に自然となるように、ある程度のオフセット量を持たせる必要がある。このとき、図3に示すように、ステップS103は以下のようなステップを含んで良い。
ステップS301:前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出する。
ステップS302:前記第1の距離に基づいて、前記第2の対象のオフセット量を算出する。
ステップS303:前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得る。
前記第1の対象上に予め設定された2つのキーポイントは、第1の対象上の任意の2つのキーポイントであってもよく、例示的に、前記予め設定された2つのキーポイントは、第1の対象上の左右対称な2つのキーポイントであり、例えば、上記実施例では、第1の対象が人の顔である場合、前記予め設定された2つのキーポイントは、左右両目の中心キーポイントであってもよい。例示的に、前記の、前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、第1の距離に1つのオフセット係数を乗算することであってもよく、前記オフセット係数は前記第1の距離の値に関連し、例えば、第1の距離の値が大きいほどオフセット係数は大きくなり、すると、第2の対象のオフセット量は大きくなり、これにより、第1の対象がレンズに近づくほど、第3の対象の3次元表面に適応するように前記第2の対象はより大きくオフセットするという効果をもたらす。
上述したオフセット量の算出は近似的な算出であり、選択的に、前記オフセット量をより正確に算出してもよく、このとき、図4に示すように、前記ステップS302は、以下のようなステップを含んでもよい。
ステップS401:前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角である。
ステップS402:前記第1の距離、ヨー角及びピッチ角に基づいて、前記第2の対象のオフセット量を算出する。
具体的には、前記ステップS402における算出手順を以下の式で表すことができる:
Figure 0007214926000002
ここで、signは、符号を取る操作であり、dxは、前記第2の対象のX軸方向のオフセット量であり、dyは、前記第2の対象のY軸方向のオフセット量であり、disteyeは第1の距離であり、yawは、第1の対象のヨー角であり、pitchは、第1の対象のピッチ角であり、θは、第2の対象が前方を向っているときの初期相対ピッチ角であり、θは、第2の対象が前方を向っているときの初期相対ヨー角である。ここで、θとθは、予め設定された角度値であり、3次元の第3の対象の外面は一定のラジアンを有するので、移動する際に、ある程度の減衰が必要である。第1の対象が人の顔で、第2の対象が目と口である場合を例にして、口が第3の対象における上下領域の下半分の領域に位置するため、口の初期相対ピッチ角は大きく、口が第3の対象の左右領域の中間に位置するため、口の初期相対ヨー角は0である。他の第2の対象のθとθは、第3の対象の違いに応じて予め異なる値に設定されてもよく、ここではこれ以上説明しない。
選択的に、前記のステップS303において、前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、をさらに含む。前述ステップにおいて、前記第2の対象の第1のビデオフレーム画像における位置を初期ポジショニングポイントとし、前記初期ポジショニングポイントは、X軸の座標値とY軸の座標値を含み、前記初期ポジショニングポイントのX軸座標値及びY軸座標値をそれぞれ前記オフセット量のX軸座標値とY軸座標値に加算して目標ポジショニングポイントを得ており、その後、第2のビデオフレーム画像において、前記第2の対象を前景として前記第2の目標ポジショニングポイントの位置にレンダリングして第3のビデオフレーム画像を得て、前記第3のビデオフレーム画像において、前記第3の対象上に第2の対象を重ね合わせ、第1の対象の特徴をリアルに反映することができ、これにより、エフェクトにより現実感を持たせることができる。
選択的に、第3の対象と第2の対象は大きさが異なる可能性があるので、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせる前に、第3の対象に従って前記第2の対象をスケーリングすることをさらに含む。このとき、第3の対象上の所定の2つのキーポイント間の距離と、第1の対象上の所定の2つのキーポイント間の距離との比に基づいて、第2の対象のスケーリング率を決定することができ、このように前記第3の対象が前記第1の対象より大きい場合、前記第2の対象を拡大し、前記第3の対象が前記第1の対象より小さい場合、前記第2の対象を縮小する。このステップの後に前記第2のビデオフレーム画像における第3の対象上に重ね合わせられる第2の対象は、スケーリング後の第2の対象である。
さらに、前記目標対象が前記3次元仮想対象上にオーバーレイした後、目標対象の色と3次元仮想対象の色との間に違いがある可能性があるため、さらなる色処理によってこのような違いを解消することで、第2の対象と第3の対象との重ね合わせ効果をより自然にすることができる。さらに、前記ステップS103の後に、
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB(Red、Green、Blue;赤、緑、青)色空間からHSV HSV(Hue、Saturation、Value;色相、彩度、明度)色空間に変換することと、
前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む。
前記ステップにより、RGB空間をHSV空間に変換し、第2の対象の元の彩度と明度を保存した場合に、第2の対象の色を第3の対象の前記目標位置における色に変換して、このように第2の対象と第3の対象との融合度をより高め、第2の対象が第3の対象の一部であるように見えるようにして、より現実的にすることができる。
本開示の実施例には、画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体が開示されている。そのうち、この画像処理方法は、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得ることと、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む。上記方法により、従来技術における、対象上にオーバーレイしたエフェクトが対象の本来の特徴を表すことができないことに起因する現実感に欠けるという技術課題を解決した。
以上、上記方法の実施例における各ステップを上述した順序で説明したが、本開示の実施例におけるステップは必ずしも上述した順序で実行される必要はなく、逆順、並列、交差などの他の順序で実行されてもよいことは当業者にとって自明であり、さらに、上述したステップを基にして、当業者は、他のステップを追加してもよく、これらの明らかな変形又は同等な置換の方式は、本開示の保護範囲に含まれるべきであり、ここではこれ以上説明しない。
図5は本開示の実施例による画像処理装置の実施例の構造模式図である。図5に示すように、この装置500は、対象識別モジュール501と、第2のビデオフレーム画像生成モジュール502と、第3のビデオフレーム生成モジュール503とを含む。そのうち、
対象識別モジュール501は、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するためのものであり、
第2のビデオフレーム画像生成モジュール502は、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るためのものであり、
第3のビデオフレーム生成モジュール503は、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るためのものである。
さらに、前記対象識別モジュール501は、さらに、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象のエッジキーポイントである前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することと、に用いられる。
さらに、前記第2のビデオフレーム画像生成モジュール502は、
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
さらに、前記第2のビデオフレーム画像生成モジュール502は、さらに、
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる。
さらに、前記の、前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
さらに、前記の、前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
さらに、前記画像処理装置500は、
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールをさらに含む。
図5に示す装置は、図1~図4に示す実施例の方法を実行することができ、本実施例に詳細に説明されていない部分については、図1~図4に示す実施例に関する説明を参照することができる。該技術案の実行手順及び技術効果については、図1~図4に示す実施例の説明を参照することができ、ここではこれ以上説明しない。
以下、本開示の実施例を実現することに適合する電子機器(例えば、図1における端末機器又はサーバ)600の構造模式図を示す図6を参照する。本開示の実施例中の端末機器は、例えば、携帯電話、ノートパソコン、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレット)、PMP(可搬式マルチメディア再生機)、車載端末(例えば、車載ナビゲーション端末)などの携帯端末、及び例えばデジタルTV、デスクトップコンピュータなどの固定端末を含み得るが、それらに限らない。図6に示された電子機器は一例に過ぎず、本開示の実施例の機能及び使用範囲に何の制限も加えない。
図6に示すように、電子機器600は処理装置(例えば、中央処理装置、グラフィックプロセッサーなど)601を含んでもよく、それはリードオンリメモリ(ROM)602に記憶されたプログラム又は記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムによって各種の適切な動作及び処理を実行することができる。RAM 603には、電子機器600の操作に必要な各種のプログラムとデータが記憶されている。処理装置601、ROM 602及びRAM 603は、バス604を介して相互に接続される。入力/出力(I/O)インタフェース605もバス604に接続される。
一般的には、例えばタッチスクリーン、タッチパネル、キーボード、マウス、カメラヘッド、マイクロホン、加速度計、ジャイロなどを含む入力装置606と、例えば液晶ディスプレイー(LCD)、スピーカー、発振器などを含む出力装置607と、例えば磁気テープ、ハードディスクなどを含む記憶装置608と、通信装置609と、がI/Oインタフェース605に接続されていてもよい。通信装置609は、電子機器600が他のデバイスと無線又は有線通信してデータを交換することを許可することができる。図6に各種の装置を備えた電子機器600が示されているが、示された装置の全てを実施したり具備したりすることを要求する意図がないことを理解されたい。それ以上又は以下の装置を代替的に実施したり具備したりすることが可能である。
特に、本開示の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本開示の実施例はコンピュータプログラム製品を含み、それは非一時的なコンピュータ読み取り可能な媒体に搭載されたコンピュータプログラムを含み、当該コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは通信装置609によってネットワークからダウンロード及びインストールされ、又は記憶装置608からインストールされ、又はROM 602からインストールされ得る。該コンピュータプログラムが処理装置601によって実行される時に、本開示の実施例の方法で限定された上記機能が実行される。
なお、本開示における上記コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体、又はコンピュータ読み取り可能な記憶媒体、又は上記両者の任意の組み合わせであってもよい。コンピュータ読み取り可能な記憶媒体は、例えば、電気、磁気、光、電磁、赤外線又は半導体のシステム、装置又はデバイス、或いはこれらの任意の組み合わせであってもよいが、それらに限らない。コンピュータ読み取り可能な記憶媒体は、より具体的な例として、1つ又は複数の導線を有する電気接続、携帯型コンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置又はこれらの任意の適切な組み合わせを含んでもよいが、それらに限らない。本開示では、コンピュータ読み取り可能な記憶媒体は、プログラムを含む或いは記憶するいかなる有形媒体であってもよく、該プログラムはコマンド実行システム、装置又はデバイスに使用されるか、それらと組み合わせて使用されることが可能である。本開示では、コンピュータ読み取り可能な信号媒体は、ベースバンドで伝播されるデータ信号又は搬送波の一部として伝播されるデータ信号を含んでもよく、その中にコンピュータ読み取り可能なプログラムコードを搭載した。このように伝播されるデータ信号は多種の形式を採用してもよく、電磁信号、光信号又はこれらの任意の適切な組み合わせを含むが、それらに限らない。コンピュータ読み取り可能な信号媒体は、更にコンピュータ読み取り可能な記憶媒体以外の任意のコンピュータ読み取り可能な媒体であってもよく、該コンピュータ読み取り可能な信号媒体は、コマンド実行システム、装置又はデバイスに使用されるかそれらと組み合わせて使用されるプログラムを送信、伝播又は伝送することができる。コンピュータ読み取り可能な媒体に含まれるプログラムコードは任意の適切な媒体で伝送可能であり、電線、光ケーブル、RF(ラジオ周波数)など、又はこれらの任意の適切な組み合わせを含んでもよいが、それらに限らない。
いくつかの実施形態において、クライアント、サーバは、HTTP(HyperText Transfer Protocol、ハイパーテキスト転送プロトコル)などの任意の現在既知の又は将来開発されるネットワークプロトコルを用いて通信することができ、任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)と相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、インターネット(例えば、Internet)及びエンドツーエンドネットワーク(例えば、ad hocエンドツーエンドネットワーク)、並びに現在既知の又は将来開発される任意のネットワークを含む。
上記コンピュータ読み取り可能な媒体は上記電子機器に含まれるものであってもよいし、該電子機器に実装されていなく単独したものであってもよい。
上記コンピュータ読み取り可能な媒体には、1つ又は複数のプログラムが搭載されており、上記1つ又は複数のプログラムが該電子機器によって実行されると、該電子機器に、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得ることと、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を実行させる。
本開示の操作を実行するためのコンピュータプログラムコードは、1種又は多種のプログラミング言語又はそれらの組み合わせを用いて作成されることが可能であり、上記プログラミング言語は、オブジェクト指向のプログラミング言語、例えばJava、Smalltalk、C++を含み、更に一般の手続き型プログラミング言語、例えば「C」言語又は類似的なプログラミング言語を含むが、それらに限らない。プログラムコードは、完全にユーザコンピュータで実行されたり、部分的にユーザコンピュータで実行されたり、独立したソフトウェアパッケージとして実行されたり、一部がユーザコンピュータで一部がリモートコンピュータで実行されたり、完全にリモートコンピュータ又はサーバで実行されたりすることができる。リモートコンピュータの場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意のネットワークによってユーザコンピュータに接続でき、又は、外部コンピュータに接続できる(例えば、インターネットサービスプロバイダーを用いてインターネット経由で接続する)。
添付図面のうちフローチャート及びブロック図は本開示の各種の実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び動作を示す。この点では、フローチャート又はブロック図における各ブロックは、一つのモジュール、プログラムセグメント、又はコードの一部分を代表することができ、該モジュール、プログラムセグメント、又はコードの一部分は、指定された論理機能を実現するための1つ又は複数の実行可能命令を含む。なお、いくつかの置換としての実現では、ブロックに表記される機能は図面に付したものと異なる順序で実現されてもよい。例えば、二つの連続的に示されたブロックは実質的に基本的に並列に実行されてもよく、また、係る機能によって、それらは逆な順序で実行されてもよい場合がある。なお、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、指定される機能又は操作を実行するハードウェアに基づく専用システムによって実現されてもよいし、又は専用ハードウェアとコンピュータ命令との組み合わせによって実現されてもよいことに注意すべきである。
本開示の実施例に係るユニットはソフトウェアで実現されてもよいし、ハードウェアで実現されてもよい。ここで、ユニットの名称は、ある場合には該ユニット自身に対する限定とはならない。
本明細書で上述された機能は、少なくとも部分的に1つ又は複数のハードウェア論理構成要素によって実行され得る。例えば、使用可能な例示的なハードウェア論理構成要素は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブル論理装置(CPLD)などを含むが、それらに限らない。
本開示の説明において、機器読み取り可能な媒体は、有形媒体であってもよく、コマンド実行システム、装置又はデバイスによって使用され、もしくはコマンド実行システム、装置又はデバイスと組み合わせて使用されるプログラムを含んだり記憶したりすることができる。機器読み取り可能な媒体は、機器読み取り可能な信号媒体又は機器読み取り可能な記憶媒体であり得る。機器読み取り可能な媒体は、電子的、磁気的、光学的、電磁的、赤外線の媒体、又は半導体システム、装置もしくはデバイス、又は上記の任意の好適な組み合わせを含み得るが、それらに限らない。機器読み取り可能な記憶媒体のより具体的な例は、1つ又は複数の配線に基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
本開示の実施例は、コンピュータによって実行されると前記コンピュータに本開示の実施例による画像処理方法を実行させるコンピュータプログラムをさらに提供する。
本開示の1つ又は複数の実施例によれば、
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法を提供する。
さらに、前記の、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することは、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、を含む。
さらに、前記の、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることは、
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
さらに、前記の、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む。
さらに、前記の、前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
さらに、前記の、前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
さらに、第3のビデオフレーム画像を得た後、
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB色空間からHSV色空間に変換することと、
前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む。
本開示の1つ又は複数の実施例によれば、
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するための対象識別モジュールと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置を提供する。
さらに、前記対象識別モジュールは、さらに、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、に用いられる。
さらに、前記第2のビデオフレーム画像生成モジュールは、
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
さらに、前記第2のビデオフレーム画像生成モジュールは、さらに、
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる。
さらに、前記の、前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
さらに、前記の、前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
さらに、前記画像処理装置は、
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールを、さらに含む。
本開示の1つ又は複数の実施例によれば、コンピュータによって実行されると前記コンピュータに本開示の実施例による画像処理方法を実行させるコンピュータプログラムを提供する。
上述したのは本開示の実施例及び適用する技術原理の説明に過ぎない。本開示に係る開示の範囲は、上記技術特徴の特定組合による技術案に限定されなく、上記開示の構想を逸脱することなく上記技術特徴又はそれと同等な特徴を任意に組み合わせて形成した他の技術案をも含むべきであることは、当業者にとって自明である。例えば、上記特徴と本開示に開示された(それらに限らない)類似的な機能を有する技術的特徴を互いに取り替えて形成した技術案をも含む。
また、各操作は、特定の順序で記述されているが、これは、そのような操作が、示されている特定の順序で又は順次的な順序で実行されることを求めていると理解されるべきではない。一定の環境では、マルチタスク及び並行処理が有利であり得る。同様に、若干の具体的な実現の詳細が上記の記述に含まれているが、それらは、本開示の範囲を制限するものとして解釈されるべきではない。単一の実施例のコンテキストで記載されている特定の特徴は、単一の実施例において組み合わせて実現可能である。逆に、単一の実施例のコンテキストで記載されている様々な特徴は、複数の実施例で別々に、又は何らかの適切なサブコンビネーションで実現可能でもある。
本主題は、構造的特徴及び/又は方法論理動作に特有の言語で記述されたが、添付の特許請求の範囲に限定された主題は、必ずしも上記で記述された特定の特徴又は動作に限定されないことを理解されたい。むしろ、上述された特定の特徴及び動作は、特許請求の範囲を実現する例示的な形態に過ぎない。

Claims (17)

  1. 第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
    前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
    前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法。
  2. 前記の第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することは、
    前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
    前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
    前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、を含む請求項1に記載の画像処理方法。
  3. 前記の前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることは、
    前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
    前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む請求項2に記載の画像処理方法。
  4. 前記の前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
    前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
    前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
    前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む請求項1~3のいずれか1項に記載の画像処理方法。
  5. 前記の前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
    前記第1の対象のヨー角とピッチ角とを取得することであって、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
    前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む請求項4に記載の画像処理方法。
  6. 前記の前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
    前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
    前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む請求項4又は5に記載の画像処理方法。
  7. 第3のビデオフレーム画像を得た後、
    前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB色空間からHSV色空間に変換することと、
    前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
    前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む請求項1~6のいずれか1項に記載の画像処理方法。
  8. 第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するための対象識別モジュールと、
    前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
    前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置。
  9. 前記対象識別モジュールは、さらに、
    前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
    前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
    前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、に用いられる請求項8に記載の画像処理装置。
  10. 前記第2のビデオフレーム画像生成モジュールは、
    前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
    前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む請求項9に記載の画像処理装置。
  11. 前記第2のビデオフレーム画像生成モジュールは、さらに、
    前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
    前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
    前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる請求項8~10のいずれか1項に記載の画像処理装置。
  12. 前記の前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
    前記第1の対象のヨー角とピッチ角とを取得することであって、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
    前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む請求項11に記載の画像処理装置。
  13. 前記の前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
    前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
    前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む請求項11又は12に記載の画像処理装置。
  14. 前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールを、さらに含む請求項8~13のいずれか1項に記載の画像処理装置。
  15. コンピュータ読み取り可能な命令を記憶するためのメモリと、
    前記コンピュータ読み取り可能な命令を実行するためのプロセッサであって、前記プロセッサが実行すると請求項1~7のいずれか1項に記載の画像処理方法を実現させるプロセッサと、を含む電子機器。
  16. コンピュータ読み取り可能な命令を記憶するために用いられ、前記コンピュータ読み取り可能な命令がコンピュータによって実行されると、前記コンピュータに請求項1~7のいずれか1項に記載の画像処理方法を実行させる、非一時的なコンピュータ読み取り可能な記憶媒体。
  17. コンピュータによって実行されると、前記コンピュータに請求項1~7のいずれか1項に記載の画像処理方法を実行させることを特徴とするコンピュータプログラム。
JP2022537296A 2019-12-18 2020-12-16 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Active JP7214926B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911306421.6A CN112991147B (zh) 2019-12-18 2019-12-18 图像处理方法、装置、电子设备及计算机可读存储介质
CN201911306421.6 2019-12-18
PCT/CN2020/136993 WO2021121291A1 (zh) 2019-12-18 2020-12-16 图像处理方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP7214926B1 true JP7214926B1 (ja) 2023-01-30
JP2023504926A JP2023504926A (ja) 2023-02-07

Family

ID=76343710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022537296A Active JP7214926B1 (ja) 2019-12-18 2020-12-16 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体

Country Status (10)

Country Link
US (1) US11651529B2 (ja)
EP (1) EP4060611A4 (ja)
JP (1) JP7214926B1 (ja)
KR (1) KR102534449B1 (ja)
CN (1) CN112991147B (ja)
AU (1) AU2020404293B2 (ja)
BR (1) BR112022012014A2 (ja)
CA (1) CA3162058A1 (ja)
MX (1) MX2022007700A (ja)
WO (1) WO2021121291A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031745A (ja) 2003-07-07 2005-02-03 Pioneer Electronic Corp 画像処理装置、画像処理方法および画像処理プログラム
CN109410119A (zh) 2017-08-18 2019-03-01 北京凤凰都市互动科技有限公司 面具图像变形方法及其系统
JP2019527410A (ja) 2016-06-30 2019-09-26 フィッティングボックス 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620038B2 (en) * 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
CN103116902A (zh) * 2011-11-16 2013-05-22 华为软件技术有限公司 三维虚拟人头像生成方法、人头像运动跟踪方法和装置
CN104797165A (zh) * 2013-08-30 2015-07-22 松下知识产权经营株式会社 化妆辅助装置、化妆辅助方法以及化妆辅助程序
JP6304999B2 (ja) * 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP6287337B2 (ja) * 2014-02-28 2018-03-07 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN104899825B (zh) 2014-03-06 2019-07-05 腾讯科技(深圳)有限公司 一种对图片人物造型的方法和装置
CN104103254B (zh) * 2014-08-12 2016-04-13 深圳市华星光电技术有限公司 提高wrgb色彩饱和度的方法
CN105100775B (zh) * 2015-07-29 2017-12-05 努比亚技术有限公司 一种图像处理方法及装置、终端
WO2018003421A1 (ja) * 2016-06-30 2018-01-04 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
CN108073936B (zh) * 2016-11-15 2024-04-19 北京三星通信技术研究有限公司 目标跟踪方法、装置及设备
CN108957742B (zh) * 2017-05-19 2021-09-03 深圳市易瞳科技有限公司 一种实现画面虚拟透明动态调节的增强现实头盔及方法
CN107330408B (zh) * 2017-06-30 2021-04-20 北京乐蜜科技有限责任公司 视频处理方法、装置、电子设备及存储介质
WO2019014646A1 (en) * 2017-07-13 2019-01-17 Shiseido Americas Corporation REMOVAL OF VIRTUAL FACIAL MAKE-UP, FAST FACIAL DETECTION AND TRACK POINT TRACKING
CN107563962A (zh) * 2017-09-08 2018-01-09 北京奇虎科技有限公司 视频数据实时处理方法及装置、计算设备
CN107680105B (zh) * 2017-10-12 2021-05-25 北京奇虎科技有限公司 基于虚拟世界的视频数据实时处理方法及装置、计算设备
CN107820027A (zh) * 2017-11-02 2018-03-20 北京奇虎科技有限公司 视频人物装扮方法、装置、计算设备及计算机存储介质
CN107808372B (zh) * 2017-11-02 2022-01-28 北京奇虎科技有限公司 图像穿越处理方法、装置、计算设备及计算机存储介质
CN108171716B (zh) * 2017-12-25 2021-11-26 北京奇虎科技有限公司 基于自适应跟踪框分割的视频人物装扮方法及装置
US20190206753A1 (en) 2017-12-30 2019-07-04 Intel Corporation Bicontinuous porous ceramic composite for semiconductor package applications
CN108416835B (zh) * 2018-01-31 2022-07-05 福建天晴在线互动科技有限公司 一种脸部特效的实现方法及终端
EP3534333A1 (en) * 2018-02-28 2019-09-04 Aptiv Technologies Limited Method for calibrating the position and orientation of a camera relative to a calibration pattern
US10762665B2 (en) * 2018-05-23 2020-09-01 Perfect Corp. Systems and methods for performing virtual application of makeup effects based on a source image
US20200082158A1 (en) * 2018-09-10 2020-03-12 Algomus, Inc. Facial image makeup transfer system
CN109658420A (zh) * 2018-11-21 2019-04-19 深圳艺达文化传媒有限公司 短视频的换脸方法及相关产品
RU2703327C1 (ru) 2018-12-10 2019-10-16 Самсунг Электроникс Ко., Лтд. Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
WO2020122513A1 (ko) 2018-12-10 2020-06-18 삼성전자주식회사 2차원 이미지 처리 방법 및 이 방법을 실행하는 디바이스
CN110062176B (zh) * 2019-04-12 2020-10-30 北京字节跳动网络技术有限公司 生成视频的方法、装置、电子设备和计算机可读存储介质
CN110475150B (zh) * 2019-09-11 2021-10-08 广州方硅信息技术有限公司 虚拟礼物特效的渲染方法和装置、直播系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031745A (ja) 2003-07-07 2005-02-03 Pioneer Electronic Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2019527410A (ja) 2016-06-30 2019-09-26 フィッティングボックス 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法
CN109410119A (zh) 2017-08-18 2019-03-01 北京凤凰都市互动科技有限公司 面具图像变形方法及其系统

Also Published As

Publication number Publication date
JP2023504926A (ja) 2023-02-07
AU2020404293B2 (en) 2023-09-28
AU2020404293A1 (en) 2022-07-07
US11651529B2 (en) 2023-05-16
WO2021121291A1 (zh) 2021-06-24
CN112991147A (zh) 2021-06-18
CA3162058A1 (en) 2021-06-24
EP4060611A4 (en) 2023-01-18
EP4060611A1 (en) 2022-09-21
CN112991147B (zh) 2023-10-27
US20220319062A1 (en) 2022-10-06
KR102534449B1 (ko) 2023-05-26
MX2022007700A (es) 2022-09-19
KR20220099584A (ko) 2022-07-13
BR112022012014A2 (pt) 2022-08-30

Similar Documents

Publication Publication Date Title
CN111242881B (zh) 显示特效的方法、装置、存储介质及电子设备
WO2021208648A1 (zh) 虚拟对象调整方法、装置、存储介质与增强现实设备
CN112989904B (zh) 风格图像生成方法、模型训练方法、装置、设备和介质
WO2015070668A1 (en) Image processing method and apparatus
KR20170017700A (ko) 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
WO2021139382A1 (zh) 人脸图像的处理方法、装置、可读介质和电子设备
WO2020248900A1 (zh) 全景视频的处理方法、装置及存储介质
US9766458B2 (en) Image generating system, image generating method, and information storage medium
WO2019076348A1 (zh) 一种虚拟现实vr界面生成的方法和装置
WO2023138559A1 (zh) 虚拟现实交互方法、装置、设备和存储介质
WO2023207379A1 (zh) 图像处理方法、装置、设备及存储介质
CN114900625A (zh) 虚拟现实空间的字幕渲染方法、装置、设备及介质
CN110047126B (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN109816791B (zh) 用于生成信息的方法和装置
US20230103814A1 (en) Image Processing Systems and Methods
JP7214926B1 (ja) 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体
CN116563740A (zh) 基于扩展现实的控制方法、装置、电子设备和存储介质
RU2802724C1 (ru) Способ и устройство обработки изображений, электронное устройство и машиночитаемый носитель информации
WO2021073204A1 (zh) 对象的显示方法、装置、电子设备及计算机可读存储介质
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
CN117152385A (zh) 图像处理方法、装置、电子设备及存储介质
JP2023542598A (ja) 文字の表示方法、装置、電子機器及び記憶媒体
CN117435041A (zh) 信息交互方法、装置、电子设备和存储介质
CN115770386A (zh) 控制运动物体运动的方法、装置、设备及介质
CN117459745A (zh) 信息交互方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220620

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230118

R150 Certificate of patent or registration of utility model

Ref document number: 7214926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150