JP7214926B1 - 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents
画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP7214926B1 JP7214926B1 JP2022537296A JP2022537296A JP7214926B1 JP 7214926 B1 JP7214926 B1 JP 7214926B1 JP 2022537296 A JP2022537296 A JP 2022537296A JP 2022537296 A JP2022537296 A JP 2022537296A JP 7214926 B1 JP7214926 B1 JP 7214926B1
- Authority
- JP
- Japan
- Prior art keywords
- video frame
- frame image
- image
- keypoints
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 abstract description 16
- 230000000694 effects Effects 0.000 abstract description 14
- 238000010586 diagram Methods 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000219109 Citrullus Species 0.000 description 1
- 235000012828 Citrullus lanatus var citroides Nutrition 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N2005/2726—Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本開示は、2019年12月18日に中国特許局に提出された、出願番号が201911306421.6であり、出願の名称が「画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体」である中国特許出願の優先権を主張し、その内容の全てが参照によって本開示に組み込まれる。
本開示は、画像処理分野に関し、特に画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法を提供する。
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象と、を識別するための対象識別モジュールと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置を提供する。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが前記第一の側面のいずれかの前記画像処理方法を実行できるようにした、電子機器を提供する。
ステップS101:第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別する。
ステップS103:前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得る。
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB(Red、Green、Blue;赤、緑、青)色空間からHSV HSV(Hue、Saturation、Value;色相、彩度、明度)色空間に変換することと、
前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む。
対象識別モジュール501は、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するためのものであり、
第2のビデオフレーム画像生成モジュール502は、前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るためのものであり、
第3のビデオフレーム生成モジュール503は、前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るためのものである。
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象のエッジキーポイントである前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することと、に用いられる。
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる。
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールをさらに含む。
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法を提供する。
さらに、前記の、第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することは、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、を含む。
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む。
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB色空間からHSV色空間に変換することと、
前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む。
第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するための対象識別モジュールと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置を提供する。
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、に用いられる。
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む。
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる。
前記第1の対象のヨー角とピッチ角とを取得し、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む。
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む。
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールを、さらに含む。
上述したのは本開示の実施例及び適用する技術原理の説明に過ぎない。本開示に係る開示の範囲は、上記技術特徴の特定組合による技術案に限定されなく、上記開示の構想を逸脱することなく上記技術特徴又はそれと同等な特徴を任意に組み合わせて形成した他の技術案をも含むべきであることは、当業者にとって自明である。例えば、上記特徴と本開示に開示された(それらに限らない)類似的な機能を有する技術的特徴を互いに取り替えて形成した技術案をも含む。
また、各操作は、特定の順序で記述されているが、これは、そのような操作が、示されている特定の順序で又は順次的な順序で実行されることを求めていると理解されるべきではない。一定の環境では、マルチタスク及び並行処理が有利であり得る。同様に、若干の具体的な実現の詳細が上記の記述に含まれているが、それらは、本開示の範囲を制限するものとして解釈されるべきではない。単一の実施例のコンテキストで記載されている特定の特徴は、単一の実施例において組み合わせて実現可能である。逆に、単一の実施例のコンテキストで記載されている様々な特徴は、複数の実施例で別々に、又は何らかの適切なサブコンビネーションで実現可能でもある。
Claims (17)
- 第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることであって、そのうち、前記第2のビデオフレーム画像において前記第3の対象が前記第1の対象を覆ったことと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む画像処理方法。 - 前記の第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別することは、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、を含む請求項1に記載の画像処理方法。 - 前記の前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、第2のビデオフレーム画像を得ることは、
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む請求項2に記載の画像処理方法。 - 前記の前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、を含む請求項1~3のいずれか1項に記載の画像処理方法。 - 前記の前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
前記第1の対象のヨー角とピッチ角とを取得することであって、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む請求項4に記載の画像処理方法。 - 前記の前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む請求項4又は5に記載の画像処理方法。 - 第3のビデオフレーム画像を得た後、
前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間を、RGB色空間からHSV色空間に変換することと、
前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、
前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、をさらに含む請求項1~6のいずれか1項に記載の画像処理方法。 - 第1のビデオフレーム画像における第1の対象と、前記第1の対象内に位置する第2の対象とを識別するための対象識別モジュールと、
前記第1の対象の前記第1のビデオフレーム画像における位置に基づいて、第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第3の対象が前記第1の対象を覆った第2のビデオフレーム画像を得るための第2のビデオフレーム画像生成モジュールと、
前記第2の対象の前記第1のビデオフレーム画像における位置に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得るための第3のビデオフレーム生成モジュールと、を含む画像処理装置。 - 前記対象識別モジュールは、さらに、
前記第1のビデオフレーム画像において前記第1の対象の複数の第1のキーポイントと前記第2の対象の複数の第2のキーポイントとを識別することと、
前記第1の対象の複数の第1のキーポイントに基づいて前記第1の対象を識別することと、
前記第2の対象の複数の第2のキーポイントに基づいて、前記第2の対象を識別することであって、そのうち、前記複数の第2のキーポイントは前記第2の対象のエッジキーポイントであることと、に用いられる請求項8に記載の画像処理装置。 - 前記第2のビデオフレーム画像生成モジュールは、
前記第1のビデオフレーム画像における前記第1の対象の複数の第1のキーポイントに基づいて、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントを算出することと、
前記第3の対象のポジショニングポイントと、前記第1のビデオフレーム画像における前記第1の対象のポジショニングポイントとをアライメントすることにより、前記第3の対象を前景画像として前記第1のビデオフレーム画像上にオーバーレイして、前記第2のビデオフレーム画像を得ることと、を含む請求項9に記載の画像処理装置。 - 前記第2のビデオフレーム画像生成モジュールは、さらに、
前記第1の対象上に予め設定された2つのキーポイント間の第1の距離を算出することと、
前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することと、
前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることと、に用いられる請求項8~10のいずれか1項に記載の画像処理装置。 - 前記の前記第1の距離に基づいて、前記第2の対象のオフセット量を算出することは、
前記第1の対象のヨー角とピッチ角とを取得することであって、そのうち、前記ヨー角は、前記第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との水平夾角であり、前記ピッチ角は、第1の対象の前記第1のビデオフレーム画像における向きとレンズ撮影方向との垂直夾角であることと、
前記第1の距離、ヨー角及びピッチ角に基づいて前記第2の対象のオフセット量を算出することと、を含む請求項11に記載の画像処理装置。 - 前記の前記第2の対象の前記第1のビデオフレーム画像における位置及び前記第2の対象のオフセット量に基づいて、前記第2の対象を前景画像として前記第2のビデオフレーム画像における第3の対象上に重ね合わせて、第3のビデオフレーム画像を得ることは、
前記第2の対象のオフセット量に基づいて、前記第2の対象の前記第1のビデオフレーム画像における初期ポジショニングポイントを位置シフトさせて目標ポジショニングポイントを得ることと、
前記第2のビデオフレーム画像において、前記第2の対象を前景画像として前記目標ポジショニングポイントの位置にレンダリングして、前記第3のビデオフレーム画像を得ることと、を含む請求項11又は12に記載の画像処理装置。 - 前記第3のビデオフレーム画像における第2の対象及び第3の対象の色空間をRGB色空間からHSV色空間に変換することと、前記第2の対象のHSV色空間におけるHチャネルの値を前記第3の対象のHチャネルの値に置き換えることと、前記第2の対象及び第3の対象の色空間をHSV空間からRGB色空間に変換して第4のビデオフレーム画像を得ることと、に用いられる第4のビデオ画像生成モジュールを、さらに含む請求項8~13のいずれか1項に記載の画像処理装置。
- コンピュータ読み取り可能な命令を記憶するためのメモリと、
前記コンピュータ読み取り可能な命令を実行するためのプロセッサであって、前記プロセッサが実行すると請求項1~7のいずれか1項に記載の画像処理方法を実現させるプロセッサと、を含む電子機器。 - コンピュータ読み取り可能な命令を記憶するために用いられ、前記コンピュータ読み取り可能な命令がコンピュータによって実行されると、前記コンピュータに請求項1~7のいずれか1項に記載の画像処理方法を実行させる、非一時的なコンピュータ読み取り可能な記憶媒体。
- コンピュータによって実行されると、前記コンピュータに請求項1~7のいずれか1項に記載の画像処理方法を実行させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911306421.6A CN112991147B (zh) | 2019-12-18 | 2019-12-18 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN201911306421.6 | 2019-12-18 | ||
PCT/CN2020/136993 WO2021121291A1 (zh) | 2019-12-18 | 2020-12-16 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7214926B1 true JP7214926B1 (ja) | 2023-01-30 |
JP2023504926A JP2023504926A (ja) | 2023-02-07 |
Family
ID=76343710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022537296A Active JP7214926B1 (ja) | 2019-12-18 | 2020-12-16 | 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 |
Country Status (10)
Country | Link |
---|---|
US (1) | US11651529B2 (ja) |
EP (1) | EP4060611A4 (ja) |
JP (1) | JP7214926B1 (ja) |
KR (1) | KR102534449B1 (ja) |
CN (1) | CN112991147B (ja) |
AU (1) | AU2020404293B2 (ja) |
BR (1) | BR112022012014A2 (ja) |
CA (1) | CA3162058A1 (ja) |
MX (1) | MX2022007700A (ja) |
WO (1) | WO2021121291A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031745A (ja) | 2003-07-07 | 2005-02-03 | Pioneer Electronic Corp | 画像処理装置、画像処理方法および画像処理プログラム |
CN109410119A (zh) | 2017-08-18 | 2019-03-01 | 北京凤凰都市互动科技有限公司 | 面具图像变形方法及其系统 |
JP2019527410A (ja) | 2016-06-30 | 2019-09-26 | フィッティングボックス | 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8620038B2 (en) * | 2006-05-05 | 2013-12-31 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
CN103116902A (zh) * | 2011-11-16 | 2013-05-22 | 华为软件技术有限公司 | 三维虚拟人头像生成方法、人头像运动跟踪方法和装置 |
CN104797165A (zh) * | 2013-08-30 | 2015-07-22 | 松下知识产权经营株式会社 | 化妆辅助装置、化妆辅助方法以及化妆辅助程序 |
JP6304999B2 (ja) * | 2013-10-09 | 2018-04-04 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
JP6287337B2 (ja) * | 2014-02-28 | 2018-03-07 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、画像処理システムおよびプログラム |
CN104899825B (zh) | 2014-03-06 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 一种对图片人物造型的方法和装置 |
CN104103254B (zh) * | 2014-08-12 | 2016-04-13 | 深圳市华星光电技术有限公司 | 提高wrgb色彩饱和度的方法 |
CN105100775B (zh) * | 2015-07-29 | 2017-12-05 | 努比亚技术有限公司 | 一种图像处理方法及装置、终端 |
WO2018003421A1 (ja) * | 2016-06-30 | 2018-01-04 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
CN108073936B (zh) * | 2016-11-15 | 2024-04-19 | 北京三星通信技术研究有限公司 | 目标跟踪方法、装置及设备 |
CN108957742B (zh) * | 2017-05-19 | 2021-09-03 | 深圳市易瞳科技有限公司 | 一种实现画面虚拟透明动态调节的增强现实头盔及方法 |
CN107330408B (zh) * | 2017-06-30 | 2021-04-20 | 北京乐蜜科技有限责任公司 | 视频处理方法、装置、电子设备及存储介质 |
WO2019014646A1 (en) * | 2017-07-13 | 2019-01-17 | Shiseido Americas Corporation | REMOVAL OF VIRTUAL FACIAL MAKE-UP, FAST FACIAL DETECTION AND TRACK POINT TRACKING |
CN107563962A (zh) * | 2017-09-08 | 2018-01-09 | 北京奇虎科技有限公司 | 视频数据实时处理方法及装置、计算设备 |
CN107680105B (zh) * | 2017-10-12 | 2021-05-25 | 北京奇虎科技有限公司 | 基于虚拟世界的视频数据实时处理方法及装置、计算设备 |
CN107820027A (zh) * | 2017-11-02 | 2018-03-20 | 北京奇虎科技有限公司 | 视频人物装扮方法、装置、计算设备及计算机存储介质 |
CN107808372B (zh) * | 2017-11-02 | 2022-01-28 | 北京奇虎科技有限公司 | 图像穿越处理方法、装置、计算设备及计算机存储介质 |
CN108171716B (zh) * | 2017-12-25 | 2021-11-26 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
US20190206753A1 (en) | 2017-12-30 | 2019-07-04 | Intel Corporation | Bicontinuous porous ceramic composite for semiconductor package applications |
CN108416835B (zh) * | 2018-01-31 | 2022-07-05 | 福建天晴在线互动科技有限公司 | 一种脸部特效的实现方法及终端 |
EP3534333A1 (en) * | 2018-02-28 | 2019-09-04 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
US10762665B2 (en) * | 2018-05-23 | 2020-09-01 | Perfect Corp. | Systems and methods for performing virtual application of makeup effects based on a source image |
US20200082158A1 (en) * | 2018-09-10 | 2020-03-12 | Algomus, Inc. | Facial image makeup transfer system |
CN109658420A (zh) * | 2018-11-21 | 2019-04-19 | 深圳艺达文化传媒有限公司 | 短视频的换脸方法及相关产品 |
RU2703327C1 (ru) | 2018-12-10 | 2019-10-16 | Самсунг Электроникс Ко., Лтд. | Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя |
WO2020122513A1 (ko) | 2018-12-10 | 2020-06-18 | 삼성전자주식회사 | 2차원 이미지 처리 방법 및 이 방법을 실행하는 디바이스 |
CN110062176B (zh) * | 2019-04-12 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 生成视频的方法、装置、电子设备和计算机可读存储介质 |
CN110475150B (zh) * | 2019-09-11 | 2021-10-08 | 广州方硅信息技术有限公司 | 虚拟礼物特效的渲染方法和装置、直播系统 |
-
2019
- 2019-12-18 CN CN201911306421.6A patent/CN112991147B/zh active Active
-
2020
- 2020-12-16 JP JP2022537296A patent/JP7214926B1/ja active Active
- 2020-12-16 CA CA3162058A patent/CA3162058A1/en active Pending
- 2020-12-16 KR KR1020227023064A patent/KR102534449B1/ko active IP Right Grant
- 2020-12-16 WO PCT/CN2020/136993 patent/WO2021121291A1/zh unknown
- 2020-12-16 MX MX2022007700A patent/MX2022007700A/es unknown
- 2020-12-16 EP EP20902504.8A patent/EP4060611A4/en active Pending
- 2020-12-16 BR BR112022012014A patent/BR112022012014A2/pt unknown
- 2020-12-16 AU AU2020404293A patent/AU2020404293B2/en active Active
-
2022
- 2022-06-17 US US17/843,248 patent/US11651529B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031745A (ja) | 2003-07-07 | 2005-02-03 | Pioneer Electronic Corp | 画像処理装置、画像処理方法および画像処理プログラム |
JP2019527410A (ja) | 2016-06-30 | 2019-09-26 | フィッティングボックス | 画像又はビデオ内の物体を隠す方法及び関連する拡張現実方法 |
CN109410119A (zh) | 2017-08-18 | 2019-03-01 | 北京凤凰都市互动科技有限公司 | 面具图像变形方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2023504926A (ja) | 2023-02-07 |
AU2020404293B2 (en) | 2023-09-28 |
AU2020404293A1 (en) | 2022-07-07 |
US11651529B2 (en) | 2023-05-16 |
WO2021121291A1 (zh) | 2021-06-24 |
CN112991147A (zh) | 2021-06-18 |
CA3162058A1 (en) | 2021-06-24 |
EP4060611A4 (en) | 2023-01-18 |
EP4060611A1 (en) | 2022-09-21 |
CN112991147B (zh) | 2023-10-27 |
US20220319062A1 (en) | 2022-10-06 |
KR102534449B1 (ko) | 2023-05-26 |
MX2022007700A (es) | 2022-09-19 |
KR20220099584A (ko) | 2022-07-13 |
BR112022012014A2 (pt) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242881B (zh) | 显示特效的方法、装置、存储介质及电子设备 | |
WO2021208648A1 (zh) | 虚拟对象调整方法、装置、存储介质与增强现实设备 | |
CN112989904B (zh) | 风格图像生成方法、模型训练方法、装置、设备和介质 | |
WO2015070668A1 (en) | Image processing method and apparatus | |
KR20170017700A (ko) | 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법 | |
WO2021139382A1 (zh) | 人脸图像的处理方法、装置、可读介质和电子设备 | |
WO2020248900A1 (zh) | 全景视频的处理方法、装置及存储介质 | |
US9766458B2 (en) | Image generating system, image generating method, and information storage medium | |
WO2019076348A1 (zh) | 一种虚拟现实vr界面生成的方法和装置 | |
WO2023138559A1 (zh) | 虚拟现实交互方法、装置、设备和存储介质 | |
WO2023207379A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114900625A (zh) | 虚拟现实空间的字幕渲染方法、装置、设备及介质 | |
CN110047126B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
US20230103814A1 (en) | Image Processing Systems and Methods | |
JP7214926B1 (ja) | 画像処理方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 | |
CN116563740A (zh) | 基于扩展现实的控制方法、装置、电子设备和存储介质 | |
RU2802724C1 (ru) | Способ и устройство обработки изображений, электронное устройство и машиночитаемый носитель информации | |
WO2021073204A1 (zh) | 对象的显示方法、装置、电子设备及计算机可读存储介质 | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
CN117152385A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP2023542598A (ja) | 文字の表示方法、装置、電子機器及び記憶媒体 | |
CN117435041A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
CN115770386A (zh) | 控制运动物体运动的方法、装置、设备及介质 | |
CN117459745A (zh) | 信息交互方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220620 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7214926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |