KR20220162776A - 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체 - Google Patents
이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체 Download PDFInfo
- Publication number
- KR20220162776A KR20220162776A KR1020227038322A KR20227038322A KR20220162776A KR 20220162776 A KR20220162776 A KR 20220162776A KR 1020227038322 A KR1020227038322 A KR 1020227038322A KR 20227038322 A KR20227038322 A KR 20227038322A KR 20220162776 A KR20220162776 A KR 20220162776A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- target
- movement
- face
- facial
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000001815 facial effect Effects 0.000 claims abstract description 201
- 238000000034 method Methods 0.000 claims abstract description 127
- 238000012545 processing Methods 0.000 claims abstract description 109
- 230000008569 process Effects 0.000 claims abstract description 108
- 238000006243 chemical reaction Methods 0.000 claims abstract description 30
- 238000006073 displacement reaction Methods 0.000 claims description 41
- 238000004590 computer program Methods 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000008859 change Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 210000000887 face Anatomy 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000283973 Oryctolagus cuniculus Species 0.000 description 2
- 241000282887 Suidae Species 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G06T3/0012—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G06T5/005—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
본 발명의 실시예는 이미지 처리 기술분야에 관한 것으로, 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체를 개시하며, 여기서, 이미지 처리 방법은, 획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계; 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계; 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계; 및 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 단계를 포함한다. 본 발명의 실시예에 따른 방법은 사용자에게 새로운 스타일의 특수 효과 이미지를 제공하여, 이미지 변화에 대한 사용자의 다양한 요구를 충족시키고, 사용자 체험과 사용자 만족도를 효과적으로 향상시킨다.
Description
본 발명은 2020년 4월 13일에 중국 지식재산권국에 제출된 출원 번호가 CN 202010287393.4인 중국 특허 출원의 우선권을 주장하는 바, 그 모든 내용은 참조로서 본 명세서에 인용된다.
본 발명의 실시예는 이미지 처리 기술분야에 관한 것으로, 구체적으로, 본 발명은 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.
최근 몇 년 동안, 지능형 단말기 기술의 발전으로, 지능형 단말기에 의해 수집된 이미지 정보에 대해 상응한 처리를 수행하는 다양한 응용 프로그램이 점점 더 많아지고 있다. 이러한 응용 프로그램은 수집된 이미지 정보에 대해 미화, 특수 효과 추가 등 처리를 수행할 수 있는데, 예를 들어 촬영된 이미지 정보 또는 셀카 과정에서의 이미지 정보에 토끼, 고양이, 돼지 등 동물 관련 이미지의 특수 효과를 추가할 수 있고, 또한 예를 들어 촬영된 이미지 정보 또는 셀카 과정에서의 이미지 정보에 대해 상이한 배경 환경을 변경하는 등 특수 효과 처리를 수행할 수 있다. 그러나, 기존의 응용 프로그램에 의한 이미지 정보 처리는 형태가 비교적 단순하고 사용자의 기본적인 요구를 어느 정도 충족시킬 수 있을 뿐이며, 사용자 요구의 증가에 따른 사용자의 다양한 요구를 충족시킬 수 없다.
본 발명의 실시예의 목적은 상술한 기술적 결함 중 적어도 하나를 해결할 수 있는 것으로, 상기 발명의 내용 부분은 구상을 간단한 형태로 설명하기 위해 제공되며, 이러한 구상은 아래의 구체적인 실시형태 부분에서 상세하게 설명된다. 상기 발명의 내용 부분은 보호받고자 하는 기술적 해결수단의 핵심 특징 또는 필수 특징을 식별하도록 의도되지 않으며, 보호받고자 하는 기술적 해결수단의 범위를 제한하려는 의도도 아니다.
일 양태에 따르면,
획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계;
제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계;
타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계; 및
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 단계를 포함하는 이미지 처리 방법을 제공한다.
다른 양태에 따르면,
획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 제1 처리 모듈;
제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 결정 모듈;
타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 제2 처리 모듈; 및
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 제3 처리 모듈을 포함하는 이미지 처리 장치를 제공한다.
또 다른 양태에 따르면, 메모리, 프로세서, 및 메모리에 저장되고 프로세서에서 실행 가능한 컴퓨터 프로그램을 포함하는 전자 기기를 제공하고, 프로세서가 상기 프로그램을 실행할 경우 상술한 이미지 처리 방법을 구현한다.
또 다른 양태에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 프로그램이 프로세서에 의해 실행될 경우 상술한 이미지 처리 방법을 구현한다.
본 발명의 실시예에 의해 제공되는 이미지 처리 방법에서, 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 변환 처리에 의해 얻은 제2 이미지에 대해 제1 이동 처리를 수행하고, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하므로, 타깃 이미지가 제1 이미지 중의 이미지 정보를 포함할 뿐만 아니라, 제1 이미지에 대해 제1 변환 처리를 수행하여 얻은 제2 이미지의 이미지 정보도 포함하도록 할 수 있으며, 타깃 이미지 중의 제1 이미지의 이미지 정보와 제2 이미지의 이미지 정보가 상이한 이미지 위치에 위치하도록 할 수 있음으로써, 사용자에게 새로운 스타일의 특수 효과 이미지를 제공하여, 이미지 변화에 대한 사용자의 다양한 요구를 충족시키고, 사용자 체험과 사용자 만족도를 효과적으로 향상시킨다.
본 발명의 실시예의 추가적인 양태 및 장점은 아래의 설명에서 부분적으로 설명될 것이고, 이들은 아래의 설명으로부터 명백해지거나 본 발명의 실시예 의해 이해될 것이다.
도면과 결부하고 아래의 구체적인 실시형태를 참조하여 본 발명의 각 실시예의 상기 및 다른 특징, 장점 및 양태가 더 명확해지도록 한다. 도면 전체에서, 동일하거나 유사한 도면의 부호는 동일하거나 유사한 요소를 나타낸다. 도면은 예시적일 뿐 부재 및 요소가 반드시 축척대로 그려지는 것은 아님을 이해해야 한다.
도 1은 본 발명의 실시예에 따른 이미지 처리 방법의 흐름 모식도이다.
도 2는 본 발명의 실시예에 따른 타깃 이미지의 모식도이다.
도 3은 본 발명의 실시예에 따른 이미지 처리 장치의 기본 구조 모식도이다.
도 4는 본 발명의 실시예에 따른 전자 기기의 구조 모식도이다.
도 1은 본 발명의 실시예에 따른 이미지 처리 방법의 흐름 모식도이다.
도 2는 본 발명의 실시예에 따른 타깃 이미지의 모식도이다.
도 3은 본 발명의 실시예에 따른 이미지 처리 장치의 기본 구조 모식도이다.
도 4는 본 발명의 실시예에 따른 전자 기기의 구조 모식도이다.
아래, 도면을 참조하여 본 발명의 실시예를 더 상세하게 설명한다. 도면에서 본 발명의 일부 실시예를 도시하였지만, 본 발명은 다양한 형태를 통해 구현될 수 있고 여기서 설명된 실시예에 의해 제한되는 것으로 해석되지 않아야 함을 이해해야 한다. 이에 반해, 이러한 실시예는 본 발명을 더 철저하고 완전하게 이해하도록 하기 위해 제공된다. 본 발명의 도면 및 실시예는 예시적인 것일 뿐 본 발명의 보호범위를 제한하지 않는 것으로 이해해야 한다.
본 발명의 방법 실시형태에 기재된 각 단계는 상이한 순서에 따라 수행되거나, 및/또는 병렬로 수행될 수 있음을 이해해야 한다. 이 밖에, 방법 실시형태는 추가적인 단계를 포함하거나, 및/또는 예시된 단계의 수행을 생략할 수 있다. 본 발명의 범위는 해당 측면에서 제한되지 않는다.
본 명세서에서 사용된 용어 "포함” 및 그 변형은 개방형 포함, 즉 "포함하지만 이에 한정되지 않음”이다. "기반”은 "적어도 부분적으로 기반”이다. 용어 "일 실시예”는 "적어도 하나의 실시예”를 의미하고; 용어 "다른 실시예”는 "적어도 하나의 다른 실시예”를 의미하며; 용어 "일부 실시예”는 "적어도 일부 실시예”를 의미한다. 다른 용어의 관련 정의는 아래의 설명에서 제공된다.
본 발명에서 언급된 "제1", "제2" 등 개념은 단지 상이한 장치, 모듈 또는 유닛을 구별하기 위해 사용되며, 이러한 장치, 모듈 또는 유닛을 반드시 상이한 장치, 모듈 또는 유닛으로 한정하기 위함이 아니고, 이러한 장치, 모듈 또는 유닛에 의해 수행되는 기능의 순서 또는 상호 의존 관계를 한정하기 위함도 아님에 유의해야 한다.
본 발명에서 언급된 "하나”, "복수 개”의 수식은 제한적인 것이 아니라 예시적임에 유의해야 하고, 당업자는 문맥상 명백하게 달리 지시하지 않는 한 "하나 이상”으로 이해되어야 함을 이해해야 한다.
본 발명의 실시형태에서 복수 개의 장치 사이에서 인터랙션되는 메시지 또는 정보의 명칭은 설명의 목적으로 사용될 뿐 이러한 메시지 또는 정보의 범위를 제한하려는 것이 아니다.
본 발명의 실시예의 목적, 기술적 해결수단 및 이점을 보다 명확하게 하기 위해, 아래에서는 도면과 결부하여 본 발명의 실시형태를 더 상세하게 설명하기로 한다.
이하, 구체적인 실시예로 본 발명의 실시예에 따른 기술적 해결수단 및 본 발명의 실시예에 따른 기술적 해결수단이 상기 기술적 과제를 해결하는 방법을 상세하게 설명한다. 아래의 구체적인 실시예는 서로 결합될 수 있고, 동일하거나 유사한 개념 또는 과정은 일부 실시예에서 더 이상 반복 설명되지 않을 수 있다. 이하, 도면과 결부하여 본 발명의 실시예를 설명하기로 한다.
본 발명의 일 실시예는 이미지 처리 방법을 제공하고, 상기 방법은 단말기에 의해 수행되며, 단말기는 데스크톱 기기를 포함하는 컴퓨터 기기 또는 이동 단말기일 수 있다. 도 1에 도시된 바와 같이, 상기 방법은,
획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계 S110; 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계 S120; 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계 S130; 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 단계 S140을 포함한다.
구체적으로, 단말 기기는 멀티미디어 수집 기기(예를 들어, 사진기, 카메라 등)를 통해 비디오 정보를 수집하고, 비디오 정보로부터 프레임을 추출하여 처리할 이미지(즉, 제1 이미지)로 사용할 수 있으며, 로컬에 사전 저장된 이미지 세트(예를 들어, 앨범)로부터 임의의 이미지를 추출하여 처리할 이미지(즉, 제1 이미지)로 사용할 수도 있고, 물론 다른 구현 가능한 형태를 통해 처리할 이미지(즉, 제1 이미지)를 획득할 수도 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다. 여기서, 제1 이미지를 획득하는 동작은 이미지를 처리하기 전에 처리할 이미지를 미리 선택하는 동작일 수 있거나, 사용자가 이미지 처리 동작을 트리거한 것을 감지한 후 처리해야 하는 이미지를 제공하거나 업로드하도록 사용자에게 상기시키는 동작일 수 있다.
구체적으로, 제1 이미지는 사람, 동물, 풍경, 물품 등을 비롯한 다양한 이미지일 수 있다. 여기서, 제1 이미지에 안면이 포함되는 경우, 제1 이미지에 대해 변환 처리(즉, 제1 변환 처리)를 수행함으로써, 변환 처리된 제1 이미지를 얻는데(즉, 제2 이미지를 얻음), 이때 단말 기기에 하나는 제1 이미지이고 다른 하나는 제2 이미지인 2개의 이미지가 있는 것과 같다. 제1 이미지에 안면이 포함되지 않는 경우, 제1 이미지에 대해 변환 처리(즉, 제1 변환 처리)를 수행하지 않으므로, 물론 제2 이미지를 얻을 수도 없다.
구체적으로, 제1 이미지는 안면을 포함하는 이미지이므로, 단말 기기는 제2 이미지를 얻은 후, 안면 윤곽, 눈, 눈썹, 입술 및 코 윤곽 등과 같은 제1 이미지 중 안면의 타깃 안면 키포인트(즉, 제1 타깃 안면 키포인트)에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 타깃 안면 키포인트(즉, 제2 타깃 안면 키포인트)의 타깃 위치를 결정할 수 있다. 일 예시에서, 제1 이미지 중 안면의 타깃 안면 키포인트에 따라 제1 이미지에서 제2 이미지의 위치를 결정할 수 있다. 여기서, 제2 타깃 안면 키포인트는 제1 타깃 안면 키포인트와 동일한 안면 키포인트일 수 있거나, 제1 타깃 안면 키포인트 중 일부분일 수 있거나, 제1 타깃 안면 키포인트와 상이한 안면 키포인트일 수 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다.
구체적으로, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치가 결정된 후, 상기 타깃 위치에 따라 제2 이미지에 대해 이동 처리(즉, 제1 이동 처리)를 수행함으로써 이동 처리된 제2 이미지를 얻을 수 있다. 일 예시에서, 제2 이미지 중 안면의 제2 타깃 안면 키포인트를 상기 타깃 위치로 이동시켜 전체 제2 이미지에 대해 이동 처리를 수행하여 이동 처리된 제2 이미지를 얻을 수 있다.
구체적으로, 이동 처리된 제2 이미지를 얻은 후, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성할 수 있음으로써, 타깃 이미지가 제1 이미지의 이미지 정보를 포함할 뿐만 아니라, 제2 이미지의 이미지 정보도 포함하도록 하고, 제1 이미지의 이미지 정보와 제2 이미지의 이미지 정보는 상이한 이미지 위치에 위치할 수 있다. 여기서의 제1 이미지는 단말 기기에 의해 획득된 처리할 이미지(원본 이미지와 같음)이다. 일 예시에서, 제1 이미지와 제1 이동 처리된 제2 이미지를 합성 처리(예를 들어, image flattening 처리 또는 image merging 처리)하여 타깃 이미지를 생성할 수 있다. 다른 예시에서, 제1 이미지를 하나의 레이어(예를 들어, 레이어 1)로 사용하고, 제1 이동 처리된 제2 이미지를 다른 하나의 레이어(예를 들어, 레이어 2)로 사용할 수 있으며, 상기 두 레이어를 중첩 처리하여 타깃 이미지를 생성하되, 중첩할 때 필요에 따라 레이어 1을 하부 레이어로 사용하고, 레이어 2를 상부 레이어로 사용할 수 있다.
본 발명의 실시예에 의해 제공되는 이미지 처리 방법에서, 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 변환 처리에 의해 얻은 제2 이미지에 대해 제1 이동 처리를 수행하고, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하므로, 타깃 이미지가 제1 이미지 중의 이미지 정보를 포함할 뿐만 아니라, 제1 이미지에 대해 제1 변환 처리를 수행하여 얻은 제2 이미지의 이미지 정보도 포함하도록 할 수 있으며, 타깃 이미지 중의 제1 이미지의 이미지 정보와 제2 이미지의 이미지 정보가 상이한 이미지 위치에 위치하도록 할 수 있음으로써, 사용자에게 새로운 스타일의 특수 효과 이미지를 제공하여, 이미지 변화에 대한 사용자의 다양한 요구를 충족시키고, 사용자 체험과 사용자 만족도를 효과적으로 향상시킨다.
가능한 일 실시형태에서, 먼저, 제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻고, 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정하며; 사전 결정된 인물 마스크에 기반하여, 제3 이미지에 대해 매팅 처리를 수행하고, 매팅 처리에 의해 얻은 이미지를 제2 이미지로 결정하는 변환 처리 과정을 통해, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻을 수 있다.
일반적으로, 사람들의 연령은 0~1세 영아, 1~4세 유아, 5~11세 아동, 12~18세 청소년, 19~35세 청년, 36~60세 중년, 및 60세 이상 노년 등과 같이 상이한 연령대로 구분할 수 있고, 물론 다른 연령대 구분 방식을 사용할 수도 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다. 여기서, 상이한 연령대의 안면의 각 얼굴 특징은 상이한데, 예를 들어, 0~1세 영아의 안면은 종종 젖살이 있고, 또한 예를 들어, 60세 이상 노년의 안면에는 주름이 많고 피부가 처져 있다. 상술한 사전 결정된 연령대 안면은 미리 선택된 임의의 연령대의 안면일 수 있는데, 예를 들어 0~1세 영아의 안면일 수 있고, 또한 예를 들어 19~35세 청년의 안면일 수 있으며, 또한 예를 들어 60세 이상 노년의 안면일 수 있다.
구체적으로, 제1 이미지에 대해 제1 변환 처리를 수행하는 과정에서, 제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻을 수 있는데, 예를 들어, 영유아 안면의 각 얼굴 특징과 일치한 각 제2 얼굴 특징을 얻을 수 있고, 또한 예를 들어, 청년 안면의 각 얼굴 특징과 일치한 각 제2 얼굴 특징을 얻을 수 있으며, 또한 예를 들어, 노년 안면의 각 얼굴 특징과 일치한 각 제2 얼굴 특징을 얻을 수 있다. 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻은 후, 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정할 수 있고, 상기 제3 이미지는 얻은 특징 변환 처리된 이미지이다. 사전 결정된 연령대 안면의 각 얼굴 특징(즉, 각 제2 얼굴 특징)에 따라 제1 이미지 중 안면의 각 얼굴 특징(즉, 각 제1 얼굴 특징)에 대해 특징 변환 처리를 각각 수행하여 특징 변환 처리된 제1 이미지(즉, 상술한 제3 이미지)를 얻는 것과 같다.
실제 적용에서, 각 연령대 안면의 각 얼굴 특징에 따라 트레이닝된 신경망(예를 들어, 생성적 적대 신경망)을 통해, 사전 결정된 연령대 안면의 각 얼굴 특징(즉, 각 제2 얼굴 특징)에 따라 제1 이미지 중 안면의 각 얼굴 특징(즉, 각 제1 얼굴 특징)에 대해 특징 변환 처리를 각각 수행할 수 있다.
일 예시에서, 제1 이미지에 복수 개의 안면(예를 들어, 2개)이 포함되는 경우, 예를 들어 각각 안면 1과 안면 2인 2개의 안면이 포함되는 경우, 이때, 타깃 안면을 결정하고, 타깃 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행할 수 있다. 안면 1이 타깃 안면이면, 안면 1의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻을 수 있고, 각 제2 얼굴 특징의 안면 1을 포함하는 이미지를 제3 이미지로 사용하며, 물론, 제3 이미지는 각 제2 얼굴 특징의 안면 1을 포함하는 이미지 이외에 안면 2를 포함하는 이미지 또는 다른 관련 이미지일 수도 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다.
구체적으로, 제3 이미지를 얻은 후, 제3 이미지에 안면이 포함된 타깃 객체에 대한 후속 처리를 더 잘 수행하기 위해, 사전 결정된 인물 마스크에 기반하여, 제3 이미지에 대해 매팅 처리를 수행하고, 안면이 포함된 타깃 객체를 제3 이미지로부터 매팅하며, 매팅 처리하여 얻은 이미지(즉, 안면이 포함된 타깃 객체의 이미지)를 제2 이미지로 결정할 수 있는데, 즉 제2 이미지는 사전 결정된 인물 마스크에 기반하여 제3 이미지로부터 매팅한 안면이 포함된 타깃 객체의 이미지이다. 제3 이미지에 복수 개의 안면이 포함되면, 예를 들어 각각 안면 1과 안면 2인 2개의 안면이 포함되고, 안면 1이 포함된 캐릭터 1이 타깃 객체이면, 이때, 사전 결정된 인물 마스크를 이용하여, 제3 이미지에 대해 매팅 처리를 수행하고, 안면이 포함된 타깃 객체(즉, 안면 1이 포함된 캐릭터 1)를 제3 이미지로부터 매팅하며, 이를 제2 이미지로 사용할 수 있다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하기 전에, 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가할 수도 있다. 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가한 후, 얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행할 수 있다.
구체적으로, 얼굴 특징에 대응되는 부가 정보는 다양한 스타일의 모자, 헤어 액세서리, 귀걸이, 안경 등일 수 있고, 토끼, 고양이, 돼지, 강아지 등 동물 관련 이미지의 부가 정보와 같은 애니메이션 효과가 있는 얼굴 특징에 대응되는 다른 부가 정보일 수도 있으며, 또한 예를 들어 코믹, 패러디 효과를 일으키는 부가 정보일 수 있고, 또한 예를 들어 "우는" 표정과 관련된 "눈물" 부가 정보, 및 애교와 관련된 다른 일부 부가 정보 등일 수 있으나, 여기서 일일이 나열하지 않는다. 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가함으로써, 제2 이미지 중의 안면이 더욱 생동적이도록 하여 재미를 어느 정도 증가시켜 사용자의 개성화 요구를 충족시킬 수 있다.
일 예시에서, 사전 결정된 연령대 안면이 0~1세 영아의 안면이면, 즉 제2 이미지에 영유아 안면의 각 얼굴 특징과 일치한 각 제2 얼굴 특징의 안면(예를 들어, 안면 3)이 포함되면, 이때 안면 3이 더욱 생동적이도록 하기 위해, 제2 이미지 중의 안면 3에 유아용 모자, 유아용 헤어 액세서리 등과 같은 영유아에 대응되는 일부 장식 아이템을 추가할 수 있다.
구체적으로, 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가한 후, 제2 이미지에 대해 제1 이동 처리를 수행하는 과정에서, 추가된 얼굴 특징에 대응되는 부가 정보에 대해서도 제1 이동 처리를 수행할 수 있는데, 즉 얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행할 수 있다.
가능한 일 실시형태에서, 제1 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트 및 16번째 안면 키포인트이고, 제2 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트이다. 여기서, 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 과정에서, 먼저, 제1 이미지 중 안면의 44번째 안면 키포인트에서 16번째 안면 키포인트까지의 방향 벡터를 결정하고; 제1 사전 결정된 계산 공식에 기반하여, 방향 벡터 및 제1 이미지 중 안면의 16번째 안면 키포인트에 따라 제1 위치 포인트를 얻고, 제1 위치 포인트를 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정할 수 있다.
구체적으로, 현재 106개의 안면 키포인트에 따라, 제1 이미지 중 안면의 44번째 안면 키포인트 및 16번째 안면 키포인트를 결정하고, 44번째 안면 키포인트 및 16번째 안면 키포인트를 제1 이미지 중 안면의 제1 타깃 안면 키포인트로 사용할 수 있다. 여기서, 106개의 안면 키포인트에서, 44번째 안면 키포인트는 콧대에 위치하고, 16번째 안면 키포인트는 턱에 위치한다. 44번째 안면 키포인트와 16번째 안면 키포인트가 결정된 후, 44번째 안면 키포인트(즉, P0 포인트)에서 16번째 안면 키포인트(즉, P1 포인트)까지의 방향 벡터를 추가로 결정할 수 있고, 설명의 편의를 위해, 44번째 안면 키포인트를 P0로 기록하고, 16번째 안면 키포인트를 P1로 기록하여, 44번째 안면 키포인트(즉, P0 포인트)에서 16번째 안면 키포인트(즉, P1 포인트)까지의 방향 벡터를 결정할 수 있는데, 즉 P0 포인트에서 P1 포인트까지의 2차원 방향 벡터를 결정하여, P01로 기록하면, P01=P1-P0이다.
구체적으로, 방향 벡터(즉, P01)가 결정된 후, 제1 사전 결정된 계산 공식에 기반하여, 사전 결정된 변위 배수, 방향 벡터 P01 및 제1 이미지 중 안면의 16번째 안면 키포인트(즉, P1 포인트)에 따라 제1 위치 포인트를 얻을 수 있다. 실제 적용에서, P1 포인트에서 시작하여 P01 방향을 따라 K배의 하나의 P01의 벡터를 중첩하여 위치 포인트 P2(즉, 제1 위치 포인트)를 얻을 수 있다. 제1 사전 결정된 계산 공식은 P2=(P1-P0)*K+P1의 형태일 수 있고, 상기 계산 공식에서, (P1-P0)은 P0 포인트에서 P1 포인트까지의 2차원 방향 벡터이며, K는 사전 결정된 변위 배수이고, P1은 제1 이미지 중 안면의 16번째 안면 키포인트이며, 일 예시에서, K의 값은 1이다. 여기서, K의 값이 1인 경우, 제1 위치 포인트 P2는 대략 제1 이미지 중 안면의 턱으로부터 얼굴의 하반부 위치에 위치한다.
구체적으로, 제1 위치 포인트가 결정된 후, 제1 위치 포인트를 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정하는데, 즉 제2 이미지 중 안면의 44번째 안면 키포인트를 제1 이미지 중의 P2로 이동시키며, 즉 제1 이미지 중의 P2를 제2 이미지 중 안면의 44번째 안면 키포인트의 고정 앵커로 사용한다. 이는 제2 이미지 중 안면의 44번째 안면 키포인트를 제1 이미지 중의 P2 위치로 이동시켜 전체 제2 이미지를 전체적으로 이동시키는 것과 같다.
구체적으로, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 과정에서, 먼저, 사전 결정된 축소 배수에 따라 제1 이미지 중 안면의 44번째 안면 키포인트를 안면 중심점으로 하는 제2 이미지에 대해 축소 처리를 수행하여 제4 이미지를 얻고; 타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행할 수 있다.
구체적으로, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻은 후, 제2 이미지 중의 이미지 정보는 제1 이미지 중의 이미지 정보와 중첩되지만, 제2 이미지 중 안면의 각 얼굴 특징(즉, 각 제2 얼굴 특징)은 제1 이미지 중 안면의 각 얼굴 특징(즉, 각 제1 얼굴 특징)과 약간 다를 뿐인데, 즉 이때 단말 기기는 하나가 각 제1 얼굴 특징의 안면이 포함된 제1 이미지이고 다른 하나가 각 제2 얼굴 특징의 안면이 포함된 제2 이미지인 2개의 이미지를 얻되, 이 2개의 이미지의 이미지 정보(또는 이미지 특징)는 충접된다. 여기서의 중첩은 이 2개의 이미지 중의 이미지 정보(또는 이미지 특징)의 위치가 중첩되는 것을 의미하는데, 예를 들어, 제1 이미지 중 안면의 눈 위치와 제2 이미지 중 안면의 눈 위치가 중첩되는 것, 또한 예를 들어, 제1 이미지 중 안면의 입 위치와 제2 이미지 중 안면의 입 위치가 중첩되는 것을 의미한다.
물론, 제2 이미지에 얼굴 특징에 대응되는 부가 정보가 추가되면, 제2 이미지에서 상기 얼굴 특징에 대응되는 부가 정보를 제외하고 제2 이미지 중의 이미지 정보는 제1 이미지 중의 이미지 정보와 중첩된다.
일 예시에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 과정에서, 제1 이미지 중의 이미지 정보와 제2 이미지 중의 이미지 정보는 중첩되므로, 제1 이미지 중 안면의 44번째 안면 키포인트와 제2 이미지 중 안면의 44번째 안면 키포인트는 중첩된다. 이에 기초하여, 먼저 제2 이미지 중 안면의 44번째 안면 키포인트를 제1 이미지 중 안면의 44번째 안면 키포인트로 이동시킬 수 있는데, 즉 44번째 안면 키포인트를 앵커로 하여 제2 이미지와 제1 이미지를 함께 중첩하고; 제2 이미지 중 안면의 44번째 안면 키포인트를 앵커로 하여, 전체 제2 이미지에 대해 사전 결정된 축소 배수의 축소 처리를 수행하여 축소 처리된 제2 이미지(즉, 제4 이미지)를 얻으며; 타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행할 수 있다. 타깃 위치는 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 위치이므로, 제4 이미지 중 안면의 44번째 안면 키포인트를 타깃 위치로 이동시켜 전체 제4 이미지에 대해 전체적인 병진 처리를 수행하는 것과 같은데, 즉 병진 처리된 제4 이미지의 44번째 안면 키포인트는 타깃 위치에 위치한다.
상기 예시에서, 타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행하는 과정에서, 먼저 타깃 위치, 제4 이미지의 크기에 따라 적합한 사이즈의 마스크(예를 들어, T자형 마스크)를 선택하고, 타깃 위치에 따라 상기 마스크를 제1 이미지 중의 적합한 위치에 커버하며, 타깃 위치에 따라 제4 이미지를 상기 마스크로 병진시키는데, 이는 제2 이미지를 제1 이미지에 그리는 것과 같고, 여기서, 제2 이미지를 제1 이미지에 그리는 과정에서, 제2 이미지 중 안면의 44번째 안면 키포인트가 타깃 위치에 위치하도록 확보한다.
이 밖에, 상기 예시의 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 과정은, 제2 이미지를 먼저 P0을 중심으로 하여 S배 축소한 다음 병진시키는 것과 같고, 제2 이미지 중의 각 픽셀 P에 대해 다음과 같은 공식 (1)에 따라 의 위치로 이동시킨다.
여기서, 는 2차원 데이터로, 단말 기기 스크린 공간에서 제2 이미지 중의 각 픽셀의 위치 좌표를 나타내고, 단말 기기 스크린은 0에서 1로 정규화된 좌표 공간인데, 즉 는 0 ~ 1 범위 내의 하나의 좌표이고, P2=(P1-P0)*K+P1이며, 구체적으로 상술한 바와 같다.
다른 예시에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 과정에서, 제1 이미지 중의 P2를 제2 이미지 중 안면의 44번째 안면 키포인트로 사용할 수 있는데, 즉 제2 이미지 중 안면의 44번째 안면 키포인트를 P2로 병진시켜 전체 제2 이미지를 병진시키며, 즉 P2를 제2 이미지 중 안면의 44번째 안면의 핵심 고정 앵커로 사용하여 전체 제2 이미지를 대응되는 위치로 이동시킨다. 상기 고정 앵커에 따라 제2 이미지에 대해 사전 결정된 축소 배수의 축소 처리를 수행함으로써, 제1 이동 처리된 제2 이미지를 얻는다. 해당 예시의 구현 과정은 상술한 예시의 구현 과정과 유사하므로, 여기서 더 이상 설명하지 않는다.
구체적으로, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행한 후, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가하여 제5 이미지를 얻을 수 있다. 여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계는, 제1 이미지와 제5 이미지에 따라 타깃 이미지를 생성하는 단계를 포함한다.
구체적으로, 제1 이동 처리된 제2 이미지를 얻은 후, 표시하고 싶지 않은 부분의 이미지 정보를 가리거나, 이미지의 재미를 증가시키기 위해, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가할 수 있고, 상기 타깃 부가 정보는 사전 결정된 연령대와 매칭되는 다양한 액세서리일 수 있는데, 예를 들어, 사전 결정된 연령대가 영유아인 경우, 타깃 부가 정보는 멜빵바지, 힙시트 등일 수 있으며, 또한 예를 들어, 사전 결정된 연령대가 노인인 경우, 타깃 부가 정보는 휠체어, 지팡이 등일 수 있다. 물론, 타깃 부가 정보는 필요에 따라 선택된 다른 특정 장식 아이템일 수도 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다. 여기서, 상기 사전 결정된 위치는 안면 아래의 신체 부위일 수 있거나, 다른 신체 부위일 수 있으나, 본 발명의 실시예는 이에 대해 한정하지 않는다.
구체적으로, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가한 후, 타깃 이미지는 실제로 제1 이미지와 타깃 부가 정보가 추가된 제2 이미지에 따라 생성된 것이다. 설명의 편의를 위해, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보가 추가된 이미지를 제5 이미지로 기록할 수 있는데, 즉 타깃 이미지는 제1 이미지와 제5 이미지에 따라 생성된 것이다. 여기서, 도 2는 본 발명의 실시예에 따른 타깃 이미지의 하나의 모식도를 나타낸다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행한 후, 또한, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하여 병진 처리된 제4 이미지가 사전 결정된 이동 궤적을 따라 이동하도록 할 수 있다. 여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 과정은 구체적으로, 제1 이미지와 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 것이다.
구체적으로, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하는 과정에서, 먼저, 현재 시간과 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이를 결정하고; 시간 차이에 따라 사전 결정된 이동 배열에서 현재 시간에 대응되는 타깃 변위 및 타깃 회전 각도를 결정하되, 사전 결정된 이동 배열은 복수 개의 사전 결정된 시간에서 사전 결정된 이동 궤적의 변위 및 회전 각도를 포함하며; 타깃 변위 및 회전 각도에 따라 현재 시간에서 제1 이동 처리된 제2 이미지의 이동 위치를 결정하고, 제1 이동 처리된 제2 이미지가 이동 위치를 초기 이동 위치로 하여 사전 결정된 이동 궤적에 따라 지속적으로 이동하는 것으로 결정할 수 있다.
구체적으로, 이미지의 재미를 더 증가시키고 특수 효과가 더욱 생동적이도록 하기 위해, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지(즉, 병진 처리된 제4 이미지)에 대해 제2 이동 처리를 수행할 수 있는데, 이는 병진 처리된 제4 이미지에 하나의 사전 결정된 이동 궤적을 추가하여 사전 결정된 이동 궤적을 따라 이동하도록 하는 것과 같다. 여기서, 상기 사전 결정된 이동 궤적은 하나의 상하좌우로 흔들리는 이동 궤적일 수 있다. 상기 사전 결정된 이동 궤적이 상하좌우로 흔들리는 이동 궤적인 경우, 제1 이동 처리된 제2 이미지에 하나의 상하좌우로 흔들리는 기설정 운동을 추가한 것과 같다. 만약 이때의 제1 이동 처리된 제2 이미지에 타깃 부가 정보가 이미 추가되었으면, 제1 이동 처리된 제2 이미지는 타깃 부가 정보와 함께 사전 결정된 이동 궤적에 기반하여 이동한다.
구체적으로, 사전 결정된 이동 궤적에 기반하여, 병진 처리된 제4 이미지에 대해 제2 이동 처리를 수행하는데, 즉 사전 결정된 이동 궤적에 기반하여, 병진 처리된 제4 이미지에 대해 제2 이동 처리를 수행함으로써, 제2 이동 처리된 제4 이미지를 얻는다. 제2 이동 처리된 제4 이미지를 얻은 후, 상기 제1 이미지와 상기 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성할 수 있다.
일반적으로, 사전 결정된 이동 궤적은 각각의 시간에서 모두 상이한 변위 및 회전 각도를 갖고, 상기 사전 결정된 이동 궤적을 반복적으로 수행하므로, 하나의 이동 데이터(즉, 사전 결정된 이동 데이터)를 통해 하나의 운동 주기 내에서, 복수 개의 사전 결정된 시간에서 사전 결정된 이동 궤적의 변위 및 회전 각도를 저장할 수 있다. 여기서, 각각의 운동 주기 내의 각 사전 결정된 시간의 변위 및 회전 각도는 동일한데, 예를 들어, 운동 주기 1 내의 사전 결정된 시간 T1_1의 변위와 운동 주기 2 내의 사전 결정된 시간 T2_1의 변위는 동일하고, 운동 주기 1 내의 사전 결정된 시간 T1_1의 회전 각도와 운동 주기 2 내의 사전 결정된 시간 T2_1의 회전 각도는 동일하다.
구체적으로, 상이한 운동 시점은 사전 결정된 이동 궤적 중의 상이한 위치에 대응되는데, 즉 상이한 운동 시점은 상이한 변위 및 회전 각도에 대응되므로, 병진 처리된 제4 이미지에 하나의 사전 결정된 이동 궤적이 추가된 경우, 현재 시간에 따라 현재 시간에 대응되는 하나의 변위(즉, 타깃 변위) 및 회전 각도(즉, 타깃 회전 각도)를 결정해야 한다. 여기서, 현재 시간과 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이에 따라 현재 시간에 대응되는 변위 및 회전 각도를 결정할 수 있다. 시간 차이에 따라 현재 시간에 대응되는 변위 및 회전 각도를 결정할 경우, 상기 시간 차이에 따라, 사전 결정된 이동 배열에서 대응되는 변위 및 회전 각도를 선택하고, 상기 선택된 변위를 현재 시간의 타깃 변위로 사용하는 동시에 상기 선택된 회전 각도를 현재 시간의 타깃 회전 각도를 사용할 수 있다.
구체적으로, 타깃 변위 및 타깃 회전 각도가 결정된 후, 상기 타깃 변위 및 타깃 회전 각도에 따라 현재 시간이 사전 결정된 이동 궤적 중의 위치에 대응되는 것으로 결정하고, 상기 위치를 초기 운동 위치로 하여 상기 사전 결정된 이동 궤적에 따라 지속적으로 이동한다.
일 예시에서, 현재 시간이 T_current이고, 사전 결정된 이동 궤적의 초기 이동 시간이 T_begin이면, 먼저, T_current에서 T_begin을 감하여 시간차를 계산할 수 있고; 시간차를 얻은 후, 상기 시간차에 따라 사전 결정된 이동 배열에 저장된 각 변위 및 각 회전 각도에서 대응되는 변위 T 및 회전 각도 D를 선택할 수 있으며, 상기 변위 T는 현재 시간의 타깃 변위이고, 상기 회전 각도 D는 현재 시간의 타깃 회전 각도이다. 상기 타깃 변위 및 상기 타깃 회전 각도에 따라, 현재 시간에서 병진 처리된 제4 이미지의 이동 위치를 결정하고, 병진 처리된 제4 이미지가 상기 이동 위치를 초기 이동 위치로 하여 사전 결정된 이동 궤적을 따라 지속적으로 이동하도록 한다.
상기 예시에서, 사전 결정된 이동 궤적에 기반하여, 병진 처리된 제4 이미지에 대해 수행되는 제2 이동 처리는, 공식 (1)에 기초하여 기설정된 P2 기반의 변위 및 회전을 추가하는 것과 같고, 변위 및 회전 각도가 추가된 후의 공식은 다음과 같은 공식 (2)과 같을 수 있다.
설명해야 할 것은, 제2 이미지에 대해서만 제1 이동 처리를 수행하면, 상기 공식 (1)을 사용하면 되고, 제2 이미지에 대해 제1 이동 처리를 수행하고 또한 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하면, 공식 (1)을 사용할 필요없이 직접 상기 공식 (2)을 사용하면 된다.
도 3은 본 발명의 다른 실시예에 의해 제공되는 이미지 처리 장치의 구조 모식도이고, 도 3에 도시된 바와 같이, 상기 장치(300)는 제1 처리 모듈(301), 결정 모듈(302), 제2 처리 모듈(303) 및 제3 처리 모듈(304)을 포함할 수 있으며, 여기서,
제1 처리 모듈(301)은, 획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻고;
결정 모듈(302)은, 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하며;
제2 처리 모듈(303)은, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하고;
제3 처리 모듈(304)은, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시한다.
가능한 일 실시형태에서, 제1 처리 모듈은,
제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻고, 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정하며;
사전 결정된 인물 마스크에 기반하여, 제3 이미지에 대해 매팅 처리를 수행하고, 매팅 처리에 의해 얻은 이미지를 제2 이미지로 결정한다.
가능한 일 실시형태에서, 제1 추가 모듈을 더 포함하고,
제1 추가 모듈은, 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가하며;
제2 처리 모듈은, 얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행한다.
가능한 일 실시형태에서, 제1 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트 및 16번째 안면 키포인트이고, 제2 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트이며;
결정 모듈은 구체적으로,
제1 이미지 중 안면의 44번째 안면 키포인트에서 16번째 안면 키포인트까지의 방향 벡터를 결정하고;
제1 사전 결정된 계산 공식에 기반하여, 방향 벡터 및 제1 이미지 중 안면의 16번째 안면 키포인트에 따라 제1 위치 포인트를 얻고, 제1 위치 포인트를 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정한다.
가능한 일 실시형태에서, 제2 처리 모듈은,
사전 결정된 축소 배수에 따라 제1 이미지 중 안면의 44번째 안면 키포인트를 안면 중심점으로 하는 제2 이미지에 대해 축소 처리를 수행하여 제4 이미지를 얻고;
타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행한다.
가능한 일 실시형태에서, 제2 추가 모듈을 더 포함하고,
제2 추가 모듈은, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가하여 제5 이미지를 얻으며;
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 경우, 제3 처리 모듈은 제1 이미지와 제5 이미지에 따라 타깃 이미지를 생성한다.
가능한 일 실시형태에서, 제4 처리 모듈을 더 포함하고,
제4 처리 모듈은, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하여 병진 처리된 제4 이미지가 사전 결정된 이동 궤적을 따라 이동하도록 하며;
여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 경우, 제3 처리 모듈은 제1 이미지와 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성한다.
가능한 일 실시형태에서, 제4 처리 모듈은 구체적으로,
현재 시간과 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이를 결정하고;
시간 차이에 따라 사전 결정된 이동 배열에서 현재 시간에 대응되는 타깃 변위 및 타깃 회전 각도를 결정하되, 사전 결정된 이동 배열은 복수 개의 사전 결정된 시간에서 사전 결정된 이동 궤적의 변위 및 회전 각도를 포함하며;
타깃 변위 및 회전 각도에 따라 현재 시간에서 제1 이동 처리된 제2 이미지의 이동 위치를 결정하고, 제1 이동 처리된 제2 이미지가 이동 위치를 초기 이동 위치로 하여 사전 결정된 이동 궤적에 따라 지속적으로 이동하는 것으로 결정한다.
본 발명의 실시예에 의해 제공되는 장치에서, 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 변환 처리에 의해 얻은 제2 이미지에 대해 제1 이동 처리를 수행하고, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하므로, 타깃 이미지가 제1 이미지 중의 이미지 정보를 포함할 뿐만 아니라, 제1 이미지에 대해 제1 변환 처리를 수행하여 얻은 제2 이미지의 이미지 정보도 포함하도록 할 수 있으며, 타깃 이미지 중의 제1 이미지의 이미지 정보와 제2 이미지의 이미지 정보가 상이한 이미지 위치에 위치하도록 할 수 있음으로써, 사용자에게 새로운 스타일의 특수 효과 이미지를 제공하여, 이미지 변화에 대한 사용자의 다양한 요구를 충족시키고, 사용자 체험과 사용자 만족도를 효과적으로 향상시킨다.
설명해야 할 것은, 본 실시예는 상기 방법 실시예와 대응되는 장치 실시예이고, 본 실시예는 상기 방법 실시예와 서로 결합되어 실시될 수 있다. 상기 방법 실시예에서 언급된 관련 기술의 세부내용은 본 실시예에서 여전히 유효하며, 반복을 줄이기 위해 여기서 더 이상 설명하지 않는다. 상응하게, 본 실시예에서 언급된 관련 기술의 세부내용은 상기 방법 실시예에도 적용될 수 있다.
이하, 도 4를 참조하면, 이는 본 발명의 실시예를 구현하기에 적합한 전자 기기(400)의 구조 모식도를 도시한다. 본 발명의 실시예의 단말 기기는 휴대전화, 랩톱 컴퓨터, 디지털 방송 수신기, PDA(개인 휴대 정보 단말기), PAD(태블릿 컴퓨터), PMP(휴대용 멀티미디어 플레이어), 차량 탑재 단말기(예를 들어, 차량 탑재 내비게이션 단말기) 등과 같은 이동 단말기, 및 디지털 TV, 데스크톱 컴퓨터 등과 같은 고정 단말기를 포함할 수 있으나, 이에 한정되지 않는다. 도 4에 도시된 전자 기기는 하나의 예시일 뿐, 본 발명의 실시예의 기능 및 사용 범위를 제한해서는 아니된다.
전자 기기는 메모리 및 프로세서를 포함하고, 여기서의 프로세서는 후술하는 처리 장치(401)로 지칭될 수 있으며, 메모리는 후술하는 판독 전용 메모리(ROM, 402), 랜덤 액세스 메모리(RAM, 403) 및 저장 장치(408) 중 적어도 하나를 포함하고, 구체적으로 다음과 같다.
도 4에 도시된 바와 같이, 전자 기기(400)는 판독 전용 메모리(ROM, 402)에 저장된 프로그램 또는 저장 장치(408)로부터 랜덤 액세스 메모리(RAM, 403)에 로딩된 프로그램에 따라 다양한 적절한 동작 및 프로세스를 실행할 수 있는 처리 장치(예를 들어, 중앙 처리 장치, 그래픽 처리 장치 등)(401)를 포함할 수 있다. RAM(403)에는 또한 전자 기기(400)의 동작에 필요한 다양한 프로그램 및 데이터가 저장된다. 처리 장치(401), ROM(402) 및 RAM(403)은 버스(404)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(405)도 버스(404)에 연결된다.
일반적으로, 예를 들어 터치 스크린, 터치 패드, 키보드, 마우스, 카메라, 마이크, 가속도계, 자이로스코프 등을 포함하는 입력 장치(406); 예를 들어 액정 디스플레이(LCD), 스피커, 진동기 등을 포함하는 출력 장치(407); 예를 들어 자기 테이프, 하드 디스크 등을 포함하는 저장 장치(408); 및 통신 장치(409)는 I/O 인터페이스(405)에 연결될 수 있다. 통신 장치(409)는 전자 기기(400)가 무선 또는 유선으로 다른 기기와 통신하여 데이터를 교환하도록 허용할 수 있다. 비록 도 4에서 다양한 장치를 갖는 전자 기기(400)를 도시하였지만, 모든 도시된 장치를 실시하거나 구비할 필요는 없음을 이해해야 한다. 보다 많거나 보다 적은 장치를 대체적으로 실시하거나 구비할 수 있다.
특히, 본 발명의 실시예에 따르면, 위에서 흐름도를 참조하여 설명된 프로세스는 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 컴퓨터 판독 가능 매체에 베어링된 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 포함하고, 상기 컴퓨터 프로그램은 흐름도에 도시된 방법을 수행하기 위한 프로그램 코드를 포함한다. 이러한 실시예에서, 상기 컴퓨터 프로그램은 통신 장치(409)를 통해 네트워크로부터 다운로드 및 설치되거나, 저장 장치(408)로부터 설치되거나, ROM(402)으로부터 설치될 수 있다. 상기 컴퓨터 프로그램이 처리 장치(401)에 의해 실행될 경우 본 발명의 실시예에 따른 방법에 한정된 상기 기능을 수행한다.
설명해야 할 것은, 본 발명에 따른 컴퓨터 판독 가능 매체는 컴퓨터 판독 가능 신호 매체 또는 컴퓨터 판독 가능 저장 매체 또는 상기 둘의 임의의 조합일 수 있다. 컴퓨터 판독 가능 저장 매체는 예를 들어 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 장치 또는 소자, 또는 이들의 임의의 조합일 수 있지만 이에 한정되지 않는다. 컴퓨터 판독 가능 저장 매체의 보다 구체적인 예로는 하나 이상의 도선에 의한 전기적 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 장치, 자기 저장 장치 또는 이들의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 본 발명에서, 컴퓨터 판독 가능 저장 매체는 프로그램을 포함하거나 저장하는 임의의 유형의(tangible) 매체일 수 있고, 상기 프로그램은 명령 실행 시스템, 장치 또는 소자에 의해 사용되거나 이들과 결합하여 사용될 수 있다. 본 발명에서, 컴퓨터 판독 가능 신호 매체는 기저 대역에서 또는 반송파의 일부로서 전파되는 데이터 신호를 포함할 수 있고, 이러한 데이터 신호에는 컴퓨터 판독 가능 프로그램 코드가 베어링된다. 이러한 전파된 데이터 신호는 전자기 신호, 광학 신호, 또는 이들의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 다양한 형태를 사용할 수 있다. 컴퓨터 판독 가능 신호 매체는 또한 컴퓨터 판독 가능 저장 매체 이외의 임의의 컴퓨터 판독 가능 매체일 수 있고, 상기 컴퓨터 판독 가능 신호 매체는 명령 실행 시스템, 장치 또는 소자에 의해 사용되거나 이들과 결합하여 사용되는 프로그램을 송신, 전파 또는 전송할 수 있다. 컴퓨터 판독 가능 매체에 포함된 프로그램 코드는 전선, 광 케이블, RF(무선 주파수) 등, 또는 이들의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 임의의 적절한 매체에 의해 전송될 수 있다.
상기 컴퓨터 판독 가능 매체는 상기 전자 기기에 포함될 수 있거나, 상기 전자 기기에 설치되지 않고 단독으로 존재할 수 있다.
상기 컴퓨터 판독 가능 매체에는 하나 이상의 프로그램이베 어링되어 있고, 상기 하나 이상의 프로그램이 상기 전자 기기에 의해 실행될 경우, 상기 전자 기기가 획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻고; 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하며; 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하고; 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하도록 한다.
하나 이상의 프로그래밍 언어 또는 이들의 조합으로 본 발명의 동작을 실행하기 위한 컴퓨터 프로그램 코드를 작성할 수 있고, 상기 프로그래밍 언어는 Java, Smalltalk, C++를 비롯한 객체 지향 프로그래밍 언어, 및 "C" 언어 또는 유사한 프로그래밍 언어를 비롯한 기존 절차적 프로그래밍 언어를 포함한다. 프로그램 코드는 완전히 사용자의 컴퓨터에서 실행되거나, 부분적으로 사용자의 컴퓨터에서 실행되거나, 하나의 독립형 소프트웨어 패키지로서 실행되거나, 일부는 사용자의 컴퓨터에서 실행되고 일부는 원격 컴퓨터에서 실행되거나, 또는 완전히 원격 컴퓨터 또는 서버에서 실행될 수 있다. 원격 컴퓨터의 경우, 원격 컴퓨터는 근거리 통신망(LAN) 또는 원거리 통신망(WAN)을 포함한 임의의 타입의 네트워크를 통해 사용자의 컴퓨터에 연결되거나 외부 컴퓨터에 연결될 수 있다(예를 들어, 인터넷 서비스 제공 업체를 이용하여 인터넷을 통해 연결).
도면의 흐름도 및 블록도는 본 발명의 다수의 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 아키텍처, 기능 및 동작을 도시한다. 이러한 측면에서, 흐름도 또는 블록도의 각 블록은 지정된 논리적 기능을 구현하기 위한 하나 이상의 실행 가능한 명령을 포함하는 모듈, 프로그램 세그먼트 또는 명령의 일부를 나타낼 수 있다. 또한, 일부 대안적인 구현에서, 블록에 표기된 기능은 또한 도면에 도시된 것과 다른 순서로 구현될 수 있음에 유의해야 한다. 예를 들어, 연속된 2개의 블록은 실제로 거의 병행되거나 언급된 기능에 따라 때때로 역순으로 실행될 수도 있다. 또한, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도의 블록의 조합은 지정된 기능 또는 동작을 실행하는 전용 하드웨어 기반 시스템으로 구현될 수 있거나 전용 하드웨어와 컴퓨터 명령을 조합하여 구현할 수도 있음에 유의해야 한다.
본 발명의 실시예에서 설명된 모듈 또는 유닛은 소프트웨어 방식으로 구현될 수 있거나 하드웨어 방식으로 구현될 수 있다. 여기서, 이러한 모듈 또는 유닛의 명칭은 일부 경우에는 상기 유닛 자체에 대한 한정을 구성하지 않는데, 예를 들어, 획득 모듈은 또한 "사전 결정된 라이브 방송 이벤트가 발생하는 것으로 감지된 경우, 사전 결정된 라이브 방송 이벤트에 대응되는 적어도 하나의 이벤트 처리 방식을 획득하는 모듈"로 설명될 수 있다.
본 명세서에서 설명된 상기 기능은 적어도 부분적으로 하나 이상의 하드웨어 논리 부재에 의해 수행될 수 있다. 예를 들어, 비제한적으로, 사용될 수 있는 예시적인 타입의 하드웨어 논리 부재는 필드 프로그램 가능 게이트 어레이(FPGA), 주문형 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템 온 칩(SOC), 복합 프로그램 가능 논리 소자(CPLD) 등을 포함한다.
본 발명의 문맥에서, 기계 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 의해 사용되거나 명령 실행 시스템, 장치 또는 기기와 결합하여 사용되는 프로그램을 포함하거나 저장할 수 있는 유형의(tangible) 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템, 장치 또는 기기, 또는 이들의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 보다 구체적인 예시로는 하나 이상의 케이블 기반 전기적 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 장치, 자기 저장 장치 또는 이들의 임의의 적절한 조합을 포함할 수 있다.
본 발명의 하나 이상의 실시예에 따르면,
획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계;
제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계;
타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계; 및
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 단계를 포함하는 이미지 처리 방법을 제공한다.
가능한 일 실시형태에서, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계는,
제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻고, 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정하는 단계; 및
사전 결정된 인물 마스크에 기반하여, 제3 이미지에 대해 매팅 처리를 수행하고, 매팅 처리에 의해 얻은 이미지를 제2 이미지로 결정하는 단계를 포함한다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계 이전에,
제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가하는 단계를 더 포함하고;
제2 이미지에 대해 제1 이동 처리를 수행하는 단계는,
얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행하는 단계를 포함한다.
가능한 일 실시형태에서, 제1 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트 및 16번째 안면 키포인트이고, 제2 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트이며;
제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계는,
제1 이미지 중 안면의 44번째 안면 키포인트에서 16번째 안면 키포인트까지의 방향 벡터를 결정하는 단계; 및
제1 사전 결정된 계산 공식에 기반하여, 방향 벡터 및 제1 이미지 중 안면의 16번째 안면 키포인트에 따라 제1 위치 포인트를 얻고, 제1 위치 포인트를 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정하는 단계를 포함한다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계는,
사전 결정된 축소 배수에 따라 제1 이미지 중 안면의 44번째 안면 키포인트를 안면 중심점으로 하는 제2 이미지에 대해 축소 처리를 수행하여 제4 이미지를 얻는 단계; 및
타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행하는 단계를 포함한다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계 이후에,
제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가하여 제5 이미지를 얻는 단계를 더 포함하고;
여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계는,
제1 이미지와 제5 이미지에 따라 타깃 이미지를 생성하는 단계를 포함한다.
가능한 일 실시형태에서, 타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 단계 이후에,
사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하여 병진 처리된 제4 이미지가 사전 결정된 이동 궤적을 따라 이동하도록 하는 단계를 더 포함하고;
여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계는,
제1 이미지와 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계를 포함한다.
가능한 일 실시형태에서, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하는 단계는,
현재 시간과 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이를 결정하는 단계;
시간 차이에 따라 사전 결정된 이동 배열에서 현재 시간에 대응되는 타깃 변위 및 타깃 회전 각도를 결정하는 단계, 사전 결정된 이동 배열은 복수 개의 사전 결정된 시간에서 사전 결정된 이동 궤적의 변위 및 회전 각도를 포함함 - ; 및
타깃 변위 및 회전 각도에 따라 현재 시간에서 제1 이동 처리된 제2 이미지의 이동 위치를 결정하고, 제1 이동 처리된 제2 이미지가 이동 위치를 초기 이동 위치로 하여 사전 결정된 이동 궤적에 따라 지속적으로 이동하는 것으로 결정하는 단계를 포함한다.
본 발명의 하나 이상의 실시예에 따르면,
획득된 제1 이미지가 안면을 포함하는 경우, 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 제1 처리 모듈;
제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 제1 이미지에서 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 결정 모듈;
타깃 위치에 따라 제2 이미지에 대해 제1 이동 처리를 수행하는 제2 처리 모듈; 및
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 타깃 이미지를 표시하는 제3 처리 모듈을 포함하는 이미지 처리 장치를 제공한다.
가능한 일 실시형태에서, 제1 처리 모듈은,
제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻고, 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정하며;
사전 결정된 인물 마스크에 기반하여, 제3 이미지에 대해 매팅 처리를 수행하고, 매팅 처리에 의해 얻은 이미지를 제2 이미지로 결정한다.
가능한 일 실시형태에서, 제1 추가 모듈을 더 포함하고,
제1 추가 모듈은, 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가하며;
제2 처리 모듈은, 얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행한다.
가능한 일 실시형태에서, 제1 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트 및 16번째 안면 키포인트이고, 제2 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트이며;
결정 모듈은 구체적으로,
제1 이미지 중 안면의 44번째 안면 키포인트에서 16번째 안면 키포인트까지의 방향 벡터를 결정하고;
제1 사전 결정된 계산 공식에 기반하여, 방향 벡터 및 제1 이미지 중 안면의 16번째 안면 키포인트에 따라 제1 위치 포인트를 얻고, 제1 위치 포인트를 제1 이미지에서 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정한다.
가능한 일 실시형태에서, 제2 처리 모듈은,
사전 결정된 축소 배수에 따라 제1 이미지 중 안면의 44번째 안면 키포인트를 안면 중심점으로 하는 제2 이미지에 대해 축소 처리를 수행하여 제4 이미지를 얻고;
타깃 위치에 따라 제4 이미지에 대해 병진 처리를 수행한다.
가능한 일 실시형태에서, 제2 추가 모듈을 더 포함하고,
제2 추가 모듈은, 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가하여 제5 이미지를 얻으며;
제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 경우, 제3 처리 모듈은 제1 이미지와 제5 이미지에 따라 타깃 이미지를 생성한다.
가능한 일 실시형태에서, 제4 처리 모듈을 더 포함하고,
제4 처리 모듈은, 사전 결정된 이동 궤적에 기반하여, 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하여 병진 처리된 제4 이미지가 사전 결정된 이동 궤적을 따라 이동하도록 하며;
여기서, 제1 이미지와 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 경우, 제3 처리 모듈은 제1 이미지와 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성한다.
가능한 일 실시형태에서, 제4 처리 모듈은 구체적으로,
현재 시간과 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이를 결정하고;
시간 차이에 따라 사전 결정된 이동 배열에서 현재 시간에 대응되는 타깃 변위 및 타깃 회전 각도를 결정하되, 사전 결정된 이동 배열은 복수 개의 사전 결정된 시간에서 사전 결정된 이동 궤적의 변위 및 회전 각도를 포함하며;
타깃 변위 및 회전 각도에 따라 현재 시간에서 제1 이동 처리된 제2 이미지의 이동 위치를 결정하고, 제1 이동 처리된 제2 이미지가 이동 위치를 초기 이동 위치로 하여 사전 결정된 이동 궤적에 따라 지속적으로 이동하는 것으로 결정한다.
이상의 설명은 본 발명의 바람직한 실시예, 및 적용된 기술 원리에 대한 설명일 뿐이다. 당업자는 본 발명에서 언급된 개시된 범위가 상기 기술적 특징의 특정 조합으로 이루어진 기술적 해결수단에 제한되지 않음과 동시에 상기 개시된 구상을 벗어나지 않는 전제 하에 상기 기술적 특징 또는 이의 등가적 특징을 임의로 조합하여 형성된 다른 기술적 해결수단에 포함되어야 함을 이해해야 한다. 예를 들어, 상기 특징과 본 발명에서 개시된(그러나 이에 한정되지 않음) 것과 유사한 기능을 갖는 기술적 특징을 서로 대체하여 형성된 기술적 해결수단에 포함되어야 함을 이해해야 한다.
이 밖에, 비록 특정된 순서로 각 동작을 설명하였으나, 이는 이러한 동작들이 도시된 특정된 순서 또는 순차적인 순서로 수행되도록 요구하는 것으로 이해되어서는 아니된다. 일정한 환경에서, 멀티 태스크 및 병행 처리가 유리할 수 있다. 마찬가지로, 위의 논술에 다수의 구체적인 구현 세부내용이 포함되지만, 이들은 본 발명의 범위에 대한 제한으로 해석되어서는 아니된다. 별도의 실시예의 앞뒤 내용에서 설명된 일부 특징은 단일 실시예에서 조합되어 구현될 수도 있다. 반대로, 단일 실시예의 앞뒤 내용에서 설명된 다양한 특징도 별도로 또는 임의의 적합한 서브 조합의 방식으로 다수의 실시예에서 구현될 수 있다.
구조 특징 및/또는 방법 논리 동작에 특정되는 언어를 사용하여 본 주제를 설명하였지만, 첨부된 특허청구범위에 한정된 주제는 위에서 설명된 특정된 특징 또는 동작에 제한되지 않음을 이해해야 한다. 반대로, 위에서 설명된 특정된 특징 또는 동작은 단지 특허청구범위를 구현하는 예시적인 형태일 뿐이다.
Claims (11)
- 이미지 처리 방법으로서,
획득된 제1 이미지가 안면을 포함하는 경우, 상기 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계;
상기 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 상기 제1 이미지에서 상기 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계;
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행하는 단계; 및
상기 제1 이미지와 상기 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 상기 타깃 이미지를 표시하는 단계를 포함하는 이미지 처리 방법.
- 제1항에 있어서,
상기 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 단계는,
상기 제1 이미지 중 안면의 각 제1 얼굴 특징에 대해 특징 변환 처리를 각각 수행하여 사전 결정된 연령대 안면에 해당되는 각 제2 얼굴 특징을 얻고, 상기 각 제2 얼굴 특징의 안면을 포함하는 이미지를 제3 이미지로 결정하는 단계; 및
사전 결정된 인물 마스크에 기반하여, 상기 제3 이미지에 대해 매팅 처리를 수행하고, 상기 매팅 처리에 의해 얻은 이미지를 상기 제2 이미지로 결정하는 단계를 포함하는 이미지 처리 방법.
- 제1항에 있어서,
상기 방법은,
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행하기 전에, 상기 제2 이미지에 얼굴 특징에 대응되는 부가 정보를 추가하는 단계를 더 포함하고;
상기 제2 이미지에 대해 제1 이동 처리를 수행하는 단계는,
얼굴 특징에 대응되는 부가 정보가 추가된 제2 이미지에 대해 제1 이동 처리를 수행하는 단계를 포함하는 이미지 처리 방법.
- 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제1 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트 및 16번째 안면 키포인트이고, 상기 제2 타깃 안면 키포인트는 106개의 안면 키포인트 중의 44번째 안면 키포인트이며;
상기 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 상기 제1 이미지에서 상기 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 단계는,
상기 제1 이미지 중 안면의 44번째 안면 키포인트에서 16번째 안면 키포인트까지의 방향 벡터를 결정하는 단계; 및
제1 사전 결정된 계산 공식에 기반하여, 사전 결정된 변위 배수, 상기 방향 벡터 및 상기 제1 이미지 중 안면의 16번째 안면 키포인트에 따라 제1 위치 포인트를 얻고, 상기 제1 위치 포인트를 상기 제1 이미지에서 상기 제2 이미지 중 안면의 44번째 안면 키포인트의 타깃 위치로 결정하는 단계를 포함하는 이미지 처리 방법.
- 제4항에 있어서,
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행하는 단계는,
사전 결정된 축소 배수에 따라 상기 제1 이미지 중 안면의 44번째 안면 키포인트를 안면 중심점으로 하는 제2 이미지에 대해 축소 처리를 수행하여 제4 이미지를 얻는 단계; 및
상기 타깃 위치에 따라 상기 제4 이미지에 대해 병진 처리를 수행하는 단계를 포함하는 이미지 처리 방법.
- 제1항 또는 제5항에 있어서,
상기 방법은,
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행한 후, 상기 제1 이동 처리된 제2 이미지의 사전 결정된 위치에 타깃 부가 정보를 추가하여 제5 이미지를 얻는 단계를 더 포함하고;
상기 제1 이미지와 상기 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계는,
상기 제1 이미지와 상기 제5 이미지에 따라 타깃 이미지를 생성하는 단계를 포함하는 이미지 처리 방법.
- 제1항 또는 제5항에 있어서,
상기 방법은,
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행한 후, 사전 결정된 이동 궤적에 기반하여, 상기 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하여 상기 병진 처리된 제4 이미지가 상기 사전 결정된 이동 궤적을 따라 이동하도록 하는 단계를 더 포함하고;
상기 제1 이미지와 상기 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계는,
상기 제1 이미지와 상기 제2 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하는 단계를 포함하는 이미지 처리 방법.
- 제7항에 있어서,
사전 결정된 이동 궤적에 기반하여, 상기 제1 이동 처리된 제2 이미지에 대해 제2 이동 처리를 수행하는 단계는,
현재 시간과 상기 사전 결정된 이동 궤적의 초기 이동 시간 사이의 시간 차이를 결정하는 단계;
상기 시간 차이에 따라 사전 결정된 이동 배열에서 현재 시간에 대응되는 타깃 변위 및 타깃 회전 각도를 결정하는 단계 - 상기 사전 결정된 이동 배열은 복수 개의 사전 결정된 시간에서 상기 사전 결정된 이동 궤적의 변위 및 회전 각도를 포함함 - ; 및
상기 타깃 변위 및 상기 회전 각도에 따라 현재 시간에서 상기 제1 이동 처리된 제2 이미지의 이동 위치를 결정하고, 상기 제1 이동 처리된 제2 이미지가 상기 이동 위치를 초기 이동 위치로 하여 상기 사전 결정된 이동 궤적에 따라 지속적으로 이동하는 것으로 결정하는 단계를 포함하는 이미지 처리 방법.
- 이미지 처리 장치로서,
획득된 제1 이미지가 안면을 포함하는 경우, 상기 제1 이미지에 대해 제1 변환 처리를 수행하여 제2 이미지를 얻는 제1 처리 모듈;
상기 제1 이미지 중 안면의 제1 타깃 안면 키포인트에 기반하여, 상기 제1 이미지에서 상기 제2 이미지 중 안면의 제2 타깃 안면 키포인트의 타깃 위치를 결정하는 결정 모듈;
상기 타깃 위치에 따라 상기 제2 이미지에 대해 제1 이동 처리를 수행하는 제2 처리 모듈; 및
상기 제1 이미지와 상기 제1 이동 처리된 제2 이미지에 따라 타깃 이미지를 생성하고, 상기 타깃 이미지를 표시하는 제3 처리 모듈을 포함하는 이미지 처리 장치.
- 메모리, 프로세서, 및 메모리에 저장되고 프로세서에서 실행 가능한 컴퓨터 프로그램을 포함하는 전자 기기로서,
상기 프로세서가 상기 프로그램을 실행할 경우 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 전자 기기.
- 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능 저장 매체로서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제8항 중 어느 한 항에 따른 방법을 구현하는 비일시적 컴퓨터 판독 가능 저장 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010287393.4 | 2020-04-13 | ||
CN202010287393.4A CN111507890B (zh) | 2020-04-13 | 2020-04-13 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
PCT/CN2021/085326 WO2021208764A1 (zh) | 2020-04-13 | 2021-04-02 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220162776A true KR20220162776A (ko) | 2022-12-08 |
KR102713594B1 KR102713594B1 (ko) | 2024-10-11 |
Family
ID=71869209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227038322A KR102713594B1 (ko) | 2020-04-13 | 2021-04-02 | 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11908237B2 (ko) |
EP (1) | EP4131144A4 (ko) |
JP (1) | JP7469510B2 (ko) |
KR (1) | KR102713594B1 (ko) |
CN (1) | CN111507890B (ko) |
BR (1) | BR112022020542A2 (ko) |
WO (1) | WO2021208764A1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507890B (zh) * | 2020-04-13 | 2022-04-19 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN112887796B (zh) * | 2021-02-10 | 2022-07-22 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及介质 |
CN116386074B (zh) * | 2023-06-07 | 2023-08-15 | 青岛雅筑景观设计有限公司 | 一种园林工程设计数据智能处理及管理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130120175A (ko) * | 2012-04-25 | 2013-11-04 | 양재건 | 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR20170047167A (ko) * | 2015-10-22 | 2017-05-04 | 한국과학기술연구원 | 전자 장치가 동영상의 얼굴의 인상을 변형하는 방법 및 그 전자 장치 |
KR20200017266A (ko) * | 2018-08-08 | 2020-02-18 | 삼성전자주식회사 | 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8953909B2 (en) | 2006-01-21 | 2015-02-10 | Elizabeth T. Guckenberger | System, method, and computer software code for mimic training |
KR20080106596A (ko) * | 2007-03-22 | 2008-12-09 | 연세대학교 산학협력단 | 가상 얼굴 생성 방법 |
US8462996B2 (en) * | 2008-05-19 | 2013-06-11 | Videomining Corporation | Method and system for measuring human response to visual stimulus based on changes in facial expression |
CN101556701A (zh) | 2009-05-15 | 2009-10-14 | 陕西盛世辉煌智能科技有限公司 | 基于平均脸和衰老比例图的人脸图像年龄变换方法 |
JP2012181688A (ja) * | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
US20140043329A1 (en) * | 2011-03-21 | 2014-02-13 | Peng Wang | Method of augmented makeover with 3d face modeling and landmark alignment |
WO2014194439A1 (en) * | 2013-06-04 | 2014-12-11 | Intel Corporation | Avatar-based video encoding |
WO2017013925A1 (ja) * | 2015-07-21 | 2017-01-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN105184249B (zh) * | 2015-08-28 | 2017-07-18 | 百度在线网络技术(北京)有限公司 | 用于人脸图像处理的方法和装置 |
KR101758825B1 (ko) | 2015-09-22 | 2017-07-18 | 한국과학기술연구원 | 얼굴 부위별 나이와 환경적 요인을 기반으로 하는 나이 변환 방법, 이를 수행하기 위한 기록 매체 및 장치 |
CN107798276A (zh) * | 2016-09-05 | 2018-03-13 | 中兴通讯股份有限公司 | 一种人脸图像的年龄变换方法及装置 |
CN107993216B (zh) * | 2017-11-22 | 2022-12-20 | 腾讯科技(深圳)有限公司 | 一种图像融合方法及其设备、存储介质、终端 |
WO2019190142A1 (en) * | 2018-03-29 | 2019-10-03 | Samsung Electronics Co., Ltd. | Method and device for processing image |
CN108830892B (zh) * | 2018-06-13 | 2020-03-06 | 北京微播视界科技有限公司 | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109376618B (zh) | 2018-09-30 | 2021-03-23 | 北京旷视科技有限公司 | 图像处理方法、装置及电子设备 |
CN109829930B (zh) * | 2019-01-15 | 2021-05-04 | 深圳市云之梦科技有限公司 | 人脸图像处理方法、装置、计算机设备及可读存储介质 |
CN110047053A (zh) * | 2019-04-26 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 人像图片生成方法、装置和计算机设备 |
CN110555796B (zh) * | 2019-07-24 | 2021-07-06 | 广州视源电子科技股份有限公司 | 图像调整方法、装置、存储介质以及设备 |
CN111754415B (zh) * | 2019-08-28 | 2022-09-27 | 北京市商汤科技开发有限公司 | 人脸图像处理方法及装置、图像设备及存储介质 |
CN110992493B (zh) * | 2019-11-21 | 2023-10-31 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111507890B (zh) * | 2020-04-13 | 2022-04-19 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-04-13 CN CN202010287393.4A patent/CN111507890B/zh active Active
-
2021
- 2021-04-02 KR KR1020227038322A patent/KR102713594B1/ko active IP Right Grant
- 2021-04-02 EP EP21788590.4A patent/EP4131144A4/en active Pending
- 2021-04-02 JP JP2022561575A patent/JP7469510B2/ja active Active
- 2021-04-02 WO PCT/CN2021/085326 patent/WO2021208764A1/zh unknown
- 2021-04-02 BR BR112022020542A patent/BR112022020542A2/pt unknown
-
2022
- 2022-08-11 US US17/886,101 patent/US11908237B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130120175A (ko) * | 2012-04-25 | 2013-11-04 | 양재건 | 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR20170047167A (ko) * | 2015-10-22 | 2017-05-04 | 한국과학기술연구원 | 전자 장치가 동영상의 얼굴의 인상을 변형하는 방법 및 그 전자 장치 |
KR20200017266A (ko) * | 2018-08-08 | 2020-02-18 | 삼성전자주식회사 | 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP4131144A4 (en) | 2023-10-11 |
JP2023520732A (ja) | 2023-05-18 |
CN111507890B (zh) | 2022-04-19 |
WO2021208764A1 (zh) | 2021-10-21 |
BR112022020542A2 (pt) | 2022-12-06 |
KR102713594B1 (ko) | 2024-10-11 |
US11908237B2 (en) | 2024-02-20 |
JP7469510B2 (ja) | 2024-04-16 |
EP4131144A1 (en) | 2023-02-08 |
US20220392257A1 (en) | 2022-12-08 |
CN111507890A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102713594B1 (ko) | 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체 | |
US20210056998A1 (en) | Cinematic space-time view synthesis for enhanced viewing experiences in computing environments | |
CN111726536B (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
CN111787242B (zh) | 用于虚拟试衣的方法和装置 | |
TWI779343B (zh) | 狀態識別方法、裝置、電子設備及電腦可讀儲存介質 | |
CN112199016B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN112396679B (zh) | 虚拟对象显示方法及装置、电子设备、介质 | |
WO2021208709A1 (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN106201390A (zh) | 用于输出屏幕的方法及支持该方法的电子装置 | |
WO2022007627A1 (zh) | 一种图像特效的实现方法、装置、电子设备及存储介质 | |
JP7421010B2 (ja) | 情報表示方法、装置及び記憶媒体 | |
WO2022171024A1 (zh) | 图像显示方法、装置、设备及介质 | |
CN111491187B (zh) | 视频的推荐方法、装置、设备及存储介质 | |
WO2022170958A1 (zh) | 基于增强现实的显示方法、设备、存储介质及程序产品 | |
KR20240093930A (ko) | 애니메이션화된 커스텀 스티커들을 생성하기 위한 방법 및 시스템 | |
US20220284597A1 (en) | Method and apparatus for displaying object in video, and electronic device and computer readable storage medium | |
WO2023138441A1 (zh) | 视频生成方法、装置、设备及存储介质 | |
WO2023197780A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113806306A (zh) | 媒体文件处理方法、装置、设备、可读存储介质及产品 | |
CN113163135B (zh) | 视频的动画添加方法、装置、设备及介质 | |
WO2024027819A1 (zh) | 图像处理方法、装置、设备及存储介质 | |
WO2022262560A1 (zh) | 图像显示方法、装置、设备及存储介质 | |
KR102725398B1 (ko) | 이미지 처리 방법 및 장치, 디바이스 및 매체 | |
WO2022213798A1 (zh) | 图像处理方法、装置、电子设备和存储介质 | |
WO2023151551A1 (zh) | 视频图像处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |