KR102457864B1 - 비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체 - Google Patents

비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체 Download PDF

Info

Publication number
KR102457864B1
KR102457864B1 KR1020210054745A KR20210054745A KR102457864B1 KR 102457864 B1 KR102457864 B1 KR 102457864B1 KR 1020210054745 A KR1020210054745 A KR 1020210054745A KR 20210054745 A KR20210054745 A KR 20210054745A KR 102457864 B1 KR102457864 B1 KR 102457864B1
Authority
KR
South Korea
Prior art keywords
video
frame
target object
video frame
freeze
Prior art date
Application number
KR1020210054745A
Other languages
English (en)
Other versions
KR20220014278A (ko
Inventor
빙린 창
카이룬 마
젱후이 쉬
칭민 왕
Original Assignee
베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 filed Critical 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드
Publication of KR20220014278A publication Critical patent/KR20220014278A/ko
Application granted granted Critical
Publication of KR102457864B1 publication Critical patent/KR102457864B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

본 발명은 비디오 처리 방법 및 장치, 저장 매체에 관한 것이다. 상기 비디오 처리 방법은 단말에 적용되며, 비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계; 및 상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계를 포함한다. 본 발명의 실시예의 기술방안을 통해, 비디오 화면을 분할하고 분할된 상이한 이미지 영역을 오버레이함으로써, 복수 개의 주체를 화면에 동시에 디스플레이할 수 있어, 도플갱어 특수 효과의 디스플레이 효과를 구현할 수 있다.

Description

비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체{METHOD AND DEVICE FOR PROCESSING VIDEO, TERMINAL COMMUNICATION APPARATUS AND STORAGE MEDIUM}
관련 출원의 상호 참조
본 출원은 출원 번호가 2020107370255이고, 출원일이 2020년 07월 28일인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 출원에 인용된다.
본 발명은 멀티미디어 기술에 관한 것으로, 특히 비디오 처리 방법 및 장치, 저장 매체에 관한 것이다.
멀티미디어 기술의 지속적인 발전과 함께 영화 작품에서 비디오 특수 효과는 종종 현실의 비디오 효과를 넘어서 화려하게 보여주기 위해 사용된다. 예를 들어, 시간 정적 효과, 도플갱어 특수 효과 등이 있다. 그러나, 비디오의 특수 효과를 구현하려면 전문적인 포스트 처리가 필요하고, 포스트 제작 도구를 사용하여 대량의 편집 및 제작이 필요하기 때문에 특수 효과 기술을 홍보하고 적용하기가 어려우며, 이러한 방식으로 비디오 촬영 과정에서 직접 특수 효과를 미리보기가 어렵다. 또한, 비디오 특수 효과의 제작이 어렵고 학습 비용이 높아 포스트 제작진들에게 높은 전문성이 요구된다.
본 발명은 비디오 처리 방법 및 장치, 저장 매체를 제공한다.
본 발명의 실시예의 제1 측면에 따르면, 비디오 처리 방법을 제공하고, 단말에 적용되며,
비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계; 및
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계를 포함한다.
일부 실시예에 있어서, 상기 비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계는,
비디오의 비디오 프레임에서의 목표 대상을 식별하는 단계; 및
상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하는 단계를 포함한다.
일부 실시예에 있어서, 상기 제1 비디오 프레임은 동결 프레임을 포함하고; 상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며;
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계; 및
상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하는 단계를 포함한다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하는 단계; 및
상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함한다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하는 단계를 포함한다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하는 단계; 및
연속된 N 개의 상기 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 비디오 프레임을 상기 동결 프레임으로서 상기 연속된 N 개의 비디오 프레임 중 하나를 선택하는 단계 - 상기 N은 2보다 크거나 같은 양의 정수임 - 를 포함한다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하는 단계; 및
상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함한다.
일부 실시예에 있어서, 상기 비디오 처리 방법은,
상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 를 더 포함하며;
상기 적어도 하나의 비디오 프레임에서의 상기 피사체 영역을, 비디오 프레임을 제외한 적어도하 하나의 상기 목표 대상에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계를 포함한다.
일부 실시예에 있어서, 상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계는,
상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하는 단계; 및
상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하는 단계를 포함한다.
일부 실시예에 있어서, 상기 제2 비디오 프레임은 상기 동결 프레임 이전의 비디오 프레임을 포함하며;
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하는 단계를 포함한다.
본 발명의 실시예의 제2 측면에 따르면, 비디오 처리 장치를 제공하고, 상기 장치는 단말에 적용되며,
비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하도록 구성된 제1 결정 모듈; 및
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된 생성 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 결정 모듈은,
비디오의 비디오 프레임에서의 목표 대상을 식별하도록 구성된 식별 서브 모듈; 및
상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하도록 구성된 제1 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 비디오 프레임은 동결 프레임을 포함하고; 상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며;
상기 생성 모듈은,
상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하도록 구성된 제1 선택 서브 모듈; 및
상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된 생성 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하도록 구성된 검출 서브 모듈; 및
상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제2 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은 구체적으로,
상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하도록 구성된다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하도록 구성된 제3 결정 서브 모듈; 및
연속된 N 개의 상기 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 비디오 프레임을 상기 동결 프레임으로서 상기 연속된 N 개의 비디오 프레임 중 하나를 선택 - 상기 N은 2보다 크거나 같은 양의 정수임 - 하도록 구성된 제2 선택 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하도록 구성된 제4 결정 서브 모듈; 및
상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제5 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 비디오 처리 장치는,
상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 하도록 구성된 제2 결정 모듈을 더 포함하며;
상기 생성 모듈은 구체적으로,
상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된다.
일부 실시예에 있어서, 상기 제2 결정 모듈은,
상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하도록 구성된 제3 선택 서브 모듈; 및
상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하도록 구성된 제6 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제2 비디오 프레임은 상기 동결 프레임 이전의 비디오 프레임을 포함하며; 상기 생성 모듈은 구체적으로,
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된다.
본 발명의 실시예의 제3 측면에 따르면, 단말 통신 장치를 제공하고, 상기 비디오 처리 장치는 적어도 프로세서 및 상기 프로세서에서 작동 가능한 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하며, 여기서,
프로세서는 상기 실행 가능한 명령어가 작동될 때, 상기 실행 가능한 명령어는 전술한 비디오 처리 방법 중의 단계를 실행하기 위한 것이다.
본 발명의 실시예의 제4 측면에 따르면, 비일시적 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 실행 가능 명령어가 저장되어 있고, 상기 컴퓨터 실행 가능한 명령어가 프로세서에 의해 실행될 때 전술한 임의의 비디오 처리 방법 중의 단계를 구현한다.
본 발명의 실시예에서 제공한 기술방안은 적어도 다음과 같은 유익한 효과를 포함할 수 있다. 본 발명의 실시예의 기술방안을 통해, 단말을 사용하여 비디오 처리를 수행하여, 상이한 비디오 프레임 이미지의 부분 영역에 대해 분할하고, 다른 비디오 프레임에 오버레이하여, 비디오 화면에서 복수 개의 상이한 위치의 목표 대상을 동시에 디스플레이함으로써, 도플갱어 효과를 구현할 수 있다. 이러한 방식은 단말 자체를 통해 목표 대상을 식별하여, 복잡한 처리 도구 및 포스트 제작 기술 없이도 지능적으로 특수 효과 프레임을 생성할 수 있으므로, 간단한 조작으로 촬영 과정에서 특수 효과를 직접 쉽게 생성할 수 있다.
이해해야 할 것은 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것이며, 본 발명을 한정하려는 것은 아니다.
본문의 도면은 본 명세서에 포함되어 본 명세서의 일부를 구성하고, 본 발명과 일치하는 실시예를 예시하고, 본 명세서와 함께 본 발명의 원리를 설명하기 위해 사용된다.
도 1은 일 예시적 실시예에 따라 도시된 비디오 처리 방법의 흐름도 1이다.
도 2는 일 예시적 실시예에 따라 도시된 비디오 처리 방법의 흐름도 2이다.
도 3은 일 예시적 실시예에 따라 도시된 비디오 처리 방법의 흐름도 3이다.
도 4는 일 예시적 실시예에 따라 도시된 동결된 도플갱어 특수 효과로 비디오를 녹화하는 흐름도 1이다.
도 5는 일 예시적 실시예에 따라 도시된 동결된 도플갱어 특수 효과로 비디오를 녹화하는 흐름도 2이다.
도 6a는 일 예시적 실시예에 따라 도시된 동결된 도플갱어 특수 효과의 모식도 1이다.
도 6b는 일 예시적 실시예에 따라 도시된 동결된 도플갱어 특수 효과의 모식도 2이다.
도 7은 일 예시적 실시예에 따라 도시된 비디오 처리 장치의 구조 블록도이다.
도 8은 일 예시적 실시예에 따라 도시된 단말의 물리적 구조 블록도이다.
아래에 예시적 실시예에 대해 상세히 설명할 것이며, 그 예는 도면에 도시되어 있다. 이하의 설명은 도면을 참조할 때, 다른 표시가 없는 한, 상이한 도면에서 동일한 숫자는 동일하거나 유사한 요소를 나타낸다. 아래의 예시적 실시예에서 설명된 실시형태는 본 발명과 일치한 모든 실시형태를 나타내는 것은 아니다. 반면, 이들은 첨부된 청구범위에 기재된 본 발명의 일부 형태와 일치하는 장치 및 방법의 예일 뿐이다.
도 1은 일 예시적 실시예에 따라 도시된 비디오 처리 방법의 흐름도이고, 도 1에 도시된 바와 같이, 단말에 적용되며, 다음의 단계를 포함한다.
단계 S101에 있어서, 비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정한다.
단계 S102에 있어서, 상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 영상 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성한다.
본 발명의 실시예에서는, 단말은 디스플레이 기능을 가진 전자 기기이며, 사용자는 단말을 통해 비디오를 재생하거나 비디오 녹화 과정에서 비디오 내용을 미리 볼 수 있다.
처리될 상기 비디오는 녹화된 비디오 파일 또는 녹화 중인 비디오일 수 있다. 비디오 녹화 과정은 연속적인 복수 개의 비디오 프레임을 획득하는 과정을 포함하며, 녹화된 비디오 부분은 상기 비디오 프레임으로 구성된다.
본 발명의 실시예에서는, 목표 식별 방법을 각 비디오 프레임에서 목표 대상을 식별하는데 사용할 수 있다. 목표 대상은 비디오에서 움직이는 주체를 포함하여, 초점이 맞취진 화면 중의 주체 부분일 수 있다. 예를 들어, 화면에서의 인물, 동물 및 자동차 또는 비행기 등은 움직이는 물체이다.
이미지 분할 기술을 통해, 비디오 프레임의 이미지로부터 상기 목표 대상이 위치한 피사체 영역을 분리할 수 있다. 목표 대상이 위치한 피사체 영역을 다른 비디오 프레임에 오버레이함으로써, 비디오 화면에서 적어도 두 개의 피사체 영역을 디스플레이하는 도플갱어 효과를 구현할 수 있다.
상기 제1 비디오 프레임을 목표 대상 피사체 영역 분할을 제공하는 비디오 프레임으로 사용하고, 제2 비디오 프레임을 분할된 피사체 영역이 오버레이되는 비디오 프레임으로 사용한다. 제1 비디오 프레임은 분할된 피사체 영역을 제공하는 동시에, 다른 제1 비디오 프레임의 피사체 영역이 오버레이되는 제2 비디오 프레임으로 사용될 수 있다. 예를 들어, 제1 프레임에서의 피사체 영역을 분할하여 제2 프레임 이후의 각 비디오 프레임에 오버레이하고, 100 번째 프레임에서의 피사체 영역을 분할하여 101 번째 프레임 이후의 각 비디오 프레임에 오버레이하면, 제2 프레임이 시작된 이후의 비디오 프레임은 모두 상기 제2 비디오 프레임인 동시에 100 번째 프레임은 제1 비디오 프레임인 동시에, 제2 비디오 프레임이다.
예를 들어, 비디오에서 피사체 인물이 화면의 왼쪽 끝에서 오른쪽 끝까지 걸어가고, 비디오 처리를 수행할 때, 왼쪽 끝에 있는 피사체의 화면을 피사체 영역으로 분할한다. 분할하여 획득한 피사체 영역을 비디오에서 피사체 인물이 왼쪽에서 오른쪽으로 걷는 각 비디오 프레임에 오버레이한다. 이와 같이, 피사체 인물이 오른쪽 끝을 향해 걷고 있음을 나타내는 동시에 왼쪽 끝에 멈춰있는 피사체 인물을 동시에 디스플레이하여, 동결된 도플갱어의 특수 효과를 구현한다.
본 발명의 실시예에서는, 상기 목표 대상이 위치한 피사체 영역은 목표 대상 가장자리 내의 이미지 영역일 수 있으며, 예를 들어, 이미지 분할 기술을 통해, 비디오 프레임에서 목표 대상을 가장자리를 따라 분할하고, 목표 대상의 가장자리로 둘러싸인 영역을 상기 피사체 영역으로 사용한다.
일 실시예에서는, 상기 목표 대상이 위치한 피사체 영역은 직사각형 영역 또는 원형 영역 등과 같이 목표 대상을 포함하는 고정된 형태의 그래프 영역일 수 있다. 비디오의 배경 화면이 정적 환경으로, 목표 대상을 제외한 복수 개의 비디오 프레임 각각의 영역이 고정된 이미지인 경우, 간단한 규칙 그래프를 통해, 목표 대상이 위치한 피사체 영역을 분할할 수 있다.
다른 실시예에서, 비디오 녹화 과정에서, 특수 효과 프레임을 생성한 후, 특수 효과 프레임을 소정의 캐시 공간에 캐시될 수 있다. 비디오 녹화가 완료되면, 특수 효과 비디오가 생성할지 묻는 메시지를 디스플레이한다. 사용자의 조작 명령에 따라, 특수 효과 비디오를 생성할지 여부를 결정한다. 사용자가 특수 효과 비디오를 생성하기로 결정하면, 캐시된 특수 효과 프레임이 원본 비디오 프레임을 대체하여, 특수 효과 비디오로 생성하고 저장한다. 사용자가 특수 효과 비디오를 생성할 필요가 없는 것으로 결정하면, 캐시된 특수 효과 프레임을 삭제할 수 있다.
유의해야 할 것은, 특수 효과 비디오를 생성한 후, 사용자의 실제 요구 사항에 따라, 원본 비디오 저장 여부를 선택하는 것을 제공할 수 있다. 사용자가 원본 비디오를 저장하지 않기로 선택하면, 생성된 특수 효과 프레임에 대응하는 원본 비디오 프레임을 삭제하고, 상기 특수 효과 프레임으로 대체할 수 있다. 특수 효과 프레임을 대체한 후의 각 비디오 프레임으로 구성된 비디오 프레임 스트림을 사용하여 특수 효과 비디오를 생성한다. 사용자가 원본 비디오를 유지하기로 선택하면, 특수 효과 프레임으로 대체한 후의 특수 효과 비디오 및 원본 비디오 프레임으로 구성된 원본 비디오가 각각 생성될 수 있다. 이러한 방식으로, 사용자가 후속 비교, 보기 및 추가 조정을 용이하게 한다.
본 발명의 실시예의 기술방안을 통해, 단말 자체의 이미지 분할 기술을 통해, 비디오에서 상이한 비디오 프레임의 목표 대상을 자동으로 식별하고 분할하며, 다른 비디오 프레임에 오버레이하여, 복잡한 포스트 프로덕션 도구 또는 프로덕션 기술을 사용하지 않고도, 복수 개의 목표 대상의 “도플갱어” 효과를 가진 비디오 특수 효과를 쉽고 빠르게 생성한다. 이와 같이 재생 또는 촬영 과정에서 미리보기를 할 때, 화면에서 특수 효과 프레임을 직접 디스플레이하고, 특수 효과를 표시할 수 있어, 단말의 비디오 제작을 용이하게 하고, 동시에 사용자의 시청 경험을 향상시킬 수 있다.
일부 실시예에 있어서, 상기 비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계는,
비디오의 비디오 프레임에서의 목표 대상을 식별하는 단계; 및
상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하는 단계를 포함한다.
본 발명의 실시예에서는, 이미지 식별 기술을 통해 비디오 프레임에서의 목표 대상을 식별하며, 예를 들어, 가장자리 식별 기술을 통해, 이미지에서의 상이한 대상을 식별하며; 인물 식별을 통해, 이미지에서 인물 특징을 가진 대상 등을 식별한다. 물론, 사용자의 조작에 따라 식별할 목표 대상을 결정할 수 있다. 예를 들어, 가장자리 식별 기술을 통해 이미지에서 상이한 대상의 가장자리를 결정한 다음, 사용자가 클릭한 이미지 영역을 통해, 목표 대상의 피사체 영역을 결정한다. 또 다른 예로, 사용자는 터치와 같은 조작을 통해 디자인된 가장자리 그래프를 수신하고, 가장자리 그래프로 둘러싸인 영역을, 상기 목표 대상의 피사체 영역으로 결정한다.
목표 대상이 위치한 피사체 영역을 결정한 후, 피사체 영역의 가장자리를 제외한 영역을 상기 배경 영역으로 결정할 수 있다. 이와 같이 간단한 방식을 통해 이미지에서의 목표 대상을 결정할 수 있으며, 목표 대상에 따라 비디오 이미지를 피사체 영역 및 배경 영역으로 나눌 수 있다.
일부 실시예에 있어서, 상기 제1 비디오 프레임은 동결 프레임을 포함하고; 상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며; 도 2에 도시된 바와 같이, 상기 단계 S102에서, 상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는 다음의 단계를 포함한다.
단계 S201에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 동결 프레임을 선택한다.
단계 S202에 있어서, 상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성한다.
본 발명의 실시예에서는, 비디오에서 상이한 위치의 비디오 프레임을 선택하여 동결 프레임으로 사용할 수 있으며, 동결 프레임에서의 피사체 영역은, 동결 프레임 이후의 다른 비디오 프레임을 오버레이하기 위한 것이다. 이러한 방식으로, 비디오의 동결 프레임의 목표 대상은 “동결” 효과를 형성할 수 있으며, 다시 말해서 동결 프레임 이후의 각 비디오 프레임에서, 동결 프레임에서의 목표 대상을 항상 디스플레이한다.
이해할 수 있는 것은, 비디오가 재생됨에 따라 비디오에 복수 개의 동결 프레임이 있는 경우, 동결 프레임이 순차적으로 나타난 후, 비디오 화면에 동결 “도플갱어”가 순차적으로 나타난다. 예를 들어, 목표 대상이 달리는 인물이면, 인물이 달리는 동안, 일정한 시간마다 동결 프레임이 나타나면, 비디오 화면에서 순서대로 복수의 인물이 상이한 위치에 고정되어 움직이지 않는 “도플갱어”가 나타나므로, “동결된 도플갱어”의 특수 효과를 구현한다.
상기 목표 대상을 식별하고, 동결 프레임을 선택하거나 특수 효과 프레임을 생성하는 과정은, 비디오 녹화 완료한 후, 비디오 파일에 대해 처리하는 과정에서 수행되거나, 또는 비디오 녹화하는 과정에서, 비디오 프레임을 획득하는 과정에서 언제든지 수행될 수 있으며, 피사체 영역을 오버레이하는 특수 효과 프레임은 미리보기 인터페이스에 직접 디스플레이될 수 있다.
또한, 비디오 녹화 과정에서, 촬영 파라미터를 고정하여, 빛의 변화에 따른 촬영 파라미터를 자동 조정으로 인한 특수 효과 프레임 왜곡을 줄일 수 있다. 촬영 파라미터는 감광성(ISO, International Organization for Standardization), 노출 시간, 초점 거리 및 화이트 밸런스 파라미터 등을 포함하지만 이제 한정되지 않는다.
이와 같이, 상이한 시간 간격의 동결 프레임을 선택함으로써, 다양한 도플갱어 효과를 생성할 수 있어, 전체 비디오에 재미를 더할 수 있다. 한편 제작 과정이 간단하고 조작이 간편하며, 비디오 녹화 과정에서 직접 제작을 수행하면, 비디오 촬영에 재미를 더할 수 있고, 인간-컴퓨터 간의 상호작용의 경험을 향상시킬 수 있으며, 복잡한 포스트 제작이 필요하지 않다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 동결 프레임을 선택하는 단계는,
상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하는 단계; 및
상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함한다.
상기 동결 프레임을 선택하기 위한 방식은 여러 모드가 있을 수 있으며, 상이한 비디오 기능이나 사용자 선호도에 따라, 상이한 방식을 사용하여 동결 프레임을 선택할 수 있다. 본 실시예에서는, 수신된 사용자 조작에 따라, 선택을 수행할 수 있다.
본 발명의 실시예에서는, 비디오 재생 과정은 기존의 비디오 파일을 재생하는 과정이거나, 녹화 중 미리보기 재생일 수 있다. 기존 비디오 파일을 재생하는 경우, 사용자 요구 사항에 따라 재생 속도를 다르게 하여 재생을 수행할 수 있으며, 예를 들어, 사용자가 선택 작업을 수행할 수 있도록, 비디오의 명확한 표시를 용이하게 하기 위해, 0.5 배 속도 및 0.1 배 속도의 방식과 같은 느린 재생 방식을 사용할 수 있으며, 프레임별로 비디오 프레임을 전환하는 방식으로 재생을 수행할 수도 있다. 녹화 중 미리보기 재생의 경우, 사용자는 촬영 과정 과정에서, 피사체의 실제 동작 또는 사용자와 피사체 간의 상호 작용에 따라, 유연하게 동결 프레임을 선택할 수 있다.
이해할 수 있는 것은, 단말은 소정의 조작 명령에 따라 동결 프레임을 결정할 수 있으며, 사용자의 조작 명령이 소정의 조작 명령인 것으로 검출되면, 단말은 현재 디스플레이된 비디오 프레임을 동결 프레임으로 사용하는 것으로 결정할 수 있다. 여기서, 소정의 조작 명령은 클릭, 더블 클릭, 위로 슬라이딩, 아래로 슬라이딩 또는 불규칙 슬라이딩 등과 같은 터치 동작의 명령과 같이 소정의 제스처의 터치 명령일 수 있으며; 소정의 조작 명령은 볼륨 키와 온/오프 키를 동시에 누르는 등과 같은 키 누름 조작 명령일 수도 있으며; 소정의 조작 명령은 또는 음성 입력 명령 등일 수도 있다.
이와 같이, 단말이 비디오를 녹화하든 기존 비디오 파일을 재생하든 관계없이, 사용자는 간단한 조작을 통해 동결 프레임을 선택하고, “동결된 도플갱어” 특수 효과의 제작을 완료하고 작업이 간단하고 편리하다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 동결 프레임을 선택하는 단계는,
상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하는 단계를 포함한다.
본 실시예에서는, 단말은 소정의 시간 간격에 따라 동결 프레임을 자동으로 선택할 수 있으며, 예를 들어, 소정의 시간 간격이 10 초이면, 비디오 녹화 또는 비디오 파일 재생 과정에서, 단말은 10 초마다 재생되는 비디오 프레임을 동결 프레임으로 사용할 수 있다.
물론, 이러한 방식은 재생 또는 미리보기 이외의 방식으로 수행될 수 있으며, 비디오의 각 비디오 프레임은 고정된 주파수로 재생되기 때문에, 재생 없이 소정의 시간 간격으로 비디오 프레임 사이의 간격의 비디오 프레임 수를 결정할 수 있다. 즉, 비디오 프레임 수의 간격에 따라, 비디오 파일 중의 각 동결 프레임을 직접 결정할 수 있다. 예를 들어, 비디오는 초당 30 프레임의 주파수로 재생되며, 상기 소정의 시간 간격이 10 초이면, 비디오에서 300 프레임 간격마다 동결 프레임을 결정할 수 있다.
이러한 방식으로, 선택을 수행하기 위해 비디오를 반복적으로 시청할 필요 없이, 정확한 사용자 조작 없이도, 간단한 설정으로 단말에 의해 동결 프레임의 선택이 자동으로 완료할 수 있다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 동결 프레임을 선택하는 단계는,
상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하는 단계; 및
연속된 N 개의 상기 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 비디오 프레임을 상기 동결 프레임으로서 상기 연속된 N 개의 비디오 프레임 중 하나를 선택하는 단계 - 상기 N은 2보다 크거나 같은 양의 정수임 - 를 포함한다.
본 발명의 실시예에서는, 자동화 선택은 비디오의 내용을 통해서도 수행될 수 있다. 비디오 프레임에서 목표 대상의 자세를 검출함으로써, 선택된 동결 프레임을 결정한다. 상이한 유형의 비디오에 대해, 개인화된 자동 선택을 구현할 수 있다.
동결된 도플갱어의 비디오 특수 효과 촬영하는 과정에서, 촬영된 대상과 사용자는 동결된 도플갱어로서 동작을 위해 자주적으로 포즈를 취할 수 있다. 즉, 피사체 인물이 이동 과정에서, 동결된 도플갱어 효과를 내고자 할 때, 특정 자세로 포즈를 취하고, 일정 시간 동안 이동을 멈춘 다음 계속하여 이동할 수 있다.
이와 같이, 단말은 촬영 화면에서 목표 대상의 자세가 연속된 N 개의 비디오 프레임에서 변하지 않는지 여부에 따라, 동결 프레임을 선택할 수 있다.
이해할 수 있는 것은, 촬영된 물체가 움직임이 정지된 N 개의 비디오 프레임에서 동일한 자세를 유지할 수 없기 때문에, 여기서 “동일한 자세”는 소정의 범위를 넘어서 움직임을 생성하지 않는 것으로 이해될 수 있고, 목표 대상의 약간의 흔들림이나 눈 깜박임, 손가락 움직임 등 신체 부위의 작은 움직임에 한정되지 않는다.
이와 같이, 목표 대상의 자세를 식별하여 동결 프레임을 선택함으로써, 사용자가 수동으로 선택할 필요가 없고, 비디오 내용의 자동 맞춤 선택을 구현할 수 있어, 비디오 제작 과정에서의 유연성과 자동화 수준을 향상시켜, 더 나은 인간-컴퓨터 상호 작용 경험을 제공한다.
일부 실시예에 있어서, 상기 비디오의 비디오 프레임에서, 적어도 하나의 동결 프레임을 선택하는 단계는,
상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하는 단계; 및
상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함한다.
이전 실시예의 방식과 유사하게, 본 실시예에서는, 비디오 화면에 따라 동결 프레임의 선택도 수행하며, 각 비디오 프레임에서의 목표 대상의 위치에 따라, 고정 거리의 목표 대상이 위치한 비디오 프레임을 동결 프레임으로 선택한다. 예를 들어, 목표 대상의 위치와 이전 동결 프레임의 위치가 소정의 거리에 있을 때마다, 현재 비디오 프레임으로 선택하여 동결 프레임으로 사용함으로써, 복수 개의 동결 프레임이 비디오 화면에 고르게 분포될 수 있다.
설명해야 할 것은, 본 발명의 실시예에서의 상기 여러 가지 동결 프레임을 선택하는 방식이 있는데, 실제 응용에서는 그 중 하나를 고정적으로 사용하거나, 사용자의 설정에 따라 언제든지 모드를 전환할 수 있으며, 동일한 비디오의 제작에서 상기 여러 가지 방식을 동시에 사용하여 선택할 수 있다. 또한, 이러한 방식으로 보다 다양한 조작을 구현할 수 있으며, 자동과 수동을 조합하여, 더욱 풍부한 특수 효과를 쉽게 제작할 수 있다.
일 실시예에서는, 비디오 녹화가 시작되기 전에, 프롬프트 정보를 디스플레이하고; 프롬프트 정보는 자동 동결 프레임을 선택 기능을 활성화할지 여부를 사용자에게 프롬프트하기 위한 것이다. 수신된 사용자 명령이 자동 동결 프레임 선택 기능을 활성화하는 것으로 결정하면, 녹화 중에서, 상기 적어도 하나의 방식에 따라 자동 선택이 수행된다. 상기 적어도 하나의 방식은, 목표 대상의 위치나 자세, 또는 비디오에서 소정의 시간 간견에 따라 자동으로 동결 프레임을 선택하는 것을 포함한다.
다른 실시예에서, 비디오 녹화가 시작되기 전에, 사용자 명령에 따라 녹화 중에 특수 효과 프레임을 제작하는 기능을 활성화하는지 여부를 결정할 수 있으며; 특수 효과 프레임을 제작하는 기능을 활성화하면, 상기 프롬프트 정보를 디스플레이한다.
이와 같이, 사용자는 실제 요구 사항, 촬영하고자 하는 비디오의 유형 및 내용에 따라, 동결 프레임 자동 선택 활성화 여부를 선택할 수 있다. 물론, 사용자는 비디오 녹화가 시작되기 전에, 수동 선택 방식을 통해 동결 프레임을 선택할지 여부를 결정할 수도 있다. 수동 선택 방식은 디폴트 방식으로 사용할 수도 있으며, 녹화 과정에서 특수 효과 프레임을 제작하는 기능이 활성화되어 있으면, 기본적으로 수동 선택 방식에서 동결 프레임이 결정된다.
일부 실시예에 있어서, 상기 비디오 처리 방법은,
상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 를 더 포함하며;
상기 적어도 하나의 비디오 프레임에서의 상기 피사체 영역을, 비디오 프레임을 제외한 적어도 하나의 상기 목표 대상에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계를 포함한다.
본 발명의 실시예에서는, 동결 프레임을 결정한 후, 동결 프레임의 목표 대상이 위치한 피사체 영역이 프리지 프레임 이후의 각 비디오 프레임에 오버레이되어, “동결” 효과를 구현할 수 있다. 배경 영역은 오버레이할 필요가 없으며, 따라서 “동결된 도플갱어”가 위치한 영역을 제외한 다른 영역은 비디오의 재생에 따라 여전히 변화하여, 물리적인 법칙을 뛰어 넘은 비현실적인 느낌을 만들어, 특수 효과의 시각적 효과를 가져온다.
이해할 수 있는 것은, 피사체 영역에 대해 오버레이하여 특수 효과 프레임을 생성하는 과정에서, 특수 효과 프레임의 지정된 위치에 피사체 영역이 오버레이되어야만, 연속적인 비디오에서, 피사체 영역의 고정된 효과를 구현할 수 있다. 따라서, 여기서 목표 대상은 원본 비디오 프레임, 즉 동결 프레임에서의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정한다. 후속 특수 효과 프레임을 생성하는 과정에서, 피사체 영역의 정렬 파라미터에 따라, 피사체 영역을 오버레이하는 위치를 결정할 수 있으며, 특수 효과 프레임의 “동결된 도플갱어”의 위치와 동결 프레임에서의 목표 대상의 위치와 일치하도록 한다.
일부 실시예에 있어서, 상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계는,
상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하는 단계; 및
상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하는 단계를 포함한다.
상기 정렬 파라미터는 비디오의 기준 프레임에 따라 결정될 수 있으며, 예를 들어, 비디오 프레임에서의 제1 프레임 또는 첫 번째 동결 프레임 등이 기준 프레임으로 선택되고, 그 다음, 후속 동결 프레임과 기준 프레임의 목표 대상에 대한 기준 프레임의 위치 오프셋에 따라, 해당 정렬 파라미터를 결정한다. 따라서, 각 동결 프레임의 정렬 파라미터는 비디오의 기준 프레임에 대한 상대 위치에 따라 결정됨으로써, 상이한 비디오 프레임에서 목표 대상 위치의 연속성을 유지한다.
즉, 본 발명의 실시예에 따르면 전체 영상의 절대 위치 대신 상대 위치 관계를 사용하며, 따라서, 화면 지터 등에 의한 위치 편차를 줄일 수 있어, 특수 효과 프레임이 더 원할해지도록 한다. 이러한 방식으로, 사용자가 단말을 직접 들고 촬영하더라도, 일부 지터가 있어더라도 특수 효과 프레임의 화면 효과에 영향을 주지 않으므로, 단말을 고정 도구로 고정할 필요가 없다.
일부 실시예에 있어서, 상기 제2 비디오 프레임은 상기 동결 프레임 이전의 비디오 프레임을 포함하며; 도 3에 도시된 바와 같이, 상기 단계 S102에서, 상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는 다음과 같은 단계를 포함한다.
단계 S301에 있어서, 상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성한다.
상기 실시예에서, 비디오 녹화 중 또는 녹화된 비디오 파일의 재생 중에, “동결된 도플갱어”를 점차 증가시키는 특수 효과를 디스플레이할 수 있다.
본 발명의 실시예에서는, 녹화된 비디오 파일에 대해, 또한 포스트 특수 효과 조정을 수행할 수 있다. “동결 감소”의 특수 효과를 구현한다.
비디오 초기 제작 또는 녹화 과정에서, 상기 실시예 중의 방법을 통해 복수 개의 동결 프레임을 결정하였기때문에, 포스트 재생하는 동안, 상이한 위치의 비디오 프레임에서 오버레이된 동결 프레임의 피사체 영역을 조정할 수 있다. 예를 들어, 동결 프레임 이전의 비디오 프레임에서 동결 프레임은 피사체 영역을 오버레이하고, 동결 프레임 이후의 비디오 프레임에서는, 동결 프레임의 피사체 영역을 오버레이하지 않는다.
이와 같이, 비디오 화면 시작 부분에, 복수 개의 고정된 목표 대상이 디스플레이되고, 그 다음 비디오 재생 과정에서, 목표 대상의 이동에 따라, “동결된 도플갱어”의 수가 점차 감소한다. 즉, 목표 대상이 “동결된 도플갱어”의 위치로 이동할 때마다, 상기 “동결된 도플갱어”가 사라지고, 목표 대상과 함께 계속 이동한다.
이와 같이, 단말을 이용하여 다양한 특수 효과를 제작할 수 있어, 비디오가 더욱 재미있고 풍성한 비디오 작품이 촬영될 수 있다.
본 발명의 실시예는 또한 다음과 같은 예를 제공한다.
동결된 도플갱어 특수 효과는 비디오를 편집하여 제작되며, 동일한 인물의 복수 개의 동결된 영상이 비디오 화면에 동시에 나타나도록 하며, 인물의 위치에 따라 증가 또는 감소될 수 있다.
본 발명의 실시예에서는, 비디오 화면의 목표 식별 및 이미지 분할 기술 등을 포함하는 인공 지능 기술을 사용하여, 비디오 화면에서 목표 대상의 피사체 영역에 대한 식별을 구현한다. 또한 정렬 기술을 통해 피사체 영역의 위치 및 오버레이하는 시간 등을 자동으로 산출할 수 있다. 이러한 방식으로, 촬영 과정에서 비디오 결과를 실시간으로 미리 볼 수 있고, 특수 효과 화면의 비디오를 빠르게 생성할 수 있다. 전문가가 포스트 비디오 편집 도구를 사용하지 않고, 휴대폰과 같은 단말을 통해 사용자는 직접 영화를 획득할 수 있으며, 제작비가 저렴하고 시간이 짧으며 적용 범위가 넓다.
또한, 본 발명의 실시예는 기준 프레임에 대한 위치를 이용하여 피사체 영역의 정렬 파마미터를 결정함으로써, 삼각대와 같은 고정 도구를 사용하지 않고도, 촬영 과정에서 지터로 인한 위치 편차를 감소시켜 핸드 헬드를 구현할 수 있다.
본 발명의 실시예에서는, 단말을 이용하여 동결된 도플갱어 특수 효과가 있는 비디오를 녹화하는 흐름은 도 4에 도시된 바와 같으며, 다음과 같은 단계를 포함한다.
단계 S401에 있어서, 카메라 기능이 켜진 후 미리보기 인터페이스에서 미리보기 화면을 디스플레이한다.
단계 S402에 있어서, 수신된 명령에 따라 녹화 상태에 진입하여, 비디오 화면의 녹화를 시작한다.
단계 S403에 있어서, 녹화된 비디오 화면 또는 생성된 특수 효과 프레임을 미리보기 인터페이스에 디스플레이하여, 효과 미리보기를 구현한다.
단계 S404에 있어서, 수신된 전환 명령에 따라 동결된 도플갱어 모드로 전환하고, 동결된 도플갱어 모드에서 특수 효과 프레임을 미리보기 및 디스플레이하며, 비동결된 도플갱어 모드에서, 원본 비디오 프레임을 미리보기 및 디스플레이한다.
단계 S405에 있어서, 비디오 프레임 및 특수 효과 프레임을 저장하여, 비디오 파일을 획득한다.
상기 특수 효과 프레임을 제작하는 과정은 도 5에 도시된 흐름도와 같이 구현될 수 있다. 현재 처리 중인 비디오가 제1 프레임이면, 제1 프레임의 촬영 파라미터를 잠근다. 촬영 파라미터는 ISO, 노출 시간, 초점 거리 및 화이트 밸런스 파라미터 등을 포함하지만 이에 한정되지 않는다. 또한, 동결 선택 모듈을 초기화하여, 동결 프레임 선택을 위해 선택 방법 및 저장 공간 등을 제공한다. 또한, 제1 프레임을 기준 프레임으로 결정하고, 기준 프레임에 따라 추후에 목표 대상의 위치를 결정하기 위한 정렬 모듈을 생성할 수 있다.
현재 처리 중인 비디오 프레임이 i 번째 프레임과 같은 제1 프레임 이후의 임의의 프레임이면, 이미지 분할 기술을 사용하여, 상기 프레임의 목표 대상이 위치한 피사체 영역 마스크 i를 획득한다. 정렬 모듈을 사용하여 상기 프레임에서 목표 대상의 정령 파라미터 Wi를 결정한다.
현재 프레임의 시퀸스 번호 i와 피사체 영역 마스크 i가 동결 선택 모듈에 추가되고, 동결 선택 모듈은 기설정된 선택 규칙에 따라 현재 프레임 또는 이전의 프레임을 새로운 동결 프레임으로 추가할지 여부를 결정한다. 선택 규칙은 다음을 포함할 수 있다.
첫째, 시간에 따라 선택하며, 예를 들어, 현재 프레임은 매초마다 동결 프레임으로 자동 추가된다.
둘째, 수신된 사용자 조작에 따라 선택하며, 예를 들어, 터치 스크린에 사용자 클릭 조작이 수신되면, 클릭 당시의 비디오 프레임을 동결 프레임으로 선택한다.
셋째, 비디오 프레임에서의 목표 대상의 위치에 따라, 동결 프레임을 자동 선택한다. 예를 들어, 목표 대상의 위치가 이전 동결 프레임의 위치에서 소정의 거리에 있을 때마다, 현재 비디오 프레임을 동결 프레임으로 선택하여, 복수 개의 동결 프레임이 비디오 화면에 고르게 분포될 수 있다.
넷째, 목표 대상이 비디오에서의 위치와 시간에 따라, 동결 프레임을 자동으로 선택한다. 예를 들어, 목표 대상이 연속된 N 개의 비디오 프레임에서 한 위치에 머무르면, N 개의 비디오 프레임 중 하나를 동결 프레임으로 선택하여, 촬영 대상자가 원하는대로 자동 동결을 구현할 수 있다.
동결 프레임을 선택한 후, 각 동결 프레임에서 목표 대상의 정렬 파라미터를 통해, 목표 대상의 피사체 영역 마스크를 동결 프레임 이후의 각 비디오 프레임에 플로팅하여, 복수 개의 동결된 도플갱어를 가진 특수 효과 프레임을 생성할 수 있다.
본 발명의 실시예에서는, 녹화 완료 후 비디오를 처리하여 특수 효과를 생성할 수 있으며, 동결 프레임 증가 및 동결 프레임 감소의 다양한 효과를 포함한다. 동결 프레임의 효과는 도 6a에 도시된 바와 같이, 동결 프레임에서의 목표 대상이 위치한 피사체 영역을 통해, 동결 프레임 이전의 각 비디오 프레임에 오버레이하여, 재생 과정에서 동결 프레임을 점차 감소하는 효과를 구현한다. 동결 프레임의 추가 효과는 도 6b에 도시된 바와 같으며, 동결 프레임에서의 목표 대상이 위치한 피사체 영역을 통해, 동결 프레임 이후의 각 비디오 프레임에 오버레이하여, 재생 과정에서 동결 프레임을 점차 증가하는 효과를 구현한다.
본 발명의 실시예의 기술방안을 통해, 복잡한 비디오 특수 효과 편집 알고리즘은 인공 지능 기술을 통해 단말의 제품 기능에 숨겨져 있고, 사용자가 촬영 과정에서 실시간으로 합성된 특수 효과를 미리 볼 수 있으며, 미리보기의 피드백에 따라 언제든지 촬영 과정을 조정할 수 있으므로, 촬영 완료 후 특수 효과가 있는 비디오 파일을 획득하여, 사용자 경험을 효과적으로 향상시킬 수 있다.
도 7은 일 예시적 실시예에 따라 도시된 비디오 처리 장치의 구조 블록도이며, 도 7에 도시된 바와 같이, 상기 비디오 처리 장치(700)는 단말에 적용되며,
비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하도록 구성된 제1 결정 모듈(701); 및
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된 생성 모듈(702)을 포함한다.
일부 실시예에 있어서, 상기 제1 결정 모듈은,
비디오의 비디오 프레임에서의 목표 대상을 식별하도록 구성된 식별 서브 모듈; 및
상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하도록 구성된 제1 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 비디오 프레임은 동결 프레임을 포함하고; 상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며;
상기 생성 모듈은,
상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하도록 구성된 제1 선택 서브 모듈; 및
상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된 생성 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하도록 구성된 검출 서브 모듈; 및
상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제2 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은 구체적으로,
상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하도록 구성된다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하도록 구성된 제3 결정 서브 모듈; 및
연속된 N 개의 상기 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 비디오 프레임을 상기 동결 프레임으로서 상기 연속된 N 개의 비디오 프레임 중 하나를 선택 - 상기 N은 2보다 크거나 같은 양의 정수임 - 하도록 구성된 제2 선택 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제1 선택 서브 모듈은,
상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하도록 구성된 제4 결정 서브 모듈; 및
상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제5 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 비디오 처리 장치는,
상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 하도록 구성된 제2 결정 모듈을 더 포함하며;
상기 생성 모듈은 구체적으로,
상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된다.
일부 실시예에 있어서, 상기 제2 결정 모듈은,
상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하도록 구성된 제3 선택 서브 모듈; 및
상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하도록 구성된 제6 결정 서브 모듈을 포함한다.
일부 실시예에 있어서, 상기 제2 비디오 프레임은 상기 동결 프레임 이전의 비디오 프레임을 포함하며; 상기 생성 모듈은 구체적으로,
상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된다.
상기 실시예의 장치와 관련하여, 그 중의 각 모듈이 동작을 실행하는 구체적인 방식은 상기 방법의 실시예에서 상세히 설명되었고, 여기서 상세한 설명은 하지 않는다.
도 8은 일 예시적 실시예에 따라 도시된 단말(800)의 블록도이다. 예를 들어, 단말(800)은 휴대폰, 컴퓨터, 디지털 단말, 메시징 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 피트니스 기기, 개인 휴대용 단말기 등일 수 있다.
도 8을 참조하면, 단말(800)은, 처리 컴포넌트(801), 메모리(802), 전원 컴포넌트(803), 멀티미디어 컴포넌트(804), 오디오 컴포넌트(805), 입력/출력(I/O) 인터페이스(806), 센서 컴포넌트(807), 및 통신 컴포넌트(808) 중 하나 또는 복수 개의 컴포넌트를 포함할 수 있다.
처리 컴포넌트(801)는 일반적으로 디스플레이, 전화 통화, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 장치(800)의 전체적인 동작을 제어한다. 처리 컴포넌트(801)는 상기 이미지 재구성 방법 단계의 전부 또는 일부를 구현하기 위한 명령어를 실행하기 위한 하나 또는 복수 개의 프로세서(810)를 포함할 수 있다. 또한, 처리 컴포넌트(801)는 처리 컴포넌트(801) 및 다른 컴포넌트 사이의 인터랙션을 용이하게 하기 위한 하나 또는 복수 개의 모듈을 더 포함할 수 있다. 예를 들어, 처리 컴포넌트(801)는 멀티미디어 컴포넌트(804) 및 처리 컴포넌트(801) 사이의 인터랙션을 용이하게 하기 위한 멀티미디어 모듈을 포함할 수 있다.
메모리(810)는 단말(800)의 동작을 지원하기 위해 다양한 타입의 데이터를 저장하도록 구성된다. 이러한 데이터의 예는 단말(800)에서 동작하는 임의의 애플리케이션 프로그램 또는 방법의 명령어, 연락인 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(802)는 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 전기적 소거 가능한 프로그래머블 읽기 전용 메모리(Electrically Erasable Programmable Read Only Memory, EEPROM), 소거 가능한 프로그래머블 읽기 전용 메모리(Erasable Programmable Read Only Memory, EPROM), 프로그래머블 읽기 전용 메모리(Programmable Read Only Memory, PROM), 읽기 전용 메모리(Read Only Memory, ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광 디스크 중 어느 한 타입의 휘발성 또는 비휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.
전원 컴포넌트(803)는 장치(800)의 다양한 컴포넌트에 전력을 공급한다. 전원 컴포넌트(803)는 전력 관리 시스템, 하나 또는 복수 개의 전력 및 단말(800)을 위해 전력을 생성, 관리 및 분배하는 것과 관련된 다른 컴포넌트를 포함할 수 있다.
멀티미디어 컴포넌트(804)는 상기 단말(800) 및 사용자 사이의 하나의 출력 인터페이스를 제공하는 스크린을 포함한다 일부 실시예에 있어서, 스크린은 액정 모니터(Liquid Crystal Display, LCD) 및 터치 패널(Touch Panel, TP)을 포함할 수 있다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하기 위해 스크린은 터치 스크린으로서 구현될 수 있다. 터치 패널은 터치, 스와이프 및 터치 패널 상의 제스처를 검출하기 위한 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 스와이프 동작의 경계를 검출할 뿐만 아니라 상기 터치 또는 스와이프 동작과 관련된 지속 시간 및 압력을 검출할 수 있다. 일부 실시에에 있어서, 멀티미디어 컴포넌트(808)는 하나의 전방 카메라 및 하나의 후방 카메라 중 적어도 하나를 포함한다. 단말(800)이 촬영 모드 또는 비디오 모드와 같은 동작 모드에 있을 경우, 전방 카메라 및 후방 카메라 중 적어도 하나는 외부의 멀티미디어 데이터를 수신할 수 있다. 각 전방 카메라 및/또는 후방 카메라는 하나의 고정된 광학 렌즈 시스템이거나 초점 거리 및 광학 줌 기능을 구비할 수 있다.
오디오 컴포넌트(805)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(805)는 하나의 마이크로폰(MIC)을 포함하며, 단말(800)은 콜 모드, 녹음 모드 및 음성 인식 모드와 같은 동작 모드에 있을 경우, 마이크로폰은 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 메모리(810)에 추가로 저장되거나 통신 컴포넌트(808)에 의해 송신될 수 있다. 일부 실시예에 있어서, 오디오 컴포넌트(805)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.
I/O 인터페이스(806)는 처리 컴포넌트(801) 및 외부 인터페이스 모듈 사이에 인터페이스를 제공하며, 상기 외부 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼을 포함할 수 있지만 이에 한정되지 않는다.
센서 컴포넌트(807)는 단말(800)을 위한 다양한 방면의 상태 평가를 제공하기 위한 하나 또는 복수 개의 센서를 포함한다. 예를 들어, 센서 컴포넌트(807)는 단말(800)의 온/오프 상태, 컴포넌트의 상대적인 위치를 검출할 수 있으며, 예를 들어, 상기 컴포넌트는 단말(800)의 모니터와 키패드이며, 센서 컴포넌트(807)는 단말(800) 또는 단말(800)에서의 하나의 컴포넌트의 위치 변화, 사용자와 단말(800) 접촉의 존재 유무, 단말(800) 방향 또는 가속/감속 및 단말(800)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(807)는 그 어떤 물리적 접촉이 없이 근처의 물체의 존재를 검출하도록 구성된 근접 센서를 포함할 수 있다. 센서 컴포넌트(807)는 이미징 애플리케이션에 사용하기 위한 상보성 금속 산화막 반도체(Complementary Metal Oxide Semiconductor, CMOS) 이미지 센서 또는 전하 결합 소자(Charged Coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있다. 일부 실시예에 있어서, 상기 센서 컴포넌트(807)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 더 포함할 수 있다.
통신 컴포넌트(808)는 단말(800)과 다른 기기 사이의 유선 또는 무선 방식으로 통신을 용이하게 하도록 구성된다. 단말(800)은 WiFi, 2G 또는 3G 또는 이들의 조합과 같은 통신 기준에 기반한 무선 인터넷에 액세스할 수 있다. 일 예시적 실시예에서, 통신 컴포넌트(808)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 일 예시적 실시예에서, 상기 통신 컴포넌트(808)는근거리 통신을 촉진하는 근거리 통신(NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선 주파수 판별자(Radio Frequency Identification, RFID) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역 (Ultra Wideband, UWB) 기술, 블루투스(Bluetooth, BT) 기술 및 다른 기술을 기반으로 구현될 수 있다.
예시적 실시예에 있어서, 단말(800)은 하나 또는 복수 개의 주문형 집적 회로(ApplicationSpecificIntegratedCircuit, ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리 장치(Digital Signal Processor, DSP), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 제어기, 마이크로 제어기, 마이크로 프로세서 또는 다른 전자 부품에 의해 구현되며, 상기 방법을 수행하기 위한 것이다.
예시적 실시예에 있어서, 명령어를 포함하는 메모리(804)와 같은 명령어를 포함하는 비 일시적 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 명령어는 상기 방법을 완료하도록 단말(800)의 프로세서(820)에 의해 수행된다. 예를 들어, 상기 비 일시적 컴퓨터 판독 가능 저장 매체는 ROM, 랜덤 액세스 메모리(RAM), CD-ROM, 자기 테이프, 플로피 디스크 및 광학 데이터 저장 기기 등일 수 있다.
본 발명의 실시예는 비일시적 컴퓨터 판독 가능한 저장 매체를 더 제공하며, 상기 저장 매체의 명령어가 모바일 단말의 프로세서에 의해 실행될 경우, 모바일 단말로 하여금 전술한 임의의 실시예에 따라 제공되는 비디오 처리 방법을 실행 가능하도록 한다.
당업자는 명세서 및 본문에 개시된 발명을 고려하여, 본 발명의 다른 실시방안을 용이하게 생각해낼 수 있을 것이다. 본 출원은 본 발명의 임의의 변형, 용도 또는 적응성 변화를 포함하도록 의도되며, 이러한 변형, 용도 또는 적응성 변화는 본 발명의 일반적인 원리에 따르며, 본 발명에서 개시되지 않은 본 기술분야의 공지된 상식이나 통상적인 기술수단을 포함한다. 명세서 및 실시예는 다만 예시적인 것으로 간주되며, 본 발명의 진정한 범위 및 사상은 아래의 청구범위에 의해 지적된다.
이해해야 할 것은, 본 발명은 위에서 설명되고 도면에 도시된 정확한 구조에 한정되지 않으며, 이 범위를 벗어나지 않고 다양한 수정 및 변경을 수행할 수 있다. 본 발명의 범위는 첨부된 청구범위에 의해서만 한정된다.

Claims (22)

  1. 비디오 처리 방법으로서,
    단말에 적용되며,
    비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계;
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계 - 상기 제1 비디오 프레임은 동결 프레임을 포함하고, 상기 동결 프레임 중의 피사체 영역은 상기 동결 프레임 이후의 비디오 프레임을 오버레이하기 위한 것임 - ; 및
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계; 를 포함하고,
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
    상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하는 단계; 및
    연속된 N 개의 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 연속된 N 개의 비디오 프레임 중 하나의 비디오 프레임을 선택하여 상기 동결 프레임으로 사용하는 단계 - 상기 N은 2보다 크거나 같은 양의 정수임 - 를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  2. 제1항에 있어서,
    상기 비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하는 단계는,
    비디오의 비디오 프레임에서의 목표 대상을 식별하는 단계; 및
    상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  3. 제1항에 있어서,
    상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며;
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
    상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  4. 제1항에 있어서,
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
    상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하는 단계; 및
    상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  5. 제1항에 있어서,
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
    상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하는 단계는,
    상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하는 단계; 및
    상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  8. 제1항에 있어서,
    상기 비디오 처리 방법은,
    상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 를 더 포함하며;
    상기 목표 대상이 위치한 적어도 하나의 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
    상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  9. 제8항에 있어서,
    상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정하는 단계는,
    상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하는 단계; 및
    상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  10. 제1항에 있어서,
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하는 단계는,
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  11. 비디오 처리 장치로서,
    상기 장치는 단말에 적용되며,
    비디오에서의 비디오 프레임에서 목표 대상이 위치한 피사체 영역 및 피사체 영역을 제외한 배경 영역을 결정하도록 구성된 제1 결정 모듈; 및
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 목표 대상이 위치한 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 목표 대상이 각각 위치한 적어도 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된 생성 모듈 - 상기 제1 비디오 프레임은 동결 프레임을 포함하고, 상기 동결 프레임 중의 피사체 영역은 상기 동결 프레임 이후의 비디오 프레임을 오버레이하기 위한 것임 - ;을 포함하고,
    상기 생성 모듈은,
    상기 비디오의 비디오 프레임에서, 적어도 하나의 상기 동결 프레임을 선택하도록 구성된 제1 선택 서브 모듈을 포함하며,
    상기 제1 선택 서브 모듈은,
    상기 비디오의 비디오 프레임에서의 상기 목표 대상의 자세를 결정하도록 구성된 제3 결정 서브 모듈; 및
    연속된 N 개의 비디오 프레임에서, 상기 목표 대상의 자세가 동일한 자세이면, 상기 연속된 N 개의 비디오 프레임 중 하나의 비디오 프레임을 선택하여 상기 동결 프레임으로 사용 - 상기 N은 2보다 크거나 같은 양의 정수임 - 하도록 구성된 제2 선택 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  12. 제11항에 있어서,
    상기 제1 결정 모듈은,
    비디오의 비디오 프레임에서의 목표 대상을 식별하도록 구성된 식별 서브 모듈; 및
    상기 목표 대상에 따라, 상기 피사체 영역 및 상기 배경 영역을 결정하도록 구성된 제1 결정 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  13. 제11항에 있어서,
    상기 제2 비디오 프레임은 상기 동결 프레임 이후의 비디오 프레임을 포함하며;
    상기 생성 모듈은 또한,
    상기 동결 프레임의 상기 피사체 영역을, 상기 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된 생성 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  14. 제11항에 있어서,
    상기 제1 선택 서브 모듈은,
    상기 비디오를 재생하는 과정에서, 소정의 조작 명령을 검출하도록 구성된 검출 서브 모듈; 및
    상기 소정의 조작 명령을 검출할 때 디스플레이된 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제2 결정 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  15. 제11항에 있어서,
    상기 제1 선택 서브 모듈은 구체적으로,
    상기 비디오에서 소정의 시간 간격의 비디오 프레임을 선택하여, 상기 동결 프레임으로 사용하기 위한 것임을 특징으로 하는 비디오 처리 장치.
  16. 삭제
  17. 제11항에 있어서,
    상기 제1 선택 서브 모듈은,
    상기 비디오 프레임에서의 상기 목표 대상의 위치를 결정하도록 구성된 제4 결정 서브 모듈; 및
    상기 목표 대상의 위치와 이전 동결 프레임에서의 목표 대상의 위치 사이의 거리가 소정의 거리이면, 현재 비디오 프레임을 상기 동결 프레임으로 결정하도록 구성된 제5 결정 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  18. 제11항 내지 제15항 및 제17항 중 어느 한 항에 있어서,
    상기 비디오 처리 장치는,
    상기 제1 비디오 프레임에서 상기 목표 대상의 위치에 따라, 피사체 영역의 정렬 파라미터를 결정 - 상기 정렬 파라미터는, 상기 특수 효과 프레임에서 상기 피사체 영역의 목표 위치를 결정하기 위한 것임 - 하도록 구성된 제2 결정 모듈을 더 포함하며;
    상기 생성 모듈은 구체적으로,
    상기 정렬 파라미터에 따라, 상기 피사체 영역을, 상기 목표 대상이 위치한 비디오 프레임을 제외한 적어도 하나의 비디오 프레임의 상기 목표 위치에 오버레이하여, 상기 목표 대상이 위치한 두 개의 피사체 영역을 동시에 포함하는 특수 효과 프레임을 생성하도록 구성된 것을 특징으로 하는 비디오 처리 장치.
  19. 제18항에 있어서,
    상기 제2 결정 모듈은,
    상기 비디오의 비디오 프레임에서, 하나의 비디오 프레임을 기준 프레임으로 선택하도록 구성된 제3 선택 서브 모듈; 및
    상기 기준 프레임에서의 목표 대상의 위치 오프셋에 대한 상기 비디오 프레임에 따라, 상기 정렬 파라미터를 결정하도록 구성된 제6 결정 서브 모듈을 포함하는 것을 특징으로 하는 비디오 처리 장치.
  20. 제11항에 있어서,
    상기 생성 모듈은 구체적으로,
    상기 목표 대상이 위치한 적어도 하나의 제1 비디오 프레임에서의 상기 피사체 영역을, 상기 제1 비디오 프레임 이전의 적어도 하나의 제2 비디오 프레임에 오버레이하여, 상기 특수 효과 프레임을 생성하도록 구성된 것을 특징으로 하는 비디오 처리 장치.
  21. 단말의 통신 장치로서,
    상기 비디오 처리 장치는 적어도 프로세서 및 상기 프로세서에서 작동 가능한 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하며,
    상기 실행 가능한 명령어가 작동될 때, 상기 실행 가능한 명령어는 제1항 내지 제5항 및 제7항 내지 제10항 중 어느 한 항에 따른 비디오 처리 방법의 단계를 실행하기 위한 것을 특징으로 하는 단말 통신 장치.
  22. 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 판독 가능 저장 매체에는 컴퓨터 실행 가능 명령어가 저장되어 있고, 상기 컴퓨터 실행 가능한 명령어가 프로세서에 의해 실행될 때, 제1항 내지 제5항 및 제7항 내지 제10항 중 어느 한 항에 따라 제공된 비디오 처리 방법의 단계를 구현하는 것을 특징으로 하는 비일시적 컴퓨터 판독 가능 저장 매체.
KR1020210054745A 2020-07-28 2021-04-28 비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체 KR102457864B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010737025.5A CN111832539A (zh) 2020-07-28 2020-07-28 视频处理方法及装置、存储介质
CN202010737025.5 2020-07-28

Publications (2)

Publication Number Publication Date
KR20220014278A KR20220014278A (ko) 2022-02-04
KR102457864B1 true KR102457864B1 (ko) 2022-10-24

Family

ID=72925792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210054745A KR102457864B1 (ko) 2020-07-28 2021-04-28 비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체

Country Status (5)

Country Link
US (1) US11770497B2 (ko)
EP (1) EP3945490A1 (ko)
JP (1) JP7279108B2 (ko)
KR (1) KR102457864B1 (ko)
CN (1) CN111832539A (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114697723B (zh) * 2020-12-28 2024-01-16 北京小米移动软件有限公司 一种视频生成方法、装置及介质
CN112822419A (zh) * 2021-01-28 2021-05-18 上海盛付通电子支付服务有限公司 一种用于生成视频信息的方法与设备
CN113223012B (zh) * 2021-04-30 2023-09-29 北京字跳网络技术有限公司 视频处理方法、设备及电子设备
CN113497973B (zh) * 2021-09-06 2021-12-10 北京市商汤科技开发有限公司 视频处理方法和装置、计算机可读存储介质及计算机设备
CN113490050B (zh) * 2021-09-07 2021-12-17 北京市商汤科技开发有限公司 视频处理方法和装置、计算机可读存储介质及计算机设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004186994A (ja) * 2002-12-03 2004-07-02 Toshiba Corp オブジェクト画像合成方法、オブジェクト画像合成装置、オブジェクト画像合成プログラム
KR101316848B1 (ko) * 2011-12-27 2013-10-10 중앙대학교 산학협력단 배경 합성을 위한 자동 객체 분할 장치 및 방법
US20170094193A1 (en) 2015-09-28 2017-03-30 Gopro, Inc. Automatic composition of video with dynamic background and composite frames selected based on foreground object criteria

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344946A (ja) * 2001-05-16 2002-11-29 Oki Electric Ind Co Ltd 監視装置
JP5196230B2 (ja) * 2006-12-22 2013-05-15 富士フイルム株式会社 出力装置、出力方法、及びプログラム
JP2010183370A (ja) * 2009-02-05 2010-08-19 Sanyo Electric Co Ltd 画像再生装置
US20120002112A1 (en) * 2010-07-02 2012-01-05 Sony Corporation Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
JP2013162333A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6725061B2 (ja) * 2017-03-31 2020-07-15 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004186994A (ja) * 2002-12-03 2004-07-02 Toshiba Corp オブジェクト画像合成方法、オブジェクト画像合成装置、オブジェクト画像合成プログラム
KR101316848B1 (ko) * 2011-12-27 2013-10-10 중앙대학교 산학협력단 배경 합성을 위한 자동 객체 분할 장치 및 방법
US20170094193A1 (en) 2015-09-28 2017-03-30 Gopro, Inc. Automatic composition of video with dynamic background and composite frames selected based on foreground object criteria

Also Published As

Publication number Publication date
JP2022024993A (ja) 2022-02-09
JP7279108B2 (ja) 2023-05-22
CN111832539A (zh) 2020-10-27
EP3945490A1 (en) 2022-02-02
KR20220014278A (ko) 2022-02-04
US20220038642A1 (en) 2022-02-03
US11770497B2 (en) 2023-09-26

Similar Documents

Publication Publication Date Title
KR102457864B1 (ko) 비디오 처리 방법 및 장치, 단말 통신 장치 및 저장 매체
CN109600659B (zh) 播放视频时的操作方法、装置、设备及存储介质
EP3249509A1 (en) Method and device for playing live videos
EP3136391B1 (en) Method, device and terminal device for video effect processing
US20170178289A1 (en) Method, device and computer-readable storage medium for video display
CN109151537B (zh) 视频处理方法、装置、电子设备及存储介质
US11539888B2 (en) Method and apparatus for processing video data
US11310443B2 (en) Video processing method, apparatus and storage medium
JP7110443B2 (ja) 撮影方法及び撮影装置、電子機器、記憶媒体
CN110636382A (zh) 在视频中添加可视对象的方法、装置、电子设备及存储介质
CN113207027B (zh) 视频播放速度调节方法及装置
CN110636383A (zh) 一种视频播放方法、装置、电子设备及存储介质
CN112764636A (zh) 视频处理方法、装置、电子设备和计算机可读存储介质
CN110636377A (zh) 视频处理方法、装置、存储介质、终端及服务器
CN114282022A (zh) 多媒体编辑方法、装置、电子设备及存储介质
CN108159686B (zh) 投影设备投影的方法、装置及存储介质
CN114125545B (zh) 视频信息处理方法、装置、电子设备及存储介质
CN110955328B (zh) 电子设备的控制方法、装置及存储介质
US11783525B2 (en) Method, device and storage medium form playing animation of a captured image
EP3826282A1 (en) Image capturing method and device
EP4068077A1 (en) Shooting method and apparatus
CN114697700A (zh) 视频剪辑方法、视频剪辑装置及存储介质
CN117835040A (zh) 拍摄视频的方法、装置及存储介质
CN114827441A (zh) 拍摄方法、装置、终端设备及存储介质
CN117499776A (zh) 拍摄方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant