KR20220033402A - 촬영 방법, 촬영 장치, 전자기기 및 저장매체 - Google Patents

촬영 방법, 촬영 장치, 전자기기 및 저장매체 Download PDF

Info

Publication number
KR20220033402A
KR20220033402A KR1020210052776A KR20210052776A KR20220033402A KR 20220033402 A KR20220033402 A KR 20220033402A KR 1020210052776 A KR1020210052776 A KR 1020210052776A KR 20210052776 A KR20210052776 A KR 20210052776A KR 20220033402 A KR20220033402 A KR 20220033402A
Authority
KR
South Korea
Prior art keywords
trajectory
moving
template
photographing
image
Prior art date
Application number
KR1020210052776A
Other languages
English (en)
Other versions
KR102575196B1 (ko
Inventor
싱셩 린
Original Assignee
베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 filed Critical 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드
Publication of KR20220033402A publication Critical patent/KR20220033402A/ko
Application granted granted Critical
Publication of KR102575196B1 publication Critical patent/KR102575196B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • H04N5/23222
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/232935
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 개시는 촬영 방법, 촬영 장치, 전자기기 및 저장매체에 관한 것이다. 당해 방법은 화상 수집 작동 명령을 수신하는 단계; 상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 단계; 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계 - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및 상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계를 포함한다. 본 실시예는 가상 현실 장면 내에 이동 촬영 궤적을 표시하여, 사용자로 하여금 이동 촬영 궤적에 따라 이동 촬영 기법을 활용하여 고품질의 비디오를 편리하게 획득할 수 있도록 한다. 동시에 본 실시예는 별도의 하드웨어를 휴대할 필요가 없어 비용이 낮아진다. 또한, 사용자에게 전문적인 이동 촬영 지식이 필요치 않으므로, 학습 비용을 낮추며, 촬영 체험을 향상시키는데 유리하다.

Description

촬영 방법, 촬영 장치, 전자기기 및 저장매체{ PHOTOGRAPHY METHOD, PHOTOGRAPHY APPARATUS, ELECTRONIC DEVICE, AND STORAGE MEDIUM}
본 개시는 제어 기술 분야에 관한 것으로서, 특히 촬영 방법, 촬영 장치, 전자기기 및 저장매체에 관한 것이다.
현재, 영화와 드라마 촬영 과정에서 특정 효과의 비디오를 획득하기 위하여, 통상적으로 이동 촬영을 사용한다. 즉 카메라의 위치를 이동시키거나, 카메라의 광축을 변경하거나, 카메라의 초점거리를 변화시켜 촬영하는 것을 "이동 촬영"이라고 후술한다. 상술한 이동 촬영 기능을 구현하기 위하여, 전문적인 인력이 위치를 선정하고, 가이드 레일을 부설하는 작업을 하며, 많은 전문 지식과 하드웨어가 필요하다. 이는 일반적인 단말기 사용자에게는 그다지 편리하지 않다. 즉 비용이 너무 높고 하드웨어를 휴대하기 불편하며, 학습 비용이 매우 높다.
본 개시는 촬영 방법, 촬영 장치, 전자기기 및 저장매체를 제공함으로써, 관련 기술의 단점을 해결한다.
본 개시의 실시예의 제1 측면은 카메라 모듈이 설치되어 있는 전자기기에 적용되는 촬영 방법을 제공하고,
화상 수집 작동 명령을 수신하는 단계;
상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 단계;
상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계 - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및
상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계를 포함한다.
선택적으로, 상기 전자기기의 화상 뷰파인더 프레임 내에서 AR 앵커 포인트를 구축하는 단계는,
화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계; 및
상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하는 단계 - 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하고, 상기 AR 앵커 포인트의 위치는 가상 3차원 공간에서의 상기 피사체의 위치에 대응됨 -;를 포함한다.
선택적으로, 화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계는,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 단계; 및
상기 깊이 화상에 따라, 상기 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계를 포함한다.
선택적으로, 화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계는,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 단계;
미리 설정된 특징 포인트 추출 모델에 따라 상기 평면 화상 내의 다수의 특징 포인트를 획득하는 단계; 및
상기 깊이 화상을 기반으로, 각 특징 포인트의 깊이 데이터를 결정하고, 각 오브젝트의 다수의 특징 포인트를 획득하는 단계를 포함한다.
선택적으로, 상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계는,
미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 단계 - 상기 목표 템플릿 내에는 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치가 포함됨 -; 및
상기 AR 앵커 포인트와 상기 기준 포인트가 중첩하는 경우, 상기 현재 위치를 지나고 상기 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성하는 단계를 포함한다.
선택적으로, 미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 단계는,
미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하되, 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함하는 단계; 및
템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득하는 단계를 포함한다.
선택적으로, 상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계는,
미리 설정된 규칙에 따라, 상기 AR 앵커 포인트와 상기 현재 위치에 따라 적어도 하나의 이동 촬영 궤적을 생성하는 단계 - 상기 이동 촬영 궤적은 줌인 궤적, 줌아웃 궤적, 팬 틸트 궤적, 트랙 궤적, 페데스탈 궤적, 페데스탈 다운 궤적 및 서라운드 궤적 중의 하나 또는 다수를 포함함 -; 및
사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로 결정하는 단계를 포함한다.
선택적으로, 이동 촬영 궤적을 생성하는 단계 이후, 상기 방법은,
상기 이동 촬영 궤적과 상기 화상 뷰파인더 프레임 내의 각 오브젝트의 위치를 비교하는 단계; 및
상기 이동 촬영 궤적에 위치하는 오브젝트가 존재하는 경우, 상기 이동 촬영 궤적이 상기 오브젝트의 주변 부분에 위치하도록 조정하여, 상기 이동 촬영 궤적이 상기 오브젝트를 우회하도록 하는 단계를 포함한다.
선택적으로, 상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계는,
카메라 모듈의 실시간 위치와 초기 위치를 획득하는 단계 - 상기 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치한 위치를 가리킴 -;
초기 위치, AR 앵커 포인트의 위치 및 이동 촬영 궤적의 공간 관계를 획득하는 단계; 및
공간 관계를 기반으로, 상기 초기 위치에 대한 상기 실시간 위치의 상대적 위치에 따라, 상기 AR 앵커 포인트와 상기 이동 촬영 궤적을 이동시키는 단계를 포함한다.
선택적으로, 상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계는,
촬영 과정에서, 카메라 모듈이 상기 이동 촬영 궤적에 위치하는지를 검출하는 단계; 및
상기 카메라 모듈이 상기 이동 촬영 궤적에 위치하지 않을 경우, 상기 이동 촬영 궤적의 지정 파라미터를 조정하여, 상기 카메라 모듈이 상기 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 하는 단계를 포함한다.
본 개시의 실시예의 제2 측면은 카메라 모듈이 설치되어 있는 전자기기에 적용되는 촬영 장치를 제공하고,
화상 수집 작동 명령을 수신하는 명령 수신 모듈;
상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 앵커 포인트 구축 모듈;
상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 궤적 생성 모듈 - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및
상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 화상 수집 모듈을 포함한다.
선택적으로, 상기 앵커 포인트 구축 모듈은,
화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 획득 유닛; 및
상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하는 앵커 포인트 결정 유닛 - 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하며, 상기 AR 앵커 포인트의 위치는 가상 3차원 공간에서의 상기 피사체의 위치에 대응됨 -;을 포함한다.
선택적으로, 상기 특징 포인트 획득 유닛은,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛; 및
상기 깊이 화상에 따라, 상기 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트 획득하는 특징 포인트 획득 서브 유닛을 포함한다.
선택적으로, 상기 특징 포인트 획득 유닛은,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛;
미리 설정된 특징 포인트 추출 모델에 따라 상기 평면 화상 내의 다수의 특징 포인트를 획득하는 특징 포인트 추출 서브 유닛; 및
상기 깊이 화상에 따라, 각 특징 포인트의 깊이 데이터를 결정하고, 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 결정 서브 유닛을 포함한다.
선택적으로, 상기 궤적 생성 모듈은,
미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 모듈 획득 유닛 - 상기 목표 템플릿 내에는 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치가 포함됨 -; 및
상기 AR 앵커 포인트와 상기 기준 포인트가 중첩하는 경우, 상기 현재 위치를 지나고 상기 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성하는 궤적 생성 유닛을 포함한다.
선택적으로, 상기 모듈 획득 유닛은,
미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하는 템플릿 전시 서브 유닛 - 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함함 -; 및
템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득하는 템플릿 결정 서브 유닛을 포함한다.
선택적으로, 상기 궤적 생성 모듈은,
미리 설정된 규칙에 따라, 상기 AR 앵커 포인트와 상기 현재 위치에 따라 적어도 하나의 이동 촬영 궤적을 생성하는 궤적 생성 유닛 - 상기 이동 촬영 궤적은 줌인 궤적, 줌아웃 궤적, 팬 틸트 궤적, 트랙 궤적, 페데스탈 궤적, 페데스탈 다운 궤적 및 서라운드 궤적 중의 하나 또는 다수를 포함함 -; 및
사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로 결정하는 궤적 결정 유닛을 포함한다.
선택적으로, 상기 장치는,
상기 이동 촬영 궤적과 상기 화상 뷰파인더 프레임 내의 각 오브젝트의 위치를 비교하는 위치 비교 모듈; 및
상기 이동 촬영 궤적에 위치하는 오브젝트가 존재하는 경우, 상기 이동 촬영 궤적이 상기 오브젝트의 주변 부분에 위치하도록 조정하여, 상기 이동 촬영 궤적이 상기 오브젝트를 우회하도록 하는 궤적 조정 모듈을 더 포함한다.
선택적으로, 상기 화상 수집 모듈은,
카메라 모듈의 실시간 위치와 초기 위치를 획득하는 위치 획득 유닛 - 상기 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치한 위치를 가리킴 -;
초기 위치, AR 앵커 포인트의 위치 및 이동 촬영 궤적의 공간 관계를 획득하는 관계 획득 유닛; 및
상기 공간 관계를 기반으로, 상기 초기 위치에 대한 상기 실시간 위치의 상대적 위치에 따라, 상기 AR 앵커 포인트와 상기 이동 촬영 궤적을 이동시키는 궤적 이동 유닛을 포함한다.
선택적으로, 상기 화상 수집 모듈은,
촬영 과정에서, 카메라 모듈이 상기 이동 촬영 궤적에 위치하는지를 검출하는 궤적 검출 유닛; 및
상기 카메라 모듈이 상기 이동 촬영 궤적에 위치하지 않을 경우, 상기 이동 촬영 궤적의 지정 파라미터를 조정하여, 상기 카메라 모듈이 상기 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 하는 궤적 조정 유닛을 포함한다.
본 개시의 실시예의 제3 측면은 전자기기를 제공한다. 상기 전자기기는,
카메라;
프로세서;
상기 프로세서가 실행 가능한 컴퓨터 프로그램을 저장하는 메모리를 포함하며,
상기 프로세서는 상기 메모리 중의 컴퓨터 프로그램을 실행하여 제1 측면에 따른 방법을 구현하도록 구성된다.
본 개시의 실시예의 제4 측면은 컴퓨터 판독 가능 저장매체를 제공한다. 상기 저장매체 중의 실행 가능한 컴퓨터 프로그램이 프로세서에 의해 실행되는 경우, 제1 측면에 따른 방법을 구현할 수 있다.
본 개시의 실시예에 따른 기술적 방안은 아래의 유익한 효과를 포함할 수 있다.
상술한 실시예로부터 알 수 있듯이, 본 개시의 실시예는 화상 수집 작동 명령을 수신한 후; 상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하며; 이어서 상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하되, 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타내며; 마지막으로, 상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행할 수 있다. 이로써, 본 실시예는 가상 현실 장면 내에 이동 촬영 궤적을 표시하여, 사용자로 하여금 이동 촬영 궤적에 따라 이동 촬영 기법을 활용하여 고품질의 비디오를 편리하게 획득할 수 있도록 한다. 동시에 본 실시예는 별도의 하드웨어를 휴대할 필요가 없어 비용이 낮아진다. 또한, 사용자에게 전문적인 이동 촬영 지식이 필요치 않으므로, 학습 비용을 낮추며, 촬영 체험을 향상시키는데 유리하다.
이해해야 할 바로는, 상술한 일반적인 설명과 후술되는 세부 설명은 예시적이고 해석적인 것일 뿐이며, 본 개시를 한정할 수 없다.
이 부분의 도면은 명세서에 병합되어 본 명세서의 일부를 구성하며, 본 개시에 부합하는 실시예를 나타내고 명세서와 함께 본 개시의 원리를 해석한다.
도 1은 예시적인 실시예에 따라 나타낸 촬영 방법의 흐름도이다.
도 2는 예시적인 실시예에 따라 나타낸 AR 앵커 포인트를 결정하는 흐름도이다.
도 3은 예시적인 실시예에 따라 나타낸 가상 현실 장면의 효과 개략도이다.
도 4는 예시적인 실시예에 따라 나타낸 특징 포인트를 획득하는 흐름도이다.
도 5는 예시적인 실시예에 따라 나타낸 특징 포인트를 획득하는 또 다른 흐름도이다.
도 6은 예시적인 실시예에 따라 나타낸 이동 촬영 궤적을 생성하는 흐름도이다.
도 7은 예시적인 실시예에 따라 나타낸 목표 템플릿을 획득하는 흐름도이다.
도 8은 예시적인 실시예에 따라 나타낸 템플릿을 표시한 효과 개략도이다.
도 9는 예시적인 실시예에 따라 나타낸 이동 촬영 궤적을 표시한 효과 개략도이다.
도 10은 예시적인 실시예에 따라 나타낸 이동 촬영 궤적을 생성하는 또 다른 흐름도이다.
도 11은 예시적인 실시예에 따라 나타낸 2개의 이동 촬영 궤적을 표시한 효과 개략도이다.
도 12는 예시적인 실시예에 따라 나타낸 또 다른 촬영 방법의 흐름도이다.
도 13은 예시적인 실시예에 따라 나타낸 또 다른 촬영 방법의 흐름도이다.
도 14는 예시적인 실시예에 따라 나타낸 또 다른 촬영 방법의 흐름도이다.
도 15는 예시적인 실시예에 따라 나타낸 이동 촬영 궤적의 지정 파라미터를 조정한 효과 개략도이다.
도 16은 예시적인 실시예에 따라 나타낸 촬영 장치의 블록도이다.
도 17은 예시적인 실시예에 따라 나타낸 전자기기의 블록도이다.
여기서, 예시적인 실시예를 상세히 설명하기로 하며, 그 예시는 도면에 나타냈다. 이하 설명이 도면과 관련된 경우, 다른 표시가 없는 한 서로 다른 도면의 동일한 숫자는 동일 또는 유사한 요소를 나타낸다. 이하 예시적인 실시예에서 설명되는 실시형태는 본 개시와 일치한 모든 실시형태를 대표하는 것은 아니다. 오히려, 이들은 후술되는 청구범위에서 상세히 설명한 것과 같은 본 개시의 일부 측면과 일치한 장치와 방법의 예시일 뿐이다.
상술한 기술적 과제를 해결하기 위하여, 본 개시의 실시예는 촬영 방법을 제공한다. 당해 방법은 예컨대 스마트 폰, 태블릿 PC, 스마트 이어폰 등과 같이 카메라 모듈이 설치되어 있는 전자기기에 적용될 수 있다. 사용자가 카메라 모듈을 켜고 촬영을 수행하는 경우, 전자기기는 상술한 촬영 방법을 수행할 수 있다. 도 1은 예시적인 실시예에 따라 나타낸 촬영 방법의 흐름도이며, 단계 11 내지 단계 14를 포함한다.
단계 11에서 화상 수집 작동 명령을 수신한다.
본 실시예에서, 카메라 모듈을 켠 후, 전자기기는 표시 스크린에 화상 뷰파인더 프레임을 표시할 수 있으며, 사용자는 표시 스크린을 터치하거나 또는 버튼을 사용하여 화상 수집 기능을 작동시킬 수 있다. 화상 수집 기능은 비디오 촬영 기능 또는 화상 연속 촬영 기능을 사용할 수 있다. 이어서, 전자기기의 프로세서가 스크린 또는 버튼을 검출함으로써, 화상 수집 작동 명령을 획득할 수 있다.
단계 12에서, 상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축한다.
본 실시예에서, 도 2를 참고하면, 단계 21에서 전자기기의 프로세서는 화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득할 수 있으며, 효과는 도 3과 같다. 도 3을 참고하면, 특징 포인트(20)는 화상 뷰파인더 프레임 중 캐릭터의 팔꿈치 및 전체 화상 뷰파인더 프레임 내에서의 팔꿈치의 공간 위치(특징 포인트의 좌표 데이터, 및 다른 특징 포인트와의 상대적 위치 관계를 통해 구현된다)를 나타낸다.
프로세서가 화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계는 아래 단계를 포함할 수 있다.
하나의 예시에서, 전자기기에는 일반 카메라와 깊이 카메라가 설치되어 있으며, 이에 따라 일반 카메라는 화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상을 획득할 수 있으며 깊이 카메라는 미리보기 장면의 깊이 화상을 획득할 수 있다. 도 4를 참고하면, 단계 41에서 프로세서는 일반 카메라 및 깊이 카메라와 각각 통신하여, 평면 화상과 깊이 화상을 획득할 수 있다. 단계 42에서 프로세서는 깊이 화상과 평면 화상에 따라, 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트를 획득할 수 있으며, 이들 특징 포인트는 오브젝트의 프로파일, 공간 위치 등을 반영할 수 있으며, 예를 들면 캐릭터의 머리와 팔꿈치, 테이블의 다리, 실내 코너 등을 반영할 수 있다. 이해할 수 있듯이, 각 특징 포인트의 속성 데이터는 3차원 좌표 데이터, 다른 특징 포인트와의 공간 관계 데이터, 카메라와의 공간 관계 데이터 등을 포함할 수 있으며, 구체적인 장면에 따라 설정할 수 있다. 마지막으로 프로세서는 다수의 특징 포인트를 미리보기 장면의 오브젝트 위에 삽입할 수 있다. 특징 포인트를 미리보기 장면에 삽입하는 프로세스는 관련 기술을 참고할 수 있으므로, 여기서 더 이상 설명하지 않는다.
다른 하나의 예시에서, 전자기기에는 일반 카메라와 깊이 카메라가 설치되어 있으며, 이에 따라 일반 카메라는 미리보기 장면의 평면 화상을 획득할 수 있으며, 깊이 카메라는 미리보기 장면의 깊이 화상을 획득할 수 있다. 도 5를 참고하면, 단계 51에서 프로세서는 미리보기 장면의 평면 화상과 깊이 화상을 획득할 수 있다. 단계 52에서 프로세서는 예컨대 FAST 알고리즘, SIFT 알고리즘, SUFR 알고리즘, ORB 알고리즘, HARRIS 알고리즘 등과 같은 미리 설정된 특징 포인트 추출 모델을 호출하여, 평면 화상을 당해 특징 포인트 추출 모델에 입력하여 평면 화상 내의 다수의 특징 포인트를 얻을 수 있다. 이해할 수 있듯이, 이때 각 특징 포인트의 속성 데이터는 2차원 좌표 데이터, 다른 특징 포인트와의 평면 관계 데이터, 카메라와의 평면 관계 데이터 등을 포함할 수 있다. 단계 53에서 프로세서는 깊이 화상에 따라, 각 특징 포인트의 깊이 데이터를 결정할 수 있으며, 나아가 평면 관계를 공간 관계로 업데이트할 수 있으며, 다시 말해 각 특징 포인트를 평면 좌표계로부터 3차원 좌표계로 이전할 수 있다. 이때 각 특징 포인트의 속성 데이터는 3차원 좌표 데이터, 다른 특징 포인트와의 공간 관계 데이터, 카메라와의 공간 관계 데이터 등을 포함할 수 있다. 마지막으로 프로세서는 다수의 특징 포인트를 미리보기 장면의 오브젝트 위에 삽입할 수 있다.
설명해야 하는 바로는, 본 단계의 핵심은 화상 수집 기능을 켠 후, 현재의 일반 카메라 모드(즉 미리보기 장면에 어떤 오브젝트가 있으면 그 오브젝트를 표시한다)로부터 자동으로 가상 3차원 공간으로 전환되어, 도 3에 나타낸 다수의 특징 포인트를 포함하는 효과를 구현한다는 점이다.
계속 도 2를 참고하면, 단계 22에서 상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하되, 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하며, AR 앵커 포인트의 위치는 가상 3차원 공간에서의 피사체의 위치에 대응된다. 본 실시예에서, 전자기기의 프로세서는 모니터와 통신하며, 모니터를 제어하여 상술한 화상 뷰파인더 프레임을 표시함으로써, 다수의 특징 포인트를 사용자에게 전시한다. 사용자는 버튼 또는 터치 등의 방식을 통해 전자기기에 대해 트리거링 동작을 수행할 수 있으며, 예를 들어 사용자는 도 3에서의 특징 포인트(20)을 클릭할 수 있다. 이로써 프로세서는 트리거링 동작을 통해 화상 뷰파인더 프레임 내의 하나의 특징 포인트를 AR 앵커 포인트로 결정할 수 있다. 이해할 수 있듯이, 당해 AR 앵커 포인트가 위치한 오브젝트를 피사체로 한다. 다시 말해, 사용자는 AR 앵커 포인트를 선택하는 방식으로 가상 3차원 공간에서 하나의 피사체를 선택한다.
단계 13에서 상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하되, 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타낸다.
본 실시예에서, 전자기기의 프로세서는 전자기기의 카메라의 현재 위치와 AR 앵커 포인트에 따라 이동 촬영 궤적을 생성할 수 있는 단계는 아래 단계를 포함한다.
하나의 예시에서, 전자기기 내에는 템플릿 라이브러리가 기설정되어 있으며, 당해 템플릿 라이브러리 내에는 다수의 템플릿이 포함되며, 각 템플릿은 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치를 포함한다. 예를 들어 템플릿(1)은 이동 촬영 궤적의 형태가 원형이고, 기준 포인트와 이동 촬영 궤적의 상대적 위치인 반경을 포함하며, 이 템플릿(1)은 서라운드의 이동 촬영 기법에 대응된다. 템플릿(2)은 이동 촬영 궤적의 형태가 위로부터 아래로의 수직 선분이고, 기준 포인트가 수직선의 상측 종점에 위치하는 것을 포함하며, 이 템플릿은 페데스탈 다운의 이동 촬영 기법에 대응되며, 템플릿(2)에서의 형태를 반전시키면 틸트업의 이동 촬영 기법에 대응된다. 템플릿(3)은 이동 촬영 궤적의 형태가 좌측으로부터 우측으로의 수평 선분이고, 기준 포인트가 수평 선분의 좌측 종점인 것을 포함하며, 이 템플릿은 트랙의 이동 촬영 기법에 대응된다. 설명해야 하는 바로는, 상기에서 몇 가지 템플릿만 예를 들어 설명하였을 뿐이며, 구체적인 이동 촬영 기법에 따라 상응하는 템플릿, 예를 들어 팔로우, 팬 틸트, 줌인, 줌아웃 등과 같은 템플릿을 설정할 수 있으며, 상응하는 템플릿은 본 개시의 보호 범위에 속한다.
도 6을 참고하면, 단계 61에서 프로세서는 미리 설정된 템플릿 라이브러리 내에서 템플릿을 획득하여, 목표 템플릿을 획득할 수 있으며, 획득 방식은 아래 단계를 포함할 수 있다. 도 7을 참고하면, 단계 71에서 미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하고, 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함하며, 단계 72에서 템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득한다.
예시적으로, 단계 71에서 프로세서가 AR 앵커 포인트를 결정하면, AR 앵커 포인트의 위치 또는 AR 앵커 포인트에 대응하는 오브젝트에 따라, 템플릿 라이브러리 내에서 다수의 템플릿을 매칭시켜 후보 템플릿으로 하고, AR 앵커 포인트 주위에 나열 전시할 수 있으며, 효과는 도 8에서와 같으며, 사용자들이 편리하게 선택하도록 한다. 물론, 매칭 방식은 다수의 후보 템플릿을 무작위로 선택할 수도 있고, 사용자의 사용 이력에 따라 사용 빈도가 높은 다수의 후보 템플릿을 선택할 수도 있으며, 상응하는 솔루션은 본 개시의 보호 범위에 속한다. 단계 72에서 사용자가 그 중 하나의 후보 템플릿에 대해 트리거링 동작을 수행하면, 프로세서는 당해 후보 템플릿을 목표 템플릿으로 결정할 수 있다. 이와 상응하게, 목표 템플릿은 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치를 포함한다.
단계 62에서, 프로세서는 AR 앵커 포인트와 기준 포인트를 겹쳐서, 양자를 중첩시킬 수 있다. AR 앵커 포인트와 기준 포인트가 중첩되면, 프로세서는 카메라의 현재 위치를 지나고 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성할 수 있으며 효과는 도 9에 나타낸 바와 같다. 도 9를 참고하면, 사용자가 캐릭터 상의 특징 포인트(20)를 선택하여 AR 앵커 포인트로 하는 경우, 템플릿(3)을 선택하면, 하나의 좌측으로부터 우측으로의 수평 선분(21)을 획득할 수 있으며, 수평 선분(21)으로부터 AR 앵커 포인트의 수평 거리는 d(즉 기준 포인트와 이동 촬영 궤적의 상대적 위치)일 수 있다.
다른 하나의 예시에서, 전자기기 내에는 미리 설정된 규칙이 저장되어 있으며, 당해 미리 설정된 규칙은 이동 촬영 궤적을 생성하는 다수의 규칙을 포함할 수 있다. 예를 들어, AR 앵커 포인트를 중심으로, 현재 위치를 지나는 하나의 원형을 생성하거나 또는 기설정 반경의 하나의 원형을 생성하며, 당해 원형을 이동 촬영 궤적으로 사용하는 경우에는 서라운드의 이동 촬영 기법에 대응된다. 또 예를 들면, 수평 방향에서 AR 앵커 포인트와의 거리가 d인 기준 포인트를 시작 포인트로 하거나 또는 현재 위치를 시작 포인트로 하여, 위에서 아래로의 형태를 가진 수직 선분을 생성하고, 당해 수직 선분을 이동 촬영 궤적으로 사용하는 경우에는 페데스탈 다운의 이동 촬영 기법에 대응된다. 또 예를 들면, 수평 방향에서 AR 앵커 포인트와의 거리가 d인 기준 포인트를 시작 포인트로 하거나 또는 현재 위치를 시작 포인트로 하여, 좌측으로부터 우측으로의 형태를 가진 수평 선분을 생성하고, 당해 수평 선분을 이동 촬영 궤적으로 사용하는 경우에는 트랙의 이동 촬영 기법에 대응된다. 설명해야 하는 바로는, 상기에서 몇 가지 규칙만 예를 들어 설명하였을 뿐이며, 구체적인 이동 촬영 기법에 따라 상응하는 규칙, 예를 들어 팔로우, 팬 틸트, 줌인, 줌아웃 등의 규칙을 설정할 수 있으며, 상응하는 규칙은 본 개시의 보호 범위에 속한다.
도 10을 참고하면, 단계 101에서 프로세서는 미리 설정된 규칙에 따라, AR 앵커 포인트와 현재 위치에 따라 적어도 하나의 이동 촬영 궤적을 생성할 수 있으며, 효과는 도 11에 나타낸 바와 같다. 도 11을 참고하면, 프로세서는 이동 촬영 궤적(21)과 이동 촬영 궤적(22)을 생성하였다. 단계 102에서 프로세서는 사용자의 트리거링 동작을 검출하여, 사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로서 결정할 수 있다.
실제 응용 시, 화상 뷰파인더 프레임 내에 다수의 오브젝트를 포함할 수 있다. 그러면 템플릿 또는 미리 설정된 규칙에 따라 생성한 이동 촬영 궤적은 어느 오브젝트를 지날 수 있으며, 사용자는 이동 촬영 과정에서 위험이 발생할 수 있다. 이를 위해, 하나의 실시예의 경우, 도 12를 참고하면, 단계 121에서 프로세서는 이동 촬영 궤적과 화상 뷰파인더 프레임 내의 오브젝트의 위치를 비교할 수 있으며, 이로써 이동 촬영 궤적에 위치하는 오브젝트가 존재하는지를 결정할 수 있다. 단계 122에서 이동 촬영 궤적에 위치하는 오브젝트가 존재하면, 프로세서는 이동 촬영 궤적이 오브젝트의 주변 부분에 위치하도록 조정하고, 조정하여 획득한 이동 촬영 궤적을 최종 이동 촬영 궤적으로 할 수 있으며, 그렇지 않으면 조정하지 않는다. 이로써, 본 실시예에서는 이동 촬영 궤적을 알맞게 조정함으로써, 이동 촬영을 구현함과 동시에 사용자의 안전을 확보할 수 있다.
단계 14에서, 상기 이동 촬영 궤적에 따라 상기 피사체에 대한 화상 수집을 수행한다.
본 실시예에서, 사용자는 이동 촬영 궤적의 가이드에 따라 피사체에 대해, 예컨대 비디오 촬영과 연속 화상 촬영과 같은 화상 수집을 수행할 수 있다.
실제 응용 시, 화상 뷰파인더 프레임이 형성된 후, 사용자는 전자기기를 이동시킬 수 있다. 이때 도 13을 참고하면, 단계 131에서 프로세서는 카메라 모듈의 실시간 위치와 초기 위치를 획득할 수 있으며, 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치하는 위치를 가리킨다. 단계 132에서 프로세서는 초기 위치, AR 앵커 포인트의 위치와 이동 촬영 궤적의 공간 관계를 획득할 수 있다. 설명해야 하는 바로는, 이동 촬영 궤적을 획득한 경우에는, 사실상 초기 위치, AR 앵커 포인트의 위치와 이동 촬영 궤적 이들 삼자의 공간 관계를 이미 획득한 경우이므로, 후속의 사용에 편리하도록 사전에 공간 관계를 연산하여, 지정 위치에 저장할 수 있다. 단계 133에서, 프로세서는 상기 공간 관계를 기반으로, 초기 위치에 대한 실시간 위치의 상대적 위치에 따라 AR 앵커 포인트와 이동 촬영 궤적을 이동시켜 표시 스크린에서의 이동 촬영 궤적의 표시 부분을 조정할 수 있다. 그러면 데이터를 처리하는 수를 줄일 수 있으며, 이동 촬영 궤적을 동적으로 표시하여 사용자의 사용 체험을 향상시킬 수 있다.
실제 응용 시, 이동 촬영 과정에서, 사용자 또는 카메라는 이동 촬영 궤적으로부터 오프셋 할 수 있다. 이를 위해, 본 실시예의 경우, 도 14를 참고하면, 단계 141에서 프로세서는 촬영 과정에서 카메라 모듈이 이동 촬영 궤적에 위치하였는지를 검출할 수 있다. 단계 142에서, 카메라 모듈이 이동 촬영 궤적에 위치하지 않을 경우, 이동 촬영 궤적의 지정 파라미터, 예를 들어 색상, 폭, 점선과 실선, 이동 속도, 스트로브 등을 조정하여, 카메라 모듈이 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 한다. 그 효과는 도 15에 나타낸 바와 같으며, 블록(23) 내의 이동 촬영 궤적이 가늘게 변하여, 이동 촬영 궤적으로부터 멀어졌음을 사용자에게 리마인드 한다. 이로써, 본 실시예는 사용자가 정확히 카메라를 이동시키도록 보장하여, 고품질의 비디오를 획득할 수 있다.
이에 따라, 본 실시예는 가상 현실 장면 내에 이동 촬영 궤적을 표시하여, 사용자로 하여금 이동 촬영 궤적에 따라 이동 촬영 기법을 활용하여 고품질의 비디오를 편리하게 획득할 수 있도록 한다. 동시에 본 실시예는 별도의 하드웨어를 휴대할 필요가 없어 비용이 낮아진다. 또한, 사용자에게 전문적인 이동 촬영 지식이 필요치 않으므로, 학습 비용을 낮추며, 촬영 체험을 향상시키는데 유리하다.
이하, 각종 이동 촬영 기법을 결합하여 상술한 촬영 방법을 설명한다. 상기 방법은 아래 단계를 포함한다.
줌인 또는 줌아웃
설명: 촬영자는 움직이지 않고, 카메라는 멀리서부터 피사체로 이동한다.
구현:
1. 피사체와 이동 촬영 템플릿을 선택한다.
2. AR 앵커 포인트, 피사체를 선택하고, 이동 촬영 궤적을 생성한다.
3. 촬영자가 이동 촬영 궤적에 따라 이동하면서 화상 수집을 수행한다.
팬 틸트
설명: 촬영자는 움직이고, 카메라 위치는 고정되며, 카메라의 촬영 각도는 피사체를 따라 이동한다.
구현:
1. 촬영자가 피사체와 이동 촬영 템플릿을 선택한다.
2. 피사체의 위치를 동적으로 식별하고, 위치에 따라 카메라를 이동시키면서 화상 수집을 수행한다.
트랙
설명: 피사체와 카메라는 고정 거리를 유지하며, 카메라는 피사체를 따라 이동한다.
구현:
1. 촬영자가 AR 앵커 포인트, 피사체와 이동 촬영 템플릿을 선택한다.
2. AR 앵커 포인트에서 거리와 방향을 고정하여 이동 촬영 궤적을 생성한다.
3. 비디오의 각 프레임 구도에서의 피사체의 위치를 검출하고, 촬영자는 평행 이동하여 화상 수집을 수행한다.
페데스탈
설명: 카메라 위치가 위로부터 아래로 또는 아래로부터 위로 변한다.
구현:
1. 촬영자가 AR 앵커 포인트, 피사체와 이동 촬영 템플릿을 선택한다.
2. 위로부터 아래로 또는 아래로부터 위로에 따라, AR 앵커 포인트가 배치되는 높이는 피사체의 키와 관련된다.
3. 고정 거리를 시작 포인트로 하는 카메라 위치와 이동 촬영 궤적을 표시하여 화상 수집을 수행한다.
상술한 촬영 방법을 기초로, 본 개시의 실시예는 카메라 모듈이 설치되어 있는 전자기기에 적용되는 촬영 장치를 더 제공한다. 도 16을 참고하면, 상기 장치는,
화상 수집 작동 명령을 수신하는 명령 수신 모듈(161);
상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 앵커 포인트 구축 모듈(162);
상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 궤적 생성 모듈(163) - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및
상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 화상 수집 모듈(164)을 포함한다.
일 실시예에서, 상기 AR 앵커 포인트 구축 모듈은,
화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 획득 유닛; 및
상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하는 앵커 포인트 결정 유닛 - 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하며, 상기 AR 앵커 포인트의 위치는 가상 3차원 공간에서의 상기 피사체의 위치에 대응됨 -;을 포함한다.
일 실시예에서, 상기 특징 포인트 획득 유닛은,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛; 및
상기 깊이 화상에 따라, 상기 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 획득 서브 유닛을 포함한다.
일 실시예에서, 상기 특징 포인트 획득 유닛은,
화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛;
미리 설정된 특징 포인트 추출 모델에 따라 상기 평면 화상 내의 다수의 특징 포인트를 획득하는 특징 포인트 추출 서브 유닛; 및
상기 깊이 화상을 기반으로, 각 특징 포인트의 깊이 데이터를 결정하고, 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 결정 서브 유닛을 포함한다.
일 실시예에서, 상기 궤적 생성 모듈은,
미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 모듈 획득 유닛 - 상기 목표 템플릿 내에는 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치가 포함됨 -; 및
상기 AR 앵커 포인트와 상기 기준 포인트가 중첩하는 경우, 상기 현재 위치를 지나고 상기 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성하는 궤적 생성 유닛을 포함한다.
일 실시예에서, 상기 모듈 획득 유닛은,
미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하는 템플릿 전시 서브 유닛 - 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함함 -; 및
템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득하는 템플릿 결정 서브 유닛을 포함한다.
일 실시예에서, 상기 궤적 생성 모듈은,
미리 설정된 규칙에 따라, 상기 AR 앵커 포인트와 상기 현재 위치에 따라, 적어도 하나의 이동 촬영 궤적을 생성하는 궤적 생성 유닛 - 상기 이동 촬영 궤적은 줌인 궤적, 줌아웃 궤적, 팬 틸트 궤적, 트랙 궤적, 페데스탈 궤적, 페데스탈 다운 궤적 및 서라운드 궤적 중의 하나 또는 다수를 포함함 -; 및
사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로 결정하는 궤적 결정 유닛을 포함한다.
일 실시예에서, 상기 장치는,
상기 이동 촬영 궤적과 상기 화상 뷰파인더 프레임 내의 각 오브젝트의 위치를 비교하는 위치 비교 모듈; 및
상기 이동 촬영 궤적에 위치하는 오브젝트가 존재하는 경우, 상기 이동 촬영 궤적이 상기 오브젝트의 주변 부분에 위치하도록 조정하여, 상기 이동 촬영 궤적이 상기 오브젝트를 우회하도록 하는 궤적 조정 모듈을 더 포함한다.
일 실시예에서, 상기 화상 수집 모듈은,
카메라 모듈의 실시간 위치와 초기 위치를 획득하는 위치 획득 유닛 - 상기 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치한 위치를 가리킴 -;
초기 위치, AR 앵커 포인트의 위치와 이동 촬영 궤적의 공간 관계를 획득하는 관계 획득 유닛; 및
상기 공간 관계를 기반으로, 상기 초기 위치에 대한 상기 실시간 위치의 상대적 위치에 따라, 상기 AR 앵커 포인트와 상기 이동 촬영 궤적을 이동시키는 궤적 이동 유닛을 포함한다.
일 실시예에서, 상기 화상 수집 모듈은,
촬영 과정에서, 카메라 모듈이 상기 이동 촬영 궤적에 위치하는지를 검출하는 궤적 검출 유닛; 및
상기 카메라 모듈이 상기 이동 촬영 궤적에 위치하지 않을 경우, 상기 이동 촬영 궤적의 지정 파라미터를 조정하여, 상기 카메라 모듈이 상기 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 하는 궤적 조정 유닛을 포함한다.
이해할 수 있듯이, 본 개시의 실시예에서 제공하는 장치와 상술한 방법은 서로 대응되며, 구체적인 내용은 방법의 각 실시예의 내용을 참고할 수 있으므로, 여기서 더 이상 설명하지 않는다.
도 17은 예시적인 실시예에 따라 나타낸 전자기기의 블록도이다. 예를 들어, 전자기기(1700)는 스마트 폰, 컴퓨터, 디지털 방송 단말기, 태블릿 기기, 의료 기기, 피트니스 기기, 개인용 정보 단말기 등일 수 있다.
도 17을 참고하면, 전자기기(1700)는 처리 어셈블리(1702), 메모리(1704), 전원 어셈블리(1706), 멀티미디어 어셈블리(1708), 오디오 어셈블리(1710), 입/출력(I/O) 인터페이스(1712), 센서 어셈블리(1714), 통신 어셈블리(1716) 및 화상 수집 어셈블리(1718) 중의 하나 또는 다수의 어셈블리를 포함할 수 있다.
처리 어셈블리(1702)는 일반적으로 전자기기(1700)의 전체적인 동작, 예컨대 표시, 전화 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작을 제어한다. 처리 어셈블리(1702)는 하나 또는 다수의 프로세서(1720)를 포함하여 컴퓨터 프로그램을 실행할 수 있다. 또한, 처리 어셈블리(1702)는 처리 어셈블리(1702)와 다른 어셈블리 사이의 인터랙티브가 용이해지도록 하나 또는 다수의 모듈을 포함할 수 있다. 예를 들어, 처리 어셈블리(1702)는 멀티미디어 어셈블리(1708)와 처리 어셈블리(1702) 사이의 인터랙티브가 용이해지도록 멀티미디어 모듈을 포함할 수 있다.
메모리(1704)는 다양한 유형의 데이터를 저장하여 전자기기(1700)에서의 동작을 지원하도록 구성된다. 이러한 데이터의 예시는 전자기기(1700)에서 동작하는 임의의 응용 프로그램 또는 방법에 이용되는 컴퓨터 프로그램, 연락처 데이터, 전화부 데이터, 메시지, 이미지, 비디오 등을 포함한다. 메모리(1704)는 임의의 유형의 휘발성 또는 비휘발성 저장기기 또는 이들의 조합으로 구현될 수 있다. 예를 들어, S램(SRAM), 이이피롬(EEPROM), 이피롬(EPROM), 피롬(PROM), 롬(ROM), 자기 메모리, 플래시 메모리, 디스크 또는 CD-ROM 또는 이들의 조합으로 구현될 수 있다.
전원 어셈블리(1706)는 전자기기(1700)의 각종 어셈블리에 전원을 제공한다. 전원 어셈블리(1706)는 전원 관리 시스템, 하나 또는 다수의 전원, 및 전자기기(1700)를 위한 전력 생성, 관리, 할당과 관련된 그 밖의 다른 어셈블리를 포함할 수 있다. 전원 어셈블리(1706)는 전원 칩을 포함할 수 있으며, 컨트롤러는 전원 칩과 통신함으로써, 배터리가 메인보드 회로에 전력을 공급하거나 또는 전력을 공급하지 않도록, 전원 칩을 제어하여 스위치 디바이스를 도통 또는 차단할 수 있다.
멀티미디어 어셈블리(1708)는 전자기기(1700)와 목표 오브젝트 사이에 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서, 스크린은 액정 디스플레이(LCD)와 터치패널(TP)을 포함할 수 있다. 스크린에 터치패널을 포함하는 경우, 스크린은 터치스크린으로 구현되어 목표 오브젝트로부터 입력 신호를 수신할 수 있다. 터치패널은 하나 또는 다수의 터치센서를 포함하여 터치, 슬라이딩, 터치패널 상의 제스처를 감지한다. 터치센서는 터치 또는 슬라이딩 동작의 경계를 감지할 수 있을 뿐만 아니라, 터치 또는 슬라이딩 동작과 관련된 지속 시간과 압력도 검출할 수 있다.
오디오 어셈블리(1710)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 어셈블리(1710)는 하나의 마이크(MIC)를 포함하며, 전자기기(1700)가 호출 모드, 기록 모드, 음성 인식 모드와 같은 동작 모드에 처한 경우, 마이크는 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 추가적으로 메모리(1704)에 저장되거나 또는 통신 어셈블리(1716)를 통해 송신될 수 있다. 일부 실시예에서, 오디오 어셈블리(1710)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.
I/O 인터페이스(1712)는 처리 어셈블리(1702)와 주변 인터페이스 모듈 사이에 인터페이스를 제공하며, 상기 주변 인터페이스 모듈은 키보드, 클릭 휠 및 버튼 등일 수 있다.
센서 어셈블리(1714)는 전자기기(1700)를 위해 각 면의 상태 평가를 제공하기 위한 하나 또는 다수의 센서를 포함한다. 예를 들어, 센서 어셈블리(1714)는 전자기기(1700)의 온/오프 상태, 어셈블리의 상대적인 포지션, 예를 들어 어셈블리가 전자기기(1700)의 표시 스크린과 키패드인지를 검출할 수 있다. 센서 어셈블리(1714)는 전자기기(1700) 또는 하나의 어셈블리의 위치 변경, 목표 오브젝트와 전자기기(1700)의 접촉 여부, 전자기기(1700)의 방위 또는 가속/감속 및 전자기기(1700)의 온도 변화도 검출할 수 있다. 본 예시에서, 센서 어셈블리(1714)는 자력 센서, 자이로 센서 및 자기장 센서를 포함할 수 있으며, 자기장 센서는 홀 센서, 박막 자기 저항 센서 및 자성 액체 가속도 센서 중의 적어도 하나를 포함한다.
통신 어셈블리(1716)는 전자기기(1700)와 그 밖의 다른 기기 사이의 유선 또는 무선 방식의 통신이 편리하도록 구성된다. 전자기기(1700)는 WiFi, 2G, 3G, 또는 이들의 조합과 같은, 통신표준에 따른 무선망에 액세스할 수 있다. 하나의 예시적인 실시예에서, 통신 어셈블리(1716)는 방송채널을 통해, 외부 방송 관리 시스템으로부터 방송 신호 또는 방송 관련 정보를 수신한다. 하나의 예시적인 실시예에서, 통신 어셈블리(1716)는 단거리 통신을 촉진하도록 근거리 통신(NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선주파수 인식(RFID) 기술, 적외선데이터협회(IrDA) 기술, 초고속 광대역(UWB) 기술, 블루투스(BT) 기술과 그 밖의 다른 기술을 통해 구현될 수 있다.
예시적인 실시예에서, 전자기기(1700)는 하나 또는 다수의 주문형 반도체(ASIC),디지털 신호 프로세서(DSP),디지털 신호 처리 장치(DSPD),프로그래머블 로직 디바이스(PLD),필드 프로그래머블 게이트 어레이(FPGA),컨트롤러,마이크로 컨트롤러,마이크로 프로세서 또는 그 밖의 다른 전자소자에 의해 구현될 수 있다.
예시적인 실시예에서, 실행 가능한 컴퓨터 프로그램이 포함된 비일시적 판독 가능 저장매체를 더 제공하며, 상기 저장매체는 예를 들어 명령을 포함하는 메모리(1704)이다. 상기 실행 가능한 컴퓨터 프로그램은 프로세서에 의해 실행되어 상술한 방법을 구현할 수 있다. 판독 가능 저장매체는 ROM, 램(RAM), CD-ROM, 자기 테이프, 플로피 디스크와 광 데이터 저장장치 등일 수 있다.
본 분야의 통상의 기술자라면 명세서를 고려하고 여기서 개시된 개시를 실천한 후, 본 개시의 다른 실시형태를 쉽게 생각할 수 있을 것이다. 본 개시는 모든 변형, 용도 또는 적응성 변화를 포함하는 것으로 의도하며, 이러한 변형, 용도 또는 적응성 변화는 본 개시의 일반적 원리를 따르고 본 개시에서 개시되지 않은 본 기술 분야의 공지기술 또는 관용 기술수단을 포함한다. 명세서와 실시예는 예시적인 것인 것으로만 간주되며, 본 개시의 진정한 범위와 정신은 후술되는 청구항에서 지적된다.
이해해야 할 것은, 본 개시는 위에서 설명되고 도면에 도시된 정밀한 구성에 한정되지 않으며, 그 범위를 벗어나지 않으면서 다양하게 수정하고 변경할 수 있다. 본 개시의 범위는 후술되는 청구항으로만 한정된다.
1700: 전자기기 1702: 처리 어셈블리
1704: 메모리 1706 전원 어셈블리
1708: 멀티미디어 어셈블리 1710: 오디오 어셈블리

Claims (22)

  1. 카메라 모듈이 설치되어 있는 전자기기에 적용되는 촬영 방법에 있어서,
    화상 수집 작동 명령을 수신하는 단계;
    상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 단계;
    상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계 - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및
    상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  2. 제1항에 있어서,
    상기 전자기기의 화상 뷰파인더 프레임 내에서 AR 앵커 포인트를 구축하는 단계는,
    화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계; 및
    상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하는 단계 - 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하고, 상기 AR 앵커 포인트의 위치는 가상 3차원 공간에서의 상기 피사체의 위치에 대응됨 -;를 포함하는
    것을 특징으로 하는 촬영 방법.
  3. 제2항에 있어서,
    화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계는,
    화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 단계; 및
    상기 깊이 화상에 따라, 상기 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  4. 제2항에 있어서,
    화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 단계는,
    화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 단계;
    미리 설정된 특징 포인트 추출 모델에 따라 상기 평면 화상 내의 다수의 특징 포인트를 획득하는 단계; 및
    상기 깊이 화상을 기반으로, 각 특징 포인트의 깊이 데이터를 결정하고, 각 오브젝트의 다수의 특징 포인트를 획득하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  5. 제1항에 있어서,
    상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계는,
    미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 단계 - 상기 목표 템플릿 내에는 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치가 포함됨 -; 및
    상기 AR 앵커 포인트와 상기 기준 포인트가 중첩하는 경우, 상기 현재 위치를 지나고 상기 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  6. 제5항에 있어서,
    미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 단계는,
    미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하는 단계 - 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함함 -; 및
    템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  7. 제1항에 있어서,
    상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 단계는,
    미리 설정된 규칙에 따라, 상기 AR 앵커 포인트와 상기 현재 위치에 따라 적어도 하나의 이동 촬영 궤적을 생성하는 단계 - 상기 이동 촬영 궤적은 줌인 궤적, 줌아웃 궤적, 팬 틸트 궤적, 트랙 궤적, 페데스탈 궤적, 페데스탈 다운 궤적 및 서라운드 궤적 중의 하나 또는 다수를 포함함 -; 및
    사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로 결정하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    이동 촬영 궤적을 생성하는 단계 이후, 상기 방법은,
    상기 이동 촬영 궤적과 상기 화상 뷰파인더 프레임 내의 각 오브젝트의 위치를 비교하는 단계; 및
    상기 이동 촬영 궤적에 위치하는 오브젝트가 존재하는 경우, 상기 이동 촬영 궤적이 상기 오브젝트의 주변 부분에 위치하도록 조정하여, 상기 이동 촬영 궤적이 상기 오브젝트를 우회하도록 하는 단계;를 더 포함하는
    것을 특징으로 하는 촬영 방법.
  9. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계는,
    카메라 모듈의 실시간 위치와 초기 위치를 획득하는 단계 - 상기 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치한 위치를 가리킴 -;
    초기 위치, AR 앵커 포인트의 위치 및 이동 촬영 궤적의 공간 관계를 획득하는 단계; 및
    공간 관계를 기반으로, 상기 초기 위치에 대한 상기 실시간 위치의 상대적 위치에 따라, 상기 AR 앵커 포인트와 상기 이동 촬영 궤적을 이동시키는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  10. 제1항에 있어서,
    상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 단계는,
    촬영 과정에서, 카메라 모듈이 상기 이동 촬영 궤적에 위치하는지를 검출하는 단계; 및
    상기 카메라 모듈이 상기 이동 촬영 궤적에 위치하지 않을 경우, 상기 이동 촬영 궤적의 지정 파라미터를 조정하여, 상기 카메라 모듈이 상기 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 하는 단계;를 포함하는
    것을 특징으로 하는 촬영 방법.
  11. 카메라 모듈이 설치되어 있는 전자기기에 적용되는 촬영 장치에 있어서,
    화상 수집 작동 명령을 수신하는 명령 수신 모듈;
    상기 전자기기의 화상 뷰파인더 프레임 내에서, 가상 3차원 공간에서의 피사체의 위치에 대응되는 AR 앵커 포인트를 구축하는 앵커 포인트 구축 모듈;
    상기 카메라 모듈의 현재 위치와 상기 AR 앵커 포인트에 따라, 상기 화상 뷰파인더 프레임에서 이동 촬영 궤적을 생성하는 궤적 생성 모듈 - 상기 이동 촬영 궤적은 가상 3차원 공간에서의 카메라 모듈의 원하는 이동 경로를 나타냄 -; 및
    상기 이동 촬영 궤적에 따라, 상기 피사체에 대한 화상 수집을 수행하는 화상 수집 모듈;을 포함하는
    것을 특징으로 하는 촬영 장치.
  12. 제11항에 있어서,
    상기 앵커 포인트 구축 모듈은,
    화상 뷰파인더 프레임 내의 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 획득 유닛; 및
    상기 다수의 특징 포인트 중 하나의 특징 포인트를 AR 앵커 포인트로 결정하는 앵커 포인트 결정 유닛 - 상기 AR 앵커 포인트가 위치한 오브젝트를 피사체로 하며, 상기 AR 앵커 포인트의 위치는 가상 3차원 공간에서의 상기 피사체의 위치에 대응됨 -;을 포함하는
    것을 특징으로 하는 촬영 장치.
  13. 제12항에 있어서,
    상기 특징 포인트 획득 유닛은,
    화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛; 및
    상기 깊이 화상에 따라, 상기 미리보기 장면 내의 각 오브젝트의 다수의 특징 포인트 획득하는 특징 포인트 획득 서브 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  14. 제12항에 있어서,
    상기 특징 포인트 획득 유닛은,
    화상 뷰파인더 프레임 내의 미리보기 장면의 평면 화상과 깊이 화상을 획득하는 화상 획득 서브 유닛;
    미리 설정된 특징 포인트 추출 모델에 따라 상기 평면 화상 내의 다수의 특징 포인트를 획득하는 특징 포인트 추출 서브 유닛; 및
    상기 깊이 화상에 따라, 각 특징 포인트의 깊이 데이터를 결정하고, 각 오브젝트의 다수의 특징 포인트를 획득하는 특징 포인트 결정 서브 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  15. 제11항에 있어서,
    상기 궤적 생성 모듈은,
    미리 설정된 템플릿 라이브러리 내에서 목표 템플릿을 획득하는 모듈 획득 유닛 - 상기 목표 템플릿 내에는 이동 촬영 궤적의 목표 형태, 기준 포인트와 이동 촬영 궤적의 상대적 위치가 포함됨 -; 및
    상기 AR 앵커 포인트와 상기 기준 포인트가 중첩하는 경우, 상기 현재 위치를 지나고 상기 목표 형태와 서로 매칭되는 이동 촬영 궤적을 생성하는 궤적 생성 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  16. 제15항에 있어서,
    상기 모듈 획득 유닛은,
    미리 설정된 템플릿 라이브러리 내의 템플릿을 전시하는 템플릿 전시 서브 유닛 - 상기 템플릿은 줌인 템플릿, 줌아웃 템플릿, 팬 틸트 템플릿, 트랙 템플릿, 페데스탈 템플릿, 페데스탈 다운 템플릿 및 서라운드 템플릿 중의 적어도 하나를 포함함 -; 및
    템플릿의 선택을 나타내는 트리거링 동작이 검출된 경우, 상기 트리거링 동작에 대응되는 템플릿을 목표 템플릿으로서 획득하는 템플릿 결정 서브 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  17. 제11항에 있어서,
    상기 궤적 생성 모듈은,
    미리 설정된 규칙에 따라, 상기 AR 앵커 포인트와 상기 현재 위치에 따라 적어도 하나의 이동 촬영 궤적을 생성하는 궤적 생성 유닛 - 상기 이동 촬영 궤적은 줌인 궤적, 줌아웃 궤적, 팬 틸트 궤적, 트랙 궤적, 페데스탈 궤적, 페데스탈 다운 궤적 및 서라운드 궤적 중의 하나 또는 다수를 포함함 -; 및
    사용자가 선택한 이동 촬영 궤적을 생성된 이동 촬영 궤적으로 결정하는 궤적 결정 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  18. 제11항 내지 제17항 중 어느 한 항에 있어서,
    상기 이동 촬영 궤적과 상기 화상 뷰파인더 프레임 내의 각 오브젝트의 위치를 비교하는 위치 비교 모듈; 및
    상기 이동 촬영 궤적에 위치하는 오브젝트가 존재하는 경우, 상기 이동 촬영 궤적이 상기 오브젝트의 주변 부분에 위치하도록 조정하여, 상기 이동 촬영 궤적이 상기 오브젝트를 우회하도록 하는 궤적 조정 모듈;을 더 포함하는
    것을 특징으로 하는 촬영 장치.
  19. 제11항 내지 제17항 중 어느 한 항에 있어서,
    상기 화상 수집 모듈은,
    카메라 모듈의 실시간 위치와 초기 위치를 획득하는 위치 획득 유닛 - 상기 초기 위치는 상기 이동 촬영 궤적을 생성할 때 카메라 모듈이 위치한 위치를 가리킴 -;
    초기 위치, AR 앵커 포인트의 위치 및 이동 촬영 궤적의 공간 관계를 획득하는 관계 획득 유닛; 및
    상기 공간 관계를 기반으로, 상기 초기 위치에 대한 상기 실시간 위치의 상대적 위치에 따라, 상기 AR 앵커 포인트와 상기 이동 촬영 궤적을 이동시키는 궤적 이동 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  20. 제11항에 있어서,
    상기 화상 수집 모듈은,
    촬영 과정에서, 카메라 모듈이 상기 이동 촬영 궤적에 위치하는지를 검출하는 궤적 검출 유닛; 및
    상기 카메라 모듈이 상기 이동 촬영 궤적에 위치하지 않을 경우, 상기 이동 촬영 궤적의 지정 파라미터를 조정하여, 상기 카메라 모듈이 상기 이동 촬영 궤적으로부터 오프셋 하였음을 리마인드 하는 궤적 조정 유닛;을 포함하는
    것을 특징으로 하는 촬영 장치.
  21. 전자기기에 있어서,
    카메라;
    프로세서; 및
    상기 프로세서가 실행 가능한 컴퓨터 프로그램을 저장하는 메모리를 포함하며,
    상기 프로세서는 상기 메모리 중의 컴퓨터 프로그램을 실행하여 제1항 내지 제10항 중 어느 한 항에 따른 방법을 구현하도록 하는
    것을 특징으로 하는 전자기기.
  22. 컴퓨터 판독 가능 저장매체에 있어서,
    상기 저장매체 중의 실행 가능한 컴퓨터 프로그램이 프로세서에 의해 실행되는 경우, 제1항 내지 제0항 중 어느 한 항에 따른 방법을 구현하는
    것을 특징으로 하는 컴퓨터 판독 가능 저장매체.

KR1020210052776A 2020-09-09 2021-04-23 촬영 방법, 촬영 장치, 전자기기 및 저장매체 KR102575196B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010942772.2 2020-09-09
CN202010942772.2A CN114245000A (zh) 2020-09-09 2020-09-09 拍摄方法和装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
KR20220033402A true KR20220033402A (ko) 2022-03-16
KR102575196B1 KR102575196B1 (ko) 2023-09-06

Family

ID=75746202

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210052776A KR102575196B1 (ko) 2020-09-09 2021-04-23 촬영 방법, 촬영 장치, 전자기기 및 저장매체

Country Status (5)

Country Link
US (1) US11457139B2 (ko)
EP (1) EP3968626A1 (ko)
JP (1) JP7110443B2 (ko)
KR (1) KR102575196B1 (ko)
CN (1) CN114245000A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023177265A1 (ko) 2022-03-17 2023-09-21 주식회사 엘지에너지솔루션 절연액 공급 장치

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979785B (zh) * 2022-04-15 2023-09-08 荣耀终端有限公司 视频处理方法、电子设备及存储介质
CN114863037B (zh) * 2022-07-06 2022-10-11 杭州像衍科技有限公司 基于单手机的人体三维建模数据采集与重建方法及系统
CN115379195B (zh) * 2022-08-26 2023-10-03 维沃移动通信有限公司 视频生成方法、装置、电子设备和可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160344929A1 (en) * 2015-05-20 2016-11-24 Canon Kabushiki Kaisha Panning index display apparatus and processing method
US20190116322A1 (en) * 2017-10-13 2019-04-18 Fyusion, Inc. Skeleton-based effects and background replacement
US20190311480A1 (en) * 2018-04-10 2019-10-10 Facebook, Inc. Automated cinematic decisions based on descriptive models

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0662600A4 (en) * 1993-06-10 1997-02-12 Oh Yoh Keisoku Kenkyusho Kk DEVICE FOR MEASURING THE POSITION OF A MOVABLE OBJECT.
US9239965B2 (en) 2012-06-12 2016-01-19 Electronics And Telecommunications Research Institute Method and system of tracking object
CN105408937B (zh) * 2013-05-02 2018-02-13 高通股份有限公司 用于便于计算机视觉应用程序初始化的方法
US20150379333A1 (en) * 2014-06-27 2015-12-31 Eric L. Ingram Three-Dimensional Motion Analysis System
WO2017045116A1 (en) * 2015-09-15 2017-03-23 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
WO2018022657A1 (en) * 2016-07-25 2018-02-01 Ctrl-Labs Corporation System and method for measuring the movements of articulated rigid bodies
US10665034B2 (en) 2018-02-17 2020-05-26 Varjo Technologies Oy Imaging system, display apparatus and method of producing mixed-reality images
CN109618183B (zh) * 2018-11-29 2019-10-25 北京字节跳动网络技术有限公司 一种视频特效添加方法、装置、终端设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160344929A1 (en) * 2015-05-20 2016-11-24 Canon Kabushiki Kaisha Panning index display apparatus and processing method
US20190116322A1 (en) * 2017-10-13 2019-04-18 Fyusion, Inc. Skeleton-based effects and background replacement
US20190311480A1 (en) * 2018-04-10 2019-10-10 Facebook, Inc. Automated cinematic decisions based on descriptive models

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023177265A1 (ko) 2022-03-17 2023-09-21 주식회사 엘지에너지솔루션 절연액 공급 장치

Also Published As

Publication number Publication date
EP3968626A1 (en) 2022-03-16
US20220078335A1 (en) 2022-03-10
US11457139B2 (en) 2022-09-27
CN114245000A (zh) 2022-03-25
KR102575196B1 (ko) 2023-09-06
JP2022045887A (ja) 2022-03-22
JP7110443B2 (ja) 2022-08-01

Similar Documents

Publication Publication Date Title
KR102194094B1 (ko) 가상과 실제 물체의 합성 방법, 장치, 프로그램 및 기록매체
KR102575196B1 (ko) 촬영 방법, 촬영 장치, 전자기기 및 저장매체
JP6587628B2 (ja) 命令生成方法及び装置
CN104243819B (zh) 照片获取方法及装置
CN111010510B (zh) 一种拍摄控制方法、装置及电子设备
KR101712301B1 (ko) 화면을 촬영하기 위한 방법 및 디바이스
CN107426502B (zh) 拍摄方法及装置、电子设备、存储介质
US20160027191A1 (en) Method and device for adjusting skin color
US9491371B2 (en) Method and device for configuring photographing parameters
CN105282441B (zh) 拍照方法及装置
US11770497B2 (en) Method and device for processing video, and storage medium
KR102116826B1 (ko) 사진 합성 방법, 장치, 프로그램 및 기록매체
CN105141942B (zh) 3d图像合成方法及装置
US9652823B2 (en) Method and terminal device for controlling display of video image
CN106775525A (zh) 控制投影仪的方法及装置
CN104639843A (zh) 图像处理方法及装置
JP2017505466A (ja) 自動ピント合わせ方法、装置、プログラム及び記録媒体
KR101788496B1 (ko) 단말 및 비디오 이미지를 제어하는 장치 및 방법
CN106550226A (zh) 投影画面校正方法及装置
WO2018192094A1 (zh) 场景展示方法及装置
EP3211879A1 (en) Method and device for automatically capturing photograph, electronic device
CN116939351A (zh) 拍摄方法、装置、电子设备及可读储存介质
US9619016B2 (en) Method and device for displaying wallpaper image on screen
WO2023225910A1 (zh) 视频显示方法及装置、终端设备及计算机存储介质
EP3826282A1 (en) Image capturing method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right