KR20220104235A - 촬영 방법 및 전자기기 - Google Patents

촬영 방법 및 전자기기 Download PDF

Info

Publication number
KR20220104235A
KR20220104235A KR1020227021512A KR20227021512A KR20220104235A KR 20220104235 A KR20220104235 A KR 20220104235A KR 1020227021512 A KR1020227021512 A KR 1020227021512A KR 20227021512 A KR20227021512 A KR 20227021512A KR 20220104235 A KR20220104235 A KR 20220104235A
Authority
KR
South Korea
Prior art keywords
target
camera
preview screen
location
target object
Prior art date
Application number
KR1020227021512A
Other languages
English (en)
Inventor
구이린 펭
Original Assignee
비보 모바일 커뮤니케이션 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비보 모바일 커뮤니케이션 컴퍼니 리미티드 filed Critical 비보 모바일 커뮤니케이션 컴퍼니 리미티드
Publication of KR20220104235A publication Critical patent/KR20220104235A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • H04N5/232935
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2257
    • H04N5/23212
    • H04N5/23216
    • H04N5/232933
    • H04N5/2353
    • H04N5/247

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)

Abstract

본 출원의 실시예는 촬영 방법 및 전자기기를 개시한다. 상기 방법은, 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하는 단계; 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하는 단계 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ; 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하는 단계를 포함하되, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 상기 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.

Description

촬영 방법 및 전자기기
본 출원은 2019년 11월 27일자로 국가지식산권국에 출원한 출원번호가 201911184459.0이고 출원명칭이 “촬영 방법 및 전자기기”인 중국 특허출원의 우선권을 주장하며, 그 전체가 참조로서 본원에 포함된다.
본 출원의 실시예는 통신기술 영역에 관한 것으로서, 특히 촬영 방법 및 전자기기에 관한 것이다.
단말 기술과 촬영 기술의 발전으로 사람들이 전자기기를 사용하여 촬영할 수 있는 기회가 점점 많아지고 있다. 다양한 시나리오에서 다양한 피사체에 대해, 사용자는 종종 실제 상황에 따라 미리보기 화면에서 피사체의 위치를 조정하므로, 촬영 시 어느 정도의 구도가 필요하다.
현재, 이동하는 객체를 촬영할 때, 사용자는 두 가지 방법으로 이동객체의 순간적인 화면을 포착할 수 있다. 구체적으로, 한 방법은 사용자가 스냅샷을 찍는 것인데, 사용자가 셔터를 누르는 순간 이동객체는 이미 사용자가 원하는 구도 위치에 있지 않을 수 있다. 다른 한 방법은 자동 연속촬영 기능을 사용하여 촬영하는 것인데, 연속 촬영 시 두 장의 사진 사이에는 시간 간격이 존재하기 때문에 촬영된 사진의 구도가 만족스러울 수 있다고 보장될 수 있다. 따라서, 종래의 촬영 방법으로 촬영된 사진의 구도가 만족스러울 확률이 낮다.
본 출원의 실시예는 종래의 촬영 방식으로 촬영된 사진의 구도가 만족스러울 확률이 낮은 문제를 해결하기 위해 촬영 방법 및 전자기기를 제공한다.
상기 기술적 문제를 해결하기 위하여 본 발명은 아래와 같이 구현된다.
제1 양상에서, 본 출원의 실시예의 촬영 방법을 제공한다. 상기 방법은 전자기기에 적용되며, 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함한다. 상기 방법은, 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하는 단계; 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하는 단계 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ; 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하는 단계를 포함한다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.
제2 양상에서, 본 출원의 실시예는 전자기기를 제공한다. 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함한다. 상기 전자기기는 수신부, 결정부 및 제어부를 포함한다. 수신부는, 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하도록 구성된다. 결정부는, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하도록 구성된다. 결정부는 또한, 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하도록 구성되며, 상기 타겟 영역은 타겟 위치에 대응하는 영역이다. 제어부는, 결정부에 의해 결정된 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하도록 구성된다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.
제3 양상에서, 본 출원의 실시예는 전자기기를 제공함에 있어서, 프로세서, 메모리, 및 상기 메모리에 저장되고 상기 프로세서에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때 제1 양상에 따른 촬영 방법의 단계를 구현한다.
제4 양상에서, 본 출원의 실시예는 컴퓨터 판독가능 저장 매체를 제공함에 있어서, 상기 컴퓨터 판독가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1 양상에 따른 촬영 방법의 단계를 구현한다.
본 출원의 실시예에서, 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하고; 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하고 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ; 상기 타겟 시간에 촬영하도록 제1 카메라를 제어할 수 있다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다. 상기 솔루션에서, 전자기기에 두 개의 카메라가 제공되고, 두 개의 카메라는 동일한 피사체에 대해 두 개의 상이한 미리보기 화면을 각각 포착할 수 있으므로, 이동하는 피사체에 대해 사용자는 실제 상황에 따라 제1 카메라에 의해 포착된 제1 미리보기 화면에서 피사체의 구도 위치를 미리 설정할 수 있으며, 이에 따라 전자기기는 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에서 타겟 객체의 이동 속도에 근거하여 촬영 시간을 결정할 수 있고, 나아가 전자기기는 촬영 시간에 피사체가 구도 위치에 있는 사진을 획득할 수 있다. 따라서, 본 출원의 실시예에 따른 촬영 방법으로 촬영된 사진의 구도가 만족스러울 확률이 높다.
도 1은 본 출원의 실시예에 따른 안드로이드 운영체제의 아키텍쳐를 도시한 개략도이다.
도 2는 본 출원의 실시예에 따른 촬영 방법을 도시한 개략도 1이다.
도 3은 본 출원의 실시예에 따른 미리보기 화면에 대한 사용자의 조작을 도시한 개략도이다.
도 4는 본 출원의 실시예에 따른 타겟 객체의 이동을 도시한 개략도이다.
도 5는 본 출원의 실시예에 따른 촬영 방법을 도시한 개략도 2이다.
도 6은 본 출원의 실시예에 따른 촬영 방법을 도시한 개략도 3이다.
도 7은 본 출원의 실시예에 따른 전자기기의 구조를 도시한 개략도이다.
도 8은 본 출원의 실시예에 따른 전자기기의 하드웨어를 도시한 개략도이다.
다음은 본 출원의 실시예에 첨부된 도면을 참조하여 본 출원의 기술적 솔루션에 대해 명확하고 온전하게 설명할 것이며, 여기에서 설명하는 실시예는 본 출원의 일부 실시예일 뿐 전부 실시예가 아님이 분명하다. 당업자가 본 출원의 실시예를 기반으로 창의적인 노력 없이 얻은 다른 실시예들은 모두 본 출원의 보호 범위에 속한다.
본 명세서에서 용어 “및/또는”은 연관 객체의 연관관계를 설명하며, 세가지 관계가 존재함을 나타낸다. 예를 들어 A 및/또는 B는 A가 단독으로 존재하는 경우, A와 B가 동시에 존재하는 경우, B가 단독으로 존재하는 경우를 나타낼 수 있다. 본 명세서에서 기호 “/”는 연관된 객체가 “또는”의 관계를 가짐을 나타낸다. 예를 들어 A/B는 A 또는 B를 나타낸다.
본 출원의 명세서와 청구 범위에서 “제1”, “제2” 등 용어는 서로 다른 객체를 구분하기 위해 사용되는 것으로, 객체의 특정 순서를 설명하기 위해 사용되는 것은 아니다. 예컨대, 제1 미리보기 화면과 제2 미리보기 화면 등은 미리보기 화면의 특정 순서를 설명하기 위함이 아니라 상이한 미리보기 화면을 구별하기 위함이다.
본 출원의 실시예에서, “예시적” 또는 “예컨대” 등 단어는 예시, 예증 또는 설명을 나타나기 위해 사용된다. 본 출원의 실시예에서 “예시적” 또는 “예컨대”로 설명한 임의의 실시예 또는 설계 방안은 다른 실시예 또는 설계 방안보다 더 바람직하거나 유리한 것으로 해석되어서는 안된다. 정확히 말하면, “예시적” 또는 “예컨대”와 같은 단어는 특정 방식으로 관련 개념을 표현하기 위해 사용된다.
본 출원의 실시예에서, 별도의 설명이 없는 한, “다수”는 두 개 또는 두 개 이상을 나타낸다. 예컨대, 다수의 구성요소는 두 개 또는 두 개 이상의 구성요소를 가리킨다.
본 출원의 실시예와 관련된 일부 용어/명사에 대해 다음과 같이 설명한다.
초점 맞추기: 포커싱이라고도 하며, 구체적으로 전자기기의 초점 맞추기 메커니즘을 통해 피사체와 전자기기 사이의 거리를 조절함으로써 객체거리와 상거리를 변경하여 피사체의 이미지가 선명해지게 하는 과정을 가리킨다. 본 실시예에서 전자기기의 초점 맞추기 구간은 제1 영역일 수 있다는 점에 유의해야 한다.
측광: 피사체로부터 반사되어 오는 빛의 양을 측정하는 기술을 가리킨다. 일반적으로, 전자기기 측광 영역의 반사율은 18%이며, 전자기기는 이 반사율에 따라 측광 영역에 대해 측광하므로 촬영을 위해 노출 보정을 할 수 있다. 인물 사진을 찍을 때, 초점 맞추기 영역은 인물이 위치한 영역일 수 있다. 그러나 상이한 측광 영역을 선택하면 셈세하고 정교한 인물 사진을 촬영할 수 있거나 강한 명암비를 갖는 인물 실루엣 사진을 촬영할 수 있다. 본 실시예에서 전자기기의 측광 영역은 제1 영역일 수 있다는 점에 유의해야 한다.
노출: 촬영 과정에서 조리개, 셔터 및 감광도 등 구성요소에 의해 감광소자에 조사되는 빛의 양이 제어되는 것을 가리킨다.
노출 시간: 셔터가 열리고 닫힐 때까지의 시간간격을 가리킨다. 일반적으로, 노출 시간이 짧을 수록 이동하는 객체에 대한 포착 이미지가 더 선명하다.
본 출원의 실시예는, 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하고; 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하고 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ; 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하는 촬영 방법 및 전자기기를 제공한다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다. 상기 솔루션에서, 전자기기에 두 개의 카메라가 제공되고, 두 개의 카메라는 동일한 피사체에 대해 두 개의 상이한 미리보기 화면을 각각 포착할 수 있으므로, 이동하는 피사체에 대해 사용자는 실제 상황에 따라 제1 카메라에 의해 포착된 제1 미리보기 화면에서 피사체의 구도 위치를 미리 설정할 수 있으며, 이에 따라 전자기기는 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에서 타겟 객체의 이동 속도에 근거하여 촬영 시간을 결정할 수 있고, 나아가 전자기기는 촬영 시간에 피사체가 구도 위치에 있는 사진을 획득할 수 있다. 따라서, 본 출원의 실시예에 따른 촬영 방법으로 촬영된 사진의 구도가 만족스러울 확률이 높다.
본 출원의 실시예에서 전자기기는 운영체제를 구비한 전자기기일 수 있다. 이 운영체제는 안드로이드(Android) 운영체제, ios 운영체제 또는 다른 가능한 운영체제일 수 있으며, 본 출원의 실시예는 이에 대해 특별히 한정하지 않는다.
다음은 안드로이드 운영체제를 예로 들어 본 출원의 실시예에 따른 촬영 방법이 적용되는 소프트웨어 환경을 소개한다.
도 1에 도시된 바와 같이, 본 출원의 실시예에 따른 안드로이드 운영체제의 아키텍쳐를 도시한 개략도이다. 도 1에서, 안드로이드 운영체제의 아키텍쳐는 4개의 계층, 즉 애플리케이션 계층, 애플리케이션 프레임워크 계층, 시스템 런타임 계층, 커널 계층(구체적으로 Linux8 커널 계층일 수 있음)을 포함한다.
여기서, 애플리케이션 계층은 안드로이드 운영체제의 다양한 애플리케이션(시스템 애플리케이션 및 제3자 애플리케이션을 포함함)을 포함한다.
애플리케이션 프레임워크는 애플리케이션의 프레임워크이며, 개발자는 애플리케이션 프레임워크의 개발 원칙을 준수하는 조건에서 애플리케이션 프레임워크 계층을 기반으로 일부 애플리케이션을 개발할 수 있다.
시스템 런타임 계층은 라이브러리(시스템 라이브러리라고도 함) 및 안드로이드 운영체제 런타임 환경을 포함한다. 라이브러리는 안드로이드 운영체제에 필요한 다양한 자원을 제공한다. 안드로이드 운영체제 런타임 환경은 안드로이드 운영체제에 소프트웨어 환경을 제공한다.
커널 계층은 안드로이드 운영체제의 운영체제 계층으로서 안드로이드 운영체제 소프트웨어 계층의 최하위 계층에 속한다. 커널 계층은 Linux8 커널을 기반으로 안드로이드 운영체제에 핵심 시스템 서비스 및 하드웨어와 관련된 드라이버를 제공한다.
안드로이드 운영체제로 예를 들면, 본 출원의 실시예에서 개발자는 도 1에 도시된 안드로이드 운영체제의 시스템 아키텍쳐를 기반으로 본 출원의 실시예에 따른 촬영 방법을 구현하기 위한 소프트웨어 프로그램을 개발할 수 있으므로, 상기 촬영 방법은 도 1에 도시된 안드로이드 운영체제를 기반으로 실행될 수 있다. 프로세서 또는 전자기기는 안드로이드 운영체제에서 상기 소프트웨어 프로그램을 실행함으로써 본 출원의 실시예에 따른 촬영 방법을 구현할 수 있다.
본 출원의 실시예에서 전자기기는 단말 장비일 수 있다. 상기 단말 장비는 이동 단말 장비 또는 비이동 단말일 수 있다. 예시적으로, 이동 단말 장비는 핸드폰, 태블릿 PC, 노트북, 포켓 PC, 차량탑재 전자기기, 웨어러블 기기, 울트라 모바일 개인용 컴퓨터(ultra-mobile personal computer, UMPC), 넷북 또는 개인 휴대 정보 단말기(personal digital assistant, PDA) 등일 수 있고, 비이동 단말 장비는 개인용 컴퓨터(personal computer, PC), 텔레비전(television, TV), 현금 자동 입출금기 또는 자동판매기 등일 수 있으며, 본 출원의 실시예는 이에 대해 특별히 한정하지 않는다.
본 출원의 실시예에 따른 촬영 방법은 상기 전자기기에 의해 수행되거나, 상기 전자기기에서 상기 촬영 방법을 구현할 수 있는 기능부 및/또는 기능 엔티티에 의해 수행될 수 있으며, 구체적으로 실제 요구사항에 따라 결정될 수 있으므로, 본 출원의 실시예는 이에 대해 한정하지 않는다. 다음은 본 출원의 실시예에 따른 촬영 방법에 대한 예시적인 설명을 위해 전자기기를 예로 든다.
본 출원의 실시예에서, 이동하는 타겟 객체에 대해, 사용자가 타겟 객체가 전자기기의 제1 카메라의 시야에 진입할 가능성이 있고, 제1 카메라를 통해 타겟 객체가 사용자에 의해 지정된 구도 위치로 이동한 이미지를 포착할 수 있다고 판단한 경우, 사용자는 후술되는 촬영 방법을 통해 타겟 객체를 촬영하도록 전자기기를 트리거하여 타겟 객체가 구도 위치에 위치한 만족스러운 사진을 얻을 수 있다.
도 2에 도시된 바와 같이, 본 출원의 실시예는 촬영 방법을 제공한다. 상기 방법은 전자기기에 적용되며, 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함한다. 상기 방법은 후술되는 S101 내지 S103을 포함할 수 있다.
S101: 전자기기는 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정한다.
여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하다. 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.
선택적으로, 본 출원의 실시예에서, 전자기기의 제1 카메라의 광축과 제2 카메라의 광축은 평행되고, 제2 카메라의 시야는 제1 카메라의 시야보다 크다. 이러한 설정 방법을 통해, 제1 미리보기 화면과 각 제2 미리보기 화면이 모두 중첩되는 화면을 갖도록 할 수 있다.
선택적으로, 상기 제1 카메라 및 제2 카메라는 전자기기의 동일 평면에 위치할 수 있다. 예컨대, 제1 카메라 및 제2 카메라는 전자기기의 스크린이 있는 평면에 위치할 수 있으며, 이를 정면이라 할 수 있다. 또는, 전자기기의 스크린이 있는 평면의 반대편의 평면에 위치할 수 있으며, 이를 후면이라 할 수 있다.
예시적으로, 제1 카메라 및 제2 카메라는 설명을 위한 예로서 전자기기의 후면에 위치한다. 전자기기의 후면에는 메인 카메라 및 초광각 카메라가 배치될 수 있으며, 메인 카메라는 제1 카메라이고, 초광각 카메라는 제2 카메라이다.
선택적으로, 상기 제1 미리보기 화면은 제1 카메라가 제1 시점에 포착한 미리보기 화면이거나, 제1 카메라가 제1 시점 이후의 임의의 시점에 포착한 미리보기 화면일 수 있다. 여기서, 제1 시점은 전자기기가 제1 카메라를 트리거하여 제1 미리보기 화면을 포착하는 시점일 수 있다.
본 출원의 실시예에서, 상기 타겟 위치는 사용자가 지정한 구도 위치로 간주될 수 있다.
선택적으로, 본 출원의 실시예에서, 상기 제1 입력은 터치 입력 또는 제스처 입력 등일 수 있다. 예컨대, 상기 터치 입력은 제1 미리보기 화면 상의 타겟 위치에 대한 사용자의 클릭 입력일 수 있고, 상기 제스처 입력은 제1 미리보기 화면에 대한 사용자의 슬라이딩 입력일 수 있다.
선택적으로, S101 이전에, 본 출원의 실시예에 따른 촬영 방법은, 사용자의 입력에 응답하여 카메라 애플리케이션을 실행하고, 촬영 이미지를 포착하도록 제1 카메라 및 제2 카메라를 각각 트리거하고, 제1 카메라에 의해 포착된 촬영 이미지(예컨대 제1 촬영 이미지)를 표시하는 단계를 더 포함할 수 있다.
선택적으로, 카메라 애플리케이션이 실행된 후, 촬영 이미지를 포착하도록 제1 카메라 및 제2 카메라를 각각 트리거하기 전에, 본 출원의 실시예에 따른 촬영 방법은, 사용자의 입력에 응답하여 이동객체 구도 모드를 활성화하는 단계를 더 포함할 수 있다. 여기서, 이동객체 구도 모드는 사용자가 구도 영역을 지정하기 위해 사용된다.
선택적으로, 전자기기가 동시에 제1 카메라 및 제2 카메라를 통해 촬영 이미지를 각각 포착하므로, 일 가능한 구현 방식에서, 전자기기는 제1 카메라를 통해 포착된 제1 미리보기 화면 및 제2 카메라를 통해 포착된 제2 미리보기 화면을 동시에 표시하고, 다른 일 구현 방식에서, 전자기기는 제1 카메라를 통해 포착된 제1 미리보기 화면만 표시하고, 제2 카메라를 통해 포착된 제2 미리보기 화면은 표시하지 않는다.
선택적으로, 사용자의 제1 입력을 수신한 경우, 타겟 객체, 제1 미리보기 화면 및 제2 미리보기 화면 간의 관계는 다음 중 하나일 수 있다.
관계 1: 타겟 객체가 제2 미리보기 화면에 있지만 제1 미리보기 화면에 있지 않다.
관계 2: 타겟 객체가 동시에 제1 미리보기 화면 및 제2 미리보기 화면에 있다.
관계 3: 타겟 객체가 제1 미리보기 화면 및 제2 미리보기 화면에 있지 않다.
선택적으로, 상기 타겟 객체는 이동 가능한 임의의 생명체 및 비생명체일 수 있다. 예컨대, 타겟 객체는 사람, 자동차, 농구공, 축구공, 비행기 등일 수 있다.
선택적으로, 상기 타겟 객체는 임의의 이동 모드일 수 있다. 예컨대, 이동 모드는 도약 모드 또는 수평 이동 모드 등일 수 있다. 여기서, 도약 모드는 슈팅, 다이빙 등을 포함할 수 있고, 수평 이동 모드는 걷기, 달리기, 자전거 타기 및 자동차 경주 등을 포함할 수 있다.
선택적으로, 상기 타겟 객체는 등속으로 이동하는 객체 또는 비등속으로 이동하는 객체일 수 있다.
선택적으로, 상기 이동 속도는 타겟 객체의 평균 속도일 수 있다.
선택적으로, 상기 타겟 객체의 이동 노선은 직선 또는 곡선일 수 있다.
선택적으로, 상기 타겟 객체의 이동 속도는 적어도 두 개의 제2 미리보기 화면을 통해 결정된다. 여기서, 이 두 개의 제2 미리보기 화면은 서로 인접한 두 개의 시점 또는 서로 인접하지 않는 시점에 제2 카메라에 의해 포착된 것일 수 있다.
선택적으로, 제2 카메라에 의해 포착된 제2 미리보기 화면에 근거하여 상기 제2 미리보기 화면에서 타겟 객체의 이동 속도를 결정하기 전에, 본 출원의 실시예에 따른 촬영 방법은, 제2 미리보기 화면에 이동하는 객체(예컨대 타겟 객체)가 존재하는지 여부를 감지하는 단계를 더 포함할 수 있다. 제2 미리보기 화면에 타겟 객체가 존재하는 것으로 감지된 경우, 전자기기는 제2 미리보기 화면에 근거하여 상기 제2 미리보기 화면에서 타겟 객체의 이동 속도를 결정할 수 있다.
선택적으로, 타겟 객체가 이동하는 객체이므로, 제2 카메라를 통해 포착된 각 제2 미리보기 화면에서 타겟 객체의 위치는 모두 상이하다.
선택적으로, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다는 것은, 제1 카메라를 통해 제1 미리보기 화면을 포착하는 과정과 제2 카메라를 통해 제2 미리보기 화면을 포착하는 과정에서, 타겟 객체는 제1 미리보기 화면 및 제2 미리보기 화면에 나타나게 된다는 것을 의미한다.
선택적으로, 상기 S101에서 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하는 것은 구체적으로 후술되는 A1 내지 A3을 통해 구현될 수 있다.
A1: 전자기기는 제1 위치를 결정한다.
여기서, 상기 제1 위치는 하나의 제2 미리보기 화면에서 타겟 객체의 위치일 수 있고, 상기 하나의 제2 미리보기 화면은 제1 시점에 제2 카메라에 의해 포착된 미리보기 화면일 수 있다.
선택적으로, 상기 제1 시점은 제2 카메라가 이동객체를 감지한 시점일 수 있거나, 제1 시점은 제2 카메라가 이동객체를 감지한 후 임의의 시점일 수 있다.
A2: 전자기기는 제2 위치를 결정한다.
여기서, 상기 제2 위치는 다른 하나의 제2 미리보기 화면에서 타겟 객체의 위치일 수 있다. 상기 다른 하나의 제2 미리보기 화면은 제2 시점에 제2 카메라에 의해 포착된 미리보기 화면일 수 있다. 상기 제2 시점은 제1 시점 이후의 시점이다.
선택적으로, 상기 제1 시점과 제2 시점은 서로 인접한 두 개의 시점일 수 있으며, 즉 제2 시점은 제1 시점 다음의 시점일 수 있다. 또는, 상기 제1 시점과 제2 시점은 서로 인접하지 않는 두 개의 시점일 수 있으며, 즉 제2 시점은 제1 시점으로부터 일정 시간 간격 이후의 시점일 수 있다.
A3: 전자기기는 상기 제1 위치, 상기 제2 위치, 상기 제1 시점 및 상기 제2 시점에 근거하여 상기 이동 속도를 결정한다.
선택적으로, 상기 제1 위치와 제2 위치를 연결하는 선은 수평선에 평행되거나, 수평선에 수직되거나, 수평선에 평행되지도 수직되지 않을 수 있다.
예시적으로, 제1 위치는 제2 카메라가 이동객체를 감지한 시점에 제2 카메라에 의해 포착된 미리보기 화면에서 타겟 객체의 위치인 것으로 예를 들어 설명한다. 도 4에 도시된 바와 같이, 사용자에 의해 지정된 타겟 영역은 02로, 제1 카메라에 의해 포착된 제1 미리보기 화면은 03으로, 제2 카메라에 의해 포착된 제2 미리보기 화면은 04로, 제1 시점 t1에 하나의 제2 미리보기 화면 04에서 타겟 객체의 제1 위치는 05로, 제2 시점 t2에 다른 하나의 제2 미리보기 화면 04에서 타겟 객체의 위치는 06으로 나타낼 수 있다. 제1 시점 t1에 전자기기는 타겟 객체가 위치 05에 있고, 위치 05와 사용자에 의해 지정된 영역 02에 대응하는 제3 위치 사이의 직선 거리가 d인 것으로 감지할 수 있다. 제2 시점 t2에, 타겟 객체는 d/2 연장선 상의 임의의 제2 위치로 이동될 수 있다. 제2 미리보기 화면에서 제1 위치로부터 제2 위치까지의 타겟 객체의 이동 거리를 d1로 나타내면, 타겟 객체의 이동 속도는 v=d1/(t2-t1)일 수 있다.
상기 제1 위치로부터 제2 위치까지의 이동 거리 d1은 최소로 d/2일 수 있거나, d/2보다 클 수 있으며, 구체적으로 실제 상황에 따라 결정될 수 있다는 점에 유의해야 한다.
상이한 시점에 제2 카메라를 통해 포착된 두 개의 미리보기 화면에서 타겟 객체의 위치를 결정할 수 있으므로, 전자기기는 이 두 개의 위치에 근거하여 타겟 객체의 이동 속도를 결정할 수 있으며, 나아가 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정할 수 있다.
S102: 전자기기는 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정한다.
여기서, 상기 타겟 영역은 타겟 위치에 대응하는 영역일 수 있다.
선택적으로, 상기 S102는 구체적으로 후술되는 B1 내지 B3을 통해 구현될 수 있다.
B1: 전자기기는 제3 위치를 결정한다.
여기서, 상기 제3 위치는 상기 다른 하나의 제2 미리보기 화면에서 타겟 영역과 대응되는 위치일 수 있다. 여기서, 상기 다른 하나의 제2 미리보기 화면은 제2 시점에 제2 카메라에 의해 포착된 미리보기 화면일 수 있고, 상기 제2 시점은 제1 시점 이후의 시점이다.
B2: 전자기기는 상기 제3 위치, 상기 제2 위치 및 상기 이동 속도에 근거하여 상기 제2 위치로부터 상기 제3 위치까지 이동하는 상기 타겟 객체의 이동 지속시간을 결정한다.
선택적으로, 상기 제3 위치와 제2 위치를 연결하는 선은 수평선에 평행되거나, 수평선에 수직되거나, 수평선에 평행되지도 수직되지 않을 수 있다.
예시적으로, 도 4에 도시된 바와 같이, 여전히 제2 위치는 d/2의 연장선에서 임의의 위치까지 이동된 타겟 객체의 위치인 것으로 예를 들어 설명한다. 제2 미리보기 화면에서 제2 위치로부터 사용자에 의해 지정된 영역 01과 대응되는 제3 위치까지의 타겟 객체의 이동 거리를 d2로 나타내고, 타겟 객체의 이동 속도를 v로 나타낸다고 가정하면, 타겟 객체가 상기 제2 위치로부터 상기 제3 위치까지 이동하는 이동 지속시간은 t3=d2/v일 수 있다.
B3: 전자기기는 상기 이동 지속시간 및 상기 제2 시점에 근거하여 상기 타겟 시간을 결정한다.
예시적으로, 도 4에 도시된 바와 같이, 여전히 제2 위치는 d/2의 연장선에서 임의의 위치까지 이동된 타겟 객체의 위치인 것으로 예를 들어 설명한다. 타겟 객체가 제2 위치로부터 제3 위치까지 이동하는 이동 지속시간을 d2/v로 나타내고, 제2 시점을 t2로 나타낸다고 가정하면, 타겟 시간은 t=t2+(d2/v)일 수 있다.
선택적으로, 상기 S102 이전에, 본 출원의 실시예에 따른 촬영 방법은 후술되는 C1 내지 C3을 더 포함할 수 있다.
C1: 전자기기는 타겟 위치에 근거하여 초기 영역을 결정한다.
선택적으로, 상기 타겟 위치는 제1 미리보기 화면에서 제1 입력의 위치일 수 있다.
선택적으로, 제1 입력은 구체적으로 제1 미리보기 화면 상의 슬라이딩 입력 또는 클릭 입력일 수 있다.
예시적으로, 타겟 위치는 제1 미리보기 화면에서 슬라이딩 입력의 위치이거나, 제1 미리보기 화면에서 클릭 입력의 위치일 수 있다.
선택적으로, 제1 입력이 구체적으로 제1 미리보기 화면 상의 슬라이딩 입력인 경우, 상기 C1은 구체적으로 후술되는 방식 1을 통해 구현될 수 있다. 제1 입력이 구체적으로 제1 미리보기 화면 상의 클릭 입력인 경우, 상기 C1은 구체적으로 후술되는 방식 2를 통해 구현될 수 있다.
방식 1: 제1 입력이 타겟 위치 상의 슬라이딩 입력인 경우, 전자기기는 제1 미리보기 화면에서 상기 제1 입력의 슬라이딩 궤적에 따라 상기 슬라이딩 궤적으로 둘러싸인 영역을 초기 영역으로 결정한다.
선택적으로, 제1 미리보기 화면에서 제1 입력의 슬라이딩 궤적은 닫히거나 열릴 수 있다.
슬라이딩 궤적이 닫힌 궤적인 경우, 닫힌 궤적으로 둘러싸인 영역은 초기 영역이라는 점에 유의해야 한다. 슬라이딩 궤적이 열린 궤적인 경우, 전자기기는 열린 궤적을 하나의 닫힌 궤적으로 조정하고, 상기 하나의 닫힌 궤적으로 둘러싸인 영역을 초기 영역으로 결정할 수 있다.
또한, 상기 슬라이딩 궤적의 방향, 크기, 모양 및 위치는 모두 사용자에 의해 결정된다.
예시적으로, 도 3의 (a)에 도시된 바와 같이, 사용자는 제1 미리보기 화면에서 손가락으로 슬리이딩 입력을 수행할 수 있고, 전자기기는 슬라이딩 궤적으로 둘러싸인 영역 01을 상기 초기 영역으로 결정할 수 있다.
방식 2: 제1 입력이 타겟 위치 상의 클릭 입력인 경우, 전자기기는 상기 타겟 위치를 중심으로 하는 사전설정 크기의 영역을 초기 영역으로 결정한다.
선택적으로, 타겟 위치를 중심으로 하는 사전설정 크기의 영역은 임의의 모양일 수 있다. 예컨대, 원형, 타원형, 정사각형 또는 다른 가능한 모양일 수 있다.
예시적으로, 도 3의 (a)에 도시된 바와 같이, 사용자는 제1 미리보기 화면에서 클릭 조작을 수행할 수 있고, 전자기기는 상기 클릭 위치를 중심으로 하고 사전설정 길이를 반경으로 하여 원형 영역 01을 결정하고, 원형 영역 01을 초기 영역으로 사용할 수 있다.
C2: 전자기기는 제2 미리보기 화면에서 타겟 객체의 칫수, 제1 카메라의 촬영 파라미터 및 제2 카메라의 촬영 파라미터에 근거하여 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정한다.
선택적으로, B2 이전에, 본 출원의 실시예에 따른 촬영 방법은, 제2 카메라를 통해 제2 미리보기 화면에서 타겟 객체의 칫수를 결정하는 단계를 더 포함한다.
선택적으로, 상기 촬영 파라미터는 시야, 초점거리, 배율 등 중 적어도 하나를 포함할 수 있다.
전자기기가 제2 미리보기 화면에서 타겟 객체의 칫수, 제1 카메라의 촬영 파라미터 및 제2 카메라의 촬영 파라미터에 근거하여 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정한다는 것은, 전자기기가 제1 카메라의 촬영 파라미터와 제2 카메라의 촬영 파라미터 간의 환산 관계에 근거하여, 제2 미리보기 화면에서 타겟 객체의 칫수를 제1 미리보기 화면에서 상기 타겟 객체의 칫수로 환산한다는 것을 가리킨다.
본 출원의 실시예는 C1과 C2의 실행 순서에 대해 한정하지 않는다는 점에 유의해야 한다. 즉, 전자기기는 먼저 C1을 실행하고, 그 다음 C2를 수행할 수 있다. 또는, 먼저 C2를 실행하고, 그 다음 C1을 수행할 수 있다. 또는, C1과 C2를 동시에 실행할 수 있다.
C3: 전자기기는 상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수에 따라, 상기 초기 영역을 조정하여 타겟 영역을 획득한다.
초기 영역과 타겟 영역은 칫수가 동일하거나 상이할 수 있다는 점에 유의해야 한다. 초기 영역과 타겟 영역의 칫수가 동일한 경우, 상기 C3을 실행할 필요가 없다.
선택적으로, 타겟 영역은 초기 영역을 중심으로 확장되어 획득될 수 있다. 즉, 타겟 영역의 칫수는 초기 영역의 칫수보다 크다. 또는, 타겟 영역은 초기 영역을 축소하여 획득될 수 있다. 즉, 타겟 영역의 칫수는 초기 영역의 칫수보다 작다.
제1 카메라와 제2 카메라의 시야가 다르기 때문에, 제1 카메라를 통해 포착된 제1 미리보기 화면에서 타겟 객체의 칫수는 제2 카메라를 통해 포착된 제2 미리보기 화면에서 타겟 객체의 칫수와 다르다는 것을 이해할 수 있다. 칫수 환산을 통해 영역의 크기를 조정할 수 있으므로, 타겟 객체가 조정된 영역에 더 정확하게 위치할 수 있다. 즉, 구도가 더 정확해진다.
S103: 전자기기는 상기 타겟 시간에 촬영하도록 제1 카메라를 제어한다.
예시적으로, 제1 카메라가 메인 카메라이고, 제2 카메라가 초광각 카메라이고, 타겟 객체가 날아다니는 새라고 가정한다. 도 3의 (a)에 도시된 바와 같이, 사용자는 촬영을 위해 카메라 애플리케이션을 실행하고, 메인 카메라 및 초광각 카메라로 미리보기 화면을 각각 포착하고, 메인 카메라를 통해 포착된 제1 미리보기 화면을 표시하도록 전자기기를 트리거할 수 있다. 사용자는 메인 카메라를 통해 포착된 제1 미리보기 화면에 대한 클릭 입력을 통해 초기 영역 01을 결정할 수 있다. 광각 카메라를 통해 포착된 제2 미리보기 화면에서 타겟 객체가 감지되면, 전자기기는 제2 미리보기 화면에서 타겟 객체의 칫수, 제1 카메라의 촬영 파라미터 및 제2 카메라의 촬영 파라미터에 근거하여 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정하고, 제1 미리보기 화면에서의 칫수에 근거하여 타겟 영역 01을 획득하고, 두 개의 상이한 시점에 광각 카메라를 통해 포착된 두 개의 미리보기 화면에서 타겟 객체의 위치에 근거하여 타겟 객체의 이동 속도를 결정할 수 있다. 이와 같이, 전자기기는 상기 타겟 영역 01 및 상기 이동 속도에 근거하여 타겟 시간을 결정하고, 메인 카메라가 상기 타겟 시간에 자동으로 촬영하도록 할 수 있다. 즉, 도 3의 (b)에 도시된 타겟 객체가 구도 영역으로 이동된 사진을 획득할 수 있다.
본 출원의 실시예에 따른 촬영 방법에서, 전자기기에 두 개의 카메라가 제공되고, 두 개의 카메라는 동일한 피사체에 대해 두 개의 상이한 미리보기 화면을 각각 포착할 수 있으므로, 이동하는 피사체에 대해 사용자는 실제 상황에 따라 제1 카메라에 의해 포착된 제1 미리보기 화면에서 피사체의 구도 위치를 미리 설정할 수 있으며, 이에 따라 전자기기는 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에서 타겟 객체의 이동 속도에 근거하여 촬영 시간을 결정할 수 있고, 나아가 전자기기는 촬영 시간에 피사체가 구도 위치에 있는 사진을 획득할 수 있다. 따라서, 본 출원의 실시예에 따른 촬영 방법으로 촬영된 사진의 구도가 만족스러울 확률이 높다.
선택적으로, 도 2를 참조하여, 도 5에 도시된 바와 같이, 상기 S102 이후 S103 이전에, 본 출원의 실시예에 따른 촬영 방법은 후술되는 S104 및 S105를 더 포함할 수 있다. 또한, 상기 S103은 구체적으로 후술되는 S103A를 통해 구현될 수 있다.
S104: 전자기기는 타겟 영역에 대한 초점 맞추기를 수행하도록 제1 카메라를 제어한다.
선택적으로, 사용자의 제1 입력을 수신하기 전에, 제1 카메라의 초점 맞추기 영역은 타겟 영역이거나 타겟 영역이 아닐 수 있다. 초점 맞추기 영역이 타겟 영역인 경우, 전자기기는 다시 초점 맞추기를 수행할 필요가 없으며, 초점 맞추기 영역이 타겟 영역이 아닌 경우, 전자기기는 타겟 영역에 제1 카메라의 초점을 맞출 수 있다.
선택적으로, 타겟 영역은 전자기기가 디폴트로 제1 카메라에 초점을 맞춘 영역일 수 있다.
S105: 전자기기는 상기 타겟 영역에 대한 측광을 수행하여 노출 보정값을 결정한다.
선택적으로, 상기 노출 보정값은 양수 또는 음수일 수 있다. 여기서, 노출 보정값이 양수인 경우, 전자기기는 노출량을 증가시킬 수 있고, 노출 보정값이 음수인 경우, 전자기기는 노출량을 감소시킬 수 있다.
본 출원의 실시예는 상기 S104와 S105의 실행 순서에 대해 한정하지 않는다는 점에 유의해야 한다. 즉, 전자기기는 먼저 S104를 실행한 다음 S105를 실행하거나, 먼저 S105를 실행한 다음 S104를 실행하거나, S104와 S105를 동시에 실행할 수 있다.
S103A: 상기 타겟 시간에, 전자기기는 상기 노출 보정값에 따라 노출 보정을 수행하고 사진을 획득하도록 제1 카메라를 제어한다.
예시적으로, 제1 카메라가 메인 카메라이고, 제2 카메라가 초광각 카메라이고, 타겟 객체가 날아다니는 새라고 가정한다. 도 3의 (a)에 도시된 바와 같이, 전자기기는 메인 카메라의 초점을 타겟 영역 05에 맞추고, 상기 타겟 영역 01에 대한 측광을 수행하여 노출 보정값을 결정한다. 타겟 시간에, 전자기기는 상기 노출 보정값에 근거하여 상기 제1 카메라의 노출값에 대한 노출 보정을 수행하여, 도 3의 (b)에 도시된 바와 ƒˆ이, 밝고 선명하며 구도가 만족스러운 타겟 객체의 사진을 획득할 수 있다.
본 출원의 실시예에 따른 촬영 방법에서, 제1 카메라의 초점을 상기 타겟 영역에 맞추고 상기 타겟 영역에 대한 측광을 수행하여 노출 보정값을 결정할 수 있으므로, 타겟 시간에, 전자기기는 상기 노출 보정값에 근거하여 상기 제1 카메라의 노출값에 대한 노출 보정을 수행하여, 밝고 선명하며 구도가 만족스러운 사진을 획득할 수 있다.
선택적으로, 전자기기에는 다수의 속도 구간 및 다수의 노출 지속시간이 저장되어 있고, 하나의 속도 구간은 하나의 노출 지속시간과 대응된다. 도 2를 참조하여, 도 6에 도시된 바와 같이, 상기 S102 이후 S103 이전에, 본 출원의 실시예에 따른 촬영 방법은 후술되는 S106을 더 포함할 수 있다. 또한, 상기 S103은 구체적으로 후술되는 S103B를 통해 구현될 수 있다.
S106: 전자기기는 이동 속도에 근거하여 제1 카메라의 노출 지속시간을 결정한다.
본 출원의 실시예에서, 도 5 및 도 6에 도시된 방법을 수행하거나, 도 5 또는 도 6에 도시된 방법만을 수행할 수 있다. 동시에 도 5 및 도 6에 도시된 방법을 수행할 수 있는 경우, 본 출원의 실시예는 S104 및 S106의 실행 순서에 대해 한정하지 않는다.
선택적으로, 상기 노출 지속시간은 전자기기에 디폴트로 설정되거나 사용자가 자체로 설정할 수 있다.
선택적으로, 상기 S106은 구체적으로 후술되는 D1 및 D2를 통해 구현될 수 있다.
D1: 전자기기는 이동 속도에 근거하여 타겟 속도 구간을 결정하되, 상기 타겟 속도 구간은 상기 다수의 속도 구간에서 상기 이동 속도가 속한 구간이다.
D2: 전자기기는 상기 타겟 속도 구간에 대응하는 하나의 노출 지속시간을 상기 제1 카메라의 노출 지속시간으로 결정한다.
노출 지속시간은 노출 시간이라고 할 수도 있다는 점에 유의해야 한다.
선택적으로, 하나의 노출 지속시간은 하나의 속도 구간에 대응하거나, 하나의 노출 지속시간은 다수의 속도 구간에 대응할 수 있다. 본 출원의 실시예에서는 이에 대해 한정하지 않으며, 실제 상황에 따라 결정될 수 있다.
선택적으로, S106을 실행하기 전에, 전자기기의 제1 카메라의 현재 노출 시간이 최소 노출 시간인 경우, 전자기기는 더 이상 이동 속도에 근거하여 노출 시간을 감소시키지 않는다.
선택적으로, S106을 실행하기 전에, 전자기기의 제1 카메라의 현재 노출 시간이 최대 노출 시간인 경우, 전자기기는 더 이상 이동 속도에 근거하여 노출 시간을 증가시키지 않는다.
S103B: 타겟 시간에, 전자기기는 상기 노출 지속시간에 따라 노출을 수행하고 사진을 획득하도록 제1 카메라를 제어한다.
예시적으로, 전자기기에는 다수의 속도 구간 및 다수의 노출 지속시간이 저장되어 있다. 객체의 이동 속도가 빨라지는 순서로 다수의 속도 구간은 각각 [v1,v2),[v2,v3),[v3,v4),[v4,x)이고, x는 v4보다 클 수 있다. 노출 시간이 짧아지는 순서로 다수의 노출 지속시간은 각각 shutter_time1, shutter_time2, shutter_time3, shutter_time4이고, [v1,v2)는 shutter_time1과 대응되고, [v2,v3)은 shutter_time2와 대응되고, [v3,v4)는 shutter_time3과 대응되고, [v4,x)는 shutter_time4와 대응되며, 현재 전자기기의 제1 카메라의 노출 시간은 shutter_time2일 수 있다. 타겟 객체의 이동 속도가 속도 구간 [v3,v4)에 속하는 경우, 전자기기의 제1 카메라의 노출 시간을 shutter_time2에서 shutter_time3으로 조정한다.
본 출원의 실시예에 따른 촬영 방법에서, 전자기기는 상기 타겟 객체의 이동 속도에 근거하여 노출 지속시간을 결정할 수 있고, 또 전자기기는 상기 노출 지속시간에 따라 촬영하도록 제1 카메라를 제어할 수 있으므로, 이동 속도와 노출 지속시간의 불일치로 인한 화질 저하를 방지할 수 있다. 예컨대, 피사체의 빠른 이동 속도에 비해 긴 노출 시간으로 인한 흐릿한 얼룩의 발생을 방지한다.
본 출원의 실시예들에서, 상기 도면들에 도시된 촬영 방법은 모두 본 출원의 실시예들에서의 도면을 예로 들어 예시적으로 설명된다는 점에 유의해야 한다. 구체적인 구현에서, 상술한 각 도면에 도시된 촬영 방법은 또한 결합될 수 있는 상술한 실시예에 도시된 임의의 다른 도면과 결합하여 구현될 수 있으며, 여기서는 상세한 설명을 생략한다.
도 7에 도시된 바와 같이, 본 출원의 실시예는 전자기기(700)를 제공함에 있어서, 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함한다. 상기 전자기기는 수신부(701), 결정부(702) 및 제어부(703)를 포함할 수 있다. 수신부(701), 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하도록 구성된다. 결정부(702)는, 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하고, 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하도록 구성되며, 상기 타겟 영역은 타겟 위치에 대응하는 영역이다. 제어부(703)는, 결정부(702)에 의해 결정된 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하도록 구성된다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.
선택적으로, 결정부(702)는 또한, 이동 속도에 근거하여 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하기 전에, 타겟 위치에 근거하여 초기 영역을 결정하도록 구성된다. 결정부(702)는 또한, 제2 미리보기 화면에서 상기 타겟 객체의 칫수, 제1 카메라의 촬영 파라미터 및 제2 카메라의 촬영 파라미터에 근거하여 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정하도록 구성된다. 제어부(703)는 또한, 상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수에 따라, 결정부(702)에 의해 결정된 상기 초기 영역을 조정하여 타겟 영역을 획득하도록 구성된다.
선택적으로, 결정부(702)는 구체적으로, 제1 입력이 타겟 위치 상의 슬라이딩 입력인 경우, 제1 미리보기 화면에서 상기 제1 입력의 슬라이딩 궤적에 따라 상기 슬라이딩 궤적으로 둘러싸인 영역을 초기 영역으로 결정하거나, 제1 입력이 타겟 위치 상의 클릭 입력인 경우, 상기 타겟 위치를 중심으로 하는 사전설정 크기의 영역을 초기 영역으로 결정하도록 구성된다.
선택적으로, 제어부(703)는 또한, 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하기 전에, 타겟 영역에 대한 초점 맞추기를 수행하도록 제1 카메라를 제어하도록 구성된다. 결정부(702)는 또한, 상기 타겟 영역에 대한 측광을 수행하여 노출 보정값을 결정하도록 구성된다. 제어부(703)는 또한, 상기 타겟 시간에, 상기 노출 보정값에 따라 노출 보정을 수행하고 사진을 획득하도록 제1 카메라를 제어하도록 구성된다.
선택적으로, 결정부(702)는 또한, 제어부(703)가 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하기 전에, 상기 이동 속도에 근거하여 제1 카메라의 노출 지속시간을 결정하도록 구성된다. 제어부(703)는 구체적으로, 상기 타겟 시간에, 결정부(702)에 의해 결정된 상기 노출 지속시간에 따라 노출을 수행하고 사진을 획득하도록 제1 카메라를 제어하도록 구성된다.
선택적으로, 전자기기에 다수의 속도 구간 및 다수의 노출 지속시간이 저장되어 있고, 하나의 속도 구간은 하나의 노출 지속시간과 대응되는 경우, 결정부(702)는 구체적으로, 상기 이동 속도에 근거하여 타겟 속도 구간을 결정하고, 상기 타겟 속도 구간과 대응되는 하나의 노출 지속시간을 제1 카메라의 노출 지속시간으로 결정하도록 구성되며, 상기 타겟 속도 구간은 상기 다수의 속도 구간에서 상기 이동 속도가 속한 구간이다. 여기서, 상기 타겟 속도 구간은 상기 다수의 속도 구간에서 상기 이동 속도가 속한 구간이다.
선택적으로, 결정부(702)는 구체적으로, 제1 위치를 결정하고 - 상기 제1 위치는 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 하나의 제2 미리보기 화면은 제1 시점에 제2 카메라를 통해 포착된 미리보기 화면임 - ; 제2 위치를 결정하고 - 상기 제2 위치는 다른 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 다른 하나의 제2 미리보기 화면은 제2 시점에 제2 카메라를 통해 포착된 미리보기 화면이고, 상기 제2 시점은 상기 제1 시점 이후의 시점임 - ; 상기 제1 위치, 상기 제2 위치, 상기 제1 시점 및 상기 제2 시점에 근거하여 상기 이동 속도를 결정하도록 구성된다.
선택적으로, 결정부(702)는 구체적으로, 제3 위치를 결정하고 - 상기 제3 위치는 상기 다른 하나의 제2 미리보기 화면에서 상기 타겟 영역과 대응되는 위치임 - ; 상기 제3 위치, 상기 제2 위치 및 상기 이동 속도에 근거하여 상기 타겟 객체가 상기 제2 위치로부터 상기 제3 위치로 이동되는 이동 지속시간을 결정하고; 상기 이동 지속시간 및 상기 제2 시점에 근거하여 상기 타겟 시간을 결정하도록 구성된다.
본 출원의 실시예에 따른 전자기기는 상기 방법 실시예에서 전자기기에 의해 구현되는 각 단계를 구현할 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
본 출원의 실시예에 따른 전자기기에 있어서, 전자기기에 두 개의 카메라가 제공되고, 두 개의 카메라는 동일한 피사체에 대해 두 개의 상이한 미리보기 화면을 각각 포착할 수 있으므로, 이동하는 피사체에 대해 사용자는 실제 상황에 따라 제1 카메라에 의해 포착된 제1 미리보기 화면에서 피사체의 구도 위치를 미리 설정할 수 있으며, 이에 따라 전자기기는 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에서 타겟 객체의 이동 속도에 근거하여 촬영 시간을 결정할 수 있고, 나아가 전자기기는 촬영 시간에 피사체가 구도 위치에 있는 사진을 획득할 수 있다. 따라서, 본 출원의 실시예에 따른 전자기기로 촬영된 사진의 구도가 만족스러울 확률이 높다.
도 8은 본 출원의 각 실시예를 구현하기 위한 전자기기의 하드웨어 구조를 도시한 개략도이다. 상기 전자기기는 핸드폰과 같은 단말 장비일 수 있다. 도 8에 도시된 바와 같이, 전자기기(200)는 무선 주파수 장치(201), 네트워크 모듈(202), 오디오 출력 장치(203), 입력 장치(204), 센서(205), 표시 장치(206), 사용자 입력 장치(207), 인터페이스 장치(208), 메모리(209), 프로세서(210) 및 전원(211) 등 구성요소를 포함하지만 이에 한정되지 않는다. 당업자라면 도 8에 도시된 전자기기의 구조가 전자기기에 어떠한 제한도 구성하지 않으며, 전자기기는 도에 도시된 부품의 수를 늘리거나 줄일 수 있으며, 일부 부품의 조합이나 배치를 다르게 변경할 수 있음을 이해해야 한다. 본 출원의 실시예에서, 전자기기는 휴대폰, 태블릿 PC, 노트북, 개인 휴대 정보 단말기, 차량탑재 단말기, 웨어러블 단말기 및 계보기 등을 포함하지만 이에 한정되지 않는다.
여기서, 프로세서(210)는, 제1 카메라에 의해 수집된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하도록 사용자 입력 장치(207)를 제어하고, 제2 카메라에 의해 수집된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하고; 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동하는 타겟 시간을 결정하고 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ; 상기 타겟 시간에 촬영하도록 제1 카메라를 제어하도록 구성된다. 여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는다.
본 출원의 실시예에 따른 전자기기에 있어서, 전자기기에 두 개의 카메라가 제공되고, 두 개의 카메라는 동일한 피사체에 대해 두 개의 상이한 미리보기 화면을 각각 포착할 수 있으므로, 이동하는 피사체에 대해 사용자는 실제 상황에 따라 제1 카메라에 의해 포착된 제1 미리보기 화면에서 피사체의 구도 위치를 미리 설정할 수 있으며, 이에 따라 전자기기는 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에서 타겟 객체의 이동 속도에 근거하여 촬영 시간을 결정할 수 있고, 나아가 전자기기는 촬영 시간에 피사체가 구도 위치에 있는 사진을 획득할 수 있다. 따라서, 본 출원의 실시예에 따른 전자기기로 촬영된 사진의 구도가 만족스러울 확률이 높다.
본 출원의 실시예에서, 무선 주파수 장치(201)는 정보를 송수신하거나, 통화 프로세스에서 신호를 송수신하도록 구성될 수 있으며, 특히, 기지국으로부터 하향링크 데이터를 수신한 후 처리를 위해 프로세서(210)로 하향링크 데이터를 송신하고, 또한, 상향링크 데이터를 기지국에 전송하도록 구성될 수 있음을 이해해야 한다. 일반적으로, 무선 주파수 장치(201)는 안테나, 적어도 하나의 증폭기, 송수신기, 커플러, 저잡음 증폭기, 듀플렉서 등을 포함하지만 이에 제한되지 않는다. 또한, 무선 주파수 장치(201)는 무선 통신 시스템을 통해 네트워크 및 다른 기기와 통신할 수도 있다.
전자기기(200)는 네트워크 모듈(202)을 통해 사용자에게 무선 광대역 인터넷 액세스를 제공한다. 예컨대, 사용자가 전자 메일을 송수신하고 웹 페이지를 검색하며 스트리밍 미디어에 액세스하도록 도울 수 있다.
오디오 출력 장치(203)는 무선 주파수 장치(201) 또는 네트워크 모듈(202)에서 수신하거나 메모리(209)에 저장된 오디오 데이터를 오디오 신호로 변환하여 소리로 출력할 수 있다. 또한, 오디오 출력 장치(203)는 전자기기(200)가 실행하는 특정 기능(예를 들어, 호 신호 수신음, 메시지 수신음 등)과 관련된 오디오 출력도 제공할 수 있다. 오디오 출력 장치(203)는 스피커, 버저, 수신기 등을 포함한다.
입력 장치(204)는 오디오 또는 비디오 신호를 수신하는 데 사용된다. 입력 장치(204)는 그래픽 처리 장치(graphics processing unit, GPU)(2041) 및 마이크로폰(2042)을 포함할 수 있으며, 그래픽 처리 장치(2041)는 비디오 캡처 모드 또는 이미지 캡처 모드에서 이미지 캡처 장치(예: 카메라)에 의해 획득된 정지 이미지 또는 비디오의 이미지 데이터를 처리한다. 처리된 이미지 프레임은 표시 장치(206)에 표시될 수 있다. 그래픽 처리 장치(2041)에 의해 처리된 이미지 프레임은 메모리(209)(또는 다른 저장 매체)에 저장되거나 무선 주파수 장치(201) 또는 네트워크 모듈(202)을 통해 전송될 수 있다. 마이크로폰(2042)은 사운드를 수신할 수 있고, 이러한 사운드를 오디오 데이터로 처리할 수 있다. 처리된 오디오 데이터는 전화 통화 모드에서 무선 주파수 장치(201)를 통해 이동 통신 기지국으로 전송될 수 있는 포맷으로 변환되어 출력될 수 있다.
전자기기(200)에는 광 센서, 모션 센서 및 기타 센서와 같은 적어도 하나의 센서(205)도 포함될 수 있다. 구체적으로, 광학 센서에는 주변 조도 센서 및 근접 센서가 포함될 수 있고 여기서 주변 조도 센서는 주변 조도의 밝기에 따라 표시 패널(2061)의 밝기를 조정할 수 있으며, 근접 센서는 전자기기(200)가 귀 가까이 이동할 때 표시 패널(2061) 및/또는 백라이트를 끌 수 있다. 가속도계 센서는 모션 센서의 일종으로 모든 방향(보통 3축)의 가속도의 크기를 감지할 수 있고, 정지 상태일 때 중력의 크기와 방향을 감지할 수 있으며, 전자기기의 자세 인식(예를 들어 세로와 가로 화면 전환, 관련 게임, 자력계 자세 보정), 진동 인식 관련 기능(보행계 및 두드리기) 등에 사용될 수 있다. 센서(205)에는 지문 센서, 압력 센서, 홍채 센서, 분자 센서, 자이로스코프, 기압계, 습도계, 온도계, 적외선 센서 등이 포함될 수 있으며, 여기서 추가 설명은 생략한다.
표시 장치(206)는 사용자가 입력한 정보 또는 사용자에게 제공되는 정보를 표시하기 위해 사용된다. 표시 장치(206)에는 표시 패널(2061)이 포함될 수 있고, 액정 표시 장치(liquid crystal display, LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 등의 형태로 표시 패널(2061)을 구성할 수 있다.
사용자 입력 장치(207)는 입력된 숫자 또는 문자 정보를 수신하고 전자기기의 사용자 설정 및 기능 제어와 관련된 주요 신호 입력을 생성하도록 구성할 수 있다. 구체적으로, 사용자 입력 장치(207)는 터치 패널(2071) 및 기타 입력 장치(2072)를 포함한다. 터치 패널(2071)은 터치 스크린이라고도 하며, 사용자가 터치 패널 또는 근처에서 수행한 터치 조작(예를 들어, 사용자가 손가락, 스타일러스펜 등과 같은 적절한 객체 또는 액세서리를 사용하여 터치 패널(2071) 위에서 또는 터치 패널(2071) 근처에서 실행하는 조작)을 포착할 수 있다. 터치 패널(2071)은 터치 감지 장치와 터치 컨트롤러를 포함할 수 있다. 여기서, 상기 터치 감지 장치는 사용자의 터치 위치를 감지하고, 터치 조작에 따른 신호를 감지하여 터치 컨트롤러로 신호를 전송하고, 터치 컨트롤러는 터치 감지 장치로부터 터치 정보를 수신하여 접촉 좌표로 변환한 후 프로세서(210)에 전송하고, 프로세서(210)에 의해 전송된 명령을 수신하여 명령에 따라 실행한다. 또한, 터치 패널(2071)은 저항성, 용량성, 적외선 및 표면 탄성파와 같은 다양한 유형으로 구현될 수 있다. 터치 패널(2071)을 제외하고, 사용자 입력 장치(207)는 또한 기타 입력 장치(2072)를 포함할 수 있다. 구체적으로, 기타 입력 장치(2072)는 물리적 키보드, 기능 키(예를 들어, 볼륨 제어 버튼, 스위치 버튼 등), 트랙볼, 마우스 및 조이스틱을 포함할 수 있으며, 여기서는 상세한 설명을 생략한다.
더 나아가, 터치 패널(2071)은 표시 패널(2061)의 위에 장착되어 터치 패널(2071)이 그 위 또는 근처의 터치 동작을 감지한 후 프로세서(210)로 전송하여 터치 이벤트 유형을 결정한다. 그런 다음, 프로세서(210)는 터치 이벤트 유형에 따라 표시 패널(2061)에 해당 시각적 출력을 제공한다. 도 8에서 터치 패널(2071)과 표시 패널(2061)은 두 개의 독립적인 구성요소로 사용되어 전자기기의 입출력 기능을 구현하지만, 일부 실시예에서는 터치 패널(2071)과 표시 패널(2061)이 통합되어 전자기기의 입출력 기능을 구현할 수 있으며, 여기서는 구체적으로 한정하지 않는다.
인터페이스 장치(208)는 외부 장치와 전자기기(200) 사이의 인터페이스이다. 예컨대, 외부 장치에는 유선 또는 무선 헤드폰 포트, 외부 전원(또는 배터리 충전기) 포트, 유선 또는 무선 데이터 포트, 메모리 포트, 식별 모듈을 구비한 장치를 연결하는 데 사용되는 포트, 오디오 입/출력(I/O) 포트, 비디오 I/O 포트, 이어폰 포트 등이 포함될 수 있다. 인터페이스 장치(208)는 외부 장치로부터 오는 입력(예: 데이터 정보, 전력 등)을 수신하고 수신한 입력을 전자기기(200) 내부에 있는 하나 또는 다수의 소자로 전송하는 데 사용하거나 전자기기(200)와 외부 장치 사이에 데이터를 전송하는 데 사용될 수 있다.
메모리(209)는 소프트웨어 프로그램 및 다양한 데이터를 저장하기 위해 사용될 수 있다. 메모리(209)는 주로 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있으며, 프로그램 저장 영역에는 운영체제, 적어도 하나의 기능(예: 사운드 재생 기능, 이미지 재생 기능 등)에 필요한 애플리케이션이 저장될 수 있으며, 데이터 저장 영역에는 휴대폰의 사용 과정에 생성된 데이터(예: 오디오 데이터, 전화 번호부 등) 등이 저장될 수 있다. 또한, 메모리(209)는 고속 랜덤 액세스 메모리를 포함할 수 있으며, 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 비휘발성 메모리, 또는 기타 휘발성 솔리드 스테이드 메모리를 포함할 수도 있다.
프로세서(210)는 전자기기의 제어 센터이며, 다양한 인터페이스와 회로를 사용하여 전자기기의 모든 구성요소에 연결되며, 메모리(209)에 저장된 소프트웨어 프로그램 및/또는 모듈을 운영 또는 실행하는 메모리(209)에 저장된 데이터를 호출함으로써 전자기기의 다양한 기능을 실행하고 데이터를 처리하여 전자기기에 대한 전반적인 모니터링을 수행한다. 프로세서(210)에는 하나 또는 다수의 처리 장치가 포함될 수 있다. 선택적으로, 애플리케이션 프로세서와 모뎀 프로세서를 프로세서(210)에 통합할 수 있고, 여기서 애플리케이션 프로세서는 주로 운영체제, 사용자 인터페이스, 애플리케이션 등을 처리하고, 모뎀 프로세서는 주로 무선 통신을 처리한다. 상기 모뎀 프로세서는 프로세서(210)에 통합되지 않을 수도 있다.
전자기기(200)에는 모든 구성요소에 전력을 공급하는 전원(211)(예: 배터리)이 추가로 포함될 수 있다. 선택적으로, 전원(211)은 전원 관리 시스템을 통해 프로세서(210)에 논리적으로 연결될 수 있다. 이러한 방식으로 전원 관리 시스템을 이용하여 충전관리, 방전관리, 전력소비관리 등의 기능을 수행한다.
또한 전자기기(200)에는 표시되지 않은 일부 기능부가 포함되어 있으며, 여기서는 추가 설명을 생략한다.
선택적으로, 본 발명의 실시예는 전자기기를 더 제공함에 있어서, 도 8에 도시된 프로세서(210), 메모리(209), 및 메모리(209)에 저장되고 프로세서(210)에서 실행될 수 있는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 프로세서(210)에 의해 실행될 때 상기 방법 실시예의 각 단계를 구현하고, 또 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다.
본 발명의 실시예는 컴퓨터 판독가능 저장 매체를 더 제공함에 있어서, 컴퓨터 판독가능 저장 매체에는 컴퓨터 프로그램이 저장되어 있고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 상기 방법 실시예의 각 단계를 구현하고, 또 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해 여기서는 상세한 설명을 생략한다. 여기서, 컴퓨터 판독가능 저장 매체는 읽기 전용 메모리(read-only memory, ROM), 랜덤 액세스 메모리(random access memory, RAM), 자기 디스크 또는 시디롬 등일 수 있다.
본 명세서에서, “포함한다”, “갖는다” 또는 다른 변형은 비배타적 포함을 가리키며, 일련의 요소를 포함하는 프로세스, 방법, 물품 또는 장치가 그 요소 뿐만 아니라 명확하게 나열되지 않은 다른 요소도 포함하며, 또는 이러한 프로세스, 방법, 물품 또는 장치의 고유한 요소도 포함한다는 점에 유의해야 한다. 별도로 제한이 없는 한, “~을 포함한다”로 정의된 요소는 해당 요소를 포함하는 프로세스, 방법, 물품 또는 장치에서 다른 동일한 요소의 존재를 배제하지 않는다.
상기 실시예의 설명을 통해, 당업자라면 상기 실시예의 방법이 소프트웨어와 필요한 일반 하드웨어 플랫폼을 결부하는 방식에 의해 구현되거나 또는 하드웨어에 의해 구현될 수 있지만, 많은 경우에 소프트웨어와 필요한 일반 하드웨어 플랫폼을 결부하는 방식이 더 바람직하다는 것을 명백하게 이해할 수 있을 것이다. 이러한 이해를 기반으로 하여, 본 출원의 기술적 솔루션은 본질적으로 또는 관련 기술에 기여하는 부분은 소프트웨어 제품의 형태로 구현될 수 있고, 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체(예컨대 ROM/RAM, 자기 디스크, 시디롬)에 저장되어 있고, 한 전자기기(예컨대 휴대폰, 컴퓨터, 서버, 에어컨, 네트워크 장비 등)가 본 출원의 여러 실시예의 방법을 수행할 수 있도록 몇 가지 지령을 포함한다.
상술한 바와 같이 첨부된 도면을 참조하여 본 출원의 실시예를 설명하였지만, 본 출원은 상술한 특정 실시예에 한정되지 않고, 상술한 특정 실시예는 단지 예시일 뿐이고 제한적인 것이 아니며, 당업자는 본 출원의 목적 및 청구 범위에 따른 보호 범위를 벗어나지 않고 본 출원에 기반하여 다양한 변형을 실시할 수 있으며, 이러한 변형은 모두 본 출원의 보호범위에 속한다.

Claims (18)

  1. 전자기기에 적용되는 촬영 방법에 있어서, 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함하며, 상기 방법은,
    상기 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하고, 상기 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하는 단계;
    상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하는 단계 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ;
    상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하는 단계를 포함하되,
    여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 상기 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는 것을 특징으로 하는 촬영 방법.
  2. 제1항에 있어서, 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하는 단계 이전에,
    상기 타겟 위치에 근거하여 초기 영역을 결정하는 단계;
    상기 제2 미리보기 화면에서 상기 타겟 객체의 칫수, 상기 제1 카메라의 촬영 파라미터 및 상기 제2 카메라의 촬영 파라미터에 근거하여 상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정하는 단계;
    상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수에 따라, 상기 초기 영역을 조정하여 상기 타겟 영역을 획득하는 단계를 더 포함하는 것을 특징으로 하는 촬영 방법.
  3. 제2항에 있어서, 상기 타겟 위치에 근거하여 초기 영역을 결정하는 단계는,
    상기 제1 입력이 상기 타겟 위치 상의 슬라이딩 입력인 경우, 상기 제1 미리보기 화면에서 상기 제1 입력의 슬라이딩 궤적에 따라 상기 슬라이딩 궤적으로 둘러싸인 영역을 상기 초기 영역으로 결정하는 단계;
    상기 제1 입력이 상기 타겟 위치 상의 클릭 입력인 경우, 상기 타겟 위치를 중심으로 하는 사전설정 크기의 영역을 상기 초기 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  4. 제1항에 있어서, 상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하는 단계 이전에, 상기 방법은,
    상기 타겟 영역에 대한 초점 맞추기를 수행하도록 상기 제1 카메라를 제어하는 단계;
    상기 타겟 영역에 대한 측광을 수행하여 노출 보정값을 결정하는 단계를 더 포함하고,
    상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하는 단계는,
    상기 타겟 시간에, 상기 노출 보정값에 따라 노출 보정을 수행하고 사진을 획득하도록 상기 제1 카메라를 제어하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  5. 제1항에 있어서, 상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하는 단계 이전에, 상기 방법은,
    상기 이동 속도에 근거하여 상기 제1 카메라의 노출 지속시간을 결정하는 단계를 더 포함하고,
    상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하는 단계는,
    상기 타겟 시간에, 상기 노출 지속시간에 따라 노출을 수행하고 사진을 획득하도록 상기 제1 카메라를 제어하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  6. 제5항에 있어서, 상기 전자기기에는 다수의 속도 구간 및 다수의 노출 지속시간이 저장되어 있고, 하나의 속도 구간은 하나의 노출 지속시간과 대응되며,
    상기 이동 속도에 근거하여 상기 제1 카메라의 노출 지속시간을 결정하는 단계는,
    상기 이동 속도에 근거하여 타겟 속도 구간을 결정하는 단계 - 상기 타겟 속도 구간은 상기 다수의 속도 구간에서 상기 이동 속도가 속한 구간임 - ;
    상기 타겟 속도 구간에 대응하는 하나의 노출 지속시간을 상기 제1 카메라의 노출 지속시간으로 결정하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  7. 제1항에 있어서, 상기 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하는 단계는,
    제1 위치를 결정하는 단계 - 상기 제1 위치는 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 하나의 제2 미리보기 화면은 제1 시점에 상기 제2 카메라에 의해 포착된 미리보기 화면임 - ;
    제2 위치를 결정하는 단계 - 상기 제2 위치는 다른 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 다른 하나의 제2 미리보기 화면은 제2 시점에 상기 제2 카메라에 의해 포착된 미리보기 화면이고, 상기 제2 시점은 상기 제1 시점 이후의 시점임 - ;
    상기 제1 위치, 상기 제2 위치, 상기 제1 시점 및 상기 제2 시점에 근거하여 상기 이동 속도를 결정하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  8. 제7항에 있어서, 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하는 단계는,
    제3 위치를 결정하는 단계 - 상기 제3 위치는 상기 다른 하나의 제2 미리보기 화면에서 상기 타겟 영역과 대응되는 위치임 - ;
    상기 제3 위치, 상기 제2 위치 및 상기 이동 속도에 근거하여 상기 제2 위치로부터 상기 제3 위치까지 이동하는 상기 타겟 객체의 이동 지속시간을 결정하는 단계;
    상기 이동 지속시간 및 상기 제2 시점에 근거하여 상기 타겟 시간을 결정하는 단계를 포함하는 것을 특징으로 하는 촬영 방법.
  9. 전자기기에 있어서, 상기 전자기기는 적어도 제1 카메라 및 제2 카메라를 포함하고, 상기 전자기기는 수신부, 결정부 및 제어부를 포함하되,
    상기 수신부는, 상기 제1 카메라에 의해 포착된 제1 미리보기 화면 상의 타겟 위치에 대한 제1 입력을 수신하도록 구성되고,
    상기 결정부는, 상기 제2 카메라에 의해 포착된 다수의 제2 미리보기 화면에 근거하여 타겟 객체의 이동 속도를 결정하도록 구성되고,
    상기 결정부는 또한, 상기 이동 속도에 근거하여 상기 타겟 객체가 타겟 영역으로 이동되는 타겟 시간을 결정하도록 구성되고 - 상기 타겟 영역은 타겟 위치에 대응하는 영역임 - ,
    상기 제어부는, 상기 결정부에 의해 결정된 상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하도록 구성되며,
    여기서, 각 제2 미리보기 화면에서 상기 타겟 객체의 위치는 상이하고, 상기 제1 미리보기 화면과 각 제2 미리보기 화면은 모두 중첩되는 화면을 갖는 것을 특징으로 하는 전자기기.
  10. 제9항에 있어서, 상기 결정부는 또한, 상기 이동 속도에 근거하여 상기 타겟 객체가 상기 타겟 영역으로 이동되는 상기 타겟 시간을 결정하기 전에, 상기 타겟 위치에 근거하여 초기 영역을 결정하도록 구성되고,
    상기 결정부는 또한, 상기 제2 미리보기 화면에서 상기 타겟 객체의 칫수, 상기 제1 카메라의 촬영 파라미터 및 상기 제2 카메라의 촬영 파라미터에 근거하여 상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수를 결정하도록 구성되고,
    상기 제어부는 또한, 상기 제1 미리보기 화면에서 상기 타겟 객체의 칫수에 따라, 상기 결정부에 의해 결정된 상기 초기 영역을 조정하여 상기 타겟 영역을 획득하도록 구성되는 것을 특징으로 하는 전자기기.
  11. 제10항에 있어서, 상기 결정부는 구체적으로, 상기 제1 입력이 상기 타겟 위치 상의 슬라이딩 입력인 경우, 상기 제1 미리보기 화면에서 상기 제1 입력의 슬라이딩 궤적에 따라 상기 슬라이딩 궤적으로 둘러싸인 영역을 상기 초기 영역으로 결정하거나,
    상기 제1 입력이 상기 타겟 위치 상의 클릭 입력인 경우, 상기 타겟 위치를 중심으로 하는 사전설정 크기의 영역을 상기 초기 영역으로 결정하도록 구성되는 것을 특징으로 하는 전자기기.
  12. 제9항에 있어서, 상기 제어부는 또한, 상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하기 전에, 상기 타겟 영역에 대한 초점 맞추기를 수행하도록 상기 제1 카메라를 제어하도록 구성되고,
    상기 결정부는 또한, 상기 타겟 영역에 대한 측광을 수행하여 노출 보정값을 결정하도록 구성되고,
    상기 제어부는 구체적으로, 상기 타겟 시간에, 상기 노출 보정값에 따라 노출 보정을 수행하고 사진을 획득하도록 상기 제1 카메라를 제어하도록 구성되는 것을 특징으로 하는 전자기기.
  13. 제9항에 있어서, 상기 결정부는 또한, 상기 제어부가 상기 타겟 시간에 촬영하도록 상기 제1 카메라를 제어하기 전에, 상기 이동 속도에 근거하여 상기 제1 카메라의 노출 지속시간을 결정하도록 구성되고,
    상기 제어부는 구체적으로, 상기 타겟 시간에, 상기 결정부에 의해 결정된 상기 노출 지속시간에 따라 노출을 수행하고 사진을 획득하도록 상기 제1 카메라를 제어하도록 구성되는 것을 특징으로 하는 전자기기.
  14. 제13항에 있어서, 상기 전자기기에는 다수의 속도 구간 및 다수의 노출 지속시간이 저장되어 있고, 하나의 속도 구간은 하나의 노출 지속시간과 대응되며,
    상기 결정부는 구체적으로, 상기 이동 속도에 근거하여 타겟 속도 구간을 결정하고, 상기 타겟 속도 구간에 대응하는 하나의 노출 지속시간을 상기 제1 카메라의 노출 지속시간으로 결정하도록 구성되며,
    여기서, 상기 타겟 속도 구간은 상기 다수의 속도 구간에서 상기 이동 속도가 속한 구간인 것을 특징으로 하는 전자기기.
  15. 제9항에 있어서, 상기 결정부는 구체적으로, 제1 위치를 결정하고 - 상기 제1 위치는 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 하나의 제2 미리보기 화면은 제1 시점에 상기 제2 카메라를 통해 포착된 미리보기 화면임 - ; 제2 위치를 결정하고 - 상기 제2 위치는 다른 하나의 제2 미리보기 화면에서 상기 타겟 객체의 위치이고, 상기 다른 하나의 제2 미리보기 화면은 제2 시점에 상기 제2 카메라를 통해 포착된 미리보기 화면이고, 상기 제2 시점은 상기 제1 시점 이후의 시점임 - ; 상기 제1 위치, 상기 제2 위치, 상기 제1 시점 및 상기 제2 시점에 근거하여 상기 이동 속도를 결정하도록 구성되는 것을 특징으로 하는 전자기기.
  16. 제15항에 있어서, 상기 결정부는 구체적으로, 제3 위치를 결정하고 - 상기 제3 위치는 상기 다른 하나의 제2 미리보기 화면에서 상기 제1 영역과 대응되는 위치임 - ; 상기 제3 위치, 상기 제2 위치 및 상기 이동 속도에 근거하여 상기 타겟 객체가 상기 제2 위치로부터 상기 제3 위치로 이동되는 이동 지속시간을 결정하고; 상기 이동 지속시간 및 상기 제2 시점에 근거하여 상기 타겟 시간을 결정하도록 구성되는 것을 특징으로 하는 전자기기.
  17. 프로세서, 메모리, 상기 메모리에 저장되고 상기 프로세서에서 실행될 수 있는 프로그램을 포함하며, 상기 프로그램이 상기 프로세서에 의해 실행될 때 제1항 내지 제8항 중 어느 한 항에 따른 촬영 방법의 단계를 구현하는 것을 특징으로 하는 전자기기.
  18. 프로그램이 저장되어 있고, 상기 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제8항 중 어느 한 항에 의한 촬영 방법의 단계를 구현하는 것을 특징으로 하는 컴퓨터 판독가능 저장 매체.
KR1020227021512A 2019-11-27 2020-09-07 촬영 방법 및 전자기기 KR20220104235A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911184459.0A CN110933303B (zh) 2019-11-27 2019-11-27 拍照方法及电子设备
CN201911184459.0 2019-11-27
PCT/CN2020/113824 WO2021103737A1 (zh) 2019-11-27 2020-09-07 拍照方法及电子设备

Publications (1)

Publication Number Publication Date
KR20220104235A true KR20220104235A (ko) 2022-07-26

Family

ID=69847549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227021512A KR20220104235A (ko) 2019-11-27 2020-09-07 촬영 방법 및 전자기기

Country Status (6)

Country Link
US (1) US20220292696A1 (ko)
EP (1) EP4068752A4 (ko)
JP (1) JP7397983B2 (ko)
KR (1) KR20220104235A (ko)
CN (1) CN110933303B (ko)
WO (1) WO2021103737A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110933303B (zh) * 2019-11-27 2021-05-18 维沃移动通信(杭州)有限公司 拍照方法及电子设备
CN116582741B (zh) * 2020-05-07 2023-11-28 华为技术有限公司 一种拍摄方法及设备
CN111654620B (zh) * 2020-05-26 2021-09-17 维沃移动通信有限公司 拍摄方法及装置
CN112399076B (zh) * 2020-10-27 2022-08-02 维沃移动通信有限公司 视频拍摄方法及装置
CN112770056B (zh) * 2021-01-20 2022-06-24 维沃移动通信(杭州)有限公司 拍摄方法、拍摄装置和电子设备
JP2022138647A (ja) * 2021-03-10 2022-09-26 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、情報処理システム、および画像取得方法
CN113706553B (zh) * 2021-07-27 2024-05-03 维沃移动通信有限公司 图像处理方法、装置及电子设备
CN117857911A (zh) * 2022-09-30 2024-04-09 北京小米移动软件有限公司 拍摄方法、装置、电子设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537888A (ja) * 1991-07-30 1993-02-12 Canon Inc 磁気記録撮影装置
JPH09142210A (ja) * 1995-11-27 1997-06-03 Yazaki Corp 車両周辺監視装置
US8315503B2 (en) * 2008-05-09 2012-11-20 Panasonic Corporation Link information generation apparatus, picture recording apparatus, picture reproduction apparatus, recording medium, link information generation method, picture recording method, picture reproduction method, program, and integrated circuit
TW201251445A (en) * 2011-06-10 2012-12-16 Altek Corp System and method of driving shutter by an object moving tendency
CN104717413A (zh) * 2013-12-12 2015-06-17 北京三星通信技术研究有限公司 拍照辅助方法及设备
WO2015176322A1 (zh) * 2014-05-23 2015-11-26 华为技术有限公司 拍照方法和装置
CN106161924B (zh) * 2015-04-27 2020-01-10 宇龙计算机通信科技(深圳)有限公司 一种轨迹照片的拍摄方法、装置及移动终端
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
CN106375706B (zh) * 2015-07-22 2019-12-10 宇龙计算机通信科技(深圳)有限公司 利用双摄像头进行运动物体测速的方法、装置及移动终端
JP2017069618A (ja) 2015-09-28 2017-04-06 京セラ株式会社 電子機器及び撮像方法
US10116945B2 (en) * 2016-02-26 2018-10-30 Panasonic Intellectual Property Management Co., Ltd. Moving picture encoding apparatus and moving picture encoding method for encoding a moving picture having an interlaced structure
CN105898143B (zh) * 2016-04-27 2019-05-17 维沃移动通信有限公司 一种运动物体的抓拍方法及移动终端
CN105959574B (zh) * 2016-06-30 2019-01-15 维沃移动通信有限公司 一种拍照方法及移动终端
CN106357973A (zh) * 2016-08-26 2017-01-25 深圳市金立通信设备有限公司 一种聚焦的方法及终端
CN106506942A (zh) * 2016-10-31 2017-03-15 维沃移动通信有限公司 一种拍照方法及移动终端
KR20180098059A (ko) 2017-02-24 2018-09-03 엘지전자 주식회사 이동 단말기
CN108449546B (zh) * 2018-04-04 2020-03-31 维沃移动通信有限公司 一种拍照方法及移动终端
CN108322663B (zh) * 2018-05-14 2021-05-07 Oppo广东移动通信有限公司 拍照方法、装置、终端及存储介质
CN108495048B (zh) * 2018-05-29 2021-01-29 青岛一舍科技有限公司 基于云台控制的双摄像头图像采集设备
CN108989665A (zh) * 2018-06-26 2018-12-11 Oppo(重庆)智能科技有限公司 图像处理方法、装置、移动终端及计算机可读介质
CN109344715A (zh) * 2018-08-31 2019-02-15 北京达佳互联信息技术有限公司 智能构图控制方法、装置、电子设备及存储介质
CN110505408B (zh) * 2019-09-12 2021-07-27 深圳传音控股股份有限公司 终端拍摄方法、装置、移动终端及可读存储介质
CN110868550B (zh) * 2019-11-25 2021-04-06 维沃移动通信(杭州)有限公司 一种拍照方法及终端设备电子设备
CN110933303B (zh) * 2019-11-27 2021-05-18 维沃移动通信(杭州)有限公司 拍照方法及电子设备

Also Published As

Publication number Publication date
US20220292696A1 (en) 2022-09-15
EP4068752A4 (en) 2023-01-04
CN110933303B (zh) 2021-05-18
EP4068752A1 (en) 2022-10-05
CN110933303A (zh) 2020-03-27
JP7397983B2 (ja) 2023-12-13
JP2023502126A (ja) 2023-01-20
WO2021103737A1 (zh) 2021-06-03

Similar Documents

Publication Publication Date Title
KR20220104235A (ko) 촬영 방법 및 전자기기
CN110913131B (zh) 一种月亮拍摄方法及电子设备
CN109743498B (zh) 一种拍摄参数调整方法及终端设备
WO2019129020A1 (zh) 一种摄像头自动调焦方法、存储设备及移动终端
EP3496391B1 (en) Method and device for capturing image and storage medium
CN109905603B (zh) 一种拍摄处理方法及移动终端
TWI519156B (zh) 影像擷取方法與影像擷取系統
WO2021082744A1 (zh) 视频查看方法及电子设备
CN111601032A (zh) 一种拍摄方法、装置及电子设备
CN110798621A (zh) 一种图像处理方法及电子设备
CN111083375A (zh) 对焦方法及电子设备
CN111050069B (zh) 一种拍摄方法及电子设备
CN110769156A (zh) 图片显示方法及电子设备
JP2023545536A (ja) 撮影方法、撮影装置、電子機器及び可読記憶媒体
KR20220137053A (ko) 노출 데이터 획득 방법 및 전자 장치
CN110769154B (zh) 一种拍摄方法及电子设备
JP7413546B2 (ja) 撮影方法及び電子機器
CN109561255B (zh) 终端拍照方法、装置及存储介质
CN108317992A (zh) 一种物距测量方法及终端设备
CN109361864B (zh) 一种拍摄参数设置方法及终端设备
JP7352733B2 (ja) 撮影方法及び電子機器
CN110913133B (zh) 拍摄方法及电子设备
CN110958387B (zh) 一种内容更新方法及电子设备
CN108683849B (zh) 一种图像获取方法及终端
CN110545385A (zh) 一种图像处理方法及终端设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal