KR20220082926A - 비디오 촬영 방법 및 전자 디바이스 - Google Patents

비디오 촬영 방법 및 전자 디바이스 Download PDF

Info

Publication number
KR20220082926A
KR20220082926A KR1020227018058A KR20227018058A KR20220082926A KR 20220082926 A KR20220082926 A KR 20220082926A KR 1020227018058 A KR1020227018058 A KR 1020227018058A KR 20227018058 A KR20227018058 A KR 20227018058A KR 20220082926 A KR20220082926 A KR 20220082926A
Authority
KR
South Korea
Prior art keywords
image
video
camera
electronic device
movement mode
Prior art date
Application number
KR1020227018058A
Other languages
English (en)
Inventor
위안유 리
웨이 뤄
빈 천
콩챠오 주
빈 후
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20220082926A publication Critical patent/KR20220082926A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • H04N5/23222
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/23216
    • H04N5/232933
    • H04N5/23299
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

비디오 촬영 방법 및 전자 디바이스가 제공된다. 방법은, 카메라 기능을 활성화시키는 단계; 사용자의 제1 조작에 응답하여, 제1 비디오 레코딩 템플릿(video recording template)을 결정하는 단계 ―제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 제2 예시 샘플은 제2 카메라 이동 모드에 대응함―; 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함하는 레코딩 인터페이스를 디스플레이하는 단계; 사용자의 제2 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계; 및 합성 비디오를 자동으로 생성하는 단계를 포함하고, 여기서 합성 비디오는 제1 비디오 클립, 제2 비디오 클립 및 미리설정된 오디오를 포함하고, 제1 비디오 클립은 제1 카메라 이동 모드에서 생성된 비디오 클립이고, 제2 비디오 클립은 제2 카메라 이동 모드에서 생성된 비디오 클립이다. 이런 방식으로, 다양한 카메라 이동 모드에서 획득된 복수의 비디오 클립이 오디오로 구성된 비디오로 합성될 수 있고, 이에, 편리한 조작을 통해 비교적 좋은 품질의 비디오가 획득될 수 있다.

Description

비디오 촬영 방법 및 전자 디바이스
본 출원은 2019년 11월 29일자로 "비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법 및 전자 디바이스"란 명칭으로 중국 특허청에 출원된 중국 특허 출원 제201911207579.8호에 대한 우선권을 주장하며, 이 특허 출원은 전체가 참조로 본원에 포함된다. 본 출원은 2020년 2월 3일자로 "비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법 및 전자 디바이스"란 명칭으로 중국 특허청에 출원된 중국 특허 출원 제202010079012.3호에 대한 우선권을 주장하며, 이 특허 출원은 전체가 참조로 본원에 포함된다. 본 출원은 2020년 9월 30일자로 "비디오 촬영 방법 및 전자 디바이스"란 명칭으로 중국 특허청에 출원된 중국 특허 출원 제202011066518.7호에 대한 우선권을 주장하며, 이 특허 출원은 전체가 참조로 본원에 포함된다.
본 출원은 이미지 촬영(image shooting) 기술 분야에 관한 것으로, 특히 이미지 촬영 촬영 방법 및 전자 디바이스에 관한 것이다.
촬영 작품의 품질을 향상시키기 위해 업계에서는 흔히 "렌즈 흔들기", "렌즈 이동시키기" 등으로 알려진 다양한 카메라 이동 촬영 기법을 사용하고 있다. 모바일 폰이 예로 사용된다. "렌즈 이동시키기"의 구현 프로세스가 예를 들어, 도 1a에 도시될 수 있다. 오브젝트 촬영 프로세스에서, 모바일 폰은 수평 방향으로 이동한다. 이것이, "렌즈 이동시키기"이다. 모바일 폰이 포인트 A에서 포인트 B로 이동한다는 것이 가정된다. 이동 프로세스에서, 카메라의 커버리지가 변하기 때문에, 모바일 폰의 디스플레이 상에 디스플레이되는 미리보기 이미지(preview image)가 변한다. 물론, "렌즈 이동시키기"는 또한, 수직 방향으로 "렌즈 이동시키기"를 포함할 수 있다. 상향 이동은 "렌즈 올리기"을 의미할 수 있고, 하향 이동은 "렌즈 내리기"을 의미할 수 있다. "렌즈 흔들기"의 구현 프로세스가 예를 들어, 도 1a에 도시될 수 있다. 오브젝트 촬영 프로세스에서, 모바일 폰은 중심 축을 중심으로 회전한다. 중심 축은, 예를 들어, 모바일 폰의 디스플레이가 위치되는 평면 상에서 모바일 폰의 짧은 측의 수직 이등분선(bisector)이다. 모바일 폰이 중심 축을 중심으로 왼쪽방향으로 회전하면, 도 1b에 도시된 바와 같이, 왼쪽방향으로 "렌즈 흔들기"가 구현된다. 모바일 폰이 중심 축을 중심으로 오른쪽방향으로 회전하면, 도 1c에 도시된 바와 같이, 오른쪽방향으로 "렌즈 흔들기"가 구현된다.
즉, 사용자가 휴대형 전자 디바이스(예를 들어, 모바일 폰)를 사용하여 "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 전술한 카메라 이동 촬영 기법을 구현해야 하는 경우, 사용자는 모바일 폰을 이동시키거나 회전시켜야 한다. 이는 불편하다.
본 출원은, 모바일 폰을 사용하여 "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 카메라 이동 촬영 방식을 구현하는 편의성을 향상시키기 위한, 비디오 촬영 방법 및 전자 디바이스를 제공한다.
제1 양상에 따라, 비디오 촬영 방법이 추가로 제공된다. 방법은 전자 디바이스에 적용되며, 그리고 카메라 기능을 활성화시키는 단계; 사용자의 제1 조작에 응답하여, 제1 비디오 레코딩 템플릿(video recording template)을 결정하는 단계 ―제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 제2 예시 샘플은 제2 카메라 이동 모드에 대응하고, 그리고 제1 카메라 이동 모드는 제2 카메라 이동 모드와 상이함―; 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제2 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계; 및 합성 비디오를 자동으로 생성하는 단계를 포함하고, 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 및 미리설정된 오디오를 포함하고, 제1 비디오 클립은 제1 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이고, 제2 비디오 클립은 제2 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이다.
따라서, 이런 방식으로, 다양한 카메라 이동 모드에서 획득된 다양한 비디오 클립이 비디오로 합성될 수 있고, 미리설정된 오디오가 합성 비디오를 위해 구성될 수 있으며, 이에, 편리한 조작을 통해 비교적 좋은 품질의 비디오가 획득될 수 있다. 합성 비디오는 소셜 네트워크에 직접 업로딩되거나, 연락처에 송신될 수 있는 식이며, 과도하게 복잡한 비디오 프로세싱 프로세스가 필요하지 않고, 이에, 조작이 간단하고 사용자 경험은 비교적 양호하다.
가능한 설계에서, 사용자의 제2 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계는, 제1 카메라 이동 모드 식별자가 선택되는 경우, 사용자에 의한 촬영 지시에 응답하여, 제1 카메라 이동 모드에서 제1 비디오 클립을 생성하는 단계 ―제1 비디오 클립의 지속시간은 제1 미리설정된 지속시간임―; 및 제2 카메라 이동 모드 식별자가 선택되는 경우, 사용자에 의한 촬영 지시에 응답하여, 제2 카메라 이동 모드에서 제2 비디오 클립을 생성하는 단계 ―제2 비디오 클립의 지속시간은 제2 미리설정된 지속시간임―를 포함한다.
즉, 각각의 카메라 이동 모드에 대해, 사용자는 레코딩의 시작 및/또는 정지를 제어할 수 있다. 예를 들어, 제1 비디오 레코딩 템플릿은 복수의 카메라 이동 모드를 포함한다. 각각의 카메라의 이동 모드에 대응하는 비디오 레코딩 지속시간은, 미리설정된 고정 지속시간일 수 있으며, 구체적으로는, 미리설정된 지속시간이 도달되면 촬영이 정지된다. 대안적으로, 각각의 카메라 이동 모드에 대응하는 비디오 레코딩 지속시간은 미리설정되지 않은 지속시간일 수 있다. 예를 들어, 사용자는, 뷰파인더 인터페이스 상의 촬영 컨트롤(shooting control)을 사용하여, 모바일 폰이 제1 카메라 이동 모드에서 레코딩을 시작 및 정지하도록 제어한다.
가능한 설계에서, 제1 비디오 클립이 제1 카메라 이동 모드에서 생성되는 경우, 제1 카메라 이동 모드에서 제1 비디오 클립을 생성하는 것의 카운트다운이 비디오 레코딩 인터페이스 상에 추가로 디스플레이되고; 그리고 제2 비디오 클립이 제2 카메라 이동 모드에서 생성되는 경우, 제2 카메라 이동 모드에서 제2 비디오 클립을 생성하는 것의 카운트다운이 비디오 레코딩 인터페이스 상에 추가로 디스플레이된다.
즉, 전자 디바이스는 사용자가 레코딩 진행상황(예를 들어, 남은 레코딩 지속시간)을 알게 돕기 위해 레코딩 시간 카운트다운을 디스플레이할 수 있고, 이에, 상호작용 경험은 비교적 양호하다.
가능한 설계에서, 방법은, 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여, 제1 카메라 이동 모드 식별자 또는 제2 카메라 이동 모드 식별자를 삭제하는 단계; 사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및 합성 비디오를 자동으로 생성하는 단계를 더 포함하고, 합성 비디오는, 삭제되지 않은, 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립을 포함하고, 합성 비디오는 미리설정된 오디오를 더 포함한다.
즉, 사용자는 카메라 이동 모드 식별자를 삭제할 수 있다. 예를 들어, 사용자가 좋아하지 않는 카메라 이동 모드에 해당하는 카메라 이동 모드 식별자를 사용자가 삭제하면, 해당 카메라 이동 모드가 삭제되고, 나머지 카메라 이동 모드 식별자에 대응하는 카메라 이동 모드에서 생성된 비디오 클립이 비디오로 합성된다.
가능한 설계에서, 방법은, 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여, 제3 카메라 이동 모드 식별자를 비디오 레코딩 인터페이스에 추가하는 단계 ―제3 카메라 이동 모드 식별자는 제3 카메라 이동 모드를 지시하는 데 사용됨―; 사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및 합성 비디오를 자동으로 생성하는 단계를 더 포함하고, 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 제3 비디오 클립 및 미리설정된 오디오를 포함하고, 제3 비디오 클립은 제3 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이다.
즉, 사용자가 카메라 이동 모드를 좋아한다고 가정하면, 사용자는 카메라 이동 모드에 대응하는 카메라 이동 모드 식별자를 추가할 수 있고, 이에, 해당 카메라 이동 모드가 추가되고, 그리고 원래의 카메라 이동 모드에서 생성된 비디오 클립 및 추가된 카메라 이동 모드에서 생성된 비디오 클립이 비디오로 합성된다.
가능한 설계에서, 방법은, 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여, 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자의 디스플레이 순서를 제1 순서로 조정하는 단계; 사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및 합성 비디오를 자동으로 생성하는 단계를 더 포함하고, 합성 비디오에서 제1 비디오 클립 및 제2 비디오 클립을 재생하는 순서가 제1 순서이다.
즉, 사용자는 카메라 이동 모드 식별자를 디스플레이하는 순서를 조정할 수 있고, 이에, 합성 비디오 클립의 순서가 조정되고, 합성 비디오에서 2개의 비디오 클립을 재생하는 순서도 또한 조정된다.
가능한 설계에서, 제1 예시 샘플 및/또는 제2 예시 샘플은 비디오 레코딩 인터페이스 상에 디스플레이된다.
레코딩 인터페이스 상에서, 제1 예시 샘플은 사용자가 제1 카메라 이동 모드의 촬영 효과를 보도록 돕는 데 사용되고, 제2 예시 샘플은 제2 카메라 이동 모드의 촬영 효과를 보도록 돕는 데 사용되고, 이에, 상호작용 경험은 비교적 양호하다.
가능한 설계에서, 합성 비디오를 자동으로 생성하는 단계 전에, 방법은, 프레젠테이션 인터페이스를 디스플레이하는 단계를 더 포함하고, 여기서 프리젠테이션 인터페이스는 제1 비디오 클립 및 제2 비디오 클립을 포함하고; 그리고 비디오를 자동으로 생성하는 단계는, 사용자에 의해 입력된 비디오 합성 명령에 응답하여 비디오 합성을 수행하는 단계를 포함한다.
즉, 비디오 합성을 수행하기 전에, 사용자는 추가로, 제1 비디오 클립 및 제2 비디오 클립을 별도로 볼 수 있다. 사용자가 2개의 비디오 클립에 만족한다고 가정하면, 사용자의 트리거 조작에 따라 비디오 합성이 수행된다.
가능한 설계에서, 방법은, 제4 조작에 응답하여, 제1 비디오 클립 또는 제2 비디오 클립을 삭제하는 단계; 또는 합성 비디오에 로컬 제3 비디오 클립을 추가하는 단계; 또는 합성 비디오에서 제1 비디오 클립 또는 제2 비디오 클립의 재생 순서를 조정하는 단계를 더 포함한다.
즉, 사용자는, 비디오 클립을 삭제할 수 있는데, 예를 들면, 사용자가 만족하지 않는 촬영 클립(shot clip)을 삭제할 수 있거나; 또는 사용자가 좋아하는 비디오 클립을 국부적으로 추가할 수 있거나; 또는 합성 비디오에서 2개의 비디오 클립을 재생하는 순서를 조정할 수 있다. 결론적으로, 사용자는 합성 비디오를 유연하게 설정할 수 있고, 이에, 상호작용 경험은 비교적 양호하다.
가능한 설계에서, 제1 비디오 레코딩 템플릿은 디폴트 템플릿 또는 사용자-정의 템플릿이다.
즉, 사용자는, 전자 디바이스의 디폴트 템플릿을 사용할 수 있을 뿐만 아니라 템플릿을 커스터마이징(customize)할 수 있는 데, 예를 들면, 사용자가 좋아하는 템플릿을 설정할 수 있고, 이에, 상호작용 경험은 비교적 양호하다.
가능한 설계에서, 방법은, 제1 비디오 클립, 제2 비디오 클립 및 합성 비디오를 자동으로 저장하는 단계를 더 포함한다. 즉, 전자 디바이스는, 모든 비디오 클립 및, 비디오 클립이 합성되는 비디오를 자동으로 저장할 수 있다. 이런 방식으로, 사용자는 각각의 개별 비디오 클립을 국부적으로 볼 수 있거나 또는 합성 비디오를 볼 수 있고, 이에, 사용자 경험은 비교적 양호하다. 예를 들어, 사용자는, 개별 비디오 클립을 소셜 네트워크에 업로딩할 수 있거나 또는 합성 비디오를 소셜 네트워크에 업로딩할 수 있다.
가능한 설계에서, 방법은, 특정 조작에 응답하여, 합성 비디오의 오디오를 변경하는 단계 또는 합성 비디오에 텍스트 및/또는 픽처(picture)를 추가하는 단계를 더 포함한다. 즉, 사용자는 합성 비디오의 오디오를 변경할 수 있거나 또는 합성 비디오에 텍스트, 픽처 등을 추가할 수 있고, 이에, 상호작용 경험은 비교적 양호하다.
제2 양상에 따라, 전자 디바이스가 추가로 제공된다. 전자 디바이스는,
하나 이상의 프로세서; 및
하나 이상의 메모리를 포함한다.
하나 이상의 메모리는 하나 이상의 컴퓨터 프로그램을 저장하고, 하나 이상의 컴퓨터 프로그램은, 명령을 포함하고 그리고 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는,
카메라 기능을 활성화시키는 단계;
사용자의 제1 조작에 응답하여 제1 비디오 레코딩 템플릿을 결정하는 단계 ―제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 제2 예시 샘플은 제2 카메라 이동 모드에 대응하고, 그리고 제1 카메라 이동 모드는 제2 카메라 이동 모드와 상이함―;
비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
사용자의 제2 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계; 및
합성 비디오를 자동으로 생성하는 단계를 수행할 수 있고, 여기서 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 및 미리설정된 오디오를 포함하고, 제1 비디오 클립은 제1 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이고, 제2 비디오 클립은 제2 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 구체적으로는,
제1 카메라 이동 모드 식별자가 선택되는 경우, 사용자에 의한 촬영 지시에 응답하여, 제1 카메라 이동 모드에서 제1 비디오 클립을 생성하는 단계 ―제1 비디오 클립의 지속시간은 제1 미리설정된 지속시간임―; 및
제2 카메라 이동 모드 식별자가 선택되는 경우, 사용자에 의한 촬영 지시에 응답하여, 제2 카메라 이동 모드에서 제2 비디오 클립을 생성하는 단계를 수행할 수 있고, 여기서 제2 비디오 클립의 지속시간은 제2 미리설정된 지속시간이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 구체적으로는,
제1 비디오 클립이 제1 카메라 이동 모드에서 생성되는 경우, 제1 카메라 이동 모드에서 제1 비디오 클립을 생성하는 것의 카운트다운을 비디오 레코딩 인터페이스 상에 추가로 디스플레이 단계; 및 제2 비디오 클립이 제2 카메라 이동 모드에서 생성되는 경우, 제2 카메라 이동 모드에서 제2 비디오 클립을 생성하는 것의 카운트다운을 비디오 레코딩 인터페이스 상에 추가로 디스플레이 단계를 수행할 수 있다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
사용자의 제3 조작에 응답하여, 제1 카메라 이동 모드 식별자 또는 제2 카메라 이동 모드 식별자를 삭제하는 단계;
사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
합성 비디오를 자동으로 생성하는 단계를 수행할 수 있고, 여기서 합성 비디오는, 삭제되지 않은, 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립 및 미리설정된 오디오를 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
사용자의 제3 조작에 응답하여, 제3 카메라 이동 모드 식별자를 비디오 레코딩 인터페이스에 추가하는 단계 ―제3 카메라 이동 모드 식별자는 제3 카메라 이동 모드를 지시하는 데 사용됨―;
사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
합성 비디오를 자동으로 생성하는 단계를 수행할 수 있고, 여기서 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 제3 비디오 클립 및 미리설정된 오디오를 포함하고, 제3 비디오 클립은 제3 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
비디오 레코딩 인터페이스를 디스플레이하는 단계 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
사용자의 제3 조작에 응답하여, 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자의 디스플레이 순서를 제1 순서로 조정하는 단계;
사용자의 제4 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
합성 비디오를 자동으로 생성하는 단계를 수행할 수 있고, 여기서 합성 비디오에서 제1 비디오 클립 및 제2 비디오 클립을 재생하는 순서가 제1 순서이다.
가능한 설계에서, 제1 예시 샘플 및/또는 제2 예시 샘플은 비디오 레코딩 인터페이스 상에 디스플레이된다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
프레젠테이션 인터페이스를 디스플레이하는 단계를 포함하고, 여기서 프리젠테이션 인터페이스는 제1 비디오 클립 및 제2 비디오 클립을 포함하고; 그리고
비디오를 자동으로 생성하는 단계는, 사용자에 의해 입력된 비디오 합성 명령에 응답하여 비디오 합성을 수행하는 단계를 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
제4 조작에 응답하여, 제1 비디오 클립 또는 제2 비디오 클립을 삭제하는 단계; 또는 합성 비디오에 로컬 제3 비디오 클립을 추가하는 단계; 또는 합성 비디오에서 제1 비디오 클립 또는 제2 비디오 클립의 재생 순서를 조정하는 단계를 수행할 수 있다.
가능한 설계에서, 제1 비디오 레코딩 템플릿은 디폴트 템플릿 또는 사용자-정의 템플릿이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
제1 비디오 클립, 제2 비디오 클립 및 합성 비디오를 자동으로 저장하는 단계를 수행할 수 있다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
특정 조작에 응답하여, 합성 비디오의 오디오를 변경하는 단계 또는 합성 비디오에 텍스트 및/또는 픽처를 추가하는 단계를 수행할 수 있다.
제3 양상에 따라, 본 출원의 실시예는 추가로 전자 디바이스를 제공한다. 전자 디바이스는 제1 양상 및 제1 양상의 가능한 설계 중 어느 하나에 따른 방법을 수행하는 모듈/유닛을 포함한다. 이러한 모듈/유닛은 하드웨어에 의해 구현될 수 있거나, 또는 해당 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제4 양상에 따라, 본 출원의 실시예는 추가로 칩을 제공한다. 칩은, 전자 디바이스의 메모리에 커플링되며, 메모리에 저장된 컴퓨터 프로그램을 호출하도록 그리고 본 출원의 실시예의 제1 양상 및 제1 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 실행하도록 구성된다. 본 출원의 이 실시예에서, "커플링"은, 2개의 컴포넌트가 서로 직접 또는 간접적으로 결합되는 것을 의미한다.
제5 양상에 따라, 컴퓨터-판독가능 저장 매체가 추가로 제공된다. 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램을 포함하고, 컴퓨터 프로그램이 전자 디바이스 상에서 구동되는 경우, 전자 디바이스는 제1 양상에 따른 방법을 수행할 수 있다.
제6 양상에 따라, 프로그램 제품이 추가로 제공된다. 프로그램 제품은 명령을 포함하고, 명령이 컴퓨터 상에서 구동되는 경우, 컴퓨터는 제1 양상에 따른 방법을 수행할 수 있다.
제7 양상에 따라, 전자 디바이스 상의 그래픽 사용자 인터페이스가 추가로 제공된다. 전자 디바이스는 디스플레이, 하나 이상의 메모리, 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 하나 이상의 메모리에 저장된 하나 이상의 컴퓨터 프로그램을 실행하도록 구성된다. 그래픽 사용자 인터페이스는, 전자 디바이스가 제1 양상에 따른 방법을 수행하는 경우 디스플레이되는 그래픽 사용자 인터페이스를 포함한다.
제2 양상 내지 제7 양상의 유익한 효과에 대해서는 제1 양상의 유익한 효과를 참조한다. 세부사항은 다시 설명되지 않는다.
제8 양상에 따라, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법이 제공된다. 방법은 전자 디바이스, 예를 들어, 모바일 폰 또는 태블릿 컴퓨터에 적용된다. 전자 디바이스는, 카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하고; 제1 조작에 응답하여, 카메라 애플리케이션을 시작하고; 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하고; 제2 조작에 응답하여 전자 디바이스의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하고 ―뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 제1 광각 카메라(wide-angle camera)에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록임―; 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 이동 방향을 지시하는 제3 조작을 검출하고; 그리고 제3 조작에 응답하여, 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하고, 여기서 제2 미리보기 이미지는 제1 광각 카메라에 의해 캡처된 제2 이미지 상의 제2 영역에 있는 제2 이미지 블록이거나, 또는 제2 미리보기 이미지는 제2 이미지 블록에 대한 화각(angle of view) 변환이 수행된 후 획득된 이미지 블록이고, 그리고 제1 영역에 대한 제2 영역의 배향은 이미지 이동 방향과 관련된다.
예를 들어, 사용자가 모바일 폰을 사용하여 비디오 레코딩을 수행하는 프로세스에서, 미리보기 이미지는 사용자를 향하고 있는 장면 A를 포함하고, 사용자의 오른쪽 정면에 있는 장면 B는 포함하지 않는다. 사용자는 모바일 폰의 포지션을 변경하지 않고 유지하고, (예를 들어, 터치화면을 사용하여) 이미지 오른쪽방향으로 이동 명령을 입력한다. 이 경우, 미리보기 이미지는, (예를 들어, 장면 A는 제외하고) 사용자의 오른쪽 정면에 있는 장면 B를 포함하는 새로운 미리보기 이미지로 업데이트된다. 따라서, 전자 디바이스의 포지션이 변경되지 않은 채로 있는 경우, "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 촬영 방식이 또한 구현될 수 있고, 이에, 사용자 경험은 비교적 양호하다.
제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 관련된다는 것이, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 동일하거나 또는 반대라는 것을 포함한다는 것이 이해되어야 한다. 이는 본 출원의 이 실시예에서 제한되지 않는다. 예를 들어, 사용자는, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 동일하게 또는 반대가 되게 자발적으로 설정할 수 있다.
가능한 설계에서, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 관련된다는 것은, 제2 이미지의 제1 에지와 제2 영역 간의 거리가 제2 거리이고, 제1 이미지의 제1 에지와 제1 영역 간의 거리가 제1 거리이고, 그리고 제1 거리에 대한 제2 거리의 거리 변화량은 이미지 이동 방향과 관련된다는 것을 포함한다.
예를 들어, 제1 이미지의 왼쪽 에지와 제1 영역 간의 거리는 H이고, 제2 이미지의 왼쪽 에지와 제2 영역 간의 거리는 H+A라는 것이 가정된다. A가 양수(positive number)인 경우, 이는 제1 영역에 대한 제2 영역의 배향이 오른쪽방향임을 지시하거나; 또는 A가 음수(negative number)인 경우, 이는 제1 영역에 대한 제2 영역의 배향이 왼쪽방향임을 지시한다.
일 예에서, 전자 디바이스는 제3 이미지 상의 제3 영역을 결정하며 ―제2 영역에 대한 제3 영역의 제2 배향 변화량은 제1 영역에 대한 제2 영역의 제1 배향 변화량과 동일함―; 그리고 뷰파인더 인터페이스 상에 제3 미리보기 이미지를 디스플레이하고, 여기서 제3 미리보기 이미지는 제3 이미지 상의 제3 영역에 있는 제3 이미지 블록이거나, 또는 제3 미리보기 이미지는 제3 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이다. 제2 배향 변화량은 제2 거리에 대한 제3 거리의 거리 변화량이고, 제1 배향 변화량은 제1 거리에 대한 제2 거리의 거리 변화량이다. 제3 거리는 제3 이미지의 제1 에지와 제3 영역 간의 거리이고, 제2 거리는 제2 이미지의 제1 에지와 제2 영역 간의 거리이고, 그리고 제1 거리는 제1 이미지의 제1 에지와 제1 영역 간의 거리이다.
즉, 제1 광각 카메라에 의해 캡처된 이미지 상에서 미리보기 이미지의 포지션의 변화량은 동일하다. 따라서, 시각적으로, 뷰파인더 인터페이스 상의 미리보기 이미지는 일정한 속도로 이동하고, 이에, 사용자 경험은 비교적 양호하다.
다른 예에서, 제2 영역에 대한 제3 영역의 제2 배향 변화량은 대안적으로, 제1 영역에 대한 제2 영역의 제1 배향 변화량보다 클 수 있다. 따라서, 시각적으로, 뷰파인더 인터페이스 상의 미리보기 이미지는 가속된 속도로 이동하고, 이에, 리듬감(sense of rhythm) 및 시각적 임팩트가 구현된다.
물론, 제2 영역에 대한 제3 영역의 제2 배향 변화량은 대안적으로, 제1 영역에 대한 제2 영역의 제1 배향 변화량보다 작을 수 있다. 따라서, 시각적으로, 뷰파인더 인터페이스 상의 미리보기 이미지는 감속된 속도로 이동고, 이에, 비디오 레코딩 유연성 및 흥미도가 높아진다.
가능한 설계에서, 제1 비디오 레코딩 모드에 진입하기 전에, 전자 디바이스는 뷰파인더 인터페이스 상에 제4 미리보기 이미지를 디스플레이하고, 여기서 제4 미리보기 이미지는 제2 광각 카메라에 의해 캡처된 이미지이고, 제2 광각 카메라의 시야는 제1 광각 카메라의 시야보다 작고, 그리고 제1 미리보기 이미지는 제1 광각 카메라의 시야와 제2 광각 카메라의 시야 사이의 중첩 범위 내의 이미지 블록의 일부 또는 전부이다. 즉, 다른 모드로부터 제1 비디오 레코딩 모드로 전환된 경우, 전자 디바이스는, 더 큰 시야로 제1 광각 카메라를 작동시키고(start) 그리고 뷰파인더 인터페이스 상에, 제1 광각 카메라에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록을 디스플레이한다. 더 큰 화각으로 카메라에 의해 캡처된 이미지의 더 큰 커버리지는, 더 많은 세부사항이 포함되고 그리고 이미지 상의 제1 영역의 포지션의 이동가능한 범위가 더 크다는 것을 지시한다. 따라서, "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 촬영 방식이 더 큰 이동가능한 범위 내에서 구현될 수 있고, 이에, 사용자 경험은 비교적 양호하다.
제2 광각 카메라에 의해 캡처된 이미지의 배율이 제1 광각 카메라에 의해 캡처된 이미지의 배율 이하라는 것이 이해되어야 한다.
제3 조작은, 제1 미리보기 이미지에 대한 플릭(flick) 조작; 또는
뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작; 또는
뷰파인더 인터페이스 상에서 특정 컨트롤을 누르고 드래그하는 조작을 포함한다.
전술한 제3 조작은 제한이 아니라 단지 예일뿐이라는 것이 이해되어야 한다. 이미지 이동 방향을 입력하는 데 사용되는 다른 조작도 또한 실현가능하다. 이는 본 출원의 이 실시예에서 제한되지 않는다.
이미지 이동 정지 명령이 검출되는 경우, 제5 미리보기 이미지가 뷰파인더 인터페이스 상에 디스플레이된다는 것이 이해될 수 있고, 여기서 제5 미리보기 이미지는 제1 광각 카메라에 의해 캡처된 제5 이미지 상의 제5 영역에 있는 제5 이미지 블록이거나, 또는 제5 미리보기 이미지는, 제5 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고; 그리고 제2 영역에 대한 제5 영역의 배향은 변경되지 않는다. 즉, 이미지 이동 정지 명령이 검출되는 경우, 이미지에 대한 미리보기 이미지의 배향은 변경되지 않으며, 뷰파인더 인터페이스 상에서 미리보기 이미지의 포지션은 시각적으로 변경되지 않는다.
이미지 이동 정지 명령이 검출되는 경우, 전자 디바이스는 비디오를 생성하여 저장한다는 것이 이해될 수 있고, 여기서 비디오는 제2 미리보기 이미지를 포함한다. 즉, 이미지 이동 정지 명령이 검출되는 경우, 전자 디바이스는 비디오를 자동으로 생성하고 비디오를 저장한다. 이는 조작을 용이하게 하고 사용자 경험을 향상시킨다.
이미지 이동 정지 명령을 검출하는 것은,
제3 조작이 제1 미리보기 이미지에 대한 플릭 조작인 경우, 플릭 조작 후 업리프트(uplift)를 검출했을 때 이미지 이동 정지 명령을 생성하는 것; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 이미지 이동 정지 명령을 생성하는 것; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드(touch and hold) 조작인 경우, 터치 앤 홀드 조작 후 업리프트를 검출했을 때 이미지 이동 정지 명령을 생성하는 것; 또는
제3 조작이 뷰파인더 인터페이스 상의 특정 컨트롤을 누르고 드래그하는 조작인 경우, 드래그 조작 후 업리프트를 검출했을 때 이미지 이동 정지 명령을 생성하는 것을 포함한다.
이미지 이동 정지 명령은 제한이 아니라 단지 예일뿐이라는 것이 주목되어야 한다. 다른 이미지 이동 정지 명령도 또한 실현가능하다. 이는 본 출원의 이 실시예에서 제한되지 않는다.
예를 들어, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이며, 여기서 N은 1 이상의 정수이고, M은 N보다 작은 정수이다. 프레임 추출 재생은 빠른 재생 효과를 달성할 수 있다. 따라서, 미리보기 이미지가 신속하게 재생될 수 있다. 대안적으로, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1 이상의 정수이고, M은 N보다 큰 정수이다. 프레임 삽입 재생은 느린 재생 효과를 달성할 수 있다. 따라서, 미리보기 이미지가 서서히 재생될 수 있다.
제2 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록은,
x'=x*cos(θ)-sin(θ)*y; 및
y'=x*sin(θ)+cos(θ)*y 공식을 만족한다.
여기서, (x', y')는 화각 변환 후 획득된 이미지 블록에 대한 픽셀이고; 그리고 (x, y)는 제2 이미지 블록에 대한 픽셀이고; 그리고 θ는 회전 각도이며 회전 각도는 미리설정된다. 전자 디바이스가 전술한 공식을 사용하여 이미지 블록에 대한 화각 변환을 수행한 후, 미리보기 이미지는 모바일 폰이 실제 흔들어졌을 때 제시되는 미리보기 이미지에 더 적합하다. 따라서, 전자 디바이스의 포지션이 변경되지 않은 채로 있는 경우, 사용자는 전자 디바이스를 사용하여 "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 촬영 방식을 구현할 수 있고, 이에, 사용자 경험은 비교적 양호하다.
제9 양상에 따라, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법이 추가로 제공된다. 방법은 전자 디바이스에 적용된다. 전자 디바이스는 카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하고; 제1 조작에 응답하여, 카메라 애플리케이션을 시작하고; 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하고; 제2 조작에 응답하여 전자 디바이스의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하고 ―뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 카메라에 의해 캡처된 제1 이미지임―; 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 회전 방향을 지시하는 제3 조작을 검출하고; 그리고 제3 조작에 응답하여, 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하고, 여기서 제2 미리보기 이미지는 카메라에 의해 캡처된 제2 이미지가 이미지 회전 방향으로 회전된 후 획득된 이미지이다. 즉, 사용자가 전자 디바이스를 사용하여 비디오 레코딩을 수행하는 프로세스에서, 뷰파인더 인터페이스 상의 미리보기 이미지가 회전할 수 있고, 이에, 이미지 회전 촬영 효과가 달성되고, 사용자 경험은 비교적 양호하다.
가능한 설계에서, 제3 미리보기 이미지가 뷰파인더 인터페이스 상에 디스플레이되고, 여기서 제3 미리보기 이미지는 카메라에 의해 캡처된 제3 이미지가 이미지 회전 방향으로 회전된 후 획득된 이미지이고, 제2 이미지에 대한 제3 이미지의 회전 각도는 제1 이미지에 대한 제2 이미지의 회전 각도와 동일하다.
즉, 사용자가 전자 디바이스를 사용하여 비디오 레코딩을 수행하는 프로세스에서, 뷰파인더 인터페이스 상의 미리보기 이미지는 매번 동일한 각도로 회전하는데, 즉, 일정한 속도로 회전하고, 이에, 회전 촬영 효과가 달성된다.
예를 들어, 카메라는 제1 광각 카메라이고, 제1 이미지는 제1 광각 카메라에 의해 캡처된 제4 이미지 상의 제1 영역에 있는 제1 이미지 블록이고, 제2 이미지는 제1 광각 카메라에 의해 캡처된 제5 이미지 상의 제2 영역에 있는 제2 이미지 블록이고, 그리고 제4 이미지 상의 제1 영역의 포지션은 제5 이미지 상의 제2 영역의 포지션과 동일하거나 상이하다.
제3 조작은, 제1 미리보기 이미지에 대한 써클 드로잉(circle drawing) 조작; 또는
뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작을 포함한다.
전술한 제3 조작은 제한이 아니라 단지 예일뿐이라는 것이 이해되어야 한다. 이미지 이동 방향을 입력하는 데 사용되는 다른 조작도 또한 실현가능하다. 이는 본 출원의 이 실시예에서 제한되지 않는다.
가능한 설계에서, 이미지 회전 정지 명령이 검출되는 경우, 전자 디바이스는 비디오를 생성하여 저장하고, 여기서 비디오는 제2 미리보기 이미지를 포함한다. 즉, 이미지 회전 정지 명령이 검출되는 경우, 전자 디바이스는 비디오를 자동으로 생성하고 비디오를 저장한다. 이는 조작을 용이하게 하고 사용자 경험을 향상시킨다.
이미지 회전 정지 명령을 검출하는 것은,
제3 조작이 제1 미리보기 이미지에 대한 써클 드로잉 조작인 경우, 써클 드로잉 조작 후 업리프트를 검출했을 때 이미지 회전 정지 명령을 생성하는 것; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 이미지 회전 정지 명령을 생성하는 것; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드 조작인 경우, 터치 앤 홀드 조작 후 업리프트를 검출했을 때 이미지 회전 정지 명령을 생성하는 것을 포함한다.
이미지 회전 정지 명령은 제한이 아니라 단지 예일뿐이라는 것이 주목되어야 한다. 다른 이미지 회전 정지 명령도 또한 실현가능하다. 이는 본 출원의 이 실시예에서 제한되지 않는다.
제2 이미지는 제1 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1 이상의 정수이고, M은 N보다 작은 정수이다. 프레임 추출 재생은 빠른 재생 효과를 달성할 수 있다. 따라서, 미리보기 이미지가 신속하게 재생될 수 있다. 대안적으로, 제2 이미지는 제1 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1 이상의 정수이고, M은 N보다 큰 정수이다. 프레임 삽입 재생은 느린 재생 효과를 달성할 수 있다. 따라서, 미리보기 이미지가 서서히 재생될 수 있다.
제10 양상에 따라, 전자 디바이스가 추가로 제공된다. 전자 디바이스는 하나 이상의 프로세서 및 하나 이상의 메모리를 포함한다. 하나 이상의 메모리는 하나 이상의 컴퓨터 프로그램을 저장하고, 하나 이상의 컴퓨터 프로그램은, 명령을 포함하고 그리고 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는,
카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하는 단계;
제1 조작에 응답하여, 카메라 애플리케이션을 시작하는 단계;
제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하는 단계;
제2 조작에 응답하여 전자 디바이스이의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하는 단계 ―뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 제1 광각 카메라에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록임―;
전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 이동 방향을 지시하는 제3 조작을 검출하는 단계; 및
제3 조작에 응답하여, 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제2 미리보기 이미지는 제1 광각 카메라에 의해 캡처된 제2 이미지 상의 제2 영역에 있는 제2 이미지 블록이거나, 또는 제2 미리보기 이미지는 제2 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고, 그리고 제1 영역에 대한 제2 영역의 배향은 이미지 이동 방향과 관련된다.
가능한 설계에서, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 관련된다는 것은, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 동일하거나 또는 반대라는 것을 포함한다.
가능한 설계에서, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 관련된다는 것은, 제2 이미지의 제1 에지와 제2 영역 간의 거리가 제2 거리이고, 제1 이미지의 제1 에지와 제1 영역 간의 거리가 제1 거리이고, 그리고 제1 거리에 대한 제2 거리의 거리 변화량은 이미지 이동 방향과 관련된다는 것을 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는,
뷰파인더 인터페이스 상에 제3 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제3 미리보기 이미지는 제3 이미지 상의 제3 영역에 있는 제3 이미지 블록이거나, 또는 제3 미리보기 이미지는 제3 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고; 그리고 제2 영역에 대한 제3 영역의 제2 배향 변화량은 제1 영역에 대한 제2 영역의 제1 배향 변화량과 동일하다.
제2 배향 변화량은 제2 거리에 대한 제3 거리의 거리 변화량이고, 제1 배향 변화량은 제1 거리에 대한 제2 거리의 거리 변화량이다. 제3 거리는 제3 이미지의 제1 에지와 제3 영역 간의 거리이고, 제2 거리는 제2 이미지의 제1 에지와 제2 영역 간의 거리이고, 그리고 제1 거리는 제1 이미지의 제1 에지와 제1 영역 간의 거리이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로, 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하기 전에, 뷰파인더 인터페이스 상에 제4 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제4 미리보기 이미지는 제2 광각 카메라에 의해 캡처된 이미지이고, 제2 광각 카메라의 시야는 제1 광각 카메라의 시야보다 작고, 그리고 제1 미리보기 이미지는 제1 광각 카메라의 시야와 제2 광각 카메라의 시야 사이의 중첩 범위 내의 이미지 블록의 일부 또는 전부이다.
제2 광각 카메라에 의해 캡처된 이미지의 배율은 제1 광각 카메라에 의해 캡처된 이미지의 배율 이하이다.
제3 조작은,
제1 미리보기 이미지에 대한 플릭 조작; 또는
뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작; 또는
뷰파인더 인터페이스 상에서 특정 컨트롤을 누르고 드래그하는 조작을 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로, 이미지 이동 정지 명령이 검출되는 경우, 뷰파인더 인터페이스 상에 제5 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제5 미리보기 이미지는 제1 광각 카메라에 의해 캡처된 제5 이미지 상의 제5 영역에 있는 제5 이미지 블록이거나, 또는 제5 미리보기 이미지는 제5 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고; 그리고 제2 영역에 대한 제5 영역의 배향은 변경되지 않는다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로, 이미지 이동 정지 명령이 검출되는 경우, 비디오를 생성하여 저장하는 단계를 수행할 수 있고, 여기서 비디오는 제1 미리보기 이미지 및 제2 미리보기 이미지를 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 구체적으로는,
제3 조작이 제1 미리보기 이미지에 대한 플릭 조작인 경우, 플릭 조작 후 업리프트를 검출했을 때 이미지 이동 정지 명령을 생성하는 단계; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 이미지 이동 정지 명령을 생성하는 단계; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드 조작인 경우, 터치 앤 홀드 조작 후 업리프트를 검출했을 때 이미지 이동 정지 명령을 생성하는 단계; 또는
제3 조작이 뷰파인더 인터페이스 상의 특정 컨트롤을 누르고 드래그하는 조작인 경우, 드래그 조작 후 업리프트를 검출했을 때 이미지 이동 정지 명령을 생성하는 단계를 수행할 수 있다.
제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이거나 ―N은 1 이상의 정수이고, M은 N보다 작은 정수임―; 또는 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이다 ―N은 1 이상의 정수이고, M은 N보다 큰 정수임―.
가능한 설계에서, 제2 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록은,
x'=x*cos(θ)-sin(θ)*y; 및
y'=x*sin(θ)+cos(θ)*y 공식을 만족한다.
여기서, (x', y')는 화각 변환 후 획득된 이미지 블록에 대한 픽셀이고; 그리고 (x, y)는 제2 이미지 블록에 대한 픽셀이고; 그리고 θ는 회전 각도이며 회전 각도는 미리설정된다.
제11 양상에 따라, 전자 디바이스가 추가로 제공된다. 전자 디바이스 하나 이상의 프로세서 및 하나 이상의 메모리를 포함한다. 하나 이상의 메모리는 하나 이상의 컴퓨터 프로그램을 저장하고, 하나 이상의 컴퓨터 프로그램은, 명령을 포함하고 그리고 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는,
카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하는 단계; 제1 조작에 응답하여, 카메라 애플리케이션을 시작하는 단계; 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하는 단계; 제2 조작에 응답하여 전자 디바이스의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하는 단계 ―뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 카메라에 의해 캡처된 제1 이미지임―; 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 회전 방향을 지시하는 제3 조작을 검출하는 단계; 및 제3 조작에 응답하여, 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제2 미리보기 이미지는 카메라에 의해 캡처된 제2 이미지가 이미지 회전 방향으로 회전된 후 획득된 이미지이다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로,
뷰파인더 인터페이스 상에 제3 미리보기 이미지를 디스플레이하는 단계를 수행할 수 있고, 여기서 제3 미리보기 이미지는 카메라에 의해 캡처된 제3 이미지가 이미지 회전 방향으로 회전된 후 획득된 이미지이고, 제2 이미지에 대한 제3 이미지의 회전 각도는 제1 이미지에 대한 제2 이미지의 회전 각도와 동일하다.
카메라는 제1 광각 카메라이고, 제1 이미지는 제1 광각 카메라에 의해 캡처된 제4 이미지 상의 제1 영역에 있는 제1 이미지 블록이고, 제2 이미지는 제1 광각 카메라에 의해 캡처된 제5 이미지 상의 제2 영역에 있는 제2 이미지 블록이고, 그리고 제4 이미지 상의 제1 영역의 포지션은 제5 이미지 상의 제2 영역의 포지션과 동일하거나 상이하다.
제3 조작은,
제1 미리보기 이미지에 대한 써클 드로잉 조작; 또는
뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작을 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 추가로, 이미지 회전 정지 명령이 검출되는 경우, 비디오를 생성하여 저장하는 단계를 수행할 수 있고, 여기서 비디오는 제1 미리보기 이미지 및 제2 미리보기 이미지를 포함한다.
가능한 설계에서, 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 전자 디바이스는 구체적으로는,
제3 조작이 제1 미리보기 이미지에 대한 써클 드로잉 조작인 경우, 써클 드로잉 조작 후 업리프트를 검출했을 때 이미지 회전 정지 명령을 생성하는 단계; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 이미지 회전 정지 명령을 생성하는 단계; 또는
제3 조작이 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드 조작인 경우, 터치 앤 홀드 조작 후 업리프트를 검출했을 때 이미지 회전 정지 명령을 생성하는 단계를 수행할 수 있다.
제2 이미지는 제1 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이거나 ―N은 1 이상의 정수이고, M은 N보다 작은 정수임―; 또는 제2 이미지는 제1 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이다 ―N은 1 이상의 정수이고, M은 N보다 큰 정수임―.
제12 양상에 따라, 전자 디바이스가 추가로 제공된다. 전자 디바이스는 제8 양상 및 제8 양상의 가능한 설계 중 어느 하나에 따른 방법을 수행하는 모듈/유닛을 포함한다. 이러한 모듈/유닛은 하드웨어에 의해 구현될 수 있거나, 또는 해당 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제13 양상에 따라, 전자 디바이스가 추가로 제공된다. 전자 디바이스는 제9 양상 및 제9 양상의 가능한 설계 중 어느 하나에 따른 방법을 수행하는 모듈/유닛을 포함한다. 이러한 모듈/유닛은 하드웨어에 의해 구현될 수 있거나, 또는 해당 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.
제14 양상에 따라, 칩이 추가로 제공된다. 칩은, 전자 디바이스의 메모리에 커플링되며, 그리고 본 출원의 실시예의 제8 양상 및 제8 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행하도록 구성된다. 본 출원의 이 실시예에서, "커플링"은, 2개의 컴포넌트가 서로 직접 또는 간접적으로 결합되는 것을 의미한다.
제15 양상에 따라, 칩이 추가로 제공된다. 칩은, 전자 디바이스의 메모리에 커플링되며, 그리고 본 출원의 실시예의 제9 양상 및 제9 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행하도록 구성된다. 본 출원의 이 실시예에서, "커플링"은, 2개의 컴포넌트가 서로 직접 또는 간접적으로 결합되는 것을 의미한다.
제16 양상에 따라, 컴퓨터-판독가능 저장 매체가 추가로 제공된다. 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램을 포함하고, 컴퓨터 프로그램이 전자 디바이스 상에서 구동되는 경우, 전자 디바이스는 제8 양상 및 제8 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행할 수 있다.
제17 양상에 따라, 컴퓨터-판독가능 저장 매체가 추가로 제공된다. 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램을 포함하고, 컴퓨터 프로그램이 전자 디바이스 상에서 구동되는 경우, 전자 디바이스는 제9 양상 및 제9 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행할 수 있다.
제18 양상에 따라, 프로그램 제품이 추가로 제공된다. 프로그램 제품은 명령을 포함하고, 명령이 컴퓨터 상에서 구동되는 경우, 컴퓨터는 제8 양상 및 제8 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행할 수 있다.
제19 양상에 따라, 프로그램 제품이 추가로 제공된다. 프로그램 제품은 명령을 포함하고, 명령이 컴퓨터 상에서 구동되는 경우, 컴퓨터는 제9 양상 및 제9 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행할 수 있다.
제20 양상에 따라, 전자 디바이스 상의 그래픽 사용자 인터페이스가 추가로 제공된다. 전자 디바이스는 하나 이상의 메모리 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 하나 이상의 메모리에 저장된 하나 이상의 컴퓨터 프로그램을 실행하도록 구성된다. 그래픽 사용자 인터페이스는, 전자 디바이스가 제8 양상 및 제8 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행하는 경우 디스플레이되는 그래픽 사용자 인터페이스를 포함한다.
제21 양상에 따라, 전자 디바이스 상의 그래픽 사용자 인터페이스가 추가로 제공된다. 전자 디바이스는 하나 이상의 메모리 및 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 하나 이상의 메모리에 저장된 하나 이상의 컴퓨터 프로그램을 실행하도록 구성된다. 그래픽 사용자 인터페이스는, 전자 디바이스가 제9 양상 및 제9 양상의 가능한 설계 중 어느 하나에 따른 기술적 솔루션을 수행하는 경우 디스플레이되는 그래픽 사용자 인터페이스를 포함한다.
제9 양상 내지 제21 양상의 유익한 효과에 대해서는 제8 양상의 유익한 효과를 참조한다. 세부사항은 다시 설명되지 않는다.
도 1a 내지 도 1c는 종래 기술에서 모바일 폰을 사용하여 "렌즈 흔들기" 및 "렌즈 이동시키기"를 구현하는 개략도이다;
도 2a는 본 출원의 실시예에 따른 전자 디바이스의 하드웨어 구조의 개략도이다;
도 2b는 본 출원의 실시예에 따른 전자 디바이스의 소프트웨어 구조의 개략도이다;
도 3aa 내지 도 3ac는 본 출원의 실시예에 따른 다양한 카메라 이동 모드의 구현 원리의 개략도이다;
도 3ba 내지 도 3bc는 본 출원의 실시예에 따른 이동 모드의 예의 개략도이다;
도 4a 및 도 4b는 본 출원의 실시예에 따른 모바일 폰의 GUI의 예의 개략도이다;
도 5aa 내지 도 5ac 및 도 5b는 본 출원의 실시예에 따른 모바일 폰 상의 마이크로 무비 아이콘(micro movie icon)의 개략도이다;
도 6a 및 도 6b는 본 출원의 실시예에 따른 마이크로 무비 모드의 홈 페이지의 개략도이다;
도 7a, 도 7ba 내지 도 7bc, 도 7ca 내지 도 7cc, 및 도 7da 내지 도 7dc는 본 출원의 실시예에 따른 트래블 템플릿의 레코딩 인터페이스의 예의 개략도이다;
도 8aa, 도 8ab, 도 8ba 내지 도 8bc, 도 8c, 도 8da 및 도 8db는 본 출원의 실시예에 따른 트래블 템플릿의 레코딩 인터페이스의 다른 예의 개략도이다;
도 9aa, 도 9ab, 도 9ba, 도 9bb, 도 9ca 내지 도 9cc, 도 9da 내지 도 9dc, 도 9ea 내지 도 9ed, 및 도 9fa 내지 도 9fc는 본 출원의 실시예에 따른 효과 프리젠테이션 인터페이스의 개략도이다;
도 10은 본 출원의 실시예에 따른 "갤러리"의 인터페이스의 개략도이다;
도 11aa 내지 도 11ac 및 도 11b는 본 출원의 실시예에 따른 마이크로 무비 모드의 홈 페이지의 다른 예의 개략도이다;
도 11c는, 본 출원의 실시예에 따른 카메라 이동 모드를 선택하고 그리고 카메라 이동 모드를 촬영 템플릿으로 결합하기 위한 인터페이스의 개략도이다;
도 12는 본 출원의 실시예에 따른 비디오 촬영 방법의 개략적 흐름도이다;
도 13a, 도 13b, 도 14a, 도 14b, 도 15a, 도 15b, 도 16 및 도 17은 본 출원의 실시예에 따른 전자 디바이스의 그래픽 사용자 인터페이스의 개략도이다;
도 18은 본 출원의 실시예에 따른 초광각 카메라(ultra-wide-angle camera)에 의해 캡처된 이미지 상에서 타깃 영역을 이동시키는 것의 개략도이다;
도 19a 내지 도 19d는 본 출원의 실시예에 따른 초광각 카메라에 의해 캡처된 이미지 상에서 타깃 영역을 이동시키는 것의 개략도이다;
도 20a 내지 도 20c 및 도 21 내지 도 24는 본 출원의 실시예에 따른 전자 디바이스의 그래픽 사용자 인터페이스의 개략도이다;
도 25는 본 출원의 실시예에 따른 초광각 카메라에 의해 캡처된 이미지 상에서 타깃 영역을 회전시키는 것의 개략도이다;
도 26 및 도 27은 본 출원의 실시예에 따른 전자 디바이스의 그래픽 사용자 인터페이스의 개략도이다;
도 28은 본 출원의 실시예에 따른 초광각 카메라에 의해 캡처된 이미지 상에서 타깃 영역을 확대시키는 것의 개략도이다;
도 29는 본 출원의 실시예에 따른 전자 디바이스의 그래픽 사용자 인터페이스의 개략도이다; 그리고
도 30 및 도 31은 본 출원의 실시예에 따른 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법의 개략적인 흐름도이다.
다음은 당업자가 더 잘 이해할 수 있도록 돕기 위해 본 출원의 실시예에서의 일부 용어를 설명한다.
본 출원의 실시예에서의 미리보기 이미지는 전자 디바이스의 뷰파인더 인터페이스 상에 디스플레이되는 이미지이다. 예를 들어, 전자 디바이스가 모바일 폰인 경우, 모바일 폰은 카메라 애플리케이션을 시작하고, 카메라를 열고 그리고 뷰파인더 인터페이스를 디스플레이하며, 여기서 미리보기 이미지는 뷰파인더 인터페이스 상에 디스플레이된다. 모바일 폰이 계속 예로 사용된다. 모바일 폰이 영상 통화 기능(예를 들어, WeChat의 영상 통신 기능)을 활성화시키는 경우, 모바일 폰은 카메라를 열고 뷰파인더 인터페이스를 디스플레이하고, 여기서 미리보기 이미지는 뷰파인더 인터페이스 상에 디스플레이된다.
본 출원의 실시예에서 시야는 카메라의 중요한 성능 파라미터이다. 추가로, "시야(field of view)"는 "화각(angle of view)", "비전 범위(vision scope)" 및 "시계(vision field scope)"와 같은 용어로도 지칭될 수 있다. 본 명세서는 명칭에 제한을 두지 않는다. 시야는 카메라의 최대 촬영 각도 범위를 지시하는 데 사용된다. 오브젝트가 각도 범위 내에 있으면, 오브젝트는 카메라에 의해 캡처되어 미리보기 이미지에 추가로 제시된다. 오브젝트가 각도 범위를 벗어나면, 오브젝트는 카메라에 의해 캡처되지 않아 미리보기 이미지에 제시되지 않는다.
일반적으로, 카메라의 시야가 클수록 촬영 범위가 더 넓고 초점 길이가 더 짧다는 것을 지시하고; 그리고 카메라의 시야가 작을수록 촬영 범위가 더 좁고 초점 길이가 더 길다는 것을 지시한다. 따라서, 카메라는, 상이한 시야로 인해, 일반 카메라, 광각 카메라, 초광각 카메라 등으로 분류될 수 있다. 예를 들어, 일반 카메라의 초점 길이는 40 밀리미터 내지 45 밀리미터 범위일 수 있고, 화각은 40도 내지 60도 범위일 수 있고; 광각 카메라의 초점 길이는 24 밀리미터 내지 38 밀리미터 범위일 수 있고 화각은 60도 내지 84도 범위일 수 있고; 그리고 초광각 카메라의 초점 길이는 13 밀리미터 내지 20 밀리미터 범위일 수 있고 화각은 94도 내지 118도 범위일 수 있다.
본 출원의 실시예에서 제공되는 비디오 촬영 방법은 전자 디바이스에 적용될 수 있다. 전자 디바이스는 카메라를 포함한다. 바람직하게, 카메라는 광각 카메라 또는 초광각 카메라이다. 물론, 카메라는 대안적으로 일반 카메라일 수 있다. 카메라의 수량은 본 출원에서 제한되지 않는다. 하나 이상의 카메라가 존재할 수 있다. 복수의 카메라가 존재하는 경, 복수의 카메라는 바람직하게, 적어도 하나의 광각 카메라 또는 적어도 하나의 초광각 카메라를 포함할 수 있다.
전자 디바이스는, 예를 들어, 모바일 폰, 태블릿 컴퓨터, 웨어러블 디바이스(예를 들어, 시계, 손목밴드, 헬멧, 헤드셋 또는 목걸이), 차량-탑재 디바이스, 증강 현실(augmented reality, AR) 디바이스/가상 현실(virtual reality, VR) 디바이스, 노트북 컴퓨터, 울트라-모바일 개인용 컴퓨터(ultra-mobile personal computer, UMPC), 넷북 또는 개인 정보 단말기(personal digital assistant, PDA)일 수 있다. 전자 디바이스의 특정 타입은 본 출원의 실시예에서 제한되지 않는다.
예를 들어, 도 2a는 전자 디바이스(100)의 개략적인 구조도이다. 도 2a에 도시된 바와 같이, 전자 디바이스(100)는 프로세서(110), 외부 메모리 인터페이스(120), 내부 메모리(121), 범용 직렬 버스(universal serial bus, USB) 포트(130), 충전 관리 모듈(140), 전력 관리 모듈(141), 배터리(142), 안테나 1, 안테나 2, 이동 통신 모듈(150), 무선 통신 모듈(160), 오디오 모듈(170), 스피커(170A), 수신기(170B), 마이크로폰(170C), 헤드셋 잭(170D), 센서 모듈(180), 버튼(190), 모터(191), 지시기(indicator)(192), 카메라(193), 디스플레이(194), 가입자 식별 모듈(subscriber identification module, SIM) 카드 인터페이스(195) 등을 포함한다.
프로세서(110)는 하나 이상의 프로세싱 유닛을 포함할 수 있다. 예를 들어, 프로세서(110)는 애플리케이션 프로세서(application processor, AP), 모뎀 프로세서, 그래픽 프로세싱 유닛(graphics processing unit, GPU), 이미지 신호 프로세서(image signal processor, ISP), 제어기, 메모리, 비디오 코덱, 디지털 신호 프로세서(digital signal processor, DSP), 기저대역 프로세서, 및/또는 뉴럴 네트워크 프로세싱 유닛(neural-network processing unit, NPU)을 포함할 수 있다. 상이한 프로세싱 유닛은 독립적인 디바이스일 수 있거나 또는 하나 이상의 프로세서에 통합될 수 있다. 제어기는 전자 디바이스(100)의 수뇌부(nerve center) 및 커맨드 센터일 수 있다. 제어기는, 명령 페칭(fetching) 및 명령 실행의 제어를 완료하기 위해, 명령 조작 코드 및 시간 시퀀스 신호에 기반하여 조작 제어 신호를 생성할 수 있다. 메모리는 프로세서(110)에 추가로 배치될 수 있고, 명령 및 데이터를 저장하도록 구성된다. 일부 실시예에서, 프로세서(110) 내의 메모리는 캐시 메모리이다. 메모리는 프로세서(110)에 의해 방금 사용된 또는 주기적으로 사용되는 명령 또는 데이터를 저장할 수 있다. 프로세서(110)가 명령 또는 데이터를 다시 사용해야 하는 경우, 프로세서(110)는 메모리로부터 명령 또는 데이터를 직접 호출할 수 있다. 이는 반복된 액세스를 방지하고 프로세서(110)의 대기 시간을 줄이고, 이로써 시스템 효율이 향상된다.
USB 포트(130)는, USB 표준 사양을 따르는 인터페이스이며, 구체적으로는, 미니 USB 포트, 마이크로 USB 포트, USB 타입 C 포트 등일 수 있다. USB 포트(130)는, 충전기에 연결하여 전자 디바이스(100)를 충전하도록 구성될 수 있으며, 또한 전자 디바이스(100)와 주변 디바이스 간에 데이터를 전송하도록 구성될 수 있다. 충전 관리 모듈(140)은 충전기로부터 충전 입력을 수신하도록 구성된다. 전력 관리 모듈(141)은 배터리(142), 충전 관리 모듈(140) 및 프로세서(110)에 연결되도록 구성된다. 전력 관리 모듈(141)은, 배터리(142) 및/또는 충전 관리 모듈(140)의 입력을 수신하고 그리고 프로세서(110), 내부 메모리(121), 외부 메모리, 디스플레이(194), 카메라(193), 무선 통신 모듈(160) 등에 전력을 공급한다.
전자 디바이스(100)의 무선 통신 기능은 안테나 1, 안테나 2, 이동 통신 모듈(150), 무선 통신 모듈(160), 모뎀 프로세서, 기저대역 프로세서 등을 통해 구현될 수 있다. 안테나 1 및 안테나 2는 전자기파 신호를 전송 및 수신하도록 구성된다. 전자 디바이스(100) 내의 각각의 안테나는, 하나 이상의 통신 대역을 커버하도록 구성될 수 있다. 안테나 활용도를 증가시키기 위해, 상이한 안테나가 추가로 멀티플렉싱될 수 있다. 예를 들어, 안테나 1은 무선 로컬 영역 네트워크의 다이버시티 안테나(diversity antenna)로서 멀티플렉싱될 수 있다. 일부 다른 실시예에서, 안테나는 튜닝 스위치(tuning switch)와 결합하여 사용될 수 있다.
이동 통신 모듈(150)은, 2G, 3G, 4G, 5G 등을 포함하는 무선 통신에 대한 전자 디바이스(100)에 적용되는 솔루션을 제공할 수 있다. 이동 통신 모듈(150)은 적어도 하나의 필터, 스위치, 전력 증폭기, 저잡음 증폭기(low noise amplifier, LNA) 등을 포함할 수 있다. 이동 통신 모듈(150)은, 안테나 1을 통해 전자기파를 수신하고, 수신된 전자기파에 대해 필터링 또는 증폭과 같은 프로세싱을 수행하고, 그리고 프로세싱된 전자기파를 복조를 위해 모뎀 프로세서에 전송할 수 있다. 이동 통신 모듈(150)은 추가로, 모뎀 프로세서에 의해 변조된 신호를 증폭시키고 그리고 증폭된 신호를 안테나 1를 통한 방사를 위한 전자기파로 변환시킬 수 있다. 일부 실시예에서, 이동 통신 모듈(150)의 적어도 일부 기능 모듈은 프로세서(110)에 배치될 수 있다. 일부 실시예에서, 모바일 통신 모듈(150) 내의 적어도 일부 기능 모듈은 프로세서(110) 내의 적어도 일부 모듈들과 동일한 디바이스에 배치될 수 있다.
무선 통신 모듈(160)은, 무선 로컬 영역 네트워크(wireless local area networks, WLAN)(예를 들어, 무선 충실도(wireless fidelity, Wi-Fi) 네트워크), 블루투스(Bluetooth, BT), 글로벌 내비게이션 위성 시스템(global navigation satellite system, GNSS), 주파수 변조(frequency modulation, FM), 근거리 통신(near field communication, NFC) 기술, 적외선(infrared, IR) 기술 등을 포함하는 무선 통신에 대한, 전자 디바이스(100)에 적용되는 솔루션을 제공할 수 있다. 무선 통신 모듈(160)은, 적어도 하나의 통신 프로세싱 모듈에 통합되는 하나 이상의 컴포넌트일 수 있다. 무선 통신 모듈(160)은, 안테나 2를 통해 전자기파를 수신하고, 전자기파 신호에 대해 주파수 변조 및 필터링 프로세싱을 수행하고, 그리고 프로세싱된 신호를 프로세서(110)에 송신한다. 무선 통신 모듈(160)은 추가로, 프로세서(110)로부터 송신될 신호(to-be-sent signal)를 수신하고, 신호에 대해 주파수 변조 및 증폭을 수행하고 그리고 프로세싱된 신호를 안테나 2를 통한 방사를 위해 전자기파로 변환시킬 수 있다.
일부 실시예에서, 전자 디바이스(100)에서, 안테나 1과 이동 통신 모듈(150)이 커플링되고, 안테나 2와 무선 통신 모듈(160)이 커플링되고, 이에, 전자 디바이스(100)가 무선 통신 기술을 사용하여 네트워크 및 다른 디바이스와 통신할 수 있다. 무선 통신 기술은, 글로벌 이동 통신 시스템(global system for mobile communications, GSM), 일반 패킷 라디오 서비스(general packet radio service, GPRS), 코드 분할 다중 액세스(code division multiple access, CDMA), 광대역 코드 분할 다중 액세스(wideband code division multiple access, WCDMA), 시분할 동기 코드 분할 다중 액세스(time-division code division multiple access, TD-SCDMA), 롱 텀 에볼루션(long term evolution, LTE), BT, GNSS, WLAN, NFC, FM, IR 기술 등을 포함할 수 있다. GNSS는, 글로벌 포지셔닝 시스템(global positioning system, GPS), 글로벌 내비게이션 위성 시스템(global navigation satellite system, GLONASS), , BeiDou 내비게이션 위성 시스템(beidou navigation satellite system, BDS), 준천정 위성 시스템(quasi-zenith satellite system, QZSS) 및/또는 위성 기반 증강 시스템(satellite based augmentation systems, SBAS)을 포함할 수 있다.
디스플레이(194)는 애플리케이션의 디스플레이 인터페이스, 예를 들어 카메라 애플리케이션의 뷰파인더 인터페이스를 디스플레이하도록 구성된다. 디스플레이(194)는 디스플레이 패널을 포함한다. 디스플레이 패널은, 액정 디스플레이(liquid crystal display, LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 능동-매트릭스 유기 발광 다이오드(active-matrix organic light emitting diode, AMOLED), 플렉서블 발광 다이오드(flex light-emitting diode, FLED), Miniled, MicroLed, 마이크로-oLed, 양자점 발광 다이오드(quantum dot light emitting diode, QLED) 등일 수 있다. 일부 실시예에서, 전자 디바이스(100)는 하나 또는 N개의 디스플레이(194)를 포함할 수 있고, 여기서 N은 1 보다 큰 양의 정수(positive integer)이다.
전자 디바이스(100)는 ISP, 카메라(193), 비디오 코덱, GPU, 디스플레이(194), 애플리케이션 프로세서 등을 통해 촬영 기능을 구현할 수 있다.
ISP는 카메라(193)에 의해 피드백된 데이터를 프로세싱하도록 구성된다. 예를 들어, 촬영 동안, 셔터가 눌리고, 렌즈를 통해 카메라의 감광 엘리먼트에 빛이 전달되고, 광학 신호가 전기 신호로 변환되고, 그리고 카메라의 감광 엘리먼트는 전기 신호를 프로세싱을 위해 ISP에 전송하여 전기 신호를 가시 이미지로 변환시킨다. ISP는 추가로, 이미지의 잡음, 밝기 및 컴플렉션(complexion)에 대한 알고리즘 최적화를 추가로 수행할 수 있다. ISP는 추가로, 촬영 시나리오의 노출 및 컬러 온도와 같은 파라미터를 최적화할 수 있다. 일부 실시예에서, ISP는 카메라(193) 내에 배치될 수 있다.
카메라(193)는 정지 이미지 또는 비디오를 캡처하도록 구성된다. 오브젝트의 광학 이미지가 렌즈를 통해 생성되고, 감광 엘리먼트에 투사된다. 감광 엘리먼트는 전하 결합 소자(charge coupled device, CCD) 또는 상보형 금속 산화물 반도체(complementary metal-oxide-semiconductor, CMOS) 포토트랜지스터일 수 있다. 감광 엘리먼트는 광학 신호를 전기 신호로 변환한 다음, 전기 신호를 ISP에 전송하여 전기 신호를 디지털 이미지 신호로 변환한다. ISP는 프로세싱을 위해 디지털 이미지 신호를 DSP에 출력한다. DSP는 디지털 이미지 신호를 RGB 포맷 또는 YUV 포맷과 같은 표준 포맷의 이미지 신호로 변환한다. 일부 실시예에서, 전자 디바이스(100)는 하나 또는 N개의 카메라(193)를 포함할 수 있고, 여기서 N은 1 보다 큰 양의 정수이다.
디지털 신호 프로세서는, 디지털 신호를 프로세싱 하도록록 구성되며 그리고 디지털 이미지 신호 외에 다른 디지털 신호를 프로세싱할 수 있다. 예를 들어, 전자 디바이스(100)가 주파수를 선택하는 경우, 디지털 신호 프로세서는 주파수 에너지에 대한 푸리에 변환을 수행하도록 구성된다.
비디오 코덱은 디지털 비디오를 압축하거나 압축해제하도록 구성된다. 전자 디바이스(100)는 하나 이상의 비디오 코덱을 지원할 수 있다. 따라서, 전자 디바이스(100)는, 예를 들어, 동영상 전문가 그룹(moving picture experts group, MPEG)1, MPEG2, MPEG3 및 MPEG4의 복수의 코딩 포맷으로 비디오를을 재생 또는 레코딩할 수 있다.
NPU는, 신경망(neural-network, NN) 컴퓨팅 프로세서이며, 생물학적 신경망의 구조를 참조함으로써, 예를 들어 인간의 뇌 뉴런 간의 전송 모드를 참조함으로써 입력 정보를 신속하게 프로세싱하고, 그리고 추가로, 지속적으로 자가-학습을 수행할 수 있다. NPU는, 전자 디바이스(100)의 지능적 인지와 같은 애플리케이션, 이를테면 이미지 인식, 안면 인식, 스피치 인식 및 텍스트 이해를 구현할 수 있다.
내부 메모리(121)는 컴퓨터-실행가능 프로그램 코드를 저장하도록 구성될 수 있다. 실행가능 프로그램 코드는 명령을 포함한다. 프로세서(110)는 내부 메모리(121)에 저장된 명령을 구동시켜, 전자 디바이스(100)의 다양한 기능 애플리케이션 및 데이터 프로세싱을 수행한다. 내부 메모리(121)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있다. 프로그램 저장 영역은 운영 시스템, 적어도 하나의 애플리케이션(이를테면, iQIYI 애플리케이션 또는 WeChat 애플리케이션)의 소프트웨어 코드 등을 저장할 수 있다. 데이터 저장 영역은, 전자 디바이스(100)가 사용되는 경우 생성되는 데이터(예를 들어, 촬영 이미지 또는 레코딩된 비디오) 등을 저장할 수 있다. 추가로, 내부 메모리(121)는, 고속 랜덤 액세스 메모리를 포함할 수 있거나 또는 비휘발성 메모리, 예를 들어, 적어도 하나의 자기 디스크 저장 디바이스, 플래시 메모리, 또는 범용 플래시 저장소(universal flash storage, UFS)를 포함할 수 있다.
외부 메모리 인터페이스(120)는, 전자 디바이스의 저장 능력을 확장시키기 위해, 외부 메모리 카드, 예를 들어, 마이크로 SD 카드에 연결되도록 구성될 수 있다. 외부 메모리 카드는 데이터 저장 기능을 구현하기 위해 외부 메모리 인터페이스(120)를 통해 프로세서(110)와 통신한다. 예를 들어, 뮤직 및 비디오와 같은 파일이 외부 메모리 카드에 저장된다.
전자 디바이스(100)는 오디오 모듈(170), 스피커(170A), 수신기(170B), 마이크로폰(170C), 헤드셋 잭(170D), 애플리케이션 프로세서 등을 통해 뮤직 재생 및 레코딩 기능 등의 오디오 기능을 구현할 수 있다.
센서 모듈(180)은 압력 센서(180A), 자이로스코프 센서(180B), 기압 센서(180C), 자기 센서(180D), 가속도 센서(180E), 레인지(range) 센서(180F), 광 근접 센서(180G), 지문 센서(180H), 온도 센서(180J), 터치 센서(180K), 주변광 센서(180L), 골전도 센서(180M) 등을 포함할 수 있다.
압력 센서(180A)는 압력 신호를 감지하도록 구성되며, 압력 신호를 전기 신호로 변환할 수 있다. 일부 실시예에서, 압력 센서(180A)는 디스플레이(194) 상에 배치될 수 있다. 자이로스코프 센서(180B)는 전자 디바이스(100)의 모션 자세를 결정하도록 구성될 수 있다. 일부 실시예에서, 3개의 축(즉, x 축, y 축 및 z 축) 주위의 전자 디바이스(100)의 각속도(angular velocity)는 자이로스코프 센서(180B)를 통해 결정될 수 있다.
자이로스코프 센서(180B)는 촬영 동안 이미지 안정화를 구현하도록 구성될 수 있다. 기압 센서(180C)는 기압을 측정하도록 구성된다. 일부 실시예에서, 전자 디바이스(100)는 포지셔닝 및 내비게이션을 돕기 위해 기압 센서(180C)에 의해 측정된 기압 값에 기반하여 고도를 계산한다. 자기 센서(180D)는 홀 센서(Hall sensor)를 포함한다. 전자 디바이스(100)는 자기 센서(180D)를 사용하여 플립 커버의 개폐를 검출할 수 있다. 일부 실시예에서, 전자 디바이스(100)가 클램쉘 폰(clamshell phone)인 경우, 전자 디바이스(100)는 자기 센서(180D)를 사용하여 클램쉘의 개폐를 검출할 수 있다. 추가로, 클램쉘의 개방시 자동 잠금해제와 같은 특징(feature)은, 플립 커버의 검출된 개방 또는 폐쇄 상태 또는 클램쉘의 검출된 개방 또는 폐쇄 상태에 기반하여 설정된다. 가속도 센서(180E)는 전자 디바이스(100)의 다양한 방향(보통 3축)의 가속도를 검출할 수 있으며, 전자 디바이스(100)가 정지상태인 경우 중력의 크기 및 방향을 검출할 수 있다. 가속도 센서(180E) 추가로, 전자 디바이스(100)의 자세를 식별하도록 구성될 수 있고 그리고 풍경 모드(landscape mode)와 인물사진 모드(portrait mode) 사이의 전환 및 보수계(pedometer)와 같은 애플리케이션에 적용될 수 있다.
레인지 센서(180F)는 거리를 측정하도록 구성된다. 전자 디바이스(100)는 적외선 방식 또는 레이저 방식으로 거리를 측정할 수 있다. 일부 실시예에서, 촬영 시나리오에서, 전자 디바이스(100)는 신속한 포커싱을 구현하기 위해 레인지 센서(180F)를 통해 거리를 측정할 수 있다. 광 근접 센서(180G)는, 예를 들면, 발광 다이오드(LED) 및 광 검출기, 이를테면 포토다이오드를 포함할 수 있다. 발광 다이오드는 적외선 발광 다이오드일 수 있다. 전자 디바이스(100)는 발광 다이오드를 사용하여 적외선을 방출한다. 전자 디바이스(100)는 포토다이오드를 사용하여 주변 오브젝트로부터 적외선 반사 광을 검출할 수 있다. 충분한 반사 광을 검출하는 경우, 전자 디바이스(100)는 전자 디바이스(100) 주변에 오브젝트가 있다는 것을 결정할 수 있다. 불충분한 반사 광을 검출하는 경우, 전자 디바이스(100)는 전자 디바이스(100) 주변에 오브젝트가 없다는 것을 결정할 수 있다. 전자 디바이스(100)는, 광 근접 센서(180G)를 사용하여, 사용자가 통화를 위해 전자 디바이스(100)를 귀에 가까이 댄 채로 있다는 것을 검출하여, 절전을 위해 화면 꺼짐(screen-off)을 자동으로 수행할 수 있다. 또한, 광 근접 센서(180G)는 스마트 커버 모드 또는 포켓 모드에서 사용되어 화면 잠금해제 또는 잠금을 자동으로 수행할 수 있다.
주변광 센서(180L)는 주변광 밝기를 감지하도록 구성된다. 전자 디바이스(100)는 감지된 주변광 밝기에 기반하여 디스플레이(194)의 밝기를 적응적으로 조절할 수 있다. 주변광 센서(180L)는 또한, 촬영 동안 화이트 밸런스를 자동으로 조절하도록 구성될 수 있다. 주변광 센서(180L)는 또한, 우발적 터치를 회피하기 위해, 전자 디바이스(100)가 포켓에 있는지 여부를 검출하도록 광 근접 센서(180G)와 협력할 수 있다. 지문 센서(180H)는 지문을 수집하도록 구성된다. 전자 디바이스(100)은 수집된 지문의 특징을 이용하여 지문-기반 잠금해제, 애플리케이션 잠금 액세스, 지문-기반 촬영, 지문-기반 전화 받기 등을 구현할 수 있다.
온도 센서(180J)는 온도를 검출하도록 구성된다. 일부 실시예에서, 전자 디바이스(100)는 온도 센서(180J)에 의해 검출된 온도를 사용하여 온도 프로세싱 정책을 실행한다. 예를 들어, 온도 센서(180J)에 의해 보고된 온도가 임계치를 초과하는 경우, 전자 디바이스(100)는 온도 센서(180J) 근처에 위치된 프로세서의 성능을 저하시켜 과열 방지(thermal protection)를 구현하도록 전력 소비를 감소시킨다. 일부 다른 실시예에서, 온도가 다른 임계치 보다 작은 경우, 전자 디바이스(100)는 배터리(142)를 가열하여, 전자 디바이스(100)가 낮은 온도로 인해 비정상적으로 전력 차단되는 것을 방지한다. 일부 다른 실시예에서, 온도가 또 다른 임계치 보다 작은 경우, 전자 디바이스(100)는 배터리(142)의 출력 전압을 상승시켜, 저온으로 인해 유발되는 비정상 전력 차단을 방지한다.
터치 센서(180K)는 또한 "터치 패널"로 지칭된다. 터치 센서(180K)는 디스플레이(194) 상에 배치될 수 있고, 터치 센서(180K) 및 디스플레이(194)는, 또한 "터치 화면"으로 지칭되는 터치화면을 형성한다. 터치 센서(180K)는 터치 센서(180K) 상에서 또는 그 근처에서 수행되는 터치 조작을 검출하도록 구성된다. 터치 센서는 검출된 터치 조작을 애플리케이션 프로세서에 전달하여 터치 이벤트의 타입을 결정할 수 있다. 디스플레이(194)는 터치 조작과 관련된 시각적 출력을 제공할 수 있다. 일부 다른 실시예에서, 터치 센서(180K)는 대안적으로, 전자 디바이스(100)의 일 표면 상에서, 디스플레이(194)의 포지션과 상이한 포지션에 배치된다.
골전도 센서(180M)는 진동 신호를 획득할 수 있다. 일부 실시예에서, 골전도 센서(180M)는 사람의 성대 부위의 뼈 진동(vibration bone)의 진동 신호를 획득할 수 있다. 골전도 센서(180M)는 또한, 혈압 박동 신호를 수신하기 위해 인간의 맥박과 접촉할 수 있다.
버튼(190)은 전원 버튼, 볼륨 버튼 등을 포함한다. 버튼(190)은 기계적 버튼일 수 있거나 또는 터치 버튼일 수 있다. 전자 디바이스(100)는, 버튼 입력을 수신하고 그리고 전자 디바이스(100)의 사용자 설정 및 기능 제어와 관련된 버튼 신호 입력을 생성할 수 있다. 모터(191)는 진동 프롬프트(vibration prompt)를 생성할 수 있다. 모터(191)는 착신(incoming call) 진동 프롬프트 또는 터치 진동 피드백을 제공하도록 구성될 수 있다. 예를 들어, 상이한 애플리케이션에 대해 수행되는 터치 조작(예를 들어, 촬영 및 오디오 재생)은 상이한 진동 피드백 효과에 대응할 수 있다. 터치 진동 피드백 효과는 추가로 커스터마이징될 수 있다. 지시기(192)는, 지시등(indicator light)일 수 있고 그리고 충전 상태 및 전력 변경을 지시하도록 구성될 수 있거나 또는 메시지, 부재중 전화, 알림 등을 지시하도록 구성될 수 있다. SIM 카드 인터페이스(195)는 SIM 카드에 연결되도록 구성된다. SIM 카드는, 모바일 폰(100)과의 접속 또는 모바일 폰(100)으로부터의 분리를 구현하기 위해, SIM 카드 인터페이스(195)에 삽입되거나 또는 SIM 카드 인터페이스(195)로부터 제거될 수 있다.
도 2a에 도시된 컴포넌트가 전자 디바이스(100)에 대한 특정한 제한을 구성하지 않는다는 것이 이해될 수 있다. 모바일 폰은 추가로, 도면에 도시된 것보다 더 많은 또는 더 적은 컴포넌트를 포함하거나 또는 일부 컴포넌트를 결합하거나 또는 일부 컴포넌트를 분할하거나 또는 상이한 컴포넌트 배열체(arrangement)를 가질 수 있다. 또한, 도 2a의 컴포넌트 간의 결합/연결 관계가 또한 조정되고 수정될 수 있다.
본 출원의 이 실시예에서, 전자 디바이스(100)는 하나 이상의 카메라(193)를 포함할 수 있다. 전자 디바이스(100)는 카메라 1, 카메라 2와 같이 복수의 카메라를 포함하고, 카메라 1의 화각은 카메라 2의 화각 보다 작다는 것이 가정된다. 예를 들어, 카메라 1이 장초점(long-focus) 카메라이고 카메라 2는 광각 카메라(일반 광각 카메라 또는 초광각 카메라일 수 있음)이거나; 카메라 1이 일반 광각 카메라이고 카메라 2가 초광각 카메라이거나; 또는 다른 다른 조합이 있다. 일부 실시예에서, 카메라 1 및 카메라 2 둘 다 후방(rear-facing) 카메라 또는 전방(front-facing) 카메라일 수 있다. 전자 디바이스(100)가 추가로, 더 많은 카메라, 예를 들어, 장초점 카메라를 포함할 수 있다는 것이 이해되어야 한다.
전자 디바이스(100)는 복수의 레코딩 모드, 예를 들면, 일반 레코딩 모드, 이동 모드, 흔들기 모드를 제공할 수 있다. 일반 비디오 레코딩 모드에서, 전자 디바이스(100)는 비교적 작은 시야를 갖는 카메라 1을 작동시키고 뷰파인더 인터페이스 상에 카메라 1에 의해 캡처된 이미지를 디스플레이한다. 일반 비디오 레코딩 모드로부터 이동 모드로 전환된 경우, 전자 디바이스(100)는 비교적 넓은 시야를 갖는 카메라 2를 작동시키고 뷰파인더 인터페이스 상에 카메라 2에 의해 캡처된 이미지의 한 프레임에 이미지 블록을 디스플레이한다. 전자 디바이스(100)가 정지상태를 유지하는 경우, 프로세서(110)(예를 들어, GPU 또는 NPU)가 사용자에 의해 입력된 이미지 이동 방향(예를 들어, 화면 상에서 플릭 조작을 수행함으로써 입력되는 이미지 이동 방향)에 응답하면, 이미지 이동 방향에 따라, 카메라 2에 의해 캡처된 이미지의 다음 프레임상에서 다른 이미지 블록이 결정된 다음, 다른 이미지 블록이 뷰파인더 인터페이스 상에 디스플레이된다. 이전 이미지 블록에 대한 다른 이미지 블록의 배향은 사용자에 의해 입력된 이미지 이동 방향과 관련된다. 즉, 사용자는 이미지 이동 방향을 입력하여 "렌즈 이동시키기" 촬영 방식을 구현한다. 따라서, 본 출원의 이 실시예에서, 모바일 폰의 비디오 레코딩 프로세스에서, 사용자가 모바일 폰의 포지션을 이동시킬 필요없이 "렌즈 이동시키기"의 촬영 방식이 구현될 수 있고, 이로써 조작이 용이해진다. 따라서, 사용자 경험은 비교적 양호하다.
도 2b는 본 출원의 실시예에 따른 전자 디바이스의 소프트웨어 구조의 블록도이다. 도 2b에 도시된 바와 같이, 전자 디바이스의 소프트웨어 구조는 층상 아키텍처(layered architecture)일 수 있다. 예를 들어, 소프트웨어는 여러 계층으로 분할될 수 있고, 각각의 계층은 명확한 역할과 책임을 갖는다. 계층은 소프트웨어 인터페이스를 통해 서로 통신한다. 일부 실시예에서, 안드로이드(Android) 시스템은 4개의 계층으로 분할된다: 애플리케이션 계층, 애플리케이션 프레임워크 계층(framework, FWK), 안드로이드 런타임(Android runtime) 및 시스템 라이브러리, 및 상단에서 하단으로의 커널 계층.
애플리케이션 계층은 일련의 애플리케이션 패키지를 포함할 수 있다. 도 2b에 도시된 바와 같이, 애플리케이션 계층은 카메라, 설정, 스킨 모듈, 사용자 인터페이스(user interface, UI), 제3자 애플리케이션 등을 포함할 수 있다. 제3자 애플리케이션은 WeChat, QQ, 갤러리, 캘린더, 폰, 맵, 내비게이션, WLAN, 블루투스, 뮤직, 비디오, 메시지 등을 포함할 수 있다.
애플리케이션 프레임워크 계층은, 애플리케이션 계층에 애플리케이션을 위한 프로그래밍 프레임워크 및 애플리케이션 프로그래밍 인터페이스(application programming interface, API)를 제공한다. 애플리케이션 프레임워크 계층은 미리정의된 일부 기능을 포함한다. 도 2b에 도시된 바와 같이, 애플리케이션 프레임워크 계층은 윈도우 관리기, 콘텐츠 제공자, 뷰 시스템, 폰 관리기, 자원 관리기, 알림 관리기 등을 포함할 수 있다.
윈도우 관리기는 윈도우 프로그램을 관리하도록 구성된다.. 윈도우 관리기는, 디스플레이의 크기를 획득하고, 상태 바가 있는지 여부를 결정하고, 화면 잠금을 수행하고, 스크린샷을 찍는 등을 할 수 있다. 콘텐츠 제공자는, 데이터를 저장 및 획득하고, 그리고 애플리케이션에 의해 데이터가 액세스될 수 있도록 구성된다. 데이터는 비디오, 이미지, 오디오, 발신 및 수신된 통화, 브라우징 이력 및 북마크, 주소록 등을 포함할 수 있다.
뷰 시스템은 텍스트를 디스플레이하기 위한 콘트롤 및 픽처를 디스플레이하기 위한 컨트롤과 같은 시각적 컨트롤을 포함한다. 뷰 시스템은 애플리케이션을 구성하도록 구성될 수 있다. 디스플레이 인터페이스는 하나 이상의 뷰를 포함할 수 있다. 예를 들어, 메시지의 알림 아이콘을 포함하는 디스플레이 인터페이스는 텍스트 디스플레이 뷰 및 픽처 디스플레이 뷰를 포함할 수 있다.
폰 관리기는 전자 디바이스의 통신 기능, 예를 들면, 통화 상태(응답 또는 거절 포함)의 관리를 제공하도록 구성된다.
자원 관리기는, 애플리케이션, 예를 들어, 로컬화된 캐릭터 스트링, 아이콘, 픽처, 레이아웃 파일, 및 비디오 파일을 위한 다양한 자원을 제공한다.
알림 관리기는, 애플리케이션이 상태 바에 알림 정보를 디스플레이할 수 있게 하고 그리고 알림 메시지를 전달하도록 구성될 수 있다. 알림 관리기는 사용자 상호작용을 요구함 없이 짧은 일시정지(pause) 후 자동으로 사라질 수 있다. 예를 들어, 알림 관리기는, 다운로드 완료를 알리고, 메시지 알림을 제공하는 등을 위해 구성된다. 알림 관리기는 대안적으로 시스템의 상단 상태 바에 그래프 또는 스크롤 바 텍스트 형태로 나타나는 알림, 예를 들어 백그라운드에서 구동 중인 애플리케이션의 알림 또는 화면 상에 대화 창 형태로 나타나는 알림일 수 있다. 예를 들어, 텍스트 정보가 상태 바에 프롬프팅되거나, 프롬프트 톤(prompt tone)이 생성되거나, 전자 디바이스가 진동하거나 또는 지시 등이 깜박인다.
안드로이드 런타임은 커널 라이브러리 및 가상 머신을 포함한다. 안드로이드 런타임은 안드로이드 시스템의 스케줄링 및 관리를 담당한다.
코어 라이브러리는, Java 언어로 호출되어야 하는 함수 및 안드로이드의 코어 라이브러리의 2개 부분을 포함한다. 애플리케이션 계층 및 애플리케이션 프레임워크 계층은 가상 머신 상에서 구동된다. 가상 머신은 애플리케이션 계층과 애플리케이션 프레임워크 계층에서 Java 파일을 바이너리 파일로서 실행한다. 가상 머신은 오브젝트 수명 주기 관리, 스택 관리, 스레드 관리, 보안 및 예외 관리, 가비지 수집과 같은 기능을 구현하도록 구성된다.
시스템 라이브러리는, 복수의 기능 모듈, 예를 들어, 표면 관리기(surface manager), 미디어 라이브러리(media libraries), 3차원 그래픽 프로세싱 라이브러리(예를 들어, OpenGL ES) 및 2차원 그래픽 엔진(예를 들어, SGL)을 포함할 수 있다.
표면 관리기는, 디스플레이 서브시스템을 관리하고 그리고 복수의 애플리케이션에 대한 2D 및 3D 계층의 융합을 제공하도록 구성된다.
미디어 라이브러리는 흔히 사용되는 복수의 오디오 및 비디오 포맷, 정적 이미지 파일 등의 플레이백(playback) 및 레코딩을 지원한다. 미디어 라이브러리는 MPEG4, H.264, MP3, AAC, AMR, JPG 및 PNG와 같은 복수의 오디오 및 비디오 코딩 포맷을 지원할 수 있다.
3차원 그래픽 프로세싱 라이브러리는, 3차원 그래픽 드로잉, 이미지 렌더링, 합성, 계층 프로세싱 등을 구현하도록 구성된다.
2D 그래픽 엔진은 2D 드로잉을 위한 드로잉 엔진이다.
또한, 시스템 라이브러리는, "흔들기", "이동", "올리기" 및 "내리기" 촬영 효과를 달성하기 위해 이미지 프로세싱을 위한 그래픽 프로세싱 라이브러리를 더 포함할 수 있다.
커널 계층은 하드웨어와 소프트웨어 사이의 계층이다. 커널 계층은 적어도 디스플레이 구동기, 카메라 구동기, 오디오 구동기 및 센서 구동기를 포함한다.
하드웨어 계층은, 다양한 타입의 센서, 예를 들어, 본 출원의 실시예에서의 가속도 센서, 자이로스코프 센서 및 터치 센서를 포함할 수 있다.
본 출원의 실시예에서의 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하기 위한 방법을 참조로, 하기에서는 예를 사용하여 전자 디바이스의 소프트웨어 및 하드웨어의 작동 절차를 설명한다.
터치 센서(180K)가 터치 조작을 수신하는 경우, 해당 하드웨어 인터럽션(hardware interruption)이 커널 계층에 송신된다. 터치 조작이 터치 탭핑 조작인 예가 사용된다. 탭핑 조작에 해당하는 컨트롤이 카메라 애플리케이션의 아이콘에 해당하는 컨트롤이라고 가정하면, 카메라 애플리케이션이 시작된다. 카메라 애플리케이션이 현재 이동 모드에 있다고 가정하면, 커널 계층의 카메라 구동기가 호출되어 비교적 넓은 시야를 가진 카메라(예를 들어, 초광각 카메라)가 구동되어 이미지를 캡처한다. 초광각 카메라는 캡처된 이미지를 시스템 라이브러리의 그래픽 프로세싱 라이브러리에 송신한다.
그래픽 프로세싱 라이브러리는, 예를 들어, 초광각 카메라에 의해 캡처된 이미지를 프로세싱하여 이미지 상의 이미지 블록을 결정한다. 디스플레이는, 카메라 애플리케이션의 뷰파인더 인터페이스 상에 이미지 블록, 즉 미리보기 이미지를 디스플레이한다. 전자 디바이스가 정지상태를 유지하는 경우, 터치 센서(180K)가 플릭 조작을 수신한다고 가정하면,해당 하드웨어 인터럽션이 커널 계층에 송신된다. 커널 계층은, 플릭 조작을 원래의 입력 이벤트로 프로세싱하고 원래의 입력 이벤트를 커널 계층에 저장한다. 카메라 애플리케이션이 커널 계층으로부터 원래의 입력 이벤트를 획득하고 그리고 입력 이벤트가 플릭 방향에 대응하는 것을 식별한다고 가정하면, 그래픽 프로세싱 라이브러리는 초광각 카메라에 의해 캡처된 이미지 상에서 다른 이미지 블록을 결정하고, 여기서 하나의 이미지 블록에 대한 다른 이미지 블록의 방향은 플릭 방향과 관련된다. 따라서, 전자 디바이스의 비디오 레코딩 프로세스에서, 전자 디바이스가 정지상태를 유지하는 경우에도 "렌즈를 이동시키기" 효과가 또한 달성될 수 있다.
이해의 편의를 위해, 하기 본 출원의 실시예에서는, 전자 디바이스가 모바일 폰인 예가, 첨부된 도면을 참조하여 본 출원의 실시예에서 제공되는 비디오 촬영 방법을 상세히 설명한다.
본 출원에서 제공되는 비디오 촬영 방법에서, 모바일 폰이 정지상태에서 유지되는 경우 "렌즈 이동시키기" 또는 "렌즈 흔들기"와 같은 카메라 이동 촬영 기법이 구현될 수 있다.
설명의 편의를 위해, 본 명세서에서는, "렌즈 이동시키기"를 "이동 모드"로 지칭하고, "렌즈 흔들기"는 "흔들기 모드"로 지칭되고, 그리고 "이동 모드", "흔들기 모드" 등은 "카메라 이동 모드"로 총칭된다. 여기서, "이동 모드" 및 "흔들기 모드"만이 예로 사용된다. 카메라 이동 모드가 더 구체적일 수 있음이 이해될 수 있다. 예를 들어, 이동 모드는, 이동 방향에 따라, 상향 이동 모드, 하향 이동 모드, 왼쪽방향으로 이동 모드 및 오른쪽방향으로 이동 모드를 포함할 수 있고, 그리고 이동 속도에 따라, 가속된 이동 모드, 일정 이동 모드 및 감속된 이동 모드를 포함할 수 있다. 예를 들어, 표 1을 참조로, 다양한 카메라 이동 모드가 나열된다.
표 1: 다양한 카메라 이동 모드
Figure pct00001
표 1에서 36개의 카메라 이동 모드가 예로 사용되었다. 더 많은 모드가 추가로 포함될 수 있다는 것이 이해될 수 있다. 예를 들어, 상향 이동, 하향 이동, 왼쪽방향으로 이동 및 오른쪽방향으로 이동 외에, 이동 모드는 본원에서 일일이 열거되지 않은, 다른 방향의 이동을 더 포함할 수 있다.
하기에서는 모바일 폰이 정지상태로 유지되는 경우 다양한 "카메라 이동 모드"의 구현 원리를 설명한다.
(1) 이동 모드(Move mode)
모바일 폰은 광각 카메라 또는 초광각 카메라와 같은 카메라를 작동시킨다. 카메라는 이미지 스트림을 출력한다. 도 3aa를 참조하면, 가장 큰 블록은 카메라에 의해 출력되는 이미지를 표현하고, 일반적으로 비교적 많은 수량의 촬영될(to-be-shot) 오브젝트를 포함하는 이미지를 표현한다. 설명의 편의를 위해, 이미지 스트림에서의 이미지의 m번째 프레임에서 이미지의 (m+3)번째 프레임만이 도 3aa의 예로서 캡처된다. 예를 들어, 이미지의 m번째 프레임의 경우, 해당 큰 블록에서의 작은 블록은 m번째 영역으로 마킹되고, m번째 영역의 이미지 블록은 클립핑(clipping)을 통해 획득되고 미리보기 이미지로서 디스플레이상에 디스플레이될 수 있다. 즉, 모바일 폰에 디스플레이되는 미리보기 이미지는 카메라에 의해 캡처된 이미지로부터의 클립핑을 통해 획득된 이미지 블록이다. 본 명세서의 설명은, 하기에서의 흔들기 모드, 푸싱 모드, 풀링 모드 등에도 또한 적용가능하다.
오른쪽방향으로 이동이 예로 사용된다. 오른쪽방향으로 이동이 m번째 프레임으로부터 시작한다고 가정하면, 도 3aa를 참조로, 미리보기 이미지는 이미지의 m번째 프레임상의 m번째 영역에 있는 이미지 블록이고; 미리보기 이미지의 다음 프레임이 이미지의 (m+1)번째 프레임의 (m+1)번째 영역에 있는 이미지 블록이고 ―(m+1)번째 영역의 포지션은 m번째 영역의 포지션에 대해 거리 A만큼 오른쪽으로 이동함 ―; 미리보기 이미지의 다음 프레임은 이미지의 (m+2)번째 프레임상의 (m+2)번째 영역에 있는 이미지 블록인 ―(m+2)번째 영역의 포지션은 (m+1)번째 영역의 포지션에 대해 거리 B만큼 오른쪽으로 이동하고, (m+2)번째 영역의 포지션은 m번째 영역의 포지션에 대해 거리 A+B만큼 오른쪽으로 이동함 ―식이다. m번째 영역, (m+1)번째 영역, (m+2)번째 영역 등은 타깃 영역으로 총칭된다. 즉, 카메라에 의해 촬영된 이미지 상의 타깃 영역의 포지션이 점차 오른쪽으로 이동한다. 이는 렌즈 오른쪽방향으로 이동 효과를 달성한다. 그러나, 모바일 폰은 실제로 움직이지 않는다.
m번째 영역이 이미지의 m번째 프레임의 중앙 영역인 예가 도 3aa에서 사용된다. 대안적으로 m번째 영역은 이미지의 m번째 프레임상의 다른 영역일 수 있다는 것이 이해될 수 있다. 예를 들어, m번째 영역의 왼쪽 에지는 이미지의 m번째 프레임의 왼쪽 에지와 중첩한다. 구체적으로는, 타깃 영역은 이미지의 가장 왼쪽에서 가장 오른쪽으로 이동한다.
도 3aa는 오른쪽방향으로 이동을 예로 사용하여 설명된다. 오른쪽방향으로 이동, 상향 이동, 하향 이동, 대각선 이동과 같은 다양한 방향으로의 이동이 추가로 포함될 수 있으며, 오른쪽방향으로 이동과 동일한 원리를 갖는다는 것이 이해될 수 있다. 세부사항은 다시 설명되지 않는다.
하기에서는 구체적인 예를 제공한다. 단순화를 위해, 미리보기 이미지를 초당 하나의 프레임마다 업데이트하는 예가 사용된다.
카메라에 의해 출력되는 이미지 스트림의 이미지는 4148*2765이고 타깃 영역은 2094*1178인 것이 가정된다. 타깃 영역이 영상의 가장 왼쪽에서 가장 오른쪽으로 이동하는 예가 사용되고, 일정 이동의 예가 사용된다. 도 3ba, 도 3bb 및 도 3bc를 참조로, 오른쪽방향으로 이동은, 타깃 영역의 중심 포인트가 X 방향으로 -1027에서 +1027로 이동하는 것을 의미한다. 이 경우, 가장 왼쪽에서 가장 오른쪽으로의 병진이동(translation)을 완료하는 데 3초가 걸린다. 여기서, 오른쪽방향으로 이동이 예로 사용된다. 왼쪽방향으로 이동은 오른쪽방향으로 이동과 동일한 원리를 갖는다는 것이 이해될 수 있다. 세부사항은 다시 설명되지 않는다. 또한, 여기에서는 초당 하나의 프레임마다 업데이트하는 것을 수행하는 예가 사용된다. 업데이트하는 것은 실제 애플리케이션 동안 초당 복수의 프레임마다 수행될 수 있다는 것이 이해될 수 있다.
마찬가지로, 상향 병진이동은 타깃 영역의 중심 포인트가 Y 방향으로 -793에서 +793으로 이동하는 것을 의미한다. 이 경우, 맨 아래에서 맨 위의 병진이동을 완료하는 데 3초(또는 사용자 지정 지속시간)가 걸린다. 여기서, 상향 이동이 예로 설명된다. 하향 이동은 상향 이동과 동일한 원리를 갖는다는 것이 이해될 수 있다. 세부사항은 다시 설명되지 않는다.
(2) 흔들기 모드(Shake mode)
이동 모드와 달리, 흔들기 모드에서는, 카메라에 의해 캡처되는 이미지 상에서 타깃 영역의 포지션이 변경되어야 하는 것 외에, 타깃 영역의 이미지 블록에 대한 화각 변환이 추가로 수행되어야 하고, 그리고 미리보기 이미지는 화각 변환 후 획득되는 이미지 블록이다. 예를 들어, 모바일 폰이 먼저, 카메라에 의해 캡처된 이미지(예를 들어, 이미지의 m번째 프레임)에 대한 화각 변환을 수행한 다음, 화각 변환 후 획득된 이미지 상의 타깃 영역에 있는 이미지 블록이 미리보기 이미지라는 것을 결정할 수 있거나; 또는 모바일 폰이 먼저, 카메라에 의해 캡처된 이미지 상의 타깃 영역에 있는 이미지 블록을 결정한 다음, 이미지 블록에 대한 화각 변환을 수행하고, 그리고 화각 변환 후 획득된 이미지 블록이 미리보기 이미지라는 것을 결정할 수 있다.
오른쪽 흔들기가 예로 사용된다. 오른쪽 흔들기가 m번째 프레임부터 시작된다고 가정하면, 도 3aa를 참조로, 미리보기 이미지는 m번째 영역의 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고, 미리보기 이미지의 다음 프레임은 (m+1)번째 영역의 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고, 미리보기 이미지의 다음 프레임은 (m+2)번째 영역의 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록인 식이다. 이는 렌즈 오른쪽방향으로 흔들기 효과를 달성한다. 그러나, 모바일 폰의 포지션은 실제로 변하지 않는다.
화각 변환은 아핀 변환을 통해 구현될 수 있다. 예를 들어, 아핀 변환은, 이미지 상의 픽셀에 선형 변환 행렬을 곱하고 그리고 병진 벡터를 추가하여, 화각 변환 후 획득된 이미지를 얻는 것을 포함한다. 예를 들어, 화각 변환 후 획득된 이미지는 다음의 공식을 만족한다:
Figure pct00002
다음의 공식은 전술한 공식에 따라 획득될 수 있다:
Figure pct00003
; 및
Figure pct00004
.
여기서, (x', y')는 화각 변환 후 획득된 이미지 상의 픽셀이고; (x, y)는 화각 변환 전에 획득된 이미지 상의 픽셀이고; 그리고 공식에서 행렬
Figure pct00005
은 선형 변환 및 병진이동을 구현하는 데 사용되는 행렬이다. 또한, m11, m12, m21 및 m22는 선형 변환 파라미터이고; m13 및 m23은 병진이동 파라미터이고; 그리고 m11, m12, m21 및 m22는 회전각과 관련된다. "렌즈 흔들기"의 회전각이 θ라고 가정하면, m11=cos(θ), m12=-sin(θ), m21=sin(θ), m22=cos(θ), m13=0 및 m23=0이다. 따라서, 다음의 공식은 전술한 공식을 변형함으로써 획득될 수 있다:
x'=x*cos(θ)-sin(θ)*y; 및
y'=x*sin(θ)+cos(θ)*y 공식을 만족한다.
예를 들어, 회전각(θ)은 복수의 방식으로 결정될 수 있다. 예를 들어, 회전각(θ)은 미리설정된 고정된 값이거나 또는사용자에 의해 설정될 수 있다. 따라서, 회전각을 결정한 후, 모바일 폰은 전술한 공식에 따라 화각 변환을 수행할 수 있다.
(3) 푸싱 모드(Push mode)
푸싱 모드는 '렌즈 푸싱'의 촬영 방식에 대응하며, 이는, 해당 카메라가 점차 오브젝트에 접근하는 것으로, 구체적으로는, 촬영될 오브젝트가 뷰파인더 인터페이스 상에서 확대되는 것으로 이해될 수 있다. 이는 오브젝트 세부사항에 집중하는 데 도움이 된다.
도 3ab를 참조로, 예를 들어, 이미지의 m번째 프레임에 대해, 해당 큰 블록은 작은 블록, 즉 m번째 영역을 포함하고, 모바일 폰은 m번째 영역으로부터 클립핑을 통해 이미지 블록을 획득하고 이미지 블록을 화면 상에 디스플레이한다.
푸싱 모드가 m번째 프레임으로부터 시작한다고 가정하면, 계속 도 3ab를 참조로, 미리보기 이미지는 클립핑을 통해 이미지의 m번째 프레임상의 m번째 영역으로부터 획득된 이미지 블록이고; 미리보기 이미지의 다음 프레임은 클립핑을 통해 (m+1)번째 영역으로부터 획득된 이미지 블록이고 ―(m+1)번째 영역의 면적은 m번째 영역의 면적 보다 작음―; 미리보기 이미지의 다음 프레임은 클립핑을 통해 (m+2)번째 영역으로부터 획득된 이미지 블록이고 ―(m+2)번째 영역의 면적은 m번째 영역의 면적 보다 작음―; 즉, 이미지 블록 면적은 점점 작아지고 있다. 이 경우, 디스플레이 상에 이미지 블록이 디스플레이되는 경우, 디스플레이의 크기에 적응시키기 위해, 이미지 블록은 디스플레이를 위해 확대되어야 한다. 더 작은 이미지 블록은 더 큰 배율을 지시한다. 따라서, 모바일 폰 상의 미리보기 이미지에서 촬영될 오브젝트는 점차 확대된다. 이는, 카메라가 점차 오브젝트에 접근하는 촬영 효과를 달성한다. 그러나, 모바일 폰의 포지션은 변하지 않는다.
(4) 풀링 모드(Pull mode)
풀링 모드는 '렌즈 풀링'의 촬영 방식에 대응하며, 이는, 해당 카메라가 점차 오브젝트로부터 멀어지게 이동하는 것으로, 구체적으로는, 촬영될 오브젝트가 뷰파인더 인터페이스 상에서 축소되는 것으로 이해될 수 있다. 이것은 파노라마식(panoptic) 촬영에 도움이 된다.
풀링 모드와 달리, 푸싱 모드가 m번째 프레임부터 시작한다고 가정하면, 미리보기 이미지는 이미지의 m번째 프레임상에서 m번째 영역에 있는 이미지 블록이고; 미리보기 이미지의 다음 프레임은 이미지의 (m+1)번째 프레임 상에서 (m+1)번째 영역에 있는 이미지 블록이고 ―(m+1)번째 영역의 면적은 m번째 영역의 면적보다 큼―; 미리보기 이미지의 다음 프레임은 이미지의 (m+2)번째 프레임 상의 (m+2)번째 영역에 있는 이미지 블록인 ―(m+2)번째 영역의 면적은 (m+1)번째 영역의 면적보다 큼― 식이다. 즉, 이미지 블록 면적은 점점 커지고 있다. 이 경우, 디스플레이 상에 이미지 블록이 디스플레이되는 경우, 디스플레이의 크기에 적응시키기 위해, 이미지 블록은 디스플레이를 위해 축소되어야 한다. 더 큰 이미지 블록은 더 큰 축소를 지시한다. 따라서, 모바일 폰 상의 미리보기 이미지에서 촬영될 오브젝트는 축소된다. 이는, 카메라가 촬영될 오브젝트로부터 점차 멀어지는 효과를 달성한다. 그러나, 모바일 폰의 포지션은 변하지 않는다.
(5) 회전 모드(Rotate mode)
회전 모드에서, 타깃 영역에서의 이미지 블록을 결정하는 것 외에, 모바일 폰은 추가로 이미지 블록을 회전시켜야 한다. 예를 들어, 모바일 폰이 먼저 카메라에 의해 캡처된 이미지를 회전시킨 다음, 회전된 이미지 상의 타깃 영역에 있는 이미지 블록이 미리보기 이미지라는 것을 결정할 수 있거나; 또는 모바일 폰이 먼저 카메라에 의해 캡처된 이미지 상의 타깃 영역에 있는 이미지 블록을 결정한 다음, 이미지 블록을 회전시키고, 회전된 이미지 블록이 미리보기 이미지라는 것을 결정할 수 있다.
시계방향 회전이 예로 사용된다. m번째 프레임부터 회전이 시작된다고 가정하면, 도 3ac를 참조로, 미리보기 이미지는 m번째 영역에 있는 이미지 블록이고, 미리보기 이미지의 다음 프레임은 (m+1)번째 영역에 있는 이미지 블록이 시계방향으로 각도 G만큼 회전한 후 획득된 이미지 블록이고, 미리보기 이미지의 다음 프레임은 (m+2)번째 영역에 있는 이미지 블록이 시계방향으로 각도 G+P 만큼 회전한 후 획득된 이미지 블록인 식이다. 즉, 타깃 영역이 시계방향으로 점차 회전한다. 따라서, 미리보기 이미지 상의 촬영될 오브젝트는 점차 시계방향으로 회전한다. 이는, 모바일 폰의 회전 촬영 효과를 달성한다. 그러나, 모바일 폰의 포지션은 변하지 않는다.
도 3ac는 시계방향 회전을 예로 사용하여 설명된다. 반시계방향 회전이 추가로 포함될 수 있으며, 시계방향 회전과 동일한 원리를 갖는다는 것이 이해될 수 있다. 세부사항은 다시 설명되지 않는다.
(6) 일정 모드
일정 모드는 일정 이동 모드, 일정 흔들기 이동, 일정 푸싱 모드, 일정 풀링 모드, 일정 회전 모드 등을 포함한다. 보다 구체적으로는, 일정 이동은 일정 상향 이동, 일정 하향 이동, 일정 왼쪽방향으로 이동, 일정 오른쪽방향으로 이동 등을 더 포함할 수 있고; 그리고 일정 회전은 일정 시계방향 회전, 일정 반시계방향 회전 등을 더 포함할 수 있다. 이는 표 1에 도시된다.
일정 이동이 예로 사용되며, 구체적으로는, 일정 오른쪽방향으로 이동이 예로 사용된다. 도 3aa를 참조로, 예를 들어, A=B=C이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 동일한 거리만큼 이동한다. 이는 일정 오른쪽방향으로 이동 효과를 달성한다.
일정 푸싱이 예로 사용된다. 도 3ab를 참조로, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 동일한 면적만큼 감소된다. 이는 일정 푸싱 촬영 효과를 달성한다.
일정 회전이 예로 사용되며, 구체적으로는, 일정 시계방향 회전이 예로 사용된다. 도 3ac를 참조로, 예를 들어, G=P=W이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 동일한 각도만큼 회전한다. 이는 일정 회전 효과를 달성한다.
(7) 가속된 모드
가속된 모드는 가속된 이동 모드, 가속된 흔들기 이동, 가속된 푸싱 모드, 가속된 풀링 모드, 가속된 회전 모드 등을 포함한다. 보다 구체적으로는, 가속된 이동은 가속된 상향 이동, 가속된 하향 이동, 가속된 왼쪽방향으로 이동, 가속된 오른쪽방향으로 이동 등을 더 포함할 수 있고; 그리고 가속된 회전은 가속된 시계방향 회전, 가속된 반시계방향 회전 등을 더 포함할 수 있다. 이는 표 1에 도시된다.
가속된 이동이 예로 사용되며, 구체적으로는, 가속된 오른쪽방향으로 이동이 예로 사용된다. 도 3aa를 참조로, 예를 들어, A<B<C이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 증가하는 거리만큼 이동한다. 이는 가속된 오른쪽방향으로 이동 효과를 달성한다.
가속된 푸싱이 예로 사용된다. 도 3ab를 참조로, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)의 면적 감소량은 점차 증가한다. 예를 들어, (m+1)번째 영역과 m번째 영역 사이의 제1 면적 차이는 (m+2)번째 영역과 (m+1)번째 영역 사이의 제2 면적 차이보다 작다. 이는 가속된 푸싱 효과를 달성한다.
가속된 회전이 예로 사용되며, 구체적으로는, 가속된 시계방향 회전이 예로 사용된다. 도 3ac를 참조로, 예를 들어, G<P<W이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 증가하는 각도만큼 회전한다. 이는 가속된 회전 효과를 달성한다.
가속된 오른쪽방향으로 이동이 여전히 예로 사용된다. 가속된 오른쪽방향으로 이동은, A, B 및 C가 A<B<C를 만족하는 것을 설정하는 방식 외에, 다른 방식으로 구현될 수 있다. 예를 들어, 계속 도 3aa를 참조로, A=B=C로 설정되고; 그런 다음 프레임 추출을 통해 가속된 이동이 구현된다. 예를 들어, m번째 프레임, (m+1)번째 프레임, (m+3)번째 프레임이 추출된다. 이 경우, 미리보기 이미지는 m번째 영역의 이미지 블록, (m+1)번째 영역의 이미지 블록, 및 (m+3)번째 영역의 이미지 블록이 연속적으로 존재한다. 그러나, (m+1)번째 영역은 m번째 영역에 대해 거리 A만큼 오른쪽으로 이동하고, (m+3)번째 영역은 (m+1)번째 영역에 대해 거리 B+C만큼 오른쪽으로 이동한다. 이는 가속된 오른쪽방향으로 이동을 구현한다.
(8) 감속된 모드
감속된 모드는 감속된 이동 모드, 감속된 흔들기 이동, 감속된 푸싱 모드, 감속된 풀링 모드, 감속된 회전 모드 등을 포함한다. 보다 구체적으로는, 감속된 이동은 감속된 상향 이동, 감속된 하향 이동, 감속된 왼쪽방향으로 이동, 감속된 오른쪽방향으로 이동 등을 더 포함할 수 있고; 그리고 감속된 회전은 감속된 시계방향 회전, 감속된 반시계방향 회전 등을 더 포함할 수 있다. 이는 표 1에 도시된다.
감속된 이동이 예로 사용되며, 구체적으로는, 감속된 오른쪽방향으로 이동이 예로 사용된다. 도 3aa를 참조로, 예를 들어, A>B>C이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 감소하는 거리만큼 이동한다. 이는 감속된 오른쪽방향으로 이동 효과를 달성한다.
감속된 푸싱이 예로 사용된다. 도 3ab를 참조로, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)의 면적 감소량은 점차 감소한다. 예를 들어, (m+1)번째 영역과 m번째 영역 사이의 제1 면적 차이는 (m+2)번째 영역과 (m+1)번째 영역 사이의 제2 면적 차이보다 크다. 이는 감속된 푸싱 효과를 달성한다.
감속된 회전이 예로 사용되며, 구체적으로는, 감속된 시계방향 회전이 예로 사용된다. 도 3ac를 참조로, 예를 들어, G>P>W이고, 구체적으로는, 타깃 영역(예를 들어, m번째 영역, (m+1)번째 영역 및 (m+2)번째 영역)은 매번 감소하는 각도만큼 회전한다. 이는 감속된 회전 효과를 달성한다.
감속된 오른쪽방향으로 이동이 여전히 예로 사용된다. 감속된 오른쪽방향으로 이동은, A, B 및 C가 A>B>C를 만족하는 것을 설정하는 방식 외에, 다른 방식으로 구현될 수 있다. 예를 들어, 계속 도 3aa를 참조로, A=B=C로 설정되고; 그런 다음 프레임 삽입을 통해 감속된 이동이 구현된다. 예를 들어, m번째 프레임과 (m+1)번째 프레임사이에, p번째 프레임이 삽입되고; 그리고 p번째 프레임의 타깃 영역은 p번째 영역이고 m번째 영역에 대해 X만큼 오른쪽으로 이동하고, 여기서 X는 A보다 작다. 이 경우, 미리보기 이미지는 m번째 영역의 이미지 블록, p번째 영역의 이미지 블록, 및 (m+1)번째 영역의 이미지 블록이 연속적으로 존재한다. 또한, p번째 영역은 m번째 영역에 대해 X만큼 오른쪽으로 이동하고, (m+1)번째 영역은 m번째 영역에 대해 A만큼 오른쪽으로 이동한다. 이는 감속된 오른쪽방향으로 이동 효과를 달성한다. 그러나, 모바일 폰의 포지션은 변하지 않는다.
하기에서는, 모바일 폰이 정지상태로 유지되는 경우 다양한 "카메라 이동 모드"를 사용하여 비디오 촬영을 수행하는 프로세스를 설명한다.
일반적으로, 관객에게 궁극의 시청 효과를 주기 위해, 무비 촬영 프로세스에서는 '렌즈 이동시키기', '렌즈 흔들기', '렌즈 푸싱/풀링'과 같은 수 많은 카메라 이동 촬영 기법이 사용된다. 그러나, 무비 촬영에는 전문 장비와 사진작가가 필요한다. 따라서, 본 출원에서는, 모바일 폰이 정지상태로 유지되는 경우 다양한 카메라 이동 모드를 사용하여 모바일 폰을 통해 무비-유사 촬영이 구현되는 것을 고려한다. 예를 들어, 마이크로 무비 모드(또는 무비 모드로 지칭될 수 있음)가 모바일 폰에 제공될 수 있다. 마이크로 무비 모드에서, 사용자는 모바일 폰을 이용하여 무비-유사 촬영을 할 수 있다. 구체적으로는, 마이크로 무비 모드는 복수의 스토리 템플릿을 포함하고, 각 스토리 템플릿은 복수의 상이한 카메라 이동 모드를 포함한다. 모바일 폰은 스토리 템플릿에 포함된 상이한 카메라 이동 모드를 사용하여 비디오 촬영을 수행할 수 있으며, 이로써 비디오 촬영 품질이 향상되고 조작이 용이해지고, 심지어 비전문 사진작가라도 다양한 카메라 이동 모드를 사용하여 촬영을 완료할 수 있으므로 비디오 촬영 관심도를 어느 정도 향상될 수 있다.
이하에서는 구체적으로는, 첨부된 도면을 참조로 본 출원의 실시예의 기술적 솔루션을 설명한다.
도 4a는 모바일 폰의 그래픽 사용자 인터페이스(graphical user interface, GUI)를 도시한다. GUI는 모바일 폰의 홈 화면(home screen)이다. 홈 화면은 복수의 애플리케이션의 아이콘, 예를 들어 카메라 애플리케이션의 아이콘을 포함한다. 사용자가 카메라 애플리케이션의 아이콘을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 카메라 애플리케이션을 작동시키고, 도 4b에 도시된 GUI를 디스플레이하고, 여기서 GUI는 뷰파인더 인터페이스(또는 촬영 인터페이스)로 지칭될 있다. 미리보기 이미지는 뷰파인더 인터페이스 상에 실시간으로 디스플레이될 수 있다.
사용자가 마이크로 무비 모드를 지시하는 조작을 검출한 후, 모바일 폰은 마이크로 무비 모드에 진입(또는 시작)한다. 마이크로 무비 모드에서, 모바일 폰은 다양한 스토리 템플릿을 사용하여 비디오 레코딩을 수행할 수 있다.
사용자는 마이크로 무비 모드를 다양한 방식으로 지시할 수 있다.
예를 들어, 뷰파인더 인터페이스는 마이크로 무비 모드를 지시하는 데 사용되는 버튼을 포함한다. 사용자가 버튼을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 마이크로 무비 모드에 진입한다.
예를 들어, 버튼은 도 5aa에 도시된 버튼(501)일 수 있다. 대안적으로, 도 5ab에 도시된 포지션에 버튼이 디스플레이될 수 있다. 선택적으로, 비디오 레코딩 모드에 진입된 경우, 뷰파인더 인터페이스 상에 버튼이 디스플레이되고, 버튼은 포토 모드에서는 디스플레이되지 않을 수 있다. 대안적으로, 도 5ac에 도시된 포지션에 버튼이 디스플레이될 수 있다. 버튼의 디스플레이 포지션은 모바일 폰에 디폴트로 설정되거나 또는 사용자에 의해 설정될 수 있다. 이는 제한되지 않는다.
대안적으로, 도 4b에 도시된 바와 같이, "더 보기(More)" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 도 5b에 도시된 모드 선택 인터페이스를 디스플레이한다. 인터페이스는 마이크로 무비 모드의 아이콘을 포함한다. 사용자가 아이콘을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 마이크로 무비 모드에 진입한다.
대안적으로, 뷰파인더 인터페이스 상에 사용자의 미리설정된 제스처 조작이 검출되는 경우, 모바일 폰은 마이크로 무비 모드에 진입한다. 예를 들어, 미리설정된 제스처 조작은 뷰파인더 인터페이스 상에서 원을 드로잉하는 제스처 조작 또는 뷰파인더 인터페이스 상에서 미리보기 이미지의 터치 앤 홀드 조작일 수 있다. 이는 이 실시예에서 제한되지 않는다.
대안적으로, 모바일 폰이 뷰파인더 인터페이스를 디스플레이한 후, 모바일 폰이 마이크로 무비 모드로 들어가라는 지시하는 사용자 음성을 검출하면, 모바일 폰은 마이크로 무비 모드에 진입한다.
마이크로 무비 모드에 진입한 후, 모바일 폰은 복수의 스토리 템플릿을 디스플레이할 수 있다. 각각의 스토리 템플릿은 복수의 카메라 이동 모드를 포함할 수 있다.
선택적으로, 사용자가 스토리 템플릿을 직관적으로 이해하게 돕기 위해, 모바일 폰은 각각의 스토리 템플릿에 대응하는 비디오 샘플을 추가로 제공할 수 있다. 비디오 샘플은 스토리 템플릿을 사용하여 레코딩된 완성 제품으로서 이해될 수 있다. 예를 들어, 스토리 템플릿은 트래블 템플릿을 포함한다. 트래블 템플릿에 대응하는 비디오 샘플은 3개의 비디오 클립을 포함하고, 각각의 비디오 클립은 하나의 카메라 이동 모드로 촬영된다. 이런 방식으로, 사용자는 트래블 템플릿에 대응하는 비디오 샘플을 주시함으로써 트래블 템플릿의 촬영 효과를 개략적으로 알 수 있다.
예를 들어, 모바일 폰이 마이크로 무비 모드에 진입한 후 디스플레이되는 인터페이스에 대해서는 도 6a를 참조한다. 설명의 편의를 위해, 인터페이스는 아래에서 마이크로 무비 모드의 홈 페이지로 지칭한다. 홈 페이지는 복수의 스토리 템플릿, 예를 들어, 도 6a에 도시된 트래블 템플릿, 콰이어트(quiet) 템플릿 및 다이나믹 템플릿을 포함한다.
홈 페이지는 스토리 템플릿에 대응하는 비디오 샘플을 디스플레이하기 위한 미리보기 상자(601)를 더 포함할 수 있다. 예를 들어, 사용자가 트래블 템플릿을 선택하는 조작(예를 들어, 트래블 템플릿을 탭핑하는 조작)이 검출되는 경우, 모바일 폰은 미리보기 상자(601)에 트래블 템플릿에 대응하는 비디오 샘플을 디스플레이한다.
여행 템플릿에 대응하는 비디오 샘플은 3개의 샘플 클립을 합성하여 획득되기 때문에, 비디오 샘플이 직접 재생될 수 있거나 또는 각각의 샘플 클립이 미리보기 상자(601)에서 재생할 수 있다. 예를 들어, 미리보기 상자(601)에서 제1 샘플 클립이 재생된 후, 다음 샘플 클립이 자동으로 재생되거나, 또는 일정 시간 기간 후, 다음 샘플 클립이 자동으로 재생될 수 있다. 사용자가 미리보기 상자(601)에서 재생 중인 특정 샘플 클립을 결정하는 것을 돕기 위해, 모바일 폰은 특정 프롬프트를 출력할 수 있다. 예를 들어, 도 6a에 도시된 바와 같이, 제2 샘플 클립이 미리보기 상자(601)에서 재생 중인 경우, 마크(602)의 첫 번째 작은 원은 제1 컬러(예를 들어, 블랙)이고 나머지 2개의 작은 원은 제2 컬러(예를 들어, 화이트)이거나; 또는 제2 샘플 클립이 미리보기 상자(601)에서 재생 중인 경우, 마크(602)의 두 번째 작은 원은 제1 컬러(예를 들어, 블랙)이고 다른 2개의 작은 원은 제2 컬러(예를 들어, 화이트)이다.
대안적으로, 사용자가 제1 샘플 클립을 선택하는 조작이 검출되는 경우, 모바일 폰은 미리보기 상자(601)에서 제1 샘플 클립을 재생한다. 제2 샘플 클립을 선택하는 조작이 검출되는 경우, 모바일 폰은 미리보기 상자(601)에서 제2 샘플 클립을 재생한다. 예를 들어, 계속 도 6a를 참조하면, 미리보기 상자(601)에서 제1 샘플 클립이 디폴트로 디스플레이된다. 모바일 폰이 미리보기 상자(601)에서 사용자의 왼쪽-플릭 조작을 검출하는 경우, 미리보기 상자(601)는 다음 샘플 클립을 포함한다. 모바일 폰이 미리보기 상자(601)에서 다시 사용자의 왼쪽-플릭 조작을 검출하는 경우, 미리보기 상자(601)는 다음 샘플 클립을 포함한다. 추가로, 마크(602)는 또한, 미리보기 상자(601)에서 재생되고 있는 샘플 클립을 사용자에게 프롬프팅할 수 있다.
선택적으로, 비디오 샘플은 뮤직을 포함할 수 있고, 뮤직은 디폴트로 설정될 수 있으며, 예를 들어 트래블 템플릿에서 보조물(auxiliary)로서 설정될 수 있다.
선택적으로, 샘플 클립의 수량, 트래블 템플릿의 총 레코딩 지속시간, 각각의 비디오 클립의 레코딩 지속시간 등이 마크(602) 외에 미리보기 상자(601)에서 추가로 디스플레이될 수 있다.
사용자가 각각의 스토리 템플릿에 사용되는 카메라 이동 모드를 알고 싶어할 수 있기 때문에, 모바일 폰은, 스토리 템플릿에 사용되는 카메라 이동 모드를 사용자에게 알리기 위해, 터치스크린 상에 사용자에게 프롬프트를 디스플레이하거나 또는 사운드 방식으로 사용자에게 프롬프트할 수 있다. 예를 들어, 도 6a를 참조하면, 트래블 템플릿이 선택되는 경우, 트래블 모듈에 대응하는 비디오 샘플 외에, 미리보기 상자(601)에서 "자세히(Details)" 버튼이 추가로 디스플레이될 수 있다. 사용자가 "자세히" 버튼을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 도 6b에 도시된 인터페이스를 디스플레이한다. 인터페이스는 트래블 템플릿에 포함된 각각의 샘플 클립에 사용되는 카메라 이동 모드가 포함한다. 예를 들어, 오른쪽방향으로 이동 모드는 제1 샘플 클립에 사용되고, 푸싱 모드는 제2 샘플 클립에 사용되고, 그리고 시계방향 회전 모드는 제3 샘플 클립에 사용된다. 설명의 편의를 위해, 여기서는 일정한 속도가 예로 사용된다.
여행 템플릿에 대응하는 비디오 샘플이 미리보기 상자(601)에서 디스플레이되고 있는 경우, "자세히" 버튼은 트래블 템플릿에 사용되는 카메라 이동 모드를 보는 데 사용될 수 있다는 것이 이해될 수 있다. 따라서, 트래블 템플릿에 대응하는 비디오 샘플이 미리보기 상자(601)에서 디스플레이되고 있는 경우, "자세히" 버튼은 트래블 템플릿에 사용되는 카메라 이동 모드를 보는 데 사용될 수 있다는 것이 주목되어야 한다. 세부사항은 다시 설명되지 않는다.
계속 도 6a를 참조하면, 홈 페이지는 컨트롤(603)을 더 포함하고, 컨트롤(603)은 스토리 템플릿의 레코딩 인터페이스에 진입하는 데 사용된다. 예를 들어, 사용자가 트래블 템플릿을 선택한 다음 컨트롤(603)을 탭핑하는 조작을 모바일 폰이 검출했다고 가정하면, 모바일 폰은 트래블 템플릿의 레코딩 인터페이스에 진입한다.
예를 들어, 트래블 템플릿의 레코딩 인터페이스가 도 7a에 도시된다. 레코딩 인터페이스는 모바일 폰이 트래블 템플릿에 있다는 것을 사용자에게 프롬프팅하기 위한 프롬프트(701)를 포함한다. 물론, 프롬프트(701)는 대안적으로 디스플레이되지 않을 수 있다. 레코딩 인터페이스는 마크(702) 내지 마크(704)의 3개의 마크를 더 포함한다. 마크(702)는 트래블 모드에 사용되는 제1 카메라 이동 모드를 지시하는 데 사용되고, 마크(703)는 제2 카메라 이동 모드를 지시하는 데 사용되고, 그리고 마크(704)는 제3 카메라 이동 모드를 지시하는 데 사용된다.
선택적으로, 시간 1은 마크(702)에 디스플레이되고, 시간 1은 제1 카메라 이동 모드를 사용하는 레코딩 지속시간을 지시하는 데 사용된다. 마찬가지로, 시간 2는 마크(703)에 디스플레이되고, 시간 2는 제2 카메라 이동 모드를 사용하는 레코딩 지속시간을 지시하는 데 사용된다. 시간 3은 마크(704)에 디스플레이되고, 시간 3은 제3 카메라 이동 모드를 사용하는 레코딩 지속시간을 지시하는 데 사용된다. 시간 1, 시간 2 및 시간 3은 디폴트로 설정될 수 있으며, 동일하거나 상이할 수 있다(시간 1, 시간 2 및 시간 3 각각이 3초인 예가 도 7a에서 사용됨). 대안적으로, 시간 1, 시간 2 및 시간 3은 사용자에 의해 설정될 수 있다(아래에서 설명됨).
여행 템플릿의 레코딩 인터페이스를 닫기 위해, 버튼(706)이 레코딩 인터페이스 상에 추가로 디스플레이된다. 모바일 폰이 버튼(706)을 탭핑하는 조작을 검출했다고 가정하면, 도 6a에 도시된 홈 페이지가 리턴된다.
버튼(705)이 레코딩 인터페이스 상에 추가로 디스플레이된다. 선택적으로, 버튼(705)은 레코딩의 시작 및/또는 중지를 제어하기 위한 레코딩 버튼일 수 있다.
방식 1: 트래블 템플릿은 3개의 카메라 이동 모드를 포함하며, 각각의 카메라 이동 모드에 대해, 레코딩 시작 및/또는 중지를 제어하는 데 버튼(705)이 사용될 수 있다.
계속 도 7a를 참조하면, 마크(702)를 선택하는 조작(예를 들어, 마크(702)를 탭핑)이 검출되는 경우, 모바일 폰은 마크(702)에 대응하는 제1 카메라 이동 모드를 결정한다. 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서 비디오 촬영을 시작한다. 제1 카메라 이동 모듈이 오른쪽방향으로 이동 모드인 예가 사용된다. 이의 구현 원리에 대해서는 도 3aa의 설명을 참조한다. 이의 레코딩 효과에 대해서는 도 7ba 내지 도 7bc를 참조한다. 구체적으로는, 도 7ba에 도시된 바와 같이, 미리보기 이미지에서의 촬영될 오브젝트 "타워"는 이미지의 오른쪽에 있고; 도 7bb에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는 이미지의 중간에 있고; 그리고 도 7bc에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는 이미지의 왼쪽에 있다. 이는, 모바일 폰이 오른쪽방향으로 움직이는 것과 같은 효과이다. 그러나, 모바일 폰은 실제로 움직이지 않는다.
모바일 폰이 제1 카메라 이동 모드에서 비디오 촬영을 수행하는 프로세스에서, 마크(702)에서의 시간은 자동으로 감소한다. 예를 들어, 마크(702)에서의 시간은 도 7ba에서 3초이고, 마크(702)에서의 시간은 도 7bb에서 2초로 감소하고 그리고 마크(702)에서의 시간은 도 7bc에서 1초로 감소한다. 시간이 0으로 감소하는 경우, 레코딩은 중지된다. 이 경우, 제1 카메라 이동 모드에서 모바일 폰이 레코딩을 수행하는 프로세스가 종료된다.
다른 예로, 도 7a를 참조하면, 마크(703)를 선택하는 조작(예를 들어, 마크(703)를 탭핑)을 검출하는 경우, 모바일 폰은 마크(703)에 대응하는 제2 카메라 이동 모드를 결정한다. 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제2 카메라 이동 모드에서 비디오 촬영을 시작한다. 제2 카메라 이동 모듈이 푸싱 모드인 예가 사용된다. 이의 구현 원리에 대해서는 도 3ab의 설명을 참조한다. 이의 레코딩 효과에 대해서는 도 7ca 내지 도 7cc를 참조한다. 구체적으로는, 도 7ca에 도시된 바와 같이, 미리보기 이미지에서의 촬영될 오브젝트 "타워"는 시각적으로 비교적 멀리 있으므로, "타워"는 비교적 작고; 도 7cb에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는, 사용자가 "타워"에 가깝다고 느낄수 있도록 확대되고; 그리고 도 7cc에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는 추가로 확대된다. 이는 모바일 폰이 오브젝트에 접근하는 것과 같은 효과이다. 그러나, 모바일 폰은 실제로 움직이지 않는다.
마찬가지로, 모바일 폰이 제2 카메라 이동 모드에서 레코딩을 수행하는 프로세스에서, 마크(703)에서의 시간은 자동으로 감소한다. 시간이 0으로 감소하는 경우, 레코딩은 중지된다. 이 경우, 제2 카메라 이동 모드에서 모바일 폰이 레코딩을 수행하는 프로세스가 종료된다.
다른 예로, 도 7a를 참조하면, 마크(704)를 선택하는 조작(예를 들어, 마크(704)를 탭핑)을 검출하는 경우, 모바일 폰은 마크(704)에 대응하는 제3 카메라 이동 모드를 결정한다. 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제3 카메라 이동 모드에서 비디오 촬영을 시작한다. 제3 카메라 이동 모듈이 시계방향 회전 모드인 예가 사용된다. 이의 구현 원리에 대해서는 도 3ac의 설명을 참조한다. 이의 레코딩 효과에 대해서는 도 7da 내지 도 7dc를 참조한다. 구체적으로는, 도 7da에 도시된 바와 같이, 미리보기 이미지에서의 촬영될 오브젝트 "타워"는 수직이며; 도 7db에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는 시계방향으로 회전하고; 그리고 도 7dc에 도시된 바와 같이, 미리보기 이미지에서의 "타워"는 추가로 회전한다. 이는 모바일 폰이 시계방향으로 회전하는 것과 같은 촬영 효과이다. 그러나, 모바일 폰은 실제로 움직이지 않는다.
마찬가지로, 모바일 폰이 카메라 이동 모드 3에서 레코딩을 수행하는 프로세스에서, 마크(704)에서의 시간은 자동으로 감소한다. 시간이 0으로 감소하는 경우, 레코딩은 중지된다. 이 경우, 제3 카메라 이동 모드에서 모바일 폰이 레코딩을 수행하는 프로세스가 종료된다.
따라서, 방식 1에서는, 사용자가 마크(702) 내지 마크(704)를 사용하여 카메라 이동 모드를 선택한 다음, 버튼(705)을 사용하여, 모바일 폰이 선택된 카메라 이동 모드에서 촬영을 시작하도록 제어한다.
물론, 버튼(705)은 또한 촬영 중지를 제어할 수 있다. 도 7a가 예로 사용된다. 사용자는 제1 카메라 이동 모드를 선택한다. 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서 레코딩을 시작하고; 그리고 버튼(705)을 다시 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서의 레코딩을 중지한다. 제2 카메라 이동 모드 및 제3 카메라 이동 모드는 제1 카메라 이동 모드와 동일한 원리를 갖는다. 세부사항은 다시 설명되지 않는다. 즉, 각각의 카메라 이동 모드에 대해, 버튼(705)은 레코딩의 시작을 제어하는 데 사용될 수 있을 뿐만 아니라, 레코딩의 중지를 제어하는 데 사용될 수 있다. 이 경우, 각각의 카메라 이동 모드에 대응하는 레코딩 지속시간은 미리설정되지 않을 수 있다. 예를 들어, 레코딩 지속시간은 사용자에 의해 결정될 수 있다. 사용자가 레코딩을 중지하고 싶은 경우, 사용자는 버튼(705)을 탭핑한다.
방식 2: 방식 1에서, 각각의 카메라 이동 모드에 대해, 사용자는 레코딩을 시작하기 위해 버튼(705)을 한 번 탭핑해야 한다. 방식 1과 달리, 방식 2에서, 버튼(705)에 대한 조작이 검출되는 경우, 3개의 카메라 이동 모드에서 모바일 폰이 자동으로 순차적으로 레코딩을 수행한다. 예를 들어, 도 7a를 참조하면, 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서 먼저 레코딩을 시작하고, 레코딩 지속시간이 미리설정된 지속시간(예를 들어, 3초)에 도달하는 경우 레코딩을 중지하고, 그런 다음, 제2 카메라 이동 모드에서 레코딩을 자동으로 시작하고 그리고 제3 카메라 이동 모드에서 레코딩을 수행한다. 이런 방식에서, 사용자는 버튼(705)을 한 번만 탭핑하면 되고, 이에, 조작이 편리하다. 물론, 방식 2에서, 버튼(705)은 또한 레코딩의 정지 또는 일시정지를 제어하는데 사용될 수 있다. 세부사항은 다시 설명되지 않는다.
마찬가지로, 방식 2에서, 모바일 폰이 제1 카메라 이동 모드에서 레코딩을 수행하는 프로세스에서, 마크(702)에서의 시간이 점차 감소할 수 있다. 시간이 0으로 감소하는 경우, 제1 카메라 이동 모드에서의 레코딩이 중지된다. 제2 카메라 이동 모드 및 제3 카메라 이동 모드에서의 레코딩의 원리는 제1 카메라 이동 모드에서의 레코딩의 원리와 동일하다. 세부사항은 다시 설명되지 않는다.
대안적으로, 버튼(705)은 레코딩된 클립을 비디오로 합성하기 위한 비디오 합성 버튼일 수 있다.
예를 들어, 마크(702) 내지 마크(704)는 레코딩 버튼으로서 사용된다. 계속 도 7a를 참조하면, 마크(702)를 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서 레코딩을 시작하고, 레코딩 지속시간(예를 들어, 3초)에 도달하는 경우 레코딩을 중지하고, 그리고 레코딩된 클립(구분하기 쉽도록 클립 1로 지칭됨)을 저장한다. 마크(703)를 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제2 카메라 이동 모드에서의 레코딩을 통해 클립 2를 획득한다. 마크(704)를 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제3 카메라 이동 모드에서의 레코딩을 통해 클립 3을 획득한다. 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 클립 1 내지 클립 3을 하나의 비디오로 합성한다.
마찬가지로, 모바일 폰이 제1 카메라 이동 모드에서 레코딩을 수행하는 프로세스에서, 마크(702)에서의 시간이 점차 감소할 수 있다. 시간이 0으로 감소하는 경우, 제1 카메라 이동 모드에서의 레코딩이 중지된다. 제2 카메라 이동 모드 및 제3 카메라 이동 모드에서의 레코딩의 원리는 제1 카메라 이동 모드에서의 레코딩의 원리와 동일하다. 세부사항은 다시 설명되지 않는다.
선택적으로, 각각의 카메라 이동 모드에 대응하는 레코딩 지속시간(예를 들어, 3초)은 미리설정되지 않을 수 있다. 예를 들어, 마크(702)를 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서 레코딩을 시작하고; 그리고 마크(702)를 다시 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제1 카메라 이동 모드에서의 레코딩을 중지한다. 제2 카메라 이동 모드 및 제3 카메라 이동 모드는 제1 카메라 이동 모드와 동일한 원리를 갖는다. 즉, 마크(702)는 제1 카메라 이동 모드에서 레코딩의 시작 및 중지를 제어하는 데 사용된다. 구체적으로는, 각각의 카메라 이동 모드에 대해, 레코딩 지속시간은 사용자에 의해 결정될 수 있다.
각각의 카메라 이동 모드에 대응하는 레코딩 지속시간이 미리설정되어 있고 3초인 예가 위에서 사용되었다. 각각의 카메라 이동 모드에 대응하는 레코딩 지속시간이 조절될 수 있다는 것이 이해될 수 있다. 예를 들어, 도 8aa를 참조하면, 마크(702)에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 선택 상자를 디스플레이할 수 있고, 여기서 선택 상자는 "시간 설정" 버튼을 포함한다. "시간 설정" 버튼에 대한 조작이 검출되는 경우, 도 8ab에 도시된 인터페이스가 디스플레이된다. "+" 버튼 및 "-" 버튼이 인터페이스 상에 디스플레이된다. "+" 버튼은 시간을 늘리는 데, 예를 들어, 시간을 4초로 늘리는 데 사용된다. "-" 버튼은 시간을 줄이는 데, 예를 들어, 시간을 2초로 줄이는 데 사용된다.
여행 템플릿이 3개의 카메라 이동 모드를 포함하는 예가 도 7a에서 사용된다는 것이 주목되어야 한다. 트래블 템플릿은 추가로, 더 많거나 더 적은 카메라 이동 모드를 더 포함할 수 있다는 것이 이해될 수 있다. 예를 들어, 사용자는 카메라 이동 모드를 추가하거나 또는 삭제할 수 있다.
카메라 이동 모드를 삭제하는 예가 사용된다. 예를 들어, 도 8aa를 참조하면, 마크(702)에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 선택 상자를 디스플레이하고, 여기서 선택 상자는 "삭제" 버튼을 포함한다. 모바일 폰이 "삭제" 버튼에 대한 조작을 검출하는 경우, 마크(702)가 삭제되고, 이에, 대응하여, 마크(702)에 대응하는 제1 카메라 이동 모드가 삭제된다.
카메라 이동 모드를 추가하는 예가 사용된다. 예를 들어, 도 8ba를 참조하면, 트래블 모드의 레코딩 인터페이스는 "+" 버튼을 더 포함한다. "+" 버튼에 대한 조작(예를 들어, 탭핑 조작)이 검출되는 경우, 모바일 폰은 도 8bb에 도시된 인터페이스를 디스플레이하며, 여기서 인터페이스는 카메라 이동 모드 리스트를 포함한다. 사용자가 카메라 이동 모드를 선택한 후, 모바일 폰이 "추가" 버튼을 탭핑하는 조작을 검출하면, 도 8bc에 도시된 인터페이스가 디스플레이되고, 사용자가 추가된 카메라 이동 모드를 선택하도록 지시하기 위해 마크(707)가 인터페이스에 추가된다.
선택적으로, 상이한 카메라 이동 모드의 순서가 조정될 수 있다. 예를 들어, 도 8c를 참조하면, 모바일 폰이 마크(704)를 터치 앤 홀드하고 그리고 드래그하는 조작을 검출하는 경우, 마크(704)는 이동가능한 상태에 있다. 마크(704)가 마크(702)와 마크(703) 사이의 포지션으로 드래그되는 것이 검출되는 경우, 3개의 카메라 이동 모드의 순서는 다음과 같이 조정된다: 제1 카메라 이동 모드, 제3 카메라 이동 모드 및 제2 카메라 이동 모드. 이 경우, 합성 비디오에서의 3개 클립의 순서는 다음과 같다: 클립 1, 클립 3 및 클립 2. 클립 1은 제1 카메라 이동 모드에서의 촬영을 통해 획득되고, 클립 2는 제2 카메라 이동 모드에서의 촬영을 통해 획득되고, 그리고 클립 3은 제3 카메라 이동 모드에서의 촬영을 통해 획득된다.
모바일 폰이 트래블 템플릿의 레코딩 인터페이스(예를 들어, 도 7a의 인터페이스)에 진입한 후, 사용자는 트래블 템플릿에 포함된 특정 카메라 이동 모드를 기억하지 못할 수 있다. 따라서, 사용자가 트래블 템플릿에 포함된 카메라 이동 모드를 볼 수 있게 돕기 위해, 사용자에게는 트래블 모드의 레코딩 인터페이스 상에서 트래블 모드의 카메라 이동 모드가 프롬프팅될 수 있다. 예를 들어, 도 8da를 참조하면, 버튼(603)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 도 8db에 도시된 인터페이스에 진입한다. 인터페이스는 위젯(widget)을 포함한다. 트래블 템플릿에 대응하는 비디오 샘플이 위젯에서 재생될 수 있거나 또는 각각의 샘플 클립이 위젯에서 재생될 수 있다. 예를 들어, 도 8db에 도시된 바와 같이, 모바일 폰이 마크(702)에 대한 조작을 검출하는 경우, 제1 샘플 클립이 위젯에 재생된다(예를 들어, 샘플 클립 1이 주기적으로 재생되거나 또는 단지 한 번만 재생된다). 모바일 폰이 마크(703)에 대한 조작을 검출하는 경우, 제2 샘플 클립이 위젯에 재생된다(예를 들어, 샘플 클립 1이 주기적으로 재생되거나 또는 단지 한 번만 재생된다). 이런 방식으로, 레코딩 프로세스에서, 사용자는 각각의 샘플 클립에 의해 사용되는 카메라 이동 모드를 볼 수 있다.
선택적으로, 트래블 템플릿을 사용하여 비디오 촬영을 완료한 후, 모바일 폰은 효과 프레젠테이션 인터페이스에 진입할 수 있다. 이는 사용자가 촬영 효과를 보는 데 도움이 된다.
방식 2가 예로 사용된다. 도 9aa를 참조하면, 마지막 카메라 이동 모드에서의 레코딩이 레코딩 지속시간(예를 들어, 3초)에 도달한 후, 모바일 폰은 도 9ab에 도시된 효과 프리젠테이션 인터페이스에 자동으로 진입할 수 있다. 미리보기 상자(901)는 3개의 비디오 클립을 합성하여 획득된 비디오를 디스플레이하기 위해 인터페이스 상에 디스플레이된다. 모바일 폰이 "OK" 버튼에 대한 조작을 검출하는 경우, 모바일 폰은 합성 비디오를 저장한다. 예를 들어, 도 9aa에 도시된 인터페이스가 리턴되고, 합성 비디오의 이미지가 인터페이스의 하단-왼쪽 모서리에 있는 갤러리 마크에 디스플레이된다. 사용자가 합성 비디오에 만족하지 못하는 경우, 사용자는 레코딩을 다시 수행할 수 있다. 예를 들어, 모바일 폰이 "뒤로가기(Back)" 버튼에 대한 조작을 검출하는 경우, 모바일 폰은 도 9aa에 도시된 인터페이스로 리턴하여 레코딩을 다시 수행한다. 선택적으로, 미리보기 상자(901)는 디스플레이의 일부 또는 전체 디스플레이를 점유할 수 있다. 전체 디스플레이가 점유된 경우, "OK" 버튼 및 "뒤로가기" 버튼이 미리보기 상자(901) 위에 디스플레이될 수 있다.
합성 비디오가 미리보기 상자(901)에서 디스플레이되는 예가 도 9ab에서 사용된다는 것이 주목되어야 한다. 각각의 비디오 클립이 대안적으로 디스플레이될 수 있다는 것이 이해될 수 있다. 예를 들어, 도 9ba는 다른 효과 프리젠테이션 인터페이스의 예를 도시한다. 인터페이스는 각각의 비디오 클립의 마크를 포함한다. 예를 들어, 모바일 폰이 클립 1의 마크에 대한 조작(예를 들어, 탭핑 조작)을 검출하는 경우, 클립 1이 미리보기 상자(901)에서 재생된다. 모바일 폰이 클립 2의 마크에 대한 조작을 검출하는 경우, 클립 2가 미리보기 상자에서 재생된다. 따라서, 사용자는 레코딩된 각각의 비디오 클립을 볼 수 있다. 모바일 폰이 "OK" 버튼을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 3개의 클립을 비디오로 합성하고, 합성 비디오를 저장하고, 그리고 도 9aa에 도시된 인터페이스로 리턴한다.
선택적으로, 3개의 비디오 클립의 순서가 조정될 수 있다. 예를 들어, 계속 도 9ba를 참조하면, 모바일 폰은 클립 2의 마크에 대한 조작(예를 들어, 터치 앤 홀드 및 드래그의 조작)을 검출하고, 그리고 마크의 디스플레이 포지션을 변경하고, 예를 들어, 도 9bb에 도시된 바와 같이, 클립 3의 마크를, 클립 1의 마크와 클립 2의 마크 사이의 포지션으로 드래그한다. 따라서, 클립 3과 클립 2의 순서가 조정된다. 이 경우, 모바일 폰이 "OK" 버튼에 대한 조작을 검출하면, 합성 비디오에서 비디오 클립을 디스플레이하는 순서는 다음과 같다: 클립 1, 클립 3 및 클립 2.
선택적으로, 일부 경우가 고려된다. 예를 들어, 사용자는 3개의 비디오 클립 중의 비디오 클립에 만족하지 못한다. 이 경우, 비디오 클립은 삭제될 수 있고, 나머지 비디오 클립은 비디오로 합성될 수 있다. 예를 들어, 도 9ca를 참조하면, 클립 2의 마크에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 "삭제" 버튼을 디스플레이한다. 도 9cb를 참조하면, 모바일 폰이 "삭제" 버튼에 대한 조작을 검출하는 경우, 클립 3은 삭제된다. 이 경우, 모바일 폰이 "OK" 버튼에 대한 조작을 검출하면, 모바일 폰은 클립 1과 클립 2를 비디오로 합성한다.
대안적으로, 사용자가 비디오 클립에 만족하지 않으면, 사용자는 클립을 다시 레코딩할 수 있다. 예를 들어, 계속 도 9ca를 참조하면, 클립 3의 마크에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 "레코딩 다시" 버튼을 디스플레이한다. "레코딩 다시" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 도 9cc에 도시된 인터페이스를 디스플레이한다. 인터페이스는 클립 3을 다시 레코딩하는 데 사용된다. 따라서, 제3 카메라 이동 모드의 마크(704)만이 인터페이스 상에 디스플레이될 수 있고, 제1 카메라 이동 모드의 마크 및 제2 카메라 이동 모드의 마크는 디스플레이되지 않는다. 예를 들어, 계속 도 9cc를 참조하면, 버튼(705)을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 제3 카메라 이동 모드에서 레코딩을 다시 시작한다. 레코딩 지속시간(예를 들어, 3초)에 도달하는 경우, 모바일 폰은 도 8c에 도시된 인터페이스로 자동으로 리턴한다. 클립 3은 다시 레코딩된 클립이다.
선택적으로, 클립 1 내지 클립 3을 비디오로 합성하기 전에, 모바일 폰은 추가로, 로컬로 레코딩된 비디오 클립을 추가할 수 있다. 이 경우, 클립 1 내지 클립 3 및 추가된 로컬 비디오는 비디오 합성 동안 합성된다. 예를 들어, 도 9da를 참조하면, 효과 프리젠테이션 인터페이스 상에 "+" 버튼이 디스플레이된다. "+" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 도 9db에 도시된 인터페이스를 디스플레이한다. 인터페이스는 모바일 폰의 "갤러리"의 인터페이스이다. 사용자가 비디오(913)를 선택했다고 가정하면, 모바일 폰이 "추가" 버튼을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 도 9dc에 도시된 인터페이스를 디스플레이하는데, 여기서 클립 4, 즉 비디오(913)가 인터페이스에 추가된다. 이 경우, 모바일 폰이 "OK" 버튼을 탭핑하는 조작을 검출하면, 모바일 폰은 4개의 클립을 비디오로 합성한다.
선택적으로, 모바일 폰은 추가로, 레코딩된 비디오 클립에 대해 클립핑 및 텍스트 또는 뮤직 추가와 같은 프로세싱을 수행할 수 있다.
예를 들어, 도 9ea를 참조하면, 미리보기 상자(901)에 4개의 아이콘이 디스플레이된다: 클립핑 아이콘, 텍스트 아이콘, 뮤직 아이콘 및 음소거(mute) 아이콘. 미리보기 상자에서 클립 1이 재생되는 경우 4개의 아이콘이 클립 1에 작용하고, 그리고 미리보기 상자에서 클립 2가 재생되는 경우 4개의 아이콘이 클립 2에 작용한다는 것이 이해될 수 있다.
예를 들어, 클립 1이 미리보기 상자에서 디스플레이된다. 클립핑 아이콘에 대한 조작이 검출되는 경우, 모바일 폰은 도 9eb에 도시된 인터페이스를 디스플레이할 수 있다. 클립핑 상자(910)가 미리보기 상자(901)에서 디스플레이되고, 클립 1의 이미지의 모든 프레임이 클립핑 상자(910)에서 디스플레이될 수 있다. 예를 들어, 사용자가 마지막 몇 개의 프레임을 클립핑하기를 원하는 경우, 사용자는 클립핑 스트립(911)을 도 9eb에 도시된 포지션으로 이동할 수 있다. 이 경우, 마지막 몇 개의 프레임은 클립핑된다. "OK" 버튼이 탭핑된 것으로 검출되는 경우, 도 9ea에 도시된 인터페이스가 리턴될 수 있다. 이 경우, 클립핑된 클립 1이 미리보기 상자(901)에서 디스플레이된다.
텍스트 아이콘에 대한 조작이 검출되는 경우, 모바일 폰은 도 9ec에 도시된 인터페이스를 디스플레이한다. 텍스트 입력 상자가 인터페이스 상의 미리보기 상자(901)에서 디스플레이되고, 사용자는 텍스트 입력 상자에 텍스트를 입력할 수 있다. "OK" 버튼이 탭핑된 것으로 검출되는 경우, 도 9ea에 도시된 인터페이스가 리턴된다. 이 경우, 텍스트가 추가된 후 획득된 클립 1이 미리보기 상자(901)에서 디스플레이된다. 텍스트 추가는 여기서 설명을 위한 예로 사용된다는 것이 주목되어야 한다. 이모티콘, 애니메이션 등이 또한 추가될 수 있다는 것이 이해될 수 있다.
뮤직 아이콘에 대한 조작이 검출되는 경우, 모바일 폰은 도 9ed에 도시된 인터페이스를 디스플레이할 수 있다. 노래 클립 리스트가 인터페이스 상에 디스플레이되고, 리스트는 노래 클립 A의 마크 및 노래 클립 B의 마크와 같은 복수의 노래 클립의 마크를 포함한다. 사용자가 노래 클립 A의 마크를 선택하는 것을 모바일 폰이 검출하는 경우, 모바일 폰은 노래 클립 A를 클립 1의 배경 뮤직으로 사용할 수 있다. 예를 들어, "OK" 버튼이 탭핑된 것이 검출되는 경우, 모바일 폰은 도 9ea에 도시된 인터페이스로 리턴한다. 이 경우, 노래 클립 A가 추가된 후 획득된 클립 1이 미리보기 상자(901)에 디스플레이된다. 선택적으로, 카메라 이동 모드 외에 스토리 템플릿은 디폴트 뮤직을 더 포함할 수 있다. 예를 들어, 트래블 템플릿에 대해, 트래블 템플릿의 디폴트 뮤직은 트래블 템플릿에 대응하는 샘플 비디오에 사용되는 뮤직이다. 따라서, 사용자가 뮤직을 선택하지 않는다고 가정하면, 모바일 폰은 트래블 템플릿의 디폴트 뮤직을 비디오의 배경 뮤직으로 사용한다. 뮤직 리듬으로 인해, 비디오의 이미지 재생 리듬이 뮤직 재생 리듬과 일치할 수 있다. 예를 들어, 뮤직이 드럼 포인트를 포함하면, 하나의 드럼 포인트가 재생되는 경우 이미지의 프레임이 재생되고, 다음 드럼 포인트가 재생되는 경우 이미지의 다음 프레임이 재생된다.
선택적으로, 모바일 폰은 3개의 레코딩된 비디오 클립에서 비디오 클립의 원래 사운드를 추가로 제거할 수 있다. 원래의 사운드는 레코딩된 비디오에서의 사운드로 이해될 수 있다. 예를 들어, 도 9ea를 참조하면, 모바일 폰이 음소거 아이콘에 대한 조작을 검출하는 경우, 모바일 폰은 클립 1의 원래의 사운드를 제거한다. 선택적으로, 비디오 클립의 원래의 사운드를 완전히 또는 부분적으로 제거될 수 있다. 클립 1이 예로 사용된다. 모바일 폰이 음소거 아이콘에 대한 조작을 검출하는 경우, 모바일 폰은, 예를 들어 도 9eb의 클립핑 상자(910)와 유사한 오디오 클립핑 상자를 디스플레이할 수 있고, 사용자는 오디오 클립핑 상자를 사용하여 클립 1에서 음소거될 부분을 선택할 수 있고, 이에, 클립 1에서 음소거되지 않은 부분의 원래의 사운드가 유지된다.
도 9ea 내지 도 9ed는 비디오 클립에 대해 클립핑, 텍스트 추가, 뮤직 추가 및 원래의 사운드 제거를 수행하는 4개의 프로세싱 방식만을 나열한다는 것이 주목되어야 한다. 다른 프로세싱 방식이 추가로 포함될 수 있다 것이 이해될 수 있다. 예를 들어, 다양한 픽처 스타일, 예를 들어, 흑백 스타일(black-and-white style), 애니메이션 스타일, 담채(ink and wash) 스타일, 강한 노출 스타일, 및 약한 노출 스타일이 클립의 이미지를 프로세싱하기 위해 추가로 제공될 수 있으며, 이는 애플리케이션에서 일일이 열거되지 않는다.
선택적으로, 모바일 폰은 추가로 합성 특수 효과를 선택할 수 있으며, 합성 특수 효과는 특수 합성 방식으로 3개의 비디오 클립을 합성하는 데 사용된다. 예를 들어, 도 9fa를 참조하면, "애니메이션" 버튼에 대한 조작이 검출되는 경우, 모바일 폰은 도 9fb에 도시된 인터페이스를 디스플레이한다. 인터페이스는 다수의 합성 특수 효과를 포함한다. 예를 들어, 사용자가 "결합"을 선택했다고 가정하면, 모바일 폰이 사용자가 "OK" 버튼을 탭핑하는 조작을 검출하는 경우, 클립 1과 클립 2를 합성하는 방식은, 클립 1의 마지막 프레임과 클립 2의 첫 번째 프레임을 융합하는 것이며; 그리고 해당 합성 효과는 다음과 같다: 클립 1의 마지막 두 번째 프레임을 재생한 후, 모바일 폰은 클립 1의 마지막 프레임을 재생하며 ―마지막 프레임은 클립 1의 마지막 프레임과 클립 2의 첫 번째 프레임을 융합함으로써 획득된 이미지임―; 그런 다음, 클립 2의 두 번째 프레임을 계속 재생한다. 사용자가 합성 효과를 볼 수 있도록 돕기 위해, 모바일 폰은, 합성 효과를 디스플레이하기 위해, 도 9fc에 도시된 인터페이스를 디스플레이한다. "저장(Save)" 버튼이 탭핑된 것이 검출되는 경우, 모바일 폰은 합성 효과 "결합"을 저장하고, 그런 다음 도 9fa에 도시된 인터페이스로 리턴한다. 인터페이스 상에서 "OK" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 저장된 합성 특수 효과를 사용하여 클립 1과 클립 3을 합성한다.
도 9fb가 다른 예로 사용된다. 사용자가 "점진적으로 확대(Gradually zoom in)"를 선택한다고 가정하면, 해당 합성 효과는 다음과 같다: 클립 1을 재생한 후, 모바일 폰은 클립 2에서 이미지의 첫 번째 프레임을 점진적으로 확대하여 재생하고, 그런 다음 클립 2에서 이미지의 두 번째 프레임을 재생한다. "결합", "점진적으로 확대" 등이 본원에서 설명을 위한 예로 사용된다는 것이 주목되어야 한다. 본 출원에서 일일이 나열되지 않은 다른 합성 특수 효과가 있을 수 있다.
선택적으로, 비디오를 저장하는 경우, 모바일 폰은 원래의 비디오와 합성 비디오 둘 다를 저장할 수 있다. 도 9ba가 예로 사용된다. "OK" 버튼을 검출하는 경우, 모바일 폰은 클립 1 내지 클립 3을 합성하여 획득된 비디오를 저장할 수 있거나 또는 원래의 비디오를 저장할 수 있고, 여기서 원래의 비디오는 카메라 이동 모드 없이 레코딩된 비디오로 이해될 수 있다. 이해의 편의를 위해, 도 3aa에 도시된 오른쪽방향으로 이동이 예로 사용된다. 원래의 비디오는, m번째 영역 내지 (m+1)번째 영역의 이미지 블록들에 의해 구성된 비디오가 아닌, m번째 프레임의 이미지 내지 (m+3)번째 프레임의 이미지에 의해 구성된 비디오이다. 예를 들어, 도 10은 모바일 폰에서 갤러리 애플리케이션의 인터페이스를 도시한다. 인터페이스는 2개의 비디오를 저장한다: 카메라 이동 모드의 비디오 촬영 및 카메라 이동 모드가 없는 비디오 촬영. 사용자가 구분하기 쉽도록, 카메라 이동 모드에서 촬영된 비디오 상에 마크(1001)가 디스플레이될 수 있다. 선택적으로, "OK" 버튼을 검출하는 경우, 모바일 폰은 대안적으로 클립 1 내지 클립3 각각을 저장할 수 있다.
전술한 실시예에서, 도 6a가 예로 사용된다. 마이크로 무비 모드의 홈 페이지 상에 복수의 스토리 템플릿이 제공된다. 복수의 스토리 템플릿은 디폴트로 설정된다(예를 들어, 모바일 폰이 공장으로부터 배송된 경우 설정된다). 사용자가 대안적으로 스토리 템플릿을 커스터마이징할 수 있다는 것이 이해될 수 있다. 구분하기 쉽도록, 디폴트로 설정된 템플릿은 총칭하여 "디폴트 템플릿"으로 지칭되고, 사용자에 의해 커스터마이징된 템플릿은 총칭하여 "사용자-정의 템플릿"으로 지칭된다.
예를 들어, 도 11aa를 참조하면, "+" 버튼이 홈 페이지 상에 추가로 디스플레이될 수 있다. 버튼에 대한 조작이 검출되는 경우, 모바일 폰은 도 11ab에 도시된 인터페이스를 디스플레이할 수 있다. 인터페이스는 모바일 폰에서의 "갤러리"의 인터페이스이다. 사용자는 "갤러리"에 저장된 비디오 클립을 선택할 수 있다. 사용자가 클립(1101)을 선택했다고 가정하면, 모바일 폰이 사용자가 "추가" 버튼을 탭핑하는 것을 검출하는 경우, 모바일 폰은 도 11ac에 도시된 인터페이스를 디스플레이한다. 새로운 템플릿이 인터페이스에 추가된다. 사용자는 새로운 템플릿의 이름(name)을 설정할 수 있다. 예를 들어, 도 11b를 참조하면, 새로운 템플릿에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 "이름" 버튼을 디스플레이하고; 그리고 "이름" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 새로운 템플릿의 이름을 정한다.
사용자-정의 템플릿을 추가한 후, 모바일 폰은 템플릿에 대응하는 카메라 이동 모드를 파싱할 수 있다. 사용자가 커스터마이징 모듈(customized module)을 선택하는 경우, 사용자는 커스터마이징 모듈에 대응하는 카메라 이동 모드로 비디오를 촬영하며, 구체적으로는, 사용자는 템플릿을 사용하여 템플릿과 유사한 효과로 비디오를 촬영할 수 있다. 예를 들어, 사용자가 사용자-정의 템플릿으로서 클립을 캡처하면, 템플릿을 사용하여 사용자에 의해 촬영된 비디오의 효과는 무비와 유사할 수 있다. 따라서, 비-전문 사진작가의 경우도, 비교적 고품질의 촬영 작품이 획득될 수 있고, 사용자 경험은 비교적 양호하다.
사용자가 좋아하지 않거나 자주 사용되지 않는 템플릿이 삭제될 수 있다는 것이 이해될 수 있다. 디폴트 템플릿과 사용자-정의 템플릿 둘 다가 삭제될 수 있거나; 또는 사용자-정의 템플릿만 삭제될 수 있고 디폴트 템플릿은 삭제될 수 없다. 예를 들어, 도 11b를 참조하면, 새로운 템플릿에 대한 조작(예를 들어, 터치 앤 홀드 조작)이 검출되는 경우, 모바일 폰은 "삭제" 버튼을 디스플레이하고; 그리고 "삭제" 버튼을 탭핑하는 조작이 검출되는 경우, 모바일 폰은 새로운 템플릿의 삭제한다.
도 11ab에서, 사용자-정의 템플릿이 모바일 폰의 로컬 비디오인 예가 사용된다. 사용자-정의 모듈이 대안적으로 다른 방식으로 설정될 수 있다는 것이 이해될 수 있다. 도 11aa가 예로 사용된다. "+" 버튼에 대한 조작이 검출되는 경우, 모바일 폰은 도 11c에 도시된 인터페이스를 디스플레이한다. 인터페이스는 카메라 이동 모드 리스트를 포함한다. 사용자는 카메라 이동 모드 리스트로부터 복수의 카메라 이동 모드를 선택하고 그리고 카메라 이동 모드를 사용자-정의 스토리 템플릿으로 결합할 수 있다. 사용자가 "오른쪽방향으로 이동 모드", "풀링 모드" 및 "왼쪽방향으로 흔들기 모드"를 선택했다고 가정하면, 모바일 폰이 "결합" 버튼을 탭핑하는 조작을 검출하는 경우, 모바일 폰은 도 11ac에 도시된 인터페이스를 디스플레이할 수 있다. 인터페이스에 새롭게 추가된 템플릿은 사용자에 의해 선택된 복수의 카메라 이동 모드를 포함한다.
전술한 실시예 및 관련된 첨부 도면을 참조하여, 본 출원의 실시예는 비디오 촬영 방법을 제공한다. 도 12에 도시된 바와 같이, 방법은 다음 단계를 포함할 수 있다.
S1201: 카메라 기능을 활성화시킨다. 예를 들어, 모바일 폰은 카메라 애플리케이션을 여는 데 사용되는 조작을 검출하고, 카메라 애플리케이션을 시작한다. 조작은 도 4a에서 "카메라"의 아이콘을 탭핑하는 조작일 수 있다. 물론, 이 조작은, 카메라 애플리케이션이 열릴 수 있다면, 대안적으로 다른 조작일 수 있다. 조작 타입은 본 출원의 이 실시예에서 제한되지 않는다.
S1202: 사용자의 제1 조작에 응답하여 제1 비디오 레코딩 템플릿을 결정하고, 여기서 제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 제2 예시 샘플은 제2 카메라 이동 모드에 대응하고, 그리고 제1 카메라 이동 모드는 제2 카메라 이동 모드와 상이하다.
제1 비디오 레코딩 템플릿은, 예를 들어, 도 7a의 트래블 템플릿 또는 콰이어트 템플릿일 수 있다. 물론, 도 11a에 도시된 바와 같이, 제1 비디오 레코딩 템플릿은 대안적으로 디폴트 템플릿일 수 있거나 또는 사용자-정의 템플릿일 수 있다.
제1 조작은 하나 이상의 조작일 수 있다. 제1 작업이 하나의 조작인 것으로 가정된다. 예를 들어, 카메라 애플리케이션을 시작한 후, 모바일 폰은 도 4b에 도시된 뷰파인더 인터페이스를 디스플레이한다. 제1 조작은 제1 레코딩 템플릿의 버튼을 탭핑하는 조작, 제1 레코딩 템플릿을 음성을 통해 지시하는 조작 등일 수 있다. 이는 본 출원의 이 실시예에서 제한되지 않는다. 제1 조작은 복수의 조작을 포함하는 것으로 가정된다. 예를 들어, 제1 조작은 도 5aa 내지 도 5ac에서 "마이크로 무비" 아이콘을 탭핑하는 조작, 도 6a의 트래블 템플릿을 탭핑하는 조작 및 컨트롤(603)을 탭핑하는 조작을 포함한다.
제1 예시 샘플(또는 제1 비디오 샘플로 지칭됨), 제2 예시 샘플(또는 제2 비디오 샘플로 지칭됨), 및 미리설정된 오디오에 대해서는, 전술한 설명을 참조한다.
S1203: 비디오 레코딩 인터페이스를 디스플레이하고, 여기서 비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함한다.
예를 들어, 제1 비디오 레코딩 템플릿이 트래블 템플릿(travel template)인 경우, 비디오 레코딩 인터페이스는 도 7a에 도시된 인터페이스일 수 있다.
S1204: 사용자의 제2 조작에 응답하여, 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작한다.
방법 1은 다음과 같다: 비디오 레코딩은 레코딩 버튼(예를 들어, 도 7a의 버튼(705))을 탭핑하는 조작(즉, 제2 조작)에 응답하여 시작한다. 구체적으로는, 제1 비디오 클립이 제1 카메라 이동 모드에서 먼저 레코딩되고, 제2 비디오 클립은 레코딩이 완료된 후 제2 카메라 이동 모드에서 자동으로 레코딩된다. 방법 2는 다음과 같다: 제1 카메라 이동 모드 식별자가 선택되는 경우, 제1 비디오 클립은 사용자에 의한 촬영 지시에 응답하여 제1 카메라 이동 모드에서 생성되고 ―제1 비디오 클립의 지속시간은 제1 미리설정된 지속시간임―; 그리고
제2 카메라 이동 모드 식별자가 선택되는 경우, 제2 비디오 클립은 사용자에 의한 촬영 지시에 응답하여 제2 카메라 이동 모드에서 생성된다 ―제2 비디오 클립의 지속시간은 제2 미리설정된 지속시간임―. 즉, 각각의 카메라 이동 모드에 대해, 사용자는 레코딩의 시작 및/또는 정지를 제어할 수 있다.
S1205: 합성 비디오를 자동으로 생성하고, 여기서 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 및 미리설정된 오디오를 포함하고, 제1 비디오 클립은 제1 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이고, 제2 비디오 클립은 제2 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립이다.
한 가지 방법은 다음과 같다: 비디오 레코딩은 레코딩 버튼(예를 들어, 도 7a의 버튼(705))을 탭핑하는 조작(즉, 제2 조작)에 응답하여 시작하며 ―레코딩 방식은 방식 1 또는 방식 2일 수 있음―; 비디오 합성은 제2 비디오 클립이 레코딩된 후 자동으로 수행될 수 있다. 대안적으로, 다른 방법은 다음과 같다: 합성 비디오가 자동으로 생성되기 전에, 프리젠테이션 인터페이스가 디스플레이되며 ―프리젠테이션 인터페이스는 제1 비디오 클립과 제2 비디오 클립을 포함함―; 그리고 비디오 합성은 사용자에 의해 입력된 비디오 합성 명령에 응답하여 수행된다.
선택적으로, 제1 비디오 클립이 제1 카메라 이동 모드에서 생성되는 경우, 제1 카메라 이동 모드에서 제1 비디오 클립을 생성하는 것의 카운트다운이 비디오 레코딩 인터페이스 상에 추가로 디스플레이되고; 제2 비디오 클립이 제2 카메라 이동 모드에서 생성되는 경우, 제2 카메라 이동 모드에서 제2 비디오 클립을 생성하는 것의 카운트다운이 비디오 레코딩 인터페이스 상에 추가로 디스플레이된다. 예를 들어, 도 7ba 내지 도 7bc, 도 7ca 내지 도 7cc, 및 도 7da 내지 도 7dc를 참조한다.
선택적으로, 사용자는 카메라 이동 모드 식별자를 더 삭제할 수 있다. 예를 들어, 모바일 폰은 비디오 레코딩 인터페이스를 디스플레이하며 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여 제1 카메라 이동 모드 식별자 또는 제2 카메라 이동 모드 식별자를 삭제하고; 사용자의 제4 조작에 응답하여 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하며; 그리고
자동으로 합성 비디오를 생성한다 ―합성 비디오는, 삭제되지 않은, 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립 및 미리설정된 오디오를 포함함―. 예를 들어, 제1 카메라 이동 모드 식별자가 삭제되면, 제1 카메라 이동 모드가 삭제된다. 이 경우에, 전자 디바이스는 레코딩을 시작하고, 단지 제2 카메라 이동 모드에서 제2 비디오 클립을 생성할 필요가 있으며, 다른 비디오 클립을 사용하여 비디오 합성을 수행할 필요가 없다.
선택적으로, 사용자는 카메라 이동 모드 식별자를 더 추가할 수 있다. 예를 들어, 전자 디바이스는 비디오 레코딩 인터페이스를 디스플레이하고 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여 비디오 레코딩 인터페이스에 제3 카메라 이동 모드 식별자를 추가하고 ―제3 카메라 이동 모드 식별자는 제3 카메라 이동 모드를 지시하기 위해 사용됨―; 전자 디바이스의 포지션을 변경하지 않고 유지하며 사용자의 제4 조작에 응답하여 레코딩을 시작하며; 합성 비디오를 자동으로 생성한다 ―합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 제3 비디오 클립 및 미리설정된 오디오를 포함하고, 제3 비디오 클립은 제3 카메라 이동 모드에서 전자 디바이스에 의해 생성된 비디오 클립임―.
선택적으로, 사용자는 카메라 이동 모드 식별자의 순서를 추가로 조정할 수 있다. 예를 들어, 전자 디바이스는 비디오 레코딩 인터페이스를 디스플레이하고 ―비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―; 사용자의 제3 조작에 응답하여 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 디스플레이하는 순서를 제1 순서로 조정하며; 사용자의 제4 조작에 응답하여 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하고; 합성 비디오를 자동으로 생성한다 ―합성 비디오에서 제1 비디오 클립 및 제2 비디오 클립을 재생하는 순서는 제1 순서임―.
선택적으로, 제1 예시 샘플 및/또는 제2 예시 샘플은 비디오 레코딩 인터페이스 상에 디스플레이된다. 예를 들어, 레코딩 인터페이스는 도 8db의 인터페이스일 수 있고, 예시적인 클립은 픽처 속 픽처 방식(picture-in-picture manner)으로 뷰파인더 인터페이스 상에 디스플레이될 수 있다. 자세한 내용은 도 8db의 전술한 설명을 참조한다.
선택적으로, 전자 디바이스는 추가로, 제4 조작에 응답하여 제1 비디오 클립 또는 제2 비디오 클립을 삭제하고; 또는 합성 비디오에 로컬 제3 비디오 클립을 추가하거나; 또는 합성 비디오에서 제1 비디오 클립 또는 제2 비디오 클립의 재생 순서를 조정할 수 있다. 예를 들어, 도 9ca 내지 도 9cc의 전술한 설명을 참조한다.
선택적으로, 제1 비디오 레코딩 템플릿은 디폴트 템플릿 또는 사용자-정의 템플릿이다. 예를 들어, 도 11aa 내지 도 11ac를 참조한다.
선택적으로, 전자 디바이스는 추가로, 제1 비디오 클립, 제2 비디오 클립 및 합성 비디오를 자동으로 저장할 수 있다. 예를 들어, 도 10의 전술한 설명을 참조한다.
선택적으로, 특정 조작에 응답하여, 전자 디바이스는 추가로, 합성 비디오의 오디오를 변경하거나 합성 비디오에 텍스트 및/또는 픽처를 추가할 수 있다. 자세한 내용은 도 9ea 내지 도 9ed의 전술한 설명을 참조한다.
실시예 2
위의 실시예 1에서, 복수의 카메라 이동 모드의 조합이 마이크로 무비 모드에서 구현된다. 실시예 1과 달리, 실시예 2는 다른 비디오 촬영 방식, 즉 모바일 폰이 특정 카메라 이동 모드로 촬영을 수행하는 방식을 제공한다.
도 13a는 모바일 폰의 그래픽 사용자 인터페이스(graphical user interface, GUI)를 도시한다. GUI는 모바일 폰의 홈 스크린(401)이다. 사용자가 홈 스크린(401) 상에서 카메라 애플리케이션의 아이콘(402)을 탭핑하는 조작을 검출한 후, 모바일 폰은 카메라 어플리케이션을 시작하고, 일반 광각 카메라(예를 들어, 후면 카메라)를 시작하고, 그리고 도 13b에 도시된 다른 GUI를 디스플레이할 수 있고, 여기서 GUI는 뷰파인더 인터페이스(1303)로 지칭될 수 있다. 뷰파인더 인터페이스(1303)는 비디오 레코딩 모드(일반 비디오 레코딩 모드)에서의 뷰파인더 인터페이스이다. 모바일 폰이 사용자가 아이콘(1302)을 탭핑하는 조작을 검출하면, 모바일 폰은 디폴트에 의해 포토 모드의 뷰파인더 인터페이스를 디스플레이하고, 사용자는 도 13b의 영역(1304)(점선 상자 안의 영역)에서 플릭 조작과 같은 입력 조작을 수행함으로써 비디오 레코딩 모드를 선택할 수 있으며 그 다음, 폰은 비디오 레코딩 모드에서 뷰파인더 인터페이스를 디스플레이한다는 것이 이해되어야 한다.
예를 들어, 도 13b를 참조하면, 모바일 폰이 비디오 레코딩 모드에 진입한 후, 뷰파인더 인터페이스(1303)는 미리보기 이미지를 포함한다. 뷰파인더 인터페이스(1303)는 뷰티 모드를 지시하는데 사용되는 컨트롤(1305), 뷰티 레벨을 지시하는데 사용되는 컨트롤(1306), 및 비디오 레코딩 컨트롤(1307)을 더 포함할 수 있다. 비디오 레코딩 모드에서, 사용자가 비디오 레코딩 컨트롤(1307)을 탭핑하는 조작을 모바일 폰이 검출한 후, 모바일 폰은 비디오 레코딩을 시작한다.
모바일 폰은 "흔들기" 촬영 방식과 "이동" 촬영 방식에 대해 상이한 비디오 스트림 프로세싱 절차를 수행한다는 것이 이해될 수 있다. 따라서, 본 출원의 이 실시예는 복수의 레코딩 모드, 예를 들어, 일반 비디오 레코딩 모드 및 2개의 카메라 이동 모드(예를 들어, 이동 모드 및 흔들기 모드를 포함)를 제공한다. 사용자는 특정 카메라 이동 모드를 사용하도록 모바일 폰을 지시할 수 있다. 모바일 폰은 상이한 카메라 이동 모드에서 상이한 프로세싱 프로세스를 수행한다. 예를 들어, 사용자가 "흔들기" 촬영 방식을 사용할 것으로 예상하는 경우, 사용자는 모바일 폰이 흔들기 모드에 진입하도록 지시하는 명령을 입력할 수 있다. 사용자가 "이동" 촬영 방식을 사용할 것으로 예상한다면, 사용자는 이동 모드에 진입하도록 모바일 폰을 지시하는 다른 명령을 입력할 수 있다. 모바일 폰이 흔들기 모드에 진입한다는 것은, 모바일 폰이 이동 모드에 대응하는 프로세싱 절차 상에 기초하여 프로세싱을 수행하는 것으로 이해될 수 있다. 모바일 폰이 이동 모드에 진입한다는 것은, 모바일 폰이 흔들기 모드에 대응하는 프로세싱 절차 상에 기초하여 프로세싱을 수행하는 것으로 이해될 수 있다.
일부 실시예에서, 모바일 폰은 카메라 애플리케이션을 시작하고, 디폴트에 의해 일반 비디오 레코딩 모드에 진입하며, 사용자가 카메라 이동 모드를 지시한 후에 해당 카메라 이동 모드에 진입한다. 대안적으로, 카메라 어플리케이션을 시작한 후, 모바일 폰은 디폴트에 의해 카메라 이동 모드, 예를 들어 카메라 어플리케이션이 마지막으로 사용될 때 사용된 카메라 이동 모드에 진입한다. 모바일 폰이 카메라 애플리케이션을 시작한 후 디폴트에 의해 이동 모드에 진입한다고 가정하면, 모바일 폰은 초광각 카메라(ultra-wide-angle camera)를 시작할 수 있다. 초광각 카메라에 의해 캡쳐된 이미지 상의 이미지 블록은 뷰파인더 인터페이스 상에 디스플레이되며, 예를 들어 중앙 포지션에 디스플레이될 수 있다.
사용자는 하기 방식 1 및 방식 2를 포함하는(그러나, 이에, 제한되지 않음) 복수의 방식으로 흔들기 모드 및 이동 모드를 지시할 수 있다.
방식 1: 도 14a를 참조하면, 모바일 폰은 현재 일반 비디오 레코딩 모드에 있다. 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)이 뷰파인더 인터페이스(1303) 상에 디스플레이된다. 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)에 대한 조작을 검출하는 경우, 모바일 폰은 도 14b에 도시된 GUI를 디스플레이한다. 선택 상자(1309)가 GUI 상에 디스플레이된다. 선택 상자(1309)는 "흔들기 모드" 및 "이동 모드" 옵션을 포함한다. 선택 상자(1309)에서 "이동 모드"에 대한 조작을 검출하는 경우, 모바일 폰은 이동 모드에 진입한다. "흔들기 모드"를 검출하는 경우, 모바일 폰은 흔들기 모드에 진입한다.
예를 들어, 모바일 폰이 일반 비디오 레코딩 모드에 진입한 후, 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)이 디폴트에 의해 뷰파인더 인터페이스 상에 디스플레이되고; 또는 사용자가 카메라 이동 모드 단축키를 설정한 후, 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)이 뷰파인더 인터페이스 상에 디스플레이된다. 사용자는 카메라 어플리케이션의 설정 메뉴 등을 사용하여 카메라 이동 모드 단축키를 설정할 수 있다.
뷰파인더 인터페이스(1303) 상에 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)의 디스플레이 포지션은 본 출원의 이 실시예에서 제한되지 않거나 사용자가 컨트롤(1308)의 디스플레이 포지션을 커스터마이징할 수 있거나, 또는 컨트롤(1308)의 디스플레이 포지션이 모바일 폰의 풍경 모드 또는 인물사진 모드에 따라 적응적으로 조정될 수 있다는 점에 주목해야 한다. 게다가, 카메라 이동 모드를 지시하는데 사용되는 컨트롤(1308)은 미리보기 이미지가 가능한 한 최대로 차단되지 않은 형태, 예를 들어 투명 또는 반투명한 형태일 수 있다.
방식 1에서 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)이 뷰파인더 인터페이스에 직관적으로 제시되며, 이에, 사용자 조작이 편리하고 사용자 경험은 비교적 양호하다는 것이 이해되어야 한다.
방식 2: 도 15a를 참조하면, 모바일 폰은 현재, 일반 비디오 레코딩 모드에 있다. 뷰파인더 인터페이스(1303)는 컨트롤 "더보기(More)"(1310)를 더 포함한다. 컨트롤 "더보기"(1310)를 선택하는데 사용되는 조작을 검출하는 경우, 모바일 폰은 도 15b에 도시된 다른 GUI를 디스플레이한다. "흔들기 모드" 아이콘 및 "이동 모드" 아이콘을 포함하여 복수의 포토 모드에 대응하는 아이콘이 GUI 상에 디스플레이된다. "이동 모드" 아이콘에 대한 조작을 검출하는 경우, 모바일 폰은 이동 모드에 진입한다. "흔들기 모드" 아이콘에 대한 조작을 검출하는 경우, 모바일 폰은 흔들기 모드에 진입한다. 방식 2에서, 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(1308)이 뷰파인더 인터페이스 상에 디스플레이되지 않을 수 있으며, 이에, 뷰파인더 인터페이스 상의 미리보기 이미지가 차단되는 것을 방지할 수 있음이 이해되어야 한다.
위의 방식 1과 방식 2는 단지 예시일 뿐이며, 그리고 모바일 폰이 카메라 이동 모드(흔들기 모드 또는 이동 모드)에 진입하도록 지시하는 다른 방식이 또한 실현가능하다는 것이 이해될 수 있다. 예를 들어, 모바일 폰이 흔들기 모드 또는 이동 모드에 진입하도록 지시하는 데 음성 명령(voice instruction)이 사용된다. 이것은 본 출원의 이 실시예에서 제한되지 않는다. 다음은 설명을 위한 예로 방식 1을 사용한다.
실시예 1
예를 들어, 도 16은 모바일 폰이 이동 모드에 진입하는 경우 디스플레이되는 GUI의 개략도이다. 사용자가 현재 모드를 결정하는 것을 돕기 위해, 모바일 폰이 이동 모드에 진입하는 경우, 모바일 폰은 뷰파인더 인터페이스 상에 프롬프트 정보(1312)를 디스플레이할 수 있다. 프롬프트 정보(1312)는, 모바일 폰이 현재 이동 모드에 있다는 것을 지시하기 위해 사용된다. 물론, 모바일 폰이 일반 비디오 레코딩 모드에서 이동 모드로 전환하는 경우, 모바일 폰은 다른 프롬프트 예를 들어, 진동 피드백을 또한 출력할 수 있다. 프롬프트 정보(1312)는 미리보기 이미지가 최대한 차단되지 않는 방식으로, 예를 들어 반투명 방식 또는 투명 방식으로 디스플레이될 수 있다. 방향 컨트롤(1311)이 뷰파인더 인터페이스 상에 또한 디스플레이된다. 사용자는, 방향 컨트롤(1311)을 사용하여, 이미지의 이동 방향을 지시하는데 사용되는 정보를 입력할 수 있다. 뷰파인더 인터페이스 상의 방향 컨트롤(1311)의 디스플레이 포지션은 본 출원의 이 실시예에서 제한되지 않는다는 것이 이해되어야 한다. 예를 들어, 방향 컨트롤(1311)은 디폴트에 의해 도 16에 도시된 포지션에 디스플레이되거나, 사용자가 방향 컨트롤(1311)의 디스플레이 포지션을 조정할 수 있다.
일부 실시예에서, 모바일 폰은 일반 비디오 레코딩 모드에서 제1 광각 카메라(예를 들어, 일반 광각 카메라)를 사용한다. 일반 비디오 레코딩 모드에서 이동 모드로 전환하는 경우, 모바일 폰이 제2 광각 카메라(예를 들어, 초광각 카메라)를 작동시킨다. 제1 광각 카메라의 화각은 제2 광각 카메라의 화각보다 작다. 제1 미리보기 이미지는 이동 모드에서 뷰파인더 인터페이스 상에 디스플레이된다. 제1 미리보기 이미지는 초광각 카메라에 의해 캡처된 이미지 상의 제1 영역에 있는 제1 이미지 블록이다. 이동 모드 진입 후 모바일 폰이 초광각 카메라를 작동시킨다는 것이 이해될 수 있다. 이 경우에, 제1 미리보기 이미지는 초광각 카메라에 의해 캡처된 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록일 수 있다.
제1 이미지 블록은, 제1 미리보기 이미지에 대응하며 초광각 카메라에 의해 캡처된 이미지 상에 있는 이미지 블록일 수 있다. 예를 들어, 제1 이미지 블록은 초광각 카메라에 의해 캡처된 이미지와 일반 광각 카메라에 의해 캡처된 이미지 사이의 중첩 화각 범위에 있는 이미지의 전부 또는 일부일 수 있다. 도 17은 초광각 카메라에 의해 캡처된 이미지 상의 제1 영역의 개략도이다. 제1 영역은 초광각 카메라와 일반 광각 카메라 사이의 중첩 화각 범위의 전부 또는 일부일 수 있다. 도 17과 도 18을 비교하여, 미리보기 이미지는, 모바일 폰이 도 17에서 이동 모드에 진입한 후 도 18에서 제1 영역에 있는 제1 이미지 블록인 것을 알 수 있다. 모바일 폰은, 일반 비디오 레코딩 모드에서 이동 모드로 전환한 후 일반 광각 카메라를 닫거나 열 수 있다.
일부 실시예에서, 모바일 폰이 일반 비디오 레코딩 모드에서 이동 모드로 전환하는 경우, 미리보기 이미지는 변경되지 않는다. 미리보기 이미지가 변경되지 않는다는 것은, 모바일 폰이 이동 모드로 전환된 후에 미리보기 이미지가 축소 또는 확대되지 않은 것으로 이해될 수 있다. 예를 들어, 이동 모드에서 미리보기 이미지의 배율과 일반 비디오 레코딩 모드에서 미리보기 이미지의 배율은 동일하며, 예를 들어 둘 다 1X이다. 따라서, 모바일 폰이 일반 비디오 레코딩 모드에서 이동 모드로 전환된 후, 사용자는 미리보기 이미지가 갑자기 확대 또는 축소된 것을 인지하지 못한다.
일부 다른 실시예에서, 미리보기 이미지는 일반 비디오 레코딩 모드 및 이동 모드에서 변경될 수 있다. 미리보기 이미지가 변경된다는 것은, 모바일 폰이 이동 모드로 전환한 후에 미리보기 이미지가 축소 또는 확대된 것으로 이해될 수 있다. 예를 들어, 일반 비디오 레코딩 모드에서 미리보기 이미지의 배율은 1X이고, 그리고 이동 모드에서 미리보기 이미지의 배율은 5X이다. 구체적으로는, 모바일 폰이 일반 비디오 레코딩 모드에서 이동 모드로 전환하는 경우, 미리보기 이미지가 확대된다. 모바일 폰이 이동 모드로 전환한 후 이미지 배율이 증가되는 경우, 초광각 카메라에 의해 캡처된 이미지 상의 제1 영역에서 포지션 이동 범위가 넓어지는 것으로 이해될 것이다. 이것은 비교적 넓은 범위 내에서 렌즈를 이동시키는 촬영 효과를 얻을 수 있다.
다음의 실시예는 이동 모드에서 모바일 폰이 이미지 병진이동을 구현하는 프로세스를 설명한다.
도 18을 참조하면, 초광각 카메라는 N개 프레임의 이미지, 예를 들어 제1 프레임의 이미지, 제2 프레임의 이미지 및 (m-1)번째 프레임의 이미지를 캡처한다. 이동 모드 진입 후 모바일 폰이 초광각 카메라를 작동시킨다는 것이 이해될 수 있다. 이 경우에, 모바일 폰이 이동 모드에 진입한 후 디스플레이되는 제1 미리보기 이미지는, 초광각 카메라에 의해 캡처된 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록일 수 있다. 모바일 폰이 이미지 이동 명령을 검출하지 못했다고 가정하면, 모바일 폰은 제2 프레임의 이미지 상의 제2 영역을 결정한다. 제2 영역의 포지션은 제1 영역의 포지션에 대해 이동하지 않고, 미리보기 이미지는 제1 영역에 있는 이미지 블록에서 제2 영역에 있는 이미지 블록으로 업데이트된다. 유사하게, (m-1)번째 프레임의 이미지 상의 (m-1)번째 영역의 포지션은 제1 영역의 포지션에 대해 이동하지 않으며, 여기서 m은 3 이상의 정수일 수 있다. 미리보기 이미지는 (m-1)번째 영역에 있는 이미지 블록으로 업데이트된다. 즉, 모바일 폰은 제1 프레임의 이미지부터 (m-1)번째 프레임의 이미지까지의 기간에서 이미지 이동 명령을 검출하지 못한다. 따라서, 이미지 상의 미리보기 이미지의 포지션은 변경되지 않는다.
미리보기 이미지가 m번째 프레임의 이미지 상의 m번째 영역에 있는 이미지 블록으로 업데이트되기 전에 (예를 들어, 미리보기 이미지가 (m-1)번째 영역에 있는 이미지 블록으로 디스플레이되는 프로세스에서) 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지 상의 m번째 영역을 결정하고, 여기서 m번째 영역의 포지션은 (m-1)번째 영역의 포지션에 대해 거리(A)만큼 오른쪽방향으로 이동한다. 도 18에 도시된 바와 같이, (m-1)번째 영역과 왼쪽 이미지 에지 사이의 거리는 H이고, m번째 영역과 왼쪽 이미지 에지 사이의 거리는 H+A이다. 이 경우에, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 뷰파인더 인터페이스 상의 미리보기 이미지가 (m-1)번째 영역에 있는 이미지 블록에서 m번째 영역에 있는 이미지 블록으로 업데이트되며, 구체적으로는, 미리보기 이미지는 이미지 상의 거리(A)만큼 오른쪽방향으로 이동한다.
그 다음, 모바일 폰은 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역을 결정하고, 여기서 (m+1)번째 영역의 포지션은 m번째 영역의 포지션에 대해 거리(B)만큼 오른쪽방향으로 이동한다. 도 18에 도시된 바와 같이, m번째 영역과 왼쪽 이미지 에지 사이의 거리는 H+A이고, (m+1)번째 영역과 왼쪽 이미지 에지 사이의 거리는 H+A+B이다. 이 경우에, 뷰파인더 인터페이스 상의 미리보기 이미지는 m번째 영역에 있는 이미지 블록에서 (m+1)번째 영역에 있는 이미지 블록으로 업데이트되며, 구체적으로 미리보기 이미지는 이미지 상의 거리(B)만큼 오른쪽방향으로 이동한다.
모바일 폰은 (m+2)번째 프레임의 이미지 상의 (m+2)번째 영역을 결정하고, 여기서 (m+2)번째 영역의 포지션은 (m+1)번째 영역의 포지션에 대해 거리(C)만큼 오른쪽방향으로 이동한다. 도 18에 도시된 바와 같이, (m+1)번째 영역과 왼쪽 이미지 에지 사이의 거리는 H+A+B이고, (m+2)번째 영역과 왼쪽 이미지 에지 사이의 거리는 H+A+B+C이다. 이 경우에, 뷰파인더 인터페이스 상의 미리보기 이미지는 (m+1)번째 영역에 있는 이미지 블록에서 (m+2)번째 영역에 있는 이미지 블록으로 업데이트되며, 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 거리(C)만큼 오른쪽방향으로 이동한다. 따라서, 미리보기 이미지는 이미지 상에서 점차 오른쪽방향으로 이동한다.
모바일 폰이 이동 정지 명령을 검출한다고 가정하면, 모바일 폰은 (m+3)번째 프레임의 이미지 상의 (m+3)번째 영역을 결정하고, 여기서 (m+3)번째 영역의 포지션은 (m+2)번째 영역의 포지션에 비해 변하지 않는다. 미리보기 이미지는 (m+2)번째 영역에 있는 이미지 블록에서 (m+3)번째 영역에 있는 이미지 블록으로 업데이트되며, 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 변하지 않는다. 이 경우에, 오른쪽방향으로 이동은 정지한다. 그 다음, 미리보기 이미지는 (m+3)번째 영역에 있는 이미지 블록에서 (m+4)번째 영역에 있는 이미지 블록으로 업데이트되고, 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 이미지 이동 명령이 다시 검출되고 이동이 계속될 때까지 변경되지 않고 유지된다.
A, B, C 사이에는 복수의 값 관계가 있다. 다음은 몇 가지 예를 제공한다.
예 1: A=B=C. A=B=C=L이라는 것이 가정된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 각각의 프레임의 이미지 상의 타깃 영역(예를 들어, 도 18에서 m번째 영역, (m+1)번째 영역, 및 (m+2)번째 영역)의 포지션은 동일한 거리(L)만큼 오른쪽방향으로 이동하고, 구체적으로는, 이전 프레임의 이미지 상의 타깃 영역의 속도에 대해 일정한 속도로 오른쪽방향으로 이동한다. 이 경우에, 일정한 오른쪽방향으로 이동이 수행된다. 즉, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지의 이전 프레임에 대한 이미지 상의 각각의 업데이트된 미리보기 이미지의 포지션은, 이동 중지 명령이 검출될 때까지 동일한 거리(L)만큼 오른쪽방향으로 이동한다. 이것은 일정한 오른쪽방향으로 이동의 촬영 효과를 달성한다.
예 2: A<B<C<D. A=L, B=2L, C=3L인 것이 가정된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 다음 프레임의 이미지 상의 타깃 영역은 이전 프레임의 이미지 상의 타깃 영역에 비해 가속된 속도로 오른쪽방향으로 이동한다. 예를 들어, m번째 영역은 (m-1)번째 영역에 대해 거리(L)만큼 오른쪽방향으로 이동하며; (m+1)번째 영역은 m번째 영역에 대해 거리(2L)만큼 오른쪽방향으로 이동하고, 구체적으로는, (m+1)번째 영역은 가속된 속도로 오른쪽방향으로 이동하며; 그리고 (m+2)번째 영역은 (m+1)번째 영역에 대해 거리(3L)만큼 오른쪽방향으로 이동하고, 구체적으로는, (m+2)번째 영역은 (m+1)번째 영역에 비해 가속된 속도로 오른쪽방향으로 이동한다. 따라서, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 업데이트된 각각의 미리보기 이미지는 미리보기 이미지의 이전 프레임에 비해 가속된 속도로 오른쪽방향으로 이동한다. 이것은 가속된 이미지 오른쪽방향으로 이동의 촬영 효과를 달성한다.
예 3: A>B>C>D. A=2L, B=L, C=0인 것이 가정된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 다음 프레임의 이미지 상의 타깃 영역은 이전 프레임의 이미지 상의 타깃 영역에 비해 감속된 속도로 오른쪽방향으로 이동한다. 예를 들어, m번째 영역은 (m-1)번째 영역에 대해 거리(2L)만큼 오른쪽방향으로 이동하며; (m+1)번째 영역은 m번째 영역에 대해 거리(L)만큼 오른쪽방향으로 이동하고, 구체적으로는, (m+1)번째 영역은 m번째 영역에 비해 감속된 속도로 오른쪽방향으로 이동하며; 그리고 (m+2)번째 영역은 (m+1)번째 영역에 대해 거리(0)만큼 오른쪽방향으로 이동하고, 구체적으로는, (m+2)번째 영역은 (m+1)번째 영역에 비해 감속된 속도로 오른쪽방향으로 이동한다. 이 경우에, 이동이 중지된다. 따라서, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 각각의 업데이트된 미리보기 이미지는 속도가 0으로 감소하더라도 이전 프레임의 미리보기 이미지에 비해 감속된 속도로 오른쪽방향으로 이동한다. 이것은 감속된 이미지 오른쪽방향으로 이동의 촬영 효과를 달성한다.
전술한 것은 A, B, C 간의 값 관계에 대한 세 가지 예를 제공한다. A, B 및 C의 값은 본 출원의 이 실시예에서 제한되지 않으며, 상이한 기술적 효과를 얻기 위해 당업자에 의해 유연하게 설정될 수 있다.
일부 실시예에서, 모바일 폰이 이미지 이동 방향을 지시하는데 사용되는 명령을 검출한 후, 예 1, 예 2 또는 예 3의 방식이 디폴트에 의해 사용된다. 대안적으로, 모바일 폰이 이미지 이동 방향을 지시하는 데 사용되는 명령을 검출한 후, 예 1의 방식이 디폴트에 의해 사용되며; 모바일 폰이 가속된 이동 명령을 검출하는 경우, 예 2의 방식이 사용되고; 그리고 모바일 폰이 감속된 이동 명령을 검출하는 경우, 예 3의 방식이 사용된다.
제1 방식:
초광각 카메라는 프레임단위로 이미지를 캡처한다. N개 프레임의 이미지가 캡처되고, 그리고 미리보기 이미지가 N개 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록에 순차적으로 업데이트된다는 것이 가정된다. 또한, 모바일 폰은 초광각 카메라에 의해 캡처된 N개 프레임의 이미지 상에 프레임 추출 또는 프레임 삽입 프로세싱을 수행하지 않고, N개 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록에 미리보기 이미지를 순차적으로 업데이트한다는 것이 이해될 수 있다. 이것은 미리보기 이미지의 연속성과 매끄러움을 향상하는 데 도움이 된다. 이미지 이동 방향을 지시하는데 사용된 명령을 검출한 후, 모바일 폰이 도 18에서 A=B=C=L인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 일정한 속도로 오른쪽방향으로 이동한다. 모바일 폰이 도 18에서 A<B<C<D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 가속된 속도로 오른쪽방향으로 이동한다. 모바일 폰이 A>B>C>D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 감속된 속도로 오른쪽방향으로 이동한다.
제2 방식:
초광각 카메라는 N개 프레임의 이미지를 캡처한다. 모바일 폰은 초광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터 M개 프레임의 이미지를 추출하고 ―M은 N보다 작은 정수임―; 그리고 각각의 M개 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록을 사용하여 미리보기 이미지를 업데이트한다. 이것은 빠른 업데이트(또는 재생) 효과를 얻을 수 있다. 예를 들어, 초광각 카메라의 이미지 캡쳐 프레임레이트가 240fps, 구체적으로 초당 240프레임의 이미지가 캡쳐된다는 것이 가정된다. 또한, 모바일 폰의 이미지 재생(또는 업데이트로 지칭됨) 프레임레이트가 30fps, 구체적으로 초당 30프레임씩 업데이트를 수행한다는 것이 가정된다. 이 경우에, 240프레임의 이미지를 8초 내에 업데이트해야 한다. 모바일 폰이 240프레임의 이미지로부터 120프레임의 이미지를 추출한다고 가정하면, 추출된 120프레임은 단 4초 만에 업데이트된다. 이것은 빠른 업데이트 효과를 달성한다.
예 1: 도 19a를 참조하면, 초광각 카메라는 N개 프레임의 이미지, 예를 들어 제1 프레임의 이미지, 제2 프레임의 이미지 및 (m-1)번째 프레임의 이미지를 순차적으로 캡처한다. 미리보기 이미지가 m번째 프레임의 이미지 상의 m번째 영역으로 업데이트되기 전에 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 모바일 폰은 N개 프레임의 이미지에서 m번째 프레임의 이미지의 타깃 영역과 각각 후속 프레임의 이미지 상의 타깃 영역을 결정한다. 다음 프레임의 이미지 상의 타깃 영역의 포지션은 이전 프레임의 이미지 상의 타깃 영역의 포지션에 대해 동일한 거리(L)만큼 (즉, A=B=C=L인 전술한 방식으로) 오른쪽방향으로 이동한다는 것이 가정된다.
그 다음, 모바일 폰은 프레임 추출을 시작한다. m번째 프레임으로부터 프레임 추출을 시작하고, m번째 프레임, (m+i)번째 프레임및 (m+i+j)번째 프레임이 추출된다는 것이 가정된다. m번째 프레임상의 m번째 영역은 (m-1)번째 프레임에 대해 거리(L)만큼 오른쪽방향으로 이동하고, (m+i)번째 프레임의 이미지 상의 (m+i)번째 영역은 m번째 프레임에 대해 거리(iL)만큼 오른쪽방향으로 이동하고, 그리고 (m+i+j)번째 프레임의 이미지 상의 (m+i+j)번째 영역은 (m+i)번째 프레임에 대해 거리(jL)만큼 오른쪽방향으로 이동한다.
계속해서 도 19a를 참조하면, 미리보기 이미지가 (m+i+j) 영역에 있는 이미지 블록으로 디스플레이되는 프로세스에서 모바일 폰이 이미지 이동 중지 명령을 검출한다고 가정하면, 모바일 폰은 (m+i+j+1)번째 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록, (m+i+j+2)번째 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록 등을 사용하여 미리보기 이미지를 계속해서 업데이트한다. 구체적으로는, 모바일 폰이 이미지 이동 중지 명령을 검출한 후, 업데이트는 프레임 추출을 수행하지 않고 수행되며, 이미지 상의 (m+i+j)번째 영역에 대해 (m+i+j+1)번째 프레임의 이미지 또는 (m+i+j+2)번째 프레임의 이미지와 같은 이미지 상의 타깃 영역의 포지션은 변경되지 않고 유지되며 즉, 이동하지 않는다. 즉, 모바일 폰이 이미지의 이동 방향을 지시하는데 사용되는 명령을 검출한 후, 미리보기 이미지는 프레임 추출을 통해 업데이트되고 그리고 이미지 상의 미리보기 이미지의 포지션이 이미지 이동 방향으로 점차 이동한다. 모바일 폰이 이미지 이동 중지 명령을 검출한 후, 프레임 추출을 통한 프로세싱이 수행되지 않고 그리고 이미지 상의 미리보기 이미지의 포지션은 이동하지 않는다.
계속해서 도 19a가 예로 사용된다. i와 j의 값은 프레임 추출 간격으로 이해될 수 있으며 i와 j의 상이한 값은 상이한 촬영 효과를 달성한다.
i=j인 것이 가정되며, 이는 프레임 추출 간격이 동일한 것으로 이해될 수 있다. 예를 들어, i=j=2, 구체적으로 매 프레임마다 하나의 프레임이 추출되거나 두 프레임마다 하나의 프레임이 추출된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지는 m번째 영역에 있는 이미지 블록, (m+2)번째 영역에 있는 이미지 블록, (m+4)번째 영역에 있는 이미지 블록 등으로 순차적으로 업데이트된다. m번째 영역은 (m+2)번째 영역에 대해 2L만큼 오른쪽방향으로 이동하고, 그리고 (m+4)번째 영역은 (m+2)번째 영역에 대해 2L만큼 오른쪽방향으로 이동한다. 구체적으로는, 각각 업데이트된 미리보기 이미지의 포지션은 이미지 상의 이전 프레임의 미리보기 이미지의 포지션에 대해 2L만큼 오른쪽방향으로 이동한다. 도 18에서 A=B=C=L인 경우와의 비교를 통해, 도 19a에 도시된 실시예에서, 이미지 상의 미리보기 이미지의 포지션은 프레임 추출을 통해 일정한 속도로 비교적 빠르게 오른쪽방향으로 이동할 수 있다(매회 2L만큼 오른쪽방향으로 이동할 수 있음). 게다가, 프레임 추출 업데이트는 빠른 업데이트 효과를 달성할 수 있다. 즉, 이미지 상에서 미리보기 이미지의 포지션은 일정한 속도로 비교적 빠르게 오른쪽방향으로 이동하면서, 미리보기 이미지가 비교적 빠르게 업데이트된다.
물론, 프레임 추출 간격은 대안적으로 상이할 수 있는데 즉, i는 j와 동일하지 않다. i<j, 예를 들어 i=2, j=3라는 것이 가정된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지는 m번째 영역, (m+2)번째 영역, (m+5)번째 영역 등에 있는 이미지 블록으로 순차적으로 업데이트된다. (m+2)번째 영역은 m번째 영역에 대해 2L만큼 오른쪽방향으로 이동하고, 그리고 (m+5)번째 영역은 (m+2)번째 영역에 대해 3L만큼 오른쪽방향으로 이동한다. 따라서, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 각각 업데이트된 미리보기 이미지의 포지션은 이미지 상의 이전 프레임의 미리보기 이미지의 포지션에 대해 가속된 속도로 오른쪽방향으로 이동한다. 게다가, 프레임 추출 업데이트는 빠른 업데이트 효과를 달성할 수 있다. 즉, 이미지 상의 미리보기 이미지의 포지션은 가속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지는 비교적 빠르게 업데이트된다.
i>j, 예를 들어 i=3, j=2라는 것이 가정된다. 구체적으로는, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지는 m번째 영역, (m+3)번째 영역, (m+5)번째 영역 등에 있는 이미지 블록으로 순차적으로 업데이트된다. (m+3)번째 영역은 m번째 영역에 대해 3L만큼 오른쪽방향으로 이동하고, 그리고 (m+5)번째 영역은 (m+3)번째 영역에 대해 2L만큼 오른쪽방향으로 이동한다. 따라서, 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 각각 업데이트된 미리보기 이미지의 포지션은 이미지 상의 이전 프레임의 미리보기 이미지의 포지션에 대해 감속된 속도로 오른쪽방향으로 이동한다. 게다가, 프레임 추출 업데이트는 빠른 업데이트 효과를 달성할 수 있다. 즉, 이미지 상의 미리보기 이미지의 포지션은 감속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지는 비교적 빠르게 업데이트된다.
전술한 내용은 i와 j 사이의 값 관계의 세 가지 예를 제공한다. 값(i 및 j)은 본 출원의 이 실시예에서 제한되지 않으며, 상이한 기술적 효과를 얻기 위해 당업자에 의해 유연하게 설정될 수 있다.
예 2: 위의 예 1에서, 모바일 폰은 먼저 각각의 프레임의 이미지상의 타깃 영역을 결정한 다음, 프레임 추출을 수행한다. 예 2에서, 모바일 폰은 먼저 프레임 추출을 수행한 다음, 추출된 프레임의 이미지 상의 타깃 영역을 결정할 수 있다. 도 19b를 참조하면, 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지로부터 프레임 추출을 시작하여 M개의 프레임의 이미지를 획득한다. 이미지 프레임 추출 간격은 본원에서 제한되지 않는다. 모바일 폰은 각각의 M개의 프레임의 이미지 상의 타깃 영역을 결정한다. 각각의 M개의 프레임의 이미지 상의 타깃 영역을 결정하는 방식에 대해서는, 도 18의 설명을 참조한다. 상세사항은 본원에서 다시 설명되지 않는다. 모바일 폰이 A=B=C=L인 방식으로 M개의 프레임의 이미지 각각에서 타깃 영역을 결정한다고 가정하면, 프레임 추출 업데이트가 빠른 업데이트 효과를 달성할 수 있기 때문에, 이미지 상의 미리보기 이미지의 포지션이 일정한 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지는 비교적 빠르게 업데이트된다. 모바일 폰이 도 18에서 A<B<C<D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 가속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지가 비교적 빠르게 업데이트된다. 모바일 폰이 A>B>C>D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 감속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지가 비교적 빠르게 업데이트된다.
도 19a는 단지 예로 사용된다는 것이 주목되어야 한다. 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 가속된 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 미리보기 이미지는 전술한 제1 방식으로 업데이트되고, 구체적으로는, 프레임 추출을 수행하지 않고 m번째 영역, (m+1)번째 영역, (m+2)번째 영역 등의 이미지 블록으로 순차적으로 업데이트된다. 미리보기 이미지가 (m+i+j+1)번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 이동 중지 명령을 검출한다고 가정하면, 비디오가 생성되고, 비디오는 m번째 프레임으로부터 (m+i+j+1)번째 프레임까지 추출된 이미지 상의 타깃 영역에 있는 이미지 블록을 합성함으로써 획득된다. 예를 들어, m번째 영역, (m+i)번째 프레임, 및 (m+i+j)번째 프레임이 추출되면, 비디오는 m번째 영역, (m+i)번째 영역 및 (m+i+j)번째 영역에 있는 이미지 블록을 합성함으로써 획득되는 비디오일 수 있다. 즉, 모바일 폰이 가속된 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지는 프레임 추출을 수행하지 않고 업데이트된다. 모바일 폰이 오른쪽방향으로 이동 정지 명령을 검출한 후, 생성된 비디오는 추출된 이미지 상의 타깃 영역에 있는 이미지 블록을 합성함으로써 획득되는 비디오일 수 있다. 프레임 추출을 수행하지 않고 미리보기 이미지를 업데이트하는 방식은 계산량을 줄이고 효율성을 향상시킬 수 있다.
제3방식 :
초광각 카메라는 N개 프레임의 이미지를 캡처한다. 모바일 폰은 M개 프레임의 이미지를 획득하기 위해 N개 프레임의 이미지에 복수의 프레임의 이미지를 삽입하고―M은 N보다 큰 정수임― 그리고 M개의 프레임의 이미지를 사용하여 미리보기 이미지를 순차적으로 업데이트한다. 이미지의 양이 증가하기 때문에 느린 업데이트(또는 재생) 효과가 얻어질 수 있다. 예를 들어, 초광각 카메라의 이미지 캡쳐 프레임레이트가 240fps, 구체적으로는, 초당 240프레임의 이미지가 캡쳐된다는 것이 가정된다. 또한, 모바일 폰의 이미지 업데이트(또는 재생으로 지칭됨) 프레임레이트가 30fps, 구체적으로 초당 30프레임씩 업데이트가 수행된다는 것이 가정된다. 이 경우에, 240프레임의 이미지가 8초 내에 업데이트되어야 한다. 모바일 폰이 240프레임의 이미지에 120프레임의 이미지를 삽입한다고 가정하면, 획득한 360프레임의 이미지가 단 12초 만에 업데이트된다. 이것은 느린 업데이트 효과를 달성한다.
예 1: 도 19c를 참조하면, 초광각 카메라는 N개 프레임의 이미지, 예를 들어 제1 프레임의 이미지, 제2 프레임의 이미지 및 (m-1)번째 프레임의 이미지를 순차적으로 캡처한다. 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지 상의 타깃 영역 및 각각의 후속 프레임의 이미지 상의 타깃 영역을 결정하고, 다음 프레임의 이미지 상의 타깃 영역의 포지션은 이전 프레임의 이미지 상의 타깃 영역의 포지션에 대해 동일한 거리(L)만큼 오른쪽방향으로 이동한다.
그 다음, 모바일 폰은 프레임 삽입을 시작한다. 모바일 폰이 m번째 프레임과 (m+1)번째 프레임 사이에, P-프레임의 이미지(삽입된 이미지는 점선으로 표현됨)를 삽입하고, (m+1)번째 프레임과 (m+2)번째 프레임 사이에, Q-프레임의 이미지를 삽입한다(P와 Q는 동일하거나 상이할 수 있음)는 것이 가정된다.
P=Q=1이라고 가정하면, 매 프레임마다 하나의 프레임이 삽입된다. 모바일 폰은 P번째 프레임의 이미지(즉, m번째 프레임과 (m+1)번째 프레임사이에, 삽입된 하나의 프레임의 이미지) 상의 P번째 영역을 결정할 수 있다. P번째 영역은 m번째 영역에 대해 거리(X)만큼 오른쪽방향으로 이동한다. X의 값은 본 출원의 이 실시예에서 제한되지 않는다. 예를 들어, X는 L 내지 2L, 예를 들어 1.5L의 범위일 수 있다. 모바일 폰은 Q번째 프레임의 이미지(즉, (m+1)번째 프레임과 (m+2)번째 프레임사이에, 삽입된 하나의 프레임의 이미지) 상의 Q번째 영역을 결정한다. Q번째 영역은 (m+1)번째 영역에 대해 Y만큼 오른쪽방향으로 이동한다. Y의 값은 본 출원의 이 실시예에서 제한되지 않는다. 예를 들어, Y는 2L 내지 3L, 예를 들어 2.5L의 범위일 수 있다.
예를 들어, X=1.5L 그리고 Y=2.5L이다. 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한 후, 미리보기 이미지는 m번째 영역, P번째 영역, (m+1)번째 영역, Q번째 영역 등으로 순차적으로 업데이트된다. 따라서, 각각 업데이트된 미리보기 이미지는 오른쪽방향으로 0.5L만큼 이동한다. 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 일정한 속도로 오른쪽방향으로 비교적 천천히 이동한다. 게다가, 프레임 삽입 업데이트는 미리보기 이미지가 느리게 업데이트되는 효과를 얻을 수 있다. 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 일정한 속도로 오른쪽방향으로 비교적 느리게 이동하면서, 미리보기 이미지는 비교적 느리게 업데이트될 수 있다.
X와 Y의 값은 이미지의 오른쪽방향으로 이동 속도와 관련된다는 것이 이해될 수 있다. 이는 본 출원의 이 실시예에서 제한되지 않는다. P와 Q 사이의 값 관계는 이 분야의 기술에서 유연하게 설정되어 상이한 효과를 얻을 수 있다.
(m+2)번째 영역에 있는 이미지 블록이 미리보기 이미지로 디스플레이되는 프로세스에서 모바일 폰이 이미지 이동 중지 명령을 검출한다고 가정하면, 모바일 폰은 (m+3)번째 프레임의 이미지 상의 (m+3)번째 영역에 있는 이미지 블록을 결정하고, (m+4)번째 프레임의 이미지 상의 (m+4)번째 영역에 있는 이미지 블록 등을 결정한다는 것이 이해될 수 있다. 구체적으로는, 모바일 폰이 이미지 이동 정지 명령을 검출한 후, 모바일 폰은 프레임 삽입을 수행하지 않고, 이미지 상의 미리보기 이미지의 포지션이 이동하지 않는다.
예 2: 위의 예 1에서, 모바일 폰은 먼저 각각의 프레임의 이미지상의 타깃 영역을 결정한 다음, 프레임 삽입을 수행한다. 예 2에서, 모바일 폰은 먼저 프레임 삽입을 수행한 다음, 타깃 영역을 결정할 수 있다. 도 19d를 참조하면, 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 이미지 오른쪽방향으로 이동 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지로부터 프레임 삽입을 시작하여 M개의 프레임의 이미지를 획득한다. 두 개의 인접한 프레임의 이미지 사이에, 삽입되는 이미지 프레임의 양은 본원에서 제한되지 않는다. 인접한 두 프레임사이에, 하나의 프레임을 삽입하는 예가 사용된다. 도 19d에 도시된 바와 같이, 점선 이미지는 삽입된 이미지이다. 모바일 폰이 각각 M개의 프레임의 이미지 상의 타깃 영역을 결정하는 방식에 대해서는, 도 18의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다. 모바일 폰이 A=B=C=L인 방식으로 각각의 M개의 프레임의 이미지 상의 타깃 영역을 결정한다고 가정하면, 프레임 삽입 업데이트가 느린 업데이트 효과를 달성할 수 있기 때문에, 이미지 상의 미리보기 이미지의 포지션이 일정한 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지는 비교적 느리게 업데이트된다. 모바일 폰이 A<B<C<D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 가속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지가 비교적 느리게 업데이트된다. 모바일 폰이 A>B>C>D인 방식으로 타깃 영역을 결정한다고 가정하면, 이미지 상의 미리보기 이미지의 포지션은 감속된 속도로 오른쪽방향으로 이동하면서, 미리보기 이미지가 비교적 느리게 업데이트된다.
일부 실시예에서, 모바일 폰이 이미지 이동 방향을 지시하는 데 사용되는 명령을 검출한 후, 모바일 폰은 디폴트에 의해 전술한 제1 방식으로 프로세싱을 수행하고, 디폴트에 의해 전술한 제1 방식에서 A=B=C=L인 방식으로 타깃 영역을 결정하며, 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 일정한 속도로 오른쪽방향으로 이동한다. 모바일 폰이 가속된 이동 명령을 검출하는 경우, 모바일 폰은 전술한 제1 방식에서 A<B<C<D인 방식으로 타깃 영역을 결정할 수 있거나, 전술한 제2 방식에서 예 1의 프레임 삽입 방식으로 가속된 이동을 구현할 수 있다. 모바일 폰이 감속된 이동 명령을 검출하면, 모바일 폰은 전술한 제1 방식에서 A>B>C>D인 방식으로 타깃 영역을 결정할 수 있거나, 전술한 제3 방식에서 예 1의 프레임 삽입 방식으로 감속된 이동을 구현할 수 있다.
상이한 프레임의 이미지 상의 타깃 영역의 포지션이 이동하는 프로세스에서 측면이 정렬될 수 있다는 점에 주목해야 한다. 계속해서 도 18이 예로 사용된다. 제1 영역과 제2 영역의 측면이 정렬된다. 예를 들어, 제1 영역의 최하부 측과 제1 프레임의 이미지의 최하부 측 사이의 거리는 제2 영역의 최하부 측과 제2 프레임의 이미지의 최하부 측 사이의 거리와 동일하여, 가능한 한 미리보기 이미지의 안정적인 디스플레이를 보장한다. 일부 실시예에서, 지터는 사용자가 모바일 폰을 잡고 있는 프로세스에서 발생한다. 사용자의 지터에 의해 유발되는 미리보기 이미지의 불안정성을 완화하기 위해, 일 구현은 다음과 같다: 모바일 폰은 초광각 카메라에 의해 캡처된 이미지에 대해 이미지 안정화(image stabilization)를 수행하고, 이미지 안정화 후 획득된 이미지 상의 제1 영역, 제2 영역 또는 제3 영역과 같은 타깃 영역을 결정한다. 이미지 안정화는 이미지 안정화 클립핑일 수 있다. 일반적으로, 사용자가 지터를 하면, 미리보기 이미지 상의 에지 영역의 이미지가 비교적 빠르게 변하여 결과적으로 불안정하고, 미리보기 이미지의 중간 영역의 이미지는 비교적 약간 변하여 비교적 안정적이다. 따라서, 모바일 폰은 초광각 카메라에 의해 캡처된 각각의 프레임의 이미지의 에지를 클립핑할 수 있다. 특정 클립핑 면적(area)은 본 출원의 이 실시예에서 제한되지 않는다. 예를 들어, 모바일 폰은 제1 프레임의 이미지가 클립핑된 후 획득된 나머지 이미지 상의 제1 영역을 결정하고, 제2 프레임의 이미지가 클립핑된 후 획득된 나머지 이미지 상의 제2 영역을 결정하며, 제3 프레임의 이미지가 클립핑된 후 획득된 나머지 이미지 상의 제3 영역을 결정한다. 따라서, 미리보기 이미지는 시각적으로 비교적 안정적으로 디스플레이된다.
또 다른 가능한 구현은 다음과 같다: 모바일 폰은 제1 프레임의 이미지 상의 제1 영역을 결정할 수 있고, 제1 영역에서 제1 이미지 블록에 대해 이미지 안정화 클립핑을 수행할 수 있다. 예를 들어, 제1 이미지 블록의 에지가 클립핑되고 그리고 제1 이미지 블록의 에지가 클립핑된 후 획득된 나머지 이미지가 미리보기 이미지로 디스플레이된다. 마찬가지로, 모바일 폰은 제2 프레임의 이미지 상의 제2 영역을 결정할 수 있고, 제2 영역에 있는 제2 이미지 블록에 대해 이미지 안정화 클립핑 등을 수행할 수 있다. 즉, 모바일 폰은 먼저 각각의 프레임의 이미지 상의 타깃 영역에 있는 이미지 블록을 결정한 다음, 이미지 안정화 클립핑을 수행한다.
전술한 내용은 사용자가 이미지 이동 방향을 지시하는 데 사용되는 명령을 입력하는 복수의 방식에 대해 언급하고 있다. 이는, 다음 수개의 예가 포함되지만 이에, 제한되지 않는다.
예 1: 도 16을 참조하면, 뷰파인더 인터페이스는 방향 컨트롤(1311)을 더 포함한다. 방향 컨트롤(1311)은 비디오 레코딩 컨트롤(1307) 주위에 분포된 4개의 화살표를 포함할 수 있다. 사용자가 화살표를 탭핑(예를 들어, 한 번 탭핑)하는 조작을 모바일 폰이 검출하는 경우, 모바일 폰은 화살표에 의해 지시되는 방향으로 제1 영역을 이동하기 시작한다. 예를 들어, 사용자가 오른쪽 화살표를 탭핑하면, 이미지 상의 미리보기 이미지의 포지션이 오른쪽방향으로 이동하기 시작한다. 모바일 폰이 뷰파인더 인터페이스 상의 임의의 포지션에서 사용자의 탭핑 조작을 검출하는 경우 이동이 중지되거나, 모바일 폰이 오른쪽 화살표를 다시 검출하는 경우 이동이 중지되거나, 특정 시간 기간 후에 이동이 자동으로 중지된다.
예 2: 도 16을 참조하면, 사용자가 화살표를 누른 지속시간이 미리설정된 지속시간에 도달했음을 모바일 폰이 검출하는 경우, 모바일 폰은 화살표에 의해 지시되는 방향으로 제1 영역을 이동하기 시작한다. 사용자가 터치 앤 홀드 조작 후 업리프트를 검출하는 경우, 이동이 중지된다.
예 3: 도 16을 참조하면, 사용자가 비디오 레코딩 컨트롤(1307)을 특정 방향으로 누르고 드래그(또는 플릭)하는 조작을 모바일 폰이 검출하는 경우, 모바일 폰은 드래그 조작에 의해 지시되는 드래그 방향으로 제1 영역을 이동하기 시작한다. 예를 들어, 사용자가 비디오 레코딩 컨트롤(1307)을 오른쪽방향으로 누르고 드래그하면, 모바일 폰은 제1 영역을 오른쪽방향으로 이동시킨다. 모바일 폰이 드래그 조작 후 업리프트를 검출하는 경우, 이동이 중지된다. 손가락이 비디오 레코딩 컨트롤(1307)을 누르고 누른 포지션에서 들어올리는 것을 모바일 폰이 검출하는 경우, 모바일 폰은 레코딩이 시작된 것으로 결정한다. 손가락이 비디오 레코딩 컨트롤(1307)을 누르고 그리고 누르지 않은 포지션으로 이를 드래그하는 것을 모바일 폰이 검출하는 경우, 모바일 폰은 드래그 조작의 방향을 이미지 이동 방향으로 결정하고, 그 방향으로 제1 영역을 이동시킨다.
예 4: 도 16을 참조하면, 스크린 상(예를 들어, 미리보기 이미지 상)의 사용자의 플릭 조작을 모바일 폰이 검출하는 경우, 모바일 폰은 플릭 조작의 플릭 방향으로 제1 영역을 이동하기 시작한다. 플릭 조작이 중지된 것을 모바일 폰이 검출하는 경우, 모바일 폰은 제1 영역의 이동을 중지한다. 플릭 조작을 중지한다는 것은, 사용자의 손가락이 지점A에서 지점B로 플릭하고 지점B에 머무르거나, 사용자의 손가락이 지점A에서 지점B로 플릭한 다음 위로 들어올리는 것으로 이해될 수 있다. 방향 컨트롤(1311)은 이 경우 뷰파인더 인터페이스 상에 디스플레이되지 않을 수 있다는 것이 이해되어야야 한다.
예 5: 사용자는 음성 명령을 사용하여 이미지 이동 방향을 입력한다. 사용자는, 뷰파인더 인터페이스 상의 임의의 포지션를 탭핑하거나 음성 명령을 사용하여 움직임을 중지하도록 지시할 수 있다. 방향 컨트롤(1311)은 이 경우 뷰파인더 인터페이스 상에 디스플레이되지 않을 수 있다는 것이 이해되어야야 한다.
본 출원의 본 실시예에서 제공되는 방법이 노트북 컴퓨터와 같은 디바이스에 적용되는 경우, 키보드, 터치패드 등을 사용하여 이미지 이동 방향이 추가로 입력될 수 있다.
상술된 가속된 이동 명령 또는 감속된 이동 명령은 다음 방법으로 획득될 수 있다.
예를 들어, 도 16을 참조하면, 이동 속도를 지시하기 위해 사용되는 식별자(1320)가 뷰파인더 인터페이스 상에 디스플레이된다. 본원에서의 이동 속도는 이미지 상의 미리보기 이미지의 포지션 변화량으로 이해될 수 있다. 식별자(1320)의 디폴트 값은 1X이다. 여기서, 1X는 L의 1배로 이해될 수 있다. 즉, 식별자(1320)가 1X인 경우, 모바일 폰은 A=B=C=L인 전술한 방식으로 프로세싱을 수행할 수 있다. 사용자가 식별자(1320)를 탭핑하는 경우, 속도 조절 바(1321)가 디스플레이된다. 예를 들어, 도 16에서 속도 조절 바(1321)에 의해 제공하는 가장 큰 속도는 3X이고, 가장 작은 속도는 0.5X이다. 이것은 본 출원의 이 실시예에서 제한되지 않는다. 1X, 2X, 3X 등은 L의 배수로 이해될 수 있으며, 구체적으로는, 3X는 L의 3배, 2X는 L의 2배인 것으로 이해될 수 있다. 사용자는 속도 조절 바(1321) 상의 플릭 조작을 수행함으로써 속도를 선택한다. 사용자가 속도 2X를 선택한다고 가정하면, 식별자(1320)는 ""를 디스플레이하고, 모바일 폰은 도 19a에 도시된 i=j=2인 방식(프레임 추출 방식)으로 프로세싱을 수행하여, 이미지 상의 미리보기 이미지의 포지션이 매번 2L씩 이동하는 효과를 얻을 수 있다. 사용자가 속도 0.5L을 선택한다고 가정하면, 모바일 폰은 도 19c에 도시된 P=Q=1 방식(프레임 삽입 방식)으로 프로세싱을 수행하여, 이미지 상의 미리보기 이미지의 포지션이 매번 0.5L씩 이동하는 효과를 얻을 수 있다.
모바일 폰은 다른 방식, 예를 들어 볼륨 버튼을 사용하여 속도를 대안적으로 설정할 수 있다는 것이 이해될 수 있다. 예를 들어, 볼륨 업 버튼이 트리거된 것을 모바일 폰이 검출하는 경우, 속도가 증가하거나; 또는 볼륨 다운 버튼이 트리거된 것을 모바일 폰이 검출하는 경우, 속도가 감소한다. 모바일 폰에 의해 이동 속도를 설정하는 형태는 본 출원의 본 실시예에서 제한되지 않는다는 점에 주목해야 한다. 예를 들어, 뷰파인더 인터페이스 상에서 사용자가 선택할 수 있도록 저속, 중속, 고속의 3가지 속도 레벨 옵션을 제공하는 것도 또한 실현가능하다.
예를 들어, 도 20a 내지 도 20c는 모바일 폰이 본 출원의 일 실시예에 따른 이동 모드에 있는 경우 디스플레이되는 뷰파인더 인터페이스의 효과의 개략도이다. 도 20a에 도시된 바와 같이, 미리보기 이미지1 은 뷰파인더 인터페이스 상에 디스플레이된다. 모바일 폰은 정지상태로 유지된다. 모바일 폰이 아래쪽 화살표를 탭핑하는 조작을 검출하는 경우, 모바일 폰은 미리보기 이미지 1을 미리보기 이미지 2로 업데이트한다. 도 20b를 참조하면, 미리보기 이미지 2에 포함된 장면은 미리보기 이미지 1의 장면 아래에 위치된다. 이는 모바일 폰에 의한 하향 이동 촬영과 동등하다. 모바일 폰은 계속해서 미리보기 이미지 2를 미리보기 이미지 3으로 업데이트한다. 도 20c를 참조하면, 미리보기 이미지 3에 포함된 장면은 미리보기 이미지 2의 장면 아래에 위치된다. 이는 모바일 폰에 의한 하향 이동 촬영과 동등하다. 사용자가 스크린 상의 임의의 포지션을 탭핑하는 것을 모바일 폰이 검출한다고 가정하면, 이동이 종료된다. 도 20a 내지 도 20c로부터, 모바일 폰이 정지 상태로 유지되는 프로세스에서 미리보기 이미지의 장면이 점차 아래로 이동하는 것을 알 수 있다. 이는 렌즈를 아래로 이동시키는 촬영 효과를 달성한다.
실시예 2
예를 들어, 도 21은 모바일 폰이 흔들기 모드에 진입하는 경우 디스플레이되는 GUI의 개략도이다. 사용자가 현재 모드를 결정하는 것을 돕기 위해, 모바일 폰이 흔들기 모드에 진입하는 경우, 모바일 폰은 뷰파인더 인터페이스 상에 프롬프트 정보(1313)를 디스플레이할 수 있다. 프롬프트 정보(1313)는 모바일 폰이 현재 흔들기 모드에 있음을 지시하는 데 사용된다. 물론, 모바일 폰이 일반 비디오 레코딩 모드에서 흔들기 모드로 전환하는 경우, 모바일 폰은 또한, 다른 프롬프트, 예를 들어 진동 피드백을 출력할 수 있다. 프롬프트 정보(1313)는 미리보기 이미지가 최대한 차단되지 않는 방식으로, 예를 들어 반투명 방식 또는 투명 방식으로 디스플레이될 수 있다. GUI는 방향 컨트롤(1311)을 더 포함할 수 있다. 사용자는 방향 컨트롤(1311)을 사용하여 이미지 이동 방향을 입력할 수 있다.
도 21은 흔들기 모드에서 비디오를 레코딩하는 방법을 설명하기 위한 일예로 사용된다.
모바일 폰이 일반 비디오 레코딩 모드에서 흔들기 모드로 전환되는 프로세스에 대해서는, 일반 비디오 레코딩 모드에서 이동 모드로의 전환을 참조한다. 상세사항은 본원에 다시 설명되지 않는다. 흔들기 모드에서, 모바일 폰은 사용자에 의해 입력된 이미지 이동 방향을 사용하여 "렌즈를 흔드는(shaking a lens)"촬영 효과를 얻을 수 있다. 사용자가 이미지 이동 방향을 입력하는 방식과 사용자가 이동 중지 명령을 입력하는 방식에 대해서는, 전술한 설명을 참조한다. 상세사항은 다시 설명되지 않는다.
이동 모드와 달리, 흔들기 모드에서, 이미지 상의 타깃 영역을 결정한 후, 모바일 폰은 타깃 영역에서 이미지 블록 에 대한 화각 변환을 수행한 다음, 화각 변환 후 획득된 이미지 블록을 사용하여 미리보기 이미지를 업데이트한다. 도 16이 예로 사용된다. 모바일 폰이 이미지의 오른쪽방향으로 흔들기 명령을 검출하는 경우, 모바일 폰은 m번째 프레임의 이미지 상의 m번째 영역을 결정하고 m번째 영역에 있는 이미지 블록에 대한 화각 변환을 수행하며; 모바일 폰은 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역을 결정하고 (m+1)번째 영역에 있는 이미지 블록에 대해 시간 변환을 수행하는 식이다. 따라서, 모바일 폰이 이미지의 오른쪽방향으로 흔들기 명령을 검출한 후, 모바일 폰은 화각 변환 후 획득된 m번째 영역에 있는 이미지 블록, 화각 변환 후 획득된 (m+1)번째 영역에 있는 이미지 블록 등으로 미리보기 이미지를 순차적으로 업데이트한다.
프레임 추출 방식 및 프레임 삽입 방식과 같은 이동 모드에서의 전술한 복수의 구현은 또한 흔들기 모드에 적용 가능하다는 것이 주목되어야 한다. 상세사항은 본원에 다시 설명되지 않는다.
이미지 블록에 대한 화각 변환을 수행하는 프로세스에 대해서는, 전술한 설명을 참조한다. 전술한 화각 변환 프로세스가 사용되면, 회전 각도(θ)는 복수의 방식으로 결정될 수 있다. 예를 들어, 회전 각도(θ)는 미리설정되어 있으며, 예를 들어 미리설정된 고정 값이다. 대안적으로, 사용자가 화면 상의 플릭 조작을 수행함으로써 이미지 이동 방향을 입력한다면, 회전 각도는 플릭 조작과 관련된다. 예를 들어, 모바일 폰은 플릭 조작의 플릭 거리(W)와 회전 각도(θ) 사이의 대응 관계를 저장한다. 모바일 폰이 스크린 상에서 사용자의 플릭 조작을 검출하는 경우, 모바일 폰은 플릭 조작의 플릭 거리(W)를 결정하고, 거리(W)와 대응 관계에 기초하여 해당 회전 각도(θ)를 결정한다. 예를 들어, 플릭 조작의 플릭 거리(W)가 멀수록 회전 각도가 더 크다는 것을 지시한다. 대안적으로, 회전 각도(θ)는 식별자(1320)의 디스플레이 값과 관련될 수 있다. 식별자(1320)가 "2"를 디스플레이한다고 가정하면, 회전 각도(θ)는 미리설정된 각도의 2배이다. 미리설정된 각도의 값은 본 출원에서 제한되지 않는다.
실시예 3
일부 실시예에서, 초광각 카메라에 의해 캡처된 이미지의 크기는 제한된다. 제1 영역이 초광각 카메라에 의해 캡처된 이미지의 에지로 번역되는 경우, 모바일 폰은 프롬프트 정보를 출력하여, 사용자에게 모바일 폰의 포지션을 이동하도록 프롬프트한다. 이동 모드가 예로 사용된다. 도 22를 참조하면, 사용자가 계속해서 아래쪽 화살표를 누르는 것을 모바일 폰이 검출하는 경우, 이미지 상의 미리보기 이미지의 포지션이 점차 아래쪽으로 이동한다. 이미지 상의 미리보기 이미지의 포지션이 초광각 카메라에 의해 캡처된 이미지의 에지로 이동하는 경우, 모바일 폰은 프롬프트 정보(1330)를 출력하여, 사용자가 수동으로 모바일 폰을 아래쪽으로 이동하도록 프롬프트하며, 또는 모바일 폰은 모바일 폰이 계속 이동될 수는 없다는 것을 사용자에게 프롬프트하는데 사용되는 프롬프트 정보를 출력할 수 있다.
모바일 폰이 레코딩 컨트롤(1307)에 대한 조작을 검출하는 경우 비디오 레코딩이 시작된다는 것이 이해되어야 한다. 레코딩을 시작한 후, 사용자는 또한 이동 모드 또는 흔들기 모드에 진입하도록 지시한 다음, 이미지 이동 방향을 입력할 수 있다. 모바일 폰은, 이 방향에서, 초광각 카메라에 의해 캡처된 이미지 상의 타깃 영역의 포지션을 번역하고, 타깃 영역에 있는 이미지 블록에 기초하여 미리보기 이미지를 계속해서 업데이트한다. 모바일 폰은 미리보기 이미지를 저장하며; 그리고 모바일 폰이 정지를 위한 레코딩 컨트롤에 대한 조작을 검출하는 경우, 모바일 폰은 저장된 미리보기 이미지를 비디오로 합성하고 비디오를 저장한다.
일부 실시예에서, 흔들기 모드 또는 이동 모드에서 비디오 레코딩을 수행한 후, 모바일 폰은 대응하여 2개의 비디오를 저장할 수 있다. 하나의 비디오는 완전한 비디오이며, 구체적으로는, 비디오의 각각의 프레임의 이미지는 초광각 카메라에 의해 캡처된 완전한 이미지이다. 다른 이미지는 이동 모드 또는 흔들기 모드로 레코딩된 비디오이며, 구체적으로는, 비디오 내 각각의 프레임의 이미지는 초광각 카메라에 의해 캡처된 이미지 상의 이미지 블록이다. 예를 들어, 도 23을 참조하면, 2 개의 비디오가 모바일 폰의 앨범 내 비디오 폴더에 저장되어 있는데, 하나의 비디오는 완전한 비디오이고, 다른 비디오는 이동 모드 또는 흔들기 모드에서 레코딩된 비디오이다. 식별자(2301)가 이동 모드 또는 흔들기 모드에서 레코딩된 비디오 상에 디스플레이되어, 사용자가 용이하게 구별할 수 있다.
실시예 4
일부 다른 실시예에서, 모바일 폰은 이미지 회전 모드를 더 제공할 수 있다. 이 모드에서는, 또한 사용자가 수동으로 모바일 폰을 회전할 필요가 없는 경우(예를 들어, 모바일 폰이 정지 상태로 유지됨)에 이미지 회전 촬영 효과가 얻어질 수 있다.
예를 들어, 모바일 폰이 이동 모드 또는 흔들기 모드에 있는 경우, 모바일 폰이 미리보기 이미지에 대한 미리설정된 조작(예를 들어, 미리보기 이미지에 대한 더블 탭핑 조작 또는 터치 앤 홀드 조작)을 검출하면, 모바일 폰이 이미지 회전 모드에 진입한다. 도 24는 이미지 회전 모드에서 뷰파인더 인터페이스의 개략도이다. 뷰파인더 인터페이스는, 모바일 폰이 현재 이미지 회전 모드에 있다는 것을 지시하는데 사용되는 지시 정보(1360)를 포함한다. 선택적으로, 프롬프트 정보(1360)는 디스플레이될 수 없다. 뷰파인더 인터페이스는 미리보기 상자(1361)를 더 포함하고, 초광각 카메라에 의해 캡처된 이미지(예를 들어, 초광각 카메라에 의해 캡처된 완전한 이미지)는 미리보기 상자(1361) 상에 디스플레이된다. 타깃 상자(1362)가 미리보기 상자(1361)에 디스플레이되고, 그리고 타깃 상자(1362)의 이미지 블록은 현재 미리보기 이미지이다. 뷰파인더 인터페이스는 회전 진행을 지시하는데 사용되는 아이콘(1363) 및 회전 속도를 설정하는 데 사용되는 아이콘(1364)을 더 포함한다.
예를 들어, 도 25를 참조하면, 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 이미지 시계방향 회전 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지 상의 타깃 영역, 즉 m번째 영역을 결정하고, 그리고 m번째 영역에 있는 이미지 블록을 각도(G)만큼 시계방향으로 회전하며; 모바일 폰은 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역을 결정하고 ―(m+1)번째 영역의 포지션은 m번째 영역의 포지션에 대해 변하지 않고 유지됨 ―; 그리고 (m+1)번째 영역에 있는 이미지 블록을 각도(2G)만큼 시계방향으로 회전시키는 것 등을 행한다. 따라서, 모바일 폰이 이미지를 시계방향으로 회전하는 명령을 검출한 후, 미리보기 이미지는 각도(G)만큼 시계방향 회전 후 획득된 m번째 영역에 있는 이미지 블록, 각도(2G)만큼 시계방향 회전 후 획득된 (m+1) 번째 영역에 있는 이미지 블록, 각도(3G)만큼 시계방향 회전 후 획득된 (m+2) 번째 영역에 있는 이미지 블록 등으로 순차적으로 업데이트된다. 따라서, 미리보기 이미지는 시계방향으로 점차 회전하고 업데이트된 모든 미리보기 이미지는 동일한 각도로 회전하는데, 구체적으로는, 일정한 속도로 회전한다.
미리보기 이미지가 (m+3)번째 프레임의 이미지로 업데이트되기 전에 회전 정지 명령이 검출된다고 가정하면, 모바일 폰은 (m+3)번째 프레임의 이미지 상의 (m+3)번째 영역을 결정하며 ―(m+3)번째 영역의 포지션은 (m+2)번째 영역의 포지션에 대해 변하지 않고 유지됨 ―; 그리고 (m+3)번째 영역에 있는 이미지 블록을 시계방향으로 각도(3G)만큼 회전시킨다 ―(m+3)번째 영역에 있는 이미지 블록의 회전 각도는 (m+2)번째 영역에 있는 이미지 블록의 회전 각도에 대해 변하지 않고 유지됨 ―. 이 경우에, 회전이 중지된다.
도 25에 도시된 실시예에서, 2 개의 인접한 프레임의 이미지의 회전 각도는 동일하고 각각은 각도(G)인 것이 이해될 수 있다. 그러나, 2 개의 인접한 프레임의 회전 각도는 대안적으로 상이할 수 있다. 예를 들어, m번째 영역에 있는 이미지 블록의 회전 각도는 G이고, (m+1)번째 영역에 있는 이미지 블록의 회전 각도는 3G이다. 이 경우에, 미리보기 이미지가 가속된 속도로 회전한다. 대안적으로, m번째 영역에 있는 이미지 블록의 회전 각도는 G이고, (m+1)번째 영역에 있는 이미지 블록의 회전 각도는 0.5G이다. 이 경우에, 미리보기 이미지가 감속된 속도로 회전한다.
또한, 전술한 프레임 추출 업데이트 방식 또는 프레임 삽입 업데이트 방식은 이 실시예에 적용할 수 있음을 주목해야 한다. 예를 들어, 가속 회전은 프레임 추출을 통해 구현되고 감속 회전은 프레임 삽입을 통해 구현될 수 있다. 예를 들어, 도 24를 참조하면, 모바일 폰이 아이콘(1364)의 위에 있는 "+" 조작을 검출하는 경우, 사용자가 회전 각도 증가를 기대한다라는 것이 가정된다. 이 경우에, 모바일 폰은 프레임 추출을 통해 가속 회전을 구현할 수 있다. 이것은 도 19a에 도시된 실시예에서 매 프레임마다 하나의 프레임을 추출하는 방식과 유사하다. 이것은 각각 업데이트된 미리보기 이미지가 각도(2G)만큼 회전하는 효과를 달성한다. 모바일 폰이 아이콘(1364) 아래에 있는 "-" 조작을 검출하는 경우, 사용자가 회전 각도 감소를 기대한다라는 것이 가정된다. 이 경우에, 모바일 폰은 프레임 삽입을 통해 감속 회전을 구현할 수 있다. 이것은 도 10b에 도시된 실시예에서 매 프레임마다 하나의 프레임을 삽입하는 방식과 유사하다. 이것은 각각 업데이트된 미리보기 이미지가 각도(0.5G)만큼 회전하는 효과를 달성한다.
전술한 내용은 모바일 폰이 이미지 회전 방향을 지시하는 데 사용되는 명령을 검출하는 복수의 방식이 존재함을 언급하고 있다. 예를 들어, 도 24를 참조하면, 모바일 폰이 아이콘(1363)에 대한 조작을 검출하는 경우, 디폴트에 의해 시계방향 또는 반시계방향 회전이 시작되며, 이는 사용자에 의해 자발적으로 설정될 수 있다. 다른 예로, 왼쪽 화살표와 오른쪽 화살표가 아이콘(1363)에 디스플레이되어 있다. 사용자가 왼쪽 화살표를 탭핑하는 것을 모바일 폰이 검출하는 경우, 반시계방향 회전이 시작된다. 사용자가 오른쪽 화살표를 탭핑하는 것을 모바일 폰이 검출하는 경우, 시계방향 회전이 시작된다.
예를 들어, 모바일 폰이 아이콘(1363)을 탭핑하는 조작을 검출한 후 회전이 시작되고, 미리설정된 회전 지속시간(예를 들어, 5초)에 도달하는 경우 회전이 자동으로 중지된다. 모바일 폰은, 회전의 시작부터 끝까지의 기간에 디스플레이되는 미리보기 이미지를 합성함으로써 획득된 비디오를 저장할 수 있다.
대안적으로, 모바일 폰이 아이콘(1363)을 탭핑하는 조작을 검출한 후 회전이 시작되며, 360도 회전이 완료될 때까지 회전이 계속된다.
대안적으로, 모바일 폰이 아이콘(1363)을 탭핑하는 조작을 검출한 후 회전이 시작되고, 사용자가 회전 중지 명령을 입력할 때까지 회전이 계속된다. 예를 들어, 모바일 폰이 미리보기 인터페이스의 임의의 포지션에서 사용자의 탭핑 조작을 검출하는 경우 회전이 중지되거나, 모바일 폰이 아이콘(1363)을 다시 탭핑하는 조작을 검출하는 경우 회전이 중지된다.
대안적으로, 모바일 폰이 아이콘(1363) 터치 앤 홀드 조작을 검출하는 경우(아이콘(1363)을 누르고 있는 지속시간이 미리설정된 지속시간보다 긴 경우) 회전이 시작되고, 모바일 폰이 터치 앤 홀드 조작 후 업리프트를 검출하는 경우 회전이 중지된다.
이미지 회전은, 비디오 레코딩이 시작되기 전에(예를 들어, 비디오 레코딩을 시작하도록 지시하는 데 사용되는 비디오 레코딩 컨트롤이 탭핑되기 전에) 수행될 수 있거나, 비디오 레코딩이 시작된 후(예를 들어, 비디오 레코딩을 시작하도록 지시하는 데 사용되는 비디오 레코딩 컨트롤이 탭핑된 후) 수행될 수 있다는 것이 이해될 수 있다.
예를 들어, 도 26은 이미지의 반시계방향 회전의 개략도이다. 미리보기 이미지가 반시계방향으로 회전하는 프로세스에서, 뷰파인더 인터페이스 상의 타깃 상자(1362)는 또한 동시에 회전하여 현재 미리보기 이미지의 대략적인 회전 각도를 사용자에게 통지할 수 있다. 현재 회전 진행 상황이 또한 아이콘(1363) 상에 디스플레이될 수 있다. 타깃 상자(1362)의 회전 방향은 미리보기 이미지의 회전 방향과 동일하거나 상이할 수 있다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
실시예 5
일부 다른 실시예에서, 모바일 폰은 푸싱-풀링 모드를 더 제공할 수 있다. 푸싱-풀링 모드에서, 모바일 폰은 "렌즈 푸싱(pushing a lens)"또는 "렌즈 풀링(pulling a lens)"의 촬영 효과를 얻을 수 있다. 여기서, "렌즈 푸싱"은 카메라가 오브젝트에 접근하는 것, 구체적으로 뷰파인더 인터페이스 상의 오브젝트가 확대되는 것으로 이해될 수 있다. 이것은 오브젝트 상세사항에 집중하는 데 도움이 된다. 게다가, "렌즈 풀링"은 카메라가 오브젝트로부터 멀어지는 것, 구체적으로 뷰파인더 인터페이스 상의 오브젝트가 축소되는 것으로 이해될 수 있다. 이것은 파노라마식 촬영에 도움이 된다.
예를 들어, 모바일 폰이 이동 모드, 또는 흔들기 모드에 있는 경우, 모바일 폰이 미리보기 이미지에 대한 미리설정된 조작(예를 들어, 미리보기 이미지에 대한 더블 탭핑 조작 또는 터치 앤 홀드 조작)을 검출하면, 모바일 폰이 푸싱-풀링 모드에 진입한다. 본 출원의 실시예는 일반 비디오 촬영 모드, 흔들기 모드, 이동 모드, 이미지 회전 모드 및 푸싱-풀링 모드를 포함하는 복수의 모드를 제공한다. 일부 실시예에서, 모바일 폰이 미리보기 이미지 상의 사용자의 더블-탭핑 조작을 검출하는 경우, 상이한 모드 사이의 순환 전환이 구현된다.
도 27은 푸싱-풀링 모드에서 뷰파인더 인터페이스의 개략도이다. 뷰파인더 인터페이스는, 모바일 폰이 현재 푸싱-풀링 모드에 있다는 것을 지시하는데 사용되는 지시 정보(1370)를 포함한다. 선택적으로, 프롬프트 정보(1370)는 디스플레이될 수 없다. 뷰파인더 인터페이스는 미리보기 상자(1371)를 더 포함하고, 초광각 카메라에 의해 캡처된 이미지가 미리보기 상자(1371)에 디스플레이된다. 타깃 상자(1372)가 미리보기 상자(1371)에 디스플레이되고, 그리고 타깃 상자(1372)의 이미지 블록은 현재 미리보기 이미지이다. 뷰파인더 인터페이스는 렌즈 풀링을 지시하는데 사용되는 아이콘(1373), 렌즈 푸싱을 지시하는데 사용되는 아이콘(1374), 및 푸싱-풀링 속도를 설정하는 데 사용되는 아이콘(1375)을 더 포함한다.
렌즈 푸싱의 예는, 모바일 폰이 정지상태로 유지되는 경우 렌즈를 풀링하는 촬영 프로세스를 설명하기 위해 다음 실시예에서 사용된다.
예를 들어, 도 28을 참조하면, 미리보기 이미지가 m번째 프레임의 이미지로 업데이트되기 전에 모바일 폰이 렌즈 풀링 명령을 검출한다고 가정하면, 모바일 폰은 m번째 프레임의 이미지 상의 타깃 영역, 즉, m번째 영역 ―m번째 영역의 면적은 (m-1)번째 영역의 면적보다 큼 ―를 결정하고; 모바일 폰은 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역을 결정하는 ―(m+1)번째 영역의 면적은 (m+1)번째 영역의 면적보다 큼 ―식이다. 따라서, 모바일 폰이 렌즈 풀링 명령을 검출한 후, 미리보기 이미지는 m번째 영역에 있는 이미지 블록, (m+1)번째 영역에 있는 이미지 블록, (m+2)번째 영역에 있는 이미지 블록 등으로 순차적으로 업데이트된다. 이런 식으로, 이미지 상에서 미리보기 이미지가 차지하는 면적은 점차 증가하고, 미리보기 이미지의 화각 범위가 넓어지게 된다. 이것은 카메라가 오브젝트에서 점차 멀어지는 촬영 효과를 얻을 수 있다.
미리보기 이미지가 (m+3)번째 프레임의 이미지로 업데이트되기 전에 렌즈 풀링 정지 명령이 검출된다고 가정하면, 모바일 폰은 (m+3)번째 프레임의 이미지 상의 (m+3)번째 영역을 결정하고, 여기서 (m+3)번째 영역의 면적은 (m+2)번째 영역의 면적에 비해 변하지 않는다. 이 경우에, 렌즈 풀링이 정지된다. 따라서, 모바일 폰이 렌즈 풀링 정지 명령을 검출한 후, 미리보기 이미지가 차지하는 면적은 증가하지 않으며, 카메라는 시각적으로 오브젝트로부터 멀어지지 않는다.
도 28에 도시된 실시예에서, 인접한 2개의 프레임의 이미지 상의 타깃 영역의 면적 변화량이 동일하거나 상이할 수 있다는 것이 이해될 수 있다. 인접한 2개의 프레임의 이미지 상의 타깃 영역의 면적 증가량이 동일하다고 가정하면, 즉 타깃 영역의 면적이 일정한 속도로 증가한다고 가정하면, 카메라가 오브젝트로부터 일정한 속도로 멀어지는 촬영 효과가 얻어진다. (m+1)번째 영역의 면적이 m번째 영역의 면적보다 S 크고, (m+2)번째 영역의 면적이 (m+1)번째 영역의 면적보다 2S 크다고 가정하면, 즉, 타깃 영역의 면적이 가속된 속도로 증가한다고 가정하면, 미리보기 이미지가 가속된 속도로 오브젝트로부터 멀어지는 촬영 효과가 달성된다. (m+1)번째 영역의 면적이 m번째 영역의 면적보다 S 크고, (m+2)번째 영역의 면적이 (m+1)번째 영역의 면적보다 0.5S 크다고 가정하면, 즉, 타깃 영역의 면적이 감속된 속도로 증가한다고 가정하면, 감속된 속도로 (느리게) 오브젝트로부터 멀어지는 촬영 효과가 달성된다.
또한, 전술한 프레임 추출 업데이트 방식 또는 프레임 삽입 업데이트 방식은 상이한 효과를 달성하기 위해 이 실시예에 적용할 수 있음을 주목해야 한다. 상세사항은 본원에 다시 설명되지 않는다.
모바일 폰은 다음 방식을 포함하지만 이에, 제한되지 않는 복수의 방식으로 렌즈 풀링 명령을 획득한다.
예를 들어, 타깃 영역의 면적은 모바일 폰이 아이콘(1373)을 탭핑하는 조작을 검출한 후 증가하기 시작하고, 미리설정된 지속시간(예를 들어, 5초)에 도달하면 증가가 자동으로 중지된다. 모바일 폰은, 증가의 시작부터 끝까지의 기간에 디스플레이되는 미리보기 이미지를 합성함으로써 획득된 비디오을 저장할 수 있다.
대안적으로, 모바일 폰이 아이콘(1373)을 탭핑하는 조작을 검출한 후 타깃 영역의 면적이 증가하기 시작하고, 그리고 타깃 영역의 면적이 초광각 카메라에 의해 캡처된 완전한 이미지의 면적과 같아질 때까지 증가가 계속된다.
대안적으로, 모바일 폰이 아이콘(1373)을 탭핑하는 조작을 검출한 후 타깃 영역의 면적이 증가하기 시작하고, 그리고 사용자가 증가 중지 명령을 입력하는 것이 검출될 때까지 증가가 계속된다. 예를 들어, 모바일 폰이 미리보기 인터페이스의 임의의 포지션에서 사용자의 탭핑 조작을 검출하는 경우 증가가 중지되거나, 모바일 폰이 아이콘(473)을 다시 탭핑하는 조작을 검출하는 경우 증가가 중지된다.
대안적으로, 모바일 폰이 아이콘(1373) 터치 앤 홀드 조작을 검출하는 경우(아이콘(1373)을 누르고 있는 지속시간이 미리설정된 지속시간보다 긴 경우) 타깃 영역의 면적이 증가하기 시작하고, 그리고 모바일 폰이 터치 앤 홀드 조작 후 업리프트를 검출하는 경우 증가는 중지된다.
도 29가 일 예로 사용된다. 사용자가 렌즈를 풀링하는 것을 지시하는 데 사용되는 아이콘(1373)을 탭핑하는 것을 모바일 폰이 검출하는 경우, 이미지 상의 타깃 영역의 면적이 증가하기 시작한다. 이에 따라, 미리보기 이미지는 더 큰 타깃 영역에 있는 이미지 블록으로 점진적으로 업데이트된다. 이것은 오브젝트가 카메라에서 점차 멀어지게 이동하는 촬영 효과를 달성한다. 여전히 도 29를 참조하면, 뷰파인더 인터페이스 상의 타깃 상자(1372)의 면적은 동시에 증가하여, 현재 미리보기 이미지의 완전한 이미지에 대한 대략적인 비율을 사용자에게 통지할 수 있다.
렌즈를 풀링하는 예가 위에서 사용되고 있으며 렌즈를 푸싱하기 위해 유사한 방식이 사용될 수 있음에 주목해야 한다. 예를 들어, 모바일 폰이 렌즈 푸싱 명령을 검출하는 경우, 모바일 폰은 도 28에 도시된 것과 유사한 방식으로 타깃 영역을 결정할 수 있다. 차이점은 다음 프레임의 이미지 상의 타깃 영역의 면적이 이전 프레임의 이미지 상의 타깃 영역의 면적보다 작으며, 이에, 미리보기 이미지 확대가 구현된다는 점이다. 모바일 폰이 렌즈 푸싱 정지 명령을 검출하는 경우, 타깃 영역의 면적이 감소를 중지하며, 이에, 미리보기 이미지 확대를 중지한다.
일부 실시예에서, 이동 모드, 흔들기 모드 또는 이미지 회전 모드에서 레코딩을 통해 비디오를 획득한 후, 모바일 폰은 자동으로 비디오에 대한 음악을 만들 수 있다. 예를 들어, 모바일 폰은 선택된 사운드를 사용하여 비디오에 대한 음악을 만든다. 사운드는 카메라 애플리케이션에 의해 제공되는 복수의 사운드로부터 사용자에 의해 미리 선택된 사운드일 수 있다. 여기에서 사운드는 노래 클립, 벨소리, 다른 사운드 등을 포함할 수 있다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
본 출원의 구현은 다른 기술적 효과를 달성하기 위해 무작위로 결합될 수 있다는 점에 주목해야 한다. 예를 들어, 미리보기 이미지가 시계방향으로 회전하는 프로세스에서, 미리보기 이미지가 점차 축소되거나 확대되고; 또는 이미지 상의 미리보기 이미지의 포지션이 점차 왼쪽방향으로 이동하는 경우, 미리보기 이미지가 점차 확대된다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
전술한 실시예 및 관련 첨부 도면을 참조하여, 본 출원의 실시예는 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법을 제공한다. 방법은 도 2에 도시된 전자 디바이스(예를 들어, 모바일 폰 또는 태블릿 컴퓨터)에 의해 구현될 수 있다. 도 30에 도시된 바와 같이, 방법은 다음 단계를 포함할 수 있다.
3001: 카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출한다.
도 13a가 일 예로 사용된다. 제1 조작은, 예를 들어 사용자가 아이콘(402)을 탭핑하는 조작이다.
3002: 제1 조작에 응답하여, 카메라 애플리케이션을 시작한다.
3003: 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출한다.
본 출원의 이 실시예에서, 전자 디바이스는 복수의 레코딩 모드, 예를 들어, 일반 비디오 레코딩 모드 및 제1 비디오 레코딩 모드(예를 들어, 이동 모드 및 흔들기 모드를 포함)를 제공할 수 있다. 전자 디바이스는 사용자 명령에 따라 모드에 진입할 수 있다. 도 14a가 일 예로 사용된다. 전자 디바이스는 일반 비디오 레코딩 모드에서 뷰파인더 인터페이스를 디스플레이하고, 전자 디바이스는 카메라 이동 모드를 지시하는 데 사용되는 컨트롤(408)을 탭핑하는 조작을 검출한 후 선택 상자(1309)를 디스플레이한다. 제2 조작은 선택 상자(1309)에서 "흔들기 모드" 또는 "이동 모드" 옵션을 탭핑하는 조작일 수 있다. 제2 조작이 선택 상자(1309)에서 "이동 모드" 옵션을 탭핑하는 조작이라고 가정하면, 전자 디바이스는 이동 모드에 진입한다.
3004: 제2 조작에 응답하여 전자 디바이스의 디스플레이에, 뷰파인더 인터페이스를 디스플레이하고, 여기서 뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 제1 광각 카메라에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록이다.
계속해서 도 14b가 예로 사용된다. 전자 디바이스가 제2 조작(선택 상자(1309)에서 "이동 모드" 옵션을 탭핑하는 조작)을 검출하는 경우, 전자 디바이스가 이동 모드에 진입하고 뷰파인더 인터페이스 상의 제1 미리보기 이미지를 디스플레이하고, 여기서 제1 미리보기 이미지는 제1 광각 카메라(예를 들어, 초광각 카메라)에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록이다. 예를 들어, 제1 이미지는 도 17에 도시된 이미지이고, 제1 미리보기 이미지는 제1 이미지 상의 제1 영역에 있는 이미지 블록이다.
전자 디바이스는 일반 비디오 레코딩 모드에서 제2 광각 카메라를 사용하는 것으로 이해될 수 있다. 제1 비디오 레코딩 모드(예를 들어, 이동 모드)를 지시하기 위해 사용되는 제2 조작을 검출하는 경우, 전자 디바이스는 제1 광각 카메라를 작동시킨다. 제2 광각 카메라의 화각은 제1 광각 카메라의 화각보다 작다. 제1 광각 카메라는 예를 들어 초광각 카메라이고, 제2 광각 카메라는 예를 들어 일반 광각 카메라이다. 즉, 전자 디바이스가 일반 비디오 레코딩 모드에서 이동 모드로 전환한 후, 전자 디바이스는 일반 광각 카메라에서 초광각 카메라로 전환하고 그리고 제1 미리보기 이미지는 초광각 카메라에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록이다. 제1 이미지는 전자 디바이스가 일반 비디오 레코딩 모드에서 제1 비디오 레코딩 모드로 전환하고 초광각 카메라를 작동시킨 후 초광각 카메라에 의해 캡처된 제1 프레임의 이미지일 수 있다는 것이 이해될 수 있다.
3005: 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 이동 방향을 지시하는 제3 조작을 검출한다.
제3 조작은 복수의 방식으로 구현될 수 있다. 도 16이 예로 사용된다. 제3 조작은 사용자가 방향 컨트롤(1311) 상의 화살표(예를 들어, 오른쪽 화살표)를 탭핑하는 조작일 수 있으며, 화살표에 의해 지시되는 방향이 이미지 이동 방향이다. 대안적으로, 제3 조작은 미리설정된 지속 시간에 도달한 누름 지속시간 동안 사용자가 화살표를 누르는 조작일 수 있으며, 화살표에 의해 지시되는 방향이 이미지 이동 방향이다. 대안적으로, 제3 조작은 사용자가 비디오 레코딩 컨트롤(1307)을 일 방향으로 누르고 드래그(또는 플릭)하는 조작이고, 드래그 방향이 이미지 이동 방향이다. 대안적으로, 제3 조작은 스크린(예를 들어, 미리보기 이미지) 상에서 사용자의 플릭 조작이고, 플릭 조작의 플릭 방향은 이미지 이동 방향이다. 대안적으로, 본 출원의 이 실시예에서 제공된 방법이 노트북 컴퓨터와 같은 디바이스에 적용되는 경우, 제3 조작은 키보드, 터치패드 등을 사용하여 이미지 이동 방향을 입력하는 조작일 수 있다.
3006: 제3 조작에 응답하여 뷰파인더 인터페이스 상의 제2 미리보기 이미지를 디스플레이하고, 여기서 제2 미리보기 이미지는 제1 광각 카메라에 의해 캡처된 제2 이미지 상의 제2 영역에 있는 제2 이미지 블록이거나, 또는 제2 미리보기 이미지는, 제2 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고, 그리고 제1 구역에 대한 제2 구역의 배향은 이미지 이동 방향에 관련된다.
제1 이미지는 전자 디바이스가 일반 비디오 레코딩 모드에서 제1 비디오 레코딩 모드로 전환하고 초광각 카메라를 작동시킨 후 초광각 카메라에 의해 캡처된 제1 프레임의 이미지일 수 있다는 것이 주목되어야 한다. 도 18이 예로 사용된다. 제1 미리보기 이미지는 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록이다. 이미지의 오른쪽방향으로 이동을 지시하는데 사용되는 제3 조작은 이미지의 (m-1)번째 프레임부터 m번째 프레임의 이미지까지의 기간에 검출된다는 것이 가정된다. 제2 미리보기 이미지는 m번째 프레임의 이미지(즉, 제2 이미지) 상의 m번째 영역(즉, 제2 영역)에 있는 m번째 이미지 블록이거나, 또는 제2 미리보기 이미지는 m번째 프레임의 이미지 상의 m번째 영역에 있는 m번째 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이다. 제1 영역에 대한 m번째 영역(즉, 제2 영역)의 배향은 변경된다.
선택적으로, 제1 영역에 대한 제2 영역의 배향은 이미지 이동 방향과 동일하거나 또는 반대이다. 예를 들어, 사용자에 의해 입력된 이미지 이동 방향이 오른쪽방향으로가고 제2 영역이 제1 영역의 오른쪽에 있다면, 초광각 카메라에 의해 캡처된 이미지 상의 미리보기 이미지의 포지션은 오른쪽방향으로 이동하고; 또는 사용자가 이미지 오른쪽방향으로 이동 명령을 입력하고 제2 영역이 제1 영역의 왼쪽에 있다면, 이미지 상의 미리보기 이미지의 포지션은 왼쪽방향으로 이동한다. 사용자는 사용자에 의해 입력된 이미지 이동 방향을 초광각 카메라에 의해 캡처된 이미지 상의 미리보기 이미지의 포지션이 이동하는 이동 방향과 동일하거나 반대가 되도록 자발적으로 설정할 수 있다.
전술한 설명에서, 제1 영역에 대한 제2 영역의 배향이 이미지 이동 방향과 관련된다는 것은 다음과 같이 이해될 수 있다: 제2 이미지의 제1 에지와 제2 영역 사이의 거리는 제2 거리이고, 제1 이미지의 제1 에지와 제1 영역 사이의 거리는 제1 거리이며, 그리고 제1 거리에 대한 제2 거리의 거리 변화량은 이미지 이동 방향과 관련된다. 제1 에지는 초광각 카메라에 의해 캡처된 이미지의 상부 에지, 하부 에지, 왼쪽 에지, 오른쪽 에지 등일 수 있다. 예를 들어, 이미지 이동 방향이 왼쪽방향으로 또는 오른쪽방향으로라면, 제1 에지는 왼쪽 에지 또는 오른쪽 에지일 수 있다. 이미지의 이동 방향이 상향 또는 하향이라면, 제1 에지는 상부 에지 또는 하부 에지일 수 있다. 도 18이 예로 사용된다. 제1 에지가 왼쪽 이미지 에지이고 제2 영역(즉, m번째 영역)과 제2 이미지의 왼쪽 에지(즉, m번째 프레임의 이미지) 사이의 제2 거리는 H+A이고, 제1 이미지의 왼쪽 에지와 제1 영역 사이의 제1 거리는 H라는 것이 가정된다. 이 경우에, 제1 거리에 대한 제2 거리의 거리 변화량은 A이다. 거리 변화량(A)은 복수의 경우를 가지며, 이미지 이동 방향과 관련된다. 예를 들어, 이미지 이동 방향이 오른쪽방향으로가고 A가 0보다 크다면, 제2 영역은 제1 영역에 대해 오른쪽방향으로 이동한다. 이미지 이동 방향이 왼쪽방향으로가고 A가 0보다 작은 경우, 제2 영역은 제1 영역에 대해 왼쪽방향으로 이동한다.
제2 미리보기 이미지 후의 제3 미리보기 이미지는 초광각 카메라에 의해 캡처된 제3 이미지 상의 제3 영역에 있는 제3 이미지 블록일 수 있다. 계속해서 도 18이 예로 사용된다. 제2 이미지가 m번째 프레임의 이미지라면, 제3 이미지는 (m+1)번째 프레임의 이미지일 수 있고, 제3 영역은 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역이다. 이 경우에, 제3 미리보기 이미지는 (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역에 있는 (m+1)번째 이미지 블록이다. 유추하여, 제3 미리보기 이미지 이후의 제4 미리보기 이미지는 (m+2)번째 프레임의 이미지 상의 (m+2)번째 영역에 있는 (m+2)번째 이미지 블록일 수 있다.
계속해서 도 18이 예로 사용된다. 제2 영역(즉, m번째 프레임의 이미지 상의 m번째 영역)에 대한 제3 영역(즉, (m+1)번째 프레임의 이미지 상의 (m+1)번째 영역)의 제2 배향 변화량은 제2 거리에 대한 제3 거리의 거리 변화량이다. 제3 거리는 제3 이미지의 제1 에지(예를 들어, 왼쪽 이미지 에지)와 제3 영역 사이의 거리는 구체적으로 H+A+B이고; 그리고 제2 거리는 제2 이미지의 제1 에지(예를 들어, 왼쪽 이미지 에지)와 제2 영역 사이의 거리는, 구체적으로 H+A이다. 이 경우에, 제2 배향 변화량은 B이다.
제1 영역(즉, 제1 프레임의 이미지의 제1 영역)에 대한 제2 영역(즉, m번째 프레임의 이미지 상의 m번째 영역)의 제1 배향 변화량은 제1 거리에 대한 제2 거리의 거리 변화량이다. 제2 거리는 제2 이미지의 제1 에지(예를 들어, 왼쪽 이미지 에지)와 제2 영역 사이의 거리, 구체적으로 H+A이고; 그리고 제1 거리는 제1 이미지의 제1 에지와 제1 영역 사이의 거리, 구체적으로 H이다. 이 경우에, 제1 방향 변화량은 A이다.
일부 실시예에서, 제2 배향 변화량(B)은 제1 배향 변화량(A)과 동일하다. 즉, 이미지 상의 미리보기 이미지의 배향 변화량은 동일하다. 구체적으로는, 이미지 상의 미리보기 이미지의 포지션은 일정한 속도로 이동한다. 물론, 제2 배향 변화량(B)은 제1 배향 변화량(A)보다 작거나 클 수 있어 상이한 효과를 달성할 수 있다. 자세한 내용은 전술한 설명을 참조한다. 상세사항은 다시 설명되지 않는다.
가능한 구현에서, 제3 조작은 이미지 이동 방향을 지시하는데 사용된다. 이 가능한 구현에서, 제3 조작을 검출한 후, 전자 디바이스는 미리보기 모드에 있다. 미리보기 모드에서, 초광각 카메라에 의해 캡처된 이미지 상의 미리보기 이미지의 포지션은 이미지 이동 방향에 따라 변한다. 비디오 레코딩 컨트롤(1307) 상의 조작을 검출하는 경우, 전자 디바이스는 비디오 레코딩을 시작한다. 비디오 레코딩을 시작한 후, 이미지 상의 미리보기 이미지의 포지션은 계속 변경된다. 비디오 레코딩 중지 명령이 검출되는 경우, 비디오 레코딩이 중지된다.
다른 가능한 구현에서, 제3 조작은 이미지 이동 방향을 지시하는데 사용될 수 있을 뿐만 아니라 비디오 레코딩을 시작하는 것을 지시하는데 사용될 수 있다. 도 16이 예로 사용된다. 사용자가 방향 컨트롤(411) 상의 화살표(예를 들어, 오른쪽 화살표)를 탭핑하는 제3 조작을 검출하는 경우, 전자 디바이스는 제2 미리보기 이미지를 디스플레이하고 비디오 레코딩을 시작한다. 이미지 이동 중지 명령을 검출하는 경우, 전자 디바이스는 이동 및 비디오 레코딩을 중지하고 비디오를 저장한다. 비디오는 제2 미리보기 이미지를 포함한다.
도 18이 예로 사용된다. 전자 디바이스가 이미지 오른쪽방향으로 이동 명령을 검출하는 경우, 전자 디바이스는 뷰파인더 인터페이스 상의 m번째 프레임의 이미지 상의 m번째 영역에 있는 m번째 이미지 블록을 디스플레이하고 비디오 레코딩을 시작한다. 그 다음, 미리보기 이미지는 (m+1)번째 영역에 있는 이미지 블록과 (m+2)번째 영역에 있는 이미지 블록으로 순차적으로 업데이트된다. 전자 디바이스가 이동 중지 명령을 검출할 때까지, 전자 디바이스는 비디오 레코딩을 중지하고 비디오를 저장하고 여기서 비디오는 m번째 이미지 블록, (m+1)번째 이미지 블록 및 (m+2)번째 이미지 블록을 포함한다.
선택적으로, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1보다 크거나 같은 정수이고, M은 N보다 작은 정수이다. 구체적인 프레임 추출 프로세스에 대해서는, 도 10a 또는 도 19b의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다. 대안적으로, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지 내로의 다중 프레임 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1보다 크거나 같은 정수이고, M은 N보다 큰 정수이다. 구체적인 프레임 삽입 프로세스에 대해서는, 도 19c 또는 도 19d의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다.
전술한 실시예 및 관련 첨부 도면을 참조하여, 본 출원의 실시예는 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법을 제공한다. 방법은 도 2a에 도시된 전자 디바이스(예를 들어, 모바일 폰 또는 태블릿 컴퓨터)에 의해 구현될 수 있다. 도 31에 도시된 바와 같이, 방법은 다음 단계를 포함할 수 있다.
3101: 카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출한다.
3102: 제1 조작에 응답하여, 카메라 애플리케이션을 시작한다.
단계 3101 및 단계 3102의 설명에 대해서는, 도 30의 단계 3001 및 단계 3002의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다.
3103: 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출한다.
예를 들어, 전자 디바이스는 일반 비디오 레코딩 모드 및 이미지 회전 비디오 레코딩 모드와 같은 복수의 비디오 레코딩 모드를 제공할 수 있다. 도 16이 예로 사용된다. 전자 디바이스는 이동 모드에 있는 뷰파인더 인터페이스를 디스플레이하고, 제2 조작은 뷰파인더 인터페이스를 더블 탭핑하는 조작 또는 이미지 회전 비디오 레코딩 모드로 전환하는 데 사용될 수 있는 다른 조작일 수 있다. 도 14b가 예로 사용된다. 제2 조작은 선택 상자(409)에서 "이미지 회전" 옵션을 탭핑하는 조작일 수 있다.
3104: 제2 조작에 응답하여 전자 디바이스의 디스플레이에, 뷰파인더 인터페이스를 디스플레이하고, 여기서 파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 제1 미리보기 이미지는 전자 디바이스 상의 카메라에 의해 캡처된 제1 이미지이다.
일부 실시예에서, 카메라는 일반 카메라 또는 제1 광각 카메라이다. 제1 광각 카메라가 예로 사용된다. 제1 이미지는 제1 광각 카메라에 의해 캡처된 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록이다.
계속해서 도 14b가 예로 사용된다. 제2 조작(선택 상자(1309)에서 "이미지 회전" 옵션을 탭핑하는 조작)을 검출하는 경우, 전자 디바이스는 이미지 회전 비디오 레코딩 모드에 진입한다. 이미지 회전 비디오 레코딩 모드의 뷰파인더 인터페이스에 대해서는, 도 24를 참조한다. 제1 미리보기 이미지가 뷰파인더 인터페이스 상에 디스플레이되고 제1 미리보기 이미지는 제1 광각 카메라(예를 들어, 광각 카메라)에 의해 캡처된 제1 프레임의 이미지의 제1 영역에 있는 제1 이미지 블록이다.
전자 디바이스는 일반 비디오 레코딩 모드에서 제2 광각 카메라를 사용하는 것으로 이해될 수 있다. 제1 비디오 레코딩 모드(예를 들어, 이미지 회전 비디오 레코딩 모드)를 지시하기 위해 사용되는 제2 조작을 검출하는 경우, 전자 디바이스는 제1 광각 카메라를 작동시킨다. 제2 광각 카메라의 화각은 제1 광각 카메라의 화각보다 작다. 제1 광각 카메라는 예를 들어 초광각 카메라이고, 제2 광각 카메라는 예를 들어 일반 광각 카메라이다. 즉, 전자 디바이스가 일반 비디오 레코딩 모드에서 이미지 회전 비디오 레코딩 모드로 전환한 후, 전자 디바이스는 일반 광각 카메라에서 초광각 카메라로 전환하고 그리고 제1 미리보기 이미지는 초광각 카메라에 의해 캡처된 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록이다.
3105: 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 회전 방향을 지시하는 제3 조작을 검출한다.
제3 조작은 복수의 방식으로 구현될 수 있다. 도 24가 예로 사용된다. 제3 조작은 아이콘(1363)을 탭핑하는 조작일 수 있다. 예를 들어, 아이콘(1363)이 탭핑된 후, 디폴트에 의해 시계방향 또는 반시계방향 회전이 시작된다. 대안적으로, 제3 조작은 뷰파인더 인터페이스 상에 써클을 드로잉하는 조작이고, 써클 드로잉 조작의 써클을 드로잉하는 방향은 이미지 회전 방향이다. 대안적으로, 제3 조작은 아이콘(1363)의 왼쪽에 있는 왼쪽 화살표를 탭핑하는 조작일 수 있으며, 이미지 회전 방향은 반시계방향 회전이다. 대안적으로, 제3 조작은 아이콘(1363)의 오른쪽에 있는 오른쪽 화살표를 탭핑하는 조작일 수 있으며, 이미지 회전 방향은 시계방향 회전이다.
3106: 제3 조작에 응답하여 뷰파인더 인터페이스에 제2 미리보기 이미지를 디스플레이하고, 여기서 제2 미리보기 이미지는 카메라에 의해 캡처된 제2 이미지가 이미지 회전 방향으로 회전한 후 획득된 이미지이다.
예를 들어, 카메라가 제1 광각 카메라(예를 들어, 초광각 카메라)이면, 제1 이미지는 전자 디바이스가 일반 비디오 레코딩 모드에서 제1 비디오 레코딩 모드(즉, 이미지 회전 비디오 레코딩 모드)로 전환하고 초광각 카메라를 작동시킨 후 초광각 카메라에 의해 캡처된 제1 프레임의 이미지일 수 있다. 도 25이 예로 사용된다. 제1 미리보기 이미지는 제1 프레임의 이미지 상의 제1 영역에 있는 제1 이미지 블록이다. 이미지의 시계방향 회전을 지시하는데 사용되는 제3 조작은 (m-1)번째 프레임의 이미지로부터 m번째 프레임의 이미지까지의 기간에 검출된다는 것이 가정된다. 전자 디바이스는 m번째 프레임의 이미지(즉, 제2 이미지) 상의 m번째 영역(즉, 제2 영역)에 있는 m번째 이미지 블록을 결정하고, 여기서 제2 미리보기 이미지는 m번째 이미지 블록이 각도(G)만큼 회전한 후 획득된 이미지 블록이다.
선택적으로, 제1 이미지에 대한 제2 이미지의 회전 방향은 제3 조작에 의해 지시된 이미지 회전 방향과 동일하거나 반대이다. 이것은 본 출원의 이 실시예에서 제한되지 않는다.
일부 실시예에서, 제3 미리보기 이미지는 제2 미리보기 이미지 후 뷰파인더 인터페이스 상에 디스플레이되고, 여기서 제3 미리보기 이미지는 카메라에 의해 캡처된 제3 이미지가 이미지 회전 방향으로 회전된 후 획득된 이미지이고, 제2 이미지에 대한 제3 이미지의 회전 각도는 제1 이미지에 대한 제2 이미지의 회전 각도와 동일하다. 예를 들어, 카메라가 제1 광각 카메라(초광각 카메라)이면, 제2 미리보기 이미지 후의 제3 미리보기 이미지는 초광각 카메라에 의해 캡처된 제3 이미지 상의 제3 영역에 있는 제3 이미지 블록이 특정 각도만큼 회전한 후 획득된 이미지 블록일 수 있다. 계속해서 도 25가 예로 사용된다. 제2 이미지는 m번째 프레임의 이미지이고, 제2 영역은 m번째 영역이며, 제2 미리보기 이미지는 m번째 영역에 있는 이미지 블록이 각도(G)만큼 회전한 후 획득된 이미지 블록이다. 제3 이미지는 (m+1)번째 프레임의 이미지이고, 제3 영역은 (m+1)번째 영역이며, 제3 미리보기 이미지는, (m+1)번째 영역에 있는 이미지 블록을 각도(2G)만큼 회전시킨 후 획득된 이미지 블록이다. 따라서, 제2 영역에 대한 제3 영역의 회전 각도는 제1 영역에 대한 제2 영역의 회전 각도와 동일하다. 구체적으로는, 미리보기 이미지는 일정한 속도로 회전한다. 물론, 제2 영역에 대한 제3 영역의 회전 각도는 제1 영역에 대한 제2 영역의 회전 각도와 상이할 수 있다. 예를 들어, 제2 영역에 대한 제3 영역의 회전 각도가 제1 영역에 대한 제2 영역의 회전 각도보다 크면, 회전이 가속된다. 제2 영역에 대한 제3 영역의 회전 각도가 제1 영역에 대한 제2 영역의 회전 각도보다 작으면, 회전이 감속된다.
가능한 구현에서, 제3 조작은 이미지 회전 방향을 지시하기 위해 사용된다. 이 가능한 구현에서, 제3 조작을 검출한 후, 전자 디바이스는 미리보기 모드에 있다. 미리보기 모드에서, 미리보기된 픽처가 회전한다. 비디오 레코딩 컨트롤(1307) 상의 조작을 검출하는 경우, 전자 디바이스는 비디오 레코딩을 시작한다. 비디오 레코딩을 시작한 후, 미리보기 이미지가 계속 회전한다. 비디오 레코딩 중지 명령이 검출되는 경우, 비디오 레코딩이 중지된다.
다른 가능한 구현에서, 제3 조작은 이미지 회전 방향을 지시하는데 사용될 수 있을 뿐만 아니라 비디오 레코딩을 시작하는 것을 지시하는데 사용될 수 있다. 도 24이 예로 사용된다. 사용자가 아이콘(1363)의 왼쪽에 있는 왼쪽 화살표를 탭핑하는 제3 조작을 검출하는 경우, 전자 디바이스는 제2 미리보기 이미지를 디스플레이하고, 비디오 레코딩을 시작한다. 전자 디바이스가 회전 중지 명령을 검출하는 경우, 회전 및 비디오 레코딩을 중지하고 비디오를 저장한다. 비디오는 제2 미리보기 이미지를 포함한다.
도 25가 예로 사용된다. 전자 디바이스가 이미지 시계방향 회전 명령을 검출하는 경우, 전자 디바이스는 뷰파인더 인터페이스 상에서, m번째 영역의 m번째 이미지 블록이 각도(G)만큼 회전한 후 얻은 이미지 블록을 디스플레이하고 비디오 레코딩을 시작한다. 그 다음, 미리보기 이미지는, (m+1)번째 영역에 있는 이미지 블록과 (m+2)번째 영역에 있는 이미지 블록이 특정 각도로 회전한 후 획득된 이미지 블록으로 순차적으로 업데이트된다. 전자 디바이스가 회전 정지 명령을 검출할 때까지, 전자 디바이스는 비디오 레코딩을 중지하고 비디오를 저장하고, 여기서 비디오는 m번째 이미지 블록이 각도(G)만큼 회전한 후 획득된 이미지 블록, (m+1)번째 이미지 블록이 각도(2G)만큼 회전한 후 획득된 이미지 블록, 그리고 (m+2)번째 이미지 블록이 각도(3G)만큼 회전한 후 획득된 이미지 블록을 포함한다.
선택적으로, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나일 수 있고, 여기서 N은 1보다 크거나 같은 정수이고, M은 N보다 작은 정수이다. 구체적인 프레임 추출 프로세스에 대해서는, 도 19a 또는 도 19b의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다. 대안적으로, 제2 이미지는 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지 내로의 다중 프레임 삽입을 통해 획득된 M개 프레임의 이미지 중 하나이고, 여기서 N은 1보다 크거나 같은 정수이고, M은 N보다 큰 정수이다. 구체적인 프레임 삽입 프로세스에 대해서는, 도 19c 또는 도 19d의 설명을 참조한다. 상세사항은 본원에 다시 설명되지 않는다.
하기 실시예에서 사용된 용어는 단지 특정 실시예를 설명하도록 의도된 것이지, 본 출원을 제한하려는 의도가 아니다. 본 출원의 본 명세서 및 첨부된 청구항에서 사용되는 명사 표현("one", "a", "the", "the foregoing", "this" 및 "the one")는 또한, 문맥에서 달리 명시되지 않는 한, "하나 이상"과 같은 복수 형태를 포함하도록 의도된다. 본 출원의 실시예에서, "하나 이상"은 하나, 둘 또는 그 이상을 의미한다는 것이 추가로 이해되어야 한다. 부가하여, "및/또는"은, 연관된 오브젝트 사이의 연관 관계를 설명하며 그리고 3개의 관계가 존재할 수 있음을 지시한다. 예를 들어, A 및/또는 B는 A만 존재, A와 B가 둘 다 존재, 및 B만 존재하는 경우를 지시할 수 있으며, 여기서 A와 B는 단수 또는 복수일 수 있다. 문자 "/"는 통상, 연관된 객체 간의 "또는" 관계를 지시한다.
본 명세서에서 설명되는 "실시예", "일부 실시예" 등의 언급은, 본 출원의 하나 이상의 실시예가 실시예를 참조하여 설명된 특정 특징, 구조 또는 특성을 포함한다는 것을 지시한다. 따라서, 본 명세서에서 "일 실시예에서", "일부 실시예에서", "일부 다른 실시예에서", "다른 실시예에서"와 같이 서로 다른 위치를 나타나는 표현은, 반드시 동일한 실시예를 지칭하는 것을 의미하지는 않는다. 그 대신, 다른 방식으로 달리 명시되지 않는 한, 표현은 "실시예의 전부는 아니지만 하나 이상"을 지칭하는 것을 의미한다. "포함하다(include)""포함하다(comprise)""갖다" 및 용어의 변형은 다른 방식으로 달리 명시되지 않는 한, 모두 "포함하지만 이에, 제한되지 않음"을 의미한다.
본 출원에서 제공되는 실시예에서, 본 출원의 실시예에서 제공되는 방법은 모바일 디바이스(예를 들어, 모바일 폰)가 실행 본체로 사용되는 관점에서 설명된다. 본 출원의 실시예에서 제공하는 방법의 기능을 구현하기 위해, 단말 디바이스는, 하드웨어 구조, 소프트웨어 모듈, 또는 하드웨어 구조와 소프트웨어 모듈의 조합의 형태로 기능을 구현하기 위해, 하드웨어 구조 및/또는 소프트웨어 모듈을 포함할 수 있다. 전술한 기능 중 특정 기능이 하드웨어 구조로 수행되는지, 소프트웨어 모듈로 수행되는지 또는 하드웨어 구조와 소프트웨어 모듈의 조합에 의해 수행되는지 여부는, 특정 애플리케이션 및 기술적 솔루션의 설계 제약 조건에 의존한다.
문맥에 따라, 전술한 실시예에서 사용되는 "~하는 경우", 또는 "이후"라는 용어는, "~이면", "~이후", "결정하는 것에 응답하여" 또는 "검출하는 것에 응답하여"의 의미로 해석될 수 있다. 유사하게, 문맥에 따라 "~라는 것이 결정되는 경우" 또는 "~(명시된 조건 또는 이벤트)가 검출된다면"는, "~라는 것이 결정된 경우", "~결정에 응답하여", "(명시된 조건 또는 이벤트)가 검출되는 경우" 또는 "(명시된 조건 또는 이벤트) 검출에 응답하여"를 의미하는 것으로 해석될 수 있다. 게다가, 전술한 실시예에서, 제1 및 제2와 같은 관계 용어는 하나의 엔티티를 다른 엔티티와 구별하기 위해 사용되었으며, 이들 엔티티 간의 실제 관계 및 순서는 제한되지 않는다.
전술한 실시예의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합을 사용하여 구현될 수 있다. 소프트웨어를 사용하여 실시예를 구현하는 경우, 실시예는 컴퓨터 프로그램 제품의 형태로 전부 또는 부분적으로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령을 포함한다. 컴퓨터 프로그램 명령이 컴퓨터 상에 로딩되어 실행되는 경우, 본 출원의 실시예에 따른 절차 또는 기능의 전부 또는 일부가 생성된다. 컴퓨터는 범용 컴퓨터, 특수-목적 컴퓨터, 컴퓨터 네트워크 또는 다른 프로그램가능 장치일 수 있다. 컴퓨터 명령은 컴퓨터-판독가능 저장 매체에 저장될 수 있거나 또는 컴퓨터-판독가능 저장 매체로부터 다른 컴퓨터-판독가능 저장 매체로 전송될 수 있다. 예를 들어, 컴퓨터 명령은 하나의 웹 사이트, 컴퓨터, 서버 또는 데이터 센터로부터, 유선(예를 들어, 동축 케이블, 광섬유, 또는 디지털 가입자 라인(DSL)) 또는 무선(예를 들어, 적외선, 라디오, 또는 마이크로파) 방식으로, 다른 웹 사이트, 컴퓨터, 서버 또는 데이터 센터로 전송될 수 있다. 컴퓨터-판독가능 저장 매체는, 컴퓨터에 의해 액세스가능한 임의의 사용가능한 매체이거나, 데이터 저장 디바이스, 이를테면 하나 이상의 사용가능한 매체를 통합하는 서버 또는 데이터 센터일 수 있다. 사용가능한 매체는 자기 매체(예를 들어, 플로피 디스크, 하드 디스크 또는 자기 테이프), 광학 매체(예를 들어, DVD), 반도체 매체(예를 들어, 솔리드 스테이트 드라이브(Solid State Disk(SSD)) 등일 수 있다.
본 특허 출원 문서의 일부에는 저작권으로 보호되는 콘텐츠가 포함되어 있음에 주목해야 한다. 저작권 소유자는, 특허청의 특허 문서 또는 기록된 특허 문서의 내용을 복사하는 것을 제외하고 저작권을 보유한다.

Claims (45)

  1. 비디오 촬영 방법으로서,
    상기 방법은, 전자 디바이스에 적용되며, 그리고
    카메라 기능을 활성화시키는 단계;
    사용자의 제1 조작에 응답하여, 제1 비디오 레코딩 템플릿(video recording template)을 결정하는 단계 ―상기 제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 상기 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 상기 제2 예시 샘플은 제2 카메라 이동 모드에 대응하고, 그리고 상기 제1 카메라 이동 모드는 상기 제2 카메라 이동 모드와 상이함 ―;
    비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제2 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 포함하고, 상기 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 및 상기 미리설정된 오디오를 포함하고, 상기 제1 비디오 클립은 상기 제1 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립이고, 상기 제2 비디오 클립은 상기 제2 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립인, 비디오 촬영 방법.
  2. 제1항에 있어서,
    상기 사용자의 제2 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계는,
    상기 제1 카메라 이동 모드 식별자가 선택되는 경우, 상기 사용자에 의한 촬영 지시에 응답하여, 상기 제1 카메라 이동 모드에서 상기 제1 비디오 클립을 생성하는 단계 ―상기 제1 비디오 클립의 지속시간은 제1 미리설정된 지속시간임―; 및
    상기 제2 카메라 이동 모드 식별자가 선택되는 경우, 상기 사용자에 의한 촬영 지시에 응답하여, 상기 제2 카메라 이동 모드에서 상기 제2 비디오 클립을 생성하는 단계 ―상기 제2 비디오 클립의 지속시간은 제2 미리설정된 지속시간임―
    를 포함하는, 비디오 촬영 방법.
  3. 제2항에 있어서,
    상기 제1 비디오 클립이 상기 제1 카메라 이동 모드에서 생성되는 경우, 상기 제1 카메라 이동 모드에서 상기 제1 비디오 클립을 생성하는 것의 카운트다운이 상기 비디오 레코딩 인터페이스 상에 추가로 디스플레이되고; 그리고 상기 제2 비디오 클립이 상기 제2 카메라 이동 모드에서 생성되는 경우, 상기 제2 카메라 이동 모드에서 상기 제2 비디오 클립을 생성하는 것의 카운트다운이 상기 비디오 레코딩 인터페이스 상에 추가로 디스플레이되는, 비디오 촬영 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 방법은,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 상기 제1 카메라 이동 모드 식별자 또는 상기 제2 카메라 이동 모드 식별자를 삭제하는 단계;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 더 포함하고, 상기 합성 비디오는, 삭제되지 않은, 상기 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립 및 미리설정된 오디오를 포함하는, 비디오 촬영 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 방법은,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 제3 카메라 이동 모드 식별자를 상기 비디오 레코딩 인터페이스에 추가하는 단계 ―상기 제3 카메라 이동 모드 식별자는 제3 카메라 이동 모드를 지시하는 데 사용됨―;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 더 포함하고, 상기 합성 비디오는 상기 제1 비디오 클립, 상기 제2 비디오 클립, 제3 비디오 클립 및 상기 미리설정된 오디오를 포함하고, 상기 제3 비디오 클립은 상기 제3 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립인, 비디오 촬영 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 방법은,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자의 디스플레이 순서를 제1 순서로 조정하는 단계;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 더 포함하고, 상기 합성 비디오에서 상기 제1 비디오 클립 및 상기 제2 비디오 클립을 재생하는 순서가 상기 제1 순서인, 비디오 촬영 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 예시 샘플 및/또는 상기 제2 예시 샘플은 상기 비디오 레코딩 인터페이스 상에 디스플레이되는, 비디오 촬영 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 합성 비디오를 자동으로 생성하는 단계 전에, 상기 방법은, 프레젠테이션 인터페이스를 디스플레이하는 단계를 더 포함하고, 상기 프리젠테이션 인터페이스는 상기 제1 비디오 클립 및 상기 제2 비디오 클립을 포함하고, 그리고
    상기 합성 비디오를 자동으로 생성하는 단계는, 상기 사용자에 의해 입력된 비디오 합성 명령에 응답하여 비디오 합성을 수행하는 단계를 포함하는, 비디오 촬영 방법.
  9. 제8항에 있어서,
    상기 방법은, 상기 제4 조작에 응답하여, 상기 제1 비디오 클립 또는 상기 제2 비디오 클립을 삭제하는 단계; 또는 상기 합성 비디오에 로컬 제3 비디오 클립을 추가하는 단계; 또는 상기 합성 비디오에서 상기 제1 비디오 클립 또는 상기 제2 비디오 클립의 재생 순서를 조정하는 단계를 더 포함하는, 비디오 촬영 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 제1 비디오 레코딩 템플릿은 디폴트 템플릿 또는 사용자-정의 템플릿인, 비디오 촬영 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 방법은, 상기 제1 비디오 클립, 상기 제2 비디오 클립 및 상기 합성 비디오를 자동으로 저장하는 단계를 더 포함하는, 비디오 촬영 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 방법은, 특정 조작에 응답하여, 상기 합성 비디오의 오디오를 변경하는 단계 또는 상기 합성 비디오에 텍스트 및/또는 픽처(picture)를 추가하는 단계를 더 포함하는, 비디오 촬영 방법.
  13. 전자 디바이스로서,
    하나 이상의 프로세서; 및
    하나 이상의 메모리를 포함하며,
    상기 하나 이상의 메모리는 하나 이상의 컴퓨터 프로그램을 저장하고, 상기 하나 이상의 컴퓨터 프로그램은, 명령을 포함하고 그리고 상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가,
    카메라 기능을 활성화시키는 단계;
    사용자의 제1 조작에 응답하여 제1 비디오 레코딩 템플릿을 결정하는 단계 ―상기 제1 비디오 레코딩 템플릿은 제1 예시 샘플, 제2 예시 샘플, 및 미리설정된 오디오를 포함하고, 상기 제1 예시 샘플은 제1 카메라 이동 모드에 대응하고, 상기 제2 예시 샘플은 제2 카메라 이동 모드에 대응하고, 그리고 상기 제1 카메라 이동 모드는 상기 제2 카메라 이동 모드와 상이함 ―;
    비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 제1 카메라 이동 모드 식별자 및 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제2 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 비디오 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 수행할 수 있고, 상기 합성 비디오는 제1 비디오 클립, 제2 비디오 클립, 및 상기 미리설정된 오디오를 포함하고, 상기 제1 비디오 클립은 상기 제1 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립이고, 상기 제2 비디오 클립은 상기 제2 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립인, 전자 디바이스.
  14. 제13항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 구체적으로는,
    상기 제1 카메라 이동 모드 식별자가 선택되는 경우, 상기 사용자에 의한 촬영 지시에 응답하여, 상기 제1 카메라 이동 모드에서 상기 제1 비디오 클립을 생성하는 단계 ―상기 제1 비디오 클립의 지속시간은 제1 미리설정된 지속시간임―; 및
    상기 제2 카메라 이동 모드 식별자가 선택되는 경우, 상기 사용자에 의한 촬영 지시에 응답하여, 상기 제2 카메라 이동 모드에서 상기 제2 비디오 클립을 생성하는 단계 ―상기 제2 비디오 클립의 지속시간은 제2 미리설정된 지속시간임―
    를 수행할 수 있는, 전자 디바이스.
  15. 제14항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 구체적으로는,
    상기 제1 비디오 클립이 상기 제1 카메라 이동 모드에서 생성되는 경우, 상기 제1 카메라 이동 모드에서 상기 제1 비디오 클립을 생성하는 것의 카운트다운을 상기 비디오 레코딩 인터페이스 상에 추가로 디스플레이 단계; 및 상기 제2 비디오 클립이 상기 제2 카메라 이동 모드에서 생성되는 경우, 상기 제2 카메라 이동 모드에서 상기 제2 비디오 클립을 생성하는 것의 카운트다운을 상기 비디오 레코딩 인터페이스 상에 추가로 디스플레이 단계를 수행할 수 있는, 전자 디바이스.
  16. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 상기 제1 카메라 이동 모드 식별자 또는 상기 제2 카메라 이동 모드 식별자를 삭제하는 단계;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 수행할 수 있고, 상기 합성 비디오는, 삭제되지 않은, 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립 및 미리설정된 오디오를 포함하는, 전자 디바이스.
  17. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 제3 카메라 이동 모드 식별자를 상기 비디오 레코딩 인터페이스에 추가하는 단계 ―상기 제3 카메라 이동 모드 식별자는 제3 카메라 이동 모드를 지시하는 데 사용됨―;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 수행할 수 있고, 상기 합성 비디오는 상기 제1 비디오 클립, 상기 제2 비디오 클립, 제3 비디오 클립 및 상기 미리설정된 오디오를 포함하고, 상기 제3 비디오 클립은 상기 제3 카메라 이동 모드에서 상기 전자 디바이스에 의해 생성된 비디오 클립인, 전자 디바이스.
  18. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로,
    상기 비디오 레코딩 인터페이스를 디스플레이하는 단계 ―상기 비디오 레코딩 인터페이스는 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자를 포함함―;
    상기 사용자의 제3 조작에 응답하여, 상기 제1 카메라 이동 모드 식별자 및 상기 제2 카메라 이동 모드 식별자의 디스플레이 순서를 제1 순서로 조정하는 단계;
    상기 사용자의 제4 조작에 응답하여, 상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 레코딩을 시작하는 단계; 및
    합성 비디오를 자동으로 생성하는 단계
    를 수행할 수 있고, 상기 합성 비디오에서 상기 제1 비디오 클립 및 상기 제2 비디오 클립을 재생하는 순서가 상기 제1 순서인, 전자 디바이스.
  19. 제13항 내지 제18항 중 어느 한 항에 있어서,
    상기 제1 예시 샘플 및/또는 상기 제2 예시 샘플은 상기 비디오 레코딩 인터페이스 상에 디스플레이되는, 전자 디바이스.
  20. 제13항 내지 제19항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로, 프레젠테이션 인터페이스를 디스플레이하는 단계를 수행할 수 있고, 상기 프리젠테이션 인터페이스는 상기 제1 비디오 클립 및 상기 제2 비디오 클립을 포함하고, 그리고
    상기 합성 비디오를 자동으로 생성하는 단계는, 상기 사용자에 의해 입력된 비디오 합성 명령에 응답하여 비디오 합성을 수행하는 단계를 포함하는,전자 디바이스.
  21. 제13항 내지 제20항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로, 상기 제4 조작에 응답하여, 상기 제1 비디오 클립 또는 상기 제2 비디오 클립을 삭제하는 단계; 또는 상기 합성 비디오에 로컬 제3 비디오 클립을 추가하는 단계; 또는 상기 합성 비디오에서 상기 제1 비디오 클립 또는 상기 제2 비디오 클립의 재생 순서를 조정하는 단계를 수행할 수 있는, 전자 디바이스.
  22. 제13항 내지 제21항 중 어느 한 항에 있어서,
    상기 제1 비디오 레코딩 템플릿은 디폴트 템플릿 또는 사용자-정의 템플릿인, 전자 디바이스.
  23. 제13항 내지 제22항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로, 상기 제1 비디오 클립, 상기 제2 비디오 클립 및 상기 합성 비디오를 자동으로 저장하는 단계를 수행할 수 있는, 전자 디바이스.
  24. 제13항 내지 제23항 중 어느 한 항에 있어서,
    상기 명령이 상기 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스가 추가로, 특정 조작에 응답하여, 상기 합성 비디오의 오디오를 변경하는 단계 또는 상기 합성 비디오에 텍스트 및/또는 픽처(picture)를 추가하는 단계를 수행할 수 있는, 전자 디바이스.
  25. 비디오 레코딩 시나리오에서 미리보기 이미지(preview image)를 디스플레이하는 방법으로서,
    상기 방법은, 전자 디바이스에 적용되며, 그리고
    카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하는 단계;
    상기 제1 조작에 응답하여, 상기 카메라 애플리케이션을 시작하는 단계;
    제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하는 단계;
    상기 제2 조작에 응답하여 상기 전자 디바이스의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하는 단계 ―상기 뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 상기 제1 미리보기 이미지는 상기 전자 디바이스 상의 제1 광각 카메라(wide-angle camera)에 의해 캡처된 제1 이미지 상의 제1 영역에 있는 제1 이미지 블록임―;
    상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 이동 방향을 지시하는 제3 조작을 검출하는 단계; 및
    상기 제3 조작에 응답하여, 상기 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하는 단계
    를 포함하고, 상기 제2 미리보기 이미지는 상기 제1 광각 카메라에 의해 캡처된 제2 이미지 상의 제2 영역에 있는 제2 이미지 블록이거나, 또는 상기 제2 미리보기 이미지는, 상기 제2 이미지 블록에 대한 화각(angle of view) 변환이 수행된 후 획득된 이미지 블록이고; 그리고 상기 제1 영역에 대한 상기 제2 영역의 배향은 상기 이미지 이동 방향과 관련되는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  26. 제25항에 있어서,
    상기 제1 영역에 대한 상기 제2 영역의 배향이 상기 이미지 이동 방향과 관련된다는 것은, 상기 제1 영역에 대한 상기 제2 영역의 배향이 상기 이미지 이동 방향과 동일하거나 또는 반대라는 것을 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  27. 제25항 또는 제26항에 있어서,
    상기 제1 영역에 대한 상기 제2 영역의 배향이 상기 이미지 이동 방향과 관련된다는 것은, 상기 제2 이미지의 제1 에지와 상기 제2 영역 간의 거리가 제2 거리이고, 상기 제1 이미지의 제1 에지와 상기 제1 영역 간의 거리가 제1 거리이고, 그리고 상기 제1 거리에 대한 상기 제2 거리의 거리 변화량은 상기 이미지 이동 방향과 관련된다는 것을 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  28. 제25항 내지 제27항 중 어느 한 항에 있어서,
    상기 뷰파인더 인터페이스 상에 제3 미리보기 이미지를 디스플레이하는 단계를 더 포함하고, 상기 제3 미리보기 이미지는 제3 이미지 상의 제3 영역에 있는 제3 이미지 블록이거나, 또는 상기 제3 미리보기 이미지는 상기 제3 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록이고; 그리고 상기 제2 영역에 대한 상기 제3 영역의 제2 배향 변화량은 상기 제1 영역에 대한 상기 제2 영역의 제1 배향 변화량과 동일하고,
    상기 제2 배향 변화량은 상기 제2 거리에 대한 제3 거리의 거리 변화량이고, 상기 제1 배향 변화량은 상기 제1 거리에 대한 상기 제2 거리의 거리 변화량이고, 상기 제3 거리는 상기 제3 이미지의 제1 에지와 상기 제3 영역 간의 거리이고, 상기 제2 거리는 상기 제2 이미지의 제1 에지와 상기 제2 영역 간의 거리이고, 그리고 상기 제1 거리는 상기 제1 이미지의 제1 에지와 상기 제1 영역 간의 거리인, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  29. 제25항 내지 제28항 중 어느 한 항에 있어서,
    상기 제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작이 검출되기 전에, 제4 미리보기 이미지가 상기 뷰파인더 인터페이스 상에 디스플레이되고, 상기 제4 미리보기 이미지는 제2 광각 카메라에 의해 캡처된 이미지이고, 상기 제2 광각 카메라의 시야는 상기 제1 광각 카메라의 시야보다 작고, 그리고 상기 제1 미리보기 이미지는 상기 제1 광각 카메라의 시야와 상기 제2 광각 카메라의 시야 사이의 중첩 범위 내의 이미지 블록의 일부 또는 전부인, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  30. 제25항 내지 제29항 중 어느 한 항에 있어서,
    상기 제3 조작은,
    상기 제1 미리보기 이미지에 대한 플릭(flick) 조작; 또는
    상기 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작; 또는
    상기 뷰파인더 인터페이스 상에서 특정 컨트롤을 누르고 드래그하는 조작
    을 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  31. 제25항 내지 제30항 중 어느 한 항에 있어서,
    상기 방법은, 이미지 이동 정지 명령을 검출하는 경우, 비디오를 생성하여 저장하는 단계를 더 포함하고, 상기 비디오는 상기 제2 미리보기 이미지를 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  32. 제31항에 있어서,
    상기 이미지 이동 정지 명령을 검출하는 단계는,
    상기 제3 조작이 상기 제1 미리보기 이미지에 대한 플릭 조작인 경우, 상기 플릭 조작 후 업리프트를 검출했을 때 상기 이미지 이동 정지 명령을 생성하는 단계; 또는
    상기 제3 조작이 상기 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 상기 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 상기 이미지 이동 정지 명령을 생성하는 단계; 또는
    상기 제3 조작이 상기 뷰파인더 인터페이스 상에서의 이미지 이동 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드 조작인 경우, 상기 터치 앤 홀드 조작(touch and hold operation) 후 업리프트를 검출했을 때 상기 이미지 이동 정지 명령을 생성하는 단계; 또는
    상기 제3 조작이 상기 뷰파인더 인터페이스 상의 특정 컨트롤을 누르고 드래그하는 조작인 경우, 상기 드래그 조작 후 업리프트를 검출했을 때 상기 이미지 이동 정지 명령을 생성하는 단계
    를 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  33. 제25항 내지 제32항 중 어느 한 항에 있어서,
    상기 제2 이미지는 상기 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이거나 ―N은 1 이상의 정수이고, M은 N 보다 작은 정수임―; 또는
    상기 제2 이미지는 상기 제1 광각 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나인 ―N은 1 이상의 정수이고, M은 N보다 큰 정수임―, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  34. 제25항 내지 제33항 중 어느 한 항에 있어서,
    상기 제2 이미지 블록에 대한 화각 변환이 수행된 후 획득된 이미지 블록은,
    x'=x*cos(θ)-sin(θ)*y; 및
    y'=x*sin(θ)+cos(θ)*y 공식을 만족하고,
    (x', y')는 상기 화각 변환 후 획득된 상기 이미지 블록에 대한 픽셀이고; (x, y)는 상기 제2 이미지 블록에 대한 픽셀이고; 그리고 θ는 회전 각도이며 상기 회전 각도는 미리설정되는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  35. 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법으로서,
    상기 방법은, 전자 디바이스에 적용되며, 그리고
    카메라 애플리케이션을 여는 데 사용되는 제1 조작을 검출하는 단계;
    상기 제1 조작에 응답하여, 상기 카메라 애플리케이션을 시작하는 단계;
    제1 비디오 레코딩 모드를 지시하는 데 사용되는 제2 조작을 검출하는 단계;
    상기 제2 조작에 응답하여, 상기 전자 디바이스의 디스플레이 상에 뷰파인더 인터페이스를 디스플레이하는 단계 ―상기 뷰파인더 인터페이스는 제1 미리보기 이미지를 포함하고, 상기 제1 미리보기 이미지는 상기 전자 디바이스 상의 카메라에 의해 캡처된 제1 이미지임―;
    상기 전자 디바이스의 포지션을 변경하지 않고 유지하고 이미지 회전 방향을 지시하는 제3 조작을 검출하는 단계; 및
    상기 제3 조작에 응답하여, 상기 뷰파인더 인터페이스 상에 제2 미리보기 이미지를 디스플레이하는 단계
    를 포함하고, 상기 제2 미리보기 이미지는 상기 카메라에 의해 캡처된 제2 이미지가 상기 이미지 회전 방향으로 회전된 후 획득된 이미지인, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  36. 제35항에 있어서,
    상기 뷰파인더 인터페이스 상에 제3 미리보기 이미지를 디스플레이하는 단계를 더 포함하고, 상기 제3 미리보기 이미지는 상기 카메라에 의해 캡처된 제3 이미지가 상기 이미지 회전 방향으로 회전된 후 획득된 이미지이고, 상기 제2 이미지에 대한 상기 제3 이미지의 회전 각도는 상기 제1 이미지에 대한 상기 제2 이미지의 회전 각도와 동일한, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  37. 제35항 또는 제36항에 있어서,
    상기 카메라는 제1 광각 카메라이고, 상기 제1 이미지는 상기 제1 광각 카메라에 의해 캡처된 제4 이미지 상의 제1 영역에 있는 제1 이미지 블록이고, 상기 제2 이미지는 상기 제1 광각 카메라에 의해 캡처된 제5 이미지 상의 제2 영역에 있는 제2 이미지 블록이고, 그리고 상기 제4 이미지 상의 제1 영역의 포지션은 상기 제5 이미지 상의 상기 제2 영역의 포지션과 동일하거나 상이한, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  38. 제35항 내지 제37항 중 어느 한 항에 있어서,
    상기 제3 조작은,
    상기 제1 미리보기 이미지에 대한 써클 드로잉(circle drawing) 조작; 또는
    상기 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤에 대한 조작
    을 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  39. 제35항 내지 제38항 중 어느 한 항에 있어서,
    상기 방법은, 이미지 회전 정지 명령을 검출하는 경우, 비디오를 생성하여 저장하는 단계를 더 포함하고, 상기 비디오는 상기 제2 미리보기 이미지를 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  40. 제39항에 있어서,
    상기 이미지 회전 정지 명령을 검출하는 단계는,
    상기 제3 조작이 상기 제1 미리보기 이미지에 대한 써클 드로잉 조작인 경우, 상기 써클 드로잉 조작 후 업리프트를 검출했을 때 상기 이미지 회전 정지 명령을 생성하는 단계; 또는
    상기 제3 조작이 상기 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤을 탭핑하는 조작인 경우, 상기 뷰파인더 인터페이스 상의 임의의 포지션에서 탭핑 조작이 다시 수행됨을 검출했을 때 상기 이미지 회전 정지 명령을 생성하는 단계; 또는
    상기 제3 조작이 상기 뷰파인더 인터페이스 상에서의 이미지 회전 방향을 지시하는 데 사용되는 컨트롤의 터치 앤 홀드 조작인 경우, 상기 터치 앤 홀드 조작 후 업리프트를 검출했을 때 상기 이미지 회전 정지 명령을 생성하는 단계
    를 포함하는, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  41. 제35항 내지 제40항 중 어느 한 항에 있어서,
    상기 제2 이미지는 상기 제1 카메라에 의해 캡처된 N개 프레임의 이미지로부터의 프레임 추출을 통해 획득된 M개 프레임의 이미지 중 하나이거나 ―N은 1 이상의 정수이고, M은 N 보다 작은 정수임―; 또는
    상기 제2 이미지는 상기 제1 카메라에 의해 캡처된 N개 프레임의 이미지로의 멀티-프레임 이미지 삽입을 통해 획득된 M개 프레임의 이미지 중 하나인 ―N은 1 이상의 정수이고, M은 N보다 큰 정수임―, 비디오 레코딩 시나리오에서 미리보기 이미지를 디스플레이하는 방법.
  42. 전자 디바이스로서,
    상기 전자 디바이스는 하나 이상의 프로세서 및 하나 이상의 메모리를 포함하고, 상기 하나 이상의 메모리는 하나 이상의 컴퓨터 프로그램을 저장하고, 상기 하나 이상의 컴퓨터 프로그램은 명령을 포함하고, 상기 명령이 하나 이상의 프로세서에 의해 실행되는 경우, 상기 전자 디바이스는 제25항 내지 제41항 중 어느 한 항에 따른 방법을 수행할 수 있는, 전자 디바이스.
  43. 컴퓨터-판독가능 저장 매체로서,
    상기 컴퓨터-판독가능 저장 매체는 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램은 전자 디바이스 상에서 구동되는 경우, 상기 전자 디바이스는 제1항 내지 제12항 중 어느 한 항에 따른 방법 또는 제25항 내지 제41항 중 어느 한 항에 따른 방법을 수행할 수 있는, 컴퓨터-판독가능 저장 매체.
  44. 명령을 포함하는 프로그램 제품으로서,
    상기 명령이 컴퓨터 상에서 구동되는 경우, 상기 컴퓨터는, 제1항 내지 제12항 중 어느 한 항에 따른 방법을 수행할 수 있거나 또는 제25항 내지 제41항 중 어느 한 항에 따른 방법을 수행할 수 있는, 명령을 포함하는 프로그램 제품.
  45. 전자 디바이스 상의 그래픽 사용자 인터페이스로서,
    상기 전자 디바이스는, 디스플레이, 하나 이상의 메모리, 및 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는 상기 하나 이상의 메모리에 저장된 하나 이상의 컴퓨터 프로그램을 실행하도록 구성되고; 그리고 상기 그래픽 사용자 인터페이스는, 상기 전자 디바이스가 제1항 내지 제12항 중 어느 한 항에 따른 방법 또는 제25항 내지 제41항 중 어느 한 항에 따른 방법을 수행할 때 디스플레이되는 그래픽 사용자 인터페이스를 포함하는, 전자 디바이스 상의 그래픽 사용자 인터페이스.
KR1020227018058A 2019-11-29 2020-11-28 비디오 촬영 방법 및 전자 디바이스 KR20220082926A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
CN201911207579 2019-11-29
CN201911207579.8 2019-11-29
CN202010079012 2020-02-03
CN202010079012.3 2020-02-03
CN202011066518.7A CN112887584A (zh) 2019-11-29 2020-09-30 一种视频拍摄方法与电子设备
CN202011066518.7 2020-09-30
PCT/CN2020/132547 WO2021104508A1 (zh) 2019-11-29 2020-11-28 一种视频拍摄方法与电子设备

Publications (1)

Publication Number Publication Date
KR20220082926A true KR20220082926A (ko) 2022-06-17

Family

ID=76043728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227018058A KR20220082926A (ko) 2019-11-29 2020-11-28 비디오 촬영 방법 및 전자 디바이스

Country Status (6)

Country Link
US (1) US11856286B2 (ko)
EP (1) EP4044581A4 (ko)
JP (1) JP7450035B2 (ko)
KR (1) KR20220082926A (ko)
CN (4) CN112887584A (ko)
WO (1) WO2021104508A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
CN112887584A (zh) 2019-11-29 2021-06-01 华为技术有限公司 一种视频拍摄方法与电子设备
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
USD992592S1 (en) * 2021-01-08 2023-07-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD992593S1 (en) * 2021-01-08 2023-07-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN115442538A (zh) * 2021-06-04 2022-12-06 北京字跳网络技术有限公司 一种视频生成方法、装置、设备及存储介质
CN113542610A (zh) * 2021-07-27 2021-10-22 上海传英信息技术有限公司 拍摄方法、移动终端及存储介质
CN113727047A (zh) * 2021-08-18 2021-11-30 深圳传音控股股份有限公司 视频处理方法、移动终端及可读存储介质
WO2023035165A1 (zh) * 2021-09-08 2023-03-16 深圳市大疆创新科技有限公司 拍摄方法、拍摄系统及存储介质
CN114520878A (zh) * 2022-02-11 2022-05-20 维沃移动通信有限公司 视频拍摄方法、装置及电子设备
CN114500851A (zh) * 2022-02-23 2022-05-13 广州博冠信息科技有限公司 视频录制方法及装置、存储介质、电子设备
CN116095225A (zh) * 2022-05-30 2023-05-09 荣耀终端有限公司 终端设备的图像处理方法及装置
CN115334242A (zh) * 2022-08-19 2022-11-11 维沃移动通信有限公司 视频录制方法、装置、电子设备及介质
CN115379195B (zh) * 2022-08-26 2023-10-03 维沃移动通信有限公司 视频生成方法、装置、电子设备和可读存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101217624A (zh) * 2007-01-01 2008-07-09 黄福宝 遥控器控制的mtv合成方法和装置
JP4651704B2 (ja) 2008-11-14 2011-03-16 シャープ株式会社 画像処理装置
US8555169B2 (en) * 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
JP4985834B2 (ja) * 2009-10-13 2012-07-25 株式会社ニコン 撮像装置及び画像処理装置
US20130050477A1 (en) * 2011-08-24 2013-02-28 Marcos LIMA Device for sensing, monitoring and telemetry using video cameras for visualization, broadcast and recording
BR112016013424B1 (pt) * 2013-12-13 2021-01-26 Huawei Device (Shenzhen) Co., Ltd. método e terminal para aquisição de imagem panorâmica
JP2016027704A (ja) * 2014-07-04 2016-02-18 パナソニックIpマネジメント株式会社 撮像装置
CN105049712B (zh) * 2015-06-30 2018-03-02 广东欧珀移动通信有限公司 一种启动终端广角摄像头的方法及终端
CN113138701A (zh) * 2015-11-05 2021-07-20 小米科技有限责任公司 图标位置互换方法及装置
US10021339B2 (en) * 2015-12-01 2018-07-10 Qualcomm Incorporated Electronic device for generating video data
CN105657260A (zh) * 2015-12-31 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种拍摄方法及终端
US10547776B2 (en) * 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
CN107155068A (zh) * 2017-07-11 2017-09-12 上海青橙实业有限公司 移动终端及用于视频拍摄的方法和装置
JP6904843B2 (ja) * 2017-08-03 2021-07-21 キヤノン株式会社 撮像装置およびその制御方法
JP2019140567A (ja) 2018-02-13 2019-08-22 キヤノン株式会社 画像処理装置
CN108566519B (zh) * 2018-04-28 2022-04-12 腾讯科技(深圳)有限公司 视频制作方法、装置、终端和存储介质
CN108900771B (zh) 2018-07-19 2020-02-07 北京微播视界科技有限公司 一种视频处理方法、装置、终端设备及存储介质
JP2020053774A (ja) * 2018-09-25 2020-04-02 株式会社リコー 撮像装置および画像記録方法
CN112887584A (zh) 2019-11-29 2021-06-01 华为技术有限公司 一种视频拍摄方法与电子设备

Also Published As

Publication number Publication date
CN117241135A (zh) 2023-12-15
EP4044581A4 (en) 2023-03-08
US11856286B2 (en) 2023-12-26
CN112887584A (zh) 2021-06-01
US20230007186A1 (en) 2023-01-05
EP4044581A1 (en) 2022-08-17
CN116112786A (zh) 2023-05-12
JP2023503519A (ja) 2023-01-30
CN115191110A (zh) 2022-10-14
CN115191110B (zh) 2023-06-20
WO2021104508A1 (zh) 2021-06-03
JP7450035B2 (ja) 2024-03-14

Similar Documents

Publication Publication Date Title
JP7450035B2 (ja) ビデオ撮影方法と電子装置
WO2021093793A1 (zh) 一种拍摄方法及电子设备
JP7142783B2 (ja) 音声制御方法及び電子装置
JP7326476B2 (ja) スクリーンショット方法及び電子装置
WO2022068537A1 (zh) 一种图像处理方法及相关装置
JP7337954B2 (ja) 親ページと子ページとの間を切り替えるための方法及び関連する機器
US20230217098A1 (en) Shooting method, graphical interface, and related apparatus
US20230353862A1 (en) Image capture method, graphic user interface, and electronic device
CN112068907A (zh) 一种界面显示方法和电子设备
WO2022042769A2 (zh) 多屏交互的系统、方法、装置和介质
CN112637477A (zh) 一种图像处理方法及电子设备
CN115442509B (zh) 拍摄方法、用户界面及电子设备
WO2021204103A1 (zh) 照片预览方法、电子设备和存储介质
CN114327206A (zh) 一种消息显示方法及电子设备
EP4277257A1 (en) Filming method and electronic device
WO2023160224A9 (zh) 一种拍摄方法及相关设备
WO2023226695A1 (zh) 录像方法、装置及存储介质
WO2023226694A1 (zh) 录像方法、装置及存储介质
WO2023226699A1 (zh) 录像方法、装置及存储介质
WO2023231696A1 (zh) 一种拍摄方法及相关设备
WO2023226725A9 (zh) 录像方法和相关装置
WO2023185886A1 (zh) 一种拍摄方法及电子设备
WO2022228010A1 (zh) 一种生成封面的方法及电子设备
CN115344176A (zh) 显示方法及电子设备
CN117440082A (zh) 截屏方法及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal