KR20160020791A - 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법 - Google Patents

촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법 Download PDF

Info

Publication number
KR20160020791A
KR20160020791A KR1020140105982A KR20140105982A KR20160020791A KR 20160020791 A KR20160020791 A KR 20160020791A KR 1020140105982 A KR1020140105982 A KR 1020140105982A KR 20140105982 A KR20140105982 A KR 20140105982A KR 20160020791 A KR20160020791 A KR 20160020791A
Authority
KR
South Korea
Prior art keywords
photographing
image
photographing apparatus
lens
command
Prior art date
Application number
KR1020140105982A
Other languages
English (en)
Other versions
KR102145542B1 (ko
Inventor
이진원
이용희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140105982A priority Critical patent/KR102145542B1/ko
Priority to US14/806,956 priority patent/US9813629B2/en
Priority to CN201580038283.1A priority patent/CN106664356B/zh
Priority to EP15831955.8A priority patent/EP3180908B1/en
Priority to PCT/KR2015/008209 priority patent/WO2016024755A1/en
Publication of KR20160020791A publication Critical patent/KR20160020791A/ko
Application granted granted Critical
Publication of KR102145542B1 publication Critical patent/KR102145542B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

촬영 장치, 이의 촬영 방법, 복수의 촬영 장치를 이용한 촬영 시스템 및 이의 촬영 방법이 제공된다. 본 발명의 촬영 장치에 따르면, 제1 초점거리를 가지는 렌즈를 이용하여 피사체를 촬영하는 카메라부, 제1초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 타 촬영장치와 결합하는 결합부, 촬영 명령이 입력되면, 카메라부 및 타 촬영장치가 각각 촬영을 수행하도록 제어하는 제어부, 카메라부에서 촬영되는 제1 영상과 상기 타 촬영 장치에서 촬영되는 제2 영상을 이용하여, 촬영 이미지를 생성하는 이미지 처리부 및 촬영 이미지를 디스플레이하는 디스플레이부를 포함한다.

Description

촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법 { IMAGE PHOTOGRAPHING APPARATUS, IMAGE PHOTOGRAPHING SYSTEM FOR PHOTOGRAPHING USING A PLURALITY OF IMAGE PHOTOGRAPHING APPARATUSES AND METHODS FOR PHOTOGRAPHING IMAGE THEREOF }
본 발명은 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법들에 관한 것으로, 더욱 상세하게는 복수의 촬영 장치를 결합하여 촬영 이미지를 생성할 수 있도록 하는 촬영 시스템과 그 촬영 시스템에 사용되는 촬영 장치 및 그 촬영 방법들에 관한 것이다.
최근 사용자는 카메라 기능을 탑재한 전자 장치를 쉽게 접할 수 있다. 예를 들면, 최근에 사용되는 휴대폰은 대부분 카메라를 탑재하고 있으며, PDA, 태블릿 PC, 블랙박스 등과 같은 다양한 장치에도 카메라가 탑재되고 있다. 또한, TV와 같은 대형 전자 장치도 카메라 기능을 제공하는 경우가 증가하였다.
휴대폰과 같은 전자 장치에 탑재된 카메라는 대부분 렌즈가 돌출되지 않는 형태이다. 따라서, 이와 같은 전자 장치로 확대 촬영을 하는데 한계가 있다.
따라서 사용자가 다양한 촬영 기능을 사용할 수 있고, 영상 촬영 품질도 향상시킬 수 있는 기술에 대한 필요성이 대두되었다.
본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 복수의 촬영 장치를 결합하여 영상을 촬영할 수 있도록 하는 촬영 시스템 및 그 촬영 장치 및 촬영 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 촬영 장치는 제1 초점거리를 가지는 렌즈를 이용하여 피사체를 촬영하는 카메라부, 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 타 촬영장치와 결합하는 결합부, 촬영 명령이 입력되면, 상기 카메라부 및 상기 타 촬영장치가 각각 촬영을 수행하도록 제어하는 제어부, 상기 카메라부에서 촬영되는 제1 영상과 상기 타 촬영 장치에서 촬영되는 제2 영상을 이용하여, 촬영 이미지를 생성하는 이미지 처리부 및 상기 촬영 이미지를 디스플레이하는 디스플레이부를 포함할 수 있다.
한편, 상기 제어부는, 상기 타 촬영 장치로부터 촬영 명령이 전달되면, 상기 촬영 명령에 따라 상기 카메라부를 제어하여 상기 피사체에 대한 촬영을 수행하는 것을 특징으로 할 수 있다.
그리고 촬영 명령을 입력받기 위한 입력부를 더 포함하고, 상기 제어부는, 상기 촬영 명령이 입력되면, 상기 카메라부를 제어하여 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 명령을 전달하는 것을 특징으로 할 수 있다.
한편, 상기 결합부에 의해 상기 타 촬영 장치가 결합되면, 상기 타 촬영 장치에 구비된 인터페이스부와 전기적으로 연결되는 인터페이스부를 더 포함할 수 있다.
그리고 상기 제2 초점거리가 상기 제1 초점거리보다 길고, 상기 제어부는, 상기 제2 영상을 상기 제1 영상 내의 로컬 영역에 중첩하고, 상기 제2 영상 및 상기 1 영상을 구분하기 위한 경계선을 포함하는 상기 촬영 이미지를 생성하도록 상기 이미지 처리부를 제어하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 디스플레이부에 디스플레이된 상기 촬영 이미지상에서 제1 영상 부분이 터치되면 상기 디스플레이부 전체에 상기 제1 영상을 디스플레이하고, 제2 영상 부분이 터치되면 상기 디스플레이부 전체에 상기 제2 영상을 디스플레이하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 상기 촬영 이미지의 배율을 조정하기 위한 사용자 명령이 입력되면, 상기 카메라부 및 상기 타 촬영 장치 중 적어도 하나의 촬영 배율을 조정하는 것을 특징으로 할 수 있다.
한편, 상기 제1 영상은 제1 라이브뷰 영상이고, 상기 제2 영상은 제2 라이브뷰 영상이며, 상기 제어부는, 상기 카메라부에서 촬영되는 제1 라이브 뷰 내의 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩한 통합 라이브 뷰를 상기 디스플레이부에 표시하고, 촬영 명령이 입력되면, 상기 통합 라이브 뷰에 대응되는 촬영 이미지를 생성하도록 상기 이미지 처리부를 제어하는 것을 특징으로 할 수 있다.
그리고 상기 제어부는, 상기 제1 라이브 뷰가 디스플레이되고 있는 상태에서, 상기 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 상기 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩하도록 상기 이미지 처리부를 제어하는 것을 특징으로 할 수 있다.
한편, 상기 제어부는, 상기 로컬 영역의 크기에 따라 촬영 배율을 계산하여, 상기 촬영 배율로 상기 피사체를 촬영하도록 상기 카메라부를 제어하고, 상기 타 촬영 장치의 상기 촬영 배율을 제어하기 위한 제어 명령을 전달하는 것을 특징으로 할 수 있다.
그리고 상기 촬영 이미지를 저장하기 위한 저장부를 더 포함하고, 상기 제어부는, 연속 촬영 명령이 입력되면, 상기 제1 라이브 뷰를 상기 디스플레이부에 디스플레이하면서, 상기 타 촬영 장치를 제어하여 연속 촬영을 수행하고, 상기 생성된 연속 촬영 이미지를 상기 저장부에 저장하는 것을 특징으로 할 수 있다.
한편, 상기 촬영 장치의 움직임을 감지하기 위한 감지부를 더 포함하고, 상기 제어부는, 상기 타 촬영 장치의 경통이 길어진 상태에서 상기 피사체를 촬영하는 동안, 상기 촬영 장치의 움직임이 기 설정된 조건을 충족하면, 상기 타 촬영 장치의 경통의 길이를 조절하도록 제어하는 것을 특징으로 할 수 있다.
그리고 상기 결합부는, 상기 타 촬영 장치 및 배터리 커버 중 하나가 선택적으로 분리 가능하게 결합되는 구조인 것을 특징으로 할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 촬영 장치의 촬영 방법은 상기 촬영 장치와 타 촬영 장치가 결합된 상태에서 촬영 명령이 입력되면, 제1 초점거리를 가지는 렌즈를 포함하는 상기 촬영 장치 및 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 포함하는 상기 타 촬영 장치에서 각각 피사체에 대해 촬영하는 단계, 상기 촬영 장치에서 촬영된 제1 영상과 상기 타 촬영 장치에서 촬영된 제2 영상을 이용하여, 촬영 이미지를 생성하는 단계 및 상기 촬영 이미지를 디스플레이하는 단계를 포함할 수 있다.
그리고 상기 촬영하는 단계는, 상기 타 촬영 장치로부터 상기 촬영 명령이 전달되면, 상기 촬영 명령에 따라 상기 피사체에 대한 촬영을 수행하는 것을 특징으로 할 수 있다.
한편, 상기 촬영하는 단계는, 상기 촬영 장치에 구비된 입력부를 통해 상기 촬영 명령을 입력받는 단계 및 상기 촬영 명령에 따라 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 명령을 전달하는 단계를 더 포함할 수 있다.
그리고 상기 촬영 장치가 상기 타 촬영 장치와 물리적으로 결합되면, 상기 타 촬영 장치에 구비된 인터페이스부와 전기적으로 연결하는 단계를 더 포함할 수 있다.
한편, 상기 제2 초점거리가 상기 제1 초점거리보다 길고, 상기 촬영 이미지를 생성하는 단계는, 상기 제2 영상을 상기 제1 영상 내의 로컬 영역에 중첩하고, 상기 제2 영상 및 상기 1 영상을 구분하기 위한 경계선을 포함하는 상기 촬영 이미지를 생성하는 것을 특징으로 할 수 있다.
그리고 상기 디스플레이하는 단계는, 상기 디스플레이된 상기 촬영 이미지상에서 제1 영상 부분이 터치되면 상기 디스플레이 전체에 상기 제1 영상을 디스플레이하고, 제2 영상 부분이 터치되면 상기 디스플레이 전체에 상기 제2 영상을 디스플레이하는 것을 특징으로 할 수 있다.
한편, 상기 촬영하는 단계는, 상기 촬영 이미지의 배율을 조정하기 위한 사용자 명령이 입력되면, 상기 촬영 장치 및 상기 타 촬영 장치 중 적어도 하나의 촬영 배율을 조정하는 단계를 더 포함할 수 있다.
그리고 상기 제1 영상은 제1 라이브뷰 영상이고, 상기 제2 영상은 제2 라이브뷰 영상이며, 상기 촬영 이미지를 생성하는 단계는, 상기 제1 라이브 뷰 내의 로컬 영역에 상기 제2 라이브 뷰를 중첩한 통합 라이브 뷰를 디스플레이하고, 상기 촬영 명령이 입력되면, 상기 통합 라이브 뷰에 대응되는 촬영 이미지를 생성하는 것을 특징으로 할 수 있다.
한편, 상기 촬영 이미지를 생성하는 단계는, 상기 제1 라이브 뷰가 디스플레이되고 있는 상태에서, 상기 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 상기 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩하도록 상기 촬영 이미지를 생성하는 것을 특징으로 할 수 있다.
그리고 상기 촬영하는 단계는, 상기 로컬 영역의 크기에 따라 촬영 배율을 계산하여, 상기 촬영 배율로 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 배율을 전달하는 단계를 더 포함할 수 있다.
한편, 연속 촬영 명령이 입력되면, 상기 제1 라이브 뷰를 디스플레이하면서, 상기 타 촬영 장치를 제어하여 연속 촬영을 수행하며, 상기 생성된 연속 촬영 이미지를 저장하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
그리고 상기 촬영 장치의 움직임을 감지하는 단계 및 상기 타 촬영 장치의 경통이 길어진 상태에서 상기 피사체를 촬영하는 동안, 상기 촬영 장치의 움직임이 기 설정된 조건을 충족하면, 상기 타 촬영 장치의 경통의 길이를 조절하는 단계를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 복수의 촬영 장치를 이용한 촬영 시스템은, 제1 초점거리를 가지는 렌즈를 포함하는 제1 촬영 장치 및 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 제2 촬영장치를 포함하고, 상기 제1 촬영 장치는, 상기 촬영 명령에 따라 제1 영상을 촬영하며, 상기 제2 촬영 장치에서 촬영한 제2 영상을 수신하고, 상기 제1 영상 및 상기 제2 영상을 이용하여 촬영 이미지를 생성하여, 상기 생성된 촬영 이미지를 디스플레이하는 것을 특징으로 할 수 있다.
그리고 상기 제2 초점거리는 상기 제1 초점거리보다 길고, 상기 제1 촬영 장치는, 상기 제1 영상 내부의 로컬 영역에 상기 제2 영상을 중첩하여 상기 촬영 이미지를 생성하는 것을 특징으로 할 수 있다.
한편, 상기 제2 촬영 장치는, 촬영 방향에 따라 회전 가능하고, 탈착 가능하며, 이미지 센서를 포함하는 별도의 렌즈를 더 포함하는 것을 특징으로 할 수 있다.
그리고 상기 렌즈는, 모서리부에 기 설정된 간격에 따라 자석을 포함하여, 임계 범위 내의 회전 명령이 입력되는 경우, 상기 자석의 자기력이 미치는 방향으로 회전하는 것을 특징으로 할 수 있다.
한편, 본 발명의 일 실시 예에 따른, 복수의 촬영 장치를 이용한 촬영 방법은, 제1 초점거리를 가지는 렌즈를 포함하는 제1 촬영 장치 및 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 제2 촬영장치가 결합된 상태에서, 촬영 명령이 입력되면, 상기 복수의 촬영 장치 각각이 영상을 촬영하는 단계 및 상기 제1 촬영 장치가, 각 장치에서 촬영된 복수의 영상을 이용하여 촬영 이미지를 생성하고, 상기 생성된 촬영 이미지를 디스플레이하는 단계를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자는 상이한 초점 거리를 가지는 렌즈를 각각 포함하는 복수의 촬영 장치를 이용하여 편리하고 효과적으로 촬영을 수행할 수 있다.
도 1a 내지 도 1d는 본 발명의 다양한 실시 예에 따른, 촬영 장치의 구현 방법을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른, 촬영 장치의 구성을 간략히 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른, 복수의 촬영 장치를 결합하여 피사체를 촬영하는 방법을 도시한 도면,
도 4a 및 도 4b는 촬영 장치가 다른 촬영 장치와 연결을 수행하기 위한 UI를 디스플레이하는 모습을 도시한 도면,
도 5a는 촬영 장치의 일면에 다른 촬영 장치와 연결을 수행하기 위한 인터페이스부를 포함하는 모습을 도시한 도면,
도 5b는 촬영 장치의 일면에 포함된 커버를 제거한 촬영 장치를 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른, 촬영 장치와 결합하기 위한 커버형 카메라로 구현된 제2 촬영 장치를 도시한 도면,
도 7a 내지 도 7c는 복수의 촬영 장치가 결합된 촬영 시스템을 도시한 도면,
도 8는 본 발명의 일 실시 예에 따른, 촬영 장치의 구성을 도시한 도면,
도 9a 내지 도 9c는 촬영 장치가 복수의 영상을 결합한 라이브 뷰를 디스플레이하는 방법을 도시한 도면,
도 10a 내지 도 10c는 촬영 장치가 라이브 뷰로 디스플레이할 영상을 선택하거나, 캡쳐할 영상을 선택하는 방법을 도시한 도면,
도 11a 내지 도 11c는 복수의 촬영 장치가 결합한 촬영 시스템이 촬영하는 영상의 촬영 배율을 조정하는 방법을 도시한 도면,
도 12a 및 도 12b는, 제2 촬영 장치의 렌즈가 탈착 가능한 실시 예를 도시한 도면,
도 13a는 제2 촬영 장치 및 탈착 가능하며, 회전 가능한 렌즈를 도시한 도면,
도 13b는 본 발명의 일 실시 예에 따른, 탈착 가능하며, 회전 가능한 렌즈를 도시한 도면,
도 14a 내지 도 14c는 회전 가능하고 탈착 가능한 렌즈 및 제2 촬영 장치의 결합 방법을 도시한 도면,
도 15a 및 도 15b는 회전 가능하고 탈착 가능한 렌즈가 복수개의 자석을 포함하는 실시 예를 도시한 도면,
도 16a 내지 도 16g는 촬영 장치의 상가림 현상을 제어하는 방법을 도시한 도면,
도 17은 본 발명의 일 실시 예에 따른, 제2 촬영 장치의 경통의 길이가 조절되는 방법을 도시한 도면,
도 18a 내지 도 18d는 복수의 촬영 장치가 결합한 촬영 시스템에 탈착 가능한 별도의 입력부를 도시한 도면,
도 19a 내지 도 19c는 제2 촬영 장치를 통해 촬영한 영상을 중첩하여 디스플레이할 영역을 선택하는 방법을 도시한 도면,
도 20a 내지 도 20d는 제2 촬영 장치를 통해 촬영한 영상을 중첩하여 디스플레이할 영역의 선택에 따른, 이미지 생성 방법을 도시한 도면,
도 21은 본 발명의 일 실시 예에 따른, 촬영 장치를 이용한 촬영 방법을 도시한 흐름도, 그리고
도 22는 본 발명의 일 실시 예에 따른, 휴대폰 및 커버형 카메라를 이용한 촬영 방법을 도시한 시퀀스도이다.
이하에서는 첨부된 도면을 참조하여, 본 발명의 다양한 실시 예를 좀더 상세하게 설명한다. 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1a 내지 도 1d는, 본 발명의 다양한 실시 예에 따른 촬영 시스템의 촬영 방법을 설명하기 위한 도면이다. 도 1a 내지 도 1d에 따르면, 촬영 시스템은 동종의 또는 이종의 복수의 촬영 장치로 구성될 수 있다. 사용자는 복수의 촬영 장치의 촬영 방향이 동일한 피사체를 향하도록 배치한 후, 촬영을 수행할 수 있다. 이 경우, 복수의 촬영 장치는 서로 다른 시점에서 서로 다른 화각으로 피사체를 촬영할 수 있다. 촬영 시스템은, 각 촬영 장치에서 촬영된 복수의 영상을 이용하여 촬영 이미지를 최종적으로 생성할 수 있다.
도 1a는 각 촬영 장치(100-1, 100-2)가 카메라부(120-1, 120-2)를 각각 포함하는 휴대폰으로 구현된 경우를 도시한 도면이다.
사용자는 동종의 복수의 촬영 장치(100-1, 100-2)를 도 1a에 도시된 바와 같이 겹쳐서 촬영 명령을 입력할 수 있다. 이 경우, 복수의 촬영장치(100-1, 100-2)에 상호 연결을 위한 연결 구조(예를 들어, 요철 구조, 연결 고리 등)가 마련되어 있다면, 사용자는 연결 구조를 이용하여 복수의 촬영 장치(100-1, 100-2)를 서로 고정적으로 연결할 수도 있다. 또는, 별다른 연결 구조가 없는 경우, 사용자는 자신의 손으로 두 촬영 장치(100-1, 100-2)를 한꺼번에 파지한 상태에서 촬영 명령을 입력할 수 있다.
사용자는 복수의 촬영 장치(100-1, 100-2)를 함께 이용하여 촬영하기 위하여, 두 촬영 장치(100-1, 100-2) 사이를 유선 또는 무선 통신 인터페이스를 통해 연결시킬 수도 있다. 이러한 상태에서, 촬영 명령이 입력되면, 각 촬영 장치(100-1, 100-2)에서 촬영이 이루어진다. 각 촬영 장치(100-1, 100-2)에서 촬영된 영상들은 하나의 촬영 장치에서 조합하여 하나의 촬영 이미지를 생성할 수 있다. 이 경우, 두 촬영 장치(100-1, 100-2)의 시점이나 화각 등이 서로 다르므로, 촬영 시스템에서는 이를 조합하여 다양한 형태의 촬영 이미지를 생성할 수 있다. 가령, 촬영 시스템은 좌측에 위치한 촬영 장치에서 촬영한 영상은 좌안 영상으로 하고, 우측에 위치한 촬영 장치에서 촬영한 영상은 우안 영상으로 하는 3D 컨텐츠를 생성할 수 있다. 또는, 촬영 시스템은 광각 렌즈를 사용하는 촬영 장치에서 촬영한 영상 내의 일부 영역을 망원 렌즈를 사용하는 촬영 장치에서 촬영한 영상 중 적어도 일부로 대체한 합성 이미지를 생성할 수도 있다. 또는, 제1 촬영 장치(100-1)에서는 동영상을 촬영하도록 하고, 제2 촬영 장치(100-2)는 정지 영상을 촬영하거나, 제1 촬영 장치(100-1)에서는 정지 영상을 촬영하도록 하고, 제2 촬영 장치(100-2)에서는 동영상을 촬영하도록 하여, 촬영 시스템은 동영상 및 정지 영상이 결합된 촬영 이미지를 생성할 수도 있다.
한편, 복수의 촬영 장치(100-1, 100-2) 간의 통신 연결은 자동으로 이루어질 수도 있다. 예를 들어, 복수의 촬영 장치 중 제1 촬영 장치(100-1)에서, 공동 촬영 명령이 입력되면, 그 촬영 장치(100-1)는 블루투스 또는 NFC와 같은 근거리 통신을 이용하여, 기설정된 거리 내에 위치하는 다른 촬영 장치를 검색할 수 있다. 검색 결과, 제2 촬영 장치(100-2)가 발견되면, 검색된 제2 촬영 장치(100-2)와 통신을 연결할 수 있다. 또는, 복수의 촬영 장치(100-1, 100-2) 사이에서 태깅(tagging)이 이루어지면, 근거리 무선 통신 방식에 따라 통신을 자동으로 연결할 수도 있다.
통신이 연결되면, 사용자는 각 촬영 장치를 이용하여 일괄적으로 영상을 촬영할 수 있다. 이 경우, 각 촬영 장치 중 하나가 디스플레이부를 구비하고 있다면, 해당 디스플레이부를 통해 라이브 뷰 또는 촬영 영상을 디스플레이할 수 있다. 또는, 사용자는 각 촬영 장치 중 하나를 통해서 캡쳐 명령이나 저장 명령 등과 같은 각종 사용자 명령을 입력할 수도 있다.
도 1a에서는 각 촬영 장치(100-1, 100-2)가 카메라(120-1, 120-2)를 각각 포함하는 휴대폰으로 구현된 경우를 예를 들어 설명하였다. 그러나 이는 일 실시 예에 불과할 뿐, 촬영 장치(100)는 카메라부를 포함하는 태블릿 PC, 디지털 카메라, 캠코더, PDA, MP3와 같은 다양한 전자 장치로 구현될 수 있다.
또는, 복수의 촬영 장치 중 하나는 다른 촬영 장치에 부착하여 사용하는 보조 카메라로 구현될 수도 있다. 즉, 사용자는 다양한 유형의 촬영 장치들이 동일 방향으로 촬영을 수행하도록 연결하여 촬영을 수행할 수도 있다. 이하에서는, 다양한 형태의 촬영 장치로 구성되는 촬영 시스템의 예를 설명한다.
도 1b는 서로 다른 이종의 촬영 장치(100, 200)를 포함하는 촬영 시스템의 구성을 나타낸다. 도 1b에 따르면, 사용자는 휴대폰으로 구현된 촬영 장치(100)와 카메라로 구현된 타 촬영 장치(200)를 서로 연결하여 촬영 시스템을 만들 수 있다. 도 1b의 타 촬영 장치(200)는 촬영 장치(100)와 물리적으로 결합 가능한 구조로 제작될 수 있다. 도 1b에서는 제1 촬영 장치(100) 내에서 카메라부(120)가 배치된 면 방향으로 타 촬영 장치(200)가 연결된 상태를 나타낸다. 이 경우, 촬영 장치(100)의 후면의 배터리 커버를 벗겨내고, 그 배터리 커버와 본체 사이의 연결구조를 이용하여, 타 촬영 장치(200)를 연결하도록 복수의 촬영 장치 각각이 제작될 수도 있다. 설명의 편의를 위해서, 이러한 형태의 촬영 장치를 커버형 촬영 장치라 한다. 이에 대해서는 후술하는 부분에서 구체적으로 설명한다.
도 1b와 같이 연결된 상태에서, 사용자가 촬영을 수행하면, 복수의 촬영 장치(100, 200)는 카메라부(120, 220)를 이용하여 각각 촬영을 수행한다. 타 촬영 장치(200)에서 촬영된 영상은 촬영 장치(100)로 전달된다. 촬영 장치(100)는 직접 촬영한 제1 영상과, 타 촬영 장치(200)에서 촬영한 제2 영상을 이용하여, 하나의 촬영 이미지를 생성한다. 상술한 바와 같이 촬영 이미지는 실시 예에 따라 다양한 유형이 될 수 있는바 중복 설명은 생략한다.
한편, 도 1b의 타 촬영 장치(200)는 렌즈가 탈착 가능한 형태가 될 수 있다. 도 1c는 탈착 가능한 렌즈(300)를 이용하는 타 촬영 장치(200)와 촬영 장치(100)를 연결하는 구조를 도시하였다. 사용자는 촬영 영상의 종류, 촬영 배율 등에 따라 다양한 종류의 렌즈(300)로 변경하여 타 촬영 장치(200)에 부착할 수 있다. 예를 들어, 망원 렌즈를 타 촬영 장치(200)에 부착할 수도 있다. 따라서, 촬영 장치(100)와 함께 이용되는 타 촬영 장치(200)의 성능을 다양하게 변경시켜, 다양한 촬영 효과를 구현할 수 있다.
이상에서는 복수의 촬영 장치(100, 200)가 서로 독립적인 형태로 구현된 촬영 시스템을 예로 설명하였으나, 복수의 카메라가 하나의 촬영 장치에 함께 포함되는 구조로 구현될 수도 있다.
도 1d는 이러한 실시 예에 따라 구현된 촬영 장치(100)의 구성을 나타낸다. 도 1d에 따르면, 촬영 장치(100)는 복수의 카메라부(120-1, 120-2)를 포함한다.
복수의 카메라부 중 하나인 제1 카메라부(120-1)는 촬영 장치(100)에 고정되고, 제2 카메라부(120-2)는 이동 가능한 형태로 구현될 수 있다. 즉, 촬영 장치(100)의 일 면에는 홈(50)이 형성될 수 있다. 제2 카메라부(120-2)는 홈(50)을 따라 이동 가능한 형태로 구현될 수 있다.
사용자는 제2 카메라부(120-2)의 위치를 조정하면서, 복수의 제1 및 제2 카메라부(120-1, 120-2)에 의해 촬영된 촬영 이미지를 라이브 뷰로 확인할 수 있다. 이에 따라, 사용자는 자신의 의도에 부합하는 촬영 이미지를 생성할 수 있다.
도 1d의 제1 및 제2 카메라부(120-1, 120-2)는 동일한 카메라로 구현될 수도 있지만, 또 다른 실시 예에 따르면, 제1 및 제2 카메라부(120-1, 120-2)는 종류, 촬영 배율, 초점거리, 화각(Field of view) 등과 같은 카메라 스펙이 상이하게 설계될 수도 있다. 예를 들면, 제1 카메라부(120-1)는 초점거리가 비교적 짧은 광각 렌즈를 포함하고, 다른 카메라부(120-2)는 초점거리가 비교적 긴 망원 렌즈를 포함할 수 있다.
이 밖에도, 사용자는 다양한 종류의 촬영 장치를 이용하여 하나의 촬영 시스템을 구축하여 영상을 촬영할 수 있게 된다. 도 1a 내지 도 1c에 도시된 바와 같이, 서로 독립적인 장치로 구현된 촬영 장치를 연결하는 실시 예의 경우, 각 촬영 장치는 타 촬영 장치와 통신을 수행하여 촬영 명령을 비롯한 각종 사용자 명령이나, 영상 등의 데이터를 송신 또는 수신할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 촬영 장치(100)의 구성을 나타내는 블럭도이다. 설명의 편의상 도 2의 촬영 장치에 대해서는 상술한 제1 촬영 장치와 동일한 참조부호 100을 사용하였지만, 제2 촬영 장치도 도 2와 같은 형태로 구성될 수도 있다.
도 2에 따르면, 촬영 장치(100)는 결합부(110), 카메라부(120), 이미지 처리부(130), 디스플레이부(140) 및 제어부(150)를 포함한다. 상술한 바와 같이, 촬영 장치(100)는 스마트폰, 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 PC, PDA, MP3 등과 같은 다양한 전자 장치로 구현될 수 있다.
결합부(110)는 촬영 장치(100)를 타 촬영 장치와 연결하기 위한 구성요소이다. 타 촬영 장치는 본 촬영 장치(100)와 반드시 동종일 필요는 없으며, 실시 예에 따라 이종의 촬영 장치로 구현될 수도 있다.
특히, 결합부(110)는 타 촬영 장치 또는 배터리 커버가 선택적으로 분리 가능하게 결합되는 구조일 수 있다. 즉, 결합부(110)를 통해 촬영 장치(100)는 배터리 커버를 분리가능하게 결합할 수 있다. 그리고 배터리 커버가 결합부(110)에서 제거되면, 타 촬영 장치가 결합부(110)를 통해 분리 가능하게 결합될 수 있다.
촬영 장치(100)는 타 촬영 장치와 촬영 명령 또는 영상 캡쳐 명령과 같은 사용자 명령을 주고 받을 수 있다. 즉, 촬영 장치(100) 및 타 촬영 장치가 결합부(110)를 통해 물리적으로 상호 결합되면, 촬영 장치(100)는 타 촬영 장치와 통신 세션을 연결할 수 있다.
카메라부(120)는 영상을 촬영하기 위한 구성요소이다. 촬영 장치(100)는 촬영 명령이 입력되면, 카메라부(120)를 통해 피사체를 촬영할 수 있다.
카메라부(120)는 렌즈, 셔터, 조리개, 고체 촬상 소자, AFE(Analog Front End), TG(Timing Generator)를 포함한다. 렌즈는 임의의 초점거리를 가질 수 있다. 특히, 렌즈는 11mm 내지 35mm의 초점거리를 가지를 광각렌즈일 수 있다. 셔터는 피사체에 반사된 빛이 촬영 장치(100)로 들어오는 시간을 조절하고, 조리개는 빛이 들어오는 개구부의 크기를 기계적으로 증가 또는 감소시켜 렌즈에 입사되는 광량을 조절한다. 고체 촬상 소자는 피사체에 반사된 빛이 광전하로 축적되면, 광전하에 의한 상을 전기 신호로 출력한다. TG는 고체 촬상 소자의 픽셀 데이터를 리드 아웃 하기 위한 타이밍 신호를 출력하며, AFE는 고체 촬상 소자로부터 출력되는 전기 신호를 샘플링하여 디지털화한다. 각 구성의 자세한 설명은 뒤에서 하기로 한다.
이미지 처리부(130)는 이미지를 처리하기 위한 구성요소이다. 이미지 처리부(130)는 라이브 뷰 생성, 이미지 해상도 조절, 스케일링, 컬러 및 콘트라스트 조정, 픽셀 보간, 커팅, 중첩 등과 같은 다양한 이미지 처리 동작을 수행할 수 있다. 이미지 처리부(130)는 카메라부(120)에서 촬영되는 제1 영상 및 타 촬영 장치에서 촬영되는 제2 영상을 이용하여 촬영 이미지를 생성할 수 있다. 생성된 촬영 이미지는 라이브뷰가 될 수도 있고, 캡쳐 이미지가 될 수도 있다.
상술한 제1 및 제2 영상이 상이한 초점거리를 가지는 렌즈를 통해 촬영된 영상인 경우, 이미지 처리부(130)는 제1 및 제2 영상을 중첩하여 촬영 이미지를 생성할 수 있다.
구체적으로, 카메라부(120)에 포함된 렌즈의 초점거리인 제1 초점거리가 타 촬영 장치에 포함된 렌즈의 초점거리인 제2 초점거리보다 짧은 경우, 이미지 처리부(130)는 카메라부(120)를 통해 촬영된 제1 영상 내의 로컬 영역에 타 촬영 장치에서 촬영된 제2 영상을 중첩한 촬영 이미지를 생성할 수 있다.
그리고 이미지 처리부(130)는 제1 영상의 로컬 영역에 제2 영상이 중첩된 경우, 제1 및 제2 영상을 구분하여 표시하기 위한 경계선을 포함한 촬영 이미지를 생성할 수도 있다.
또한, 제1 영상이 라이브 뷰(Live View)로 디스플레이되고 있는 상태에서, 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 이미지 처리부(130)는 제1 라이브 뷰 내의 국부 영역에 타 촬영 장치에서 촬영되는 제2 영상을 중첩하여 라이브 뷰를 생성할 수도 있다.
디스플레이부(140)는 촬영 영상 및 각종 UI 등을 디스플레이하기 위한 구성요소이다. 디스플레이부(140)는 이미지 처리부(130)를 통해 생성된 촬영 이미지를 디스플레이할 수 있다. 디스플레이부(140)는 촬영 이미지를 라이브 뷰로 디스플레이하거나, 캡쳐 또는 저장 영상을 디스플레이할 수 있다.
한편, 제어부(150)는 촬영 장치(100)의 전반적인 동작을 제어하기 위한 구성요소이다. 특히, 제어부(150)는 복수의 촬영 장치에서 촬영된 영상을 이용하여 이미지 처리부(130)를 통해 촬영 이미지를 생성하도록 할 수 있다.
상술한 바와 같이, 촬영 장치(100)가 타 촬영 장치와 연결되어 하나의 촬영 시스템을 구축한 경우, 사용자의 편의를 위해서 사용자가 하나의 장치에 대해서만 촬영 명령을 입력하더라도, 각 촬영 장치가 일괄적으로 촬영을 수행하도록 설계할 수 있다.
예를 들어, 촬영 장치(100)에 구비된 촬영 버튼이나 터치 스크린과 같이 촬영 명령을 입력받기 위한 입력부를 통해 촬영 명령이 입력되면, 제어부(150)는 카메라부(120)를 제어하여 피사체를 촬영하는 한편, 촬영 명령을 다른 촬영 장치로 전달할 수 있다.
또는, 촬영 명령은 타 촬영 장치를 통해 입력될 수도 있다. 이 경우, 제어부(130)는 타 촬영 장치로부터 촬영 명령이 전달되면, 카메라부(120)를 제어하여 피사체를 촬영할 수 있다.
한편, 제어부(150)는 카메라부(120)를 통해 촬영된 제1 영상을 라이브뷰로 디스플레이하고, 타 촬영 장치가 촬영한 영상을 수신하여, 제1 영상 내의 국부 영역에 중첩하여 라이브뷰로 디스플레이하도록 제어할 수 있다.
특히, 카메라부(120)에 포함된 렌즈의 초점거리와 상이한 초점거리를 가지는 타 촬영 장치의 렌즈를 통해 영상이 촬영된 경우, 제어부(150)는 초점거리가 긴 렌즈를 통해 촬영된 영상 내부에 초점거리가 짧은 렌즈를 통해 촬영된 영상을 중첩하여 디스플레이하도록 제어할 수 있다.
예를 들면, 카메라부(120)에 포함된 렌즈는 광각렌즈이고, 다른 촬영 장치에 포함된 렌즈는 망원렌즈일 수 있다. 이 경우, 제어부(150)는 광각렌즈로 촬영된 영상 내부의 로컬 영역에 망원 렌즈로 촬영된 영상을 중첩하여 디스플레이할 수 있다.
그리고 다른 촬영장치를 통해 영상을 캡쳐하기 위한 명령이 입력되고, 영상 캡쳐 명령이 전달되면, 제어부(150)는 라이브뷰로 디스플레이되는 영상을 캡쳐할 수 있다.
한편, 촬영 장치(100)에 포함된 디스플레이부(140)가 터치 스크린으로 구현된 경우, 제어부(150)는 제1 및 제2 영상이 중첩된 촬영 이미지상에서 제1 영상 부분이 터치되면 디스플레이부(140) 전체에 제1 영상을 디스플레이하고, 제2 영상 부분이 터치되면 디스플레이부(140) 전체에 제2 영상을 디스플레이하도록 제어할 수 있다.
또한, 촬영 이미지의 배율을 조정하기 위한 사용자 명령이 입력되면, 제어부(150)는 카메라부(120)의 촬영 배율을 조정할 수 있다. 그리고 제어부(150)는 다른 촬영 장치로 입력된 촬영 배율을 전달할 수 있다.
한편, 디스플레이부(140)가 카메라부(120)에서 촬영되는 제1 영상을 제1 라이브뷰로 디스플레이하는 동안, 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 제어부(150)는 선택된 로컬 영역에 다른 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩하도록 이미지 처리부(130)를 제어할 수 있다.
즉, 제어부(150)는 선택된 로컬 영역의 크기에 따른 촬영 배율을 계산하고, 계산된 촬영 배율에 따라 피사체를 촬영하도록 카메라부(120)를 제어할 수 있다. 그리고 계산된 촬영 배율을 타 촬영 장치로 전달하도록 제어할 수도 있다.
상술한 바와 같은 촬영 장치(100)를 통해, 사용자는 서로 다른 렌즈, 특히 초점거리가 상이한 렌즈로 용이하게 영상을 촬영할 수 있게 된다.
이하에서는, 복수의 촬영 장치를 연결하여 촬영을 수행하는 방법에 대해 구체적으로 설명한다.
도 3에 도시된 바와 같이, 휴대폰 형태로 구현된 복수의 촬영 장치를 이용하는 경우, 사용자는 복수의 촬영 장치(100-1, 100-2)에 포함된 카메라가 동일한 방향을 촬영하도록 배치하여 촬영할 수 있다. 이때, 복수의 촬영 장치(100-1, 100-2)는 블루투스 통신, NFC 통신과 같은 통신 연결을 통해 연결되어 통신을 수행할 수 있다.
즉, 임의의 촬영 장치(100-1)의 통신 가능 거리(예를 들어, 10cm) 내에, 다른 촬영 장치(100-2)가 근접하면, 촬영 장치(100-1)는 다른 촬영 장치(100-2)를 감지하여 사용자에게 연결의 수행 여부를 문의하기 위한 UI(20)를 디스플레이할 수 있다.
타 촬영 장치(100-2)에 대한 검색은 다양한 방식으로 이루어질 수 있다. 일 예로, 촬영 장치(100-1)는 연결 가능한 상태인지 여부를 문의하는 퀘어리 신호를 생성한 후, 주변으로 브로드 캐스팅할 수 있다. 퀘어리 신호를 수신한 주변 장치들은 그 퀘어리 신호에 대한 응답 신호를 전송할 수 있다. 촬영 장치(100-1)는 응답 신호가 수신되면, 그 응답 신호에 포함된 장치 정보를 검출하여, 어떠한 장치가 연결 가능한지 판단할 수 있다.
도 4는 촬영 장치(100)가 연결 가능한 장치를 판단한 경우 디스플레이할 수 있는 UI(20)를 도시한 도면이다. 촬영 장치(100)는 "연결 가능한 기기가 검색되었습니다(20)"와 같은 문구와 함께, 연결 가능한 장치 목록을 디스플레이할 수 있다.
사용자는 장치 목록 내에서 연결하고자 하는 장치를 선택할 수 있다. 연결을 수행하기 위한 장치가 선택되면, 촬영 장치(100)는 해당 장치와 통신을 연결할 수 있다. 구체적으로는, 촬영 장치(100)는 해당 장치의 SSID, 암호 키 등을 근거리 무선 통신 방식을 통해 획득한 후, 통신 세션 연결 요청을 전송할 수 있다.
이에 따라 통신이 연결되면, 촬영 장치(100)는 연결이 완료되었음을 알리기 위한 UI(30)를 디스플레이할 수 있다. 예를 들면, 도 4b에 도시된 바와 같이, 촬영 장치(100)는 "연결완료, ABC1 장치와 본 장치를 붙인 후 촬영하세요(30)"와 같은 문구를 디스플레이할 수 있다. 'ABC1'은 연결된 다른 장치의 시리얼 넘버 또는 명칭일 수 있다.
사용자는 디스플레이된 문구(30)에 따라 복수의 촬영 장치를 서로 겹쳐 잡고 촬영을 수행할 수 있다.
도 4a 및 도 4b에서는 통신이 연결된 이후에, 사용자가 복수의 촬영 장치를 서로 겹쳐 잡고 사용하는 것으로 설명하였으나, 촬영 장치(100)는 외부 표면에 다른 촬영 장치와 전기적으로 연결하기 위한 인터페이스부(115)가 구비된 경우, 복수의 촬영 장치는 무선 통신을 연결할 필요 없이, 각 촬영 장치에 구비된 인터페이스부가 서로 맞닿도록 복수의 촬영 장치를 겹쳐 잡는 사용자의 행위에 의해 촬영 시스템이 형성될 수 있다.
또한, 복수의 촬영 장치 각각에 구비된 인터페이스부의 위치가 맞닿도록 사용자가 복수의 촬영 장치를 겹쳐 잡을 수도 있으나, 사용자 편의를 위해, 복수의 촬영 장치는 서로 결합하기 위한 결합부를 포함할 수 있다. 이하에서는 복수의 촬영 장치가 인터페이스부를 통해 데이터를 송수신하고, 결합부를 포함하여 서로 결합되는 실시 예에 대해 설명한다.
도 5a는 인터페이스부(115)가 외부에 포함된 촬영 장치(100)를 도시한 도면이다. 도 5a에 따르면, 촬영 장치(100)에서 카메라부(120)가 형성된 면과 동일한 면 방향으로 인터페이스부(115)가 형성될 수 있다. 따라서 사용자는 타 촬영 장치에 형성된 인터페이스가 인터페이스부(115)를 향하도록 붙여서 서로 연결하여, 촬영을 수행할 수 있다.
한편, 촬영 장치(100)는 배터리 커버 또는 타 촬영 장치와 선택적으로 결합가능한 결합부(110)를 포함할 수 있다. 구체적으로, 촬영 장치(100)의 결합부(110)는 배터리 커버에 구비된 다수의 돌기와 접합가능한 홈으로 구현될 수 있다. 즉, 도 5b에 도시된 바와 같이, 결합부(110)는 배터리 커버를 제거한 상태에서 드러나는 각종 홈(501 내지 506)으로 구현될 수 있다. 따라서, 사용자는 배터리 커버의 돌기 또는 배터리 커버와 동일한 돌기를 가지는 타 촬영 장치를 결합부(110)의 복수의 홈(501 내지 506)을 이용하여 탈부착시킬 수 있다. 그러나 이는 일 실시 예에 불과할 뿐, 결합부는 촬영 장치의 사이드 면이나 후면에 다양한 형태로 별도로 마련될 수도 있다.
배터리 커버에 의해 패키징 되는 촬영 장치(100)의 뒷면에는 배터리뿐만 아니라, 인터페이스부(115)가 포함될 수 있다. 즉, 촬영 장치(100)로부터 배터리 커버가 제거되면, 인터페이스부(115)가 드러날 수 있다.
한편, 도 6은, 촬영 장치(100)와 결합하기 위한 타 촬영 장치(200)의 외관 후면을 나타내는 도면이다. 타 촬영 장치(200)는 촬영 장치(100)로부터 배터리 커버를 벗겨 낸 표면에 배터리 커버를 대체하여 연결 가능한 케이스 형태로 구현될 수 있다.
즉, 타 촬영 장치(200)는 배터리 커버가 촬영 장치(100)의 후면에 고정되기 위해 구비한 돌출부와 동일한 형태의 돌기를 포함할 수 있다. 따라서, 타 촬영 장치(200)의 돌출된 형태의 결합부(601, 602, 603, 604, 605, 606)는 촬영 장치(100)의 홈(501 내지 506)과 결합하여, 촬영 장치(100) 및 타 촬영 장치(200)는 고정적으로 결합될 수 있다. 즉, 타 촬영 장치(200)는 촬영 장치(100)의 배터리 커버가 제거된 위치에 결합될 수 있다.
한편, 타 촬영 장치(200)는 촬영 장치(100)와 결합하기 위한 인터페이스부(210), 카메라부(220) 및 셔터 버튼(230)을 포함할 수 있다.
또한, 타 촬영 장치(200)는 촬영 장치(100)의 카메라부(120)를 가리지 않기 위해, 제1 촬영 장치(100)의 카메라부(120)의 위치에 대응되는 위치에 개구 영역(235)을 포함할 수 있다. 따라서, 촬영 장치 및 타 촬영 장치(100, 200)가 결합한 면, 개구 영역(235) 내에 촬영 장치(100)의 카메라부(120)가 위치할 수 있다.
그리고 타 촬영 장치(200)의 인터페이스부(210)는 제1 촬영 장치(100)의 인터페이스부(115)와 맞닿도록 위치할 수 있다. 즉, 촬영 장치(100) 및 타 촬영 장치(200)가 결합되면, 인터페이스부(115, 210)는 서로 맞닿게 된다.
이상과 같은 방식으로 연결되면, 타 촬영 장치(200)의 카메라부(220)는 촬영 장치(100)의 카메라부(120)와 별도로 영상 촬영을 수행할 수 있다. 특히, 타 촬영 장치(200)의 카메라부(220)는 촬영 장치(100)의 카메라부(120)의 렌즈와 상이한 초점 거리를 가지는 렌즈를 포함할 수 있다. 예를 들면, 촬영 장치(100)의 카메라부(120)의 렌즈는 초점 거리보다 타 촬영 장치(200)의 카메라부(220)의 렌즈의 초점거리가 더 길 수 있다.
한편, 타 촬영 장치(200)는 입력부를 포함할 수 있다. 입력부는 적어도 하나의 버튼을 포함할 수 있다. 즉, 버튼은 푸쉬형 혹은 터치 형으로 형성될 수 있으며, 전원/잠금 버튼, 셔터 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다. 특히, 타 촬영 장치(200)는 영상을 캡쳐하기 위한 셔터 버튼(230)을 포함할 수 있다.
셔터 버튼(230)을 누르는 사용자 조작이 입력되면, 타 촬영 장치(200)는 카메라부(220)를 통해 촬영되는 영상을 캡쳐하고, 인터페이스부(115)를 통해 촬영 장치(100)로 영상 캡쳐 명령을 전달할 수 있다.
또는, 셔터 버튼(230)을 통해 영상 캡쳐 명령이 입력되면, 타 촬영 장치(200)는 인터페이스부(210)를 통해 영상 캡쳐 명령을 촬영 장치(100)로 전달할 수 있다. 그리고 촬영 장치(100)의 제어에 의해, 촬영 장치(100) 및 타 촬영 장치(200)에서 촬영하는 영상이 동시에 캡쳐 될 수도 있다.
따라서, 셔터 버튼(230)을 통해 영상 캡쳐 명령이 입력되면, 촬영 장치(100) 및 타 촬영 장치(200)의 카메라부(120, 220)를 통해 촬영되는 영상을 동시에 캡쳐할 수 있게 된다.
도 7a 내지 도 7c는 본 발명의 일 실시 예에 따른, 복수의 촬영 장치가 결합된 모습을 도시한 도면이다.
상술한 바와 같이 촬영 장치(100)의 일면의 배터리 커버를 제거하고, 타 촬영 장치(200)를 결합하면, 도 7a에 도시된 바와 같이 일면은 촬영 장치(100)의 디스플레이가 포함된 부분이고, 반대편 면은 타 촬영 장치(200)의 렌즈가 포함된 부분일 수 있다. 또한, 타 촬영 장치(200)의 개구 영역(235)에는 촬영 장치(100)의 카메라부(120)가 위치한다.
그리고 촬영 장치(100)의 홈이 파인 부분에 타 촬영 장치(200)의 돌출된 부분이 결합하여, 촬영 장치(100) 및 타 촬영 장치(200)는 물리적으로 상호 고정될 수 있다.
도 7c는 복수의 촬영 장치가 결합된 장치의 측면을 도시한 도면이다. 도 7c에 도시된 바와 같이 촬영 장치(100)의 일부가 타 촬영 장치(200)에 포함된 형태일 수 있다.
상술한 바와 같이, 복수의 촬영 장치가 결합한 장치에 의해, 사용자는 초점 거리가 상이한 렌즈를 포함하는 복수의 카메라부를 이용하여 영상을 촬영할 수 있게 된다.
한편, 도 8에 도시된 바와 같이, 촬영 장치(100)는 결합부(110), 카메라부(120), 이미지 처리부(130), 디스플레이부(140) 및 제어부(150) 외에 인터페이스부(1150), UBS 모듈(160), 입력부(170), SDRAM(180) 및 저장부(190)를 포함할 수 있다.
특히, 카메라부(120)는 렌즈(121), 고체 촬상소자(122), TG(Timing Generator 124), AFE(Analog Front End, 123) 및 모터 드라이버(125)를 포함한다.
렌즈(121)는, 피사체에 반사된 광이 입사하는 구성으로, 줌 렌즈 및 포커스 렌즈 중 적어도 하나의 렌즈를 포함한다. 특히, 렌즈(121)는 초점거리가 비교적 짧은 광각 렌즈일 수 있다. 그리고 도면에 도시되지는 않았으나, 촬영 장치(100)는 조리개(미도시)를 더 구비한다.
조리개는 렌즈(121)를 통과하여 촬영 장치(100) 내부로 입사되는 광의 양을 조절하는 구성이다.
고체 촬상 소자(122)는 렌즈(121)를 통과한 피사체의 상이 결상되는 구성이다. 고체 촬상 소자(122)는 포토 다이오드(PD), 전송 트랜지스터(TX), 리셋 트랜지스터(RX), 플로우팅 확산 노드(FD)를 포함할 수 있다.
TG(Timing Generator 124)는, 고체 촬상 소자(122)의 픽셀 데이터를 리드아웃(readout)하기 위한 타이밍 신호를 출력한다.
AFE(Analog Front End, 123)는, 고체 촬상 소자(122)로부터 출력된 피사체 상의 전기 신호를 샘플링하여 디지털화한다.
다만, 상기와 같이 AFE(123)와 TG(124)를 대체할 수 있는 다른 구성으로 설계될 수도 있다. 특히, 고체 촬상 소자(122)가 CMOS 형으로 구현되는 경우, 이러한 구성은 불필요할 수 있다.
모터 드라이버(125)는, 위상차 픽셀을 리드아웃하여 계산된 정보에 기초하여 포커싱 렌즈를 구동하여 포커스를 맞춘다. 다만, 촬영 장치(100)가 스마트폰이나 셀룰러폰으로 구현되는 경우 포커싱을 위한 렌즈를 구동하지 않고 소프트웨어적으로 처리할 수 있으므로 모터 드라이버(125)가 구비되지 않을 수 있다.
한편, 상술한 촬영 장치의 카메라부(120)의 구성은 타 촬영 장치(200)의 카메라부(220)의 구성과 유사할 수 있다. 다만, 타 촬영 장치(200)의 카메라부(220)에 포함된 렌즈는 초점거리가 85mm이상인 망원렌즈일 수 있다.
한편, 이미지 처리부(130)는 분리회로(미도시), 영상 처리 회로(미도시), 위상차 연산 회로(미도시), JPEG 코덱(미도시)을 포함한다.
한편, 디스플레이부(140)는 영상을 디스플레이하기 위한 구성요소이다. 특히, 디스플레이부(140)는 피사체에 대한 라이브 뷰를 디스플레이할 수 있다. 라이브 뷰 이미지는 고체 촬상 소자의 모든 픽셀 데이터를 처리하여 출력할 수 있다.
또한, 디스플레이부(140)는 외부 또는 다른 촬영 장치에서 수신하거나 저장부(190)에 저장된 영상 데이터를 출력할 수 있다. 그리고 디스플레이부(140)는 촬영 장치(100)를 제어하기 위한 각종 UI를 디스플레이할 수도 있다.
이상과 같이 촬영 장치(100)의 내부 구성은 다양하게 변형될 수 있다. 복수의 촬영 장치에서 촬영되는 영상들은 하나의 라이브 뷰나 하나의 합성 이미지를 생성하는데 사용될 수 있다. 복수의 영상을 이용하여 하나의 라이브 뷰를 생성하는 경우, 사용자가 캡쳐 명령을 입력하면 그 라이브 뷰에 대응되는 합성 이미지가 생성될 수 있다. 이하에서는, 복수의 영상을 이용하는 방법들에 대하여 자세하게 설명한다.
도 9a 내지 도 9c를 이용하여, 디스플레이부(140)를 통해 라이브뷰가 디스플레이되는 방법을 설명한다.
타 촬영 장치(200)와 결합된 촬영 장치(100)의 이미지 처리부(130)는 카메라부(120)를 통해 촬영한 제1 영상(910) 및 타 촬영 장치(200)의 카메라부(220)를 통해 촬영한 제2 영상(920)을 이용하여 라이브 뷰를 생성할 수 있다.
특히, 카메라부(120)의 렌즈(121)는 초점거리가 짧고, 타 촬영 장치(200)의 카메라부(220)에 포함된 렌즈는 초점거리가 긴 경우, 도 9a에 도시된 바와 같이, 제1 촬영 장치(100)는 제1 영상(910) 내부의 로컬 영역에 제2 영상(920)이 포함되도록 중첩하여 디스플레이할 수 있다.
그리고 디스플레이부(140)는 복수의 카메라부(120,220) 중 어느 카메라부에서 촬영된 영상인지 표시하기 위해, 경계선(930)을 디스플레이할 수 있다. 경계선(930)은 국부 영역의 외곽 경계를 나타내는 그래픽 라인이다.
도 9a는 제1 영상(910) 내부 중앙에 제2 영상(920)이 포함된 것으로 도시하였으나, 이는 일 실시 예에 불과할 뿐, 타 촬영 장치(200)의 렌즈가 포함된 위치 등에 따라, 제2 영상(920)의 위치는 달라질 수 있다. 또한, 도 9a는 제2 영상(920)이 가로가 긴 영상으로 도시하였으나, 제2 영상(920)은 세로가 긴 영상일 수도 있다.
디스플레이부(140)는 디스플레이되는 영상에 대응되는 아이콘(810, 820)을 디스플레이할 수 있다. 도 9a는 제1 및 제2 영상(910, 920)을 모두 라이브뷰로 디스플레이하고 있으므로, 디스플레이부(140)는 제1 영상에 대응되는 아이콘(810) 및 제2 영상에 대응되는 아이콘(820)을 모두 디스플레이할 수 있다.
사용자는 각 아이콘(810, 820)을 선택하여 하나의 원 영상을 확인할 수도 있다. 예를 들어, 제1 아이콘(810)을 선택하면, 도 9b에 도시된 바와 같이, 디스플레이부(140)는 제1 영상(910)만을 디스플레이한다. 제어부(150)는 디스플레이되는 영상에 대응되는 제1 아이콘(810) 표시를 하이라이트 시키고, 제2 영상에 대응되는 제2 아이콘(820)은 어둡게 디스플레이하여, 사용자로 하여금 현재 제1 영상이 디스플레이 되고 있음을 직관적으로 인식하도록 할 수 있다.
또는, 제2 아이콘(820)이 선택되면, 도 9c에 도시된 바와 같이, 디스플레이부(140)는 제2 영상(920)만을 확대하여 전체 화면에 디스플레이한다. 제어부(150)는 제2 영상에 대응되는 제2 아이콘(820)만 하이라이트 표시하고, 제1 영상에 대응되는 제1 아이콘(810)은 어둡게 디스플레이할 수 있다.
사용자는 각 아이콘을 직접 터치할 수도 있지만, 촬영 장치(100) 또는 타 촬영 장치(200)의 외부에 별도로 구비된 버튼을 눌러서 선택할 수도 있다.
디스플레이부(140)가 터치 스크린으로 구현된 경우, 디스플레이되는 영상에 대응되는 아이콘 부분을 터치하는 사용자 명령에 의해, 일 영상이 선택될 수도 있다. 즉, 제1 영상에 대응되는 아이콘(810) 부분이 터치되면, 디스플레이부(140)는 전체 화면에 제1 영상(910)을 디스플레이할 수 있다. 그리고 제2 영상에 대응되는 아이콘(820) 부분이 터치되면, 디스플레이부(140)는 전체 화면에 제2 영상(920)을 디스플레이할 수 있다.
또는, 도 10a 내지 도 10c에 도시된 바와 같이, 디스플레이되는 영상 부분을 터치하는 명령에 의해, 일 영상이 선택될 수도 있다. 구체적으로, 도 10a에 도시된 바와 같이, 경계선(930)의 내부를 터치하는 명령이 입력되면, 디스플레이부(140)는 제2 영상(920)을 전체 화면에 디스플레이할 수 있다. 그리고 도 10b에 도시된 바와 같이 경계선(930)의 외부를 터치하는 명령이 입력되면, 디스플레이부(140)는 제1 영상(910)을 전체 화면에 디스플레이할 수 있다.
한편, 상술한 경계선(930)의 내부 또는 외부를 터치하는 명령은, 제1 및 제2 영상 중 디스플레이부(140)를 통해 라이브뷰로 디스플레이할 영상을 선택하기 위한 사용자 명령이 아닌, 영상을 캡쳐하기 위한 사용자 명령일 수 있다.
구체적으로, 도 10a에 도시된 바와 같이 경계선(930)의 내부가 터치되면, 촬영 장치(100)는 제2 영상(920)을 캡쳐하여 디스플레이부(140)에 캡쳐된 스틸 이미지를 디스플레이하거나, 캡쳐된 이미지를 저장할 수 있다.
또한, 도 10b에 도시된 바와 같이, 경계선(930)의 외부가 터치되면, 촬영 장치(100)는 제1 영상(910)을 캡쳐하여 디스플레이부(140)에 캡쳐된 스틸 이미지를 디스플레이하거나, 캡쳐된 이미지를 저장할 수 있다.
한편, 도 10c에 도시된 바와 같이, 경계선(930)의 내부 및 외부가 동시에 터치되면, 촬영 장치(100)는 제1 영상(910) 및 제2 영상(920)이 중첩된 촬영 영상을 캡쳐하여 디스플레이부(140)에 캡쳐된 스틸 이미지를 디스플레이하거나, 캡쳐된 이미지를 저장할 수 있다.
즉, 타 촬영 장치(200)의 외부에 구비된 셔터 버튼(230)을 통해 영상 캡쳐 명령이 입력되면, 인터페이스부(115)를 통해 촬영 장치(100)가 영상 캡쳐 명령을 수신하여, 디스플레이되는 라이브 뷰 영상을 캡쳐할 수도 있으나, 촬영 장치(100)의 디스플레이부(140)를 터치하는 사용자 터치 명령에 의해, 영상을 캡쳐할 수도 있다.
이상에서는, 화면을 터치하여, 라이브 뷰로 디스플레이할 영상을 선택하거나, 영상을 선택적으로 캡쳐하는 실시 예에 대해 설명하였다. 그러나 이는 일 실시 예에 불과할 뿐, 디스플레이부(140)에 표시된 각종 아이콘을 통해, 사용자는 제1 영상 또는 제2 영상 중 동영상으로 촬영할 적어도 하나의 영상을 선택할 수 있다.
예를 들면, 사용자는 디스플레이부(140)에 표시된 각종 아이콘을 터치하는 횟수 또는 방법을 다르게 하여, 제1 영상은 동영상으로 촬영하고, 제2 영상은 스틸 이미지로 촬영하도록 설정할 수 있다.
구체적으로, 디스플레이되는 영상을 표시하기 위한 UI 부분을 반복적으로 터치하는 사용자 명령에 의해, 제1 영상(910)에 대해서는 동영상 촬영을 수행하고, 제2 영상(920)에 대해서는 영상 캡쳐를 수행할 수 있다. 또는 제1 영상(910)에 대해 라이브뷰가 디스플레이되는 동안, 제2 영상(920)에 대해 동영상 촬영을 수행하도록 선택할 수도 있다.
다시 도 8에 대해 설명하면, USB 모듈(160)은 외부 장치와의 인터페이스를 제공한다. USB모듈(160)은 USB케이블을 통해 PC나 기타 외부 장치와 연결된 경우, 이미지 데이터의 송수신을 처리한다. 또한, 펌웨어 업그레이드를 수행하기 위한 펌웨어 송수신을 처리한다.
입력부(170)는 사용자 입력을 수신하기 위한 구성이다. 입력부(170)는 적어도 하나의 버튼을 포함할 수 있다. 또한, 입력부(170)는 디스플레이부(140)에 위치하는 터치 스크린을 포함할 수 있다. 즉, 상술한 바와 같이, 입력부(170)는 영상을 촬영 또는 영상을 캡쳐하기 위한 터치 입력을 수신할 수 있다.
촬영 명령 또는 영상 캡쳐 명령뿐만 아니라, 입력부(170)는 촬영 영상의 배율을 조정하기 위한 사용자 명령을 입력받을 수 있다.
촬영 배율 조정 명령은 촬영 장치(100)에 포함된 버튼을 누르는 사용자 명령일 수 있다. 예를 들면, 입력부(170)가 상 버튼 및 하 버튼을 포함하는 경우, 라이브뷰가 디스플레이되는 동안, 상 버튼을 누르는 사용자 명령이 입력되면, 라이브 뷰 영상이 확대될 수 있다. 즉, 촬영 장치(100)는 사용자 명령에 따라 렌즈(122)를 줌-인(Zoom-in)하고, 인터페이스부(115)를 통해 줌-인 명령을 전달한다. 타 촬영 장치(200)는 수신된 줌-인 명령에 따라 렌즈의 배율을 조정한다.
또는, 라이브뷰가 디스플레이되는 동안, 하 버튼을 누르는 사용자 명령이 입력되면, 라이브 뷰 영상이 축소될 수 있다. 즉, 촬영 장치(100)는 사용자 명령에 따라 렌즈(122)를 줌-아웃(Zoom-out)하고, 인터페이스부(115)를 통해 줌-아웃 명령을 전달한다. 타 촬영 장치(200)는 수신된 줌-아웃 명령에 따라 렌즈의 배율을 조정한다.
또는 도 11a 내지 도 11c에 도시된 바와 같이, 촬영 장치(100)는 터치 스크린으로 구현된 디스플레이부(140)를 통해, 촬영 영상을 배율을 조정하기 위한 사용자 명령을 입력받을 수 있다.
도 11a에 도시된 바와 같이, 디스플레이된 라이브 뷰 영상의 경계선(930)을 기 설정된 시간(예를 들면, 1초) 이상 터치하는 사용자 명령이 입력된 경우, 촬영 장치(100)는 줌 조절 명령이 입력되는 것으로 판단할 수 있다.
그리고 도 11b에 도시된 바와 같이, 경계선(930)을 경계선(930)의 내부 또는 외부의 방향으로 이동시키는 사용자의 터치 명령에 의해, 촬영 배율이 조정될 수 있다.
구체적으로, 경계선(930)을 터치하여 외부선(1010)까지 늘이는 사용자 명령이 입력되면, 촬영 장치(100)는 카메라부(120)를 통해 촬영하는 배율을 높일 수 있다. 그리고 촬영 장치(100)는 인터페이스부(115)를 통해, 타 촬영 장치(200)로 영상 촬영 배율을 높이는 명령을 전달할 수 있다. 타 촬영 장치(200)는 수신한 촬영 배율에 따라 영상 촬영을 수행할 수 있다.
또한, 경계선(930)을 터치하여 내부선(1020)까지 줄이는 사용자 명령이 입력되면, 촬영 장치(100)는 카메라부(120)를 통해 촬영하는 배율을 낮출 수 있다. 그리고 촬영 장치(100)는 인터페이스부(115)를 통해, 타 촬영 장치(200)로 영상 촬영 배율을 낮추는 명령을 전달할 수 있다. 타 촬영 장치(200)는 수신한 촬영 배율에 따라 영상 촬영을 수행할 수 있다.
예를 들어, 도 11c에 도시된 바와 같이, 라이브 뷰 내의 경계선(930)을 바깥 방향으로 늘이는 사용자 명령에 의해, 사용자가 국부 영역의 크기를 점차 확대시키면, 영상을 촬영하는 배율은 점차 높아진다. 즉, 사용자가 촬영 영상을 2배 확대하기 위해 국부 영역의 크기를 확대하면, 촬영 장치(100)에 의해 촬영된 제1 영상이 2배 확대된 영상(1130-1)이 디스플레이되고, 경계선(930)의 내부에 타 촬영 장치(200)에 의해 촬영된 영상(1120)이 디스플레이(1130-1)된다.
그리고 사용자가 촬영 영상을 3배 확대하기 위해 국부 영역의 크기를 확대하면, 촬영 장치(100)에 의해 촬영된 제1 영상이 3배 확대된 영상(1130-2)이 디스플레이되고, 경계선(930)의 내부에 타 촬영 장치(200)에 의해 촬영된 영상(1120)이 디스플레이(1130-2)된다.
사용자가 촬영 영상을 4배 확대하기 위해 국부 영역의 크기를 확대하면, 촬영 장치(100)에 의해 촬영된 제1 영상이 4배 확대된 영상(1130-3)이 디스플레이되고, 경계선(930)의 내부에 타 촬영 장치(200)에 의해 촬영된 영상(1120)이 디스플레이(1130-3)된다.
타 촬영 장치(200)에서 촬영하는 영상이 촬영 장치(100)의 촬영 영상의 5배 배율인 경우, 사용자가 촬영 영상을 5배 확대하기 위해 국부 영역의 크기를 확대하면, 타 촬영 장치(200)가 촬영한 영상(1120)이 전체 화면에 디스플레이된다.
이미지 처리부(130)는 광각 렌즈를 이용하여 촬영된 제1 영상(wide view)에서 점차 축소된 크기의 제1 영상 부분을 검출하여 디스플레이부(140)의 전체 화면에 디스플레이하고, 그 전체 화면의 중심부의 국부 영역(930)에는 망원 렌즈를 이용하여 촬영된 제2 영상(tele view)을 국부 영역의 크기만큼 확대하여 표시한다. 이러한 방식으로 배율이 조정된 합성 이미지를 표시할 수 있다. 제2 영상(920)이 디스플레이되는 영역이 넓어질수록, 촬영 장치(100)는 높은 촬영 배율로 피사체를 촬영할 수 있게 된다.
상술한 방법에 의해, 사용자는 복수의 촬영 장치의 촬영 배율을 용이하게 조정할 수 있게 된다. 또한, 타 촬영 장치(200)가 망원 렌즈를 포함하는 경우, 사용자는, 단순히 촬영 장치(100)의 렌즈의 배율을 높여서 촬영하는 것보다, 높은 해상도의 확대 영상을 획득할 수 있게 된다.
다시 도 8에 대해 설명하면, SDRAM(Synchronous Dynamic RAM 180) 은, 이미지를 저장하거나 CPU에 의한 이미지 작업에 이용된다. 본 발명의 일 실시 예에서, 시스템 클록의 상승단과 하강단 모두에서 출력이 나오도록 하여 상승단에서만 출력이 나오는 것에 비해 출력을 2배 향상시킬 수 있는 DDR SDRAM이 사용될 수 있다.
저장부(190)는 플래시 메모리(미도시)를 포함하여 구성되며, 촬영 장치(100)에 착탈이 가능한 카드 형태로 구현될 수 있다. 저장부(190)는 촬영된 이미지 파일을 저장할 수 있다. 그리고 저장부(190)에 포함된 플래시 메모리(미도시)는, 펌웨어 프로그램, 촬영 장치(100) 스팩에 맞는 다양한 조정 정보, 사용자 입력에 의한 촬영 장치(100)의 설정 정보, 촬영된 이미지 파일 등을 저장한다.
저장부(190)는 연속 촬영 명령에 의해 촬영된 영상을 저장할 수 있다. 특히, 연속 촬영 명령이 입력되면, 촬영 장치(100)는 카메라부(120)에 의해 촬영된 라이브 뷰를 디스플레이부(140)에 디스플레이하면서, 인터페이스부(115)를 통해 연속 촬영 명령을 타 촬영 장치(200)에 전달할 수 있다. 그리고 타 촬영 장치(200)가 연속 촬영을 수행하면, 연속 촬영 이미지를 인터페이스부(115)를 통해 수신하여, 저장부(190)에 저장할 수 있다.
그러나 이는 일 실시 예에 불과할 뿐, 타 촬영 장치(200)에서 촬영한 영상을 라이브뷰로 디스플레이하면서, 저장부(190)는 카메라부(120)에 의해 촬영된 연속 촬영 이미지를 저장할 수도 있다. 또는, 저장부(190)는 복수의 촬영 장치에서 동시에 연속 촬영을 수행하여, 캡쳐된 촬영 이미지를 저장할 수도 있다.
한편, 타 촬영 장치(200)는 촬영 렌즈가 탈착 가능한 형태로 구현될 수 있다. 도 12a 및 12b는 이러한 실시 예에 따른 타 촬영 장치(200)의 외관 구성 예를 나타내는 도면이다.
도 12a에 따르면, 타 촬영 장치(200)는 촬영 렌즈와 결합 가능한 접촉 패드(240)를 포함한 형태일 수 있다. 접촉 패드(240)에는 촬영 배율, 초점거리, 화각 및 용도가 상이한 다양한 형태의 렌즈가 결합될 수 있다. 접촉 패드(240)는 탈착 가능한 렌즈에 구비된 핀과 일 대 일로 결합 가능한 홈을 포함할 수 있다. 그러나 이는 일 실시 예에 불과할 뿐, 접촉 패드(240)는 이미지 센서를 포함하는 탈착 가능 렌즈가 회전 가능한 형태로 구현될 수도 있다. 구체적인 방법에 대해서는 후술한다.
특히, 탈착 가능한 렌즈는 타 촬영 장치(200)에 부착된 후, 독립적으로 회전 가능한 형태로 구현될 수 있다. 도 13a 및 13b는 이러한 실시 예에 따른 촬영 장치를 나타낸다.
도 13a에 따르면, 타 촬영 장치(200) 및 렌즈(300)가 핀(pin)에 의해 일 대 일로 대응하여 연결되지 않도록, 타 촬영 장치(200)의 접촉 패드(240)는 복수의 핀이 이동 가능하게 결합하기 위한 렌즈 결합부(250)를 포함할 수 있다. 렌즈 결합부(250)는 렌즈(300)가 회전하는 동안, 핀이 이동하는 통로가 된다. 렌즈 결합부(250)는 도시된 바와 같이 렌즈(300)가 90도 범위 내에서 회전 가능하도록 형성될 수 있다.
도 13b에 도시된 바와 같이, 렌즈(300)는 이미지 센서(310)를 포함하며, 타 촬영 장치(200)의 접촉 패드(240)에 결합하기 위한 복수개의 핀(320)을 포함할 수 있다. 이미지 센서(310)가 렌즈(300)에 포함되므로, 렌즈(300)의 회전에 의해, 피사체에 대한 촬영 방향이 달라질 수 있다.
도 13a 및 도 13b의 구조에 의해, 렌즈(300)가 회전하면 제1 영상 및 제2 영상 중 하나가 회전할 수 있다. 예를 들어, 제1 영상은 고정된 방향으로 촬영되면서, 도 14a에 도시된 바와 같이, 렌즈(300)의 회전에 의해, 제1 영상 내부의 제2 영상만 가로 방향(1300) 또는 세로 방향(1310)으로 변경될 수 있다.
구체적으로, 도 14b에 도시된 바와 같이, 렌즈(300)에 포함된 이미지 센서(310-1)의 기본 방향이 가로 방향인 경우, 렌즈(300)가 타 촬영 장치(200)에 부착되고, 영상이 촬영되면, 도면부호 1300과 같이 가로가 긴 제1 영상 내부에 가로가 긴 제2 영상이 포함된 형태의 영상이 촬영될 수 있다.
한편, 렌즈(300)의 외부에 렌즈(300)의 회전 방향을 나타내기 위한 인디케이터(1320)가 구비될 수 있다. 특히, 인디케이터(1320)는, 렌즈(300)의 배면에 구비되어 미관을 해치지 않으면서, 촬영 장치를 쥐고 촬영을 수행하는 사용자가 쉽게 인지할 수 있도록 할 수 있다.
도 14c는 렌즈(300)를 90도 회전한 모습을 도시한 도면이다. 렌즈(300)가 90도 회전되면, 타 촬영 장치(200)의 렌즈 결합부(250)를 따라 렌즈(300)의 핀이 90도 회전하여 이동하게 된다. 따라서, 이미지 센서(310-2)는 세로 방향이 되며, 도 14a의 도면부호 1310과 같은 영상이 촬영될 수 있다. 또한, 렌즈(300)의 회전 방향을 나타내는 인디케이터(1320)도 기준 방향에서 90도 회전한다. 따라서, 사용자는 영상을 촬영하기 전이거나 제1 영상 및 제2 영상을 구분하기 위한 경계선이 디스플레이되지 않아도, 인디케이터(1320)를 이용하여 렌즈(300)의 회전 여부를 쉽게 알 수 있다.
상술한 바와 같이, 회전 가능한 렌즈(300)를 구비하는 경우, 사용자는 타 촬영 장치(200)를 통해 촬영되는 영상의 촬영 방향을, 렌즈를 회전하는 간단한 조작에 의해, 조절할 수 있게 된다.
한편, 도 15a는 탈착 가능한 렌즈(300)가 복수 개의 자석을 더 포함하는 경우를 도시한 도면이다.
렌즈(300)가 회전 가능한 경우, 0도 내지 90도 사이의 임의의 각도만큼 회전된 상태에서 영상이 촬영되면, 제1 영상 내부의 제2 영상은 기울어진 형태로 촬영될 수 있다. 또는, 렌즈(300)가 고정되지 않아 영상이 촬영되는 중에 렌즈(300)가 움직이면, 제2 영상이 흔들린 채로 촬영될 수도 있다. 따라서, 렌즈(300)가 타 촬영 장치(200)에 고정되기 위한 자석을 포함할 수 있다. 특히, 렌즈(300)가 0도 또는 90도로 고정되기 위한, 복수 개의 자석을 더 포함할 수도 있다.
구체적으로, 렌즈(300)는 모서리 내측에 타 촬영 장치(200)의 접촉 패드(240)에 결합력을 높이기 위한 복수개의 자석(1500)을 포함할 수 있다. 도 15a는 렌즈(300)의 모서리 내측에 4방향에 대해 각각 자석(1500)이 포함된 경우를 도시한 도면이다. 이 경우, 접촉 패드(240)의 모서리 내측에도 복수개의 자석(1500)의 위치에 대응되는 동일한 수의 자석이 포함된다.
그리고 렌즈(300)는 이미지 센서(310)를 제1 방향으로 고정하기 위한 자석(1510) 및 이미지 센서(310)를 제2 방향으로 고정하기 위한 자석(1520)을 더 포함할 수 있다.
도 15b는 렌즈(300)가 타 촬영 장치(200)의 접촉 패드(240)에 결합된 경우의 절단면을 나타낸 도면이다. 렌즈(300)에 포함된 이미지 센서(310)의 기준 방향이 가로가 더 긴 형태인 경우, 렌즈(300)에 포함된 복수 개의 핀은 도 15b에 도시된 바와 같이, 도면 부호 1530에 해당하는 축에 대응되게 접촉 패드(240)에 결합한다. 이때, 렌즈(300)를 제1 방향으로 고정하기 위한 자석(1510)의 자기력에 의해, 렌즈(300)는 영상이 촬영되는 동안 타 촬영 장치(200)에 움직임 없이 부착될 수 있다.
한편, 사용자에 의해, 렌즈(300)에 포함된 복수 개의 핀이 도면 부호 1550에 해당하는 축에 대응되게 렌즈(300)를 90도 회전하는 명령이 입력되면, 이미지 센서(310)는 세로가 더 긴 형태로 고정된다. 따라서, 촬영 장치(100)는 가로가 세로보다 긴 비율의 영상을 촬영하는 경우에도, 타 촬영 장치(200)는 세로가 가로보다 긴 비율의 영상을 촬영하게 된다.
렌즈(300)에 포함된 복수 개의 핀이 도면 부호 1550에 해당하는 축에 대응되게 렌즈(300)를 회전하기 위해서는, 렌즈(300)를 고정하는 자석(1510)의 자기력보다 큰 회전력이 필요하다. 즉, 렌즈(300)에 포함된 복수 개의 핀이 회전 명령에 의해, 도면 부호 1540에 해당하는 축 이상 회전하도록 하기 위한 회전력이 필요하다.
따라서, 렌즈(300)를 회전시키기 위해 사용자가 가한 힘보다 이미지 센서(310)가 제1 방향으로 고정되게 하기 위한 렌즈(300)에 포함된 자석(1510)의 자기력이 더 커서, 렌즈(300)에 포함된 복수 개의 핀이 도면 부호 1540에 해당하는 축 이상 회전하지 못하면, 렌즈(300)에 포함된 복수 개의 핀은 도면 부호 1530에 해당하는 축에 대응되는 방향으로 되돌아 간다.
반면, 렌즈(300)를 회전시키기 위해 사용자가 가한 힘이 이미지 센서(310)가 제1 방향으로 고정되게 하기 위한 렌즈(300)에 포함된 자석(1510)의 자기력보다 더 커서, 렌즈(300)에 포함된 복수 개의 핀이 도면 부호 1540에 해당하는 축 이상 회전하면, 렌즈(300)에 포함된 복수 개의 핀은 도면 부호 1550에 해당하는 축에 대응되는 방향으로 이동된다.
즉, 렌즈(300)에 포함된 복수 개의 핀이 도면 부호 1540에 해당하는 축 이상만 회전하면, 이미지 센서(310)가 제2 방향으로 고정되게 하기 위한 렌즈(300)에 포함된 자석(1520)의 자기력에 의해, 렌즈(300)에 포함된 복수 개의 핀은 도면 부호 1550에 해당하는 축에 대응되는 방향으로 이동된다.
상술한 바와 같이, 회전 가능한 렌즈(300)는 복수개의 자석을 포함하여, 사용자가 적은 힘으로 쉽게 렌즈(300)를 회전할 수 있게 한다. 또한, 영상 촬영 중에 렌즈(300)가 이동하거나 흔들리는 일이 없도록 회전 가능한 렌즈(300)는 타 촬영 장치(200)에 고정될 수 있다.
한편, 도 16a 내지 도 16g는 촬영 장치(100)의 상가림 현상을 제어하는 방법을 도시한 도면이다. 상가림 현상 또는 화각 간섭(KERARE, 게라레)이란 복수 개의 촬영부의 렌즈의 화각의 차이로 인해 어느 하나의 촬영 범위에 다른 렌즈가 포함되어 이미지 촬영에 방해가 되는 현상을 말한다. 즉, 화각 간섭이 생긴 이미지상에는 인접한 다른 카메라의 렌즈의 형상이 포함되게 된다.
구체적으로, 도 16a는 촬영 장치(100)에 포함된 카메라부(120)의 렌즈 및 타 촬영 장치(200)의 렌즈(300-1)가 서로 상이한 화각(1610, 1620)으로 영상을 촬영하는 범위를 나타내는 도면이다. 즉, 상가림이 나타나지 않는 경우에는, 도 16a에 도시된 바와 같이, 복수의 렌즈가 촬영하는 범위 내에 다른 렌즈가 포함되지 않는다.
도 16b는, 타 촬영 장치(200)에 다른 종류의 렌즈(300-2)가 부착된 실시 예를 도시한 도면이다. 즉, 도시된 바와 같이 타 촬영 장치(200)에 경통의 길이가 비교적 긴 렌즈(300-2)가 부착되면, 도면 부호 1650과 같이, 렌즈(300-2)의 일부가 다른 렌즈의 촬영 범위(1610) 내에 포함될 수 있다.
그 결과, 도 16c에 도시된 바와 같이, 촬영 이미지 내에 렌즈(300-2)의 형상 일부(1650)가 포함되어 피사체를 가릴 수 있다.
이때, 촬영 장치(100)는 상가림 현상이 발생하였는지 여부를 감지하고, 상가림 현상이 발생한 경우, 렌즈(300-2)의 형상 일부(1650)가 포함된 부분을 제외하고, 나머지 촬영 영상 부분을 이용하여 촬영 이미지를 생성할 수 있다.
상가림 현상의 발생 유무는 렌즈의 화각 및 렌즈의 높이 등과 같은 파라미터를 이용한 수식에 의해 판단될 수 있다. 또한, 촬영 이미지 내에 기 설정된 픽셀 값을 갖는 이미지가 포함된 경우, 촬영 장치(100)는 상가림 현상이 발생했다고 판단할 수 있다. 또는, 초음파 센서, 적외선 센서, 전자기파 센서 중 어느 하나로 구현된 거리 센서를 이용하여 촬영 장치(100)는 상가림 현상의 발생 유무를 판단할 수도 있다.
상가림 현상이 발생한 것으로 판단된 경우, 이미지 처리부(130)는 상가림 현상이 발생한 영역을 제거할 수 있다.
구체적으로, 도 16d에 도시된 바와 같이, 촬영 장치(100)의 이미지 처리부(130)는 촬영 영상(1660)에서 렌즈(300-2)의 형상 일부(1650)가 포함되지 않는 영상 부분(1670), 즉 상가림이 없는 영상 부분(1670)을 크롭(crop)할 수 있다. 그리고 제어부(150)는 이미지 처리부(130)에 의해 생성된 상가림이 없는 영상 부분(1670)을 전체 디스플레이 크기로 확대하여 디스플레이할 수 있다. 또는, 영상에 대한 별도의 크기 조절 없이, 제어부(150)는 상가림이 없는 영상 부분(1670)을 디스플레이의 중앙으로 이동시켜 디스플레이할 수도 있다.
한편, 도 16e는 경통의 길이가 조절되는 렌즈(300-3)가 타 촬영 장치(200)에 부착된 경우의 실시 예를 도시한 도면이다. 즉, 타 촬영 장치(200)에 포함된 렌즈가 배율에 의해, 경통의 길이가 조절되는 경우, 경통의 길이에 따라, 촬영 장치(100)의 촬영 범위 내에 렌즈(300-3)가 포함될 수 있다.
따라서, 렌즈(300-3)의 경통의 길이가 길어지고, 촬영 장치(100)가 상가림 현상이 발생한 것을 감지하는 경우, 촬영 장치(100)는 렌즈(300-3)의 경통의 길이를 조절하기 위한 명령을 타 촬영 장치(200)로 전달할 수 있다. 즉, 촬영 장치(100)는 상가림 현상이 발생하지 않기 위한 경통 길이를 계산하여, 타 촬영 장치(200)로 경통의 길이를 조절하기 위한 명령을 전달하면, 도 16f에 도시된 바와 같이, 렌즈(300-3)를 줌인(Zoom In)하여 경통의 길이가 짧아지면서, 상가림 현상은 없어질 수 있다.
다만, 상기와 같이 상가림 현상으로 인해 렌즈(300-3)를 줌인 하는 경우, 타 촬영 장치(200)의 촬영 환경에 변화가 생기므로 이러한 정보를 디스플레이부에 표시함으로써 사용자에게 알려줄 수 있다.
또는, 렌즈(300-3)의 경통의 길이는 촬영 장치(100)를 통해서 사용자에 의해 조절가능하므로, 촬영 장치(100)는 디스플레이에 경통의 길이를 조절하여, 상가림 현상을 해소하기 위한 UI를 디스플레이할 수 있다.
예를 들면, 도 16g에 도시된 바와 같이, 디스플레이부(140)는 "줌 조절 필요(1690)"와 같은 문구를 디스플레이할 수 있다.
상술한 방법에 의해, 사용자는 복수개의 렌즈를 이용하여 영상을 촬영하는 동안 발생할 수 있는 상가림 현상을 용이하게 해소할 수 있게 된다.
한편, 도 17은, 본 발명의 일 실시 예에 따른 타 촬영 장치(200)의 경통의 길이가 조절되는 방법을 도시한 도면이다.
구체적으로, 촬영 장치(100) 또는 타 촬영 장치(200)는 감지부(미도시)를 포함할 수 있다. 감지부는 자이로 센서 또는 가속도 센서와 같은 각종 센서를 포함하여, 촬영 장치(100) 및 타 촬영 장치(200)의 움직임을 감지하기 위한 구성요소이다.
따라서, 도 17에 도시된 바와 같이, 촬영 장치(100)와 결합한 타 촬영 장치(200)에 포함된 렌즈의 경통이 길어진 상태에서 영상이 촬영되는 중에, 감지부를 통해, 촬영 장치(100)의 움직임이 기 설정된 조건을 충족하면, 촬영 장치(100)는 경통의 길이를 조절할 수 있다.
예를 들면, 촬영 장치(100가 기 설정된 속도 이상으로 움직이는 것이 감지된 경우, 또는 기 설정된 속도 이상의 회전이 감지된 경우, 촬영 장치(100)는 경통의 길이가 짧아지도록 제어하여, 경통이 타 촬영 장치(200)에 내부에 수납되도록 할 수 있다.
구체적으로, 촬영 장치(100)가 감지부를 통해 기 설정된 속도 이상으로 움직임 또는 회전을 감지한 경우, 촬영 장치(100)는 경통을 타 촬영 장치(200) 내부에 수납하기 위한 명령을 인터페이스부(115)를 통해 전달할 수 있다. 타 촬영 장치(200)는 수신한 명령에 따라, 렌즈의 경통의 길이를 조절하여, 내부에 수납할 수 있게 된다.
또한, 촬영 장치(100)가 경통의 길이가 조절되는 렌즈를 포함할 수도 있다. 이때, 촬영 장치(100)는 기 설정된 속도 이상으로 움직임 또는 회전이 감지된 즉시, 경통의 길이가 짧아지도록 제어할 수 있다.
한편, 기 설정된 조건의 움직임이 감지되지 않아도, 촬영 장치(100)가 휴대폰인 경우, 영상 촬영 중에 전화가 수신되면, 촬영 장치(100)는 경통의 길이를 조절할 수 있다. 즉, 촬영 장치(100)는 전화가 수신되는 즉시, 경통의 길이가 짧아지도록 제어하여, 경통이 타 촬영 장치(200)에 내부에 수납되도록 할 수 있다. 또는, 전화가 수신되고, 통화 버튼을 누르는 것과 같은 전화를 받기 위한 사용자 명령이 입력되면, 촬영 장치(100)는 경통의 길이가 짧아지도록 제어할 수 있다.
기설정된 조건의 움직임이 감지되는 경우 및 전화가 수신되는 경우 외에도, 촬영 장치(100)가 영상을 촬영하기에 적합하기 않거나, 촬영 장치(100)가 파손될 위험 요소가 감지되는 경우, 촬영 장치(100)는 촬영 장치(100) 또는 타 촬영 장치(200)의 경통의 길이를 제어할 수 있다.
한편, 도 18a 내지 도 18d를 참조하여, 촬영 장치(100) 및 타 촬영 장치(200)가 결합된 촬영 시스템이 탈착 가능한 별도의 부속품을 더 포함하는 경우에 대해 설명한다.
도 18a는 본 발명의 일 실시 예에 따라, 탈착 가능한 별도의 부속품으로, 셔터 버튼을 포함하는 그립부(2300)를 도시한 도면이다. 즉, 휴대의 편의성 및 심미성을 위해 촬영 장치(100) 및 타 촬영 장치(200)는 두께가 얇고, 가벼운 재질로 형성될 수 있다. 이때, 사용자는 영상을 촬영하는 동안, 촬영 시스템을 고정하여 촬영하는데 불편함을 느낄 수도 있다. 따라서, 별도의 셔터 버튼을 포함하는 그립부(2300)를 이용하여, 사용자가 안정감있게 영상을 촬영할 수 있게 된다.
즉, 도 18b에 도시된 바와 같이, 셔터 버튼을 포함하는 그립부(2300)가 촬영 시스템에 부착되면, 촬영 장치(100)는 그립부(2300)의 부착을 감지할 수 있다. 예를 들면, 촬영 장치(100)는 그립부(2300)의 장착이 가능한 위치에 센서를 포함하여, 그립부(2300)의 부착을 감지할 수 있다.
그립부(2300)가 부착된 것으로 판단되면, 촬영 장치(100)는 그립부(2300)에 구비된 셔터 버튼을 누르는 사용자 조작에 의해 영상을 캡쳐할 수 있게 된다. 즉, 촬영 장치(100)는 상술한 바와 같이 촬영 장치(100)의 터치 스크린 또는 타 촬영 장치(200)의 셔터 버튼을 통해 영상을 캡쳐하기 위한 명령을 입력받을 수 있고, 그립부(2300)에 구비된 셔터 버튼을 누르는 사용자 조작에 의해서도 영상을 캡쳐할 수 있다.
따라서, 사용자는 촬영 환경, 촬영 위치, 촬영 자세, 촬영자 등에 따라, 그립부, 타 촬영 장치(200) 및 촬영 장치(100)에 포함된 각각의 셔터 버튼 또는 터치 스크린과 같은 입력부를 선택적으로 이용하여 영상을 캡쳐할 수 있게 된다.
한편, 촬영 장치(100)가 스마트폰인 경우, 도 18c에 도시된 바와 같이, 그립부(2300)가 결합될 위치에, 홈 버튼(2320)을 비롯하여 터치 입력부(2310, 2330)를 포함하는 경우가 있다. 즉, 촬영 장치(100)는 홈 버튼(2320) 및 터치 입력부(2310, 2330)를 통해, 촬영 장치(100)를 제어하기 위한 각종 사용자 명령을 입력받을 수 있다. 그립부(2300)가 결합되면, 촬영 장치(100)에 구비된 입력부(2310, 2320, 2330)가 가려질 수 있다.
따라서, 도 18d에 도시된 바와 같이, 그립부(2300)가 촬영 장치(100)에 결합되면, 촬영 장치(100)에 구비된 입력부(2310, 2320, 2330)가 그립부(2300) 상에 동일한 위치에 매칭될 수 있다. 즉, 그립부(2300)의 일면에 터치 센서가 포함되어, 촬영 장치(100)는 결합된 그립부(2300)를 통해 터치입력을 수신할 수 있다. 따라서, 촬영 장치(100)에 구비된 입력부(2310, 2320, 2330)는 그립부(2300) 상의 터치 입력부(2315, 2325, 2335)에 매칭된다. 그리고 사용자는 매칭된 터치 입력부(2315, 2325, 2335)를 통해 기존에 촬영 장치(100)에 입력하던 사용자 명령을 이용할 수 있게 된다.
한편, 타 촬영 장치(200)가 결합되고 영상 촬영이 수행되면, 촬영 장치(100)의 카메라부(120)에 의해 촬영된 제1 영상 및 타 촬영 장치(200)의 카메라부(220)에 의해 촬영된 제2 영상을 중첩한 촬영 이미지를 라이브 뷰로 디스플레이하는 방법을 상술하였다. 그러나 이는 일 실시 예에 불과할 뿐, 제1 영상을 라이브뷰로 디스플레이하는 중에, 제2 영상을 중첩할 영역을 선택하기 위한 사용자 명령이 입력되면, 사용자 입력에 따라 선택된 영역에 대해 제2 영상을 중첩하여 라이브 뷰로 디스플레이할 수도 있다.
구체적으로, 도 19a에 도시된 바와 같이, 촬영 장치(100)는 디스플레이부(140)에 카메라부(120)에 의해 촬영된 제1 영상을 라이브 뷰로 디스플레이할 수 있다. 그리고 디스플레이부(140)는 제2 영상을 중첩하여 표시할 영역을 선택하기 위한 UI(1910 내지 1930)를 디스플레이할 수 있다.
예를 들면, 도 19a에 도시된 바와 같이, 촬영 장치(100)는 디스플레이부(140)의 일부에, 2배줌(1910), 3배줌(1920) 및 5배줌(1930)을 나타내는 박스 형태의 아이콘을 디스플레이할 수 있다.
따라서, 2배줌(1910), 3배줌(1920) 및 5배줌(1930)을 나타내는 박스 형태의 아이콘 중 하나를 선택하기 위한 명령 및 선택된 아이콘을 디스플레이부(140) 내의 일 영역으로 이동하기 위한 명령이 입력되면, 선택된 아이콘이 이동된 영역에 선택된 배율에 따라, 타 촬영 장치(200)의 카메라부(220)에 의해 촬영된 제2 영상을 중첩하여 디스플레이할 수 있다.
예를 들면, 도 19b에 도시된 바와 같이, 3배줌(1920)을 나타내는 아이콘을 길게 터치하는 명령이 입력되면, 타 촬영 장치(200)의 카메라부(220)는 디스플레이부(140)에 디스플레이된 제1 영상의 3배줌에 해당하는 영상을 촬영하도록 배율이 조정될 수 있다.
그리고 3배줌(1920)을 나타내는 아이콘을 길게 터치하여, 임의의 영역으로 드래그하는 명령이 입력되면, 촬영 장치(100)는 아이콘이 이동된 위치에 타 촬영 장치(200)에서 촬영된 3배줌 영상을 중첩하여 디스플레이할 수 있다.
또한, 도 19c는 제2 영상을 중첩하여 표시할 영역이 드로잉 명령에 의해 선택되는 실시 예를 도시한 도면이다.
구체적으로, 디스플레이부(140)가 제2 영상을 중첩하여 표시할 영역을 선택하기 위한 UI를 디스플레이하지 않아도, 제2 영상을 중첩하여 표시하기 위한 사용자 명령이 입력되면, 촬영 장치(100)는 입력된 제2 영상의 크기에 대응되는 배율을 계산한다. 즉, 드로잉 된 제2 영상을 중첩하기 위한 영역의 크기가 작을수록, 촬영 장치(100)는 타 촬영 장치(200)에서 촬영해야하는 배율이 높은 것으로 계산할 수 있다.
그리고 촬영 장치(100)는 인터페이스부(115)를 통해 계산된 촬영 배율을 타 촬영 장치(200)로 전달한다. 타 촬영 장치(200)는 포함된 렌즈의 배율을 수신한 촬영 배율에 따라 조절한다. 특히, 타 촬영 장치(200)가 포함하는 렌즈가 망원 렌즈인 경우, 타 촬영 장치(200)는 고배율의 영상을 촬영할 수 있다.
이하에서는, 도 20a 내지 도 20d를 참조하여, 제2 영상을 중첩하여 디스플레이하기 위한 영역을 선택하는 사용자 명령에 의해, 촬영 이미지를 디스플레이하는 방법에 대해 구체적으로 설명한다.
도 20a은, 사용자 명령에 의해 선택된 영역(1940)이 타 촬영 장치(200)에서 촬영하는 제2 영상(2100)의 중심이 일치하며, 중앙에 포함되는 경우를 도시한 도면이다. 이때, 촬영 장치(100)의 이미지 처리부(130)는 타 촬영 장치(200)에서 촬영된 영상을 수신하여, 촬영된 제2 영상(2100) 중 선택된 영역(1940)에 상응하는 부분을 크롭(crop)한다. 그리고 촬영 장치(100)는 제1 영상(2000) 내에 선택된 영역(1940)을 중첩하여 촬영 이미지를 생성하고, 생성된 촬영 이미지를 디스플레이할 수 있다. 촬영 이미지는 라이브 뷰로 디스플레이될 수 있다.
한편, 촬영 장치(100)는 타 촬영 장치(200)에서 촬영하는 영상의 촬영 배율을 높이는 명령을 타 촬영 장치(200)로 전달할 수도 있다. 즉, 선택된 영역(1940)의 크기가 작을수록 높은 배율로 촬영되는 것을 의미하므로, 촬영 장치(100)는 타 촬영 장치(200)가 촬영하는 촬영 배율을 높이기 위한 명령을 전달할 수 있다.
타 촬영 장치(200)에서 사용자 명령에 의해 선택된 영역(1940)의 크기에 상응하도록 촬영 배율을 높이고, 제2 영상을 촬영하면, 촬영 장치(100)는 제2 영상을 수신하여, 제1 영상(2000) 내에 수신한 제2 영상을 중첩한 촬영 이미지를 생성할 수 있다. 그리고 촬영 장치(100)는 생성된 촬영 이미지를 라이브뷰로 디스플레이할 수 있다.
도 20b는, 사용자 명령에 의해 선택된 영역(1940)이 타 촬영 장치(200)에서 촬영하는 제2 영역(2100)에 일부만 포함되는 경우를 도시한 도면이다. 이때, 촬영 장치(100)는 타 촬영 장치(200)로 타 촬영 장치(200)에서 촬영하는 영상의 촬영 배율을 낮추는 명령을 전달할 수 있다. 즉, 촬영 장치(100)는 선택된 영역(1940)을 포함할 수 있는 제2 영역(2100)의 크기를 계산하고, 계산된 영역의 크기에 따라 타 촬영 장치(200)에서 촬영하기 위한 촬영 배율을 계산할 수 있다. 그리고 촬영 장치(100)는 인터페이스부(115)를 통해, 계산된 촬영 배율을 타 촬영 장치(200)로 전달할 수 있다.
타 촬영 장치(200)에서 사용자 명령에 의해 선택된 영역(1940)을 포함하도록 촬영 배율을 낮추고, 제2 영상을 촬영하면, 촬영 장치(100)는 제2 영상을 수신하여, 촬영된 제2 영상(2200) 중 선택된 영역(1940)에 상응하는 부분을 크롭(crop)한다. 그리고 촬영 장치(100)는 제1 영상(2000) 내에 선택된 영역(1940)을 중첩하여 촬영 이미지를 생성하고, 생성된 촬영 이미지를 라이브뷰로 디스플레이할 수 있다.
도 20c는, 사용자 명령에 의해 선택된 영역(1940)이 타 촬영 장치(200)에서 촬영하는 제2 영상(2100)에 포함되나, 중심이 일치하지 않는 실시 예를 도시한 도면이다. 촬영 장치(100)는 타 촬영 장치(200)로 타 촬영 장치(200)에서 촬영하는 영상의 촬영 배율을 높이는 명령을 전달할 수 있다. 즉, 촬영 장치(100)는 제2 영상(2100)의 임의의 모서리가 선택된 영역(1940)의 일 모서리에 일치하는 크기가 되기 위해 필요한 타 촬영 장치(200)의 촬영 배율을 계산하여, 전달할 수 있다.
타 촬영 장치(200)에서 사용자 명령에 의해 선택된 영역(1940)을 포함하도록 촬영 배율을 높이고, 제2 영상을 촬영하면, 촬영 장치(100)는 제2 영상을 수신하여, 촬영된 제2 영상(2300) 중 선택된 영역(1940)에 상응하는 부분을 크롭(crop)한다. 그리고 촬영 장치(100)는 제1 영상(2000) 내에 선택된 영역(1940)을 중첩하여 촬영 이미지를 생성하고, 생성된 촬영 이미지를 라이브뷰로 디스플레이할 수 있다.
한편, 도 20d에 도시된 바와 같이, 사용자 명령에 의해 선택된 영역(1940)이 타 촬영 장치(200)에서 촬영하는 제2 영상(2100)과 중심이 일치하지 않으면서, 그 영역도 전혀 겹치지 않을 수도 있다. 이때, 타 촬영 장치(200)의 렌즈를 회전하는 것과 같은 별도의 사용자 조작이 필요할 수 있다. 촬영 장치(100)는 타 촬영 장치(200)에 의해 촬영되는 제2 영상(2100)이 사용자 명령에 의해 선택된 영역(1940)을 포함하기 위해 필요한 타 촬영 장치(200)의 렌즈의 이동 정보를 계산할 수 있다.
즉, 촬영 장치(100)는 회전 가능한 렌즈의 경우, 렌즈를 어느 방향으로 몇 도 회전하여야 선택된 영역(1940)을 포함하는 제2 영상(2100)이 촬영될 수 있는지 계산할 수 있다. 또는, 렌즈가 이동가능한 형태로 타 촬영 장치(200)에 구비된 경우, 촬영 장치(100)는 렌즈의 이동 방향 및 이동 거리를 계산할 수 있다.
그리고 촬영 장치(100)는 계산된 이동 정보에 따라 사용자가 k 촬영 장치(200)의 렌즈를 조정하도록 하기 위한 가이드 UI를 디스플레이부(140)에 디스플레이할 수 있다. 특히, 렌즈를 조정하기 위한 가이드 UI는 화살표, 지시선 등으로 표시되어, 사용자가 이동 정보를 쉽게 알도록 할 수 있다.
또는, 촬영 장치(100)는 타 촬영 장치(200)의 렌즈의 회전 각도 등을 계산한 경우에는, 인터페이스부(115)를 통해 렌즈의 회전 각도 정보를 전달하여, 타 촬영 장치(200)가 렌즈를 회전하도록 제어할 수도 있다. 따라서, 사용자가 렌즈의 회전 또는 위치를 조정하기 위한 별도의 조작을 하지 않아도, 타 촬영 장치(200)의 렌즈가 제어될 수 있다.
상술한 바와 같은, 타 촬영 장치(200)에 의해 촬영된 제2 영상을 중첩하여 디스플레이할 영역을 선택하는 방법은, 타 촬영 장치(200)에 구비된 렌즈가 망원 렌즈인 경우, 사용자는 영상을 확대하여 촬영하고자 하는 부분에 대해 망원 렌즈를 통해 촬영된 영상을 이용함으로써, 선명한 확대 영상을 획득할 수 있게 된다.
즉, 촬영 장치(100)가 광각 렌즈를 포함하는 경우, 먼 거리에 위치한 피사체를 선명하게 촬영하기 어렵다. 따라서, 촬영 장치(100)에 결합한 타 촬영 장치(200)의 망원 렌즈를 이용하여 복수의 피사체 중 특히 먼 거리에 위치하였거나, 사용자가 특히 강조하기를 원하는 피사체에 대한 확대 촬영을 수행할 수 있다.
한편, 도 21은 본 발명의 일 실시 예에 따른, 촬영 장치를 이용한 촬영 방법을 도시한 흐름도이다. 먼저, 촬영 장치(100)는 제1 초점거리를 가지는 렌즈를 포하는 촬영 장치(100)와 제2 초점거리를 가지는 렌즈를 포함하는 타 촬영 장치(200)가 동일한 방향을 촬영하도록 배치되면(S2100), 촬영 명령의 입력 여부를 판단한다(S2110).
촬영 명령은 촬영 장치(100)에 포함된 터치 스크린을 통해 입력된 터치 명령일 수 있다. 또는, 타 촬영 장치(200)가 셔터 버튼과 같이 별도로 구비된 입력부를 포함하는 경우, 셔터 버튼을 누르는 사용자 조작에 의해 촬영 명령이 입력될 수 있다. 그리고 촬영 장치(100)는 통신부 또는 전기적으로 타 촬영 장치(200)와 연결하기 위한 인터페이스부를 통해 촬영 명령을 수신할 수도 있다.
촬영 명령이 입력된 경우(S2110-Y), 촬영 장치(100) 및 타 촬영 장치(200)는 각각 영상을 촬영할 수 있다(S2120). 즉, 촬영 장치(100) 또는 타 촬영 장치(200)를 통해 입력되는 한 번의 촬영 명령에 의해, 촬영 장치(100) 및 타 촬영 장치(200)가 각각 영상을 촬영할 수 있다.
촬영 장치(100)는 촬영 장치(100)에서 촬영된 제1 영상과 타 촬영 장치(200)에서 촬영된 제2 영상을 이용하여 촬영 이미지를 생성한다(S2130). 특히, 촬영 장치(100)는 초점 거리가 비교적 짧은 광각 렌즈를 포함하고, 타 촬영 장치(200)는 초점 거리가 비교적 긴 망원 렌즈를 포함하는 경우, 촬영 장치(100)는 광각 렌즈를 통해 촬영된 영상 내부에 망원 렌즈를 통해 촬영된 영상을 중첩하여, 촬영 이미지를 생성할 수 있다. 그러나 이는 일 실시 예에 불과할 뿐, 촬영 장치(100)가 망원 렌즈를 포함하고 타 촬영 장치(200)가 광각 렌즈를 포함할 수 있으며, 촬영 장치(100) 및 타 촬영 장치(200)가 동일한 종류의 렌즈를 포함할 수도 있다.
그리고 촬영 장치(100)는 생성된 촬영 이미지를 디스플레이한다(S2140). 특히, 촬영 장치(100)는 생성된 촬영 이미지를 라이브 뷰 영상으로 디스플레이할 수 있다. 이때, 촬영 장치(100) 또는 타 촬영 장치에 구비된 입력부를 통해 영상 캡쳐 명령이 입력되면, 촬영 장치(100)는 라이브 뷰 영상을 캡쳐하여 디스플레이하거나 저장할 수 있다.
한편, 도 22는 본 발명의 일 실시 예에 따른, 휴대폰(100) 및 커버형 카메라(400)를 이용한 촬영 방법을 도시한 시퀀스도이다. 커버형 카메라(400)는 촬영 장치(100)의 일면을 덮는 케이스 형태로 구현된 촬영 장치이다. 특히, 커버형 카메라(400)는 외부에 셔터 버튼을 구비할 수 있다. 그리고 커버형 카메라(400)는 망원 렌즈를 포함할 수 있다.
휴대폰(100) 및 커버형 카메라(400)는 블루투스, NFC 통신, Wifi 통신과 같은 근거리 통신을 이용하여 연결되거나, 상호 접촉된 인터페이스부를 통해 데이터 또는 사용자 명령을 주고 받을 수 있다.
상술한 다양한 방법 중, 일 방법에 의해, 커버형 카메라(400)가 커버형 카메라(400)의 근처에 위치한 휴대폰(100)으로 연결 신호를 전송한다(S2200).
휴대폰(100)이 사용자 승인에 의해 연결을 승인하면(S2210), 휴대폰(100) 및 커버형 카메라(400)는 각각 영상을 촬영한다(S2220, S2230).
예를 들면, 휴대폰(100)은 구비된 광각 렌즈를 이용하여 영상을 촬영하고, 커버형 카메라(400)는 구비된 망원 렌즈를 이용하여 영상을 촬영할 수 있다. 즉, 휴대폰(100) 및 커버형 카메라(400)는 서로 상이한 화각으로 영상을 촬영할 수 있다.
커버형 카메라(400)가 촬영 영상을 휴대폰(100)으로 전송하면(S2240), 휴대폰(100)은 휴대폰(100) 및 커버형 카메라(400)에서 촬영한 영상을 이용하여 촬영 이미지를 생성한다(S2250). 즉, 휴대폰(100)은 촬영 장치(100)는 광각 렌즈를 포함하고, 커버형 카메라(400)는 망원 렌즈를 포함하는 경우, 촬영 장치(100)는 광각 렌즈를 통해 촬영된 영상 내부에, 망원 렌즈를 통해 촬영된 영상을 중첩하여, 촬영 이미지를 생성할 수 있다.
그리고 휴대폰(100)은 생성된 촬영 이미지를 라이브 뷰(Live View)로 디스플레이한다(S2260). 이때, 커버형 카메라(400)는 영상 캡쳐 명령이 입력되면(S2270), 영상 캡쳐 명령을 휴대폰(100)으로 전송한다(S2280). 즉, 영상 캡쳐 명령은 커버형 카메라(400)에 구비된 셔터 버튼을 누르는 사용자 조작일 수 있다.
수신된 영상 캡쳐 명령에 따라, 휴대폰(100)은 영상을 캡쳐한다(S2290). 그리고 휴대폰(100)은 캡쳐된 영상을 디스플레이한다(S2300). 휴대폰(100)은 영상의 캡쳐와 동시에, 캡쳐된 영상을 저장할 수 있다. 또는, 캡쳐된 영상을 디스플레이하고, 영상을 저장하기 위한 사용자 명령이 입력되면, 휴대폰(100)은 캡쳐된 영상을 저장할 수도 있다.
한편, 커버형 카메라(400)는 영상을 촬영하여 휴대폰(100)으로 전송하는 동작만을 수행하는 것처럼 설명하였으나, 이는 일 실시 예에 불과할 뿐, 휴대폰(100)에서 촬영한 영상을 커버형 카메라(400)로 전송하면, 커버형 카메라(400)가 촬영 이미지를 생성할 수도 있다.
또한, 영상 촬영 명령 또는 영상 캡쳐 명령과 같은 사용자 명령은 복수의 촬영 장치 중 어느 촬영 장치를 통해서나, 각 촬영 장치에 구비된 촬영부를 통해 입력될 수 있다.
한편, 복수의 촬영 장치를 통해 촬영된 영상을 이용하여 생성된 라이브 뷰는, 복수의 촬영 장치 중 어느 촬영 장치를 통해서나, 임의의 촬영 장치에 구비된 디스플레이부를 통해 디스플레이될 수 있다.
상술한 다양한 실시 예들에 따른 촬영 장치의 영상 촬영 방법은, 소프트웨어로 코딩되어 비일시적 판독 가능 매체(non-transitory readable medium)에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100: 촬영 장치 110: 결합부
115: 인터페이스부 120: 카메라부
130: 이미지 처리부 140: 디스플레이부
150: 제어부 200: 타 촬영 장치
210: 인터페이스부 220: 카메라부
230: 입력부 300: 탈착 가능 렌즈
400: 커버형 카메라

Claims (30)

  1. 촬영 장치에 있어서,
    제1 초점거리를 가지는 렌즈를 이용하여 피사체를 촬영하는 카메라부;
    상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 타 촬영장치와 결합하는 결합부;
    촬영 명령이 입력되면, 상기 카메라부 및 상기 타 촬영장치가 각각 촬영을 수행하도록 제어하는 제어부;
    상기 카메라부에서 촬영되는 제1 영상과 상기 타 촬영 장치에서 촬영되는 제2 영상을 이용하여, 촬영 이미지를 생성하는 이미지 처리부; 및
    상기 촬영 이미지를 디스플레이하는 디스플레이부; 를 포함하는 촬영 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 타 촬영 장치로부터 촬영 명령이 전달되면, 상기 촬영 명령에 따라 상기 카메라부를 제어하여 상기 피사체에 대한 촬영을 수행하는 것을 특징으로 하는 촬영 장치.
  3. 제1항에 있어서,
    촬영 명령을 입력받기 위한 입력부; 를 더 포함하고,
    상기 제어부는,
    상기 촬영 명령이 입력되면, 상기 카메라부를 제어하여 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 명령을 전달하는 것을 특징으로 하는 촬영 장치.
  4. 제1항에 있어서,
    상기 결합부에 의해 상기 타 촬영 장치가 결합되면, 상기 타 촬영 장치에 구비된 인터페이스부와 전기적으로 연결되는 인터페이스부; 를 더 포함하는 촬영 장치.
  5. 제1항에 있어서,
    상기 제2 초점거리가 상기 제1 초점거리보다 길고,
    상기 제어부는,
    상기 제2 영상을 상기 제1 영상 내의 로컬 영역에 중첩하고, 상기 제2 영상 및 상기 1 영상을 구분하기 위한 경계선을 포함하는 상기 촬영 이미지를 생성하도록 상기 이미지 처리부를 제어하는 것을 특징으로 하는 촬영 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 디스플레이부에 디스플레이된 상기 촬영 이미지상에서 제1 영상 부분이 터치되면 상기 디스플레이부 전체에 상기 제1 영상을 디스플레이하고, 제2 영상 부분이 터치되면 상기 디스플레이부 전체에 상기 제2 영상을 디스플레이하는 것을 특징으로 하는 촬영 장치.
  7. 제5항에 있어서,
    상기 제어부는,
    상기 촬영 이미지의 배율을 조정하기 위한 사용자 명령이 입력되면, 상기 카메라부 및 상기 타 촬영 장치 중 적어도 하나의 촬영 배율을 조정하는 것을 특징으로 하는 촬영 장치.
  8. 제5항에 있어서,
    상기 제1 영상은 제1 라이브뷰 영상이고, 상기 제2 영상은 제2 라이브뷰 영상이며,
    상기 제어부는,
    상기 카메라부에서 촬영되는 제1 라이브 뷰 내의 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩한 통합 라이브 뷰를 상기 디스플레이부에 표시하고, 촬영 명령이 입력되면, 상기 통합 라이브 뷰에 대응되는 촬영 이미지를 생성하도록 상기 이미지 처리부를 제어하는 것을 특징으로 하는 촬영 장치.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 제1 라이브 뷰가 디스플레이되고 있는 상태에서, 상기 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 상기 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩하도록 상기 이미지 처리부를 제어하는 것을 특징으로 하는 촬영 장치.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 로컬 영역의 크기에 따라 촬영 배율을 계산하여, 상기 촬영 배율로 상기 피사체를 촬영하도록 상기 카메라부를 제어하고, 상기 타 촬영 장치의 상기 촬영 배율을 제어하기 위한 제어 명령을 전달하는 것을 특징으로 하는 촬영 장치.
  11. 제8항에 있어서,
    상기 촬영 이미지를 저장하기 위한 저장부; 를 더 포함하고,
    상기 제어부는,
    연속 촬영 명령이 입력되면, 상기 제1 라이브 뷰를 상기 디스플레이부에 디스플레이하면서, 상기 타 촬영 장치를 제어하여 연속 촬영을 수행하고, 상기 생성된 연속 촬영 이미지를 상기 저장부에 저장하는 것을 특징으로 하는 촬영 장치.
  12. 제1항에 있어서,
    상기 촬영 장치의 움직임을 감지하기 위한 감지부; 를 더 포함하고,
    상기 제어부는,
    상기 타 촬영 장치의 경통이 길어진 상태에서 상기 피사체를 촬영하는 동안, 상기 촬영 장치의 움직임이 기 설정된 조건을 충족하면, 상기 타 촬영 장치의 경통의 길이를 조절하도록 제어하는 것을 특징으로 하는 촬영 장치.
  13. 제1항에 있어서,
    상기 결합부는,
    상기 타 촬영 장치 및 배터리 커버 중 하나가 선택적으로 분리 가능하게 결합되는 구조인 것을 특징으로 하는 촬영 장치.
  14. 촬영 장치의 촬영 방법에 있어서,
    상기 촬영 장치와 타 촬영 장치가 결합된 상태에서 촬영 명령이 입력되면, 제1 초점거리를 가지는 렌즈를 포함하는 상기 촬영 장치 및 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 포함하는 상기 타 촬영 장치에서 각각 피사체에 대해 촬영하는 단계;
    상기 촬영 장치에서 촬영된 제1 영상과 상기 타 촬영 장치에서 촬영된 제2 영상을 이용하여, 촬영 이미지를 생성하는 단계; 및
    상기 촬영 이미지를 디스플레이하는 단계; 를 포함하는 촬영 방법.
  15. 제14항에 있어서,
    상기 촬영하는 단계는,
    상기 타 촬영 장치로부터 상기 촬영 명령이 전달되면, 상기 촬영 명령에 따라 상기 피사체에 대한 촬영을 수행하는 것을 특징으로 하는 촬영 방법.
  16. 제14항에 있어서,
    상기 촬영하는 단계는,
    상기 촬영 장치에 구비된 입력부를 통해 상기 촬영 명령을 입력받는 단계; 및
    상기 촬영 명령에 따라 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 명령을 전달하는 단계; 를 더 포함하는 촬영 방법.
  17. 제14항에 있어서,
    상기 촬영 장치가 상기 타 촬영 장치와 물리적으로 결합되면, 상기 타 촬영 장치에 구비된 인터페이스부와 전기적으로 연결하는 단계; 를 더 포함하는 촬영 방법.
  18. 제14항에 있어서,
    상기 제2 초점거리가 상기 제1 초점거리보다 길고,
    상기 촬영 이미지를 생성하는 단계는,
    상기 제2 영상을 상기 제1 영상 내의 로컬 영역에 중첩하고, 상기 제2 영상 및 상기 1 영상을 구분하기 위한 경계선을 포함하는 상기 촬영 이미지를 생성하는 것을 특징으로 하는 촬영 방법.
  19. 제18항에 있어서,
    상기 디스플레이하는 단계는,
    상기 디스플레이된 상기 촬영 이미지상에서 제1 영상 부분이 터치되면 상기 디스플레이 전체에 상기 제1 영상을 디스플레이하고, 제2 영상 부분이 터치되면 상기 디스플레이 전체에 상기 제2 영상을 디스플레이하는 것을 특징으로 하는 촬영 방법.
  20. 제18항에 있어서,
    상기 촬영하는 단계는,
    상기 촬영 이미지의 배율을 조정하기 위한 사용자 명령이 입력되면, 상기 촬영 장치 및 상기 타 촬영 장치 중 적어도 하나의 촬영 배율을 조정하는 단계; 를 더 포함하는 촬영 방법.
  21. 제18항에 있어서,
    상기 제1 영상은 제1 라이브뷰 영상이고, 상기 제2 영상은 제2 라이브뷰 영상이며,
    상기 촬영 이미지를 생성하는 단계는,
    상기 제1 라이브 뷰 내의 로컬 영역에 상기 제2 라이브 뷰를 중첩한 통합 라이브 뷰를 디스플레이하고, 상기 촬영 명령이 입력되면, 상기 통합 라이브 뷰에 대응되는 촬영 이미지를 생성하는 것을 특징으로 하는 촬영 방법.
  22. 제21항에 있어서,
    상기 촬영 이미지를 생성하는 단계는,
    상기 제1 라이브 뷰가 디스플레이되고 있는 상태에서, 상기 제1 라이브 뷰 내에서 사용자 조작에 따라 임의의 로컬 영역이 선택되면, 상기 로컬 영역에 상기 타 촬영 장치에서 촬영되는 제2 라이브 뷰를 중첩하도록 상기 촬영 이미지를 생성하는 것을 특징으로 하는 촬영 방법.
  23. 제22항에 있어서,
    상기 촬영하는 단계는,
    상기 로컬 영역의 크기에 따라 촬영 배율을 계산하여, 상기 촬영 배율로 상기 피사체를 촬영하고, 상기 타 촬영 장치로 상기 촬영 배율을 전달하는 단계; 를 더 포함하는 촬영 방법.
  24. 제21항에 있어서,
    연속 촬영 명령이 입력되면, 상기 제1 라이브 뷰를 디스플레이하면서, 상기 타 촬영 장치를 제어하여 연속 촬영을 수행하며, 상기 생성된 연속 촬영 이미지를 저장하는 단계; 를 더 포함하는 것을 특징으로 하는 촬영 방법.
  25. 제14항에 있어서,
    상기 촬영 장치의 움직임을 감지하는 단계; 및
    상기 타 촬영 장치의 경통이 길어진 상태에서 상기 피사체를 촬영하는 동안, 상기 촬영 장치의 움직임이 기 설정된 조건을 충족하면, 상기 타 촬영 장치의 경통의 길이를 조절하는 단계; 를 더 포함하는 촬영 방법.
  26. 복수의 촬영 장치를 이용한 촬영 시스템에 있어서,
    제1 초점거리를 가지는 렌즈를 포함하는 제1 촬영 장치; 및
    상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 제2 촬영장치; 를 포함하고,
    상기 제1 촬영 장치는,
    상기 촬영 명령에 따라 제1 영상을 촬영하며, 상기 제2 촬영 장치에서 촬영한 제2 영상을 수신하고, 상기 제1 영상 및 상기 제2 영상을 이용하여 촬영 이미지를 생성하여, 상기 생성된 촬영 이미지를 디스플레이하는 것을 특징으로 하는 촬영 시스템.
  27. 제26항에 있어서,
    상기 제2 초점거리는 상기 제1 초점거리보다 길고,
    상기 제1 촬영 장치는,
    상기 제1 영상 내부의 로컬 영역에 상기 제2 영상을 중첩하여 상기 촬영 이미지를 생성하는 것을 특징으로 하는 촬영 시스템.
  28. 제26항에 있어서,
    상기 제2 촬영 장치는,
    촬영 방향에 따라 회전 가능하고, 탈착 가능하며, 이미지 센서를 포함하는 별도의 렌즈; 를 더 포함하는 것을 특징으로 하는 촬영 시스템.
  29. 제28항에 있어서,
    상기 렌즈는,
    모서리부에 기 설정된 간격에 따라 자석을 포함하여, 임계 범위 내의 회전 명령이 입력되는 경우, 상기 자석의 자기력이 미치는 방향으로 회전하는 것을 특징으로 하는 촬영 시스템.
  30. 복수의 촬영 장치를 이용한 촬영 방법에 있어서,
    제1 초점거리를 가지는 렌즈를 포함하는 제1 촬영 장치 및 상기 제1 초점거리와 상이한 제2 초점거리를 가지는 렌즈를 구비한 제2 촬영장치가 결합된 상태에서, 촬영 명령이 입력되면, 상기 복수의 촬영 장치 각각이 영상을 촬영하는 단계; 및
    상기 제1 촬영 장치가, 각 장치에서 촬영된 복수의 영상을 이용하여 촬영 이미지를 생성하고, 상기 생성된 촬영 이미지를 디스플레이하는 단계; 를 포함하는 촬영 방법.
KR1020140105982A 2014-08-14 2014-08-14 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법 KR102145542B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140105982A KR102145542B1 (ko) 2014-08-14 2014-08-14 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법
US14/806,956 US9813629B2 (en) 2014-08-14 2015-07-23 Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof
CN201580038283.1A CN106664356B (zh) 2014-08-14 2015-08-05 图像拍摄装置、通过使用多个图像拍摄装置执行拍摄的图像拍摄系统及其图像拍摄方法
EP15831955.8A EP3180908B1 (en) 2014-08-14 2015-08-05 Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof
PCT/KR2015/008209 WO2016024755A1 (en) 2014-08-14 2015-08-05 Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140105982A KR102145542B1 (ko) 2014-08-14 2014-08-14 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법

Publications (2)

Publication Number Publication Date
KR20160020791A true KR20160020791A (ko) 2016-02-24
KR102145542B1 KR102145542B1 (ko) 2020-08-18

Family

ID=55303085

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140105982A KR102145542B1 (ko) 2014-08-14 2014-08-14 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법

Country Status (5)

Country Link
US (1) US9813629B2 (ko)
EP (1) EP3180908B1 (ko)
KR (1) KR102145542B1 (ko)
CN (1) CN106664356B (ko)
WO (1) WO2016024755A1 (ko)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180131644A (ko) * 2016-06-12 2018-12-10 애플 인크. 카메라 효과를 위한 사용자 인터페이스
KR20190098583A (ko) * 2018-02-14 2019-08-22 삼성전자주식회사 이미지 표시를 제어하는 전자 장치 및 방법
US10523879B2 (en) 2018-05-07 2019-12-31 Apple Inc. Creative camera
US10528243B2 (en) 2017-06-04 2020-01-07 Apple Inc. User interface camera effects
US10616490B2 (en) 2015-04-23 2020-04-07 Apple Inc. Digital viewfinder user interface for multiple cameras
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11159719B2 (en) 2018-01-25 2021-10-26 Sony Semiconductor Solutions Corporation Image processing apparatus and output information control method
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351098B1 (ko) * 2015-01-16 2022-01-14 삼성전자주식회사 카메라 및 렌즈 모듈
MY188596A (en) * 2015-08-21 2021-12-22 Ns Solutions Corp Display system, display device, display method, and non-transitory computer readable recording medium
MX2018014493A (es) * 2016-05-25 2019-08-12 Arris Entpr Llc Particionamiento binario, ternario, cuaternario para jvet.
CN107770433B (zh) * 2016-08-15 2020-08-04 广州立景创新科技有限公司 影像获取装置及其影像平顺缩放方法
CN106791377B (zh) 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
US10502548B2 (en) * 2017-05-09 2019-12-10 Google Llc Sensor combination
US10972672B2 (en) * 2017-06-05 2021-04-06 Samsung Electronics Co., Ltd. Device having cameras with different focal lengths and a method of implementing cameras with different focal lengths
US20190180475A1 (en) * 2017-12-08 2019-06-13 Qualcomm Incorporated Dynamic camera calibration
JP2019168479A (ja) * 2018-03-22 2019-10-03 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
CN112887586B (zh) * 2019-05-06 2022-05-10 苹果公司 用于捕获和管理视觉媒体的用户界面
CN111901479B (zh) * 2019-05-06 2021-05-25 苹果公司 一种用于显示相机用户界面的方法、电子设备和非暂态计算机可读存储介质
US11869213B2 (en) * 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
CN111787224B (zh) * 2020-07-10 2022-07-12 深圳传音控股股份有限公司 图像的获取方法、终端设备和计算机可读存储介质
CN116405776A (zh) * 2020-09-27 2023-07-07 华为技术有限公司 多镜头视频录制方法及相关设备
CN114866681B (zh) * 2021-02-04 2023-12-01 华为技术有限公司 跨设备的协同拍摄方法、相关装置及系统
CN116208837A (zh) * 2021-11-30 2023-06-02 晋城三赢精密电子有限公司 一种可随时更换相机模组的电子装置
CN114390206A (zh) * 2022-02-10 2022-04-22 维沃移动通信有限公司 拍摄方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020013161A1 (en) * 2000-07-27 2002-01-31 Pierre Schaeffer Mobile telephone system having a detachable camera / battery module
US20060268159A1 (en) * 1998-06-05 2006-11-30 Masaaki Orimoto Image-capturing apparatus having multiple image capturing units
US20110267432A1 (en) * 2010-01-13 2011-11-03 Panasonic Corporation Camera and camera system
US20120013161A1 (en) * 2010-07-14 2012-01-19 La-Z-Boy Incorporated Tension fabric lumbar support system

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08271976A (ja) 1995-03-29 1996-10-18 Canon Inc カメラ
JP3965529B2 (ja) 1997-03-10 2007-08-29 富士フイルム株式会社 デジタルカメラ
US6256063B1 (en) 1996-10-02 2001-07-03 Fuji Photo Film Co., Ltd. Image signal processing unit and electronic still camera
US7161619B1 (en) * 1998-07-28 2007-01-09 Canon Kabushiki Kaisha Data communication system, data communication control method and electronic apparatus
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
JP2002232822A (ja) 2001-02-06 2002-08-16 Olympus Optical Co Ltd 記録再生装置
JP2003060962A (ja) 2001-08-10 2003-02-28 Olympus Optical Co Ltd デジタルカメラシステム
JP4065740B2 (ja) 2002-08-01 2008-03-26 富士フイルム株式会社 クレードル装置
JP2004129027A (ja) 2002-10-04 2004-04-22 Sharp Corp 携帯機器及びそれを用いた3次元画像形成システム
JP2005100061A (ja) 2003-09-24 2005-04-14 Sharp Corp 着脱構造体、接続ユニット、撮像装置、撮像ユニット、印刷装置、印刷ユニット、通信装置及び通信ユニット
JP2006295838A (ja) * 2005-04-14 2006-10-26 Fuji Photo Film Co Ltd カメラシステム
JP2007043248A (ja) * 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
JP4573725B2 (ja) * 2005-08-01 2010-11-04 イーストマン コダック カンパニー 複数光学系を有する撮像装置
JP2007306433A (ja) 2006-05-12 2007-11-22 Fujifilm Corp レンズ交換式カメラ
JP4607818B2 (ja) 2006-05-22 2011-01-05 富士フイルム株式会社 カメラ
JP2008096584A (ja) * 2006-10-10 2008-04-24 Nikon Corp カメラ
KR20080111803A (ko) 2007-06-20 2008-12-24 박철 복수개의 디지털 카메라 모듈이 장착이 된 전자 제품
KR20090129742A (ko) * 2008-06-13 2009-12-17 삼성디지털이미징 주식회사 터치 스크린을 이용한 줌 기능을 구비한 디지털 카메라와촬상 방법
KR101569427B1 (ko) * 2008-10-02 2015-11-16 삼성전자주식회사 휴대 단말기의 터치 입력 장치 및 그의 운영 방법
JP5275789B2 (ja) 2008-12-26 2013-08-28 オリンパスイメージング株式会社 カメラ
JP5265417B2 (ja) 2009-03-09 2013-08-14 オリンパスイメージング株式会社 撮影装置及び撮影制御方法
EP3220180A1 (en) * 2009-06-16 2017-09-20 INTEL Corporation Camera applications in a handheld device
JP5235798B2 (ja) * 2009-06-22 2013-07-10 富士フイルム株式会社 撮影装置及びその制御方法
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
JP4787906B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 撮像装置、方法およびプログラム
US20120075489A1 (en) * 2010-09-24 2012-03-29 Nishihara H Keith Zoom camera image blending technique
TWI490583B (zh) 2010-09-29 2015-07-01 Hon Hai Prec Ind Co Ltd 便於外接配件的可攜式電子裝置
US8638369B2 (en) 2010-12-09 2014-01-28 Apple Inc. Back panel for a portable electronic device with different camera lens options
JP5728280B2 (ja) 2011-04-20 2015-06-03 京セラ株式会社 立体画像撮影システム、携帯通信端末、立体画像撮影システムの立体画像撮影方法、携帯通信端末の立体画像撮影プログラムおよび携帯通信端末の立体画像撮影方法
US8843177B2 (en) * 2011-04-22 2014-09-23 Belkin International, Inc. Mobile electronic device accessory and method of providing the same
JP5884421B2 (ja) * 2011-11-14 2016-03-15 ソニー株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
EP2613552A3 (en) * 2011-11-17 2016-11-09 Axell Corporation Method for moving image reproduction processing and mobile information terminal using the method
US8862183B2 (en) * 2011-12-09 2014-10-14 Charles J. Kulas Camera including image transfer for coupling to a host device
KR20130071794A (ko) * 2011-12-21 2013-07-01 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US9473702B2 (en) * 2011-12-23 2016-10-18 Nokia Technologies Oy Controlling image capture and/or controlling image processing
KR101899877B1 (ko) * 2012-04-04 2018-09-19 삼성전자주식회사 확대된 영상의 화질을 개선하기 위한 장치 및 방법
TWI446089B (zh) * 2012-04-24 2014-07-21 Wistron Corp 鏡頭擴充座
JP5966584B2 (ja) * 2012-05-11 2016-08-10 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
KR200464546Y1 (ko) 2012-05-17 2013-01-21 이승환 스마트폰용 보조 카메라 장치
US8687299B1 (en) 2012-09-07 2014-04-01 Apple Inc. Bayonet attachment mechanisms
US10079968B2 (en) * 2012-12-01 2018-09-18 Qualcomm Incorporated Camera having additional functionality based on connectivity with a host device
US8639106B1 (en) 2012-12-06 2014-01-28 Apple Inc. Magnetic add-on lenses with alignment ridge
US20140160231A1 (en) * 2012-12-12 2014-06-12 Daniel C. Middleton Multi-focal image capture and display
KR20140091117A (ko) 2013-01-02 2014-07-21 삼성전자주식회사 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법
JP6245843B2 (ja) * 2013-05-21 2017-12-13 オリンパス株式会社 カメラ操作端末、撮像システム、撮像方法、およびプログラム
JP5786101B1 (ja) * 2014-01-31 2015-09-30 オリンパス株式会社 撮像装置
US9360671B1 (en) * 2014-06-09 2016-06-07 Google Inc. Systems and methods for image zoom

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268159A1 (en) * 1998-06-05 2006-11-30 Masaaki Orimoto Image-capturing apparatus having multiple image capturing units
US20020013161A1 (en) * 2000-07-27 2002-01-31 Pierre Schaeffer Mobile telephone system having a detachable camera / battery module
US20110267432A1 (en) * 2010-01-13 2011-11-03 Panasonic Corporation Camera and camera system
US20120013161A1 (en) * 2010-07-14 2012-01-19 La-Z-Boy Incorporated Tension fabric lumbar support system

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11711614B2 (en) 2015-04-23 2023-07-25 Apple Inc. Digital viewfinder user interface for multiple cameras
US11490017B2 (en) 2015-04-23 2022-11-01 Apple Inc. Digital viewfinder user interface for multiple cameras
US11102414B2 (en) 2015-04-23 2021-08-24 Apple Inc. Digital viewfinder user interface for multiple cameras
US10616490B2 (en) 2015-04-23 2020-04-07 Apple Inc. Digital viewfinder user interface for multiple cameras
US11245837B2 (en) 2016-06-12 2022-02-08 Apple Inc. User interface for camera effects
US10602053B2 (en) 2016-06-12 2020-03-24 Apple Inc. User interface for camera effects
KR20180131644A (ko) * 2016-06-12 2018-12-10 애플 인크. 카메라 효과를 위한 사용자 인터페이스
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects
US11641517B2 (en) 2016-06-12 2023-05-02 Apple Inc. User interface for camera effects
US11165949B2 (en) 2016-06-12 2021-11-02 Apple Inc. User interface for capturing photos with different camera magnifications
US10528243B2 (en) 2017-06-04 2020-01-07 Apple Inc. User interface camera effects
US11687224B2 (en) 2017-06-04 2023-06-27 Apple Inc. User interface camera effects
US11204692B2 (en) 2017-06-04 2021-12-21 Apple Inc. User interface camera effects
US11606496B2 (en) 2018-01-25 2023-03-14 Sony Semiconductor Solutions Corporation Image processing apparatus and output information control method
US11159719B2 (en) 2018-01-25 2021-10-26 Sony Semiconductor Solutions Corporation Image processing apparatus and output information control method
US11977731B2 (en) 2018-02-09 2024-05-07 Apple Inc. Media capture lock affordance for graphical user interface
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
KR20190098583A (ko) * 2018-02-14 2019-08-22 삼성전자주식회사 이미지 표시를 제어하는 전자 장치 및 방법
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10523879B2 (en) 2018-05-07 2019-12-31 Apple Inc. Creative camera
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11669985B2 (en) 2018-09-28 2023-06-06 Apple Inc. Displaying and editing images with depth information
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11223771B2 (en) 2019-05-06 2022-01-11 Apple Inc. User interfaces for capturing and managing visual media
US10681282B1 (en) 2019-05-06 2020-06-09 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US10652470B1 (en) 2019-05-06 2020-05-12 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10735642B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10735643B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
US10791273B1 (en) 2019-05-06 2020-09-29 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11617022B2 (en) 2020-06-01 2023-03-28 Apple Inc. User interfaces for managing media
US11330184B2 (en) 2020-06-01 2022-05-10 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11416134B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
US11418699B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media

Also Published As

Publication number Publication date
EP3180908A1 (en) 2017-06-21
KR102145542B1 (ko) 2020-08-18
CN106664356A (zh) 2017-05-10
EP3180908B1 (en) 2021-12-01
US20160050351A1 (en) 2016-02-18
WO2016024755A1 (en) 2016-02-18
EP3180908A4 (en) 2019-02-13
US9813629B2 (en) 2017-11-07
CN106664356B (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
KR102145542B1 (ko) 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법
US9374529B1 (en) Enabling multiple field of view image capture within a surround image mode for multi-LENS mobile devices
JP6106764B2 (ja) 撮像装置及びタイムラプス撮像方法
KR102092330B1 (ko) 촬영 제어 방법 및 그 전자 장치
JP6328255B2 (ja) マルチ撮像装置、マルチ撮像方法、プログラム、及び記録媒体
JP5931206B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5981026B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6205070B2 (ja) カメラの初期位置設定方法、カメラ及びカメラシステム
JP6266799B2 (ja) 撮影制御装置、撮影装置、撮影制御方法、及びプログラム
US20160134805A1 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
US9609224B2 (en) Imaging device and image display method
JP2015186020A (ja) 表示機器、撮影機器及び表示方法
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
JP2013081159A (ja) 撮像装置
JP5789725B2 (ja) 撮像装置及びその合焦方法と合焦制御プログラム
JP6205068B2 (ja) 撮像装置の操作装置、操作方法、及びプログラム
JP6376753B2 (ja) 撮像装置、表示制御装置の制御方法、記録装置の制御方法
KR20170129557A (ko) 휴대용 촬영 장치 및 시스템
JP6456093B2 (ja) 撮像装置、および、撮像装置の制御方法
JP6218615B2 (ja) 表示機器、表示方法、撮影装置及び撮影システム
JP5934844B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2016192616A (ja) 撮像装置、および撮像システム
JP2023129925A (ja) 電子機器、電子機器の制御方法、プログラム、および記憶媒体
JP2015133601A (ja) 撮影装置、画像記録装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant