KR102593824B1 - 카메라를 제어하기 위한 방법 및 그 전자 장치 - Google Patents

카메라를 제어하기 위한 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR102593824B1
KR102593824B1 KR1020160111577A KR20160111577A KR102593824B1 KR 102593824 B1 KR102593824 B1 KR 102593824B1 KR 1020160111577 A KR1020160111577 A KR 1020160111577A KR 20160111577 A KR20160111577 A KR 20160111577A KR 102593824 B1 KR102593824 B1 KR 102593824B1
Authority
KR
South Korea
Prior art keywords
camera
image
electronic device
processor
angle
Prior art date
Application number
KR1020160111577A
Other languages
English (en)
Other versions
KR20180024761A (ko
Inventor
안규식
이승우
양아론
전재희
허소연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160111577A priority Critical patent/KR102593824B1/ko
Priority to PCT/KR2017/006445 priority patent/WO2018043884A1/ko
Priority to CN202210090282.3A priority patent/CN114422701B/zh
Priority to US16/328,155 priority patent/US10944908B2/en
Priority to EP17846809.6A priority patent/EP3506617A4/en
Priority to CN201780053535.7A priority patent/CN109644229B/zh
Publication of KR20180024761A publication Critical patent/KR20180024761A/ko
Priority to US17/193,474 priority patent/US11350033B2/en
Application granted granted Critical
Publication of KR102593824B1 publication Critical patent/KR102593824B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명의 다양한 실시예는 전자 장치에서 다수 개의 카메라를 제어하기 위한 장치 및 방법에 관한 것이다. 이때, 전자 장치는, 제 1 카메라와 상기 제 1 카메라의 화각에 포함되는 화각을 갖도록 설정된 제 2 카메라와 디스플레이와 프로세서를 포함하며, 상기 프로세서는, 상기 다수 개의 카메라 중 제 1 카메라를 통해 획득한 제 1 이미지를 상기 디스플레이에 표시하고, 상기 제 1 이미지에서 제 2 카메라에 대응하는 정보를 검출하고, 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하고, 상기 제 1 카메라와 상기 제 2 카메라의 활성화에 대응하는 적어도 하나의 이미지를 상기 디스플레이에 표시하도록 설정될 수 있다. 다른 실시예들도 가능할 수 있다.

Description

카메라를 제어하기 위한 방법 및 그 전자 장치{METHOD FOR CONTROLLING A CAMERA AND ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시예는 전자 장치에서 다수 개의 카메라를 제어하기 위한 장치 및 방법에 관한 것이다.
정보통신 기술 및 반도체 기술의 발전으로 각종 전자 장치들이 다양한 멀티미디어 서비스를 제공하는 멀티미디어 장치로 발전하고 있다. 예를 들어, 휴대용 전자 장치는 음성 통화 서비스, 메시지 서비스, 방송 서비스, 무선 인터넷 서비스, 카메라 서비스 및 음악 재생 서비스와 같은 다양한 서비스를 제공할 수 있다.
전자 장치는 다수 개의 카메라를 이용하여 사용자가 원하는 다양한 카메라 서비스를 제공할 수 있다. 예를 들어, 전자 장치는 전자 장치의 후면에 배치된 다수 개의 카메라를 이용하여 다양한 화각의 이미지를 획득할 수 있다.
전자 장치는 서로 다른 화각을 갖는 다수 개의 카메라를 이용하여 사용자가 필요로 하는 화각의 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 다수 개의 카메라 중 사용자 입력에 대응하는 적어도 하나의 카메라를 구동하여 해당 카메라의 화각에 대응하는 이미지를 획득할 수 있다. 전자 장치는 사용자 입력에 기반하여 카메라를 전환하는 경우, 카메라를 활성화하기 위한 시간 지연이 발생할 수 있다.
또한, 전자 장치는 다수 개의 카메라를 동시에 구동하는 경우, 지속적으로 다수 개의 카메라를 활성 상태를 유지해야 하므로 전자 장치의 전력 소모가 증가하는 문제가 발생할 수 있다.
본 발명의 다양한 실시 예는 전자 장치에서 다수 개의 카메라를 이용한 다중 카메라 서비스를 제공하기 위한 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치는, 제 1 카메라와 상기 제 1 카메라의 화각에 포함되도록 설정된 화각을 갖는 제 2 카메라와 디스플레이와 프로세서를 포함하며, 상기 프로세서는, 상기 제 1 카메라를 통해 획득한 제 1 이미지를 상기 디스플레이에 표시하고, 상기 제 1 이미지에서 상기 제 2 카메라에 대응하는 정보를 검출하고, 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하고, 상기 제 2 카메라를 통해 획득한 제 2 이미지를 상기 디스플레이에 추가적으로 표시하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치의 동작 방법은, 상기 전자 장치의 제 1 카메라를 통해 획득한 제 1 이미지를 상기 전자 장치의 디스플레이에 표시하는 동작과 상기 제 1 이미지에서 상기 제 1 카메라의 화각에 포함되도록 설정된 화각을 갖는 제 2 카메라에 대응하는 정보를 검출하는 동작과 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하는 동작과 상기 제 2 카메라를 통해 획득한 제 2 이미지를 상기 디스플레이에 추가적으로 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치 및 그 동작 방법은, 제 1 카메라를 통해 획득한 이미지를 이용하여 대기 모드로 동작 중인 제 2 카메라를 선택적으로 활성화함으로써, 제 2 카메라를 활성화하기 위한 시간 지연을 줄일 수 있고, 다중 카메라 서비스 제공에 따른 전력 소모를 줄일 수 있다.
도 1a는 본 발명의 다양한 실시예들에 따른 전자 장치의 전면 사시도를 도시한다.
도 1b는 본 발명의 다양한 실시예들에 따른 전자 장치의 후면 사시도를 도시한다.
도 2a는 본 발명의 다양한 실시예에서의 네트워크 환경 내의 전자 장치를 도시한다.
도 2b는 본 발명의 다양한 실시예에 따른 다수 개의 카메라를 포함하는 전자 장치의 블록도를 도시한다.
도 2c는 본 발명의 다양한 실시예에 따른 다수 개의 카메라를 이용하여 캡쳐한 데이터의 구성을 도시한다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치의 블록도를 도시한다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치에서 다중 카메라 서비스를 제공하기 위한 흐름도를 도시한다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치에서 다수 개의 카메라를 제어하기 위한 흐름도를 도시한다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체와의 거리에 기반하여 다중 카메라 서비스를 제어하기 위한 흐름도를 도시한다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체와의 거리에 기반하여 다중 카메라 서비스를 제어하기 위한 구성을 도시한다.
도 8은 본 발명의 다양한 실시예에 따른 전자 장치에서 얼굴 검출 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시한다.
도 9a 내지 도 9h는 본 발명의 다양한 실시예에 따른 전자 장치에서 얼굴 검출 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시한다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지를 캡쳐하기 위한 흐름도를 도시한다.
도 11a 내지 도 11f는 본 발명의 다양한 실시예에 따른 전자 장치에서 캡쳐된 이미지를 도시한다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지의 밝기 값에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시한다.
도 13a 내지 도 13b는 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체의 역광 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시한다.
도 14a 내지 도 14b는 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지의 밝기 값 차이에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시한다.
도 15는 본 발명의 다양한 실시예에 따른 전자 장치에서 객체의 위치에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시한다.
도 16a 내지 도 16b는 본 발명의 다양한 실시예에 따른 제 2 카메라 영역에 대한 초점 설정 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시한다.
도 17a 내지 도 17b는 본 발명의 다양한 실시예에 따른 초점이 설정된 객체의 이동 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시한다.
도 18은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역을 설정하기 위한 흐름도를 도시한다.
도 19는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 크기를 제어하기 위한 흐름도를 도시한다.
도 20a 내지 도 20b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 크기를 제어하기 위한 화면 구성을 도시한다.
도 21은 본 발명의 다양한 실시예에 따른 전자 장치에서 초점이 설정된 객체의 크기에 기반하여 제 2 카메라 영역의 크기를 결정하기 위한 흐름도를 도시한다.
도 22는 본 발명의 다양한 실시예에 따른 전자 장치에서 줌 기능을 제어하기 위한 흐름도를 도시한다.
도 23a 내지 도 23b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 카메라의 줌 기능을 제어하기 위한 화면 구성을 도시한다.
도 24a 내지 도 24c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라의 줌 기능을 제어하기 위한 화면 구성을 도시한다.
도 25a 내지 도 25b는 본 발명의 다양한 실시예에 따른 전자 장치에서 카메라의 표시 영역을 전환하기 위한 화면 구성을 도시한다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상술한 어떤 구성요소가 상술한 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한", "~하는 능력을 가지는", "~하도록 설계된", "~하도록 변경된", "~하도록 만들어진", 또는 "~를 할 수 있는"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP(application processor))를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치(예: 전구, 각종 센서, 스프링클러 장치, 화재경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1a는 본 발명의 다양한 실시예들에 따른 전자 장치의 전면 사시도를 도시하고 있다. 도 1b는 본 발명의 다양한 실시예들에 따른 전자 장치의 후면 사시도를 도시하고 있다.
도 1a 및 도 1b를 참고하면, 전자 장치(100)는 하우징(110)을 포함할 수 있다. 한 실시예에 따르면, 하우징(110)은 금속 부재 또는 금속 부재와 비금속 부재가 함께 형성될 수 있다. 한 실시예에 따르면, 하우징(110)의 전면(예: 제1면)에 윈도우(예: 전면 윈도우 또는 글라스 플레이트)를 포함하는 디스플레이(101)가 배치될 수 있다. 한 실시예에 따르면, 전자 장치(100)는 상대방의 음성을 출력하기 위한 리시버(스피커)(102)를 포함할 수 있다. 리시버(102)는 하우징(110)에 배치될 수 있다. 한 실시예에 따르면, 전자 장치(100)는 상대방에게 사용자의 음성을 송신하기 위한 마이크로폰 장치(103)를 포함할 수 있다. 마이크로폰 장치(103)는 하우징(110)에 배치될 수 있다. 한 실시예에 따르면, 전자 장치(100)는 하우징(110)에 배치되는 적어도 하나의 키 입력 장치를 포함할 수 있다. 예를 들어, 키 입력 장치는 하우징(110)의 전면에 배치되는 홈 키 버튼(114)과 홈 키 버튼(114)의 좌우 양측에 각각 배치되는 터치 패드(115) 및 하우징(110)의 측면에 배치되는 사이드 키 버튼(116)을 포함할 수 있다.
한 실시예에 따르면, 리시버(102)가 설치되는 주변에는 전자 장치(100)의 다양한 기능을 수행하기 위한 부품(component)들이 배치될 수 있다. 예를 들어, 부품들은 적어도 하나의 센서 모듈(104)을 포함할 수 있다. 예컨대, 센서 모듈(104)은 조도 센서(예: 광센서), 근접 센서(예: 광센서), 적외선 센서, 초음파 센서 중 적어도 하나를 포함할 수 있다. 예를 들어, 부품은 전면 카메라 장치(105)를 포함할 수 있다. 예를 들어, 부품은 전자 장치의 상태 정보를 사용자에게 인지시켜주기 위한 인디케이터(106)(예: LED 장치)를 포함할 수 있다.
한 실시예에 따르면, 마이크로폰 장치(103)의 일측으로 스피커 장치(108)가 배치될 수 있다. 한 실시예에 따르면 마이크로폰 장치(103)의 타측으로 외부 장치에 의한 데이터 송수신 기능 및 외부 전원을 인가받아 전자 장치(100)를 충전시키기 위한 인터페이스 컨넥터 포트(107)가 배치될 수 있다. 한 실시예에 따르면, 인터페이스 컨넥터 포트(107)의 일측으로는 이어잭 홀(109)이 배치될 수 있다.
한 실시예에 따르면, 전자 장치(100)는 하우징의 후면(예: 제2면)에 배치되는 후면 윈도우(111)를 포함할 수 있다. 한 실시예에 따르면, 후면 윈도우(111)에는 제 1 카메라 장치(112)와 제 2 카메라 장치(113)가 배치될 수 있다. 한 실시예에 따르면, 제 1 카메라 장치(112)와 제 2 카메라 장치(113)의 일측에 적어도 하나의 전자 부품(113)이 배치될 수 있다. 예를 들어, 전자 부품(113)은 조도 센서(예: 광 센서), 근접 센서(예: 광 센서), 적외선 센서, 초음파 센서, 심박 센서, 플래시 장치 중 적어도 하나를 포함할 수 있다.
도 2a는 본 발명의 다양한 실시예에서의 네트워크 환경(200) 내의 전자 장치(201)를 도시하고 있다.
도 2a를 참조하면, 전자 장치(201)는 버스(210), 프로세서(220), 메모리(230), 입출력 인터페이스(250), 디스플레이(260), 통신 인터페이스(270) 및 카메라(280)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(210)는, 예를 들면, 구성요소들(220 내지 280)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(220)는, 중앙처리장치(CPU), 어플리케이션 프로세서(AP), 이미지 신호 프로세서(image signal processor(ISP)) 또는 커뮤니케이션 프로세서 (communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(220)는, 예를 들면, 전자 장치(201)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
한 실시예에 따르면, 프로세서(220)는 카메라(280)의 제 1 카메라를 통해 획득한 이미지를 이용하여 제 2 카메라의 구동을 제어할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라를 통해 획득한 이미지의 적어도 일부에 설정된 제 2 카메라 영역의 이미지 속성을 검출할 수 있다. 프로세서(220)는 제 2 카메라 영역의 이미지 속성에 기반하여 제 2 카메라의 활성 여부를 결정할 수 있다. 프로세서(220)는 제 2 카메라의 활성화를 결정한 경우, 카메라(280)의 제 2 카메라가 활성화되도록 제어할 수 있다. 예컨대, 제 2 카메라 영역의 이미지 속성은, 제 2 카메라 영역의 얼굴 검출 정보, 제 2 카메라 영역의 노출 정보(밝기 값) 및 제 2 카메라 영역의 초점 설정 정보 중 적어도 하나를 포함할 수 있다.
메모리(230)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(230)는, 예를 들면, 전자 장치(201)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(230)는 소프트웨어 및/또는 프로그램(240)을 저장할 수 있다. 예를 들어, 프로그램(240)은 커널(241), 미들웨어(243), 어플리케이션 프로그래밍 인터페이스(API)(245) 또는 어플리케이션 프로그램(또는 "어플리케이션")(247) 등을 포함할 수 있다. 커널(241), 미들웨어(243), 또는 API(245)의 적어도 일부는, 운영 시스템(OS)으로 지칭될 수 있다.
커널(241)은, 예를 들면, 다른 프로그램들(예: 미들웨어(243), API(245), 또는 어플리케이션 프로그램(247))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(210), 프로세서(220), 또는 메모리(230) 등)을 제어 또는 관리할 수 있다. 또한, 커널(241)은 미들웨어(243), API(245), 또는 어플리케이션 프로그램(247)에서 전자 장치(201)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(243)는, 예를 들면, API(245) 또는 어플리케이션 프로그램(247)이 커널(241)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(243)는 어플리케이션 프로그램(247)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(243)는 어플리케이션 프로그램(247) 중 적어도 하나에 전자 장치(201)의 시스템 리소스(예: 버스(210), 프로세서(220), 또는 메모리(230) 등)를 사용할 수 있는 우선순위를 부여하고, 하나 이상의 작업 요청들을 처리할 수 있다. API(245)는 어플리케이션 프로그램(247)이 커널(241) 또는 미들웨어(243)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(250)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(201)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다.
디스플레이(260)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(260)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(260)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(270)는, 예를 들면, 전자 장치(201)와 외부 장치(예: 제 1 외부 전자 장치(202), 제 2 외부 전자 장치(204), 또는 서버(206)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(270)는 무선 통신 또는 유선 통신을 통해서 네트워크(272)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(204) 또는 서버(206))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou(Beidou Navigation Satellite System) 또는 Galileo(the European global satellite-based navigation system)일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard-232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(272)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(202, 204) 각각은 전자 장치(201)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(201)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(202,204), 또는 서버(206))에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(201)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(201)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(202, 204), 또는 서버(206))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(202, 204), 또는 서버(206))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(201)로 전달할 수 있다. 전자 장치(201)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
카메라(280)는 피사체에 대한 이미지 정보를 수집할 수 있다. 예를 들어, 카메라(280)는 전자 장치(201)에 포함되는 다수 개의 카메라 모듈들을 포함할 수 있다. 예컨대, 카메라(280)는 사용자의 전방에 위치한 피사체를 촬영하기 위한 제 1 카메라 및 제 2 카메라를 포함할 수 있다. 제 1 카메라와 제 2 카메라는 이미지를 획득하기 위한 화각의 크기가 상이하며, 제 2 카메라의 화각은 제 1 카메라의 화각의 적어도 일부와 중첩될 수 있다. 추가적으로 또는 대체적으로, 카메라(280)는 셀프 모드로 사진 촬영을 수행하기 위한 카메라(예: 전면 카메라 장치)를 더 포함할 수 있다. 예컨대, 카메라(280)는 CCD(charge-coupled device) 센서 또는 CMOS(complementary metal-oxide semiconductor) 센서 등의 이미지 센서를 포함할 수 있다.
도 2b는 본 발명의 다양한 실시예에 따른 다수 개의 카메라를 포함하는 전자 장치의 블록도를 도시하고 있다.
도 2b를 참조하면, 전자 장치(201)는 프로세서(220), 디스플레이(260) 및 제 1 카메라(282) 및 제 2 카메라(284)를 포함할 수 있다.
한 실시예에 따르면, 제 1 카메라(282)와 제 2 카메라(284)는 전자 장치(201)의 일측(예: 후면)에 인접하게 배치될 수 있다. 예를 들어, 제 1 카메라(282)와 제 2 카메라(284)는 전자 장치(201)의 후면에서 세로 방향 또는 가로 방향으로 인접하게 배치될 수 있다. 예를 들어, 제 1 카메라(282)의 화각은 제 2 타메라(284)의 화각보다 크게 설정되며, 제 2 카메라(284)의 화각은 제 1 카메라(282)의 화각 내에 포함될 수 있다.
한 실시예에 따르면, 제 1 카메라(282)는 전자 장치(201)가 다중 카메라 모드로 동작하는 경우, 지속적으로 활성 상태를 유지할 수 있다. 한 실시예에 따르면, 제 2 카메라(284)는 전자 장치(201)가 다중 카메라 모드로 동작하는 경우, 선택적으로 활성화될 수 있다. 예를 들어, 제 2 카메라(284)는 다중 카메라 모드에서 제 2 카메라(284)의 사용이 제한되는 경우, 대기 모드로 동작할 수 있다. 제 2 카메라(284)는 프로세서(220)에서 제 2 카메라(284)의 활성 모드 전환을 결정한 경우, 활성 모드로 전환될 수 있다. 예컨대, 제 2 카메라(284)의 대기 모드는 제 2 카메라(284)의 활성화하기 위한 초기 설정을 유지하면서 제 2 카메라(284)의 이미지 센서를 비활성화한 동작 상태를 포함할 수 있다. 제 2 카메라(284)의 활성화하기 위한 초기 설정은 인스턴스(instance) 생성, 메모리 할당 또는 카메라 동작을 위한 설정 파라미터를 메모리(230)로부터 읽어오는 등의 동작을 포함할 수 있다. 제 2 카메라(284)의 활성 모드는 제 2 카메라(284)의 이미지 센서를 활성화하여 이미지를 획득하는 동작 상태를 포함할 수 있다.
한 실시예에 따르면, 프로세서(220)는 카메라 구동 모듈(222)과 정보 추출 모듈(224)을 통해, 제 1 카메라(282) 및 제 2 카메라(284)의 구동을 제어할 수 있다. 예를 들어, 카메라 구동 모듈(222)은 전자 장치(201)가 다중 카메라 모드로 동작하는 경우, 제 1 카메라(282)를 활성화하고, 제 2 카메라(284)를 대기 모드로 동작하도록 제어할 수 있다. 정보 추출 모듈(224)은 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라 영역의 이미지 속성을 검출할 수 있다. 카메라 구동 모듈(222)은 정보 추출 모듈(224)로부터 제공받은 제 2 카메라 영역의 이미지 속성에 기반하여 제 2 카메라(284)의 활성 여부를 결정할 수 있다. 예컨대, 제 2 카메라 영역의 이미지 속성은, 제 2 카메라 영역의 얼굴 검출 정보, 제 2 카메라 영역의 노출 정보(밝기 값), 제 2 카메라 영역에 포함되는 객체의 초점 정보 중 적어도 하나를 포함할 수 있다. 제 2 카메라 영역은 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라(284)의 화각에 대응하는 적어도 일부 영역을 포함할 수 있다.
한 실시예에 따르면, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지에 제 2 카메라 영역을 설정할 수 있다. 예를 들어, 프로세서(220)는 영역 매칭 이벤트의 발생을 감지한 경우, 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라(284)를 통해 획득한 이미지에 대응되는 영역을 검출할 수 있다. 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라(284)를 통해 획득한 이미지에 대응되는 영역을 제 2 카메라 영역으로 설정할 수 있다. 예컨대, 영역 매칭 이벤트는 사용자 입력에 의해 발생되거나, 주기적으로 발생될 수 있다.
한 실시예에 따르면, 프로세서(220)는 피사체와의 거리에 기반하여 제 2 카메라(284)의 구동을 제한할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)로부터 제공받은 이미지에서 초점이 설정된 객체까지의 거리를 추정할 수 있다. 예컨대, 프로세서(220)는 제 1 카메라(282) 또는 별도의 센서를 이용하여 초점이 설정된 객체의 거리를 추정할 수 있다. 프로세서(220)는 초점이 설정된 객체가 기준 거리 이내에 위치한 경우, 제 2 카메라(284)의 구동을 제한할 수 있다. 예컨대, 프로세서(220)는 카메라 구동 모듈(222)을 통해, 제 2 카메라(284)의 대기 모드를 유지하거나, 제 2 카메라(284)가 비활성화되도록 제어할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 초점이 설정된 객체가 기준 거리 이내에 위치한 경우, 전자 장치(201)의 다중 카메라 모드를 비활성화할 수 있다.
한 실시예에 따르면, 프로세서(220)는 다중 카메라 모드에서 캡쳐 이벤트의 종류에 기반하여 제 1 카메라(282) 및 제 2 카메라(284) 중 적어도 하나를 이용하여 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 제 1 캡쳐 이벤트의 발생을 검출한 경우, 제 1 카메라(282)를 이용하여 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 제 2 캡쳐 이벤트의 발생을 검출한 경우, 제 2 카메라(284)를 이용하여 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 제 3 캡쳐 이벤트의 발생을 검출한 경우, 제 1 카메라(282) 및 제 2 카메라(284)를 이용하여 이미지를 캡쳐할 수 있다. 이 경우, 프로세서(220)는 제 1 카메라(282)를 통해 캡쳐한 이미지와 제 2 카메라(284)를 통해 캡쳐한 이미지를 구분하여 저장하거나 하나의 이미지로 합성하여 저장할 수 있다. 예컨대, 프로세서(220)는 캡쳐를 위한 제스쳐, 압력 세기, 터치 유지시간, 터치 횟수 및 캡쳐 아이콘의 종류 중 적어도 하나에 기반하여 캡쳐 이벤트의 종류를 구분할 수 있다.
한 실시예에 따르면, 프로세서(220)는 제 2 카메라(284)의 화각을 조절할 수 있다. 예를 들어, 프로세서(220)는 입출력 인터페이스(250)를 통해 검출한 사용자 입력에 대응하도록 제 2 카메라(284)의 화각을 조절할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)를 통해 획득한 이미지에서 초점이 설정된 객체의 크기에 기반하여 제 2 카메라(284)의 화각을 조절할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라(284)를 통해 획득한 이미지에서 초점이 설정된 객체의 크기에 대응하도록 제 2 카메라(284)의 화각을 좁히도록 제어할 수 있다.
한 실시예에 따르면, 프로세서(220)는 다중 카메라 모드에서 제 1 카메라(282)와 제 2 카메라(284)의 줌 기능을 독립적으로 제어할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 제 1 카메라(282)를 통해 획득한 제 1 이미지와 제 2 카메라(284)를 통해 획득한 제 2 이미지를 표시하도록 디스플레이(260)를 제어할 수 있다. 예컨대, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 제 1 이미지의 적어도 일부 영역에 제 2 카메라(284)를 통해 획득한 제 2 이미지를 표시하도록 디스플레이(260)를 제어할 수 있다. 프로세서(220)는 제 1 이미지의 제 2 카메라 영역을 통해 줌 기능에 대응하는 사용자 입력을 검출한 경우, 사용자 입력에 대응하는 줌 기능을 수행하도록 제 2 카메라(284)를 제어할 수 있다. 프로세서(220)는 제 1 이미지의 제 2 카메라 영역 이외의 영역에서 줌 기능에 대응하는 사용자 입력을 검출한 경우, 사용자 입력에 대응하는 줌 기능을 수행하도록 제 1 카메라(282)를 제어할 수 있다.
디스플레이(260)는 제 1 카메라(282) 및 제 2 카메라(284) 중 적어도 하나로부터 제공받은 이미지를 표시할 수 있다. 예를 들어, 디스플레이(260)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 제 1 카메라(282)를 통해 획득한 제 1 이미지와 제 2 카메라(284)를 통해 획득한 제 2 이미지를 구분하여 표시할 수 있다. 예컨대, 디스플레이(260)는 PIP(picture in picture) 방식과 같이, 제 1 카메라(282)를 통해 획득한 제 1 이미지의 적어도 일부 영역에 제 2 카메라(284)를 통해 획득한 제 2 이미지를 표시할 수 있다. 예컨대, 디스플레이(260)는 제 1 카메라(282)를 통해 획득한 제 1 이미지와 제 2 카메라(284)를 통해 획득한 제 2 이미지를 서로 다른 영역에 표시할 수 있다. 예를 들어, 디스플레이(260)는 다중 카메라 모드에서 제 2 카메라(284)가 대기 모드로 동작하는 경우, 제 1 카메라(282)를 통해 획득한 제 1 이미지를 표시할 수 있다. 예를 들어, 디스플레이(260)는 제 2 카메라(284)만 활성화된 경우, 제 2 카메라(284)를 통해 획득한 제 2 이미지를 표시할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치(201)는 다수 개의 카메라를 이용하여 이미지를 캡쳐하는 경우, 하위 모델 호환 및 기본 재생을 위한 제 1 촬영과 줌 변화를 이용한 제 2 촬영을 구분할 수 있다. 예를 들어, 제 1 촬영은 제 1 카메라(282)의 이미지 센서를 통해 획득한 이미지를 이미지 처리를 위한 프로세서로 전송하기 위한 형태의 데이터(bayer data)로 변형할 수 있다. 이후, 제 1 촬영은 변형한 데이터(bayer data)를 ISP(Image Signal Processing) 처리하고, 영상 포맷(예: JPEG)으로 인코딩하는 이미지 캡쳐 시퀀스를 포함할 수 있다(도 2c). 그리고 제 2 촬영은 제 2 카메라(284)의 이미지 센서를 통해 획득한 이미지를 이미지 처리를 위한 프로세서로 전송하기 위한 형태의 데이터(bayer data)로 변형할 수 있다. 이후, 제 2 촬영은 변형한 데이터(bayer data)를 ISP 처리한다. 이 후 제 1 촬영 영상과 제 2 촬영 영상은 각 각 개별적인 영상 포멧으로 저장하는 것이 아니라 하나의 영상 포맷(예: JPEG)으로 인코딩하는 이미지 캡쳐 시퀀스를 포함할 수 있다(도 2c).
도 2c는 본 발명의 다양한 실시예에 따른 다수 개의 카메라를 이용하여 캡쳐한 데이터의 구성을 도시하고 있다.
한 실시예에 따르면, 전자 장치(201)는 다중 카메라 모드에서 다수 개의 카메라를 이용하여 이미지를 캡쳐한 경우, 도 2c와 같은 구조의 데이터를 저장할 수 있다. 예를 들어, 전자 장치(201)는 JPEG 확장을 허용하는 APPn 마커 코드(marker code)를 이용하여 다중 카메라 모드에서 다수 개의 카메라를 이용하여 획득한 이미지의 정보(예: 복수개의 이미지 및 메타 데이터등과 관련된 부가 정보)를 구성할 수 있다. 예컨대, 다중 카메라 모드의 캡쳐 이미지는 이미지의 시작을 나타내는 SOI(start of image)(290), 이미지의 추가 정보를 포함하는 마커 코드(APP1)(292, 294), 다수 개의 카메라를 이용하여 캡쳐한 다수 개의 이미지가 할당되는 마커 코드(APPn)(296), 적어도 하나의 카메라를 통해 획득한 이미지 데이터를 포함하는 이미지 데이터 필드(298), 및 이미지의 종료를 알리는 EOI(end of image)(299)를 포함할 수 있다. 추가적으로 또는 대체적으로, 다중 카메라 모드의 이미지 정보는 다양한 줌 변화를 이용한 계층적 구조로서 동일한 파일 내 별도의 공간을 통해 할당될 수 있다(296, 298).
한 실시예에 따르면, APP1 필드(294)의 메타 데이터(meta data)는 다중 카메라 모드를 통해 획득한 이미지의 줌 배율 및 오프셋 지정 등의 다양한 다중 카메라 모드의 파라미터 정보를 포함할 수 있다. 예컨대, 다중 카메라 모드의 파라미터는 정수, 부동 소수점 및 아스키 코드(ASCII) 등 다양한 형태로 표현할 수 있다. 또한, 다중 카메라 모드의 파라미터는 데이터 교환하기 위한 기술로 TIFF(tagged image file format), XMP(extensible metadata platform) 등에 확장 가능할 수 있다. 한 실시예에 따르면, 전자 장치(201)는 다중 카메라 모드에서 다수 개의 카메라를 이용하여 캡쳐한 이미지를 저장하기 위한 상대적으로 많은 메모리 용량을 필요로 한다. 이에 따라, 전자 장치(201)는 다중 카메라 모드에서 캡쳐한 이미지를 활용하는 시나리오에 적합한 데이터 압축 코덱(codec)을 필요로 한다. 예를 들어, 동일 화각 내 다중 카메라 모드의 이미지들은 줌 특성을 기반한 많은 시각적인 중복 성분들을 포함할 수 있다. 이에 따라, 프로세서(220)는 줌 특성에 기반한 시각적인 중복 특성을 제거함으로 인해 엔트로피(entropy)가 낮은 데이터로 구성을 변화시켜 데이터 량을 줄일 수 있다(296). 예컨대, 프로세서(220)는 데이터 량을 줄이기 위한 압축 기술로 DPCM(differential pulse-code modulation), ME/MC(motion estimation/motion compensation) 등을 사용할 수 있다.
한 실시예에 따르면, 전자 장치(201)는 도 2c와 같은 다중 카메라 모드의 단일 파일 구성을 통해 다양한 시나리오를 효율적으로 제어할 수 있으며 파일 관리에도 효율적이다. 또한, 전자 장치(201)는 스마트폰, TV 등의 재생 장치에서도 하위 호환성(backward compatibility)이 보장되어 제한없이 재생할 수 있으며, 터치 입력 등 다양한 사용자 인터페이스를 통해 다수 개의 카메라를 이용한 다양한 효과를 지원할 수 있다.
도 3은 다양한 실시예에 따른 전자 장치(301)의 블록도를 도시하고 있다. 전자 장치(301)는, 예를 들면, 도 2에 도시된 전자 장치(201)의 전체 또는 일부를 포함할 수 있다.
도 3을 참조하면, 전자 장치(301)는 하나 이상의 프로세서(예: AP)(310), 통신 모듈(320), 가입자 식별 모듈(324), 메모리(330), 센서 모듈(340), 입력 장치(350), 디스플레이(360), 인터페이스(370), 오디오 모듈(380), 카메라 모듈(391), 전력 관리 모듈(395), 배터리(396), 인디케이터(397), 및 모터(398)를 포함할 수 있다.
프로세서(310)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(310)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(310)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(310)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(ISP)를 더 포함할 수 있다. 프로세서(310)는 도 3에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(321))를 포함할 수도 있다. 프로세서(310) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
한 실시예에 따르면, 프로세서(310)는 전자 장치(301)의 제 1 카메라를 통해 획득한 이미지의 적어도 일부 영역(제 2 카메라 영역)의 이미지 속성에 기반하여 전자 장치(301)의 제 2 카메라의 활성 여부를 결정할 수 있다.
통신 모듈(320)은 도 2의 통신 인터페이스(270)와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(320)은, 예를 들면, 셀룰러 모듈(321), WiFi 모듈(323), 블루투스 모듈(325), GNSS 모듈(327), NFC 모듈(328) 및 RF 모듈(329)을 포함할 수 있다.
셀룰러 모듈(321)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(321)은 가입자 식별 모듈(예: SIM 카드)(324)을 이용하여 통신 네트워크 내에서 전자 장치(301)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(321)은 프로세서(310)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(321)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다.
어떤 실시예에 따르면, 셀룰러 모듈(321), WiFi 모듈(323), 블루투스 모듈(325), GNSS 모듈(327) 또는 NFC 모듈(328) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(329)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(329)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(321), WiFi 모듈(323), 블루투스 모듈(325), GNSS 모듈(327) 또는 NFC 모듈(328) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(324)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(330)(예: 도 2의 메모리(230))는, 예를 들면, 내장 메모리(332) 또는 외장 메모리(334)를 포함할 수 있다. 내장 메모리(332)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(334)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(334)는 다양한 인터페이스를 통하여 전자 장치(301)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(340)(예: 도 2의 센서(280))은, 예를 들면, 물리량을 계측하거나 전자 장치(301)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(340)은, 예를 들면, 제스처 센서(340A), 자이로 센서(340B), 기압 센서(340C), 마그네틱 센서(340D), 가속도 센서(340E), 그립 센서(340F), 근접 센서(340G), 컬러(color) 센서(340H)(예: RGB(red, green, blue) 센서), 생체 센서(340I), 온/습도 센서(340J), 조도 센서(340K), 또는 UV(ultra violet) 센서(340M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(340)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(340)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(301)는 프로세서(310)의 일부로서 또는 별도로, 센서 모듈(340)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(310)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(340)을 제어할 수 있다. 예컨대, 온/습도 센서(340J)는 서로 다른 위치에 배치되는 다수 개의 온도 센서들을 포함할 수 있다.
입력 장치(350)는, 예를 들면, 터치 패널(352), (디지털) 펜 센서(354), 키(356), 또는 초음파 입력 장치(358)를 포함할 수 있다. 터치 패널(352)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(352)은 제어 회로를 더 포함할 수도 있다. 터치 패널(352)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(354)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(356)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(358)는 마이크(예: 마이크(388))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 감지한 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(360)(예: 도 2의 디스플레이(260))는 패널(362), 홀로그램 장치(364), 프로젝터(366), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(362)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(362)은 터치 패널(352)과 하나 이상의 모듈로 구성될 수 있다. 홀로그램 장치(364)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(366)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(301)의 내부 또는 외부에 위치할 수 있다. 인터페이스(370)는, 예를 들면, HDMI(372), USB(374), 광 인터페이스(optical interface)(376), 또는 D-sub(D-subminiature)(378)를 포함할 수 있다. 인터페이스(370)는, 예를 들면, 도 2에 도시된 통신 인터페이스(270)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(370)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(380)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(380)의 적어도 일부 구성요소는, 예를 들면, 도 2에 도시된 입출력 인터페이스(250)에 포함될 수 있다. 오디오 모듈(380)은, 예를 들면, 스피커(382), 리시버(384), 이어폰(386), 또는 마이크(388) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(391)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 신호 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 전력 관리 모듈(395)은, 예를 들면, 전자 장치(301)의 전력을 관리할 수 있다.
전력 관리 모듈(395)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(396)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(396)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(397)는 전자 장치(301) 또는 그 일부(예: 프로세서(310))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(398)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(301)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(301))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는, 제 1 카메라와 상기 제 1 카메라의 화각에 포함되도록 설정된 화각을 갖는 제 2 카메라와 디스플레이와 프로세서를 포함하며, 상기 프로세서는, 상기 제 1 카메라를 통해 획득한 제 1 이미지를 상기 디스플레이에 표시하고, 상기 제 1 이미지에서 상기 제 2 카메라에 대응하는 정보를 검출하고, 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하고, 상기 제 1 카메라와 상기 제 2 카메라의 활성화에 대응하는 적어도 하나의 객체를 상기 디스플레이에 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 다중 카메라 모드가 설정된 경우, 상기 제 1 카메라를 활성화하고, 상기 제 2 카메라는 대기 모드로 동작하도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 대기 모드로 동작 중인 상기 제 2 카메라를 활성화되도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 1 카메라를 통해 획득한 제 1 이미지에서 상기 제 2 카메라의 화각에 대응하는 영역의 이미지 속성을 검출하고, 상기 이미지 속성에 기반하여 상기 제 2 카메라의 활성 여부를 결정하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 이미지 속성은, 상기 제 2 카메라의 화각에 대응하는 영역의 얼굴 검출 정보, 상기 제 2 카메라의 화각에 대응하는 영역의 노출 정보(밝기 값) 및 상기 제 2 카메라의 화각에 대응하는 영역에 포함되는 객체의 초점 정보 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 1 카메라를 통해 획득한 제 1 이미지에서 객체의 얼굴 검출을 수행하고, 상기 제 1 이미지 중 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역이 존재하는 경우, 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역의 유효성을 판단하고, 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역이 유효한 것으로 판단한 경우, 상기 제 2 카메라가 활성화되도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 1 이미지에서 상기 제 2 카메라의 화각에 대응하는 영역의 밝기 값을 확인하고, 상기 제 2 카메라의 화각에 대응하는 영역과 나머지 영역의 밝기 값의 차이가 기준 값을 초과하는 경우, 상기 제 2 카메라가 활성화되도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 1 카메라를 통해 획득한 제 1 이미지 중 상기 제 2 카메라의 화각에 대응하는 영역에서 초점이 설정된 객체가 존재하는지 확인하고, 상기 제 2 카메라의 화각에 대응하는 영역에서 초점이 설정된 객체가 존재하는 경우, 상기 제 2 카메라가 활성화되도록 제어할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는, 상기 제 2 카메라를 활성화한 경우, 상기 제 1 카메라와 상기 제 2 카메라의 활성화에 대응하도록 캡쳐 아이콘의 형태를 변형하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제 1 카메라 및 상기 제 2 카메라는 상기 전자 장치의 동일 면에 인접하도록 배치될 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치에서 다중 카메라 서비스를 제공하기 위한 흐름도를 도시하고 있다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 4를 참조하면, 전자 장치는 동작 401에서 전자 장치의 제 1 카메라를 통해 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 전자 장치(201)와 전기적으로 연결된 제 1 카메라(282)를 통해 획득한 프리뷰 이미지를 표시하도록 디스플레이(26)를 제어할 수 있다. 이 경우, 프로세서(220)는 전자 장치와 전기적으로 연결된 제 2 카메라(284)를 대기 모드로 동작하도록 제어할 수 있다.
전자 장치는 동작 403에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라에 대응하는 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 제 1 이미지에서 제 2 카메라 영역에 대응하는 적어도 일부 영역에 대한 이미지 속성을 검출할 수 있다. 예컨대, 제 2 카메라 영역의 이미지 속성은, 제 2 카메라 영역의 얼굴 검출 정보, 제 2 카메라 영역의 노출 정보(밝기 값) 및 제 2 카메라 영역에 포함되는 객체의 초점 정보 중 적어도 하나를 포함할 수 있다.
전자 장치는 동작 405에서, 제 1 카메라를 통해 획득한 이미지에서 검출한 제 2 카메라에 대응하는 정보에 기반하여 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라를 통해 획득한 이미지의 제 2 카메라 영역에서 피사체의 얼굴이 검출되는지 확인할 수 있다. 프로세서(220)는 제 2 카메라 영역에서 검출된 피사체의 얼굴 영역이 유효한 경우, 제 2 카메라를 활성화하도록 제어할 수 있다. 예컨대, 프로세서(220)는 피사체의 얼굴 영역의 크기에 기반하여 피사체의 얼굴 영역의 유효성 여부를 판단할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역과 나머지 영역의 밝기 값의 차이가 발생하는지 확인할 수 있다. 프로세서(220)는 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역과 나머지 영역의 밝기 값의 차이가 기준 값보다 크게 발생된 경우, 제 2 카메라를 활성화하도록 제어할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라를 통해 획득한 이미지의 제 2 카메라의 화각에 대응하는 영역에 초점 맞춰진 피사체가 배치된 경우, 제 2 카메라를 활성화하도록 제어할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치에서 다수 개의 카메라를 제어하기 위한 흐름도를 도시하고 있다. 이하 설명은 도 4의 동작 401에서 제 1 카메라를 통해 이미지를 획득하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 5를 참조하면, 전자 장치는 동작 501에서, 전자 장치의 제 1 카메라와 제 2 카메라를 동시에 구동하기 위한 다중 카메라 모드를 설정할 수 있다. 예를 들어, 프로세서(220)는 입출력 인터페이스(250)를 통해 검출한 사용자 입력에 기반하여 다중 카메라 모드의 활성 메뉴를 설정할 수 있다. 예를 들어, 프로세서(220)는 전자 장치(201)의 실행 중인 어플리케이션 특성에 기반하여 다중 카메라 모드를 실행할 수 있다.
전자 장치는 동작 503에서, 다중 카메라 모드가 설정된 경우, 전자 장치의 제 1 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)에 대한 초기 설정 후 제 1 카메라(282)의 이미지 센서를 활성화할 수 있다.
전자 장치는 동작 505에서, 제 1 카메라를 통해 프리뷰 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)의 이미지 센서를 통해 획득한 프리뷰 이미지를 디스플레이(260)의 적어도 일부 영역에 표시하도록 제어할 수 있다.
전자 장치는 동작 507에서, 다중 카메라 모드가 설정된 경우, 전자 장치의 제 2 카메라를 대기 모드로 동작시킬 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)에 대한 초기 설정 후 제 2 카메라(284)의 이미지 센서를 비활성 상태를 유지하도록 제 2 카메라(284)를 제어할 수 있다. 예컨대, 초기 설정은 제 2 카메라(284)에 대한 인스턴스 생성, 제 2 카메라(284)의 구동을 위한 메모리 할당 또는 카메라 동작을 위한 설정 파라미터를 메모리(230)로부터 읽어오는 등의 동작을 포함할 수 있다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체와의 거리에 기반하여 다중 카메라 서비스를 제어하기 위한 흐름도를 도시하고 있다. 도 7은 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체와의 거리에 기반하여 다중 카메라 서비스를 제어하기 위한 구성을 도시하고 있다. 이하 설명은 도 4의 동작 403에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 정보를 획득하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 6을 참조하면, 전자 장치는 동작 601에서, 제 1 카메라를 통해 이미지를 획득한 경우(예: 도 4의 동작 401), 제 1 카메라를 통해 획득한 이미지에서 초점이 설정된 피사체와 전자 장치 사이의 거리를 검출할 수 있다. 예를 들어, 프로세서(220)는 이미지를 획득하기 위한 제 1 카메라의 초점 거리 또는 이미지에 포함된 객체의 깊이 정보에 기반하여 초점이 설정된 피사체의 거리를 추정할 수 있다. 예를 들어, 프로세서(220)는 초음파 센서 등과 같은 별도의 거리 측정 센서를 이용하여 이미지에서 초점이 설정된 객체와의 거리를 측정할 수 있다.
전자 장치는 동작 603에서, 초점이 설정된 피사체와의 거리가 기준 거리를 초과하는지 확인할 수 있다. 예컨대, 기준 거리는 제 2 카메라(284)의 최소 초점 거리에 기반하여 설정될 수 있다.
전자 장치는 동작 605에서, 초점이 설정된 피사체와의 거리가 기준 거리를 초과하는 경우, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 정보를 획득할 수 있다. 예를 들어, 프로세서(220)는 도 7과 같이, 전자 장치(700)와 제 1 카메라(702)를 통해 획득한 이미지에서 초점이 설정된 피사체(720)과의 거리가 기준 거리를 초과하는 경우, 제 2 카메라(703)를 이용하여 이미지를 캡쳐할 수 있는 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라(703)의 활성 여부를 판단하기 위해 제 1 카메라(702)를 통해 획득한 프리뷰 이미지에서 제 2 카메라 영역의 이미지 속성을 검출할 수 있다.
전자 장치는 동작 607에서, 초점이 설정된 피사체와의 거리가 기준 거리 이하인 경우, 다중 카메라 모드를 비활성화할 수 있다. 예를 들어, 프로세서(220)는 도 7과 같이, 전자 장치(700)와 제 1 카메라(702)를 통해 획득한 이미지에서 초점이 설정된 피사체(710)과의 거리가 기준 거리 이하인 경우, 제 2 카메라(703)를 이용하여 이미지를 캡쳐할 수 없는 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 1 카메라(702)와 제 2 카메라(703)를 동시에 구동하기 위한 다중 카메라 모드를 비활성화할 수 있다. 즉, 프로세서(220)는 제 2 카메라(703)의 구동을 제한할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 전자 장치(700) 또는 피사체(710)의 움직임에 의해 초점이 설정된 피사체(710)와의 거리가 기준 거리를 초과하는 경우, 다중 카메라 모드를 활성화할 수 있다. 즉, 프로세서(220)는 동작 605에서, 제 1 카메라(702)를 통해 획득한 프리뷰 이미지에서 제 2 카메라 영역의 이미지 속성을 검출할 수 있다.
도 8은 본 발명의 다양한 실시예에 따른 전자 장치에서 얼굴 검출 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시하고 있다. 도 9a 내지 도 9h는 본 발명의 다양한 실시예에 따른 전자 장치에서 얼굴 검출 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시하고 있다. 이하 설명은 도 4의 동작 403 및 동작 405에서 제 2 카메라를 활성화하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 8을 참조하면, 전자 장치는 동작 801에서, 제 1 카메라를 통해 이미지를 획득한 경우(예: 도 4의 동작 401), 제 1 카메라를 통해 획득한 이미지에서 피사체의 얼굴을 검출할 수 있다. 예를 들어, 프로세서(220)는 도 9a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(900)에 대한 얼굴 검출 알고리즘을 구동하여 피사체의 얼굴 영역(902)을 검출할 수 있다.
전자 장치는 동작 803에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라의 화각에 대응하는 영역에 포함되는 피사체의 얼굴 영역이 존재하는지 확인할 수 있다. 예를 들어, 프로세서(220)는 도 9b와 같이, 제 1 카메라(282)를 통해 획득한 이미지(900)의 제 2 카메라 영역(910)에 피사체의 얼굴 영역(902-2)이 포함되는지 확인할 수 있다.
전자 장치는 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역이 존재하지 않는 경우, 제 2 카메라를 활성화하지 않는 것으로 판단할 수 있다. 예를 들어, 프로세서(220)는 도 9e와 같이, 제 1 카메라(282)를 통해 획득한 이미지(940)에서 검출한 얼굴 영역(942)이 제 2 카메라 영역(944)에 포함되지 않는 경우, 제 2 카메라(284)를 통해 캡쳐한 피사체가 존재하지 않는 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라(284)를 이용한 이미지 캡쳐를 제한할 수 있다. 즉, 프로세서(220)는 제 2 카메라를 활성화하지 않는 것으로 판단할 수 있다.
전자 장치는 동작 805에서, 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역이 존재하는 경우, 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역이 유효한지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역의 크기에 기반하여 해당 얼굴 영역의 유효성을 판단할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역의 크기가 최소 기준 크기보다 작은 경우, 해당 얼굴 영역이 유효하지 않은 것으로 판단할 수 있다. 프로세서(220)는 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역의 크기가 최대 기준 크기보다 큰 경우, 해당 얼굴 영역이 유효하지 않은 것으로 판단할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라 영역에서 피사체의 얼굴의 일부만 포함된 경우, 해당 얼굴 영역이 유효하지 않은 것으로 판단할 수 있다.
전자 장치는 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역이 유효하지 않은 경우, 제 2 카메라를 활성화하지 않는 것으로 판단할 수 있다. 예를 들어, 프로세서(220)는 도 9f와 같이, 제 1 카메라(282)를 통해 획득한 이미지(950)의 제 2 카메라 영역(954)에 포함되는 피사체의 얼굴 영역(952)의 크기가 최대 기준 크기보다 큰 경우, 해당 얼굴 영역이 유효하지 않은 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라를 활성화하지 않는 것으로 판단할 수 있다. 예를 들어, 프로세서(220)는 도 9g와 같이, 제 1 카메라(282)를 통해 획득한 이미지(960)의 제 2 카메라 영역(962)에서 피사체의 얼굴의 일부(964)만 포함된 경우, 해당 얼굴 영역이 유효하지 않은 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라를 활성화하지 않는 것으로 판단할 수 있다.
전자 장치는 동작 807에서, 제 2 카메라 영역에 포함되는 피사체의 얼굴 영역이 유효한 경우, 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 도 9b와 같이, 제 1 카메라(282)를 통해 획득한 이미지(900)의 제 2 카메라 영역(910)에 유효한 피사체의 얼굴 영역(902-2)이 포함된 경우, 제 2 카메라(284)를 활성화할 수 있다. 이에 따라, 프로세서(220)는 다중 카메라 모드에서 제 1 카메라(282)와 제 2 카메라(284)의 활성 상태를 나타내는 객체를 표시하도록 디스플레이(260)를 제어할 수 있다. 예컨대, 제 1 카메라(282)와 제 2 카메라(284)의 활성 상태를 나타내는 객체는 제 1 카메라(282)와 제 2 카메라(284) 중 적어도 하나를 이용한 캡쳐 이벤트를 구분하기 위한 변형된 캡쳐 아이콘(914)를 포함할 수 있다. 예컨대, 제 1 카메라(282)와 제 2 카메라(284)의 활성 상태를 나타내는 객체는 서로 다른 캡쳐 이벤트에 대응하는 다수 개의 캡쳐 아이콘을 포함할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 2 카메라(284)를 활성화한 경우, 도 9b와 같이, 제 1 카메라(282)를 통해 획득한 이미지(900)의 적어도 일부 영역에 제 2 카메라(284)를 통해 획득한 이미지(912)를 표시하도록 디스플레이(260)를 제어할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)를 활성화한 경우, 도 9c와 같이, 제 1 카메라(282)를 통해 획득한 이미지(920)와 제 2 카메라(284)를 통해 획득한 이미지(922)를 세로 방향으로 분할된 서로 다른 영역에 표시하도록 디스플레이(260)를 제어할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)를 활성화한 경우, 도 9d와 같이, 제 1 카메라(282)를 통해 획득한 이미지(930)와 제 2 카메라(284)를 통해 획득한 이미지(932)를 가로 방향으로 분할된 서로 다른 영역에 표시하도록 디스플레이(260)를 제어할 수 있다. 이 경우, 프로세서(220)는 디스플레이(260)에 표시된 제 1 카메라(282)를 통해 획득한 이미지(930)와 제 2 카메라(284)를 통해 획득한 이미지(932)의 화면 구성을 변경할 수 있다. 예컨대, 화면 구성은 표시 영역의 위치, 크기 및 비율 중 적어도 하나를 포함할 수 있다.
전자 장치는 동작 809에서, 캡쳐 이벤트의 발생이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 도 9b와 같이, 캡쳐 아이콘(914)에 대응하는 사용자 입력이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 캡쳐 이벤트에 대응하는 제스쳐 입력이 검출되는지 확인할 수 있다.
전자 장치는 동작 811에서, 캡쳐 이벤트가 발생하지 않은 경우, 얼굴 검출 경과 시간이 기준 시간을 초과하는지 확인할 수 있다. 예를 들어, 프로세서(220)는 동작 801에서 수행한 얼굴 검출의 유효 시간이 만료되는지 확인할 수 있다.
전자 장치는 얼굴 검출 경과 시간이 기준 시간보다 작은 경우, 동작 809에서 캡쳐 이벤트의 발생이 검출되는지 확인할 수 있다.
전자 장치는 얼굴 검출 경과 시간이 기준 시간보다 크거나 같은 경우, 얼굴 검출의 유효 시간이 만료된 것으로 판단할 수 있다. 이 경우, 전자 장치는 도 4의 동작 401에서 제 1 카메라를 통해 이미지를 획득할 수 있다.
전자 장치는 동작 813에서, 캡쳐 이벤트의 발생을 검출한 경우, 캡쳐 이벤트에 기반하여 적어도 하나의 카메라를 통해 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 캡쳐 이벤트의 종류에 기반하여 제 1 카메라(282) 및 제 2 카메라(284) 중 적어도 하나의 카메라를 이용하여 이미지를 캡쳐할 수 있다. 예컨대, 캡쳐 이벤트의 종류는 캡쳐를 위한 제스쳐, 압력 세기, 터치 유지시간, 터치 횟수 및 캡쳐 아이콘의 종류 중 적어도 하나에 기반하여 구분될 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치는 제 1 카메라를 통해 획득한 이미지의 제 2 카메라의 화각에 대응하는 영역에서 피사체의 얼굴이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라 영역에 대응하는 적어도 일부 영역에 대한 얼굴 검출 알고리즘을 적용하여 제 2 카메라 영역에 포함되는 얼굴 영역을 검출할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치는 제 2 카메라 영역에서 다수 개의 얼굴 영역을 검출한 경우, 다수 개의 얼굴 영역 각각의 유효성을 판단할 수 있다. 전자 장치는 다수 개의 얼굴 영역 중 적어도 하나의 얼굴 영역이 유효한 경우, 제 2 카메라를 통해 이미지를 캡쳐 가능한 것으로 판단할 수 있다. 이에 따라, 전자 장치는 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 도 9h와 같이, 제 1 카메라(282)를 통해 획득한 이미지(970)의 제 2 카메라 영역(972)에서 제 1 피사체의 얼굴의 일부(974)를 포함되지만, 재 2 피사체의 얼굴의 전체 영역(976)포함하는 경우, 제 2 카메라 영역(972)에 포함되는 피사체의 얼굴 영역이 유효한 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라를 활성화할 수 있다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지를 캡쳐하기 위한 흐름도를 도시하고 있다. 도 11a 내지 도 11f는 본 발명의 다양한 실시예에 따른 전자 장치에서 캡쳐된 이미지를 도시하고 있다. 이하 설명은 도 8의 동작 813에서 이미지를 캡쳐하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 10을 참조하면, 전자 장치는 동작 1001에서, 제 1 카메라와 제 2 카메라가 활성화된 상태에서 캡쳐 이벤트가 발생한 경우(예: 도 8의 동작 809), 제 1 캡쳐 이벤트의 발생이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 도 11a와 같이, 제 1 카메라(282)와 제 2 카메라(284)의 활성 상태에 대응하는 객체를 표시하도록 디스플레이(260)를 제어할 수 있다. 예컨대, 활성 상태에 대응하는 객체는 적어도 하나의 카메라(282, 284)를 이용한 캡쳐 이벤트를 구분할 수 있도록 변형된 캡쳐 아이콘(1120)을 포함할 수 있다. 캡쳐 아이콘(1120)은 캡쳐 이벤트를 위한 사용자 선택 영역(1122) 및 캡쳐 이벤트를 구분하기 위한 가이드 정보(1124, 1126)를 포함할 수 있다. 프로세서(220)는 캡쳐 아이콘(1120)의 입력 형태에 기반하여 제 1 캡쳐 이벤트가 검출되는지 확인할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 도 11a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(1100)의 적어도 일부 영역과 중첩되도록 제 2 카메라(284)를 통해 획득한 이미지(1112)를 표시하도록 디스플레이(260)를 제어할 수 있다. 이때, 제 2 카메라(284)를 통해 획득한 이미지(1112)는 제 1 카메라(282)를 통해 획득한 이미지(1100) 중 제 2 카메라 영역(1110)에 대응될 수 있다.
전자 장치는 동작 1003에서, 제 1 캡쳐 이벤트의 발생을 검출한 경우, 제 1 카메라를 통해 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 도 11c와 같이, 캡쳐 아이콘(1120)의 사용자 선택 영역(1122)에 대한 왼쪽 방향으로의 드래그 입력(1150)을 검출한 경우, 제 1 캡쳐 이벤트가 발생한 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 1 카메라(282)를 통해 이미지(1160)를 캡쳐할 수 있다.
전자 장치는 동작 1005에서, 제 1 캡쳐 이벤트가 발생하지 않은 경우, 제 2 캡쳐 이벤트의 발생이 검출되는지 확인할 수 있다.
전자 장치는 동작 1007에서, 제 2 캡쳐 이벤트의 발생을 검출한 경우, 제 2 카메라를 통해 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 도 11d와 같이, 캡쳐 아이콘(1120)의 사용자 선택 영역(1122)에 대한 오른쪽 방향으로의 드래그 입력(1170)을 검출한 경우, 제 2 캡쳐 이벤트가 발생한 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라(284)를 통해 이미지(1180)를 캡쳐할 수 있다.
전자 장치는 동작 1009에서, 제 1 캡쳐 이벤트 및 제 2 캡쳐 이벤트가 발생하지 않은 경우, 제 3 캡쳐 이벤트가 발생한 것으로 판단할 수 있다. 이에 따라, 전자 장치는 제 1 카메라 및 제 2 카메라를 통해 이미지를 캡쳐할 수 있다. 예를 들어, 프로세서(220)는 도 11b와 같이, 캡쳐 아이콘(1120)의 사용자 선택 영역(1122)에 대한 터치 입력을 검출한 경우(1130), 제 3 캡쳐 이벤트가 발생한 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)를 통해 이미지(1140)를 캡쳐할 수 있다.
한 실시예에 따르면, 전자 장치는 제 1 카메라(282) 및 제 2 카메라(284)를 통해 이미지(1140)를 캡쳐한 경우, 제 1 카메라(282)와 제 2 카메라(284)를 통해 캡쳐한 이미지를 하나의 이미지로 합성하여 저장할 수 있다.
한 실시예에 따르면, 전자 장치는 제 1 카메라(282) 및 제 2 카메라(284)를 통해 이미지(1140)를 캡쳐한 경우, 제 1 카메라(282)와 제 2 카메라(284)를 통해 캡쳐한 각각의 이미지를 구분되도록 저장할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치는 사용자 입력 또는 카메라를 통해 획득한 이미지의 분석 결과에 기반하여 캡쳐 아이콘(1122)를 이용한 캡쳐 이벤트의 종류를 변경할 수 있다. 예를 들어, 프로세서(220)는 가이드 정보(1124, 1126)에 대응하는 영역에 대한 사용자 입력 또는 피사체의 움직임에 기반하여 캡쳐 아이콘(1122)에 매칭된 캡쳐 이벤트의 종류를 변경할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라 영역(1110)에 포함되는 피사체에 대한 움직임을 검출한 경우, 피사체의 움직임의 크기를 확인할 수 있다. 프로세서(220)는 제 2 카메라 영역(1110)에 포함되는 피사체에 대한 움직임의 크기가 기준 크기보다 작은 경우, 도 11e와 같이, 제 2 카메라(284)의 캡쳐 이벤트를 동영상 촬영(1190)으로 변경할 수 있다. 이 경우, 프로세서(220)는 제 1 카메라(282)의 캡쳐 이벤트를 이미지 캡쳐(1124)로 유지할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 2 카메라 영역(1110)에 포함되는 피사체에 대한 움직임의 크기가 기준 크기를 초과하는 경우, 도 11f와 같이, 제 2 카메라(284)의 캡쳐 이벤트를 슬로우 동영상 촬영(1194)으로 변경할 수 있다. 이 경우, 프로세서(220)는 제 1 카메라(282)의 캡쳐 이벤트를 일반 동영상 촬영(1192)으로 변경할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라(284)의 가이드 정보(1126)에 대응하는 영역의 사용자 입력을 검출한 경우, 사용자 입력에 기반하여 제 2 카메라(284)의 캡쳐 이벤트를 이미지 캡쳐, 동영상 촬영, 슬로우 동영상 촬영, 패스트 동영상 촬영 순으로 변경할 수 있다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지의 밝기 값에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시하고 있다. 도 13a 내지 도 13b는 본 발명의 다양한 실시예에 따른 전자 장치에서 피사체의 역광 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시하고 있다. 도 14a 내지 도 14b는 본 발명의 다양한 실시예에 따른 전자 장치에서 이미지의 밝기 값 차이에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시하고 있다. 이하 설명은 도 4의 동작 403 및 동작 405에서 제 2 카메라를 활성화하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 12를 참조하면, 전자 장치는 동작 1201에서, 제 1 카메라를 통해 이미지를 획득한 경우(예: 도 4의 동작 401), 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역을 확인할 수 있다. 예를 들어, 프로세서(220)는 도 13a와 같이, 제 1 카메라(282)를 통해 이미지(1300)를 획득한 경우, 해당 이미지(1300)에서 제 2 카메라 영역(1310)을 확인할 수 있다. 예를 들어, 프로세서(220)는 도 14a와 같이, 제 1 카메라(282)를 통해 이미지(1400)를 획득한 경우, 해당 이미지(1400)에서 제 2 카메라 영역(1410)을 확인할 수 있다.
전자 장치는 동작 1203에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 밝기 값을 검출할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라를 통해 획득한 이미지를 다수의 영역으로 분할하여 각각의 영역의 밝기 값을 검출할 수 있다. 프로세서(220)는 다수 개의 영역 중 제 2 카메라 영역에 대응하는 적어도 하나의 영역의 밝기 값을 제 2 카메라 영역의 밝기 값으로 판단할 수 있다.
전자 장치는 동작 1205에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역과 나머지 영역의 밝기 값의 차이가 발생하는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라 영역과 나머지 영역의 밝기 값의 차이가 기준 값을 초과하는지 확인할 수 있다.
전자 장치는 동작 1207에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역과 나머지 영역의 밝기 값의 차이가 발생한 경우, 제 2 카메라를 이용한 이미지 캡쳐가 유효한 것으로 판단할 수 있다. 이에 따라, 전자 장치는 대기 모드로 동작 중인 제 2 카메라를 활성 모드로 전환할 수 있다. 예를 들어, 프로세서(220)는 도 13a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(1300)에서 제 2 카메라 영역(1310)에 포함되는 객체(1312)에 역광이 발생한 경우, 객체(1312)의 역광에 의해 제 2 카메라 영역(1310)의 밝기 값이 나머지 영역의 밝기 값보다 낮아질 수 있다. 이 경우, 프로세서(220)는 제 2 카메라(284)가 활성 모드로 전환되도록 제 2 카메라(284)를 제어할 수 있다. 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 도 13b와 같이, 다중 카메라 모드의 캡쳐를 위해 캡쳐 아이콘(1330)을 변경할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 제 2 카메라(284)를 통해 획득한 이미지(1320)를 제 1 카메라(282)를 통해 획득한 이미지(1300)와 구분되게 표시하도록 디스플레이(260)를 제어할 수 있다. 예를 들어, 프로세서(220)는 도 14a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(1400)에서 제 2 카메라 영역(1410)에 밝은 객체(1412)가 존재하는 경우, 객체(1412)의 밝기 값에 의해 제 2 카메라 영역(1410)의 밝기 값이 나머지 영역의 밝기 값보다 높아질 수 있다. 이 경우, 프로세서(220)는 제 2 카메라(284)가 활성 모드로 전환되도록 제 2 카메라(284)를 제어할 수 있다. 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 도 14b와 같이, 다중 카메라 모드의 캡쳐를 위해 캡쳐 아이콘(1430)을 변경할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 제 2 카메라(284)를 통해 획득한 이미지(1420)를 제 1 카메라(282)를 통해 획득한 이미지(1400)와 구분되는 영역에 표시하도록 디스플레이(260)를 제어할 수 있다.
한 실시예에 따르면, 전자 장치는 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라의 화각에 대응하는 영역의 밝기 값이 기준 값보다 낮은 객체가 존재하는 경우, 제 2 카메라에 의한 이미지의 상태를 확인하기 위해 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라 영역에 포함되는 피사체에 역광이 발생한 경우, 제 2 카메라(284)를 활성 모드로 전환시킬 수 있다.
도 15는 본 발명의 다양한 실시예에 따른 전자 장치에서 객체의 위치에 기반하여 다중 카메라 서비스를 제공하기 위한 흐름도를 도시하고 있다. 도 16a 내지 도 16b는 본 발명의 다양한 실시예에 따른 제 2 카메라 영역에 대한 초점 설정 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시하고 있다. 도 17a 내지 도 17b는 본 발명의 다양한 실시예에 따른 초점이 설정된 객체의 이동 정보에 기반하여 다중 카메라 서비스를 제공하기 위한 화면 구성을 도시하고 있다. 이하 설명은 도 4의 동작 403 및 동작 405에서 제 2 카메라를 활성화하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 15를 참조하면, 전자 장치는 동작 1501에서, 제 1 카메라를 통해 이미지를 획득한 경우(예: 도 4의 동작 401), 제 1 카메라를 통해 획득한 이미지에 대한 사용자 입력이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 다중 카메라 모드로 설정된 상태에서 제 2 카메라(284)가 대기 모드로 동작하는 경우, 도 16a와 같이, 제 1 카메라(282)를 통해 획득한 프리뷰 이미지(1600)를 디스플레이(260)에 표시하도록 제어할 수 있다. 이 경우, 프리뷰 이미지(1600)는 프리뷰 이미지(1600)에 포함되는 제 1 객체(1602)와 제 2 객체(1612) 중 제 1 객체(1602)에 초점이 설정될 수 있다. 프로세서(220)는 디스플레이(260)에 표시된 제 1 카메라(282)를 통해 획득한 프리뷰 이미지에 대한 터치 입력(예: 탭 입력)이 검출되는지 확인할 수 있다.
전자 장치는 동작 1503에서, 제 1 카메라를 통해 획득한 이미지에 대한 사용자 입력을 검출한 경우, 사용자 입력 지점이 제 2 카메라 영역에 포함되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 디스플레이(260)에 표시된 제 1 카메라(282)를 통해 획득한 프리뷰 이미지에 대한 터치 입력(예: 탭 입력)에 대응하는 지점이 제 2 카메라 영역 내에 포함되는지 확인할 수 있다.
전자 장치는 동작 1505에서, 사용자 입력 지점이 제 2 카메라 영역에 포함되는 경우, 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 도 16b와 같이, 사용자 입력 지점(1620)이 제 2 카메라 영역(1610)에 포함되는 경우, 제 2 카메라 영역(1610)에서 사용자 입력 지점(1620)에 대응하는 객체(1612)에 초점이 설정되는 것으로 판단할 수 있다. 즉, 프로세서(220)는 제 2 카메라 영역(1610)에서 사용자 입력 지점(1620)에 대응하는 객체(1612)가 촬영을 위한 주요 객체로 인식할 수 있다. 이에 따라, 프로세서(220)는 제 2 카메라(284)를 이용한 이미지 캡쳐가 유효한 것으로 판단하여 대기 모드로 동작 중인 제 2 카메라(284)를 활성 모드로 전환하도록 제어할 수 있다. 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 다중 카메라 모드에 대응하도록 캡쳐 아이콘(1650)을 변경할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 제 2 카메라(284)를 통해 획득한 이미지(1630)를 제 1 카메라(282)를 통해 획득한 이미지와 구분되는 영역에 표시되도록 디스플레이(260)를 제어할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라(284)를 통해 획득한 이미지(1630)를 제 1 카메라(282)를 통해 획득한 이미지의 적어도 일부 영역에 중첩되게 표시되도록 디스플레이(260)를 제어할 수 있다.
전자 장치는 동작 1507에서, 사용자 입력 지점이 제 2 카메라 영역에 포함되지 않는 경우, 사용자 입력에 대응하는 객체를 촬영을 위한 주요 객체로 설정할 수 있다. 예를 들어, 프로세서(220)는 도 17a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(1700)에 대한 사용자 입력을 검출한 경우, 사용자 입력 지점에 대응하는 객체(1720)에 제 1 카메라(282)의 초점을 설정할 수 있다.
전자 장치는 동작 1509에서, 주요 객체에 대한 움직임이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 주기적으로 획득한 프리뷰 이미지를 비교하여 주요 객체(1720)의 위치가 변경되는지 확인할 수 있다. 프로세서(220)는 주요 객체(1720)의 위치가 변경되는 경우, 주요 객체(1720)에 대한 움직임이 검출된 것으로 판단할 수 있다.
전자 장치는 동작 1511에서, 주요 객체에 대한 움직임이 검출된 경우, 주요 객체가 제 2 카메라 영역 내로 진입하는지 확인할 수 있다. 예를 들어, 프로세서(220)는 도 17b와 같이, 주요 객체(1720)가 제 2 카메라 영역(1710) 내에 위치하는지 확인할 수 있다.
전자 장치는 동작 1505에서, 주요 객체가 제 2 카메라 영역에 포함되는 경우, 제 2 카메라를 활성화할 수 있다. 예를 들어, 프로세서(220)는 도 17b와 같이, 초점이 설정된 주요 객체(1720)가 제 2 카메라 영역(1710)으로 이동한 경우(1730), 제 2 카메라(284)를 이용한 주요 객체의 이미지 캡쳐가 유효한 것으로 판단할 수 있다. 이에 따라, 프로세서(220)는 대기 모드로 동작 중인 제 2 카메라(284)를 활성 모드로 전환하도록 제어할 수 있다. 프로세서(220)는 제 2 카메라(284)가 활성화된 경우, 다중 카메라 모드에 대응하도록 캡쳐 아이콘(1750)을 변경할 수 있다. 즉, 프로세서(220)는 캡쳐 아이콘(1750)를 변형하여 제 1 카메라(282)와 제 2 카메라(284)의 활성 상태를 표시할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 1 카메라(282) 및 제 2 카메라(284)가 활성화된 경우, 제 2 카메라(284)를 통해 획득한 이미지(1740)를 제 1 카메라(282)를 통해 획득한 이미지의 적어도 일부 영역에 중첩되게 표시되도록 디스플레이(260)를 제어할 수 있다.
도 18은 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역을 설정하기 위한 흐름도를 도시하고 있다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 18을 참조하면, 전자 장치는 동작 1801에서, 전자 장치의 다중 카메라 모드가 설정되었는지 확인할 수 있다. 예를 들어, 프로세서(220)는 입출력 인터페이스(250)를 통해 다중 카메라 모드의 설정을 위한 사용자 입력이 검출되는지 확인할 수 있다.
전자 장치는 동작 1803에서, 다중 카메라 모드가 설정된 경우, 제 1 카메라를 통해 제 1 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 다중 카메라 모드가 설정된 경우, 제 1 카메라(282)의 활성을 위한 초기 설정을 수행하고, 제 1 카메라(282)에 대한 이미지 센서를 활성화할 수 있다. 프로세서(220)는 제 1 카메라(282)를 통해 획득한 프리뷰 이미지를 표시하도록 디스플레이(260)를 제어할 수 있다. 이 경우, 프로세서(220)는 제 2 카메라(284)의 활성을 위한 초기 설정을 수행하고, 제 2 카메라(284)의 이미지 센서를 비활성하는 대기 모드로 동작하도록 제어할 수 있다.
전자 장치는 동작 1805에서, 영역 매칭 이벤트의 발생이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라 영역의 위치를 설정하기 위한 주기가 도래하는지 확인할 수 있다.
전자 장치는 영역 매칭 이벤트가 발생하지 않은 경우, 동작 1803에서 제 1 카메라를 통해 제 1 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 도 4의 동작 401 내지 동작 405와 같이, 제 1 이미지의 제 2 카메라 영역의 이미지 속성에 기반하여 제 2 카메라의 활성 여부를 결정할 수 있다.
전자 장치는 동작 1807에서, 영역 매칭 이벤트의 발생을 검출한 경우, 제 1 카메라를 통해 획득한 제 1 이미지의 제 2 카메라 영역의 위치를 매칭시키기 위해 제 2 카메라를 활성화할 수 있다.
전자 장치는 동작 1809에서, 제 2 카메라를 통해 제 2 이미지를 획득할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)를 통해 제 2 카메라 영역의 화각에 대응하는 제 2 이미지를 획득할 수 있다.
전자 장치는 동작 1811에서, 제 1 이미지에서 제 2 이미지와 매칭되는 영역을 검출할 수 있다. 예를 들어, 프로세서(220)는 제 1 이미지의 제 2 카메라 영역을 기준으로 제 2 이미지를 순차적으로 이동시켜 제 2 이미지에 매칭되는 영역을 검출할 수 있다.
전자 장치는 동작 1813에서, 제 1 이미지에서 제 2 이미지와 매칭되는 영역을 제 2 카메라 영역으로 설정할 수 있다.
전자 장치는 동작 1815에서, 제 1 이미지의 제 2 카메라 영역을 설정한 경우, 제 2 카메라를 대기 모드로 전환할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)의 초기 설정을 유지한 상태에서 제 2 카메라(284)의 이미지 센서를 비활성화시킬 수 있다.
한 실시예에 따르면, 전자 장치는 제 1 카메라와 제 2 카메라가 활성화된 상태에서 영역 매칭 이벤트의 발생을 검출한 경우, 동작 1811 내지 동작 1813과 같이, 제 1 카메라의 이미지와 제 2 카메라의 이미지를 비교하여 제 2 카메라 영역의 위치를 설정할 수 있다.
도 19는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 크기를 제어하기 위한 흐름도를 도시하고 있다. 도 20a 내지 도 20b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 크기를 제어하기 위한 화면 구성을 도시하고 있다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 19를 참조하면, 전자 장치는 동작 1901에서, 다중 카메라 모드에 따라 제 1 카메라와 제 2 카메라를 통해 획득한 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(220)는 도 4의 동작 401 내지 동작 405와 같이, 제 1 카메라(282)를 통해 획득한 이미지에서 제 2 카메라 영역의 속성에 기반하여 제 2 카메라(284)를 활성화할 수 있다. 프로세서(220)는 제 1 카메라(282)와 제 2 카메라(284)가 활성화된 경우, 도 20a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2000)의 적어도 일부 영역에 중첩되도록 제 2 카메라(284)를 통해 획득한 이미지(2020)를 표시하도록 디스플레이(260)를 제어할 수 있다.
전자 장치는 동작 1903에서, 제 1 카메라를 통해 획득한 이미지에서 제 2 카메라 영역의 크기가 변경되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 도 20b와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2000)의 제 2 카메라 영역(2010)에 대한 사용자 입력(2030)에 기반하여 제 2 카메라 영역(2010)의 크기가 변경되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라 영역(2010)에 초점이 설정된 객체(피사체)가 존재하는 경우, 객체의 크기에 기반하여 제 2 카메라 영역(2010)의 크기를 변경할 것인지 결정할 수 있다.
전자 장치는 동작 1905에서, 제 2 카메라 영역의 크기가 변경된 경우, 제 2 카메라 영역의 크기에 대응하도록 제 2 카메라의 화각의 갱신 여부를 판단할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라 영역의 크기에 대응하는 카메라의 화각과 제 2 카메라(284)의 최대 화각 및 최소 화각을 비교하여 제 2 카메라(284)의 화각을 갱신할 수 있는지 판단할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라 영역의 크기에 대응하는 화각이 제 2 카메라(284)의 최대 화각보다 크거나, 최소 화각보다 작은 경우, 제 2 카메라(284)의 화각을 갱신할 수 없는 것으로 판단할 수 있다.
전자 장치는 제 2 카메라 영역의 크기에 대응하도록 제 2 카메라의 화각을 갱신할 수 없는 것으로 판단한 경우, 제 2 카메라의 화각 변경이 제한됨을 알리기 위한 경고 정보를 출력할 수 있다. 예를 들어, 프로세서(220)는 그래픽, 음향 및 진동 중 적어도 하나의 알림 속성을 이용하여 경고 정보를 출력할 수 있다.
전자 장치는 동작 1907에서, 제 2 카메라 영역의 크기에 대응하도록 제 2 카메라의 화각을 갱신할 수는 경우, 제 2 카메라 영역의 크기에 대응하도록 제 2 카메라의 화각을 갱신할 수 있다.
전자 장치는 동작 1909에서, 제 2 카메라의 갱신된 화각을 통해 획득한 이미지로 디스플레이에 표시된 제 2 카메라를 통해 획득한 이미지를 갱신할 수 있다. 예를 들어, 프로세서(220)는 도 20b와 같이, 제 2 카메라(284)의 화각 변경에 따라 확대된 이미지(2040)를 표시하도록 디스플레이(260)를 제어할 수 있다. 예컨대, 프로세서(220)는 제 2 카메라 영역(2030)의 크기 비율(가로 및 세로 비율)에 대응하도록 제 2 카메라(284)를 통해 획득한 이미지(2040)의 크기 비율을 변경할 수 있다.
도 21은 본 발명의 다양한 실시예에 따른 전자 장치에서 초점이 설정된 객체의 크기에 기반하여 제 2 카메라 영역의 크기를 결정하기 위한 흐름도를 도시하고 있다. 이하 설명은 도 19의 동작 1903에서 제 2 카메라 영역의 크기 변경 여부를 결정하기 위한 동작에 대해 설명한다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 21을 참조하면, 전자 장치는 동작 2101에서, 제 1 카메라와 제 2 카메라를 통해 획득한 이미지를 디스플레이에 표시한 경우(예: 도 19의 동작 1901), 제 2 카메라 영역에 포함되는 객체의 초점이 설정되었는지 확인할 수 있다.
전자 장치는 동작 2103에서, 제 2 카메라 영역에 포함되는 객체에 초점이 설정된 경우, 제 2 카메라 영역에서 초점이 설정된 객체의 크기를 검출할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)를 통해 제 2 카메라 영역의 객체에 초점이 설정된 경우, 해당 객체의 크기를 검출할 수 있다. 예를 들어, 프로세서(220)는 제 2 카메라(284)를 통해 제 2 카메라 영역의 객체에 초점이 설정된 경우, 해당 객체의 크기를 검출할 수 있다.
전자 장치는 동작 2105에서, 제 2 카메라 영역에서 초점이 설정된 객체의 크기에 기반하여 제 2 카메라 영역의 크기를 결정할 수 있다. 예를 들어, 프로세서(220)는 초점이 설정된 객체의 크기에 인접하도록 제 2 카메라(284)의 화각을 결정할 수 있다.
전자 장치는 동작 2107에서, 초점이 설정된 객체의 크기에 대응하도록 결정한 제 2 카메라 영역의 크기에 기반하여 제 1 카메라를 통해 획득한 이미지의 제 2 카메라의 화각에 대응하는 영역의 크기를 변경할 것인지 결정할 수 있다. 예를 들어, 프로세서(220)는 디스플레이(260)에 표시된 제 2 카메라 영역의 크기와 초점이 설정된 객체의 크기에 기반하여 결정한 제 2 카메라 영역의 크기를 비교할 수 있다. 예컨대, 프로세서(220)는 디스플레이(260)에 표시된 제 2 카메라 영역의 크기와 초점이 설정된 객체의 크기에 기반하여 결정한 제 2 카메라 영역의 크기가 동일한 경우, 디스플레이(260)에 표시된 제 2 카메라 영역의 크기를 변경하지 않는 것으로 판단할 수 있다. 프로세서(220)는 디스플레이(260)에 표시된 제 2 카메라 영역의 크기와 초점이 설정된 객체의 크기에 기반하여 결정한 제 2 카메라 영역의 크기가 상이한 경우, 디스플레이(260)에 표시된 제 2 카메라 영역의 크기를 변경하는 것으로 판단할 수 있다.
도 22는 본 발명의 다양한 실시예에 따른 전자 장치에서 줌 기능을 제어하기 위한 흐름도를 도시하고 있다. 도 23a 내지 도 23b는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 2 카메라의 줌 기능을 제어하기 위한 화면 구성을 도시하고 있다. 도 24a 내지 도 24c는 본 발명의 다양한 실시예에 따른 전자 장치에서 제 1 카메라의 줌 기능을 제어하기 위한 화면 구성을 도시하고 있다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
도 22를 참조하면, 전자 장치는 동작 2201에서, 다중 카메라 모드에 따라 제 1 카메라와 제 2 카메라를 통해 획득한 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(220)는 도 4의 동작 401 내지 동작 405와 같이, 제 1 카메라(282)와 제 2 카메라(284)를 활성화한 경우, 도 23a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2300)와 제 2 카메라(284)를 통해 획득한 이미지(2320)가 구분되도록 표시할 수 있다. 예컨대, 프로세서(220)는 제 1 카메라(282)를 통해 획득한 이미지(2300)의 적어도 일부 영역에 중첩되도록 제 2 카메라(284)를 통해 획득한 이미지(2320)를 표시하도록 디스플레이(260)를 제어할 수 있다.
전자 장치는 동작 2203에서, 줌 기능을 제어하기 위한 이벤트의 발생이 검출되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 도 23a와 같이, 제 1 카메라(282) 또는 제 2 카메라(284)의 줌 기능을 제어하기 위한 터치 입력(2330)(예: 드래그 입력)이 검출되는지 확인할 수 있다.
전자 장치는 동작 2205에서, 줌 기능을 제어하기 위한 이벤트의 발생이 검출한 경우, 줌 기능을 제어하기 위한 이벤트의 발생 영역이 제 2 카메라 영역에 포함되는지 확인할 수 있다. 예를 들어, 프로세서(220)는 카메라의 줌 기능을 제어하기 위한 터치 입력의 검출 지점(예: 드래그 입력의 시작 지점)이 제 2 카메라 영역(2310)에 포함되는지 확인할 수 있다.
전자 장치는 동작 2207에서, 줌 기능을 제어하기 위한 이벤트의 발생 영역이 제 2 카메라 영역에 포함되는 경우, 줌 기능을 제어하기 위한 이벤트에 대응하도록 제 2 카메라의 줌을 제어할 수 있다. 예를 들어, 프로세서(220)는 도 23a와 같이, 제 2 카메라 영역(2310) 내에서 줌 기능을 제어하기 위한 사용자 입력(2330)을 검출한 경우, 사용자 입력(2330)에 대응하도록 제 2 카메라(284)의 줌을 제어할 수 있다. 예컨대, 프로세서(220)는 사용자 입력(2330)에 대응하도록 제 2 카메라(284)의 줌을 확대하는 경우, 도 23b와 같이, 제 2 카메라(284)의 확대된 줌을 통해 획득한 이미지(2340)를 표시하도록 디스플레이(260)를 제어할 수 있다. 추가적으로 또는 대체적으로, 프로세서(220)는 제 2 카메라(284)의 확대된 줌에 따른 화각 변경에 대응하도록 제 2 카메라 영역의 크기를 갱신할 수 있다(2350).
전자 장치는 동작 2209에서, 줌 기능을 제어하기 위한 이벤트의 발생 영역이 제 2 카메라 영역에 포함되지 않는 경우, 줌 기능을 제어하기 위한 이벤트에 대응하도록 제 1 카메라의 줌을 제어할 수 있다. 예를 들어, 프로세서(220)는 도 24a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2400) 중 제 2 카메라 영역(2410)이 아닌 나머지 영역에서 줌 기능을 제어하기 위한 사용자 입력(2430)을 검출한 경우, 사용자 입력(2430)에 대응하도록 제 1 카메라(284)의 줌을 제어할 수 있다. 예컨대, 프로세서(220)는 사용자 입력(2430)에 대응하도록 제 1 카메라(282)의 줌을 확대하는 경우, 도 24b와 같이, 제 1 카메라(282)의 확대된 줌을 통해 획득한 이미지를 표시하도록 디스플레이(260)를 제어할 수 있다. 이 경우, 프로세서(220)는 제 1 카메라(282)의 확대된 줌에 따른 제 2 카메라(284)의 화각에 대응하는 영역이 확대되므로 제 2 카메라 영역의 크기를 갱신할 수 있다(2440). 추가적으로 또는 대체적으로, 프로세서(220)는 도 24b와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2400) 중 제 2 카메라 영역(2440)이 아닌 나머지 영역에서 줌 기능을 제어하기 위한 사용자 입력(2450)을 검출한 경우, 도 24c와 같이, 사용자 입력(2450)에 대응하도록 제 1 카메라(282)의 줌을 확대할 수 있다. 이 경우, 프로세서(220)는 제 1 카메라(282)의 확대된 줌에 따른 제 1 카메라(282)의 화각과 제 2 카메라(284)의 화각이 동일하게 설정될 수 있다(2460).
도 25a 내지 도 25b는 본 발명의 다양한 실시예에 따른 전자 장치에서 카메라의 표시 영역을 전환하기 위한 화면 구성을 도시하고 있다. 이하 설명에서 전자 장치는 도 2a 및 도 2b에 도시된 전자 장치(201)의 전체 또는 일부(예: 프로세서(220)를 포함할 수 있다.
한 실시예에 따르면, 전자 장치는 다중 카메라 모드에 따라 제 1 카메라와 제 2 카메라를 통해 획득한 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(220)는 제 1 카메라(282)와 제 2 카메라(284)를 활성화한 경우, 도 25a와 같이, 제 1 카메라(282)를 통해 획득한 이미지(2500)의 적어도 일부 영역에 중첩되도록 제 2 카메라(284)를 통해 획득한 이미지(2520)를 표시하도록 디스플레이(260)를 제어할 수 있다.
한 실시예에 따르면, 전자 장치는 제 2 카메라를 통해 획득한 이미지에 대한 사용자 입력이 검출된 경우, 제 1 카메라와 제 2 카메라를 통해 획득한 이미지의 표시 영역을 전환할 수 있다. 예를 들어, 프로세서(220)는 도 25a와 같이, 제 2 카메라(284)를 통해 획득한 이미지(2520)에 대한 터치 입력(2530)을 검출한 경우, 제 1 카메라(282)를 통해 획득한 이미지(2500)와 제 2 카메라(284)를 통해 획득한 이미지(2520)의 표시 영역을 전환할 수 있다. 예컨대, 프로세서(220)는 도 25b와 같이, 제 2 카메라(284)를 통해 획득한 이미지(2540)의 적어도 일부 영역에 중첩되도록 제 1 카메라(282)를 통해 획득한 이미지(2550)를 표시하도록 디스플레이(260)를 제어할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치의 동작 방법은, 상기 전자 장치의 제 1 카메라를 통해 획득한 제 1 이미지를 상기 전자 장치의 디스플레이에 표시하는 동작과 상기 제 1 이미지에서 상기 제 1 카메라의 화각에 포함되도록 설정된 화각을 갖는 제 2 카메라에 대응하는 정보를 검출하는 동작과 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하는 동작과 상기 제 1 카메라와 상기 제 2 카메라의 활성화에 대응하는 적어도 하나의 이미지를 상기 디스플레이에 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 다중 카메라 모드가 설정된 경우, 상기 제 1 카메라를 활성화하고, 상기 제 2 카메라는 대기 모드로 설정하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라를 활성화하는 동작은, 상기 제 2 카메라에 대응하는 정보에 기반하여 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 대기 모드로 동작 중인 상기 제 2 카메라를 활성화하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라를 활성화하는 동작은, 상기 제 1 카메라를 통해 획득한 제 1 이미지에서 상기 제 2 카메라의 화각에 대응하는 영역의 이미지 속성을 검출하는 동작과 상기 이미지 속성에 기반하여 상기 제 2 카메라의 활성 여부를 결정하는 동작과 상기 제 2 카메라를 활성화하는 것으로 결정한 경우, 상기 제 2 카메라를 활성화하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 이미지 속성은, 상기 제 2 카메라의 화각에 대응하는 영역의 얼굴 검출 정보, 상기 제 2 카메라의 화각에 대응하는 영역의 노출 정보(밝기 값) 및 상기 제 2 카메라의 화각에 대응하는 영역에 포함되는 객체의 초점 정보 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라를 활성화하는 동작은, 상기 제 1 카메라를 통해 획득한 제 1 이미지에서 객체의 얼굴 검출을 수행하는 동작과 상기 제 1 이미지 중 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역이 존재하는 경우, 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역의 유효성을 판단하는 동작과 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역이 유효한 것으로 판단한 경우, 상기 제 2 카메라를 활성화하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 얼굴 영역의 유효성을 판단하는 동작은, 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역의 크기에 기반하여 상기 제 2 카메라의 화각에 대응하는 영역에서 검출된 객체의 얼굴 영역의 유효성을 판단하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라를 활성화하는 동작은, 상기 제 1 이미지에서 상기 제 2 카메라의 화각에 대응하는 영역의 밝기 값을 확인하는 동작과 상기 제 1 이미지에서 상기 제 2 카메라의 화각에 대응하는 영역과 나머지 영역의 밝기 값의 차이가 기준 값을 초과하는 경우, 상기 제 2 카메라를 활성화하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라를 활성화하는 동작은, 상기 제 1 카메라를 통해 획득한 제 1 이미지 중 상기 제 2 카메라의 화각에 대응하는 영역에서 초점이 설정된 객체가 존재하는지 확인하는 동작과 상기 제 2 카메라의 화각에 대응하는 영역에서 초점이 설정된 객체가 존재하는 경우, 상기 제 2 카메라를 활성화하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 적어도 하나의 객체를 표시하는 동작은, 상기 제 2 카메라를 활성화한 경우, 상기 제 1 카메라와 상기 제 2 카메라의 활성화에 대응하도록 캡쳐 아이콘의 형태를 변형하는 동작을 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다.
다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 다양한 실시예의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 다양한 실시예의 범위는, 본 발명의 다양한 실시예의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치에 있어서,
    제1 화각을 지원할 수 있는 제1 카메라;
    상기 제1 화각보다 좁은 제2 화각을 지원할 수 있는 제2 카메라;
    외부 객체에 대한 거리를 결정하기 위한 정보를 검출하는 센서;
    디스플레이; 및
    프로세서를 포함하며,
    상기 프로세서는,
    상기 제1 카메라를 통해 상기 제1 화각을 사용하여 획득한 제1 이미지에 기초하여 상기 외부 객체에 상응하는 이미지 객체를 포함하는 제1 프리뷰 이미지를 상기 디스플레이에 표시하고,
    상기 센서에 의해 검출되는 상기 정보에 기초하여 상기 외부 객체에 대한 거리를 결정하고,
    상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰 이미지를 대신하여, 상기 제2 카메라를 통해 상기 제2 화각을 사용하여 획득한 제2 이미지에 기초하여 제2 프리뷰 이미지를 상기 디스플레이에 표시하고,
    상기 거리가 상기 제1 카메라와 연관된 상기 범위 이내인 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰 이미지의 표시를 유지하도록 설정된 전자 장치.
  2. 제1 항에 있어서,
    상기 프로세서는, 상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여 상기 제2 카메라를 활성화하도록 설정된 전자 장치.
  3. 제1 항에 있어서,
    상기 프로세서는, 상기 제2 카메라를 활성화하는 것으로 결정한 것에 응답하여, 대기 모드로 동작 중인 상기 제2 카메라를 활성화하는 전자 장치.
  4. 제1 항에 있어서,
    상기 프로세서는, 상기 제1 카메라를 통해 획득한 상기 제1 이미지로부터 상기 제2 카메라의 상기 제2 화각에 대응하는 영역 내에서 상기 이미지 객체의 이미지 속성을 검출하고,
    상기 이미지 속성에 기반하여 상기 제2 카메라의 활성 여부를 결정하도록 설정된 전자 장치.
  5. 제4 항에 있어서,
    상기 이미지 속성은, 센서를 통해서 획득된 상기 이미지 객체에 대한 거리를 포함하는 전자 장치.
  6. 제1 항에 있어서,
    상기 센서는 상기 제1 카메라 및 상기 제2 카메라와 별도로 구성된 거리 측정 센서를 포함하는 전자 장치.
  7. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치의 디스플레이에 상기 전자 장치의 제1 카메라를 통해 제1 화각을 사용하여 획득한 제1 이미지에 기초하여 외부 객체에 상응하는 이미지 객체를 포함하는 제1 프리뷰 이미지를 표시하는 동작;
    상기 전자 장치의 센서에 의해 검출된 정보에 기초하여 상기 외부 객체에 대한 거리를 결정하는 동작;
    상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰를 대신하여, 상기 전자 장치의 제2 카메라를 통해 상기 제1 화각보다 좁은 제2 화각을 사용하여 획득한 제2 이미지에 기초하여 제2 프리뷰 이미지를 상기 디스플레이에 표시하는 동작; 및
    상기 거리가 상기 제1 카메라와 연관된 상기 범위 이내인 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰 이미지의 표시를 유지하는 동작을 포함하는, 방법.
  8. 제7 항에 있어서,
    상기 제2 프리뷰 이미지를 표시하는 동작은, 상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여, 상기 제2 카메라를 활성화하는 동작을 포함하는, 방법.
  9. 제7 항에 있어서,
    상기 제2 프리뷰 이미지를 표시하는 동작은, 상기 제2 카메라를 활성화하는 것으로 결정하는 것에 응답하여, 대기 모드로 동작중인 상기 제2 카메라를 활성화하는 동작을 포함하는, 방법.
  10. 제7 항에 있어서,
    상기 제2 프리뷰 이미지를 표시하는 동작은:
    상기 제1 카메라를 통해 획득한 상기 제1 이미지로부터 상기 제2 카메라의 상기 제2 화각에 대응하는 영역 내에서 상기 이미지 객체의 이미지 속성을 검출하는 동작; 및
    상기 이미지 속성에 기초하여 상기 제2 카메라의 활성화 여부를 결정하는 동작을 포함하는, 방법.
  11. 제10 항에 있어서,
    상기 이미지 속성은 상기 센서를 통해서 획득된 상기 이미지 객체에 대한 거리를 포함하는, 방법.
  12. 제7 항에 있어서,
    상기 센서는 상기 제1 카메라 및 상기 제2 카메라와 별도로 구성된 거리 측정 센서를 포함하는, 방법.
  13. 전자 장치에 있어서,
    제1 화각을 지원할 수 있는 제1 카메라;
    상기 제1 화각보다 좁은 제2 화각을 지원할 수 있는 제2 카메라;
    디스플레이; 및
    프로세서를 포함하며,
    상기 프로세서는,
    상기 제1 카메라를 통해 상기 제1 화각을 사용하여 획득한 제1 이미지에 기초하여 외부 객체에 상응하는 이미지 객체를 포함하는 제1 프리뷰 이미지를 상기 디스플레이에 표시하고,
    상기 이미지 객체에 대해 적용되는 초점 정보에 적어도 일부 기초하여 상기 제1 카메라와 상기 외부 객체 사이의 거리를 결정하며,
    상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰를 대신하여, 상기 제2 카메라를 통해 상기 제2 화각을 사용하여 획득한 제2 이미지에 기초하여 제2 프리뷰 이미지를 상기 디스플레이에 표시하고,
    상기 거리가 상기 제1 카메라와 연관된 상기 범위 이내인 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰 이미지의 표시를 유지하도록 설정된 전자 장치.
  14. 제13 항에 있어서,
    상기 프로세서는, 상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여 상기 제2 카메라를 활성화하도록 설정된 전자 장치.
  15. 제13 항에 있어서,
    상기 프로세서는, 상기 제2 카메라를 활성화하는 것으로 결정한 것에 응답하여, 대기 모드로 동작 중인 상기 제2 카메라를 활성화하는 전자 장치.
  16. 제13 항에 있어서,
    상기 프로세서는, 상기 제1 카메라를 통해 획득한 상기 제1 이미지로부터 상기 제2 카메라의 상기 제2 화각에 대응하는 영역 내에서 상기 이미지 객체의 이미지 속성을 검출하고,
    상기 이미지 속성에 기반하여 상기 제2 카메라의 활성 여부를 결정하도록 설정된 전자 장치.
  17. 제16 항에 있어서,
    상기 이미지 속성은, 상기 제2 카메라의 상기 제2 화각에 상응하는 영역에 포함된 상기 외부 객체에 대한 초점 거리를 포함하는 상기 초점 정보를 포함하는, 전자 장치.
  18. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치의 디스플레이에 상기 전자 장치의 제1 카메라를 통해 제1 화각을 사용하여 획득한 제1 이미지에 기초하여 외부 객체에 상응하는 이미지 객체를 포함하는 제1 프리뷰 이미지를 표시하는 동작;
    상기 이미지 객체에 대해 적용되는 초점 정보에 적어도 일부 기초하여 상기 제1 카메라와 상기 외부 객체 사이의 거리를 결정하는 동작;
    상기 거리가 상기 제1 카메라와 연관된 범위를 벗어나는 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰를 대신하여, 상기 전자 장치의 제2 카메라를 통해 상기 제1 화각보다 좁은 제2 화각을 사용하여 획득한 제2 이미지에 기초하여 제2 프리뷰 이미지를 상기 디스플레이에 표시하는 동작; 및
    상기 거리가 상기 제1 카메라와 연관된 상기 범위 이내인 것으로 결정한 것에 적어도 일부 기초하여, 상기 제1 프리뷰 이미지의 표시를 유지하는 동작을 포함하는, 방법.
  19. 제18 항에 있어서,
    상기 제2 프리뷰 이미지를 표시하는 동작은:
    상기 제1 카메라를 통해 획득한 상기 제1 이미지로부터 상기 제2 카메라의 상기 제2 화각에 대응하는 영역 내에서 상기 이미지 객체의 이미지 속성을 검출하는 동작; 및
    상기 이미지 속성에 기초하여 상기 제2 카메라의 활성화 여부를 결정하는 동작을 포함하는, 방법.
  20. 제19 항에 있어서,
    상기 이미지 속성은, 상기 제2 카메라의 상기 제2 화각에 상응하는 영역에 포함된 상기 외부 객체에 대한 초점 거리를 포함하는 상기 초점 정보를 포함하는, 방법.
KR1020160111577A 2016-08-31 2016-08-31 카메라를 제어하기 위한 방법 및 그 전자 장치 KR102593824B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020160111577A KR102593824B1 (ko) 2016-08-31 2016-08-31 카메라를 제어하기 위한 방법 및 그 전자 장치
PCT/KR2017/006445 WO2018043884A1 (ko) 2016-08-31 2017-06-20 카메라를 제어하기 위한 방법 및 그 전자 장치
CN202210090282.3A CN114422701B (zh) 2016-08-31 2017-06-20 用于控制相机的方法及其电子设备
US16/328,155 US10944908B2 (en) 2016-08-31 2017-06-20 Method for controlling camera and electronic device therefor
EP17846809.6A EP3506617A4 (en) 2016-08-31 2017-06-20 METHOD FOR CONTROLLING A CAMERA AND ELECTRONIC DEVICE THEREFOR
CN201780053535.7A CN109644229B (zh) 2016-08-31 2017-06-20 用于控制相机的方法及其电子设备
US17/193,474 US11350033B2 (en) 2016-08-31 2021-03-05 Method for controlling camera and electronic device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160111577A KR102593824B1 (ko) 2016-08-31 2016-08-31 카메라를 제어하기 위한 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20180024761A KR20180024761A (ko) 2018-03-08
KR102593824B1 true KR102593824B1 (ko) 2023-10-25

Family

ID=61301336

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160111577A KR102593824B1 (ko) 2016-08-31 2016-08-31 카메라를 제어하기 위한 방법 및 그 전자 장치

Country Status (5)

Country Link
US (2) US10944908B2 (ko)
EP (1) EP3506617A4 (ko)
KR (1) KR102593824B1 (ko)
CN (2) CN114422701B (ko)
WO (1) WO2018043884A1 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016252993B2 (en) 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
CN106851111A (zh) * 2017-03-20 2017-06-13 惠州Tcl移动通信有限公司 基于移动终端的双摄像头供电控制方法、系统及移动终端
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN107257439B (zh) * 2017-07-26 2019-05-17 维沃移动通信有限公司 一种拍摄方法及移动终端
US10681273B2 (en) 2017-08-24 2020-06-09 Samsung Electronics Co., Ltd. Mobile device including multiple cameras
KR102488410B1 (ko) * 2017-11-07 2023-01-16 삼성전자주식회사 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
JP7150456B2 (ja) 2018-04-04 2022-10-11 キヤノン株式会社 撮像システム、情報処理装置、情報処理装置の制御方法、及び、プログラム
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
KR20200101207A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN111901479B (zh) * 2019-05-06 2021-05-25 苹果公司 一种用于显示相机用户界面的方法、电子设备和非暂态计算机可读存储介质
US11196943B2 (en) * 2019-05-31 2021-12-07 Apple Inc. Video analysis and management techniques for media capture and retention
JP2020205560A (ja) * 2019-06-18 2020-12-24 キヤノン株式会社 撮像装置およびその制御方法
CN112333380B (zh) * 2019-06-24 2021-10-15 华为技术有限公司 一种拍摄方法及设备
WO2021217584A1 (zh) * 2020-04-30 2021-11-04 深圳市大疆创新科技有限公司 相机调用方法以及设备
KR20210141070A (ko) 2020-05-15 2021-11-23 삼성전자주식회사 복수의 카메라를 이용한 이미지 촬영 방법 및 그 전자 장치
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11928799B2 (en) * 2020-06-29 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
USD958810S1 (en) * 2020-09-23 2022-07-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112333382B (zh) * 2020-10-14 2022-06-10 维沃移动通信(杭州)有限公司 拍摄方法、装置及电子设备
KR20220127568A (ko) * 2021-03-11 2022-09-20 삼성전자주식회사 홈 트레이닝 서비스 제공 방법 및 그를 수행하는 디스플레이 장치
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
CN115514874B (zh) * 2021-06-07 2024-04-05 荣耀终端有限公司 一种视频拍摄方法及电子设备
CN117425057A (zh) * 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质
WO2024019289A1 (ko) * 2022-07-18 2024-01-25 삼성전자주식회사 멀티 마스터 기반의 영상 센싱 모듈 제어 방법 및 그 장치
CN115334246A (zh) * 2022-09-06 2022-11-11 抖音视界有限公司 用于影像拍摄的方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101241625B1 (ko) * 2012-02-28 2013-03-11 인텔 코오퍼레이션 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
KR101633342B1 (ko) * 2015-07-21 2016-06-27 엘지전자 주식회사 이동단말기 및 그 제어방법

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3736185B2 (ja) 1999-03-16 2006-01-18 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
KR100889107B1 (ko) * 2007-04-06 2009-03-17 (주)케이티에프테크놀로지스 복수의 카메라를 구비한 휴대용 단말기 및 이의 카메라활성화 상태 제어 방법
KR101096157B1 (ko) * 2009-10-22 2011-12-19 (주)태종씨앤아이 듀얼 카메라를 이용한 실시간 감시장치
US20110316971A1 (en) 2010-06-28 2011-12-29 Jianping Zhou Single pipeline stereo image capture
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
KR20120048396A (ko) 2010-11-05 2012-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012227625A (ja) 2011-04-15 2012-11-15 Sharp Corp 立体画像撮影装置、携帯型電子機器、立体画像撮影制御方法、立体画像撮影制御プログラムおよびコンピュータ読取可能記録媒体
GB2497119B (en) * 2011-12-01 2013-12-25 Sony Corp Image processing system and method
TW201403545A (zh) * 2012-07-13 2014-01-16 Vivotek Inc 合成虛擬視角影像的處理系統及其處理方法
KR101343591B1 (ko) * 2012-09-03 2013-12-19 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
KR102023179B1 (ko) 2013-02-21 2019-09-20 삼성전자주식회사 듀얼 카메라를 포함하는 전자장치에서 듀얼 리코딩 촬영을 위한 방법 및 장치
KR102022444B1 (ko) * 2013-02-21 2019-09-18 삼성전자주식회사 복수의 카메라를 구비한 휴대 단말에서 유효한 영상들을 합성하기 위한 방법 및 이를 위한 휴대 단말
US20140240469A1 (en) * 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
KR20140114501A (ko) 2013-03-14 2014-09-29 삼성전자주식회사 영상 데이터 처리 방법 및 이를 지원하는 전자 장치
KR102020636B1 (ko) 2013-06-07 2019-09-10 삼성전자주식회사 카메라에 기반한 전자 장치의 제어 방법, 저장 매체 및 전자 장치
KR20150087744A (ko) 2014-01-22 2015-07-30 한양대학교 산학협력단 전자 장치의 동작 상태를 변경하는 방법 및 장치
US9438868B2 (en) * 2014-02-13 2016-09-06 Semiconductor Components Industries, Llc Adaptive image sensor systems and methods
US11927874B2 (en) * 2014-07-01 2024-03-12 Apple Inc. Mobile camera system
US9998665B2 (en) * 2014-07-21 2018-06-12 Lenovo (Singapore) Pte. Ltd. Camera mode selection based on context
CN107076961B (zh) * 2014-07-30 2019-08-02 宇龙计算机通信科技(深圳)有限公司 对焦方法和对焦装置
WO2016016984A1 (ja) 2014-07-31 2016-02-04 日立マクセル株式会社 撮像装置およびその被写体追尾方法
KR20160019145A (ko) 2014-08-11 2016-02-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN104184944B (zh) 2014-08-15 2016-03-16 小米科技有限责任公司 获取多媒体数据流的方法及装置
JP6372788B2 (ja) 2014-08-26 2018-08-15 カシオ計算機株式会社 撮像装置、撮像システム、撮像方法及びプログラム
CN107509037B (zh) 2014-11-28 2019-10-18 Oppo广东移动通信有限公司 使用不同视场角摄像头拍照的方法和终端
CN104333701B (zh) * 2014-11-28 2017-04-26 广东欧珀移动通信有限公司 一种相机预览画面的显示方法、装置及终端
CN105812835B (zh) * 2014-12-31 2019-01-15 联想(北京)有限公司 一种信息处理方法和电子设备
CN104618675B (zh) * 2015-03-09 2018-01-26 广东欧珀移动通信有限公司 录像方法及装置
AU2016252993B2 (en) * 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US10474892B2 (en) * 2015-05-26 2019-11-12 Lg Electronics Inc. Mobile terminal and control method therefor
JP6293706B2 (ja) * 2015-06-26 2018-03-14 京セラ株式会社 電子機器及び電子機器の動作方法
US9749543B2 (en) 2015-07-21 2017-08-29 Lg Electronics Inc. Mobile terminal having two cameras and method for storing images taken by two cameras
KR20170123125A (ko) * 2016-04-28 2017-11-07 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102524498B1 (ko) 2016-07-06 2023-04-24 삼성전자주식회사 듀얼 카메라를 포함하는 전자 장치 및 듀얼 카메라의 제어 방법
CN106303258A (zh) 2016-09-19 2017-01-04 深圳市金立通信设备有限公司 一种基于双摄像头的拍摄方法和终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101241625B1 (ko) * 2012-02-28 2013-03-11 인텔 코오퍼레이션 얼굴 인식 환경 통지 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
KR101633342B1 (ko) * 2015-07-21 2016-06-27 엘지전자 주식회사 이동단말기 및 그 제어방법

Also Published As

Publication number Publication date
US10944908B2 (en) 2021-03-09
CN114422701A (zh) 2022-04-29
EP3506617A1 (en) 2019-07-03
US20210195109A1 (en) 2021-06-24
CN114422701B (zh) 2023-04-07
CN109644229A (zh) 2019-04-16
KR20180024761A (ko) 2018-03-08
US20190199926A1 (en) 2019-06-27
CN109644229B (zh) 2022-02-18
WO2018043884A1 (ko) 2018-03-08
US11350033B2 (en) 2022-05-31
EP3506617A4 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
KR102593824B1 (ko) 카메라를 제어하기 위한 방법 및 그 전자 장치
KR102444085B1 (ko) 휴대용 통신 장치 및 휴대용 통신 장치의 영상 표시 방법
US10871798B2 (en) Electronic device and image capture method thereof
KR102386398B1 (ko) 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
CN110462572B (zh) 电子装置及其控制方法
CN107257954B (zh) 用于提供屏幕镜像服务的设备和方法
KR102289837B1 (ko) 촬영 방법 및 전자 장치
KR102620138B1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
KR102341301B1 (ko) 전자 장치 및 전자 장치의 화면 공유 방법
US11006030B2 (en) Method and electronic device for acquiring image by using camera comprising driving apparatus capable of rotating mirror
US9894275B2 (en) Photographing method of an electronic device and the electronic device thereof
US10943404B2 (en) Content output method and electronic device for supporting same
KR20160061133A (ko) 이미지 표시 방법 및 그 전자 장치
KR102559407B1 (ko) 영상을 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR20180094290A (ko) 전자 장치 및 전자 장치의 수중 촬영 판단 방법
KR102467869B1 (ko) 전자 장치 및 그의 동작 방법
KR102477522B1 (ko) 전자 장치 및 그의 카메라 노출 조정 방법
KR102379898B1 (ko) 포커스에 대한 그래픽 인디케이터를 제공하는 전자 장치와 이의 동작 방법
KR102317624B1 (ko) 전자 장치 및 그의 이미지 처리 방법
US11210828B2 (en) Method and electronic device for outputting guide
KR20180060786A (ko) 전자 장치 및 전자 장치의 자동 초점 방법
KR102391490B1 (ko) 이미지 내의 오브젝트를 트래킹하기 위한 방법 및 그 전자 장치
KR102519803B1 (ko) 촬영 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right