KR20180081362A - 촬영 방법 및 전자 장치 - Google Patents

촬영 방법 및 전자 장치 Download PDF

Info

Publication number
KR20180081362A
KR20180081362A KR1020170002506A KR20170002506A KR20180081362A KR 20180081362 A KR20180081362 A KR 20180081362A KR 1020170002506 A KR1020170002506 A KR 1020170002506A KR 20170002506 A KR20170002506 A KR 20170002506A KR 20180081362 A KR20180081362 A KR 20180081362A
Authority
KR
South Korea
Prior art keywords
electronic device
image
motion
display
camera
Prior art date
Application number
KR1020170002506A
Other languages
English (en)
Other versions
KR102289837B1 (ko
Inventor
이정원
문재준
김한성
박재형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170002506A priority Critical patent/KR102289837B1/ko
Priority to US15/833,580 priority patent/US10574895B2/en
Priority to PCT/KR2018/000191 priority patent/WO2018128421A1/en
Priority to EP18150409.3A priority patent/EP3346696B1/en
Priority to CN201810010063.3A priority patent/CN108279832B/zh
Publication of KR20180081362A publication Critical patent/KR20180081362A/ko
Application granted granted Critical
Publication of KR102289837B1 publication Critical patent/KR102289837B1/ko

Links

Images

Classifications

    • H04N5/23293
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/2257
    • H04N5/23219
    • H04N5/23296
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 카메라가 구비된 전자 장치를 이용하여 영상을 촬영하는 방법 및 전자 장치에 관한 것이다. 본 발명의 다양한 실시 예에 따른 전자 장치는, 디스플레이, 카메라, 적어도 하나의 센서 및 상기 디스플레이, 상기 카메라 및 상기 적어도 하나의 센서와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 이미지 획득을 위한 신호를 수신하고, 상기 수신된 신호에 응답하여, 상기 카메라를 통해 프리뷰 이미지를 획득하고, 상기 카메라를 통해 획득된 프리뷰 이미지가 상기 디스플레이를 통해 표시되는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하고, 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어할 수 있다.

Description

촬영 방법 및 전자 장치{METHOD AND ELECTRONIC DEVICE FOR TAKING A PHOTOGRAPH}
본 발명은 카메라가 구비된 전자 장치를 이용하여 영상을 촬영하는 방법 및 전자 장치에 관한 것이다.
스마트폰 등 휴대용 전자 장치를 통해 제공되는 다양한 서비스 및 부가 기능들이 점차 확대되고 있다. 이러한 전자 장치의 효용 가치를 높이고, 다양한 사용자들의 욕구를 만족시키기 위해서 통신 서비스 제공자 또는 전자 장치 제조사들은 다양한 기능들을 제공하고 다른 업체와의 차별화를 위해 전자 장치를 경쟁적으로 개발하고 있다.
전자 장치의 성능이 고도화됨에 따라 휴대용 전자 장치에도 고성능 카메라가 구비되고 있다. 전자 장치의 사용자는 전자 장치에 구비된 고성능 카메라를 이용하여 고화질의 이미지를 촬영할 수 있다. 또한, 사용자는 전자 장치의 다양한 촬영 기능을 통해, 기존 컴팩트 카메라로는 경험할 수 없었던 사용자 경험을 할 수 있다. 예를 들어, 전면 카메라 및 디스플레이를 포함하는 전자 장치는 사용자의 모습을 빠르고 쉽게 확인할 수 있는 거울 기능을 제공할 수 있다. 사용자는 거울 기능을 이용하여 자신의 얼굴을 확인할 수 있다.
한편, 기존의 전자 장치에 구비되는 전면 카메라는 후면 카메라에 비해 상대적으로 화소가 낮고, 화각이 작다. 이러한 전면 카메라를 통해 제공되는 거울 기능은, 디스플레이에 표시된 얼굴이 선명하지 않고 얼굴의 크기가 실제 거울에 비친 얼굴의 크기와 달라 실제 거울과 같은 사용감을 제공하지 못하는 문제점을 가지고 있다.
최근에는 사용자의 셀피(selfie) 촬영을 지원하기 위해 고화소 및 광각의 전면 카메라가 구비된 전자 장치가 출시되고 있는데, 광각의 전면 카메라는 디스플레이에 표시된 얼굴의 크기를 작게 만드는 문제점이 있어, 사용자에게 실제 거울과 같은 사용감을 제공하기에는 역부족이다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 디스플레이, 카메라, 적어도 하나의 센서 및 상기 디스플레이, 상기 카메라 및 상기 적어도 하나의 센서와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 이미지 획득을 위한 신호를 수신하고, 상기 수신된 신호에 응답하여, 상기 카메라를 통해 프리뷰 이미지를 획득하고, 상기 카메라를 통해 획득된 프리뷰 이미지가 상기 디스플레이를 통해 표시되는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하고, 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 이미지 획득을 위한 신호를 수신하는 동작, 상기 수신된 신호에 응답하여, 카메라를 통해 프리뷰 이미지를 획득하는 동작, 상기 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하는 동작 및 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 거울 기능은 사용자에게 실제 거울과 같은 사용감을 제공할 수 있다.
또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 사용자에게 거울 기능을 제공함과 동시에, 전자 장치의 모션 및 전자 장치와 오브젝트 간의 거리에 대한 정보를 획득할 수 있으며, 획득된 정보에 기초하여 디스플레이에 표시 중인 이미지를 수정할 수 있다.
또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 모션 센서를 통해 사용자 및 전자 장치의 모션을 식별할 수 있으며, 식별된 사용자 및 전자 장치의 모션에 대응하는 동작을 수행할 수 있다. 그 결과, 사용자는 한 손으로 디스플레이에 표시 중인 이미지의 설정을 변경할 수 있다.
또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 사각지대 촬영 기능이 포함된 거울 기능을 제공할 수 있다. 사용자는 실제 거울을 통해서는 확인하기 어려운 사각지대를 촬영 및 확인할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시 예에 따른 프로그램 모듈의 블록도이다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소를 설명하기 위한 블록도이다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 시퀀스 다이어그램이다.
도 7a 내지 7d는 본 발명의 다양한 실시 예에 따른 전자 장치에서 파노라믹 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치에서 생성된 파노라믹 컨텐트를 설명하기 위한 도면이다.
도 9a 내지 9b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 스마트 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 10a 내지 10b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 리얼 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 순서도이다.
도 12는 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 순서도이다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당
실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시 예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다.
프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. 미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시 예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 디스플레이(예: 160, 260), 카메라(예: 291), 적어도 하나의 센서(예: 240) 및 상기 디스플레이, 상기 카메라 및 상기 적어도 하나의 센서와 전기적으로 연결된 프로세서(예: 120, 210)를 포함하고, 상기 프로세서는, 이미지 획득을 위한 신호를 수신하고, 상기 수신된 신호에 응답하여, 상기 카메라를 통해 프리뷰 이미지를 획득하고, 상기 카메라를 통해 획득된 프리뷰 이미지가 상기 디스플레이를 통해 표시되는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하고, 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 식별된 제1 모션에 기초하여, 상기 카메라를 통해 상기 전자 장치 외부의 제1 오브젝트에 대한 복수의 이미지들을 획득하고, 상기 복수의 이미지들 중 적어도 일부 이미지들이 획득되는 시점에 대응하는 상기 전자 장치의 기울기 또는 상기 전자 장치와 상기 제1 오브젝트 간의 거리를 식별하고, 상기 기울기 또는 상기 거리에 대한 정보를 상기 적어도 일부 이미지들과 연관시켜 메모리에 저장할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 기울기 또는 상기 거리에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 복수의 이미지들 중 하나의 이미지를 기준 이미지로 선택하고, 상기 선택된 기준 이미지에 포함된 상기 제1 오브젝트의 기울기 또는 크기에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하고, 상기 제1 오브젝트의 기울기 또는 크기가 변경된 적어도 일부 이미지들을 포함하는 제1 이미지를 생성하고, 상기 제1 이미지에 포함된 제2 이미지를 상기 디스플레이를 통해 표시할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하고, 상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지를 상기 제1 이미지에 포함된 제3 이미지로 변경할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하고, 상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지의 크기를 변경할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 식별된 제1 모션이 미리 설정된 제2 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제1 스케일로 변경하여 상기 디스플레이에 표시하고, 상기 식별된 제1 모션이 미리 설정된 제3 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제2 스케일로 변경하여 상기 디스플레이에 표시할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치에 있어서, 프로세서는, 상기 카메라를 통해 얼굴의 정면 이미지가 검출되는지 여부를 판단하고, 상기 얼굴의 정면 이미지가 검출되는 경우, 상기 전자 장치와 상기 검출된 얼굴 간의 거리를 측정하고, 상기 측정된 거리에 기초하여, 상기 검출된 얼굴의 정면 이미지의 크기를 조정하고, 상기 크기가 조정된 상기 얼굴의 정면 이미지를 상기 디스플레이를 통해 표시할 수 있다.
도 2는 다양한 실시 예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)(예: 통신 인터페이스(170))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시 예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시 예에 따른 프로그램 모듈의 블록도이다. 한 실시 예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시 예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시 예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시 예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시 예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시 예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 전자 장치(400)(예: 전자 장치(101, 102, 또는 201))는 적어도 하나의 카메라(410)(예: 카메라 모듈(291)), 디스플레이(420)(예: 디스플레이(160, 260)), 적어도 하나의 센서(예: 센서 모듈(240)), 메모리(예: 메모리(130, 230) 및 프로세서(예: 프로세서(120, 210))를 포함할 수 있다. 전자 장치(400)는 제1 방향으로 향하는 제1 면 및 상기 제1 방향의 반대인 제2 방향으로 향하는 제2 면을 포함하는 하우징으로서, 상기 하우징은 상기 제1 면의 적어도 일부를 형성하는 투명 커버를 포함하는 하우징을 포함할 수 있다. 적어도 하나의 카메라(410)는 상기 하우징의 상기 제1 면 및 상기 제2 면 사이에 배치되고, 상기 투명 커버를 통하여 외부로부터 광을 수신할 수 있다. 디스플레이(420)는 상기 하우징의 상기 제1 면 및 상기 제2 면 사이에 배치되고, 상기 투명 커버를 통하여 외부로 정보를 표시할 수 있다.
전자 장치(400)의 카메라(410)는 적어도 하나의 이미지를 획득할 수 있다. 카메라(410)는 사용자로부터 수신한 카메라 실행에 대응하는 신호 또는 전자 장치(400)의 모션에 대응하는 신호에 기초하여 활성화될 수 있다. 예를 들어, 사용자가 카메라의 실행이 필요한 어플리케이션을 실행하는 경우, 카메라(410)가 활성화될 수 있다. 또한, 전자 장치(400)가 미리 설정된 모션을 감지할 경우, 카메라(410)가 활성화될 수 있다. 본 문서에 개시된 전자 장치(400)의 카메라(410)는 카메라 모듈(291)일 수 있다.
일 실시 예에 따르면, 전자 장치(400)의 카메라(410)는 적어도 하나의 이미지를 획득할 때, 카메라(410)의 화각 내에 존재하는 모든 광을 수신하여 카메라(410)의 화각에 대응하는 크기의 제1 이미지를 획득할 수 있다. 또한, 전자 장치(400)의 카메라(410)는 적어도 하나의 이미지를 획득할 때, 화각 내에 존재하는 일부 광만을 수신함으로써, 카메라(410)의 화각에 대응하는 크기보다 작은 크기의 제2 이미지를 획득할 수도 있다. 이 경우, 제2 이미지는 제1 이미지의 일부 영역에 대응하는 이미지일 수 있다. 만약, 제1 이미지 및 제2 이미지를 동일한 크기의 디스플레이를 통해 표시할 경우, 제2 이미지는 제1 이미지의 일부 영역을 확대한 이미지와 같이 표시될 수 있다.
일 실시 예에 따르면, 전자 장치(400)의 프로세서는 카메라(410)를 통해 획득된 적어도 하나의 이미지를 크롭(crop)할 수 있다. 크롭이란, 사진이나 그림을 편집할 때 원하는 크기에 맞도록 사이즈를 조절하는 것을 의미하는 것으로서, 프로세서는 사이즈를 조절하기 위해 사진이나 그림의 일부 영역을 잘라낼 수 있다. 전자 장치(400)의 프로세서는 크롭된 이미지를 디스플레이(420)를 통해 표시할 수 있다.
전자 장치(400)의 디스플레이(420)는 카메라(410)를 통해 획득된 적어도 하나의 이미지를 표시할 수 있다. 전자 장치(400)의 프로세서는 카메라(410)를 통해 획득된 적어도 하나의 이미지가 디스플레이(420)를 통해 표시될 수 있도록, 획득된 적어도 하나의 이미지를 편집할 수 있다. 편집된 적어도 하나의 이미지는 디스플레이(420)를 통해 실시간으로 표시될 수 있다. 예를 들어, 전자 장치(400)에서 거울 기능이 실행된 경우, 프로세서는 카메라(410)를 통해 획득된 적어도 하나의 이미지를 디스플레이(420)를 통해 실시간으로 표시할 수 있다.
또한, 전자 장치(400)의 디스플레이(420)는 카메라(410)를 통해 획득된 프리뷰 이미지를 표시할 수 있다. 프리뷰 이미지는 사용자가 전자 장치의 카메라(410)를 이용하여 적어도 하나의 오브젝트를 촬영할 때, 디스플레이(420)에 실시간으로 표시되는 이미지를 의미한다. 카메라(410)를 통해 획득된 프리뷰 이미지는 디스플레이(420)에 실시간으로 표시되며, 사용자는 디스플레이(420)에 표시된 프리뷰 이미지를 보면서 적어도 하나의 오브젝트를 쉽게 촬영할 수 있다.
전자 장치(400)의 적어도 하나의 센서는, 예를 들어, 물리량을 계측하거나 전자 장치(400)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 본 문서에 개시된 전자 장치(400)의 적어도 하나의 센서는 다양한 센서들을 포함하는 센서 모듈(240)일 수 있다.
일 실시 예에 따르면, 전자 장치(400)는 모션 센서를 포함할 수 있다. 모션 센서는 전자 장치(400)의 모션을 감지하는 역할을 수행할 수 있다. 예를 들어, 모션 센서는 전자 장치(400)의 가속도를 측정하기 위한 가속도 센서(accelerometer), 전자 장치(400)의 각속도를 측정하기 위한 자이로 센서(gyro sensor) 또는 전자 장치(400)의 지자기 방향을 식별하기 위한 지자기 센서(geomagnetic sensor)를 포함할 수 있다.
전자 장치(400)의 메모리는 전자 장치(400)의 모션과 관련하여 미리 설정된 모션들을 저장할 수 있다. 예를 들어, 프로세서는 전자 장치(400)의 모션을 감지한 결과와 미리 설정된 모션들을 비교할 수 있다. 비교 결과, 감지된 모션과 미리 설정된 모션들 중 적어도 하나의 모션이 일치하는 경우, 프로세서는 미리 설정된 모션에 대응하는 신호를 생성할 수 있다. 프로세서는 생성된 신호에 기초하여, 적어도 하나의 소프트웨어를 실행하거나 전자 장치(400)를 구성하는 적어도 하나의 하드웨어를 제어할 수 있다.
도 5는 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소를 설명하기 위한 블록도이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(500)(예: 프로세서(120, 210)), 이미지 센서(510)(예: 카메라 모듈(291)), 디스플레이(520)(예: 디스플레이(160, 260)) 및 모션 센서(530) (예: 센서 모듈(240))를 포함할 수 있다.
프로세서(500)는 모드 관리부(501), 영상 처리부(503) 및 모션 분석부(505)를 포함할 수 있다.
모드 관리부(501)는 전자 장치에서 실행되는 거울 기능을 구성하는 복수의 모드들을 관리하는 역할을 수행할 수 있다. 모드 관리부(501)는 파노라믹 모드(panoramic mode) 관리부, 스마트 줌 모드(smart zoom mode) 관리부 및 리얼 줌 모드(real-zoom mode) 관리부로 세분화될 수 있다.
파노라믹 모드 관리부는 전자 장치의 거울 기능을 통해 실행되는 파노라믹 모드를 관리할 수 있다. 파노라믹 모드는 전자 장치 및 전자 장치 사용자의 모션을 감지하고, 감지된 전자 장치 및 전자 장치 사용자의 모션에 기초하여 특정 오브젝트의 둘레를 연속적으로 촬영하는 모드이다. 전자 장치는 파노라믹 모드를 통해, 사용자의 신체 중 실제 거울로는 확인하기 어려운 부분을 촬영할 수 있다. 예를 들어, 파노라믹 모드 관리부는 전자 장치에 구비된 적어도 하나의 센서를 통해, 전자 장치 및 전자 장치 사용자의 모션을 감지할 수 있다. 파노라믹 모드 관리부는 모션을 감지한 결과와 전자 장치에 미리 설정된 모션들을 비교할 수 있다. 감지된 모션이 미리 설정된 모션들 중 파노라믹 캡쳐에 대응하는 모션과 일치하는 경우, 파노라믹 모드 관리부는 파노라믹 모드를 실행할 수 있다. 파노라믹 캡쳐에 대응하는 모션은 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 모션일 수 있다. 파노라믹 모드가 실행 중일 때, 전자 장치는 특정 오브젝트의 둘레를 따라 연속된 복수의 이미지를 획득할 수 있다. 파노라믹 모드에서 수행되는 동작들은 도 7a 내지 7c에서 자세히 설명하도록 한다.
스마트 줌 모드 관리부는 전자 장치의 거울 기능을 통해 실행되는 스마트 줌 모드를 관리할 수 있다. 스마트 줌 모드는 전자 장치 및 전자 장치 사용자의 모션을 감지하고, 감지된 전자 장치 및 전자 장치 사용자의 모션에 기초하여 디스플레이(520)에 표시 중인 이미지의 크기를 변경하는 모드이다. 전자 장치의 스마트 줌 모드를 통해, 전자 장치의 사용자는 디스플레이(520)에 표시 중인 이미지의 크기를 한 손으로 변경할 수 있다. 예를 들어, 스마트 줌 모드 관리부는 전자 장치에 구비된 적어도 하나의 센서를 통해, 전자 장치 및 전자 장치 사용자의 모션을 감지할 수 있다. 스마트 줌 모드 관리부는 모션을 감지한 결과와 전자 장치에 미리 설정된 모션들을 비교할 수 있다. 감지된 모션이 미리 설정된 모션들 중 스마트 줌에 대응하는 모션과 일치하는 경우, 스마트 줌 모드 관리부는 스마트 줌 모드를 실행할 수 있다. 스마트 줌에 대응하는 모션은, 사용자가 전자 장치를 밀었다가 당기는 모션(push-pull)이거나 당겼다가 밀어내는 모션(pull-push)일 수 있다. 스마트 줌 모드가 실행 중일 때, 전자 장치는 디스플레이(520)에 표시 중인 프리뷰 이미지의 크기를 확대하거나 축소할 수 있다. 스마트 줌 모드에서 수행되는 동작들은 도 9a 내지 9b에서 자세히 설명하도록 한다.
리얼 줌 모드 관리부는 전자 장치의 거울 기능을 통해 실행되는 리얼 줌 모드를 관리할 수 있다. 거울 기능은 전자 장치의 이미지 센서(510)를 통해 획득된 적어도 하나의 이미지를 전자 장치의 디스플레이(520)를 통해 표시하는 것으로서, 리얼 줌 모드는 거울 기능의 기본 모드를 의미할 수 있다. 리얼 줌 모드는 전자 장치 및 사용자 간의 거리를 측정하고, 측정된 거리에 기초하여 디스플레이(520)에 표시되는 프리뷰 이미지의 크기를 결정하는 모드이다. 전자 장치는 리얼 줌 모드를 통해, 실제 거울을 사용하는 것과 같은 사용감을 전자 장치의 사용자에게 제공할 수 있다. 예를 들어, 리얼 줌 모드 관리부는 전자 장치에 구비된 적어도 하나의 센서를 통해, 전자 장치와 사용자 간의 거리를 측정할 수 있다. 리얼 줌 모드 관리부는 측정된 거리에 기초하여, 디스플레이(520)에 표시되는 프리뷰 이미지의 크기를 결정할 수 있다. 리얼 줌 모드에서 수행되는 동작들은 도 10a 내지 10b에서 자세히 설명하도록 한다.
이미지 센서(510)는 전자 장치의 카메라(예: 410)에 포함된 센서로서, 전자 장치는 이미지 센서(510)을 통해 적어도 하나의 이미지를 획득할 수 있다. 본 문서에 개시되는 전자 장치의 이미지 센서(510)는 카메라(예: 410) 또는 카메라 모듈(예: 291)일 수 있다.
디스플레이(520)는 전자 장치의 이미지 센서(510)를 통해 획득된 적어도 하나의 이미지를 표시할 수 있다. 전자 장치의 프로세서는 이미지 센서(510)를 통해 획득된 프리뷰 이미지를 디스플레이(520)에 실시간으로 표시할 수 있다.
모션 센서(530)는 전자 장치의 모션을 감지하는 역할을 수행할 수 있다. 예를 들어, 모션 센서는 가속도 센서(accelerometer), 자이로 센서(gyro sensor) 또는 지자기 센서(geomagnetic sensor)를 포함할 수 있다.
상기 실시 예 및 상기 실시 예에서 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 예로서 한정하기 위해 개시된 것이 아니며, 본 문서에 기재된 기술에 대한 다양한 실시 예 중 일부로서 이해되어야 한다.
도 6은 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 시퀀스 다이어그램이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(예: 프로세서(120, 210)), 이미지 센서(예: 카메라 모듈(291)), 디스플레이(예: 디스플레이(160, 260)) 및 모션 센서(예: 센서 모듈(240))를 포함할 수 있다.
프로세서는 모드 관리부(예: 501), 영상 처리부(예: 503) 및 모션 분석부(예: 505)를 포함할 수 있다. 또한, 프로세서의 모드 관리부에는 리얼 줌 모드 관리부(640), 스마트 줌 모드 관리부(650) 및 파노라믹 모드 관리부(660)가 포함될 수 있다. 프로세서에 포함된 리얼 줌 모드 관리부(640), 스마트 줌 모드 관리부(650) 및 파노라믹 모드 관리부(660)는 각각 리얼 줌 모드, 스마트 줌 모드 및 파노라믹 모드를 관리하는 프로그램 모듈(예: 310)을 의미할 수 있다.
일 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 시퀀스 다이어그램에는, 전자 장치의 사용자(620, USER), 사용자 인터페이스(630, User Interface), 리얼 줌 모드 관리부(640), 스마트 줌 모드 관리부(650) 및 파노라믹 모드 관리부(660)가 객체로서 포함될 수 있다. 여기서 시퀀스 다이어그램이란, 시퀀스 다이어그램에 포함된 객체들 간에 송수신하는 메시지 또는 데이터를 시간 순서대로 표현한 그림이다.
동작 601에서, 전자 장치의 사용자(USER, 620)는 전자 장치의 거울 기능을 실행시킬 수 있다. 예를 들어, 전자 장치는 거울 기능이 포함된 어플리케이션의 설치 및/또는 실행에 대한 요청을 전자 장치의 사용자(620)로부터 수신할 수 있다. 전자 장치는 수신된 요청에 기초하여, 사용자 인터페이스(User Interface, 630)를 설치 및/또는 실행할 수 있다.
동작 602에서, 사용자 인터페이스는(630)는 프로세서의 리얼 줌 모드 관리부(640)에 리얼 줌 모드의 실행을 요청할 수 있다. 사용자 인터페이스(630)로부터 리얼 줌 모드의 실행에 대한 요청을 수신한 리얼 줌 모드 관리부(640)는 전자 장치의 이미지 센서를 통해 획득된 적어도 하나의 이미지를 편집할 수 있다. 예를 들어, 리얼 줌 모드 관리부(640)는 전자 장치의 적어도 하나의 센서를 통해, 전자 장치 및 전자 장치 사용자 간의 거리를 측정할 수 있다. 리얼 줌 모드 관리부(640)는 측정된 거리에 기초하여, 이미지 센서를 통해 획득된 적어도 하나의 이미지의 크기를 조정할 수 있다. 리얼 줌 모드 관리부(640)는 사용자(620)에게 실제 거울을 사용하는 것과 같은 사용감을 제공하기 위해, 이미지 센서를 통해 획득된 적어도 하나의 이미지의 크기를 측정된 거리와 동일한 거리만큼 떨어진 실제 거울에 비치는 크기로 조정할 수 있다.
동작 603에서, 프로세서의 리얼 줌 모드 관리부(640)는 편집된 적어도 하나의 이미지를 포함하는 리얼 줌 화면(real zoom image)을 사용자 인터페이스(630)에 송신할 수 있다. 사용자 인터페이스(630)는 수신된 리얼 줌 화면을 전자 장치의 디스플레이를 통해 표시할 수 있다. 리얼 줌 화면은 전자 장치의 디스플레이를 통해 실시간으로 표시될 수 있다.
동작 604에서, 사용자 인터페이스(630)는 사용자(620)로부터 획득된 적어도 하나의 제스쳐를 식별할 수 있다. 또한, 사용자 인터페이스(630)는 전자 장치의 적어도 하나의 센서를 통해, 전자 장치의 모션을 감지할 수 있다. 예를 들어, 사용자(620)는 전자 장치를 손에 쥔 채, 파노라믹 모드에 대응하는 모션 또는 스마트 줌 모드에 대응하는 모션을 취할 수 있다.
만약, 사용자(620)로부터 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 스마트 줌에 대응하는 모션과 일치할 경우, 동작 605에서, 사용자 인터페이스(630)는 프로세서의 스마트 줌 모드 관리부(650)에 스마트 줌 모드의 실행을 요청할 수 있다. 사용자 인터페이스(630)로부터 스마트 줌 모드의 실행에 대한 요청을 수신한 스마트 줌 모드 관리부(650)는 전자 장치의 디스플레이에 표시 중인 프리뷰 이미지의 크기를 변경할 수 있다. 예를 들어, 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 디스플레이에 표시 중인 이미지의 크기를 확대 또는 축소하는 것에 대한 모션과 일치할 경우, 스마트 줌 모드 관리부(650)는 디스플레이를 통해 표시 중인 프리뷰 이미지의 크기를 확대 또는 축소할 수 있다.
동작 606에서, 프로세서의 스마트 줌 모드 관리부(650)는 크기가 변경된 적어도 하나의 이미지를 포함하는 스마트 줌 화면(smart zoom image)을 사용자 인터페이스(630)에 송신할 수 있다. 사용자 인터페이스(630)는 수신된 스마트 줌 화면을 전자 장치의 디스플레이를 통해 표시할 수 있다. 스마트 줌 화면은 전자 장치의 디스플레이를 통해 실시간으로 표시될 수 있다.
만약, 사용자(620)로부터 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 파노라믹 캡쳐에 대응하는 모션과 일치할 경우, 동작 607에서, 사용자 인터페이스(630)는 프로세서의 파노라믹 모드 관리부(660)에 파노라믹 모드의 실행을 요청할 수 있다. 사용자 인터페이스(630)로부터 파노라믹 모드의 실행에 대한 요청을 수신한 파노라믹 모드 관리부(660)는 전자 장치의 이미지 센서를 통해 복수의 이미지를 캡쳐하는 파노라믹 캡쳐를 시작할 수 있다. 이를 위해, 파노라믹 모드 관리부(660)는 전자 장치의 이미지 센서를 활성화시킬 수 있다. 파노라믹 모드 관리부(660)는 활성화된 이미지 센서를 통해 복수의 이미지를 획득할 수 있다. 예를 들어, 파노라믹 모드 관리부(660)는 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 동안, 전자 장치의 이미지 센서를 통해 상기 특정 오브젝트와 관련된 복수의 이미지를 획득할 수 있다. 이 때 획득된 복수의 이미지들은, 전자 장치가 상기 특정 오브젝트의 둘레를 따라 움직이는 동안 획득된 것이므로, 상기 특정 오브젝트를 서로 다른 방향에서 캡쳐한 이미지들일 수 있다.
프로세서의 파노라믹 모드 관리부(660)는 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 것을 멈추는 것에 대응하여, 전자 장치의 이미지 센서를 비활성화시킬 수 있다. 또는, 파노라믹 모드 관리부(660)는 전자 장치의 이미지 센서를 통해 사용자(620)의 정면 얼굴이 일정 시간 이상 검출될 경우, 전자 장치의 이미지 센서를 비활성화시킬 수 있다. 이미지 센서가 비활성화됨에 따라 더 이상 획득되는 이미지가 존재하지 않을 경우, 파노라믹 모드 관리부(660)는 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 동안 획득된 복수의 이미지들을 이용하여, 파노라믹 컨텐트를 생성할 수 있다. 파노라믹 컨텐트는 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 동안 획득된 복수의 이미지들의 일부 또는 전체를 포함할 수 있다. 예를 들어, 파노라믹 컨텐트는 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 동안 획득된 복수의 이미지들을 서로 연결한 파노라믹 형태의 이미지일 수 있다. 파노라믹 컨텐트에 대한 자세한 설명은 도 8에서 하기로 한다.
동작 608에서 프로세서의 파노라믹 모드 관리부(660)는 파노라믹 컨텐트를 포함하는 파노라믹 리뷰 화면(panoramic review image)을 사용자 인터페이스(630)에 송신할 수 있다. 사용자 인터페이스(630)는 수신된 파노라믹 리뷰 화면을 전자 장치의 디스플레이를 통해 표시할 수 있다.
만약, 사용자(620)로부터 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 전자 장치에 미리 설정된 모션들과 일치하지 않을 경우, 동작 609에서, 사용자 인터페이스(630)는 리얼 줌 모드 관리부(640)에 리얼 줌 모드의 실행을 요청할 수 있다. 리얼 줌 모드는 전자 장치에서 실행되는 거울 기능의 기본 모드일 수 있다. 예를 들어, 동작 603처럼 사용자 인터페이스(630)에 리얼 줌 화면이 수신된 상태에서 사용자(620)로부터 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 미리 설정된 모션들과 일치하지 않을 경우, 사용자 인터페이스(630)는 아무런 동작을 수행하지 않은 채 현재 상태(리얼 줌 모드)를 유지할 수 있다. 다시 말해, 사용자 인터페이스(630)는 수신된 리얼 줌 화면을 전자 장치의 디스플레이를 통해 표시하는 상태를 유지할 수 있다.
동작 601을 통해 사용자 인터페이스(630)가 실행된 상태에서는 670의 루프(loop) 과정이 반복될 수 있다. 680의 알트(alt) 과정은 선택 가능한(alternative) 조건이 여러 개일 경우의 판단 과정을 의미하는 것이다. 전자 장치는 670의 루프 과정이 반복되는 동안, 사용자(620)로부터 획득된 적어도 하나의 제스쳐 또는 감지된 전자 장치의 모션이 전자 장치에 미리 설정된 모션들 중 어떤 모션과 일치하는지 여부를 판단하는 680의 알트 과정을 수행할 수 있다.
도 7a 내지 7c는 본 발명의 다양한 실시 예에 따른 전자 장치에서 파노라믹 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 7a는 본 발명의 다양한 실시 예에 따라, 파노라믹 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(예: 프로세서(120, 210)), 이미지 센서(750)(예: 카메라 모듈(291)), 디스플레이(예: 디스플레이(160, 260)) 및 모션 센서(예: 센서 모듈(240))를 포함할 수 있다.
프로세서는 모드 관리부(예: 501), 얼굴 검출부(740), 영상 처리부(760)(예: 503) 및 모션 분석부(예: 505)를 포함할 수 있다. 또한, 프로세서의 모드 관리부에는 파노라믹 모드 관리부(660)가 포함될 수 있다. 프로세서에 포함된 파노라믹 모드 관리부(660)는 파노라믹 모드를 관리하는 프로그램 모듈(예: 310)을 의미할 수 있다.일 실시 예에 따른 전자 장치에서 파노라믹 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램에는, 사용자 인터페이스(720, User Interface), 파노라믹 모드 관리부(730), 얼굴 검출부(740, face detection unit), 이미지 센서(750, image sensor) 및 영상 처리부(760, image processing unit)가 객체로서 포함될 수 있다.
동작 701에서, 사용자 인터페이스(720)는 전자 장치의 모션과 관련된 정보를 파노라믹 모드 관리부(730)로 송신할 수 있다. 파노라믹 모드 관리부(730)는 수신된 전자 장치의 모션과 관련된 정보에 파노라믹 캡쳐에 대응하는 모션이 포함되어 있는지 여부를 식별할 수 있다. 예를 들어, 파노라믹 캡쳐에 대응하는 모션은 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 것과 관련된 모션일 수 있다.
파노라믹 모드 관리부(730)는 수신된 전자 장치의 모션과 관련된 정보에 파노라믹 캡쳐에 대응하는 모션이 포함되어 있는지 여부를 판단하는 770의 알트 과정을 수행할 수 있다. 예를 들어, 수신된 전자 장치의 모션과 관련된 정보에서 파노라믹 캡쳐에 대응하는 모션이 식별되는 경우, 파노라믹 모드 관리부(730)는 동작 702 내지 동작 708을 수행할 수 있다. 반면에, 수신된 전자 장치의 모션과 관련된 정보에서 파노라믹 캡쳐에 대응하는 모션이 식별되지 않는 경우, 파노라믹 모드 관리부(730)는 동작 709 내지 동작 711을 수행할 수 있다. 알트(alt) 과정은 선택 가능한(alternative) 조건이 여러 개일 경우의 판단 과정을 의미하는 것이다.
만약, 수신된 전자 장치의 모션과 관련된 정보에서 파노라믹 캡쳐에 대응하는 모션이 식별되는 경우, 동작 702가 수행될 수 있다. 동작 702에서, 파노라믹 모드 관리부(730)는 얼굴 검출부(740)에 얼굴 검출을 요청할 수 있다. 예를 들어, 얼굴 검출부(740)는 파노라믹 모드 관리부(730)로부터 얼굴 검출에 대한 요청이 수신되면, 전자 장치의 이미지 센서(750)를 통해 적어도 하나의 이미지를 획득할 수 있다. 얼굴 검출부(740)는 전자 장치의 이미지 센서(750)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 있다. 얼굴 검출부(740)는 검출된 얼굴에 대응하는 정보를 포함하는 얼굴 정보를 생성할 수 있다. 반면에, 전자 장치의 이미지 센서(750)로부터 획득된 이미지에서 얼굴을 검출할 수 없을 경우, 얼굴 검출부(740)는 검출된 얼굴이 없음과 관련된 정보를 포함하는 얼굴 정보를 생성할 수 있다.
동작 703에서, 얼굴 검출부(740)는 생성된 얼굴 정보를 파노라믹 모드 관리부(730)에 송신할 수 있다. 파노라믹 모드 관리부(730)는 수신된 얼굴 정보에 기초하여, 적어도 하나의 얼굴이 검출되는지 여부를 판단하는 780의 알트 과정을 수행할 수 있다. 예를 들어, 얼굴이 검출되지 않는 경우, 파노라믹 모드 관리부(730)는 동작 704 내지 동작 706을 수행할 수 있다. 반면에, 적어도 하나의 얼굴이 검출되는 경우, 파노라믹 모드 관리부(730)는 동작 707 내지 동작 708을 수행할 수 있다.
만약, 얼굴이 검출되지 않는 경우 동작 704가 수행될 수 있다. 동작 704에서, 파노라믹 모드 관리부(730)는 이미지 센서(750)에 파노라믹 캡쳐를 요청할 수 있다. 파노라믹 캡쳐를 요청받은 이미지 센서(750)는 활성화될 수 있다. 예를 들어, 파노라믹 모드 관리부(730)에서 파노라믹 캡쳐를 요청할 때, 비활성화 상태에 있던 이미지 센서(750)는 활성화될 수 있다. 또한, 파노라믹 모드 관리부(730)에서 파노라믹 캡쳐를 요청할 때, 이미 활성화 상태에 있던 이미지 센서(750)는 활성화 상태를 유지할 수 있다.
활성화된 이미지 센서(750)는 복수의 이미지들을 획득할 수 있다. 예를 들어, 활성화된 이미지 센서(750)는 미리 설정된 주기(또는 속도)에 기초하여, 복수의 이미지들을 획득할 수 있다. 전자 장치가 원형 또는 타원형을 그리며 특정 오브젝트의 둘레를 따라 움직이는 동안, 이미지 센서(750)는 상기 특정 오브젝트와 관련된 복수의 이미지를 주기적으로 획득할 수 있다. 이 때 획득된 복수의 이미지들은, 전자 장치가 상기 특정 오브젝트의 둘레를 따라 움직이는 동안 획득된 것으로서, 상기 특정 오브젝트를 서로 다른 방향에서 캡쳐한 이미지들일 수 있다.
동작 705에서, 이미지 센서(750)는 획득된 복수의 이미지들에 대한 이미지 처리를 영상 처리부(760)에 요청할 수 있다. 이를 위해, 이미지 센서(750)는 획득된 복수의 이미지들을 영상 처리부(760)에 송신할 수 있다. 영상 처리부(760)는 이미지 센서(750)로부터 수신된 복수의 이미지들 중 적어도 일부를 수정할 수 있다. 예를 들어, 영상 처리부(760)는 수신된 복수의 이미지들 각각이 획득되는 시점에 대응하는, 전자 장치의 기울기 및 전자 장치와 특정 오브젝트 간의 거리를 식별할 수 있다. 영상 처리부(760)는 식별된 상기 전자 장치의 기울기 및 상기 전자 장치와 상기 특정 오브젝트 간의 거리에 기초하여, 수신된 복수의 이미지들 각각에 포함된 상기 특정 오브젝트의 기울기 및 크기를 수정할 수 있다. 또한, 영상 처리부(760)는 수신된 복수의 이미지들 중 하나를 기준 이미지로 선택할 수 있다. 영상 처리부(760)는 선택된 기준 이미지에 포함된 상기 특정 오브젝트의 기울기 및 크기에 기초하여, 수신된 복수의 이미지들 각각에 포함된 상기 특정 오브젝트의 기울기 및 크기를 수정할 수도 있다.
동작 706에서, 영상 처리부(760)는 이미지 센서(750)로부터 수신된 복수의 이미지들 또는 영상 처리부(760)에서 수정된 이미지를 파노라믹 모드 관리부(730)로 송신할 수 있다. 파노라믹 모드 관리부(730)는 수신된 이미지들을 전자 장치의 메모리에 저장할 수 있다.
만약, 얼굴이 검출된 경우 동작 707이 수행될 수 있다. 동작 707에서, 파노라믹 모드 관리부(730)는 얼굴 검출부(740)에 얼굴 검출을 요청할 수 있다. 얼굴 검출부(740)는 파노라믹 모드 관리부(730)로부터 얼굴 검출에 대한 요청이 수신되면, 전자 장치의 이미지 센서(750)를 통해 적어도 하나의 이미지를 획득할 수 있다. 얼굴 검출부(740)는 전자 장치의 이미지 센서(750)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 있다. 얼굴 검출부(740)는 검출된 얼굴에 대응하는 정보를 포함하는 얼굴 정보를 생성할 수 있다. 반면에, 전자 장치의 이미지 센서(750)로부터 획득된 이미지에서 얼굴을 검출할 수 없을 경우, 얼굴 검출부(740)는 검출된 얼굴이 없음과 관련된 정보를 포함하는 얼굴 정보를 생성할 수 있다.
동작 708에서, 얼굴 검출부(740)는 생성된 얼굴 정보를 파노라믹 모드 관리부(730)에 송신할 수 있다. 파노라믹 모드 관리부(730)는 수신된 얼굴 정보에 기초하여, 적어도 하나의 얼굴이 검출되는지 여부를 판단하는 780의 알트 과정을 다시 수행할 수 있다. 즉, 770의 알트 과정의 판단 결과, 수신된 전자 장치의 모션과 관련된 정보에서 파노라믹 캡쳐에 대응하는 모션이 식별되면, 780의 알트 과정은 반복될 수 있다.
만약, 수신된 전자 장치의 모션과 관련된 정보에서 파노라믹 캡쳐에 대응하는 모션이 식별되지 않는 경우, 동작 709가 수행될 수 있다. 동작 790에서, 파노라믹 모드 관리부(730)는 이미지 센서(750)에 파노라마 캡쳐의 종료와 관련된 정보를 송신할 수 있다. 파노라믹 캡쳐의 종료와 관련된 정보를 수신한 이미지 센서(750)는 비활성화될 수 있다.
이어서, 동작 710에서 파노라믹 모드 관리부(730)는 얼굴 검출부(740)에 얼굴 검출을 요청할 수 있다. 예를 들어, 얼굴 검출부(740)는 파노라믹 모드 관리부(730)로부터 얼굴 검출에 대한 요청이 수신되면, 전자 장치의 이미지 센서(750)를 통해 적어도 하나의 이미지를 획득할 수 있다. 얼굴 검출부(740)는 전자 장치의 이미지 센서(750)로부터 획득된 적어도 하나의 이미지에서 정면 얼굴이 검출되는지 여부를 판단할 수 있다. 얼굴 검출부(740)는 정면 얼굴이 검출된 경우, 정면 얼굴과 관련된 정보를 포함하는 얼굴 정보를 생성할 수 있다.
동작 711에서, 얼굴 검출부(740)는 생성된 얼굴 정보를 파노라믹 모드 관리부(730)에 송신할 수 있다. 파노라믹 모드 관리부(730)는 수신된 얼굴 정보에 정면 얼굴과 관련된 정보가 포함되어 있는지 여부를 판단할 수 있다.
수신된 얼굴 정보에 정면 얼굴과 관련된 정보가 포함되어 있을 경우, 790의 알트 과정이 수행될 수 있다. 동작 712에서, 파노라믹 모드 관리부(730)는 이미지 센서(750)로부터 수신된 복수의 이미지들 또는 영상 처리부(760)에서 수정된 이미지를 이용하여 파노라믹 컨텐트를 생성할 수 있다. 파노라믹 컨텐트는 이미지 센서(750)로부터 수신된 복수의 이미지들 또는 영상 처리부(760)에서 수정된 이미지들의 일부 또는 전부를, 획득된 시간순으로 연결한 파노라믹 이미지일 수 있다. 이 때, 이미지 센서(750)로부터 수신된 복수의 이미지들 또는 영상 처리부(760)에서 수정된 이미지는 동작 706에서 전자 장치의 메모리에 저장된 이미지들이다. 파노라믹 모드 관리부(730)는 생성된 파노라믹 컨텐트를 사용자 인터페이스(720)에 송신할 수 있다. 사용자 인터페이스(720)는 수신된 파노라믹 컨텐트를 전자 장치의 디스플레이를 통해 표시할 수 있다.
도 7b는 본 발명의 다양한 실시 예에 따라, 파노라믹 캡쳐에 대응하는 모션을 설명하기 위한 도면이다.
일 실시 예에 따르면, 전자 장치(700)의 사용자는 자신의 신체 부위 중 실제 거울을 통해서는 확인할 수 없는 부분을 촬영하기 위해, 전자 장치의 거울 기능을 통해 실행되는 파노라믹 모드를 이용할 수 있다.
예를 들어, 전자 장치(700)는 사용자에 대한 다양한 시점의 이미지(예: 사용자의 옆머리 또는 뒷머리 등)를 사용자에게 제공(예: 거울 기능을 통해 실행되는 파노라믹 모드를 통해)할 수 있다. 전자 장치(700)는, 예를 들면 센서를 이용하여, 사용자에 의한 전자 장치의 움직임(예: 사용자가 전자 장치(700)의 전면 카메라를 바라본 상태에서 자신의 머리 둘레를 따라 전자 장치(700)를 회전시키는 동작 등)을 감지 할 수 있다. 전자 장치(700)는, 센서를 이용하여 전자 장치의 움직임을 감지하고, 전자 장치의 이동 또는 회전에 기반하여 사용자의 얼굴에 대응하는 이미지를 획득할 수 있다. 전자 장치는, 다시 사용자의 정면 얼굴이 검출될 때까지(예: 전자 장치가, 센서를 통해, 촬영이 시작된 위치로 복귀한 것을 감지 할 때까지), 미리 설정된 주기마다 이미지를 획득할 수 있다. 하기 도 7c는 본 실시 예를 단계적으로 구분하여 나타낸 것이다.
도 7c는 본 발명의 다양한 실시 예에 따라, 파노라믹 캡쳐에 대응하는 모션을 설명하기 위한 도면이다.
전자 장치(700)는, 예를 들면 센서를 이용하여, 사용자에 의한 전자 장치의 움직임(예: 사용자가 전자 장치(700)를 손에 쥔 채, 자신의 머리 둘레를 따라 전자 장치(700)를 회전시키는 동작 등)을 감지 할 수 있다. 본 실시 예를 설명하기 위해, 사용자를 기준으로 서로 다른 위치에 존재하는 전자 장치(700)를 도 7c에 나타내었다. 전자 장치(700)는 제1 위치(721), 제2 위치(722), 제3 위치(723), 제4 위치(724), 제5 위치(725) 및 제6 위치(726)에 위치할 수 있다.
제1 위치(721)의 전자 장치(700)는 사용자에게 얼굴 정면 이미지를 제공함으로써, 사용자에게 거울 기능을 제공할 수 있다. 제1 위치(721)는 전자 장치(700)의 전면 카메라와 사용자의 정면 얼굴이 대면할 수 있는 위치로서, 전자 장치(700)가 전자 장치(700)의 전면 카메라를 통해 전자 장치(700)의 사용자에게 거울 기능을 제공하기에 적합한 위치이다.
제1 위치(721)의 전자 장치(700)는, 사용자에 의해 제1 위치(721)에서 시작하여 제2 위치(722) 내지 제6 위치(726)를 거쳐 다시 제1 위치로 이동될 수 있다. 예를 들어, 전자 장치(700)는 제1 위치(721)에서 시작하여 제2 위치(722) 내지 제6 위치(726)를 거쳐 다시 제1 위치로 되돌아오는 회전 동작을 감지할 수 있다. 일 실시 예에 따르면, 전자 장치(700)의 모션 센서는 제1 위치(721)에서 시작하여 제2 위치(722) 내지 제6 위치(726)를 거쳐 다시 제1 위치(721)로 되돌아오는 회전 동작을 파노라믹 캡쳐에 대응하는 모션으로 식별할 수 있다. 전자 장치(700)는 식별된 파노라믹 캡쳐에 대응하는 모션에 기초하여, 도 7a에 개시된 시퀀스 다이어그램에 따라 파노라믹 모드를 실행할 수 있다.
한편, 사용자가 회전 동작을 수행할 때, 전자 장치(700)의 기울기는 계속 변경될 수 있다. 예를 들어, 오른손으로 전자 장치(700)를 들고 있는 사용자가 제1 위치(721)에서 제2 위치(722)로 전자 장치(700)를 이동시킬 때, 전자 장치(700)는 제1 방향으로 기울어질 수 있다. 마찬가지로, 제2 위치(722)에서 제3 위치(723) 및 제4 위치(724)를 거쳐 제5 위치(725)로 이동한 전자 장치(700)의 기울기는, 제1 위치(721)의 전자 장치(700)의 기울기와 비교했을 때 약 180도 기울어질 수 있다. 약 180도까지 기울었던 전자 장치(700)의 기울기는 제5 위치(725)에서 제6 위치(726)로 이동하면서 점차 줄어들 수 있다.
이처럼, 사용자의 머리 둘레를 따라 회전하는 동안, 전자 장치(700)의 기울기는 변경될 수 있다. 따라서, 서로 다른 위치(721 내지 726)의 전자 장치(700)를 통해 획득된 이미지들 각각에 포함된 오브젝트들(예: 사용자의 머리)은 서로 다른 기울기를 가질 수 있다. 또한, 사용자의 머리 둘레를 따라 회전하는 동안, 전자 장치(700)와 사용자 간의 거리는 변경될 수 있다. 따라서, 서로 다른 위치(721 내지 726)의 전자 장치(700)를 통해 획득된 이미지들 각각에 포함된 오브젝트들은 서로 다른 크기를 가질 수 있다.
이어지는 도 7d에서, 서로 다른 기울기 또는 서로 다른 크기의 오브젝트를 포함하는 이미지들을 수정하는 방법에 대해 자세히 설명하기로 한다.
도 7d는 본 발명의 다양한 실시 예에 따라, 획득된 이미지들의 기울기 및 크기를 수정하는 방법을 설명하기 위한 도면이다.
전자 장치(700)는 사용자의 머리 둘레를 따라 회전하는 동안, 전면 카메라를 통해 복수의 이미지들을 획득할 수 있다. 획득된 복수의 이미지들은 서로 다른 방향에서 촬영된 사용자의 머리를 포함할 수 있다. 다만, 사용자의 머리 둘레를 따라 회전하는 동안, 전자 장치(700)의 기울기 및 전자 장치와 사용자 간의 거리는 계속해서 바뀔 수 있기 때문에, 획득된 복수의 이미지들 각각에 포함된 사용자의 머리는 서로 다른 기울기 및 서로 다른 크기를 가질 수 있다.
전자 장치(700)의 모션 센서는 복수의 이미지들 각각이 획득되는 시점에 대응하는, 전자 장치(700)의 가속도, 각속도 및 지자기 방향을 검출할 수 있다. 또한, 전자 장치(700)의 적어도 하나의 센서는 복수의 이미지들 각각이 획득되는 시점에 대응하는, 전자 장치와 사용자의 머리 간의 거리를 검출할 수 있다. 전자 장치(700)는 획득된 복수의 이미지들 및 복수의 이미지들 각각이 획득되는 시점에 검출된 가속도, 각속도, 지자기 방향 및 전자 장치와 사용자의 머리 간의 거리를 메모리에 저장할 수 있다. 전자 장치는 검출된 가속도, 각속도, 지자기 방향 및 전자 장치와 사용자의 머리 간의 거리에 기초하여, 획득된 복수의 이미지들 각각에 포함된 사용자의 머리의 기울기 및 크기를 측정할 수 있다.
일 실시 예에 따르면, 전자 장치(700)는 제1 위치(721)에서 획득한 이미지를 기준 이미지로 선택할 수 있다. 예를 들어, 제1 위치(721)에서 획득된 이미지에 포함된 사용자의 머리는 정립상의 정면 얼굴일 수 있다. 전자 장치(700)는 기준 이미지가 획득되는 시점에 검출된 가속도, 각속도, 지자기 방향 및 전자 장치와 사용자의 머리 간의 거리를 메모리에서 로드(load)할 수 있다. 전자 장치(700)의 영상 처리부(760)는 로드된 기준 이미지의 가속도, 각속도, 지자기 방향 및 전자 장치와 사용자의 머리 간의 거리에 기초하여, 기준 이미지에 포함된 사용자의 머리의 기울기 및 크기를 측정할 수 있다. 전자 장치(700)는 기준 이미지를 이용하여 측정된 사용자의 머리의 기울기 및 크기에 기초하여, 제2 위치(722) 내지 제6 위치(726)에서 획득된 이미지들 각각에 포함된 사용자의 머리의 기울기 및 크기를 수정할 수 있다. 예를 들어, 전자 장치(700)의 영상 처리부(760)는 제2 위치(722) 내지 제6 위치(726)에서 획득된 이미지들 각각에 포함된 사용자의 머리의 기울기 및 크기를 732 내지 736의 이미지들 각각에 포함된 사용자의 머리의 기울기 및 크기로 수정할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치에서 생성된 파노라믹 컨텐트를 설명하기 위한 도면이다.
801 및 802는 전자 장치의 파노라믹 모드 관리부(예: 730)에서 생성된 파노라믹 컨텐트를 나타낸 것이다.
일 실시 예에 따르면, 전자 장치는 메모리에 저장된 가속도, 각속도, 지자기 방향 및 전자 장치와 사용자의 머리 간의 거리에 기초하여, 복수의 이미지들 각각에 포함된 오브젝트의 서로 다른 기울기 및 크기를 수정할 수 있다. 예를 들어, 복수의 이미지들 각각에 포함된 오브젝트의 기울기 및 크기가 모두 동일하게 수정될 수 있다. 이 경우, 복수의 이미지들 각각은 서로 다른 방향에서 촬영된 정립상의 오브젝트를 포함할 수 있다.
전자 장치는 수정된 복수의 이미지들을 이용하여 파노라믹 컨텐트를 생성할 수 있다. 파노라믹 컨텐트는 수정된 복수의 이미지들을 획득된 시간 순서대로 연결한 파노라믹 이미지일 수 있다.
전자 장치는 생성된 파노라믹 컨텐트를 이용하여, 파노라믹 모드에서 획득된 복수의 이미지들을 사용자에게 제공할 수 있다. 810의 이미지는 전면 카메라를 통해 캡쳐된 사용자의 정면 얼굴로서, 파노라믹 모드에서 획득된 복수의 이미지들 중 기본 이미지일 수 있다.
전자 장치는 815와 같이, 전자 장치를 제1 방향으로 회전시키는 동작을 감지할 수 있다. 전자 장치의 모션 센서는 제1 방향으로의 회전을 감지할 수 있다. 전자 장치는 제1 방향으로의 회전에 응답하여, 810의 이미지에 포함된 오브젝트를 820의 이미지에 포함된 오브젝트처럼 회전시킬 수 있다.
전자 장치는 825와 같이, 전자 장치를 제1 방향으로 한 번 더 회전시키는 동작을 감지할 수 있다. 전자 장치의 모션 센서는 제1 방향으로의 회전을 감지할 수 있다. 전자 장치는 제1 방향으로의 회전에 응답하여, 820의 이미지에 포함된 오브젝트를 830의 이미지에 포함된 오브젝트처럼 회전시킬 수 있다.
전자 장치는 835와 같이, 전자 장치를 제2 방향으로 회전시키는 동작을 감지할 수 있다. 전자 장치의 모션 센서는 제2 방향으로의 회전을 감지할 수 있다. 전자 장치는 제2 방향으로의 회전에 응답하여, 830의 이미지에 포함된 오브젝트를 840의 이미지에 포함된 오브젝트처럼 회전시킬 수 있다.
다른 실시 예에 따르면, 전자 장치는 생성된 파노라믹 컨텐트를 이용하여, 파노라믹 모드에서 획득된 복수의 이미지들을 사용자에게 제공할 수 있다. 810의 이미지는 전면 카메라를 통해 캡쳐된 사용자의 정면 얼굴로서, 파노라믹 모드에서 획득된 복수의 이미지들 중 기본 이미지일 수 있다.
전자 장치는 845와 같이, 전자 장치를 제1 방향 및 제2 방향으로 한 번씩 회전시키는 동작을 감지할 수 있다. 또는, 전자 장치는 845와 같이, 전자 장치를 좌우로 수회 흔드는 동작을 감지할 수 있다. 전자 장치의 모션 센서는 전자 장치를 좌우로 수회 흔드는 모션을 감지할 수 있다. 전자 장치는 전자 장치를 좌우로 수회 흔드는 모션에 응답하여, 810의 이미지에 포함된 오브젝트를 850의 이미지에 포함된 오브젝트처럼 확대시킬 수 있다.
상기 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태로서 한정하기 위해 사용된 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.
도 9a 내지 9b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 스마트 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 9a는 본 발명의 다양한 실시 예에 따라, 스마트 줌 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(예: 프로세서(120, 210)), 이미지 센서(960)(예: 카메라 모듈(291)), 디스플레이(예: 디스플레이(160, 260)) 및 모션 센서(예: 센서 모듈(240))를 포함할 수 있다.
프로세서는 모드 관리부(예: 501), 얼굴 검출부(940), 거리 측정부(950) 및 모션 분석부(예: 505)를 포함할 수 있다. 또한, 프로세서의 모드 관리부에는 스마트 줌 모드 관리부(930)가 포함될 수 있다. 프로세서에 포함된 스마트 줌 모드 관리부(930)는 스마트 줌 모드를 관리하는 프로그램 모듈(예: 310)을 의미할 수 있다.
일 실시 예에 따른 전자 장치에서 스마트 줌 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램에는, 사용자 인터페이스(920, User Interface), 스마트 줌 모드 관리부(930), 얼굴 검출부(940, face detection unit), 거리 측정부(950, distance detection unit) 및 이미지 센서(960, image sensor)가 객체로서 포함될 수 있다.
동작 901에서, 사용자 인터페이스(920)는 전자 장치의 모션과 관련된 정보를 스마트 줌 모드 관리부(930)로 송신할 수 있다. 스마트 줌 모드 관리부(930)는 수신된 전자 장치의 모션과 관련된 정보에 스마트 줌에 대응하는 모션이 포함되어 있는지 여부를 식별할 수 있다. 예를 들어, 스마트 줌에 대응하는 모션은 사용자가 전자 장치를 밀었다가 당기는 모션(push-pull motion)이나 당겼다가 밀어내는 모션(pull-push motion)일 수 있다.
만약, 수신된 전자 장치의 모션과 관련된 정보에서 스마트 줌에 대응하는 모션이 식별되는 경우, 동작 902가 수행될 수 있다. 동작 902에서, 스마트 줌 모드 관리부(930)는 얼굴 검출부(940)에 얼굴 검출을 요청할 수 있다. 예를 들어, 얼굴 검출부(940)는 스마트 줌 모드 관리부(930)로부터 얼굴 검출에 대한 요청이 수신되면, 전자 장치의 이미지 센서(960)를 통해 적어도 하나의 이미지를 획득할 수 있다. 얼굴 검출부(940)는 전자 장치의 이미지 센서(960)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 있다. 획득된 적어도 하나의 이미지에서 얼굴이 검출될 경우, 얼굴 검출부(940)는 얼굴이 검출된 영역을 식별할 수 있다. 얼굴 검출부(940)는 검출된 얼굴 및 식별된 영역에 대한 정보를 포함하는 검출 영역 정보를 생성할 수 있다. 반면에, 전자 장치의 이미지 센서(960)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 없을 경우, 얼굴 검출부(940)는 검출된 얼굴이 없음과 관련된 정보를 포함하는 검출 영역 정보를 생성할 수 있다.
동작 903에서, 얼굴 검출부(940)는 생성된 검출 영역 정보를 스마트 줌 모드 관리부(930)에 송신할 수 있다. 스마트 줌 모드 관리부(930)는 수신된 검출 영역 정보에 검출된 얼굴 및 식별된 영역에 대한 정보가 포함되어 있을 경우, 거리 측정부(950)에 전자 장치와 상기 검출된 얼굴 간의 거리 측정을 요청할 수 있다.
동작 904에서, 스마트 줌 모드 관리부(930)는 거리 측정부(950)에 전자 장치와 검출된 얼굴 간의 거리 측정을 요청하기 위해, 얼굴 검출부(940)로부터 수신된 검출 영역 정보를 송신할 수 있다. 거리 측정부(950)는 검출 영역 정보에 기초하여, 거리 측정의 대상이 되는 얼굴을 식별할 수 있다. 거리 측정부(950)는 전자 장치에 구비된 적어도 하나의 센서를 이용하여 전자 장치와 검출된 얼굴 간의 거리를 측정할 수 있다. 거리 측정부(950)는 측정된 거리에 대한 정보가 포함된 얼굴 거리 정보를 생성할 수 있다.
동작 905에서, 거리 측정부(950)는 생성된 얼굴 거리 정보를 스마트 줌 모드 관리부(930)에 송신할 수 있다. 검출 영역 정보 및 얼굴 거리 정보를 수신한 스마트 줌 모드 관리부(930)는 식별된 스마트 줌에 대응하는 모션이 어떤 모션인지 여부를 판단하는 970의 알트 과정을 수행할 수 있다. 예를 들어, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 밀었다가 당기는 모션(push-pull motion)일 경우, 스마트 줌 모드 관리부(930)는 동작 906 및 동작 907을 수행할 수 있다. 이와 달리, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 당겼다가 밀어내는 모션(pull-push motion)일 경우, 스마트 줌 모드 관리부(930)는 동작 908 및 동작 909을 수행할 수 있다. 알트(alt) 과정은 선택 가능한(alternative) 조건이 여러 개일 경우의 판단 과정을 의미하는 것이다.
만약, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 밀었다가 당기는 모션(push-pull motion)일 경우, 동작 906이 수행될 수 있다. 동작 906에서, 스마트 줌 모드 관리부(930)는 이미지 센서(960)에 줌 아웃(zoom-out)에 대응하는 신호를 송신할 수 있다. 예를 들어, 사용자가 전자 장치를 손에 쥔 채, 전자 장치를 밀었다가 당기는 모션을 취한 경우, 스마트 줌 모드 관리부(930)는 이미지 센서(960)를 통해 획득되는 이미지를 축소시키기 위해 줌 아웃에 대응하는 신호를 송신할 수 있다. 줌 아웃에 대응하는 신호를 수신한 이미지 센서(960)는 설정된 배율을 낮추고, 저배율 상태에서 이미지를 캡쳐할 수 있다.
동작 907에서, 이미지 센서(960)는 저배율 상태에서 캡쳐된 이미지의 일부를 크롭(crop)한 후, 스마트 줌 모드 관리부(930)에 송신할 수 있다. 예를 들어, 이미지 센서(960)는 저배율 상태에서 캡쳐된 이미지에서 얼굴을 식별할 수 있다. 이미지 센서(960)는 식별된 얼굴이 이미지의 중앙에 오도록 하기 위해, 캡쳐된 이미지의 일부를 크롭할 수 있다. 예를 들어, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 밀었다가 당기는 모션(push-pull motion)일 경우, 전자 장치는 디스플레이에 표시된 프리뷰 이미지를 축소할 수 있다.
만약, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 당겼다가 밀어내는 모션(pull-push motion)일 경우, 동작 908이 수행될 수 있다. 동작 908에서, 스마트 줌 모드 관리부(930)는 이미지 센서(960)에 줌 인(zoom-in)에 대응하는 신호를 송신할 수 있다. 예를 들어, 사용자가 전자 장치를 손에 쥔 채, 전자 장치를 당겼다가 밀어내는 모션을 취한 경우, 스마트 줌 모드 관리부(930)는 이미지 센서(960)를 통해 획득되는 이미지를 확대시키기 위해 줌 인에 대응하는 신호를 송신할 수 있다. 줌 인에 대응하는 신호를 수신한 이미지 센서(960)는 설정된 배율을 높이고, 고배율 상태에서 이미지를 캡쳐할 수 있다.
동작 909에서, 이미지 센서(960)는 고배율 상태에서 캡쳐된 이미지의 일부를 크롭(crop)한 후, 스마트 줌 모드 관리부(930)에 송신할 수 있다. 예를 들어, 이미지 센서(960)는 고배율 상태에서 캡쳐된 이미지에서 얼굴을 식별할 수 있다. 이미지 센서(960)는 식별된 얼굴이 이미지의 중앙에 오도록 하기 위해, 캡쳐된 이미지의 일부를 크롭할 수 있다. 예를 들어, 식별된 스마트 줌에 대응하는 모션이 전자 장치를 당겼다가 밀어내는 모션(pull-push motion)일 경우, 전자 장치는 디스플레이에 표시된 프리뷰 이미지를 확대할 수 있다.
동작 910에서, 스마트 줌 모드 관리부(930)는 이미지 센서(960)로부터 수신된 이미지에 기초하여, 라이브 뷰(예: 프리뷰 이미지)를 생성할 수 있다. 스마트 줌 모드 관리부(930)는 생성된 라이브 뷰를 사용자 인터페이스(920)에 송신할 수 있다. 사용자 인터페이스(920)는 수신된 라이브 뷰를 전자 장치의 디스플레이를 통해 표시할 수 있다.
도 9b는 본 발명의 다양한 실시 예에 따라, 스마트 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
전자 장치(921)는 사용자(980)에게 거울 기능을 제공할 수 있다. 예를 들어, 전자 장치(921)는 전자 장치(921)와 D 만큼 떨어진 거리에 위치한 사용자(980)에게, 전자 장치(921)의 디스플레이에 표시된 프리뷰 이미지를 제공할 수 있다.
전자 장치(921)는 사용자(980)와 D 만큼의 거리를 유지한 상태에서, 전자 장치(921)의 디스플레이에 표시된 프리뷰 이미지를 확대하거나 축소시킬 수 있다. 예를 들어, 전자 장치(921)는 전자 장치(921)를 밀었다가 당기는 모션(push-pull motion)을 감지할 수 있다. 전자 장치(921)는 모션 센서를 통해 전자 장치에 취해진 밀었다가 당기는 모션을 식별할 수 있다. 전자 장치(921)는 식별된 밀었다가 당기는 모션에 응답하여, 디스플레이에 표시 중인 프리뷰 이미지의 크기를 전자 장치(922)와 같이 축소시킬 수 있다. 또한, 전자 장치(921)는 전자 장치(921)를 당겼다가 밀어내는 모션(pull-push motion)을 감지할 수 있다. 전자 장치(921)는 모션 센서를 통해 전자 장치에 취해진 당겼다가 밀어내는 모션을 식별할 수 있다. 전자 장치(921)는 식별된 당겼다가 밀어내는 모션에 응답하여, 디스플레이에 표시 중인 프리뷰 이미지의 크기를 전자 장치(923)와 같이 확대시킬 수 있다.
도 10a 내지 10b는 본 발명의 다양한 실시 예에 따른 전자 장치에서 리얼 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
도 10a는 본 발명의 다양한 실시 예에 따라, 리얼 줌 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(예: 프로세서(120, 210)), 이미지 센서(1050)(예: 카메라 모듈(291)), 디스플레이(예: 디스플레이(160, 260)) 및 모션 센서(예: 센서 모듈(240))를 포함할 수 있다.
프로세서는 모드 관리부(예: 501), 얼굴 검출부(1030), 거리 측정부(1040) 및 모션 분석부(예: 505)를 포함할 수 있다. 또한, 프로세서의 모드 관리부에는 리얼 줌 모드 관리부(1020)가 포함될 수 있다. 프로세서에 포함된 리얼 줌 모드 관리부(1020)는 리얼 줌 모드를 관리하는 프로그램 모듈(예: 310)을 의미할 수 있다.
일 실시 예에 따른 전자 장치에서 리얼 줌 모드가 실행되는 과정을 설명하기 위한 시퀀스 다이어그램에는, 사용자 인터페이스(1010, User Interface), 리얼 줌 모드 관리부(1020), 얼굴 검출부(1030, face detection unit), 거리 측정부(1040, distance detection unit) 및 이미지 센서(1050, image sensor)가 객체로서 포함될 수 있다.
동작 1001에서, 사용자 인터페이스(1010)는 전자 장치의 모션과 관련된 정보를 리얼 줌 모드 관리부(1020)로 송신할 수 있다. 리얼 줌 모드 관리부(1020)는 수신된 전자 장치의 모션과 관련된 정보에 리얼 줌에 대응하는 모션 중 일부가 포함되어 있는지 여부를 식별할 수 있다. 예를 들어, 리얼 줌에 대응하는 모션은 거울 기능이 실행된 상태에서 전자 장치가 미리 설정된 시간 이상 정지해있는 모션일 수 있다. 또한, 리얼 줌에 대응하는 모션은 얼굴 검출부(1030)를 통해 사용자의 정면 얼굴이 검출된 상태에서 전자 장치가 사용자의 정면 얼굴이 위치한 제1 방향으로 이동하거나 제1 방향과 반대 방향인 제2 방향으로 이동하는 모션일 수 있다. 따라서, 리얼 줌 모드 관리부(1020)는 거울 기능이 실행된 상태에서 전자 장치가 미리 설정된 시간 이상 정지해있는 것으로 판단된 경우, 동작 1002를 수행할 수 있다.
동작 1002에서, 리얼 줌 모드 관리부(1020)는 얼굴 검출부(1030)에 얼굴 검출을 요청할 수 있다. 예를 들어, 얼굴 검출부(1030)는 리얼 줌 모드 관리부(1020)로부터 얼굴 검출에 대한 요청이 수신되면, 전자 장치의 이미지 센서(1050)를 통해 적어도 하나의 이미지를 획득할 수 있다. 얼굴 검출부(1030)는 전자 장치의 이미지 센서(1050)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 있다. 획득된 적어도 하나의 이미지에서 얼굴이 검출될 경우, 얼굴 검출부(1030)는 얼굴이 검출된 영역을 식별할 수 있다. 얼굴 검출부(1030)는 검출된 얼굴 및 식별된 영역에 대한 정보를 포함하는 검출 영역 정보를 생성할 수 있다. 반면에, 전자 장치의 이미지 센서(960)로부터 획득된 적어도 하나의 이미지에서 얼굴을 검출할 수 없을 경우, 얼굴 검출부(1030)는 검출된 얼굴이 없음과 관련된 정보를 포함하는 검출 영역 정보를 생성할 수 있다.
동작 1003에서, 얼굴 검출부(1030)는 생성된 검출 영역 정보를 리얼 줌 모드 관리부(1020)에 송신할 수 있다. 리얼 줌 모드 관리부(1020)는 수신된 검출 영역 정보에 검출된 얼굴 및 식별된 영역에 대한 정보가 포함되어 있을 경우, 거리 측정부(1040)에 전자 장치와 상기 검출된 얼굴 간의 거리 측정을 요청할 수 있다.
동작 1004에서, 리얼 줌 모드 관리부(1020)는 거리 측정부(1040)에 전자 장치와 검출된 얼굴 간의 거리 측정을 요청하기 위해, 얼굴 검출부(1030)로부터 수신된 검출 영역 정보를 송신할 수 있다. 거리 측정부(1040)는 검출 영역 정보에 기초하여, 거리 측정의 대상이 되는 얼굴을 식별할 수 있다. 거리 측정부(1040)는 전자 장치에 구비된 적어도 하나의 센서를 이용하여 전자 장치와 검출된 얼굴 간의 거리를 측정할 수 있다. 거리 측정부(1040)는 측정된 거리에 대한 정보가 포함된 얼굴 거리 정보를 생성할 수 있다.
동작 1005에서, 거리 측정부(1040)는 생성된 얼굴 거리 정보를 리얼 줌 모드 관리부(1020)에 송신할 수 있다. 리얼 줌 모드 관리부(1020)는 수신된 검출 영역 정보 및 얼굴 거리 정보에 기초하여, 디스플레이에 표시된 프리뷰 이미지의 크기를 조정할 수 있다. 예를 들어, 리얼 줌 모드 관리부(1020)는 디스플레이에 표시된 프리뷰 이미지의 크기를 측정된 거리와 동일한 거리만큼 떨어진 실제 거울에 비치는 크기로 조정할 수 있다. 이를 위해, 리얼 줌 모드 관리부(1020)는 이미지 센서(1050)의 배율을 조정하기 위한 신호를 생성할 수 있다.
동작 1006에서, 리얼 줌 모드 관리부(1020)는 이미지 센서(1050)에 리얼 줌 배율과 관련된 정보를 송신할 수 있다. 예를 들어, 리얼 줌 모드 관리부(1020)는 줌 인(zoom-in) 또는 줌 아웃(zoom-out)에 대응하는 신호를 이미지 센서에 송신할 수 있다. 거리 측정부(1040)에서 측정된 전자 장치와 검출된 얼굴 간의 거리가 줄어든 경우, 리얼 줌 모드 관리부(1020)는 이미지 센서(1050)에 줌 인(zoom-in)에 대응하는 신호를 송신할 수 있다. 다시 말해, 전자 장치의 전면 카메라와 얼굴이 서로 가까워질 경우, 리얼 줌 모드 관리부(1020)는 디스플레이에 표시된 프리뷰 이미지의 크기를 확대하기 위해 이미지 센서(1050)에 줌 인(zoom-in)에 대응하는 신호를 송신할 수 있다.
또한, 거리 측정부(1040)에서 측정된 전자 장치와 검출된 얼굴 간의 거리가 늘어난 경우, 리얼 줌 모드 관리부(1020)는 이미지 센서(1050)에 줌 아웃(zoom-out)에 대응하는 신호를 송신할 수 있다. 다시 말해, 전자 장치의 전면 카메라와 얼굴이 서로 멀어질 경우, 리얼 줌 모드 관리부(1020)는 디스플레이에 표시된 프리뷰 이미지의 크기를 축소하기 위해 이미지 센서(1050)에 줌 아웃(zoom-out)에 대응하는 신호를 송신할 수 있다.
동작 1007에서, 이미지 센서(1050)는 리얼 줌 모드 관리부(1020)로부터 수신한 줌 인(zoom-in) 또는 줌 아웃(zoom-out)에 대응하는 신호에 응답하여, 고배율 또는 저배율 상태에서 적어도 하나의 이미지를 캡쳐할 수 있다. 이미지 센서(1050)는 캡쳐된 적어도 하나의 이미지의 일부를 크롭(crop)한 후, 리얼 줌 모드 관리부(1020)에 송신할 수 있다. 예를 들어, 이미지 센서(1050)는 고배율 또는 저배율 상태에서 캡쳐된 이미지에서 얼굴을 식별할 수 있다. 이미지 센서(1050)는 식별된 얼굴이 이미지의 중앙에 오도록 하기 위해, 캡쳐된 이미지의 일부를 크롭할 수 있다. 이미지 센서(1050)는 크롭된 적어도 하나의 이미지를 리얼 줌 모드 관리부(1020)에 송신할 수 있다.
동작 1008에서, 리얼 줌 모드 관리부(1020)는 이미지 센서(1050)로부터 수신된 이미지에 기초하여, 라이브 뷰(예: 프리뷰 이미지)를 생성할 수 있다. 리얼 줌 모드 관리부(1020)는 생성된 라이브 뷰를 사용자 인터페이스(1010)에 송신할 수 있다. 사용자 인터페이스(1010)는 수신된 라이브 뷰를 전자 장치의 디스플레이를 통해 표시할 수 있다.
도 10b는 본 발명의 다양한 실시 예에 따라, 리얼 줌 모드가 실행되는 과정을 설명하기 위한 도면이다.
전자 장치(1021)는 사용자(1060)에게 거울 기능을 제공할 수 있다. 예를 들어, 전자 장치(1021)는 전자 장치(1021)와 30cm만큼 떨어진 거리에 위치한 사용자(1060)에게, 전자 장치(1021)의 디스플레이에 표시된 프리뷰 이미지를 제공할 수 있다. 사용자(1060)의 얼굴과 30cm만큼 떨어진 거리에 위치한 전자 장치(1021)의 디스플레이에 표시된 프리뷰 이미지의 크기는, 사용자(1060)의 얼굴과 30cm만큼 떨어진 거리에 위치한 실제 거울에 비치는 얼굴의 크기와 동일하게 조정될 수 있다.
또한, 전자 장치(1022)는 사용자(1060)에게 거울 기능을 제공할 수 있다. 예를 들어, 전자 장치(1021)는 전자 장치(1021)와 15cm만큼 떨어진 거리에 위치한 사용자(1060)에게, 전자 장치(1021)의 디스플레이에 표시된 프리뷰 이미지를 제공할 수 있다. 사용자(1060)의 얼굴과 15cm만큼 떨어진 거리에 위치한 전자 장치(1022)의 디스플레이에 표시된 프리뷰 이미지의 크기는, 사용자(1060)의 얼굴과 15cm만큼 떨어진 거리에 위치한 실제 거울에 비치는 얼굴의 크기와 동일하게 조정될 수 있다.
사용자(1060)가 전자 장치의 전면 카메라 및 디스플레이와 대면한 상태에서, 전자 장치를 사용자의 얼굴과 가까운 위치로 이동시키는 경우, 디스플레이에 표시되는 프리뷰 이미지의 크기가 커질 수 있다. 예를 들어, 전자 장치(1022)의 디스플레이에 표시되는 프리뷰 이미지의 크기는 전자 장치(1021)의 디스플레이에 표시되는 프리뷰 이미지의 크기에 비해 클 수 있다.
도 11은 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 순서도이다.
동작 1110에서, 전자 장치의 프로세서는 카메라를 통해 획득된 적어도 하나의 이미지를 디스플레이를 통해 표시할 수 있다. 카메라 및 디스플레이 중 적어도 하나는 전자 장치에 구비되고, 전자 장치의 프로세서와 전기적으로 연결된 장치일 수 있다. 또한, 카메라 및 디스플레이 중 적어도 하나는 전자 장치와 유선 또는 무선으로 데이터를 주고 받을 수 있는 독립된 장치일 수 있다. 예를 들어, 독립된 카메라 장치는 적어도 하나의 이미지를 획득하고, 획득한 적어도 하나의 이미지를 본 발명의 일 실시 예에 따른 전자 장치에 송신할 수 있다. 본 발명의 일 실시 예에 따른 전자 장치는 독립된 디스플레이 장치를 통해, 획득된 적어도 하나의 이미지를 표시할 수 있다.
동작 1120에서, 전자 장치의 프로세서는 획득된 적어도 하나의 이미지를 디스플레이를 통해 표시하는 동안, 적어도 하나의 센서를 통해 전자 장치 또는 독립된 카메라 장치의 제1 모션을 식별할 수 있다.
동작 1130에서, 전자 장치의 프로세서는 식별된 제1 모션과 메모리에 미리 저장된 프리셋 모션을 비교할 수 있다. 예를 들어, 전자 장치의 메모리는 미리 설정된 모션에 대한 정보를 저장할 수 있다. 전자 장치의 프로세서는 식별된 제1 모션이 미리 설정된 모션들 중 일부와 일치하는지 여부를 판단할 수 있다.
동작 1140에서, 식별된 제1 모션이 미리 설정된 모션들 중 일부와 일치할 경우, 동작 1150이 수행될 수 있다. 동작 1150에서, 전자 장치의 프로세서는 제1 모션에 대응하는 신호를 생성할 수 있다.
동작 1160에서, 전자 장치의 프로세서는 생성된 신호에 기초하여, 전자 장치를 제어할 수 있다. 카메라 및 디스플레이 중 적어도 하나가 전자 장치와 유선 또는 무선으로 데이터를 주고 받을 수 있는 독립된 장치일 경우, 전자 장치의 프로세서는 생성된 신호에 기초하여, 독립된 카메라 장치 또는 독립된 디스플레이 장치를 제어할 수 있다. 예를 들어, 제1 모션에 대응하여 생성된 신호가 디스플레이에 표시되는 프리뷰 이미지의 크기를 변경하는 것일 경우, 전자 장치의 프로세서는 전자 장치의 디스플레이 또는 독립된 디스플레이 장치를 통해 표시되는 프리뷰 이미지의 크기를 변경할 수 있다.
한편, 동작 1140에서, 식별된 제1 모션이 미리 설정된 모션들 중 일부와 일치하지 않을 경우, 동작 1120이 다시 수행될 수 있다.
도 12는 본 발명의 다양한 실시 예에 따른 전자 장치에서 거울 기능이 실행되는 과정을 설명하기 위한 순서도이다.
일 실시 예에 따른 전자 장치(예: 전자 장치(101, 102, 또는 201))는, 프로세서(예: 프로세서(120, 210)), 카메라(예: 카메라 모듈(291)), 디스플레이(예: 디스플레이(160, 260)) 및 모션 센서(예: 센서 모듈(240))를 포함할 수 있다.
동작 1210에서, 전자 장치의 프로세서는 이미지 획득을 위한 신호를 수신할 수 있다. 전자 장치의 카메라는 사용자로부터 수신한 카메라 실행에 대응하는 신호 또는 전자 장치의 모션에 대응하는 신호에 기초하여 활성화될 수 있다. 예를 들어, 사용자가 카메라의 실행이 필요한 어플리케이션을 실행하는 경우, 카메라가 활성화될 수 있다. 또한, 전자 장치가 미리 설정된 모션을 감지할 경우, 카메라가 활성화될 수 있다.
동작 1220에서, 전자 장치의 프로세서는 수신된 신호에 응답하여, 전자 장치의 카메라를 통해 프리뷰 이미지를 획득할 수 있다. 프리뷰 이미지는 사용자가 전자 장치의 카메라를 이용하여 적어도 하나의 오브젝트를 촬영할 때, 디스플레이에 실시간으로 표시되는 이미지를 의미한다. 카메라를 통해 획득된 프리뷰 이미지는 디스플레이에 실시간으로 표시되며, 사용자는 디스플레이에 표시된 프리뷰 이미지를 보면서 적어도 하나의 오브젝트를 쉽게 촬영할 수 있다.
동작 1230에서, 전자 장치의 프로세서는 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 전자 장치의 모션을 식별할 수 있다.
동작 1240에서, 전자 장치의 프로세서는 전자 장치의 식별된 모션 및 프리뷰 이미지에 기초하여, 전자 장치를 제어할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 이미지 획득을 위한 신호를 수신하는 동작, 상기 수신된 신호에 응답하여, 카메라를 통해 프리뷰 이미지를 획득하는 동작, 상기 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하는 동작 및 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 식별된 제1 모션에 기초하여, 상기 카메라를 통해 상기 전자 장치 외부의 제1 오브젝트에 대한 복수의 이미지들을 획득하는 동작, 상기 복수의 이미지들 중 적어도 일부 이미지들이 획득되는 시점에 대응하는 상기 전자 장치의 기울기 또는 상기 전자 장치와 상기 제1 오브젝트 간의 거리를 식별하는 동작 및 상기 기울기 또는 상기 거리에 대한 정보를 상기 적어도 일부 이미지들과 연관시켜 메모리에 저장하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 기울기 또는 상기 거리에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 복수의 이미지들 중 하나의 이미지를 기준 이미지로 선택하는 동작 및 상기 선택된 기준 이미지에 포함된 상기 제1 오브젝트의 기울기 또는 크기에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작, 상기 제1 오브젝트의 기울기 또는 크기가 변경된 적어도 일부 이미지들을 포함하는 제1 이미지를 생성하는 동작 및 상기 제1 이미지에 포함된 제2 이미지를 상기 디스플레이를 통해 표시하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하는 동작 및 상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지를 상기 제1 이미지에 포함된 제3 이미지로 변경하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하는 동작 및 상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지의 크기를 변경하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 식별된 제1 모션이 미리 설정된 제2 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제1 스케일로 변경하여 상기 디스플레이에 표시하는 동작 및 상기 식별된 제1 모션이 미리 설정된 제3 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제2 스케일로 변경하여 상기 디스플레이에 표시하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법에 있어서, 상기 카메라를 통해 얼굴의 정면 이미지가 검출되는지 여부를 판단하는 동작, 상기 얼굴의 정면 이미지가 검출되는 경우, 상기 전자 장치와 상기 검출된 얼굴 간의 거리를 측정하는 동작, 상기 측정된 거리에 기초하여, 상기 검출된 얼굴의 정면 이미지의 크기를 조정하는 동작 및 상기 크기가 조정된 상기 얼굴의 정면 이미지를 상기 디스플레이를 통해 표시하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치를 통해 이미지를 획득하는 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체에 있어서, 이미지 획득을 위한 신호를 수신하는 동작, 상기 수신된 신호에 응답하여, 카메라를 통해 프리뷰 이미지를 획득하는 동작, 상기 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하는 동작 및 상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하는 동작을 포함하는 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (19)

  1. 전자 장치에 있어서,
    디스플레이;
    카메라;
    적어도 하나의 센서; 및
    상기 디스플레이, 상기 카메라 및 상기 적어도 하나의 센서와 전기적으로 연결된 프로세서를 포함하고,
    상기 프로세서는,
    이미지 획득을 위한 신호를 수신하고,
    상기 수신된 신호에 응답하여, 상기 카메라를 통해 프리뷰 이미지를 획득하고,
    상기 카메라를 통해 획득된 프리뷰 이미지가 상기 디스플레이를 통해 표시되는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하고,
    상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하도록 설정된 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 식별된 제1 모션에 기초하여, 상기 카메라를 통해 상기 전자 장치 외부의 제1 오브젝트에 대한 복수의 이미지들을 획득하고,
    상기 복수의 이미지들 중 적어도 일부 이미지들이 획득되는 시점에 대응하는 상기 전자 장치의 기울기 또는 상기 전자 장치와 상기 제1 오브젝트 간의 거리를 식별하고,
    상기 기울기 또는 상기 거리에 대한 정보를 상기 적어도 일부 이미지들과 연관시켜 메모리에 저장하도록 설정된 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 기울기 또는 상기 거리에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하도록 설정된 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 복수의 이미지들 중 하나의 이미지를 기준 이미지로 선택하고,
    상기 선택된 기준 이미지에 포함된 상기 제1 오브젝트의 기울기 또는 크기에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하도록 설정된 전자 장치.
  5. 제2항에 있어서,
    상기 프로세서는,
    상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하고,
    상기 제1 오브젝트의 기울기 또는 크기가 변경된 적어도 일부 이미지들을 포함하는 제1 이미지를 생성하고,
    상기 제1 이미지에 포함된 제2 이미지를 상기 디스플레이를 통해 표시하도록 설정된 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하고,
    상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지를 상기 제1 이미지에 포함된 제3 이미지로 변경하도록 설정된 전자 장치.
  7. 제5항에 있어서,
    상기 프로세서는,
    상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하고,
    상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지의 크기를 변경하도록 설정된 전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 식별된 제1 모션이 미리 설정된 제2 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제1 스케일로 변경하여 상기 디스플레이에 표시하고,
    상기 식별된 제1 모션이 미리 설정된 제3 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제2 스케일로 변경하여 상기 디스플레이에 표시하도록 설정된 전자 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 카메라를 통해 얼굴의 정면 이미지가 검출되는지 여부를 판단하고,
    상기 얼굴의 정면 이미지가 검출되는 경우, 상기 전자 장치와 상기 검출된 얼굴 간의 거리를 측정하고,
    상기 측정된 거리에 기초하여, 상기 검출된 얼굴의 정면 이미지의 크기를 조정하고,
    상기 크기가 조정된 상기 얼굴의 정면 이미지를 상기 디스플레이를 통해 표시하도록 설정된 전자 장치.
  10. 전자 장치를 통해 이미지를 획득하는 방법에 있어서,
    이미지 획득을 위한 신호를 수신하는 동작;
    상기 수신된 신호에 응답하여, 카메라를 통해 프리뷰 이미지를 획득하는 동작;
    상기 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하는 동작; 및
    상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하는 동작을 포함하는 방법.
  11. 제10항에 있어서,
    상기 식별된 제1 모션에 기초하여, 상기 카메라를 통해 상기 전자 장치 외부의 제1 오브젝트에 대한 복수의 이미지들을 획득하는 동작;
    상기 복수의 이미지들 중 적어도 일부 이미지들이 획득되는 시점에 대응하는 상기 전자 장치의 기울기 또는 상기 전자 장치와 상기 제1 오브젝트 간의 거리를 식별하는 동작; 및
    상기 기울기 또는 상기 거리에 대한 정보를 상기 적어도 일부 이미지들과 연관시켜 메모리에 저장하는 동작을 포함하는 방법.
  12. 제11항에 있어서,
    상기 기울기 또는 상기 거리에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작을 포함하는 방법.
  13. 제11항에 있어서,
    상기 복수의 이미지들 중 하나의 이미지를 기준 이미지로 선택하는 동작; 및
    상기 선택된 기준 이미지에 포함된 상기 제1 오브젝트의 기울기 또는 크기에 기초하여, 상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작을 포함하는 방법.
  14. 제11항에 있어서,
    상기 적어도 일부 이미지들에 포함된 상기 제1 오브젝트의 기울기 또는 크기를 변경하는 동작;
    상기 제1 오브젝트의 기울기 또는 크기가 변경된 적어도 일부 이미지들을 포함하는 제1 이미지를 생성하는 동작; 및
    상기 제1 이미지에 포함된 제2 이미지를 상기 디스플레이를 통해 표시하는 동작을 포함하는 방법.
  15. 제14항에 있어서,
    상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하는 동작; 및
    상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지를 상기 제1 이미지에 포함된 제3 이미지로 변경하는 동작을 포함하는 방법.
  16. 제14항에 있어서,
    상기 제2 이미지를 상기 디스플레이를 통해 표시하는 동안, 상기 적어도 하나의 센서를 통해 상기 전자 장치의 제2 모션을 식별하는 동작; 및
    상기 식별된 전자 장치의 제2 모션에 응답하여, 상기 디스플레이에 표시된 상기 제2 이미지의 크기를 변경하는 동작을 포함하는 방법.
  17. 제10항에 있어서,
    상기 식별된 제1 모션이 미리 설정된 제2 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제1 스케일로 변경하여 상기 디스플레이에 표시하는 동작; 및
    상기 식별된 제1 모션이 미리 설정된 제3 모션과 일치할 경우, 상기 카메라를 통해 획득된 프리뷰 이미지를 제2 스케일로 변경하여 상기 디스플레이에 표시하는 동작을 포함하는 방법.
  18. 제10항에 있어서,
    상기 카메라를 통해 얼굴의 정면 이미지가 검출되는지 여부를 판단하는 동작;
    상기 얼굴의 정면 이미지가 검출되는 경우, 상기 전자 장치와 상기 검출된 얼굴 간의 거리를 측정하는 동작;
    상기 측정된 거리에 기초하여, 상기 검출된 얼굴의 정면 이미지의 크기를 조정하는 동작; 및
    상기 크기가 조정된 상기 얼굴의 정면 이미지를 상기 디스플레이를 통해 표시하는 동작을 포함하는 방법.
  19. 전자 장치를 통해 이미지를 획득하는 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체에 있어서,
    이미지 획득을 위한 신호를 수신하는 동작;
    상기 수신된 신호에 응답하여, 카메라를 통해 프리뷰 이미지를 획득하는 동작;
    상기 카메라를 통해 획득된 프리뷰 이미지가 디스플레이를 통해 표시되는 동안, 적어도 하나의 센서를 통해 상기 전자 장치의 제1 모션을 식별하는 동작;
    상기 식별된 제1 모션 및 상기 프리뷰 이미지에 기초하여, 상기 전자 장치를 제어하는 동작을 포함하는 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.
KR1020170002506A 2017-01-06 2017-01-06 촬영 방법 및 전자 장치 KR102289837B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170002506A KR102289837B1 (ko) 2017-01-06 2017-01-06 촬영 방법 및 전자 장치
US15/833,580 US10574895B2 (en) 2017-01-06 2017-12-06 Image capturing method and camera equipped electronic device
PCT/KR2018/000191 WO2018128421A1 (en) 2017-01-06 2018-01-04 Image capturing method and electronic device
EP18150409.3A EP3346696B1 (en) 2017-01-06 2018-01-05 Image capturing method and electronic device
CN201810010063.3A CN108279832B (zh) 2017-01-06 2018-01-05 图像采集方法和电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170002506A KR102289837B1 (ko) 2017-01-06 2017-01-06 촬영 방법 및 전자 장치

Publications (2)

Publication Number Publication Date
KR20180081362A true KR20180081362A (ko) 2018-07-16
KR102289837B1 KR102289837B1 (ko) 2021-08-17

Family

ID=60971997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170002506A KR102289837B1 (ko) 2017-01-06 2017-01-06 촬영 방법 및 전자 장치

Country Status (5)

Country Link
US (1) US10574895B2 (ko)
EP (1) EP3346696B1 (ko)
KR (1) KR102289837B1 (ko)
CN (1) CN108279832B (ko)
WO (1) WO2018128421A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111464746A (zh) * 2020-04-20 2020-07-28 维沃移动通信(杭州)有限公司 拍照方法及电子设备
KR20210083635A (ko) * 2019-12-27 2021-07-07 한국전자통신연구원 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치
KR102336545B1 (ko) * 2021-05-18 2021-12-07 황규성 무선 통신 시스템에서 배달 라이더를 이용하여 사고 영상 데이터를 획득하기 위한 방법 및 장치
WO2022154164A1 (ko) * 2021-01-13 2022-07-21 삼성전자 주식회사 화각을 조정할 수 있는 전자 장치 및 그 동작 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
KR102475990B1 (ko) * 2018-09-11 2022-12-09 캐논 가부시끼가이샤 전자기기, 그 제어 방법 및 기억매체
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10986287B2 (en) * 2019-02-19 2021-04-20 Samsung Electronics Co., Ltd. Capturing a photo using a signature motion of a mobile device
KR102664705B1 (ko) * 2019-02-19 2024-05-09 삼성전자주식회사 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법
US11308618B2 (en) 2019-04-14 2022-04-19 Holovisions LLC Healthy-Selfie(TM): a portable phone-moving device for telemedicine imaging using a mobile phone
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
KR20210017081A (ko) * 2019-08-06 2021-02-17 삼성전자주식회사 객체에 대응하는 그래픽 요소 표시 방법 및 장치
CN111012023B (zh) * 2019-12-17 2022-12-13 中山市大牌镜业有限公司 一种基于影像分析的智能美妆化妆镜
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN112036310A (zh) * 2020-08-31 2020-12-04 北京字节跳动网络技术有限公司 一种图片处理方法、装置、设备及存储介质
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN115379112A (zh) * 2020-09-29 2022-11-22 华为技术有限公司 一种图像处理方法及相关装置
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN114500851A (zh) * 2022-02-23 2022-05-13 广州博冠信息科技有限公司 视频录制方法及装置、存储介质、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160084208A (ko) * 2015-01-05 2016-07-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160134428A (ko) * 2015-05-13 2016-11-23 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289519A (ja) * 1998-04-02 1999-10-19 Sony Corp 再生装置
KR100678059B1 (ko) 2001-06-21 2007-02-01 삼성전자주식회사 거울기능을 가지는 휴대용 복합 통신단말기 및 그 구현방법
JP2004240878A (ja) * 2003-02-07 2004-08-26 Nec Corp 携帯型電子機器、表示方向切り替え方法およびプログラム
JP4612866B2 (ja) * 2005-05-20 2011-01-12 キヤノン株式会社 撮像方法および撮像システム
EP1843587A1 (en) * 2006-04-05 2007-10-10 STMicroelectronics S.r.l. Method for the frame-rate conversion of a digital video signal and related apparatus
TWI313426B (en) * 2006-06-13 2009-08-11 Sunplus Technology Co Ltd Method for screen browsing and portable electronic device using the same
JP2008277983A (ja) 2007-04-26 2008-11-13 Funai Electric Co Ltd テレビジョン受像機
US8004502B2 (en) * 2007-10-05 2011-08-23 Microsoft Corporation Correcting for ambient light in an optical touch-sensitive device
US8295344B2 (en) * 2007-10-22 2012-10-23 Broadcom Corporation Adaptive rate control for encoding of variable frame rate video sources
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
KR101531167B1 (ko) 2008-12-11 2015-06-24 삼성전자주식회사 디지털 촬영 장치의 움직임에 따른 촬영 제어 방법 및 장치
US8619029B2 (en) * 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8933960B2 (en) * 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
KR101603112B1 (ko) 2009-10-20 2016-03-14 엘지전자 주식회사 필터링 방법 및 필터링 기능을 구비한 촬상장치
US8634871B2 (en) * 2010-02-12 2014-01-21 Kyocera Corporation Mobile electronic device
US8957981B2 (en) * 2010-03-03 2015-02-17 Intellectual Ventures Fund 83 Llc Imaging device for capturing self-portrait images
US8538120B2 (en) * 2010-08-19 2013-09-17 Aptina Imaging Corporation System for targeting cells or other materials
KR101817650B1 (ko) * 2010-09-08 2018-01-11 삼성전자주식회사 초점 조절 장치
KR101794350B1 (ko) 2011-02-08 2017-12-04 삼성전자주식회사 휴대단말기의 영상 촬영 방법
WO2012115253A1 (ja) * 2011-02-24 2012-08-30 京セラ株式会社 電子機器、画像表示方法及び画像表示プログラム
US9729788B2 (en) 2011-11-07 2017-08-08 Sony Corporation Image generation apparatus and image generation method
US9690635B2 (en) * 2012-05-14 2017-06-27 Qualcomm Incorporated Communicating behavior information in a mobile computing device
US9288374B1 (en) * 2012-09-10 2016-03-15 Amazon Technologies, Inc. Systems and methods for updating camera characteristics using a remote computing device
KR102013443B1 (ko) * 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
WO2014088125A1 (ko) 2012-12-04 2014-06-12 엘지전자 주식회사 영상 촬영 장치 및 그 방법
DE102012112122A1 (de) * 2012-12-11 2014-06-12 Schmidt & Bender Gmbh & Co. Kg Zielfernrohr mit Elektronikmodul, Elektronikmodul für ein Zielfernrohr und Programmieradapter für Elektronikmodul
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
WO2014109125A1 (ja) 2013-01-09 2014-07-17 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR102023179B1 (ko) * 2013-02-21 2019-09-20 삼성전자주식회사 듀얼 카메라를 포함하는 전자장치에서 듀얼 리코딩 촬영을 위한 방법 및 장치
KR102018887B1 (ko) * 2013-02-21 2019-09-05 삼성전자주식회사 신체 부위 검출을 이용한 이미지 프리뷰
KR102076771B1 (ko) * 2013-02-21 2020-02-12 삼성전자주식회사 다수의 이미지 동시 포착
US9106821B1 (en) * 2013-03-13 2015-08-11 Amazon Technologies, Inc. Cues for capturing images
US9195880B1 (en) * 2013-03-29 2015-11-24 Google Inc. Interactive viewer for image stacks
KR102047704B1 (ko) * 2013-08-16 2019-12-02 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR20150063828A (ko) * 2013-12-02 2015-06-10 삼성전자주식회사 터치 스크린의 데이터 처리 방법, 저장 매체 및 전자 장치
KR102187236B1 (ko) 2013-12-17 2020-12-04 삼성전자 주식회사 프리뷰 방법 및 이를 구현하는 전자 장치
KR102326275B1 (ko) 2014-02-25 2021-11-16 삼성전자주식회사 이미지 표시 방법 및 장치
US9158604B1 (en) * 2014-05-13 2015-10-13 Qualcomm Incorporated Lightweight data-flow tracker for realtime behavioral analysis using control flow
KR102158214B1 (ko) * 2014-05-19 2020-09-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9288396B2 (en) * 2014-05-30 2016-03-15 Apple Inc. Camera timer
US20160219199A1 (en) * 2015-01-23 2016-07-28 Gary Streuter Reflective Selfie Device
US9940521B2 (en) * 2015-02-27 2018-04-10 Sony Corporation Visibility enhancement devices, systems, and methods
KR20170030789A (ko) * 2015-09-10 2017-03-20 엘지전자 주식회사 스마트 디바이스 및 이의 제어방법
US9854156B1 (en) * 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160084208A (ko) * 2015-01-05 2016-07-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160134428A (ko) * 2015-05-13 2016-11-23 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083635A (ko) * 2019-12-27 2021-07-07 한국전자통신연구원 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치
CN111464746A (zh) * 2020-04-20 2020-07-28 维沃移动通信(杭州)有限公司 拍照方法及电子设备
WO2022154164A1 (ko) * 2021-01-13 2022-07-21 삼성전자 주식회사 화각을 조정할 수 있는 전자 장치 및 그 동작 방법
KR102336545B1 (ko) * 2021-05-18 2021-12-07 황규성 무선 통신 시스템에서 배달 라이더를 이용하여 사고 영상 데이터를 획득하기 위한 방법 및 장치

Also Published As

Publication number Publication date
CN108279832A (zh) 2018-07-13
EP3346696A1 (en) 2018-07-11
US10574895B2 (en) 2020-02-25
EP3346696B1 (en) 2022-11-16
WO2018128421A1 (en) 2018-07-12
KR102289837B1 (ko) 2021-08-17
US20180198982A1 (en) 2018-07-12
CN108279832B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
KR102289837B1 (ko) 촬영 방법 및 전자 장치
US10871798B2 (en) Electronic device and image capture method thereof
CN110462572B (zh) 电子装置及其控制方法
EP3869790B1 (en) Electronic device and image capturing method thereof
KR102537922B1 (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
US11006030B2 (en) Method and electronic device for acquiring image by using camera comprising driving apparatus capable of rotating mirror
KR102620138B1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
KR20180106076A (ko) 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
KR20180042718A (ko) 영상을 촬영하는 전자 장치
KR20170019823A (ko) 이미지 처리 방법 및 이를 지원하는 전자장치
KR102584187B1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR20180090696A (ko) 이미지를 촬영하는 센서 및 그 제어 방법
KR20170097884A (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
KR20180006782A (ko) 영상의 초점을 제어하는 전자 장치와 이의 동작 방법
KR20180094290A (ko) 전자 장치 및 전자 장치의 수중 촬영 판단 방법
KR20180096170A (ko) 전자 장치 및 전자 장치에서 360도 영상 디스플레이 방법
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR102467869B1 (ko) 전자 장치 및 그의 동작 방법
KR20180043098A (ko) 영상을 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR20170019595A (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20180108280A (ko) 포커스에 대한 그래픽 인디케이터를 제공하는 전자 장치와 이의 동작 방법
KR20180075203A (ko) 전자 장치 및 전자 장치 제어 방법
KR20180109204A (ko) 전자 장치 및 그의 이미지 처리 방법
KR20180060786A (ko) 전자 장치 및 전자 장치의 자동 초점 방법
KR20180018213A (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant