KR20160146037A - 카메라의 초점을 변경하는 방법 및 장치 - Google Patents

카메라의 초점을 변경하는 방법 및 장치 Download PDF

Info

Publication number
KR20160146037A
KR20160146037A KR1020150082572A KR20150082572A KR20160146037A KR 20160146037 A KR20160146037 A KR 20160146037A KR 1020150082572 A KR1020150082572 A KR 1020150082572A KR 20150082572 A KR20150082572 A KR 20150082572A KR 20160146037 A KR20160146037 A KR 20160146037A
Authority
KR
South Korea
Prior art keywords
camera
subject
focus
image
user
Prior art date
Application number
KR1020150082572A
Other languages
English (en)
Other versions
KR102404790B1 (ko
Inventor
최현수
김창한
정문식
김소원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150082572A priority Critical patent/KR102404790B1/ko
Priority to PCT/KR2016/005921 priority patent/WO2016200102A1/ko
Priority to US15/576,501 priority patent/US10630887B2/en
Publication of KR20160146037A publication Critical patent/KR20160146037A/ko
Priority to KR1020220065553A priority patent/KR102458344B1/ko
Application granted granted Critical
Publication of KR102404790B1 publication Critical patent/KR102404790B1/ko
Priority to KR1020220135236A priority patent/KR102494698B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23212
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • H04N13/0429
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

웨어러블 디바이스를 사용하여 피사체에 대하여 사용자가 초점을 변경할 특정 위치로 카메라의 초점을 변경하는 방법 및 웨어러블 디바이스를 제공한다. 웨어러블 디바이스는 카메라의 프리뷰 화면에 표시되는 피사체의 이미지를 표시할 수 있고, 피사체의 이미지 상의 특정 위치로 초점을 변경하고자 하는 사용자 입력을 수신할 수 있다. 웨어러블 디바이스는 사용자 입력에 기초하여 카메라에게 초점 변경을 요청할 수 있다.

Description

카메라의 초점을 변경하는 방법 및 장치{METHOD AND APPARATUS FOR CHANGING FOCUS OF CAMERA}
본 개시는 피사체를 촬영하는 카메라의 초점을 변경하는 사용자 입력을 수신하고, 카메라에게 초점 변경을 요청하는 방법 및 장치에 관한 것이다.
카메라를 이용하여 사진을 찍거나 영상을 촬영할 때, 사용자는 본인이 원하는 부위를 선명하게 보고자 하는 욕구를 가지고 있다. 최근 DSLR(DSLR(Digital Single Lens Reflex) 카메라와 같은 고성능 카메라의 대중화에 따라 사용자의 아웃 포커스(Out-Focus) 효과와 같은 포커싱(Focusing) 기능에 대한 요구가 증가되고 있다.
포커싱 기능의 구현은 사용자가 직접 촬영되는 피사체의 이미지를 관찰하며 촬영할 때는 카메라의 인터페이스를 사용하여 수행될 수 있다. 그러나, 사용자 스스로가 피사체가 되어 사진을 찍는 상황에서는 카메라의 초점을 제어하여 사진을 촬영하는 것은 어려움이 있다.
본 개시는, 웨어러블 디바이스를 이용하여 피사체를 촬영하는 카메라의 초점을 변경할 수 있는 방법을 제공한다.
또한, 본 개시의 일 실시예는, 피사체를 촬영하는 카메라의 초점을 변경하는 사용자 입력을 수신하고, 상기 사용자 입력에 기초하여 상기 카메라가 초점을 변경하게 하는 웨어러블 디바이스를 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 카메라의 프리뷰 화면에 표시되고 상기 카메라에 의해 촬영될 적어도 하나의 피사체를 포함하는 피사체의 이미지를 상기 카메라로부터 수신하는 단계; 상기 카메라와 연동하여 상기 수신된 피사체의 이미지를 상기 웨어러블 디바이스의 디스플레이 상에 표시하는 단계; 상기 디스플레이 상에 표시된 상기 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하기 위한 제1 사용자 입력을 수신하는 단계; 및 상기 제1 사용자 입력에 기초하여 상기 카메라의 초점 변경을 상기 카메라에게 요청하는 단계; 를 포함하는, 웨어러블 디바이스가 피사체를 촬영하는 카메라의 초점을 변경하는 방법을 제공할 수 있다.
또한, 상기 디스플레이는 터치 입력을 수신하는 터치스크린을 포함하고, 상기 제1 사용자 입력을 수신하는 단계는, 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경될 카메라의 초점 위치를 선택하는 사용자의 터치 입력을 수신할 수 있다.
또한, 상기 웨어러블 디바이스는 터치 입력을 수신하는 터치 인터페이스 장치를 포함하고, 상기 제1 사용자 입력을 수신하는 단계는, 상기 터치 인터페이스 장치를 통해 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경할 카메라의 초점 위치를 선택하는 사용자 입력을 수신할 수 있다.
또한, 상기 웨어러블 디바이스는 상기 웨어러블 디바이스를 사용하는 사용자의 눈동자의 움직임을 추적하는 아이 트래커(Eye tracker)를 포함하고, 상기 제1 사용자 입력을 수신하는 단계는, 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경될 카메라의 초점 위치를 선택하는 사용자의 눈동자의 움직임을 상기 아이 트래커를 통해 인식할 수 있다.
또한, 상기 제1 사용자 입력을 수신하는 단계는, 상기 변경될 카메라의 초점 위치에 상기 눈동자의 시선이 기설정된 시간동안 유지되는지 여부를 인식하는 단계를 포함할 수 있다.
또한, 상기 제1 사용자 입력을 수신하는 단계는, 상기 변경될 카메라의 초점 위치에 상기 눈동자의 시선이 유지되는 동안에 기설정된 횟수만큼 상기 사용자의 눈이 깜박이는지 여부를 인식하는 단계를 포함할 수 있다.
또한, 상기 카메라가 상기 요청에 따라 변경된 카메라의 초점으로 상기 피사체를 촬영하도록 요청하는 제2 사용자 입력을 수신하는 단계; 를 더 포함할 수 있다.
또한, 상기 웨어러블 디바이스는 터치 입력을 수신하는 터치스크린을 포함하고, 상기 제2 사용자 입력을 수신하는 단계는, 상기 터치스크린 상의 특정 영역을 터치하는 사용자의 터치 입력을 수신할 수 있다.
또한, 상기 웨어러블 디바이스는 상기 웨어러블 디바이스를 사용하는 사용자의 공간 제스처를 인식하는 공간 제스처 인식 장치를 포함하고, 상기 제1 사용자 입력을 수신하는 단계는, 상기 공간 제스처 인식 장치를 통해 상기 디스플레이에 표시된 피사체의 이미지 내에서 변경할 카메라의 초점 위치를 선택하는 사용자 입력을 수신할 수 있다.
본 개시의 제2 측면은, 카메라의 프리뷰 화면에 표시되고 상기 카메라에 의해 촬영될 적어도 하나의 피사체를 포함하는 피사체의 이미지의 데이터를 상기 카메라로부터 수신하는 통신부; 상기 피사체의 이미지를 표시하는 디스플레이부; 상기 디스플레이부에 표시되는 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하는 제1 사용자 입력을 수신하는 사용자 입력부; 및 상기 디스플레이부 상에 표시되는 상기 피사체의 이미지와 상기 카메라의 프리뷰 화면에 표시되는 피사체의 이미지를 연동하고, 상기 제1 사용자 입력에 기초하여 상기 카메라가 상기 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하도록 요청하는 제어부; 를 포함하는, 피사체를 촬영하는 카메라의 초점을 변경하는 웨어러블 디바이스를 제공할 수 있다.
또한, 상기 통신부는 피사체를 촬영하기 위하여 상기 카메라에 의해 촬영될 상기 피사체의 이미지의 데이터를 상기 카메라로부터 근거리 무선 통신 신호를 통하여 수신할 수 있다.
또한, 상기 사용자 입력부는 상기 디스플레이부에 표시된 피사체의 이미지 내의 카메라의 초점을 변경할 특정 위치를 선택하는 사용자의 터치 입력을 수신할 수 있다.
또한, 상기 사용자 입력부는 상기 디스플레이부 상에 표시된 피사체의 이미지 내에서 카메라의 초점을 변경할 특정 위치로 이동시키는 사용자 입력을 수신하는 터치 인터페이스 장치일 수 있다.
또한, 상기 사용자 입력부는 상기 디스플레이부에 표시되는 피사체의 이미지 내에서 카메라의 초점을 변경할 특정 위치에 대한 상기 사용자의 눈동자의 움직임을 인식하는 아이 트래커이고, 상기 제어부는 상기 카메라의 초점을 상기 아이 트래커를 통해 인식한 상기 피사체의 이미지 내의 특정 위치를 기초로 하여 변경할 수 있다.
또한, 상기 아이 트래커는 상기 사용자가 카메라의 초점을 변경할 특정 위치에서 상기 눈동자의 시선이 기설정된 시간동안 유지되는지 여부를 인식하고, 상기 제어부는, 상기 눈동자의 시선이 유지되는 특정 위치를 기초로 하여 상기 카메라의 초점을 변경할 수 있다.
또한, 상기 아이 트래커는 상기 사용자가 카메라의 초점을 변경할 특정 위치에서 기설정된 횟수만큼 상기 사용자의 눈을 깜빡이는지 여부를 인식할 수 있다.
또한, 상기 사용자 입력부는 상기 카메라가 상기 제1 사용자 입력에 기초하여 변경된 카메라의 초점으로 상기 피사체를 촬영하도록 요청하는 제2 사용자 입력을 수신하고, 상기 제어부는 상기 제2 사용자 입력에 기초하여 상기 카메라가 상기 피사체를 촬영하도록 상기 카메라를 제어할 수 있다.
또한, 상기 웨어러블 디바이스를 사용하는 사용자의 공간 제스처를 인식하는 공간 제스처 인식부; 를 더 포함하고, 상기 공간 제스처 인식부는 상기 디스플레이부에 표시되는 상기 피사체의 이미지 내에서 변경할 카메라의 초점의 위치를 선택하는 사용자 입력을 수신할 수 있다.
본 개시의 제3 측면은, 상기 제1 측면인, 웨어러블 디바이스가 피사체에 대한 카메라의 초점을 변경하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
카메라를 사용하는 사용자가 스스로가 피사체가 되어 사진을 촬영하는 상황에서 카메라의 초점을 사용자가 원하는 지점으로 설정할 수 있다.
도 1은 본 개시의 일 실시예에 따른 손목형 웨어러블 디바이스를 사용하여 피사체에 대한 카메라의 초점을 변경하는 방법을 도시하는 도면이다.
도 2는 본 개시의 일 실시예에 따른 손목형 웨어러블 디바이스를 사용하여 피사체에 대한 카메라의 초점을 변경하는 방법을 나타내는 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 손목형 웨어러블 디바이스가 피사체에 대한 카메라의 초점을 변경하는 방법을 나타내는 흐름도이다.
도 4(a)는 본 개시의 일 실시예에 따른 피사체에 대한 카메라의 초점을 변경하는 사용자 입력을 수신하는 손목형 웨어러블 디바이스를 도시한 도면이고, 도 4(b)는 본 개시의 일 실시예에 따른 피사체에 대한 초점이 변경된 카메라를 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 안경형 웨어러블 디바이스를 사용하여 피사체에 대한 카메라의 초점을 변경하는 방법을 도시하는 도면이다.
도 6(a)와 도 6(b)는 본 개시의 일 실시예에 따른 안경형 웨어러블 디바이스를 사용하여 피사체에 대한 카메라의 초점을 변경하는 방법을 도시하는 도면들이다.
도 7은 본 개시의 일 실시예에 따른 안경형 웨어러블 디바이스를 이용하여 변경된 초점으로 피사체를 촬영하는 방법을 나타내는 흐름도이다.
도 8(a) 및 도 8(b)는 본 개시의 일 실시예에 따른 웨어러블 디바이스를 이용하여 변경된 초점으로 피사체를 촬영하는 방법을 각각 도시한 도면들이다.
도 9 내지 도 11은 본 개시의 일 실시예에 따른 웨어러블 디바이스의 블록도이다.
도 12는 본 개시의 일 실시예에 따른 카메라가 사용자의 제스쳐를 인식하여 피사체에 대한 초점을 변경하는 방법을 도시한 도면이다.
도 13은 본 개시의 일 실시예에 따른 카메라가 사용자의 제스쳐를 인식하고, 인식된 객체로 초점을 변경하는 방법을 설명하기 위한 흐름도이다.
도 14은 본 개시의 일 실시예에 따른 카메라의 구성 요소를 나타내는 블록도이고, 도 15는 본 개시의 일 실시예에 따른 카메라가 객체를 인지하는 방법을 설명하는 도면이다.
도 16은 본 개시의 일 실시예에 따른 카메라의 구성 요소를 나타내는 블록도이고, 도 17은 본 개시의 일 실시예에 따른 카메라가 객체를 인지하는 방법을 설명하는 도면이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)를 사용하여 피사체(100)에 대한 카메라(2000)의 초점을 변경하는 방법을 도시하는 도면이다.
도 1에 도시된 바와 같이, 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)는 피사체(100)를 촬영하는 카메라(2000)의 초점을 변경하는 사용자 입력을 수신할 수 있다. 웨어러블 디바이스(1000)는 카메라(2000)의 사진 촬영의 대상이 되는 피사체(100)에 포함되는 사용자의 신체 일부에 착용할 수 있는 컴퓨팅 장치일 수 있다. 웨어러블 디바이스(1000)는 디스플레이부(1110)를 포함할 수 있다. 일 실시예에서, 웨어러블 디바이스(1000)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경 또는 헤어 밴드일 수 있으나, 이에 제한되지 않는다. 웨어러블 디바이스(1000)는 카메라(2000)와 유선 또는 무선으로 서로 연결될 수 있다. 웨어러블 디바이스(1000)는 카메라(2000)에 근거리 무선 통신 신호를 전송할 수 있고, 카메라(2000)의 프리뷰 디스플레이(2100)에 표시되는 피사체의 이미지(201)과 웨어러블 디바이스(1000)의 디스플레이부(1110)에 표시되는 피사체의 이미지(101)을 서로 연동될 수 있다. 일 실시예에서, 웨어러블 디바이스(1000)는 카메라(2000)와 블루투스(Bluetooth), BLE(Bluetooth Low Energy), NFC(Near Field Communication), RFID(Radio Frequency Identification) 및 와이파이(WiFi) 중 적어도 하나의 근거리 무선 통신 방법으로 서로 페어링(Pairing)될 수 있다.
카메라(2000)는 프리뷰 디스플레이(2100) 및 렌즈부(2200)를 포함할 수 있다. 또한, 일 실시예에서, 카메라(2000)는 이미지 센서(미도시), 메모리(미도시) 및 통신 모듈(미도시)를 더 포함할 수 있다. 렌즈부(2200)는 피사체(100)에 대한 영상을 촬영하여 이미지 센서(미도시)에 전송하며, 프리뷰 디스플레이(2100)는 이미지 센서에서 처리된 피사체의 이미지(201)를 표시할 수 있다. 카메라(2000)는 피사체(100)에 대하여 초점을 자동으로 맞추는 오토 포커스(Auto-Focus) 기능 및 특정 피사체에 대하여 초점을 맞추거나 변경하는 사용자 입력을 수신하여 초점을 맞추거나 변경하는 수동 초점 기능을 가질 수 있다. 카메라(2000)는 근거리 무선 통신 신호를 통하여 주변에 위치하는 외부 디바이스들과 연동될 수 있다. 일 실시예에서, 카메라(2000)는 웨어러블 디바이스(1000)와 블루투스 또는 와이파이와 같은 무선 통신 신호를 사용하여 페어링될 수 있다. 카메라(2000)는 렌즈부(2200)를 통해 촬영하여 이미지 센서에서 이미지 처리된 피사체의 이미지(201)에 대한 데이터를 웨어러블 디바이스(1000)로 전송할 수 있다. 카메라(2000)는 삼각대와 같은 거치대(3000) 상에 거치될 수 있다.
본 개시의 일 실시예에서, 웨어러블 디바이스(1000)는 카메라(2000)와 동기화될 수 있고, 카메라(2000)가 촬영한 피사체(100)에 대한 이미지 데이터를 전송받아 디스플레이부(1110)에 표시할 수 있다. 디스플레이부(1110)에 표시되는 피사체의 이미지(101)는 카메라(2000)의 프리뷰 디스플레이(2100)에 표시되는 이미지(201)와 서로 동기화될 수 있다. 또한, 웨어러블 디바이스(1000)는 디스플레이부(1110)에 표시되는 피사체의 이미지(101) 상의 특정 위치로 초점을 맞추거나 변경하고자 하는 사용자 입력을 수신할 수 있다. 일 실시예에서, 디스플레이부(1110)는 터치스크린일 수 있고, 피사체의 이미지(101)의 특정 위치로 카메라(2000)의 초점을 변경하기 위한 사용자의 터치 입력을 수신할 수 있다. 웨어러블 디바이스(1000)는 피사체의 이미지(101) 상의 특정 위치로 초점을 변경하는 사용자 입력을 수신하고, 수신된 사용자 입력에 기초한 변경된 초점에 관한 데이터를 카메라(2000)에 전송할 수 있다. 카메라(2000)는 웨어러블 디바이스(1000)로부터 수신한 변경된 초점에 관한 데이터를 기초로 초점을 변경할 수 있다.
도 1에 도시된 실시예는, 카메라(2000)를 사용하여 사진을 촬영하는 사용자가 직접 피사체(100)가 되는 경우 웨어러블 디바이스(1000)를 통하여 카메라(2000)의 초점을 변경하는 방법을 제공할 수 있다. 구체적으로, 웨어러블 디바이스(1000)는 카메라(2000)와 근거리 무선 통신 방법으로 디스플레이되는 피사체의 이미지를 동기화하고, 사용자는 카메라(2000)를 통하여 촬영하는 피사체의 이미지(101)를 웨어러블 디바이스(1000)의 디스플레이부(1110)를 통해 보면서 초점을 맞추거나 변경하고자 하는 위치를 터치 방법 등으로 입력하여 카메라(2000)의 초점을 변경할 수 있다. 또한, 웨어러블 디바이스(1000)는 변경된 초점으로 사진을 촬영하도록 카메라(2000)의 촬영 제어를 할 수도 있다.
따라서, 본 개시의 일 실시예는 사용자가 직접 피사체(100)가 되는 경우에 사용자가 원하는 부분으로 초점이 맞춰진 사진을 제공할 수 있다.
도 2는 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)를 사용하여 피사체(100)에 대한 카메라(2000)의 초점을 변경하는 방법을 나타내는 흐름도이다.
단계 S201에서, 웨어러블 디바이스(1000)는 카메라(2000)에 의해 촬영될 피사체의 이미지를 카메라(2000)로부터 수신한다. 웨어러블 디바이스(1000)는 근거리 무선 통신 방법을 사용하여 카메라(2000)로부터 피사체의 이미지의 데이터를 수신할 수 있다. 일 실시예에서, 웨어러블 디바이스(1000)는 카메라(2000)와 블루투스(Bluetooth), BLE(Bluetooth Low Energy), NFC(Near Field Communication), RFID(Radio Frequency Identification) 및 와이파이(WiFi) 중 적어도 하나의 근거리 무선 통신 방법으로 서로 페어링(Pairing)될 수 있다.
단계 S202에서, 웨어러블 디바이스(1000)는 수신된 피사체의 이미지를 웨어러블 디바이스의 디스플레이부에 표시한다. 일 실시예에서, 웨어러블 디바이스(1000)의 디스플레이부에 표시되는 피사체의 이미지는 카메라(2000)의 디스플레이부에 표시되는 피사체의 이미지와 동일하도록 웨어러블 디바이스(1000)와 카메라(2000)는 서로 동기화될 수 있다.
단계 S203에서, 웨어러블 디바이스(1000)에서 피사체의 이미지 내의 특정 위치로 카메라(2000)의 초점을 변경하기 위한 제1 사용자 입력을 수신한다. 일 실시예에서, 제1 사용자 입력은 웨어러블 디바이스(1000)에 표시되는 피사체의 이미지(101)의 특정 위치를 터치하는 사용자 입력일 수 있다. 다른 실시예에서, 웨어러블 디바이스(1000)는 터치 인터페이스 장치를 포함할 수 있고, 제1 사용자 입력은 터치 인터페이스 장치에 터치 입력을 하거나 문지르는 입력(Swipe 입력)을 통해 초점을 변경하는 사용자 입력일 수 있다.
단계 S204에서, 카메라(2000)는 제1 사용자 입력에 기초하여 피사체(100)의 특정 위치로 초점 변경을 카메라(2000)에 요청한다. 일 실시예에서, 웨어러블 디바이스(1000)는 제1 사용자 입력에 기초한 초점 변경 신호를 부호화하여 근거리 무선 통신 방법을 통해 카메라(2000)에게 전송할 수 있다. 카메라(2000)는 웨어러블 디바이스(1000)로부터 제1 사용자 입력에 기초한 피사체(100)에 대한 초점 정보를 수신할 수 있다. 카메라(2000)는 수신한 초점 정보에 기초하여 피사체(100)에 대한 초점을 변경할 수 있다.
도 3은 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)가 피사체(100) 내의 특정 위치로 카메라(2000)의 초점을 변경하는 방법을 나타내는 흐름도이다.
단계 S301에서, 웨어러블 디바이스(1000)는 카메라(2000)와 동기화를 위한 근거리 무선 통신 신호를 카메라(2000)에게 전송한다. 단계 S302에서, 카메라(2000)는 웨어러블 디바이스(1000)에게 웨어러블 디바이스(1000)와 동기화하는 근거리 무선 통신 신호를 전송한다. 일 실시예에서, 웨어러블 디바이스(1000)와 카메라(2000)가 서로 전송하고, 수신하는 근거리 무선 통신 신호는 블루투스, BLE(Bluetooth Low Energy), NFC(Near Field Communication), RFID(Radio Frequency Identification), 와이파이, 비콘(Beacon), 지그비(Zigbee) 통신 및 UWB(Ultra Wide Band) 통신을 포함할 수 있으나, 이에 제한되지 않는다. 또한, 웨어러블 디바이스(1000)와 카메라(2000)는 근거리 무선 통신 신호만을 전송하는 것은 아니고, 이동 통신 사업자가 제공하는 셀룰러 네트워크를 이용하는 무선 통신 방법, 광 케이블, UTP 케이블, 동축 케이블 중 적어도 하나를 이용하는 유선 통신 방법을 이용하여 동기화 신호를 전송할 수 있다.
단계 S301 및 단계 S302에서 웨어러블 디바이스(1000) 및 카메라(2000)는 동기화를 위하여 서로 페어링될 수 있다.
단계 S303에서, 카메라(2000)는 렌즈부(2200, 도 1 참조)가 촬영될 피사체의 이미지(101)에 관한 데이터를 웨어러블 디바이스(1000)에 전송한다. 피사체의 이미지(101)에 관한 데이터는 카메라(2000)의 렌즈부(2200)에서 촬영한 피사체(100)를 이미지 센서에서 이미지화하고 이를 부호화하여 데이터화한 것으로, 근거리 무선 통신 방법으로 웨어러블 디바이스(1000)에 전송될 수 있다.
단계 S304에서, 웨어러블 디바이스(1000)는 카메라(2000)가 촬영될 피사체의 이미지(101)를 디스플레이부(1110)에 표시한다. 디스플레이부(1110)에 표시되는 피사체의 이미지(101)는 카메라(2000)의 프리뷰 디스플레이(2100)에 표시되는 이미지(201, 도 1 참조)와 동기화될 수 있다.
단계 S305에서, 웨어러블 디바이스(1000)는 피사체(100)의 특정 위치로 초점을 변경하는 사용자 입력을 수신한다. 일 실시예에서, 웨어러블 디바이스(1000)는 디스플레이부(1110) 상에 형성되는 터치스크린을 포함할 수 있고, 디스플레이부(1110) 상에 표시되는 피사체의 이미지(101)의 특정 위치를 터치하는 사용자 입력을 수신할 수 있다. 다른 실시예에서, 웨어러블 디바이스(1000)는 터치 인터페이스 장치를 포함할 수 있고, 터치 인터페이스 장치를 조작하여 초점을 변경하는 사용자 입력을 수신할 수 있다.
단계 S306에서, 웨어러블 디바이스(1000)는 사용자 입력에 기초하여 초점을 변경하는 신호를 카메라(2000)에 전송한다. 일 실시예에서, 웨어러블 디바이스(1000)는 초점을 피사체(100)의 특정 위치로 변경하는 사용자 입력을 무선 통신 신호를 사용하여 전송할 수 있도록 전기 신호로 부호화(encoding)할 수 있다. 웨어러블 디바이스(1000)는 부호화된 전기 신호를 블루투스, BLE(Bluetooth Low Energy), NFC(Near Field Communication), RFID(Radio Frequency Identification), 와이파이, 비콘(Beacon), 지그비(Zigbee) 통신 및 UWB(Ultra Wide Band) 통신을 포함하는 근거리 무선 통신 방법 중 적어도 하나를 사용하여 카메라(2000)에 전송할 수 있다.
단계 S307에서, 카메라(2000)는 전송된 초점 변경 신호에 기초하여 피사체(100)에 대한 초점을 변경한다.
도 4a는 본 개시의 일 실시예에 따른 피사체(100)에 대한 카메라(2000)의 초점을 변경하는 사용자 입력을 수신하는 웨어러블 디바이스(1000-1)를 도시한 도면이고, 도 4b는 본 개시의 일 실시예에 따른 피사체(100)에 대한 초점이 변경된 카메라(2000)를 도시한 도면이다.
도 4a를 참조하면, 웨어러블 디바이스(1000-1)는 사용자의 신체 일부에 착용할 수 있는 컴퓨팅 장치일 수 있다. 일 실시예에서, 웨어러블 디바이스(1000-1)는 사용자의 손목에 착용하고, 통신 기능 및 데이터 프로세싱 기능을 구비하는 시계 형태의 컴퓨팅 장치일 수 있다. 웨어러블 디바이스(1000-1)는 디스플레이부(1110) 및 디스플레이부(1110) 상에 일체형으로 형성된 터치스크린 패널을 포함할 수 있다. 디스플레이부(1110)에는 카메라(2000)가 촬영하고 있는 피사체의 이미지(101)가 표시될 수 있다. 웨어러블 디바이스(1000-1)는 디스플레이부(1110)에 표시되는 피사체의 이미지(101) 상의 특정 위치로 초점을 맞추거나 혹은 변경하려는 사용자 입력을 수신할 수 있다. 일 실시예에서, 터치스크린은 피사체의 이미지(101)의 특정 위치를 터치하는 터치 입력을 수신할 수 있다.
도 4b를 참조하면, 카메라(2000)는 프리뷰 디스플레이(2100)를 포함할 수 있다. 프리뷰 디스플레이(2100)는 카메라(2000)의 렌즈부(2200, 도 1 참조)가 촬영하는 피사체(100)에 대한 이미지(201)를 표시할 수 있다. 카메라(2000)는 웨어러블 디바이스(1000-1)와 근거리 무선 통신 신호를 사용하여 동기화될 수 있고, 웨어러블 디바이스(1000-1)에서 수신하는 사용자 입력에 기초하여 피사체의 이미지(201)에 대한 초점을 맞추거나 또는 변경할 수 있다.
도 4a에 도시된 실시예에서, 피사체(100)는 네 명의 사람을 포함할 수 있고, 웨어러블 디바이스(1000-1)는, 디스플레이부(1110)에 표시되는 네 명의 사람 중 가장 오른쪽에 표시된 사람에게 초점을 변경하려는 사용자의 터치 입력을 수신할 수 있다. 도 4b에 도시된 실시예에서, 카메라(2000)는 웨어러블 디바이스(1000-1)에서 수신한 사용자 입력에 기초하여 프리뷰 디스플레이(2100)에 표시된 피사체의 이미지(201) 중 가장 오른쪽에 있는 사람에게 초점(201F)을 변경할 수 있다. 따라서, 피사체의 이미지(201) 중 가장 오른쪽에 있는 사람만 선명하게 표시하고, 나머지 피사체, 즉 세 명의 사람은 흐릿하게 블러링(Blurring)되도록 표시할 수 있다. 도 4a 및 도 4b에 도시된 실시예에서, 사용자가 직접 피사체가 되는 경우 사용자는 웨어러블 디바이스(1000-1) 상에 표시되는 피사체의 이미지(101) 중 초점을 맞추고자 하는 특정 위치를 터치하고, 카메라(2000)로 하여금 변경된 초점(201F)으로 사진을 촬영하도록 하여 사용자의 의도에 따른 사진을 얻을 수 있다.
도 5는 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000-2)를 사용하여 피사체(100)에 대한 카메라(2000)의 초점을 변경하는 방법을 도시하는 도면이다.
도 5를 참조하면, 웨어러블 디바이스(1000-2)는 사용자의 신체 일부에 착용할 수 있는 컴퓨팅 장치일 수 있다. 일 실시예에서, 웨어러블 디바이스(1000-2)는 통신 기능 및 데이터 프로세싱 기능을 구비하고, 얼굴에 쓰는 안경 형태의 컴퓨팅 장치일 수 있다. 웨어러블 디바이스(1000-2)는 헤드-업 디스플레이(Head-Up Display, HUD, 1112) 및 터치 인터페이스 장치(1220)을 포함할 수 있다. 웨어러블 디바이스(1000-2)는 카메라(미도시) 및 마이크(미도시)를 더 포함할 수도 있다. 카메라(2000)는 웨어러블 디바이스(1000-2)와 근거리 무선 통신을 사용하여 동기화될 수 있고, 카메라(2000)가 촬영하는 피사체(100)에 대한 이미지를 부호화하여 웨어러블 디바이스(1000-2)에 전송할 수 있다. 헤드-업 디스플레이(1112)는 카메라(2000)가 촬영하고 있는 피사체(100)의 이미지를 증강 현실 이미지(101AR)로 표시할 수 있고, 사용자는 증강 현실 이미지(101AR)를 통해 현재 카메라(2000)가 촬영하고 있는 피사체의 이미지를 볼 수 있다. 증강 현실 이미지(101AR)는 카메라(2000)가 촬영하는 피사체(100)의 이미지(201)와 동일한 이미지를 포함하는 시각적 효과를 사용자에게 제공할 수 있다.
도 5에 도시된 실시예에서, 웨어러블 디바이스(1000-2)를 착용한 사용자는 스스로가 카메라(2000)에 의해 촬영되는 피사체(100)의 일부가 될 수 있고, 헤드-업 디스플레이(1112)에서 표시하는 증강 현실 이미지(101AR)을 보면서 터치 인터페이스 장치(1220)를 조작하여 원하는 위치에 초점을 맞추거나 변경할 수 있다. 터치 인터페이스 장치(1220)를 조작하여 피사체(100)에 대한 초점을 맞추거나 변경하는 방법은 도 6a 및 도 6b의 설명 부분에서 후술하기로 한다.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000-2)의 터치 인터페이스 장치(1220)를 사용하여 피사체(100)에 대한 카메라(2000)의 초점을 변경하는 방법을 도시하는 도면이다.
도 6a를 참조하면, 웨어러블 디바이스(1000-2)는 안경 렌즈부 상에 이격되어 배치되는 헤드-업 디스플레이(1112) 및 안경 다리 부분에 접하여 형성되는 터치 인터페이스 장치(1220)를 포함할 수 있다. 헤드-업 디스플레이(1112)는 카메라(2000, 도 5참조)가 촬영하는 피사체(100)에 관한 증강 현실 이미지(101AR)을 표시하여 사용자에게 제공할 수 있다. 사용자는 증강 현실 이미지(101AR)를 보면서 터치 인터페이스 장치(1220)를 조작하여 피사체(100) 중 초점을 맞추거나 또는 변경하기 위한 위치를 선택할 수 있다.
도 6b를 참조하면, 터치 인터페이스 장치(1220)는 사용자의 터치 입력 및 스와이프 입력 등을 수신할 수 있는 터치 패드(Touch-pad)일 수 있다. 웨어러블 디바이스(1000-2)는 헤드-업 디스플레이(1112)를 통해 증강 현실 이미지(101AR) 형태로 표시하고, 터치 인터페이스 장치(1220)에서 초점을 변경하는 사용자 입력(1220F, 1220F_2)를 수신할 수 있다. 일 실시예에서, 터치 인터페이스 장치(1220)는 특정 위치를 터치하여 초점을 변경하려는 터치 입력(1220F)을 수신할 수 있다. 또한, 터치 인터페이스 장치(1220)는 제1 지점에서 제2 지점으로 초점을 변경하려는 스와이프 입력(1220F_2)을 수신할 수 있다. 웨어러블 디바이스(1000-2)는 수신된 터치 입력(1220F) 또는 스와이프 입력(1220F_2)에 기초하여 터치되거나 스와이프된 특정 지점에 대응되는 피사체의 위치에 초점을 변경할 수 있다. 초점 변경 지점(101AR_F)은 증강 현실 이미지(101AR) 상에 표시될 수 있다. 증강 현실 이미지(101AR) 상의 피사체 중 초점 변경 지점(101AR_F) 내에 위치한 피사체는 선명하게 표시되고, 증강 현실 이미지(101AR) 상의 나머지 부분은 흐릿하게 표시될 수 있다.
도 7은 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)를 이용하여 변경된 초점으로 피사체(100)를 촬영하는 방법을 나타내는 흐름도이다.
단계 S701에서, 카메라(2000)는 전송된 초점 변경 신호에 기초하여 피사체에 대한 초점을 변경한다. 단계 S701은 도 3에 도시된 사용자 입력에 기초하여 초점을 변경하는 신호 전송 단계(단계 S306) 이후에 카메라(2000)에서 수행되는 단계일 수 있다. 카메라(2000)는 웨어러블 디바이스(1000)로부터 피사체의 이미지 내의 특정 위치로 초점을 변경하는 사용자 입력을 근거리 무선 통신 방법으로 수신할 수 있고, 수신된 사용자 입력에 기초하여 피사체에 대한 특정 위치로 초점을 변경할 수 있다. 카메라(2000)는 사용자 입력에 기초한 피사체의 특정 위치만 선명하게 표시하고, 피사체의 나머지 부분은 흐릿하게 표시할 수 있다.
단계 S702에서, 카메라(2000)는 피사체의 이미지 내의 특정 위치로 변경된 초점에 관한 이미지 데이터를 웨어러블 디바이스(1000)에 전송한다. 일 실시예에서, 카메라(2000)는 변경된 초점 정보를 포함하는 이미지 데이터를 근거리 무선 통신, 예컨대 블루투스, BLE, NFC, RFID, 와이파이, 비콘, 지그비 통신 및 UWB 통신 중 어느 하나를 사용하여 카메라(2000)에 전송할 수 있다.
단계 S703에서, 웨어러블 디바이스(1000)는 초점이 변경된 피사체의 이미지를 디스플레이부(1110, 도 1 참조)에 표시한다. 일 실시예에서, 디스플레이부(1110)에 표시된 피사체의 이미지는 초점이 변경된 위치는 선명하게 표시되고, 피사체의 이미지의 나머지 부분은 흐릿하게 표시될 수 있다.
단계 S704에서, 웨어러블 디바이스(1000)는 변경된 초점으로 피사체를 촬영하는 사용자 입력을 수신한다. 일 실시예에서, 웨어러블 디바이스(1000)는 사용자의 터치 입력을 수신하고, 디스플레이부(1110) 상에 형성되는 터치스크린을 포함할 수 있고, 터치스크린은 피사체에 대한 정지 영상을 획득하거나, 동영상을 촬영하여 메모리에 기록하도록 하는 촬영 버튼 UI(User Interface)를 표시할 수 있다.
단계 S705에서, 웨어러블 디바이스(1000)는 카메라(2000)가 피사체를 촬영하도록 요청하는 촬영 신호를 카메라(2000)에게 전송한다. 일 실시예에서, 웨어러블 디바이스(1000)는 카메라(2000)에게 촬영 지시 신호를 무선 통신 방법을 사용하여 전송할 수 있도록 전기 신호로 부호화(encoding)할 수 있다. 웨어러블 디바이스(1000)는 부호화된 촬영 지시 신호를 블루투스, BLE, NFC, RFID, 와이파이, 비콘, 지그비 통신 및 UWB 통신 중 어느 하나를 사용하여 카메라(2000)에 전송할 수 있다.
단계 S706에서, 카메라(2000)는 변경된 초점으로 피사체를 촬영한다.
도 8a 및 도 8b는 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000-1, 1000-2)를 이용하여 변경된 초점으로 피사체를 촬영하는 방법을 도시한 도면이다.
도 8a를 참조하면, 웨어러블 디바이스(1000-1)는 디스플레이부(1110) 및 디스플레이부(1110) 상에 형성되는 터치스크린을 포함할 수 있다. 디스플레이부(1110)는 피사체의 이미지(101)를 표시할 수 있다. 디스플레이부(1110)는 촬영 버튼 GUI(1114)를 표시할 수 있다. 웨어러블 디바이스(1000-1)는 디스플레이부(1110) 상에 표시되는 촬영 버튼 GUI(1114)를 터치하는 사용자 입력을 수신할 수 있다. 웨어러블 디바이스(1000-1)는 촬영 버튼 GUI(1114)를 터치하는 사용자 입력을 수신하는 경우 카메라(2000)에게 촬영 요청 신호를 전송할 수 있다.
도 8b를 참조하면, 웨어러블 디바이스(1000-2)는 헤드-업 디스플레이(1112) 및 터치 인터페이스 장치(1220)를 포함할 수 있다. 일 실시예에서, 웨어러블 디바이스(1000-2)는 촬영 버튼(1222)을 더 포함할 수 있다. 촬영 버튼(1222)은 터치 인터페이스 장치(1220)에 접하고, 터치 인터페이스 장치(1220) 상에서 소정 높이만큼 튀어나와 있는 물리적인 버튼일 수 있으나, 이에 제한되는 것은 아니다. 촬영 버튼(1222)은 터치 인터페이스 장치(1220) 상에 움푹 들어가 있는 형태로 형성될 수도 있고, 또는 터치 입력을 수신할 수 있는 그래픽 사용자 인터페이스(GUI)일 수도 있다.
헤드-업 디스플레이(1112)는 카메라(2000)에서 전송받은 피사체의 이미지(101)를 증강 현실 이미지(101AR)로 표시할 수 있고, 촬영 버튼(1222)은 피사체의 이미지(101)를 보면서 초점을 맞추거나 변경한 이후, 카메라(2000)에게 변경된 초점으로 사진을 촬영하게 하는 사용자 입력을 수신할 수 있다. 촬영 버튼(1222)에서 사용자 입력이 수신되는 경우, 웨어러블 디바이스(1000-2)는 카메라(2000)에게 촬영 요청 신호를 전송할 수 있다.
도 9는 본 개시의 일 실시예에 따른 웨어러블 디바이스(1000)의 구성을 나타내는 블록도이다. 웨어러블 디바이스(1000)는 도 1에 도시된 웨어러블 디바이스(1000), 도 4a에 도시된 웨어러블 디바이스(1000-1) 및 도 5에 도시된 웨어러블 디바이스(1000-2) 중 어느 하나일 수 있다. 웨어러블 디바이스(1000)는 사용자의 신체 일부에 착용할 수 있는 컴퓨팅 장치일 수 있다. 일 실시예에서, 웨어러블 디바이스(1000)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, HMD(Head-Mounted Display), 또는 헤어 밴드일 수 있으나, 이에 제한되지 않는다.
도 9를 참조하면, 웨어러블 디바이스(1000)는 출력부(1100), 사용자 입력부(1200), 메모리(1300), 통신부(1400) 및 제어부(1500) 중 적어도 하나를 포함할 수 있다.
출력부(1100)는 디스플레이부(1110) 및 음향 출력부(1120)를 포함할 수 있다. 디스플레이부(1110)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시패널에는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시패널은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부(1110)는 카메라(2000, 도 1 참조)에 의해 촬영되는 대상이 되는 피사체의 이미지를 표시할 수 있다. 디스플레이부(1110)에 표시되는 피사체의 이미지는 카메라(2000)의 디스플레이부에 표시되는 피사체의 이미지와 동일할 수 있다. 음향 출력부(1120)는 초점의 변경 및 초점 설정 신호를 사람이 들을 수 있도록 음향으로 출력할 수 있다.
사용자 입력부(1200)는 터치스크린 패널(1210)을 포함할 수 있다. 디스플레이부(1110)는 사용자 입력부(1200)의 터치스크린 패널(1210)과 결합되어 터치스크린으로 제공될 수 있다. 예를 들어, 터치스크린은 표시 패널 상에 터치스크린 패널(1210)이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다. 터치스크린 패널(1210)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. 정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
일 실시예에서, 터치스크린 패널(1210)은 디스플레이부(1110)의 표시 패널에 표시되는 피사체에 대한 이미지 중 피사체의 특정 위치로 초점을 맞추거나 변경하는 사용자 입력을 수신할 수 있다. 터치스크린 패널(1210)은 디스플레이부(1110)의 표시 패널 상에 표시되는 피사체에 대한 이미지 중 사용자가 초점을 변경하는 특정 위치에 해당되는 영역을 터치하는 사용자의 터치 입력을 수신할 수 있다.
사용자 입력부(1200)는 카메라(2000)가 변경된 초점으로 피사체에 대한 사진 촬영을 하도록 지시하는 사용자 입력을 수신할 수 있다. 일 실시예에서, 터치스크린 패널(1210)은 디스플레이부(1110) 상에 표시되는 촬영 버튼 UI를 터치하는 입력을 수신할 수 있다.
사용자 입력부(1200)는 마이크부(미도시) 및 움직임 감지부(미도시)를 더 포함할 수 있다. 마이크부는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환할 수 있다. 일 실시예에서, 마이크부는 카메라(2000)의 피사체에 대한 초점을 변경하는 사용자의 음성 명령을 수신하거나, 카메라(2000)에게 피사체에 대한 사진 촬영을 지시하는 사용자의 음성 명령을 수신할 수 있다. 제어부(1500)는 마이크부를 통해 입력되는 사용자 음성을 초점 변경 신호 또는 촬영 신호 등 전기적 신호로 부호화하여 카메라(2000)로 전송될 수 있도록 처리할 수 있다.
움직임 감지부는 웨어러블 디바이스(1000)의 본체 움직임을 감지할 수 있다. 웨어러블 디바이스(1000)는 다양한 방향으로 회전되거나 기울어질 수 있다. 이 때, 움직임 감지부는 지자기 센서, 자이로 센서, 가속도 센서 등과 같은 다양한 센서들 중 적어도 하나를 이용하여 회전 방향 및 각도, 기울기 등과 같은 움직임 특성을 감지할 수 있다. 움직임 감지부는 웨어러블 디바이스(1000)를 움직이는 사용자 입력을 수신하고, 제어부(1500)는 상기 사용자 입력을 카메라(2000)의 피사체에 대한 초점을 변경하거나, 카메라(2000)로 피사체를 사진 촬영하는 전기적 신호로 부호화하여 처리할 수 있다.
메모리(1300)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다.
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 제어부(1500)는 사용자 입력부(1200)에서 수신한 사용자 입력에 기초한 초점 변경 위치 정보 또는 카메라(2000)로부터 수신한 피사체의 이미지 데이터 등을 메모리(1300)에 저장할 수 있다. 또한, 제어부(1500)는 메모리(1300)에 저장된 초점 변경 위치에 관한 정보 등을 로드(load)하여 처리할 수 있다.
통신부(1400)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(1400)는 근거리 무선 통신부(1410)를 포함할 수 있다. 일 실시예에서, 통신부(1400)는 이동 통신부, 유선 통신부 및 무선 통신부를 더 포함할 수 있다. 근거리 무선 통신부(1410)는 블루투스 칩, 와이파이칩, 무선 통신 칩, NFC 칩 및 비콘 칩 중 적어도 하나를 포함할 수 있다. 와이파이 칩, 블루투스 칩은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
통신부(1400)는 카메라(2000)에 의해 촬영되고 있는 피사체의 이미지 데이터를 카메라(2000)로부터 수신할 수 있다. 제어부(1500)는 통신부(1400)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다. 일 실시예에서, 제어부(1500)는 통신부(1400)의 근거리 무선 통신부(1410)를 이용하여 카메라(2000)에 의해 촬영되는 피사체의 이미지가 디스플레이부(1110)에 표시되도록 카메라(2000)와 동기화할 수 있다.
제어부(1500)는 RAM(1510), ROM(1520), CPU(1530), GPU(Graphic Processing Unit)(1540) 및 버스(1550) 중 적어도 하나를 포함 할 수 있다. RAM(1510), ROM(1520), CPU(1530) 및 GPU(1540) 등은 버스(1550)를 통해 서로 연결될 수 있다.
CPU(1530)는 메모리(1300)에 액세스하여, 메모리(1300)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메모리(1300)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(1520)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 일 실시예에서, 웨어러블 디바이스(1000)는 턴 온 명령이 입력되어 전원이 공급되면, CPU(1530)가 ROM(1520)에 저장된 명령어에 따라 메모리(1300)에 저장된 O/S를 RAM(1510)에 복사하고, O/S를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU(1530)는 메모리(1300)에 저장된 각종 프로그램을 RAM(1510)에 복사하고, RAM(1510)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU(1540)는 웨어러블 디바이스(1000)의 부팅이 완료되면, 디스플레이부(1110)의 영역에 UI 화면을 디스플레이한다. 구체적으로는, GPU(1540)는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 전자문서가 표시된 화면을 생성할 수 있다. GPU(1540)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표 값, 형태, 크기, 컬러 등과 같은 속성 값을 연산한다. 그리고, GPU(1540)는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU(1540)에서 생성된 화면은 디스플레이부(1110)로 제공되어, 디스플레이부(1110)의 각 영역에 각각 표시될 수 있다.
일 실시예에서, 제어부(1500)는 카메라(2000)의 프리뷰 디스플레이에 표시되고, 카메라(2000)에 의해 촬영되는 피사체에 대한 이미지를 디스플레이부(1110)에 표시하도록 카메라(2000)와 웨어러블 디바이스(1000)를 연동시킬 수 있다. 제어부(1500)는 근거리 무선 통신부(1410)를 통하여 근거리 무선 신호를 사용하여 웨어러블 디바이스(1000)가 카메라(2000)와 페어링(Pairing)되도록 처리할 수 있다.
일 실시예에서, 제어부(1500)는 터치스크린 패널(1210)에서 수신한 피사체의 특정 위치로 초점을 변경하는 사용자 입력에 기초하여 변경된 초점에 관한 정보를 전기적 신호로 부호화(encoding)할 수 있다. 제어부(1500)는 또한, 부호화된 전기적 신호를 근거리 무선 통신부(1410)를 사용하여 카메라(2000)에게 전송되도록 할 수 있다.
일 실시예에서, 사용자 입력부(1200)는 카메라(2000)에게 변경된 초점으로 사진을 촬영하도록 지시하는 사용자 입력을 수신할 수 있고, 제어부(1500)는 사용자 입력부(1200)가 수신한 사용자 입력에 기초하여, 카메라(2000)에게 사진 촬영하도록 하는 전기적 신호를 부호화할 수 있다. 제어부(1500)는 또한, 부호화된 촬영 지시 신호를 통신부(1400)를 통해 카메라(2000)에게 전송하도록 처리할 수 있다.
그 밖에, 도 9에 도시하지는 않았으나, 본 개시의 실시예에서는, 웨어러블 디바이스(1000) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있다.
전술한 웨어러블 디바이스(1000)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 웨어러블 디바이스(1000)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 10은 본 개시의 일 실시예에 따른 웨어러블 디바이스(1002)의 구성을 나타내는 블록도이다. 웨어러블 디바이스(1002)는, 도 5에 도시된 웨어러블 디바이스(1000-2)일 수 있다. 일 실시예에서, 웨어러블 디바이스(1002)는 통신 기능 및 데이터 프로세싱 기능을 구비한 안경 또는 HMD(Head-Mounted Display)일 수 있으나, 이에 제한되지 않는다.
도 10에 도시된 웨어러블 디바이스(1002)는 도 9에 도시된 웨어러블 디바이스(1000)와 동일한 구성 요소를 포함할 수 있다. 도 10에 도시된 웨어러블 디바이스(1002)가 도 9에 도시된 웨어러블 디바이스(1000)와 다른 점은 출력부(1100)가 헤드-업 디스플레이(1112)를 포함하고, 사용자 입력부(1200)가 터치 인터페이스 장치(1220)를 포함한다는 점이다. 따라서, 도 10에 도시된 웨어러블 디바이스(1002)의 구성 요소에 관한 설명 중 도 9에 도시된 웨어러블 디바이스(1000)의 구성 요소와 동일한 구성 요소에 대한 설명은 중복되는바, 생략하기로 한다.
도 10을 참조하면, 웨어러블 디바이스(1002)는 출력부(1100), 사용자 입력부(1200), 메모리(1300), 통신부(1400) 및 제어부(1500)를 포함할 수 있다.
출력부(1100)는 헤드-업 디스플레이(1112)를 포함할 수 있다. 헤드-업 디스플레이(1112)는 카메라(2000)가 촬영하는 피사체에 관한 이미지를 증강 현실 이미지로 표시하여 사용자에게 제공할 수 있다.
사용자 입력부(1200)는 터치 인터페이스 장치(1220)를 포함할 수 있다. 터치 인터페이스 장치(1220)는 디스플레이부(1110) 상에 표시되는 피사체의 이미지 중에서 사용자가 초점을 맞추거나 또는 변경하고자 하는 특정 위치로 초점을 이동시키는 사용자 입력을 수신할 수 있다. 일 실시예에서, 터치 인터페이스 장치(1220)는 터치 패드일 수 있다. 터치 인터페이스 장치(1220)는 터치 입력, 스와이프 입력 등을 수신할 수 있다. 제어부(1500)는 터치 인터페이스 장치(1220)에서 수신한 사용자 입력에 기초하여 변경된 초점에 관한 정보를 전기적 신호로 부호화하고, 통신부(1400)를 통하여 카메라(2000)에 전송하도록 처리할 수 있다.
도 11은 본 개시의 일 실시예에 따른 웨어러블 디바이스(1004)의 구성을 나타내는 블록도이다. 웨어러블 디바이스(1004)는, 도 5에 도시된 웨어러블 디바이스(1000-2)일 수 있다. 일 실시예에서, 웨어러블 디바이스(1004)는 통신 기능 및 데이터 프로세싱 기능을 구비한 안경 또는 HMD(Head-Mounted Display)일 수 있으나, 이에 제한되지 않는다. 도 11에 도시된 웨어러블 디바이스(1004)는 도 10에 도시된 웨어러블 디바이스(1002)와 동일한 구성 요소를 포함할 수 있다. 도 11에 도시된 웨어러블 디바이스(1004)가 도 10에 도시된 웨어러블 디바이스(1002)와 다른 점은 사용자 입력부(1200)가 터치 인터페이스 장치(1220) 및 아이트래커 모듈(Eye tracker module, 1230)을 포함한다는 점이다.
도 11을 참조하면, 웨어러블 디바이스(1004)는 출력부(1100), 사용자 입력부(1200), 메모리(1300), 통신부(1400) 및 제어부(1500)를 포함할 수 있다.
사용자 입력부(1200)는 터치 인터페이스 장치(1220) 및 아이트래커 모듈(1230)을 포함할 수 있다. 아이트래커 모듈(1230)은 헤드-업 디스플레이(1112)에 표시되는 피사체의 이미지 내에서 사용자가 초점을 변경하고자 하는 특정 위치에 대한 사용자의 눈동자의 움직임을 인식할 수 있다. 아이트래커 모듈(1230)은 사용자의 눈동자의 움직임을 통해 사용자의 시선의 방향을 인식할 수 있다. 일 실시예에서, 아이트래커 모듈(1230)은 헤드-업 디스플레이(1112)에 표시되는 피사체에 대한 이미지 중 사용자가 초점을 변경하고자 하는 특정 위치에서 기설정된 시간동안 눈동자의 시선이 유지되는지 여부를 인식할 수 있다. 제어부(1500)는, 아이트래커 모듈(1230)에서 인식한 사용자의 눈동자의 움직임을 통한 시선의 방향, 기설정된 시간동안 정지되는지 여부 등에 관한 정보를 분석하고, 사용자의 눈동자 움직임에 관한 정보를 카메라(2000)가 피사체에 대한 특정 위치로 초점을 변경하도록 전기적 신호로 부호화할 수 있다.
일 실시예에서, 아이트래커 모듈(1230)은 헤드-업 디스플레이(1112)에 표시되는 피사체의 이미지 내의 특정 위치에서 눈동자를 기설정된 횟수만큼 깜빡이는 사용자의 눈동자 움직임을 인식할 수 있다. 제어부(1500)는, 아이트래커 모듈(1230)에서 인식한 사용자의 눈동자의 깜빡임 횟수를 분석하고, 사용자의 눈동자 깜빡임 횟수에 관한 정보를 통해 카메라(2000)가 피사체에 대한 특정 위치로 초점을 변경하도록 처리할 수 있다. 예를 들어, 아이트래커 모듈(1230)은 피사체의 이미지 중 특정 위치에서 눈동자를 3번 깜빡이는 사용자 입력을 수신할 수 있고, 제어부(1500)는 사용자가 눈동자를 3번 깜빡인 피사체의 특정 위치에서 카메라(2000)가 초점을 변경하도록 전기적 신호를 부호화할 수 있다. 또한, 제어부(1500)는 전기적 신호를 통신부(1400)를 통해 카메라(2000)에 전송할 수 있다.
도 12는 본 개시의 일 실시예에 따른 카메라(2000)가 사용자의 제스쳐(Gesture)를 인식하여 피사체에 대한 초점을 변경하는 방법을 도시한 도면이다.
도 12를 참조하면, 카메라(2000)는 프리뷰 디스플레이(2100) 및 렌즈부(2200)를 포함하고, 거치대(3000) 상에 거치되어 있을 수 있다. 카메라(2000)는 사용자(100u) 및 객체(100ob)를 포함하는 피사체(100)를 촬영 대상으로 하고, 피사체(100)에 대한 이미지(202)를 프리뷰 디스플레이(2100)에 표시할 수 있다. 객체는, 카메라(2000)의 렌즈부(2200)를 통해 보여지는 피사체에 포함되는 형태를 가진 물체 또는 인물일 수 있다. 도 12에서 객체(100ob)는 자전거로 도시된다.
카메라(2000)는 사용자(100u)를 인식할 수 있고, 사용자(100u)의 손가락 끝(Finger-tip) 또는 팔(Arm)이 가리키는 제스쳐, 가리키는 방향 및 상기 방향에 위치하는 객체(100ob)를 인식할 수 있다. 카메라(2000)는 피사체(100)에 대하여, 사용자(100u)가 가리키는 방향에 위치하는 객체(100ob)를 인식하여, 인식된 객체(100ob)에 초점을 맞추는 Re-Focus를 수행할 수 있다. 카메라(2000)는 프리뷰 디스플레이(2100)에 피사체의 이미지(202)를 표시할 수 있다. 카메라(2000)는 사용자(100u)가 가리키는 방향에 위치하는 객체(100ob)를 선명하게 표시하고, 나머지 피사체, 즉 사용자(100u)는 뿌옇게 표시할 수 있다.
도 12에 도시된 카메라(2000)는 사용자(100u)가 직접 피사체가 되는 경우 사용자(100u)가 초점을 맞추거나 변경하고자 하는 객체(100ob)를 가리키기만 하여도, 가리키는 방향에 위치한 객체(100ob)에 초점을 맞추거나 변경할 수 있다. 따라서, 사용자(100u)는 자신이 피사체가 되는 경우에도 사용자 자신의 의도에 맞는 사진을 얻을 수 있다.
도 13은 본 개시의 일 실시예에 따른 카메라(2000)가 사용자의 제스쳐를 인식하고, 인식된 객체로 초점을 변경하는 방법을 설명하기 위한 흐름도이다.
단계 S1301에서, 카메라(2000)는 피사체에 포함되는 사용자의 손가락 등이 가리키는 지시 방향을 인식한다. 카메라(2000)는 사용자가 직접 피사체가 되는 경우 사용자를 인식할 수 있고, 사용자의 신체 일부, 예컨대 손가락이나 팔이 가리키는 지시 방향을 인식할 수 있다. 일 실시예에서, 카메라(2000)는 사용자의 시선을 인식하고, 사용자의 바라보고 있는 시선의 방향을 인식할 수 있다.
단계 S1302에서, 카메라(2000)는 인식된 지시 방향에 위치하는 객체를 인지한다. 카메라(2000)는 사용자의 제스쳐를 바탕으로 인식한 지시 방향에서 경계값이 변하는 지점에 위치하는 객체를 인지할 수 있다. 카메라(2000)는 2D 센서(2210, 도 14 참조) 또는 3D 센서(2220, 도 16 참조)를 통하여 사용자가 지시하는 방향에서의 객체를 인지할 수 있다. 이에 대한 상세한 설명은 도 14 및 도 15에서 후술하도록 한다.
단계 S1303에서, 카메라(2000)는 인지된 객체로 초점을 변경한다. 카메라(2000)는 자동 초점 기능 또는 수동으로 초점을 변경할 수 있는 기능을 구현할 수 있다. 카메라(2000)는 피사체의 임의의 위치에 설정하였던 초점을 단계 S1302에서 인지한 객체로 변경할 수 있다. 일 실시예에서, 카메라(2000)는 피사체 중 임의의 위치에 설정하였던 초점에 추가로 단계 S1302에서 인지한 객체에 초점을 맞추어 다초점 사진을 촬영할 수도 있다.
일 실시예에서, 카메라(2000)는 인지된 객체에 대한 정보를 추출하고, 추출된 정보를 사진에 표시할 수 있다.
도 14은 2D 센서를 통해 사용자의 제스처를 인식하는 실시예에 따른 카메라(2000-1)의 구성 요소를 나타내는 블록도이고, 도 15는 상기 실시예에 따른 카메라(2000-1)가 2d 센서(2310)를 이용하여 객체를 인지하는 방법을 설명하는 도면이다.
도 14 및 도 15를 참조하면, 카메라(2000-1)는 출력부(2010), 센서부(2300), 메모리(2400), 통신부(2500) 및 제어부(2600)를 포함할 수 있다.
출력부(2010)는 프리뷰 디스플레이(2100) 및 음향 출력부(2110)를 포함할 수 있다. 프리뷰 디스플레이(2100)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시패널에는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 프리뷰 디스플레이(2100)는 렌즈부(2200)를 통해 보여지는 피사체에 대한 이미지를 표시할 수 있다. 음향 출력부(2110)는 피사체의 일부 위치 또는 제어부(2600)를 통해 인지된 객체로 초점 변경되거나, 초점이 맞춰졌다는 신호를 사람이 들을 수 있도록 음향 신호로 출력할 수 있다.
센서부(2300)는 2d 센서(2310)를 포함할 수 있다. 2d 센서(2310)는 RGB 환경에서 사용자를 인식하고, 사용자가 신체 일부(예컨대, 손가락이나 팔)로 가리키는 지시 방향을 인식할 수 있다. 2d 센서(2310)는 사용자의 시선의 방향을 인식할 수도 있다. 2d 센서(2310)는 사용자의 신체 일부가 가리키는 지시 방향 및/또는 사용자의 시선의 방향에 위치하는 객체를 인지하여 인식된 객체에 관한 정보를 제어부(2600)에 제공할 수 있다.
도 15에 도시된 실시예에서, 2d 센서(2310)는 사용자의 손가락이 가리키는 지시 방향(100p)에 관한 x, y 좌표 평면에서의 벡터값을 획득할 수 있다. 2d 센서(2310)는 사용자의 지시 방향(100p)에서 경계값의 변화를 인식하고, 경계값이 크게 변화하는 위치에 위치하는 제1 객체(100ob-1)를 인지할 수 있다. 2d 센서(2310)가 인식한 사용자의 지시 방향(100p)의 벡터값에 따르면, 제2 객체(100ob-2)는 다른 벡터값을 갖는 방향에 위치하고 있는바, 2d 센서(2310)는 제1 객체(100ob-1)를 인지하고, 제2 객체(100ob-2)는 인지하지 못한다.
일 실시예에서, 2d 센서(2310)는 인지한 제1 객체(100ob-1)의 위치 벡터값, 및 형태에 관한 정보를 제어부(2600)에 제공하고, 제어부(2600)는 제1 객체(100ob-1)로 초점을 변경하고, 프리뷰 디스플레이(2100)에 표시되도록 할 수 있다. 프리뷰 디스플레이(2100)는 제1 객체(100ob-1)는 선명하게 표시하고, 제2 객체(100ob-2)는 흐릿하게 표시할 수 있다.
메모리(2400)는, 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. 내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
메모리(2400)는 센서부(2300)에서 인지한 객체에 관한 정보, 예컨대, 객체의 위치 벡터값, 객체의 형태에 관한 정보를 저장하고, 초점이 맞춰져 있는 객체 또는 초점의 변경 여부 등에 관한 정보를 저장할 수 있다. 또한, 메모리(2400)는 피사체에 대한 사진 촬영 이미지를 파일의 형태로 저장할 수도 있다.
통신부(2500)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(2500)는 근거리 무선 통신부(2510)를 포함할 수 있다. 일 실시예에서, 통신부(2500)는 근거리 무선 통신 신호를 이용하여 도 1, 도 4a 및 도 5에 도시된 웨어러블 디바이스(1000)와 동기화될 수 있다.
제어부(2600)는 피사체 중 센서부(2300)에서 인지한 객체에 초점을 맞추거나 또는 초점을 변경할 수 있다. 도 15를 참조하면, 피사체 중 2d 센서(2310)가 인지한 제1 객체(100ob-1)으로 초점을 변경하여, 프리뷰 디스플레이(2100)에 제1 객체(100ob-1)는 선명하게 표시되고, 2d 센서(2310)가 인지하지 못한 제2 객체(100ob-2)는 흐릿하게 표시할 수 있다.
도 16은 3D 센서를 통해 사용자의 제스처를 인식하는 실시예에 따른 카메라(2000-2)의 구성 요소를 나타내는 블록도이고, 도 17은 상기 실시예에 따른 카메라(2000-2)가 3d 센서(2320)를 이용하여 객체를 인지하는 방법을 설명하는 도면이다.
도 16 및 도 17을 참조하면, 카메라(2000-1)는 출력부(2010), 센서부(2300), 메모리(2400), 통신부(2500) 및 제어부(2600)를 포함할 수 있다. 도 16에 도시되는 카메라(2000-2)는 도 14에 도시된 카메라(2000-1)와는 달리 센서부(2300)가 3d 센서(2320)를 포함한다. 따라서, 도 14에 도시된 구성 요소와 중복되는 구성 요소에 대한 설명은 생략하기로 한다.
센서부(2300)는 3d 센서(2320)를 포함할 수 있다. 3d 센서(2320)는 RGB-D 환경에서 사용자를 인식하고, 사용자가 신체의 일부, 예를 들어 손가락이나 팔로 가리키는 지시 방향을 인식할 수 있다. 3d 센서(2320)는 2D 센서(2210, 도 14 참조)와는 달리 객체의 3차원 벡터값 정보를 획득할 수 있고, 3차원 깊이 정보(3D depth 정보)를 획득할 수 있다.
도 17에 도시된 실시예에서, 3d 센서(2320)는 사용자의 손가락이 가리키는 지시 방향(100p)에 관한 x, y, z의 3차원 공간 벡터값을 획득할 수 있다. 3d 센서(2320)는 사용자의 지시 방향(100p)의 3차원 깊이 정보를 획득할 수 있다. 일 실시예에서, 3d 센서(2320)는 3차원 공간에서 사용자가 가리키는 방향에 위치하는 두 개의 객체, 즉 제1 객체(100ob-1)과 제2 객체(100ob-2)에 대한 깊이 3차원 깊이 정보를 인식하여 사용자가 가리키는 객체가 전방에 위치하는 제1 객체(100ob-1)인지, 후방에 위치하는 제2 객체(100ob-2)인지 인지할 수 있다. 3d 센서(2320)는 적외선 등을 객체에 조사하고, 돌아오는 적외선을 검출하여 3차원 깊이 정보를 인지하는 방식 또는 렌즈를 기울여서 물체에 대한 초점이 맞춰지는 거리에 관한 정보를 획득하여 3차원 깊이 정보를 인지하는 방식 등 3차원 카메라에 활용되는 모든 기술을 사용하여 구현될 수 있다.
3d 센서(2320)는 사용자의 지시 방향 및 3차원 깊이 정보에 기초하여 인지한 객체에 관한 정보를 제어부(2600)에 제공할 수 있다. 제어부(2600)는 3d 센서(2320)로부터 획득한 객체에 관한 정보에 기초하여 인지된 객체에 초점을 변경할 수 있다. 프리뷰 디스플레이(2100)는, 피사체 중 제어부(2600)에서 초점을 변경한 객체는 선명하게 표시하고, 피사체의 나머지 부분은 흐릿하게 표시할 수 있다.
본 개시의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
1000: 웨어러블 디바이스, 1100: 출력부, 1110: 디스플레이부, 1112: 헤드-업 디스플레이, 1120: 음향 출력부, 1200: 사용자 입력부, 1210: 터치스크린 패널, 1220: 터치 인터페이스 장치, 1230: 아이트래커 모듈, 1300: 메모리, 1400: 통신부, 1410: 통신부, 1500: 제어부, 1510: RAM, 1520: ROM, 1530: CPU, 1540: GPU, 1550: 버스, 2000: 카메라, 2010: 출력부, 2100: 디스플레이부, 2110: 음향 출력부, 2200: 렌즈부, 2210: 2D 센서, 2220: 3D 센서, 2400: 메모리, 2500: 통신부, 2510: 근거리 무선 통신부, 2600: 제어부, 3000: 거치대

Claims (19)

  1. 웨어러블 디바이스가 피사체를 촬영하는 카메라의 초점을 변경하는 방법에 있어서,
    상기 카메라의 프리뷰 화면에 표시되고 상기 카메라에 의해 촬영될 적어도 하나의 피사체를 포함하는 피사체의 이미지를 상기 카메라로부터 수신하는 단계;
    상기 카메라와 연동하여 상기 수신된 피사체의 이미지를 상기 웨어러블 디바이스의 디스플레이 상에 표시하는 단계;
    상기 디스플레이 상에 표시된 상기 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하기 위한 제1 사용자 입력을 수신하는 단계; 및
    상기 제1 사용자 입력에 기초하여 상기 카메라의 초점 변경을 상기 카메라에게 요청하는 단계;
    를 포함하는 방법.
  2. 제1 항에 있어서,
    상기 디스플레이는 터치 입력을 수신하는 터치스크린을 포함하고,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경될 카메라의 초점 위치를 선택하는 사용자의 터치 입력을 수신하는 것인, 방법.
  3. 제1 항에 있어서,
    상기 웨어러블 디바이스는 터치 입력을 수신하는 터치 인터페이스 장치를 포함하고,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 터치 인터페이스 장치를 통해 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경할 카메라의 초점 위치를 선택하는 사용자 입력을 수신하는 것인, 방법.
  4. 제1 항에 있어서,
    상기 웨어러블 디바이스는 상기 웨어러블 디바이스를 사용하는 사용자의 눈동자의 움직임을 추적하는 아이 트래커(Eye tracker)를 포함하고,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 디스플레이 상에 표시된 피사체의 이미지 내에서 변경될 카메라의 초점 위치를 선택하는 사용자의 눈동자의 움직임을 상기 아이 트래커를 통해 인식하는 것인, 방법.
  5. 제4 항에 있어서,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 변경될 카메라의 초점 위치에 상기 눈동자의 시선이 기설정된 시간동안 유지되는지 여부를 인식하는 단계를 포함하는 것인, 방법.
  6. 제4 항에 있어서,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 변경될 카메라의 초점 위치에 상기 눈동자의 시선이 유지되는 동안에 기설정된 횟수만큼 상기 사용자의 눈이 깜박이는지 여부를 인식하는 단계를 포함하는 것인, 방법.
  7. 제1 항에 있어서,
    상기 카메라가 상기 요청에 따라 변경된 카메라의 초점으로 상기 피사체를 촬영하도록 요청하는 제2 사용자 입력을 수신하는 단계; 를 더 포함하는 것인, 방법.
  8. 제7 항에 있어서,
    상기 웨어러블 디바이스는 터치 입력을 수신하는 터치스크린을 포함하고,
    상기 제2 사용자 입력을 수신하는 단계는, 상기 터치스크린 상의 특정 영역을 터치하는 사용자의 터치 입력을 수신하는 것인, 방법.
  9. 제1 항에 있어서,
    상기 웨어러블 디바이스는 상기 웨어러블 디바이스를 사용하는 사용자의 공간 제스처를 인식하는 공간 제스처 인식 장치를 포함하고,
    상기 제1 사용자 입력을 수신하는 단계는, 상기 공간 제스처 인식 장치를 통해 상기 디스플레이에 표시된 피사체의 이미지 내에서 변경할 카메라의 초점 위치를 선택하는 사용자 입력을 수신하는 것인, 방법.
  10. 피사체를 촬영하는 카메라의 초점을 변경하는 웨어러블 디바이스에 있어서,
    상기 카메라의 프리뷰 화면에 표시되고 상기 카메라에 의해 촬영될 적어도 하나의 피사체를 포함하는 피사체의 이미지의 데이터를 상기 카메라로부터 수신하는 통신부;
    상기 피사체의 이미지를 표시하는 디스플레이부;
    상기 디스플레이부에 표시되는 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하는 제1 사용자 입력을 수신하는 사용자 입력부; 및
    상기 디스플레이부 상에 표시되는 상기 피사체의 이미지와 상기 카메라의 프리뷰 화면에 표시되는 피사체의 이미지를 연동하고, 상기 제1 사용자 입력에 기초하여 상기 카메라가 상기 피사체의 이미지 내의 특정 위치로 카메라의 초점을 변경하도록 요청하는 제어부; 를 포함하는 웨어러블 디바이스.
  11. 제10 항에 있어서,
    상기 통신부는 피사체를 촬영하기 위하여 상기 카메라에 의해 촬영될 상기 피사체의 이미지의 데이터를 상기 카메라로부터 근거리 무선 통신 신호를 통하여 수신하는 것인, 웨어러블 디바이스.
  12. 제10 항에 있어서,
    상기 사용자 입력부는 상기 디스플레이부에 표시된 피사체의 이미지에서 카메라의 초점을 변경할 특정 위치를 선택하는 사용자의 터치 입력을 수신하는것인, 웨어러블 디바이스.
  13. 제10 항에 있어서,
    상기 사용자 입력부는 상기 디스플레이부 상에 표시된 피사체의 이미지 내의 카메라의 초점을 변경할 특정 위치로 이동시키는 사용자 입력을 수신하는 터치 인터페이스 장치인 것인, 웨어러블 디바이스.
  14. 제10 항에 있어서,
    상기 사용자 입력부는 상기 디스플레이부에 표시되는 피사체의 이미지 내의 카메라의 초점을 변경할 특정 위치에 대한 상기 사용자의 눈동자의 움직임을 인식하는 아이 트래커이고,
    상기 제어부는 상기 카메라의 초점을 상기 아이 트래커를 통해 인식한 상기 피사체의 이미지 내의 특정 위치를 기초로 하여 변경하는, 웨어러블 디바이스.
  15. 제14 항에 있어서,
    상기 아이 트래커는 상기 사용자가 카메라의 초점을 변경할 특정 위치에서 상기 눈동자의 시선이 기설정된 시간동안 유지되는지 여부를 인식하고,
    상기 제어부는, 상기 눈동자의 시선이 유지되는 특정 위치를 기초로 하여 상기 카메라의 초점을 변경하는, 웨어러블 디바이스.
  16. 제14 항에 있어서,
    상기 아이 트래커는 상기 사용자가 카메라의 초점을 변경할 특정 위치에서 기설정된 횟수만큼 상기 사용자의 눈을 깜빡이는지 여부를 인식하는 것인, 웨어러블 디바이스.
  17. 제10 항에 있어서,
    상기 사용자 입력부는 상기 카메라가 상기 제1 사용자 입력에 기초하여 변경된 카메라의 초점으로 상기 피사체를 촬영하도록 요청하는 제2 사용자 입력을 수신하고,
    상기 제어부는 상기 제2 사용자 입력에 기초하여 상기 카메라가 상기 피사체를 촬영하도록 상기 카메라를 제어하는, 웨어러블 디바이스.
  18. 제10 항에 있어서,
    상기 웨어러블 디바이스를 사용하는 사용자의 공간 제스처를 인식하는 공간 제스처 인식부; 를 더 포함하고,
    상기 공간 제스처 인식부는 상기 디스플레이부에 표시되는 상기 피사체의 이미지 내에서 변경할 카메라의 초점의 위치를 선택하는 사용자 입력을 수신하는 것인, 웨어러블 디바이스.
  19. 제1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020150082572A 2015-06-11 2015-06-11 카메라의 초점을 변경하는 방법 및 장치 KR102404790B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150082572A KR102404790B1 (ko) 2015-06-11 2015-06-11 카메라의 초점을 변경하는 방법 및 장치
PCT/KR2016/005921 WO2016200102A1 (ko) 2015-06-11 2016-06-03 카메라의 초점을 변경하는 방법 및 장치
US15/576,501 US10630887B2 (en) 2015-06-11 2016-06-03 Wearable device for changing focal point of camera and method thereof
KR1020220065553A KR102458344B1 (ko) 2015-06-11 2022-05-27 카메라의 초점을 변경하는 방법 및 장치
KR1020220135236A KR102494698B1 (ko) 2015-06-11 2022-10-19 카메라의 초점을 변경하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150082572A KR102404790B1 (ko) 2015-06-11 2015-06-11 카메라의 초점을 변경하는 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220065553A Division KR102458344B1 (ko) 2015-06-11 2022-05-27 카메라의 초점을 변경하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160146037A true KR20160146037A (ko) 2016-12-21
KR102404790B1 KR102404790B1 (ko) 2022-06-02

Family

ID=57503757

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020150082572A KR102404790B1 (ko) 2015-06-11 2015-06-11 카메라의 초점을 변경하는 방법 및 장치
KR1020220065553A KR102458344B1 (ko) 2015-06-11 2022-05-27 카메라의 초점을 변경하는 방법 및 장치
KR1020220135236A KR102494698B1 (ko) 2015-06-11 2022-10-19 카메라의 초점을 변경하는 방법 및 장치

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220065553A KR102458344B1 (ko) 2015-06-11 2022-05-27 카메라의 초점을 변경하는 방법 및 장치
KR1020220135236A KR102494698B1 (ko) 2015-06-11 2022-10-19 카메라의 초점을 변경하는 방법 및 장치

Country Status (3)

Country Link
US (1) US10630887B2 (ko)
KR (3) KR102404790B1 (ko)
WO (1) WO2016200102A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560333B1 (ko) * 2022-03-31 2023-07-28 주식회사 태양의동쪽 Dslr 프리뷰 포커스 모니터 안경

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10895913B1 (en) * 2018-01-05 2021-01-19 Amazon Technologies, Inc. Input control for augmented reality applications
KR102537784B1 (ko) * 2018-08-17 2023-05-30 삼성전자주식회사 전자 장치 및 그 제어 방법
CN110191286B (zh) * 2019-06-27 2021-11-05 华勤技术股份有限公司 一种拍摄方法及装置
US11289078B2 (en) * 2019-06-28 2022-03-29 Intel Corporation Voice controlled camera with AI scene detection for precise focusing
US10853513B1 (en) 2019-07-30 2020-12-01 Capital One Services, Llc Data storage using image objects shown in a real-time view
CN113472996B (zh) * 2020-03-31 2022-11-22 华为技术有限公司 图片传输方法及装置
CN112235510A (zh) * 2020-10-15 2021-01-15 维沃移动通信有限公司 拍摄方法、装置、电子设备和介质
JP2022065826A (ja) * 2020-10-16 2022-04-28 セイコーエプソン株式会社 操作方法及びプログラム
WO2024039165A1 (ko) * 2022-08-17 2024-02-22 삼성전자 주식회사 외부 전자 장치의 설정 정보를 결정하는 전자 장치 및 전자 장치의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007821A (ko) * 2001-03-30 2003-01-23 코닌클리케 필립스 일렉트로닉스 엔.브이. 원격 카메라 제어 장치
US20130293685A1 (en) * 2011-01-12 2013-11-07 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and interface module for communication between modules of a remote control device of this type or between one of the modules and an external mechanism

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10375641B2 (en) * 2003-05-05 2019-08-06 Pluto Technologies, Inc. Mobile device management system using network parameter resources
FR2912274B1 (fr) * 2007-02-02 2009-10-16 Binocle Sarl Procede de commande a partir d'un signal oculaire volontaire, notamment pour une prise de vues
KR101613529B1 (ko) 2009-10-07 2016-04-19 엘지이노텍 주식회사 카메라 모듈
JP5604160B2 (ja) * 2010-04-09 2014-10-08 パナソニック株式会社 撮像装置
KR20120019531A (ko) 2010-08-26 2012-03-07 삼성전자주식회사 휴대 단말기의 gui제공 방법 및 장치
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
JP5866728B2 (ja) 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
JP6316540B2 (ja) 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
WO2013180317A1 (ko) 2012-05-31 2013-12-05 (주)정직한기술 모바일 단말기의 터치 입력을 이용한 ip 카메라의 원격 제어장치
DE102012215861B4 (de) 2012-09-06 2022-09-15 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Objektiv- und Kamera-Fernsteuereinheit
WO2015073916A2 (en) * 2013-11-15 2015-05-21 Free Focus Systems, Llc Location-tag camera focusing systems
JP6231869B2 (ja) * 2013-12-12 2017-11-15 キヤノン株式会社 撮像装置、通信機器およびそれらの制御方法、プログラム
US9742977B2 (en) * 2014-09-02 2017-08-22 Apple Inc. Camera remote control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030007821A (ko) * 2001-03-30 2003-01-23 코닌클리케 필립스 일렉트로닉스 엔.브이. 원격 카메라 제어 장치
US20130293685A1 (en) * 2011-01-12 2013-11-07 Myestro Interactive Gmbh Remote control device for controlling a mechanism with the aid of a movable object and interface module for communication between modules of a remote control device of this type or between one of the modules and an external mechanism

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560333B1 (ko) * 2022-03-31 2023-07-28 주식회사 태양의동쪽 Dslr 프리뷰 포커스 모니터 안경

Also Published As

Publication number Publication date
KR20220145321A (ko) 2022-10-28
WO2016200102A1 (ko) 2016-12-15
KR102404790B1 (ko) 2022-06-02
US10630887B2 (en) 2020-04-21
US20180176459A1 (en) 2018-06-21
KR102458344B1 (ko) 2022-10-24
KR102494698B9 (ko) 2024-05-23
KR20220074847A (ko) 2022-06-03
KR102494698B1 (ko) 2023-02-06

Similar Documents

Publication Publication Date Title
KR102458344B1 (ko) 카메라의 초점을 변경하는 방법 및 장치
KR102411100B1 (ko) 디바이스를 이용한 화면 처리 방법 및 장치
KR20170035237A (ko) 이동 단말기 및 그 제어방법
US9413967B2 (en) Apparatus and method for photographing an image using photographing guide
US20160291327A1 (en) Glass-type image display device and method for controlling same
KR20180002387A (ko) 헤드 마운티드 디스플레이 장치 및 이의 제어방법
KR20150077646A (ko) 이미지 처리 장치 및 방법
CN108762501B (zh) Ar显示方法、智能终端、ar设备及系统
KR102240639B1 (ko) 글래스 타입 단말기 및 그것의 제어 방법
KR20180099026A (ko) 외부 전자 장치를 이용한 촬영 방법 및 이를 지원하는 전자 장치
KR20190008610A (ko) 이동 단말기 및 그 제어 방법
EP3086216B1 (en) Mobile terminal and controlling method thereof
KR20180004112A (ko) 안경형 단말기 및 이의 제어방법
CN112835445B (zh) 虚拟现实场景中的交互方法、装置及系统
KR20190021108A (ko) 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법
CN116420105A (zh) 用于增强现实护目镜中的计算机视觉模式的低功耗相机管线
US20160189341A1 (en) Systems and methods for magnifying the appearance of an image on a mobile device screen using eyewear
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20170082228A (ko) 이동 단말기 및 그 제어방법
KR20150084485A (ko) 이동 단말기 및 이의 제어 방법
CN114153361B (zh) 界面显示方法、装置、终端及存储介质
US20230350506A1 (en) Selectively activating a handheld device to control a user interface displayed by a wearable device
KR20160041710A (ko) 글래스 타입의 이동 단말기
KR20160041544A (ko) 이동 단말기
CN113065457A (zh) 人脸检测点处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right