KR102431712B1 - 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 - Google Patents

전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 Download PDF

Info

Publication number
KR102431712B1
KR102431712B1 KR1020170112777A KR20170112777A KR102431712B1 KR 102431712 B1 KR102431712 B1 KR 102431712B1 KR 1020170112777 A KR1020170112777 A KR 1020170112777A KR 20170112777 A KR20170112777 A KR 20170112777A KR 102431712 B1 KR102431712 B1 KR 102431712B1
Authority
KR
South Korea
Prior art keywords
virtual
display device
information
display
electronic device
Prior art date
Application number
KR1020170112777A
Other languages
English (en)
Other versions
KR20190026267A (ko
Inventor
정다희
김세현
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020170112777A priority Critical patent/KR102431712B1/ko
Priority to CN201880057152.1A priority patent/CN111052063B/zh
Priority to PCT/KR2018/010070 priority patent/WO2019045491A2/en
Priority to EP18851893.0A priority patent/EP3635525B1/en
Priority to US16/119,615 priority patent/US11025855B2/en
Publication of KR20190026267A publication Critical patent/KR20190026267A/ko
Application granted granted Critical
Publication of KR102431712B1 publication Critical patent/KR102431712B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42226Reprogrammable remote control devices
    • H04N21/42227Reprogrammable remote control devices the keys being reprogrammable, e.g. soft keys
    • H04N21/42228Reprogrammable remote control devices the keys being reprogrammable, e.g. soft keys the reprogrammable keys being displayed on a display screen in order to reduce the number of keys on the remote control device itself
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Abstract

본 발명은 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품에 관한 것으로서, 전자장치는, 카메라; 디스플레이장치와 통신 가능한 통신부; 디스플레이부; 및 디스플레이장치로부터 위치정보를 포함하는 UI정보를 수신하고, 수신된 UI정보에 기초하여 디스플레이부가 카메라에 의해 촬상된 이미지의 위치정보에 대응하는 위치에 가상UI를 표시하도록 하고, 가상UI에 대한 사용자입력정보가 디스플레이장치에 전송되도록 통신부를 제어하는 프로세서를 포함한다. 이에 따라, 촬상된 이미지와 가상 UI가 혼합된 이미지를 표시하는 MR 디바이스를 이용하여 디스플레이장치를 원격으로 제어하며, 스크린 영역의 위치에 기반 및 확장하여 표시된 가상 UI에 대한 사용자입력 위치를 정확하게 검출할 수 있다.

Description

전자장치, 그 제어방법 및 그 컴퓨터프로그램제품{ELECTRONIC APPARATUS, METHOD FOR CONTROLLING THEREOF AND COMPUTER PROGRAM PRODUCT THEREOF}
본 발명은 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품에 관한 것으로서, 보다 상세하게는 디스플레이장치와 관계된 UI를 표시 가능한 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품에 관한 것이다.
텔레비전(TV)과 같은 디스플레이장치는 UI를 통해 수신되는 사용자의 입력에 따라 동작한다. 이러한 UI는 사용자가 리모컨(remote control)과 같은 입력장치를 조작함에 따라 선택될 수 있는데, 통상적으로 리모컨에 마련된 방향키를 이용하거나 자이로스코프와 같은 센서에 의해 모션입력을 감지하는 방식을 사용하게 된다.
따라서, 사용자 입력의 활용 범위가 제한적이며, 특히 모션의 이동거리가 짧은 경우 인식되지 않는 경우가 있어, 정밀하고 다양한 사용자 입력에 적용하기가 어려운 문제점이 있다. 또한, TV 스크린을 통해 제공되는 UI의 형태, 종류, 개수에는 한계가 있으므로, 보다 다양한 사용자 입력 모델에 대한 수요가 존재한다.
최근 현실 세계에 가상 객체가 융합된 이른바 혼합 현실(mixed reality, MR) 또는 증강 현실(augmented reality, AR) 환경을 사용자에게 제공하는 전자장치 즉, MR 디바이스의 사용이 점차 증가하고 있다. MR 디바이스는 홀로그램 객체나 가상 이미지에 의해 증강된 물리적 환경의 뷰(view)를 사용자에게 디스플레이하고, 또한 모션이나 음성인식과 같은 사용자입력을 수신 가능하게 마련된다.
본 발명은, 상기한 문제점을 해결하고자 하는 것으로, 혼합 현실을 제공하는 전자장치를 이용하여 디스플레이장치에 대한 사용자 입력이 가능한 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품을 제공하는 것이다.
또한, 본 발명은, 디스플레이장치와 관련된 UI를 혼합 현실 환경을 통해 다양한 형태로 사용자에게 제공하는 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품을 제공하는 것이다.
또한, 본 발명은, 스크린에 표시되는 UI에 대하여 원격으로 정밀한 사용자 선택이 가능한 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품을 제공하는 것이다.
또한, 본 발명은 스크린 영역을 확장하여 디스플레이장치와 관계된 다양한 가상 UI를 사용자에게 제공할 수 있는 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품을 제공하는 것이다.
본 발명 일 실시예에 따른 전자장치는, 카메라; 디스플레이장치와 통신 가능한 통신부; 디스플레이부; 및 디스플레이장치로부터 위치정보를 포함하는 UI정보를 수신하고, 수신된 UI정보에 기초하여 디스플레이부가 카메라에 의해 촬상된 이미지의 위치정보에 대응하는 위치에 가상UI를 표시하도록 하고, 가상UI에 대한 사용자입력정보가 디스플레이장치에 전송되도록 통신부를 제어하는 프로세서를 포함한다. 이로 인하여, 촬상된 이미지와 가상 UI가 혼합된 이미지를 표시하는 MR 디바이스를 이용하여 디스플레이장치를 원격으로 제어할 수 있다.
프로세서는, 촬상된 이미지로부터 디스플레이장치의 스크린 영역을 결정하고, 촬상된 이미지에서 결정된 스크린 영역에 대한 소정 위치에 가상 UI를 표시하도록 디스플레이부를 제어할 수 있다. 이에, TV 스크린 영역의 위치에 기반하여 가상 UI가 표시되므로, 가상 UI에 대한 사용자입력 위치를 정확하게 검출할 수 있다.
프로세서는, 결정된 스크린 영역의 상하좌우 중 적어도 하나에 가상 UI가 위치되도록 디스플레이부를 제어할 수 있다. 이에, 스크린 영역을 확장하여 디스플레이장치와 관계된 다양한 가상 UI를 사용자에게 제공할 수 있다.
프로세서는, 결정된 스크린 영역 내에서 디스플레이장치의 스크린에 표시된 메뉴에 대응하여 가상 UI가 위치되도록 디스플레이부를 제어할 수 있다. 이에, 사용자가 TV 스크린 내에 표시된 UI를 선택하는 느낌으로 가상 UI를 자유롭게 선택할 수 있다.
프로세서는, 디스플레이부에 의해 제공되는 사용자의 시야영역 내의 기설정된 위치에 가상 UI가 표시되도록 디스플레이부를 제어할 수 있다. 이에, 사용 빈도가 높은 메뉴는 사용자의 시야영역의 변경과 관계없이 항상 표시되도록 하여 사용자 편의를 돕는다.
프로세서는, 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 디스플레이장치에 대한 전자장치의 상대적인 위치를 결정하고, 결정된 위치에 대응하여 스크린 영역을 결정할 수 있다. 이에, TV 스크린 화면과 자연스럽게 가상 UI가 표시되므로 사용자의 몰입감을 높일 수 있다.
프로세서는, 디스플레이장치로부터 통신부를 통해 가상 UI의 좌표정보를 수신하고, 디스플레이부에 의해 제공되는 사용자의 시야영역 내에서 좌표정보에 대응하여 가상 UI가 표시되도록 할 수 있다. 이에, 디스플레이장치로부터 수신된 데이터를 활용하여 적절한 위치에 가상 UI 가 표시된다.
프로세서는, 가상 UI를 선택하는 사용자 제스처에 응답하여 선택된 가상 UI의 좌표정보 또는 선택된 UI에 대응하는 제어 커맨드를 사용자입력정보로서 디스플레이장치로 전송하도록 통신부를 제어할 수 있다. 이에, 사용자 제스처에 대응한 적절한 동작이 디스플레이장치에서 수행될 수 있다.
가상 UI는 디스플레이장치를 제어하기 위한 메뉴, 디스플레이장치에서 재생 가능한 컨텐츠, 디스플레이장치에서 실행 가능한 어플리케이션 중 적어도 하나에 대응할 수 있다. 이에, 사용자 선택이 가능한 다양한 가상 UI가 제공되어 사용자의 편의가 보다 향상된다.
프로세서는, 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 통신부를 통한 디스플레이장치와의 연결을 수행할 수 있다. 이에, 통신설정이 익숙하지 않은 사용자도 어려움 없이 간편하게 TV와 MR 디바이스를 연결하여 사용할 수 있다.
한편, 본 발명 일 실시예에 따른 전자장치의 제어방법은, 카메라에 의한 촬상을 수행하는 단계; 전자장치와 통신 가능한 디스플레이장치로부터 위치정보를 포함하는 UI 정보를 수신하는 단계; 수신된 UI 정보에 기초하여 촬상된 이미지의 위치정보에 대응하는 위치에 가상 UI가 혼합된 이미지를 표시하는 단계; 및 가상 UI에 대한 사용자입력이 감지되는 것에 응답하여, 감지된 사용자입력정보를 디스플레이장치로 전송하는 단계를 포함한다. 이로 인하여, 촬상된 이미지와 가상 UI가 혼합된 이미지를 표시하는 MR 디바이스를 이용하여 디스플레이장치를 원격으로 제어할 수 있다.
촬상된 이미지로부터 디스플레이장치의 스크린 영역을 결정하는 단계; 및 촬상된 이미지에서 결정된 스크린 영역에 대한 소정 위치에 가상 UI를 표시하는 단계를 더 포함할 수 있다. 이에, TV 스크린 영역의 위치에 기반하여 가상 UI가 표시되므로, 가상 UI에 대한 사용자입력 위치를 정확하게 검출할 수 있다.
가상 UI를 표시하는 단계는, 결정된 스크린 영역의 상하좌우 중 적어도 하나에 가상 UI가 위치되도록 할 수 있다. 이에, 스크린 영역을 확장하여 디스플레이장치와 관계된 다양한 가상 UI를 사용자에게 제공할 수 있다.
가상 UI를 표시하는 단계는, 결정된 스크린 영역 내에서 디스플레이장치의 스크린에 표시된 메뉴에 대응하여 가상 UI가 위치되도록 할 수 있다. 이에, 사용자가 TV 스크린 내에 표시된 UI를 선택하는 느낌으로 가상 UI를 자유롭게 선택할 수 있다.
가상 UI를 표시하는 단계는, 전자장치의 디스플레이부에 의해 제공되는 사용자의 시야영역 내의 기설정된 위치에 가상 UI가 표시되도록 할 수 있다. 이에, 사용 빈도가 높은 메뉴는 사용자의 시야영역의 변경과 관계없이 항상 표시되도록 하여 사용자 편의를 돕는다.
스크린 영역을 결정하는 단계는, 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 디스플레이장치에 대한 전자장치의 상대적인 위치를 결정하는 단계; 및 결정된 위치에 대응하여 스크린 영역을 결정하는 단계를 포함할 수 있다. 이에, TV 스크린 화면과 자연스럽게 가상 UI가 표시되므로 사용자의 몰입감을 높일 수 있다.
UI 정보를 수신하는 단계는, 디스플레이장치로부터 가상 UI의 좌표정보를 수신하고, 가상 UI가 혼합된 이미지를 표시하는 단계는, 전자장치의 디스플레이부에 의해 제공되는 사용자의 시야영역 내에서 좌표정보에 대응하여 가상 UI가 표시되도록 할 수 있다. 이에, 디스플레이장치로부터 수신된 데이터를 활용하여 적절한 위치에 가상 UI 가 표시된다.
가상 UI를 선택하는 사용자 제스처를 수신하는 단계; 및 사용자 제스처에 응답하여 선택된 가상 UI의 좌표정보 또는 선택된 가상 UI에 대응하는 제어 커맨드를 사용자입력정보로서 디스플레이장치로 전송하는 단계를 더 포함할 수 있다. 이에, 사용자 제스처에 대응한 적절한 동작이 디스플레이장치에서 수행될 수 있다.
카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 통신부를 통한 디스플레이장치와의 연결을 수행하는 단계를 더 포함할 수 있다. 이에, 통신설정이 익숙하지 않은 사용자도 어려움 없이 간편하게 TV와 MR 디바이스를 연결하여 사용할 수 있다.
한편, 본 발명 일 실시예에 따른 컴퓨터프로그램제품은, 인스트럭션을 저장하는 메모리와; 프로세서를 포함하며, 인스트럭션은, 프로세서에 의해 실행되면, 디스플레이장치로부터 위치정보를 포함하는 UI 정보를 수신하고, 수신된 UI 정보에 기초하여 카메라에 의해 촬상된 이미지의 위치정보에 대응하는 위치에 가상 UI가 혼합된 이미지를 표시하고, 가상 UI에 대한 사용자입력이 감지되는 것에 응답하여 감지된 사용자입력정보가 디스플레이장치로 전송되도록 한다. 이로 인하여, 촬상된 이미지와 가상 UI가 혼합된 이미지를 표시하는 MR 디바이스를 이용하여 디스플레이장치를 원격으로 제어할 수 있다.
상기한 바와 같은 본 발명의 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품에 따르면, 전자장치가 카메라에 의해 촬상된 이미지와 가상 UI가 혼합된 이미지를 표시하고, 표시된 가상 UI에 대한 사용자입력에 따른 신호를 디스플레이장치로 전송함으로써, 혼합 현실을 제공하는 전자장치를 이용한 디스플레이장치의 원격 제어가 가능하다.
또한, 가상 UI의 위치정보는 디스플레이장치로부터 수신되고, 가상 UI가 디스플레이장치의 스크린 영역에 기반하여 위치되므로, 사용자입력 위치를 정확하게 검출할 수 있으므로, 사용자입력의 활용 범위가 넓다.
또한, 혼합 현실 환경에서 표시되는 가상 UI의 형태, 종류, 개수 및 그 표시되는 위치가 제한되지 않으므로, 확장된 사용자입력 기능을 제공하는 효과가 있다.
도 1은 본 발명 일 실시예에 의한 전자장치와 디스플레이장치를 포함하는 시스템을 도시한 예이다.
도 2는 본 발명 일 실시예에 의한 디스플레이장치(100)의 구성을 도시한 블록도이다.
도 3은 본 발명 일 실시예에 의한 전자장치(200)의 구성을 도시한 블록도이다.
도 4는 본 발명 일 실시예에 따른 디스플레이장치 및 전자장치 간 동작의 흐름도이다.
도 5 내지 도 8은 본 발명 실시예에 따라 디스플레이장치의 화면에 표시되는 패턴의 예들을 도시한 것이다.
도 9 내지 도 12는 본 발명 실시예에 따른 전자장치를 통해 보여주는 가상 UI를 도시한 것이다.
도 13은 본 발명 일 실시예에 따른 전자장치의 제어방법을 도시한 흐름도이다.
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 나타낸다.
도 1은 본 발명 일 실시예에 의한 전자장치와 디스플레이장치를 포함하는 시스템을 도시한 예이다.
일 실시예에서 디스플레이장치(100)는 전자장치(200)에 의한 제어대상 기기로서, 전자장치(200)를 포함한 원격 입력장치 예를 들어, 리모컨(remote control) 또는 기기 자체에 마련된 조작 패널과 같은 입력부로부터 수신되는 사용자(10)의 명령에 따라 동작한다. 디스플레이장치(100)는, 도 1과 같이, 사용자에 의해 선택 가능한 UI(user interface, 이하, GUI(graphic user interface) 라고도 함)를 화면에 표시할 수 있다.
디스플레이장치(100)는 외부의 영상공급원(미도시)으로부터 제공되는 영상신호를 기 설정된 영상처리 프로세스에 따라서 처리하여 영상으로 표시한다.
일 실시예에서 디스플레이장치(100)는, 도 1에 도시된 바와 같이, 방송국의 송출장비로부터 수신되는 방송신호/방송정보/방송데이터에 기초한 방송 영상을 처리하는 텔레비전(TV)으로 구현될 수 있다. 디스플레이장치(100)에서 수신되는 방송신호는 지상파, 케이블, 위성 등을 통해서도 수신 가능하며, 본 발명에서의 신호공급원은 방송국에 한정되지 않는다. 즉, 정보의 송수신이 가능한 장치 또는 스테이션이라면 본 발명의 신호공급원에 포함될 수 있다.
또한, 디스플레이장치(100)는 다양한 형식의 외부장치로부터 영상신호를 수신할 수 있다. 또한, 디스플레이장치(100)는 내부/외부의 저장매체에 저장된 신호/데이터에 기초한 동영상, 정지영상, 어플리케이션(application), OSD(on-screen display), 다양한 동작 제어를 위한 유저 인터페이스(UI) 등을 화면에 표시하도록 신호를 처리할 수 있다.
일 실시예에서, 디스플레이장치(100)는 스마트 TV 또는 IP TV(Internet Protocol TV)로 구현될 수 있다. 스마트 TV는 실시간으로 방송신호를 수신하여 표시할 수 있고, 웹 브라우징 기능을 가지고 있어 실시간 방송신호의 표시와 동시에 인터넷을 통하여 다양한 컨텐츠 검색 및 소비가 가능하고 이를 위하여 편리한 사용자 환경을 제공할 수 있는 TV이다. 또한, 스마트 TV는 개방형 소프트웨어 플랫폼을 포함하고 있어 사용자에게 양방향 서비스를 제공할 수 있다. 따라서, 스마트 TV는 개방형 소프트웨어 플랫폼을 통하여 다양한 컨텐츠, 예를 들어 소정의 서비스를 제공하는 어플리케이션을 사용자(10)에게 제공할 수 있다. 이러한 어플리케이션은 다양한 종류의 서비스를 제공할 수 있는 응용 프로그램으로서, 예를 들어 SNS, 금융, 뉴스, 날씨, 지도, 음악, 영화, 게임, 전자 책 등의 서비스를 제공하는 어플리케이션을 포함한다.
그러나, 본 발명의 사상이 디스플레이장치(100)의 구현 예시에 한정되지 않는 바, 디스플레이장치(100)는 TV 이외에도 영상을 처리 가능한 다양한 종류의 구현 예시 예를 들어, 컴퓨터 본체에 접속된 모니터 등에도 적용될 수 있다.
전자장치(200)는 디스플레이장치(100)의 화면을 포함하는 실제 환경에 대한 촬상 기능을 갖는다.
일 실시예에서 전자장치(200)는 촬상된 실제 환경과, 하나 이상의 가상 UI와 같은 가상 환경을 혼합하여 렌더링(rendering)함으로써, 이른바 혼합 현실(mixed reality, MR) 또는 증강 현실(augmented reality, AR) 환경을 사용자(10)에게 제공한다. 전자장치(200)(이하, MR 디바이스 라고도 한다)는 실제 환경에 기반하여 생성된 혼합 이미지를 사용자(10)에게 디스플레이하며, 디스플레이된 혼합 현실에서 가상 UI에 대한 사용자 입력을 수신할 수 있도록 마련된다.
실제 환경(물리적 환경)은 사용자(10)가 참여하고 있는 현실 세계 즉 현실의 공간을 의미한다. 즉, 실제 환경에는 현실 공간을 구성하는 다양한 객체가 포함된다.
가상 환경은 다양한 형태의 가상 객체로서 3차원(3D) 홀로그래픽 객채와 2차원(2D) 가상 이미지와 같은 하나 이상의 시각적 엘리먼트를 제공한다.
일 실시예에서 가상 객체는 현실 공간의 위치에 기반하여 생성 및 디스플레이된다. 다른 실시예에서 가상 객체는 사용자(10)의 시야 범위 내의 소정 위치에 생성 및 디스플레이된다. 본 발명에서 가상 UI는 3차원 홀로그래픽 객체 또는 2차원 가상 이미지의 형태로 구현될 수 있다.
이하, 본 발명에서 전자장치(200)의 디스플레이 상에 형성되는 가상 이미지의 한 예로서 가상 UI를 특정하고 있으나, 가상 UI 대신에 가상 이미지 또는 홀로그램 이라는 표현을 사용할 수도 있고, 가상 이미지는 컨텐츠 등과 같이 실물이 아닌 UI 또는 정지 이미지 등의 가상 객체를 포함하는 의미로 사용된다.
전자장치(200)는 디스플레이장치(100)를 포함하여 실내에 설치된 다양한 전자기기, 가구, 벽 등의 실제 객체들과 생성된 가상 객체들을 포함하는 혼합 이미지를 사용자에 의해 시인 가능하도록 디스플레이한다.
일 실시예에서 전자장치(200)는, 도 1에 도시된 바와 같이, 머리 장착형 디스플레이(head mounted display, HMD) 디바이스(201) 또는 다른 착용식 디바이스일 수 있다. HMD 디바이스(201)는 투명 디스플레이를 포함한 착용식 안경 또는 고글 형태의 웨어러블 디바이스인 것을 일례로 한다. HMD 디바이스(201)는 투명 또는 반투명 디스플레이 패널이 사용자(10) 즉, 뷰어(viewer)의 안구 전방에 위치되는 다양한 형태로 구현될 수 있다.
일 실시예에서 HMD 디바이스(201)는 사용자의 눈과 근거리에 위치한 접안식 디스플레이 장치로 구현될 수 있다. 접안식 디스플레이 장치는 사용자의 양안에 대응되는 두 개의 디스플레이를 포함할 수 있으며, 두 디스플레이는 동일한 화면을 표시하거나 다른 화면을 표시할 수 있다.
HMD 디바이스(201)는 사용자(10)의 움직임에 따른 이미지를 디스플레이할 수 있다. 사용자(10)는 몸 전체를 움직이거나, 머리만 움직일 수 있으며, 이 경우 HMD 디바이스는 사용자(10)의 움직임에 따라 변경되는 실제 환경에 대응하는 이미지를 디스플레이하게 된다.
일 실시예에서 HMD 디바이스(201)는 사용자(10)가 바라보는 실제 환경의 외관을 시각적으로 증대시키도록 구성될 수 있다. 예를 들어, 혼합 현실 환경을 생성하기 위해 투명 디스플레이를 통해 제공되는 실제 환경의 외관은 촬상된 원본 이미지와 비교하여 색상 또는 밝기가 증대되어 사용자 시인성을 높이는 형태로 제공될 수 있다.
HMD 디바이스(201)는 사용자(10)로부터 제스처(gesture) 즉, 모션(motion) 입력과 오디오 즉, 음성 입력을 수신 가능하게 마련된다. 즉, 사용자(10)는 HMD 디바이스를 착용한 상태에서 신체 예를 들어, 손가락을 이용하여 가상 UI를 선택하는 제스처를 수행할 수 있으며, 그 선택 정보는 디스플레이장치(100)로 전송되어 디스플레이장치(100)로 하여금 그 대응되는 동작을 수행하게 제어할 수 있다.
다른 실시예에서 전자장치(200)는 휴대폰, 스마트폰, 스마트패드 등의 모바일 디바이스(202)일 수 있다.
모바일 디바이스(202)는 디스플레이부를 통해 가상 UI를 포함하는 혼합 이미지를 사용자에게 보여준다. 사용자는 터치스크린에 대한 제스처 즉, 터치 입력에 의해 표시된 가상 UI를 선택하고, 그 선택 정보가 디스플레이장치(100)로 전달된다.
도 1에서는 사용자(10)가 HMD 디바이스(201)와 모바일 디바이스(202)를 모두 사용하여 디스플레이장치(100)와 인터랙션하도록 도시되어 있으나 이는 예시에 불과하며, 사용자는 하나의 전자장치(200) 만을 사용하여 디스플레이장치(100)를 원격 제어하도록 마련될 수 있다. 즉, 본 발명에서 전자장치(200)는 디스플레이장치(100)의 구현 형태인 텔레비전의 리모컨을 대체하는 원격 제어기기로서 동작 가능할 것이다.
이하, 본 발명 실시예에 따른 디스플레이장치(100)와 전자장치(200)의 구체적인 구성을 도면들을 참조하여 설명한다.
도 2는 본 발명 일 실시예에 의한 디스플레이장치(100)의 구성을 도시한 블록도이다.
도 2에 도시된 바와 같이, 디스플레이장치(100)는 영상수신부(110), 제1 영상처리부(120), 제1 디스플레이부(130), 제1 저장부(140), 제1 통신부(150) 및 제1 제어부(160)를 포함한다.
영상수신부(110)는 외부로부터 영상신호(컨텐츠)를 수신하여 제1 영상처리부(120)로 전달한다. 수신되는 신호의 규격은 디스플레이장치(100)의 구현 형태에 대응하여 다양한 방식으로 구성될 수 있다. 예를 들면, 영상수신부(110)는 방송국(미도시)으로부터 송출되는 RF(radio frequency) 신호를 무선으로 수신하거나, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART, HDMI(high definition multimedia interface) 규격 등에 의한 영상신호를 유선으로 수신할 수 있다.
일 실시예에서 영상수신부(110)는 영상신호가 방송신호인 경우, 이 방송신호를 채널 별로 튜닝하기 위한 튜너를 포함할 수 있다.
또한, 영상신호는 외부기기로부터 입력될 수 있으며, 예를 들어, 스마트폰(smart phone), 태블릿(tablet)과 같은 스마트패드(smart pad), MP3 플레이어를 포함하는 모바일 장치(mobile device), 테스크탑(desktop) 또는 랩탑(laptop)을 포함하는 컴퓨터(PC) 등과 같은 외부기기로부터 입력될 수 있다. 또한, 영상신호는 인터넷 등과 같은 네트워크를 통해 수신되는 데이터로부터 기인한 것일 수 있으며, 이 경우 디스플레이장치(100)는, 후술하는 제1 통신부(150)를 통해 영상신호를 수신할 수 있다.
또한, 영상신호는 플래시메모리, 하드디스크 등과 같은 비휘발성의 제1 저장부(140)에 저장된 데이터로부터 기인한 것일 수 있다. 제1 저장부(140)는 디스플레이장치(100)의 내부 또는 외부에 마련될 수 있으며, 외부에 마련되는 경우 제1 저장부(140)가 연결되는 연결부(도시되지 아니함)를 더 포함할 수 있다.
제1 영상처리부(120)는 영상수신부(110)로부터 수신된 영상신호에 대해 기 설정된 다양한 영상/음성 처리 프로세스를 수행한다. 제1 영상처리부(120)는 이러한 영상처리 프로세스를 수행하여 생성 또는 결합한 출력 신호를 제1 디스플레이부(130)에 출력함으로써, 제1 디스플레이부(130)에 영상신호에 대응하는 영상이 표시되게 한다.
제1 영상처리부(120)는 영상신호를 디스플레이장치(100)의 영상 포맷에 대응하도록 디코드하는 디코더(decoder), 영상신호를 제1 디스플레이부(130)의 출력규격에 맞도록 조절하는 스케일러(scaler)를 포함한다. 본 실시예의 디코더는 예를 들어, MPEG (Moving Picture Experts Group) 디코더로 구현될 수 있다. 여기서, 본 발명의 제1 영상처리부(120)가 수행하는 영상처리 프로세스의 종류는 한정되지 않는바, 예를 들면 인터레이스(interlace) 방식의 방송신호를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환, 라인 스캐닝(line scanning) 다양한 프로세스 중 적어도 하나를 더 수행할 수 있다.
제1 영상처리부(120)는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적 구성의 그룹으로 구현되거나, 또는 여러 기능을 통합시킨 메인 SoC(System-on-Chip)에 포함되는 형태로서 구현 가능하다. 메인 SoC는 후술하는 제1 제어부(160)를 구현하는 일례인 적어도 하나의 마이크로프로세서 또는 CPU를 포함할 수 있다.
일 실시예에서 제1 영상처리부(120)는 이러한 각 프로세스를 수행하기 위한 다양한 칩셋, 메모리, 전자부품, 배선 등의 회로 구성이 인쇄회로기판(PCB) 상에 실장된 영상보드로 구현될 수 있다. 이 경우, 디스플레이장치(100)에는 영상수신부(110), 제1 영상처리부(120) 및 제1 제어부(160)가 단일의 영상보드에 마련될 수 있다. 물론, 이는 일례에 불과하고 서로 통신 가능하게 연결된 복수의 인쇄회로기판에 배치될 수도 있다.
제1 영상처리부(120)에 의해 처리된 영상신호는 제1 디스플레이부(130)로 출력된다. 제1 디스플레이부(130)는 제1 영상처리부(120)로부터 수신된 영상신호에 대응하는 영상을 표시한다.
제1 디스플레이부(130)의 구현 방식은 한정되지 않으며, 예를 들면 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 제1 디스플레이부(130)는 그 구현 방식에 따라서 부가적인 구성(구동부)을 추가적으로 포함할 수 있다.
제1 디스플레이부(130)에는 사용자에 의해 선택 가능한 적어도 하나의 UI가 표시된다. 일 실시예에서 제1 디스플레이부(130)에 표시된 UI는 후술하는 전자장치(200)에 의해 표시되는 가상 UI에 대응될 수 있다.
일 실시예에서 제1 디스플레이부(130) 화면의 소정 위치에는 패턴이 표시될 수 있다. 디바이스(200)는 제1 디스플레이부(130)에 표시된 패턴을 촬상하여 획득된 데이터에 기초하여 디스플레이장치(100)와 전자장치(200) 간의 거리 및 방향 정보를 결정한다. 이렇게 결정된 거리 및 방향 정보는 전자장치(200)에서 혼합 현실 디스플레이를 생성하는데 이용된다.
제1 저장부(140)는 디스플레이장치(100)의 다양한 데이터를 저장하도록 구성된다. 제1 저장부(140)는 디스플레이장치(100)에 공급되는 전원이 차단되더라도 데이터들이 남아있어야 하며, 변동사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(writable ROM)로 구비될 수 있다. 즉, 제1 저장부(140)는 플래쉬 메모리(flash memory), EPROM 또는 EEPROM 중 어느 하나로 구비될 수 있다. 제1 저장부(140)는 디스플레이장치(100)의 읽기 또는 쓰기 속도가 비휘발성 메모리에 비해 빠른 DRAM 또는 SRAM과 같은 휘발성 메모리(volatile memory)를 더 구비할 수 있다.
제1 저장부(140)에 저장되는 데이터는, 예를 들면 디스플레이장치(100)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.
구체적으로, 제1 저장부(140)는 제1 제어부(160)의 제어에 따라 각 구성요소들의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 제1 저장부(140)는 디스플레이장치(100)의 제어를 위한 제어 프로그램, 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 UI, UI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
일 실시예에서 제1 저장부(140)에는 후술하는 제1 통신부(150)를 통해 전자장치(200)와 다이렉트로 통신할 수 있는 식별정보(예를 들어, MAC address)가 더 저장될 수 있다.
본 발명의 실시예에서 저장부 라는 용어는 제1 저장부(140), 제1 제어부(160) 내 롬(ROM)(도시되지 아니함), 램(RAM)(도시되지 아니함) 또는 디스플레이장치(100)에 장착 가능한 메모리 카드(도시되지 아니함)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하는 것으로서 정의된다.
제1 통신부(150)는 전자장치(200)를 포함한 다양한 외부기기와 유선 혹은 무선 통신방식을 사용하여 통신한다. 제1 통신부(150)는 유선 및/또는 무선 통신모듈을 포함한다.
일 실시예에서 제1 통신부(150) 는 블루투스(bluetooth), 블루투스 저에너지(bluetooth low energy), 적외선통신(IrDA, infrared data association), 와이파이 다이렉트(Wi-Fi Direct), 지그비(Zigbee), UWB(Ultra Wideband), NFC(Near Field Communication) 등의 근거리 통신모듈 중 적어도 하나를 포함한다. 근거리 통신모듈은 AP(access point)없이 무선으로 디스플레이장치(100)와 전자장치(200) 사이에 다이렉트로 통신을 지원하도록 마련될 수 있다.
일 실시예에서 제1 통신부(150)는 무선랜유닛을 더 포함한다. 무선랜유닛은 제1 제어부(160)의 제어에 따라 AP를 통해 무선으로 전자장치(200)와 연결될 수 있다. 무선랜유닛은 와이파이(Wi-Fi) 통신모듈을 포함할 수 있다.
일 실시예에서 제1 통신부(150)는 이더넷(Ethernet) 등과 같은 유선 통신모듈을 포함할 수 있다.
본 발명 실시예에 따른 디스플레이장치(100)의 통신부(160)는 성능에 따라 근거리 통신모듈, 무선랜유닛 및 이더넷 중 하나 또는 2 이상의 조합으로 이루어질 수 있다.
제1 제어부(160)는 디스플레이장치(100)의 제반 구성들이 동작하기 위한 제어를 수행한다. 제1 제어부(160)는 이러한 제어 동작을 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다.
프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 슬립 모드(sleep mode, 예를 들어, 대기 전원만 공급되고 디스플레이장치로서 동작하지 않는)에서 동작하는 서브 프로세서(sub processor)를 포함할 수 있다. 또한, 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명 일실시예에서 디스플레이장치(100)가 모니터로 구현되는 경우, 제1 제어부(160)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 더 포함할 수 있다.
또한, 다른 실시예에서 디스플레이장치(100)가 디지털 TV로 구현되는 경우, 프로세서가 GPU를 포함할 수 있으며, 예를 들어 프로세서는 코어(core)와 GPU가 결합된 SoC(System On Chip) 형태로 구현될 수 있다.
본 발명에서 제1 제어부(160)를 구현하는 일례인 프로세서는 디스플레이장치(100)에 내장되는 PCB 상에 실장되는 메인 SoC(Main SoC)에 포함되는 형태로서 구현 가능하다. 다른 실시예에서 메인 SoC는 영상신호를 처리하는 제1 영상처리부(120)를 더 포함할 수 있다.
제어프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 디스플레이장치(100)의 제조 시에 디스플레이장치(100)에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 디스플레이장치(100)에 설치될 수 있다. 응용 프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 디스플레이장치(100)로 다운로드될 수도 있다. 이와 같은 외부 서버는, 본 발명의 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.
일 실시예에서 제1 제어부(160)는 제1 통신부(150)를 통해 전자장치(200)와 통신을 수행한다. 제1 제어부(160)는 제1 디스플레이부(130)에 표시된 UI 및/또는 전자장치(200)의 디스플레이 상에 표시되는 가상 UI에 대한 정보를 전자장치(200)로 송신하도록 제1 통신부(150)를 제어한다. 또한, 제1 제어부(160)는 제1 통신부(150)를 통해 전자장치(200)로부터 가상 UI에 대한 사용자 선택 정보를 수신하고, 그 수신된 사용자 선택에 대응하는 동작을 수행하게 된다.
일 실시예로서, 상기와 같은 제1 제어부(160)의 동작은 디스프레이장치(100)와 별도로 마련되는 컴퓨터프로그램제품(미도시)에 저장된 컴퓨터프로그램으로 구현될 수도 있다.
이 경우, 컴퓨터프로그램제품은 컴퓨터프로그램에 해당하는 인스트럭션이 저장된 메모리와, 프로세서를 포함한다. 인스트럭션은, 프로세서에 의해 실행되면, 가상 UI와 관련된 정보를 전자장치(200)로 송신하고, 전자장치(200)를 통해 수신되는 사용자 선택에 대응하는 동작을 수행하는 것을 포함한다.
이에 따라, 디스플레이장치(100)는 별도의 컴퓨터프로그램제품에 저장된 컴퓨터프로그램을 다운로드 및 실행하여, 제1 제어부(160)의 동작을 수행할 수 있다.
도 3은 본 발명 일 실시예에 의한 전자장치(200)의 구성을 도시한 블록도이다.
도 3은 전자장치(200)가 HMD 디바이스(201)로 구현된 경우의 구성을 도시한 것으로, 전자장치(200)는, 도 3에 도시된 바와 같이, 카메라(210), 제2 영상처리부(220), 제2 디스플레이부(230), 제2 저장부(240), 제2 통신부(250), 센서부(260) 및 제2 제어부(270)를 포함한다.
카메라(210)는 촬상된 이미지가 투과되는 렌즈 및 이미지 센서를 포함한다. 카메라(210)는 렌즈를 통해 입력되는 광을 전기적인 이미지 신호로 변환하여 제2 제어부(270)로 출력한다. 사용자는 이러한 카메라(210)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다.
렌즈는 외부로부터 입력된 광을 수렴시킴으로써 피사체의 이미지를 형성한다. 이미지 센서는 렌즈를 통해 입력된 외부 광에 의해 형성된 광학적 이미지를 전기적 이미지 신호로 검출한다. 이미지 센서로는 CCD(charge-coupled device) 이미지 센서, CMOS(complementary metal-oxide semiconductor) 이미지 센서 등을 사용할 수 있다.
일 실시예에서 카메라(210)는 복수의 촬영장치로 구성될 수 있다. 복수의 촬영장치는 사용자의 양안에 대응하여 두 개로 마련되거나, 경우에 따라 그 이상의 대수로 마련될 수 있다. 카메라(210)는 동영상을 촬영하는 비디오 카메라 및/또는 깊이 카메라를 더 포함할 수 있다.
일 실시예에서 카메라(210)는 사용자의 전방을 촬상한 이미지 데이터를 획득한다. 카메라(210)는 사용자가 제2 디스플레이부(230)의 화면을 통해 바라보는 시야각(시야범위)을 포함하는 화각으로 전방을 촬영할 수 있다. 카메라(210)에는 인체와 유사한 대략 90-110°의 시야각 확보를 위한 광각렌즈가 부착될 수 있다. 제2 제어부(270)는 예를 들어, 사용자의 양안에 대응하여 소정 거리 이격된 두 개의 촬영장치를 통해 획득한 이미지 데이터를 이용하여 현실 객체에 대한 전자장치(200)의 상대적인 거리 및 방향 정보를 획득할 수 있다.
일 실시예에서 전자장치(200)는 카메라(260)를 통해 시야범위 내에서 이루어지는 사용자의 제스처 즉, 모션 입력을 감지할 수 있도록 마련된다.
일 실시예에서 전자장치(200)에는 사용자의 사운드 입력(또는 음성 입력)을 수신하는 마이크(microphone)이 더 마련될 수 있다.
제2 영상처리부(220)는 카메라(210)에 의해 촬상된 실제 이미지에 대응하는 혼합 현실의 영상이 제2 디스플레이부(230)에 표시될 수 있도록 영상처리를 수행한다.
일 실시예에서 제2 영상처리부(220)는 카메라(210)로부터 입력되는 이미지, 제2 저장부(240)에 저장된 이미지, 제2 저장부(250)에 저장된 데이터 또는 통신부(260)를 통해 디스플레이장치(100)로부터 수신된 데이터에 기초하여 생성된 가상 UI 등을 프레임 단위로 처리하여, 제2 디스플레이부(230)의 화면 출력 특성(크기, 화질, 해상도 등)에 맞도록 영상처리를 수행할 수 있다.
제2 디스플레이부(230)는 제2 영상처리부(220)의 영상처리에 기반한 이미지를 표시한다. 제2 디스플레이부(230)에 표시되는 이미지는 카메라(210)에 의해 촬상된 현실 세계와, 적어도 하나의 가상 UI가 혼합된 혼합 현실 환경에 대응된다.
일 실시예에서 가상 UI는 현실 객체인 디스플레이장치(100)의 제1 디스플레이부(130) 화면에 대한 소정 위치 즉, 화면의 상하좌우 중 적어도 하나의 위치에 표시될 수 있다. 또는, 가상 UI는 전자장치(200)를 착용한 사용자(10)의 시야범위 내의 소정 위치 또는 전자장치(200)의 제2 디스플레이부(230) 영역 내의 고정된 소정 위치에 표시될 수 있다.
제2 디스플레이부(230)는 광원으로부터의 백색광(white light)이 변조되는 송신 투영 기술(transmissive projection technology), 반사 기술(reflective technology), 방사 기술(emissive technology) 등을 사용하여 구현될 수 있다. 이들 기술은 강력한 역광 및 높은 광 에너지 밀도를 갖는 LCD 유형 디스플레이를 사용하여 구현 가능하다.
일 실시예에서 제1 디스플레이부(130)는 표시영역을 광이 투과할 수 있는 투명 디스플레이 패널을 포함한다. 예를 들어, 제1 디스플레이부(130)는 투명 OLED(Organic Light Emitting Diode)를 사용한 자발광 구조가 적용됨으로써 영상을 표시하거나, 또는 별도의 발광성분 없이 외부광에 의해 영상을 표시하는 등 다양한 구조의 패널에 의해 구현될 수 있다. 여기서, 제1 디스플레이부(130)는 사용자의 양안에 대응되는 둘 이상의 투명 디스플레이 패널을 포함할 수 있다.
일 실시예에서 제2 디스플레이부(230)는 투사 광을 출력하는 프로젝터, 프로젝터로부터 출력되는 투사 광을 통과시키는 패널, 패널을 통과한 광을 스크린으로 확대 투영하는 투사렌즈를 포함할 수 있다. 이로써, 사용자는 전자장치(200) 즉, HMD 디바이스(201) 앞쪽의 공간에 실제 환경에 대응하는 직접적인 뷰(view)를 가지게 된다. 사용자는 HMD 디바이스(201)를 착용한 상태에서 현실 객체를 인지할 수 있으며, 동시에 투명 디스플레이 패널을 통해 가상 UI를 포함한 혼합 현실 화면을 볼 수 있게 된다. 이렇게 제2 디스플레이부(230)를 통해 형성되는 혼합 현실 화면은 사용자의 시야범위의 공간 내에서 3차원 좌표에 의해 가상객체의 위치가 특정된다.
제2 저장부(240)에는 전자장치(200)의 다양한 데이터를 저장하도록 구성된다. 제2 저장부(240)는 전자장치(200)에 공급되는 전원이 차단되더라도 데이터들이 남아있어야 하며, 변동사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(writable ROM)로 구비될 수 있다. 즉, 제2 저장부(240)는 플래쉬 메모리(flash memory), EPROM 또는 EEPROM 중 어느 하나로 구비될 수 있다. 제2 저장부(240)는 전자장치(200)의 읽기 또는 쓰기 속도가 비휘발성 메모리에 비해 빠른 DRAM 또는 SRAM과 같은 휘발성 메모리(volatile memory)를 더 구비할 수 있다.
제2 저장부(240)에 저장되는 데이터는, 예를 들면 전자장치(200)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.
구체적으로, 제2 저장부(240)는 제2 제어부(270)의 제어에 따라 각 구성요소들의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 제2 저장부(240)는 전자장치(200)의 제어를 위한 제어 프로그램, 제조사에서 제공되거나 디스플레이장치(100)와 같은 외부로부터 수신된 가상 UI의 정보, UI를 제공하기 위한 이미지들, 사용자 정보 또는 관련 데이터들을 저장할 수 있다.
일 실시예에서 제2 저장부(240)에는 후술하는 제2 통신부(250)를 통해 디스플레이장치(100)와 다이렉트로 통신할 수 있는 식별정보(예를 들어, MAC address)가 더 저장될 수 있다. 또한, 제2 저장부(240)는 사용자의 시야 공간에 대한 위치를 특정할 수 있는 좌표 정보가 더 저장될 수 있다.
제2 통신부(250)는 디스플레이장치(100)를 포함한 다양한 외부기기와 유선 혹은 무선 통신방식을 사용하여 통신한다. 제2 통신부(250)는 유선 및/또는 무선 통신모듈을 포함한다.
일 실시예에서 제2 통신부(250) 는 블루투스(bluetooth), 블루투스 저에너지(bluetooth low energy), 적외선통신(IrDA, infrared data association), 와이파이 다이렉트(Wi-Fi Direct), 지그비(Zigbee), UWB(Ultra Wideband), NFC(Near Field Communication) 등의 근거리 통신모듈 중 적어도 하나를 포함한다. 근거리 통신모듈은 AP(access point)없이 무선으로 디스플레이장치(100)와 전자장치(200) 사이에 다이렉트로 통신을 지원하도록 마련될 수 있다.
일 실시예에서 제2 통신부(250)는 무선랜유닛을 더 포함한다. 무선랜유닛은 제2 제어부(270)의 제어에 따라 AP를 통해 무선으로 디스플레이장치(100)와 연결될 수 있다. 무선랜유닛은 와이파이(Wi-Fi) 통신모듈을 포함할 수 있다.
일 실시예에서 제2 통신부(250)는 이더넷(Ethernet) 등과 같은 유선 통신모듈을 포함할 수 있다.
본 발명 실시예에 따른 전자장치(200)의 제2 통신부(250)는 성능에 따라 근거리 통신모듈, 무선랜유닛 및 이더넷 중 하나 또는 2 이상의 조합으로 이루어질 수 있다.
센서부(260)는 모션센서, 근접센서, 위치센서, 음향센서 등 외부 정보를 감지할 수 있는 각종 센서를 포함한다. 모션센서는 전자장치(200)의 움직임, 자세, 지향하는 방향, 기울어진 각도 등을 감지할 수 있다. 일 실시예에서 모션센서는 자이로스코프와 같은 방위센서를 구비하여, HMD 디바이스(201)를 장착한 사용자가 주시하는 방향이 어느 방향인지 감지할 수 있다. 또는 모션센서는 가속도 센서를 구비하여, HMD 디바이스(201)를 장착한 사용자가 움직이는 방향이나 속도를 감지할 수 있다.
일 실시예에서 센서부(260)는 사용자의 눈의 동공 반응, 포지션 및/또는 움직임을 추적하는 안구 추적 센서를 더 포함할 수 있다. 제2 제어부(270)는 안구 추적 센서로부터 검출된 정보에 기초하여 사용자가 어느 방향을 응시하고 있는지, 또한 어떤 물리적 객체 또는 가상 객체를 응시하고 있는지 결정할 수 있다.
제2 제어부(270)는 전자장치(200)의 제반 구성들이 동작하기 위한 제어를 수행한다. 제2 제어부(270)는 이러한 제어 동작을 수행할 수 있도록 하는 제어프로그램(혹은 인스트럭션)과, 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어프로그램을 실행하는 적어도 하나의 프로세서 혹은 CPU(Central Processing Unit)를 포함할 수 있다.
프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 슬립 모드(sleep mode, 예를 들어, 대기 전원만 공급되고 전자장치로서 동작하지 않는)에서 동작하는 서브 프로세서(sub processor)를 포함할 수 있다. 또한, 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명 일실시예에서 전자장치(200)의 프로세서에는 GPU가 포함될 수 있으며, 예를 들어 프로세서는 코어(core)와 GPU가 결합된 SoC(System On Chip) 형태로 구현될 수 있다.
제어프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 응용프로그램은, 전자장치(200)의 제조 시에 전자장치(200)에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 전자장치(200)에 설치될 수 있다. 응용 프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 전자장치(200)로 다운로드될 수도 있다. 이와 같은 외부 서버는, 본 발명의 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.
전자장치(200)의 제2 제어부(270)가 단일 프로세서 예를 들어 CPU로 구현되는 경우, CPU는 전자장치(200)에서 수행 가능한 다양한 기능들 예를 들어, 제2 디스플레이부(230)에 표시되는 혼합 현실 영상을 생성하기 위한 다양한 영상처리 프로세스의 진행에 대한 제어, 제2 통신부(250)를 통한 디스플레이장치(100)와의 유무선 네트워크 통신의 제어 등을 실행 가능하도록 마련될 수 있다.
일 실시예에서 전자장치(200)는 제2 통신부(250)를 통해 디스플레이장치(100)와 통신을 수행한다. 제2 제어부(270)는 디스플레이장치(100)로부터 제2 디스플레이부(230)에 표시되는 가상 UI에 대한 정보를 수신하도록 제2 통신부(250)를 제어한다. 또한, 제2 제어부(270)는 가상 UI에 대한 사용자 입력을 카메라(210)를 통해 검출하고, 그 검출된 사용자 입력에 대응하는 제어신호를 디스플레이장치(100)로 송신하여, 디스플레이장치(100)로 하여금 대응하는 동작을 수행하도록 한다.
일 실시예로서, 상기와 같은 제2 제어부(270)의 동작은 전자장치(200)와 별도로 마련되는 컴퓨터프로그램제품(미도시)에 저장된 컴퓨터프로그램으로 구현될 수도 있다.
이 경우, 컴퓨터프로그램제품은 컴퓨터프로그램에 해당하는 인스트럭션이 저장된 메모리와, 프로세서를 포함한다. 인스트럭션은, 프로세서에 의해 실행되면, 가상 UI와 관련된 정보를 디스플레이장치(100)로부터 수신하고, 수신된 정보에 기초한 가상 UI를 현실 세계에 반영한 혼합 현실 환경을 렌더링하여 디스플레이부(230)로 출력되도록 하고, 표시된 가상 UI에 대한 사용자 선택에 대응하는 제어신호를 디스플레이장치(100)로 송신하는 것을 포함한다.
이에 따라, 전자장치(200)는 별도의 컴퓨터프로그램제품에 저장된 컴퓨터프로그램을 다운로드 및 실행하여, 제2 제어부(270)의 동작을 수행할 수 있다.
한편, 본 발명 다른 실시예에 따르면 전자장치(200)는 스마트폰, 스마트패드(태블릿)와 같은 모바일 디바이스(202)로 구현될 수 있다.
모바일 디바이스(202)로 구현된 본 발명 다른 실시예에 따른 전자장치(200)는 도 3에 도시된 HMD 디바이스(201)로 구현된 일 실시예와 마찬가지로 카메라(210), 제2 영상처리부(220), 제2 디스플레이부(230), 제2 저장부(240), 제2 통신부(250), 센서부(260) 및 제2 제어부(270)를 포함하며, 다만 제2 디스플레이부(230)의 구현 형태가 상이할 수 있다.
모바일 디바이스(202)로 구현된 본 발명 다른 실시예에 따른 전자장치(200)에서 제2 디스플레이부(230)의 구현 방식은 한정되지 않으며, 예를 들면 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 또한, 제2 디스플레이장치(230)는 가상 UI룰 표시하고, 가상 UI에 대한 사용자 제스처로서 터치입력을 감지하는 터치스크린을 포함한다. 제2 제어부(270)는 터치스크린에 표시된 가상 UI에 대한 사용자입력정보를 제2 통신부(250)를 통해 디스플레이장치(100)로 전달한다.
그러므로, 다른 실시예의 전자장치에서 일 실시예의 전자장치와 동일한 동작을 수행하는 구성요소에 대해서는 동일한 명칭 및 참조번호를 사용하며, 중복 설명을 피하기 위하여 이 부분에 대해서는 자세한 설명을 생략하기로 한다.
이하, 도면을 참조하여 본 발명 실시예에 따른 디스플레이장치(100)와 전자장치(200)에서 수행되는 제어동작에 대해서 설명하도록 한다.
도 4는 본 발명 일 실시예에 따른 디스플레이장치 및 전자장치 간 동작의 흐름도이다.
도 4에 도시된 바와 같이, 본 발명 일 실시예에 따라 사용자에게 혼합 현실 환경을 제공하는 전자장치(200) 즉, MR 디바이스는 공간 내에서 실제 환경을 구성하는 객체인 디스플레이장치(100)와의 연결을 위한 통신 설정 즉, 페어링을 수행한다(301). 여기서, 디스플레이장치(100)와 전자장치(200)는 블루투스, 와이파이 다이렉트와 같은 근거리 통신에 의해 연결될 수 있으며, 연결된 디스플레이장치(100)는 전자장치(200)로부터 사용자 입력에 따른 제어신호를 수신하는 제어대상 기기로서 동작한다.
이를 위해, 전자장치(200)는 디스플레이장치(100)로부터 페어링을 위한 식별정보를 수신한다.
일 실시예에서 전자장치(200)는 카메라(210)를 통해 디스플레이장치(100)의 제1 디스플레이부(130) 화면에 표시된 패턴을 촬상하고, 촬상된 이미지로부터 디스플레이장치(100)와의 통신 설정을 위한 식별정보 예를 들어, MAC 어드레스를 인지할 수 있다. 이 경우, 디스플레이장치(100)에 패턴이 표시되는 것이 통신 설정을 위한 트리거 역할을 수행하게 된다. 전자장치(100)는 디스플레이장치(100)의 식별정보의 수신에 응답하여 자신의 식별정보를 디스플레이장치(100)로 전송하고, 그에 따라 양 장치 간의 페어링이 완료된다.
다른 실시예에서 전자장치(200)는 촬상된 패턴을 이용하지 않고, 예를 들어 SSDP(Simple Service Discovery Protocol)을 이용하는 등 다른 방식으로 디스플레이부(100)와의 통신 설정 즉, 페어링을 수행할 수 있다.
전자장치(200)는 카메라(210)를 통해 페어링된 디스플레이장치(100)의 화면에 표시된 패턴을 촬상하고, 촬상된 패턴을 인식한다(303).
제2 제어부(270)는 인식된 패턴의 형태, 위치, 크기(size) 등을 이용하여 디스플레이장치(100)에 대한 전자장치(200)의 상대적인 위치를 결정할 수 있다(304). 여기서, 디스플레이장치(100)에 대한 전자장치(200)의 상대적인 위치는 상호간의 거리와, 디스플레이장치(100)를 기준으로 한 전자장치(200)의 방향, 예를 들어 HMD 디바이스(201)를 착용한 사용자의 시선 방향 및 그 각도를 포함할 수 있다.
도 5 내지 도 8은 본 발명 실시예에 따라 디스플레이장치의 화면에 표시되는 패턴의 예들을 도시한 것이다.
도 5 내지 도 8에 각각 도시된 바와 같이, 패턴(41. 42. 43. 44)은 QR 코드(Quick Response Code)와 같은 미리 정해진 형태로 이루어질 수 있다. QR 코드로 구현된 패턴은 MAC 어드레스와 같은 디스플레이장치(100)의 고유 정보를 포함할 수 있다. 또한, 패턴은 디스플레이장치(100)의 모델명, 스크린 크기 등과 같은 정보를 포함할 수도 있다.
일 실시예에서 패턴(41. 42. 43. 44)은 상하좌우가 구분 가능하며, 회전 또는 기울임에 의한 모양 변경을 인지할 수 있는 형태로 마련된다.
도 5에 도시된 바와 같이, 패턴(41)은 제1 디스플레이부(130)의 화면 가운데에 위치할 수 있다. 또한, 도 6에 도시된 바와 같이 패턴(42)는 제1 디스플레이부(130)의 화면의 특정 모서리(corner)에 위치할 수 있다. 도 6에서는 패턴(42)이 화면의 우측 하단 모서리에 위치된 경우를 예로 들어 도시하였으나, 화면 내 다른 모서리에 위치될 수도 있을 것이다.
도 7 및 도 8과 같이 패턴(43, 44)은 제1 디스플레이부(130)의 화면 가장자리 즉, 에지(edge)에 위치할 수 있다. 즉, 제1 제어부(160)는 도 7과 같이 패턴(43)을 화면의 상하 가장자리에 표시하거나, 도 8과 같이 패턴(44)을 화면의 좌우 가장자리에 표시하도록 제1 디스플레이부(130)를 제어한다.
도 5 내지 도 8은 본 발명 실시예에 따라 디스플레이장치(100)에 표시되는 패턴의 예들을 도시한 것으로, 본 발명은 이에 한정되는 것이 아니다. 즉, 패턴의 형태는 QR 코드뿐 아니라 전자장치(200)에서 촬상되어 인지 가능한 다양한 형태로 구현될 수 있고, 표시되는 패턴의 개수도 하나 또는 두 개에 한정되지 않으며, 다양한 위치 예를 들어 화면의 가운데 및 모서리 또는 가운데 및 가장자리에 3개 이상의 패턴이 표시되는 등의 조합으로 구현될 수도 있을 것이다. 디스플레이장치(100)의 화면의 다양한 위치에 다수의 패턴이 표시되는 경우, 전자장치(200)에서 디스플레이장치(100)에 대한 상대적인 위치 즉, 거리와 방향을 결정하는데 있어 정확도가 보다 향상될 수 있다.
일 실시예에서 제2 제어부(270)는 촬상된 패턴(41, 42, 43, 44)의 형태, 위치, 크기를 파악하고, 그 파악된 정보를 제2 저장부(240)에 저장된 레퍼런스 정보와 비교한다. 일 실시예에서 제2 저장부(240)에는 디스플레이장치(100)의 화면의 각 위치에 표시되는 패턴(41, 42, 43, 44) 별로 그 레퍼런스 정보 예를 들어, 패턴의 종류, 오리지널 사이즈(크기) 등이 저장될 수 있다. 레퍼런스 정보는 복수의 패턴이 디스플레이장치(100) 화면의 표시 위치(가운데, 모서리, 상하, 좌우 등)에 대해 각각 매칭되어 저장될 수 있다.
제2 제어부(270)는 상기의 비교 결과에 따라 디스플레이장치(200)에 대한 전자장치(200)의 상대적인 위치를 결정할 수 있게 된다.
구체적으로, 제2 제어부(270)는 촬상된 패턴(41, 42, 43, 44)의 크기를 레퍼런스 정보와 비교하여 전자장치(200)와 디스플레이장치(200) 간의 거리를 결정할 수 있다. 또한, 제2 제어부(270)는 촬상된 패턴(41, 42, 43, 44)의 행태, 예를 들어 회전 또는 기울임 정도를 레퍼런스 정보와 비교하여 디스플레이장치(100)에 대한 전자장치(200)의 방향을 결정할 수 있다.
이렇게 결정된 거리 및 방향정보는 센서부(260)의 감지 결과에 따라 보정될 수 있다. 일 실시예에서 제2 제어부(270)는 결정된 거리 및 방향 정보를 센서부(260)에 의한 감지 결과와 비교하여, 센서의 오류 여부를 검출할 수 있다. 여기서, 비교 결과에 따른 차이가 기준레벨 이상인 경우, 제2 제어부(270)는 제2 통신부(250), 제2 디스플레이부(230), 음성출력부(도시 안됨) 등을 통해 사용자에게 통지하도록 하여 센서의 고장 여부를 체크하도록 유도할 수 있다.
제2 제어부(270)는 전자장치(200)의 이동이 감지되면, 그에 대응하여 디스플레이장치(100)에 대한 전자장치(200)의 위치를 다시 결정한다.
일 실시예에서 제2 제어부(270)는 카메라(210)를 통한 감지 결과와 센서부(260)를 통한 감지 결과의 조합에 따라 디스플레이장치(100)에 대한 전자장치(200)의 상대적인 위치(거리 및 방향)을 결정할 수 있다.
본 발명 실시예에 따른 전자장치(200)에서 제2 제어부(270)는 이렇게 결정된 위치(거리 및 방향) 정보를 이용하여 가상 객체가 현실 공간의 위치에 기반하여 생성 및 표시되도록 제2 디스플레이부(230)를 제어할 수 있게 된다.
전자장치(200)는 디스플레이장치(100)로부터 제1 디스플레이부(130)의 화면 즉, 스크린 정보를 수신한다(305).
일 실시예에서 디스플레이장치(100)의 화면 크기와 같은 정보는 도 5 내지 도 8과 같은 패턴에 포함되어, 전자장치(200)에서 카메라(210)를 통해 촬상된 이미지에 의해 획득될 수 있다. 전자장치(200)의 제2 제어부(270)는 촬상된 이미지로부터 디스플레이장치(100) 화면의 모서리 또는 가장자리에 대응되는 영역을 추출하고, 추출 영역으로부터 화면 크기를 결정할 수 있다. 여기서, 전자장치(200)는 촬상된 패턴으로부터 디스플레이장치(100)의 모델명과 같은 부가 정보를 더 획득할 수 있다.
다른 실시예에서 전자장치(200)는 디스플레이장치(100)로부터 제2 통신부(250)를 통해 화면 크기와 같은 정보를 별도로 수신할 수 있다. 여기서, 전자장치(200)는 제2 통신부(250)를 통해 디스플레이장치(100)의 모델명과 같은 부가 정보를 더 수신할 수 있다.
또 다른 실시예에서 전자장치(200)는 디스플레이장치(100)에 설치/부착된 마커(marker)를 이용하여 디스플레이장치(100)의 화면 크기를 결정할 수 있다. 마커는 예를 들어 적외선 반사 시트로서 제1 디스플레이부(130)의 화면 영역을 파악하기 용이하도록 하는 위치로서 화면의 4개 모서리 부분에 각각 부착될 수 있다. 이 경우, 전자장치(200)의 센서부(260)는 적외선센서를 더 포함한다.
제2 제어부(270)는 이렇게 수신된 화면크기 정보 및 이전에 결정된 디스플레이장치(100)와의 거리 및 방향 정보에 기초하여 전자장치(200) 즉, HMD 디바이스(201)를 착용한 사용자의 시야범위 내에서 디스플레이장치(100)의 화면 영역 즉, TV 스크린 영역(도 9의 50)을 결정한다(306). 여기서, 전자장치(200)가 모바일 디바이스(202)인 경우, 제2 제어부(270)는 제2 디스플레이부(230)의 영역 내에서 TV 스크린 영역(도 11의 80)에 대응하는 부분을 결정할 수 있다.
전자장치(200)는 디스플레이장치(100)로부터 UI에 대한 정보를 수신한다(307). 여기서, 수신되는 UI 정보는 디스플레이장치(100)의 화면에 표시된 UI의 정보뿐 아니라, 디스플레이장치(100)에는 표시되지 않으나 전자장치(100)를 통해 사용자에게 보여지는 가상 UI의 정보를 포함한다.
디스플레이장치(100)로부터 수신되는 UI 정보에는 위치 정보가 포함된다. 구체적으로, 디스플레이장치(100)의 화면에 표시되는 UI의 경우, 그 화면 내의 UI의 위치에 대한 정보 및/또는 화면 내의 UI에 대응한 위치에 렌더링되는 가상 UI의 위치정보가 수신된다. 전자장치(100)를 통해 사용자에게 보여지는 가상 UI의 경우, 그 가상 UI가 표시되는 위치로서 실제 객체인 디스플레이장치(100)에 대한 특정 위치 예를 들어, TV 스크린의 상부, 하부, 좌측, 우측 등과 같은 상대적인 위치 정보가 수신될 수 있다. 어떤 가상 UI의 경우 실제 객체의 위치와 관계없이 사용자의 시야 범위 내에서 고정된 위치에 항상 표시될 수 있으며, 예를 들어 시야범위 내의 특정 위치 예를 들어, 오른쪽 안구 하단과 같은 특정된 위치 정보가 수신될 수도 있을 것이다.
이러한 위치정보는 좌표정보를 포함하며, 가상 UI는 제2 디스플레이부(230)에 의해 제공되는 사용자의 시야영역 내에서 수신된 좌표정보에 대응하여 표시될 수 있다. 여기서, 사용자의 시야영역은 예를 들어 HMD 디바이스(201)를 착용한 사용자의 시야범위에 의해 결정되는 표시영역이거나, 모바일 디바이스(201)의 디스플레이부(203)에 의해 제공되는 표시영역인 것으로 정의된다.
일 실시예에서 UI 정보는 도 5 내지 도 8과 같은 패턴에 포함되어, 전자장치(200)에서 카메라(210)를 통해 촬상된 이미지에 의해 획득될 수 있다.
다른 실시예에서 전자장치(200)는 디스플레이장치(100)로부터 제2 통신부(250)를 통해 UI 정보를 별도로 수신할 수 있다.
디스플레이장치(100)로부터 전자장치(200)로 전송되는 UI 정보는 위치정보뿐 아니라 현재 디스플레이장치(100)에서 수행되는 어플리케이션, 채널, 컨텐츠 등의 동작정보(TV data)가 더 포함될 수 있다. 이러한 동작정보는 디스플레이장치(100)로부터 변경 시마다 또는 주기적으로 업데이트될 수 있다.
전자장치(200)의 제2 제어부(270)는 수신된 UI 정보에 기초하여 제2 디스플레이부(230)가 UI 정보에 포함된 위치정보에 대응하는 위치에 가상 UI를 표시하도록 제어한다(308). 여기서, 표시되는 가상 UI는 디스플레이장치(100)의 기능 또는 동작과 관련된다.
가상 UI는 디스플레이장치(100)에는 표시되지 않으나 사용자가 전자장치(200)를 통해 볼 수 있도록 제공된다. 가상 UI는 디스플레이장치(100)를 제어하기 위한 메뉴, 디스플레이장치(100)에서 재생 가능한 컨텐츠, 디스플레이장치(100)에서 실행 가능한 어플리케이션에 대응되는 선택 항목을 포함할 수 있다. 장치(100)를 제어하기 위한 메뉴는 전원 온/오프, 채널 선택, 볼륨조절, 외부입력 선택, 사용자 설정 등을 포함한다. 각 UI의 항목은 아이콘 또는 섬네일과 같은 2차원 가상 이미지 또는 3차원 홀로그래픽 객체로서 표시될 수 있다.
일 실시예에서 가상 UI는 디스플레이장치(100)의 화면에 표시된 UI에 대응하여 제2 디스플레이부(230)의 TV 스크린 영역에 표시되는 투명 UI가 될 수 있다. 이 경우, 사용자는 시각적으로 UI 레이어(layer)를 볼 수 없으며, 전자장치(200) 측에서의 사용자입력의 위치를 측정하기 위한 좌표측정용 UI가 된다. 즉, 제2 제어부(270)는 가상 UI가 렌더링된 위치에서 사용자의 모션을 인식할 수 있다.
도 9 내지 도 12는 본 발명 실시예에 따른 전자장치를 통해 보여주는 가상 UI를 도시한 것이다.
도 9에 도시된 바와 같이, 전자장치(200)의 제2 제어부(270)는 디스플레이장치(100)로부터 수신된 UI 정보에 기초하여 소정 위치에 가상 UI(51, 52, 53, 54)를 표시한다.
일 실시예에서 가상 UI(51, 52, 53, 54)는 디스플레이장치(100)에서 사용자가 선택 가능한 항목을 포함한다. 선택 항목은 디스플레이장치(100)를 제어하기 위한 메뉴, 디스플레이장치(100)에서 재생 가능한 컨텐츠, 디스플레이장치(100)에서 실행 가능한 어플리케이션 등에 대응되는 아이콘으로 표시될 수 있다.
도 9에 도시된 바와 같이, 선택 항목 즉, 가상 UI(51, 52, 53)는 디스플레이장치(100)의 TV 스크린 영역(50) 밖의 소정 위치에 표시될 수 있다. 여기서, 스크린 영역(50)은 사용자의 눈에는 보이지 않으나, 제2 제어부(270)가 가상 UI를 표시하는 기준 위치 즉, 좌표가 될 수 있다.
일례로서, 제2 제어부(270)는 디스플레이장치(100)로부터 수신된 UI 정보에 기초하여 가상 UI(51, 52, 53)가 TV 스크린 영역의 상하좌우 중 적어도 하나의 위치에 렌더링되도록 제2 디스플레이부(130)를 제어한 수 있다. 예를 들어, 제2 제어부(270)는 이전에 결정된 TV 스크린 영역의 정보를 확인하고, TV 스크린의 상부에 선택 항목(51)을 가상 UI로서 표시하도록 제2 디스플레이부(130)를 제어한다. 같은 방식으로, 선택 항목(52, 53)도 가상 UI로서 TV 스크린의 하부, 우측에 각각 표시될 수 있다.
도 9를 참조하면, 가상 UI(54)로서 디스플레이장치(100)를 제어하기 위한 고정메뉴가 표시될 수 있다. 제2 제어부(270)는 사용자의 시야범위 또는 디스플레이부(230) 내의 기설정된 위치에 가상 UI(54)가 표시되도록 제2 디스플레이부(230)를 제어한다.
도 9는 가상 UI(54)가 사용자의 시야범위의 이동과 관계없이 고정된 위치 예를 들어, 우측 하부에 표시되는 것을 도시한 것이다. 즉, 도 9에서는 가상 UI(54)가 테이블(55) 상부에 위치되게 도시되지만 이는 테이블(55)의 위치를 기준으로 한 것이 아니며, 사용자가 예를 들어 도 9에서 좌측으로 시선을 이동시키는 경우 해당 UI(54)는 스피커(55)의 전면에 위치되게 표시될 수 있다.
도 9에 도시된 가상 UI(54)의 일례로서 메뉴는 TV의 동작을 제어할 수 있는 메뉴 예를 들어, 채널 변경, 볼륨 조절, 외부입력 선택, 사용자 설정 등을 할 수 있는 다양한 메뉴 항목을 포함하도록 구현될 수 있다.
도 10은 도 9의 스크린 영역(50)에 표시되는 가상 UI를 좀더 상세하게 도시한 것이다. 도 10에 도시된 바와 같이, 전자장치(200)의 제2 제어부(270)는 디스플레이장치(100)로부터 수신된 UI 정보에 기초하여 TV 스크린 영역(70) 내 소정 위치에 가상 UI(71, 73)를 렌더링하도록 제2 디스플레이부(230)를 제어한다.
제2 제어부(270)는 스크린 영역(70) 내에서 디스플레이장치(100)의 스크린(60)에 표시된 메뉴(61, 63)에 대응하여 가상 UI(71, 73)가 위치되도록 제2 디스플레이부(230)를 제어한다.
일 실시예에서, 도 10에 도시된 가상 UI(71, 73)은 디스플레이장치(100)의 디스플레이부(130) 상에 실제로 표시된 UI(61, 63)에 대응하는 투명 UI가 된다. 즉, 가상 UI(71, 73)는 실제 TV 스크린(60)에 표시된 UI(61, 63)를 바라보는 사용자의 시선경로 상에 위치되므로 사용자는 가상 UI(71, 73)를 시각적으로 인지할 수 없다.
따라서, 사용자가 전자장치(200)를 통해 디스플레이장치(100) 즉, TV를 시청할 때 화면에 표시된 UI(61, 63)에 대응한 적절한 위치에 가상 UI(71, 73)가 어우러지게 렌더링됨으로써, 사용자는 이질감 없이 TV 화면(60)을 시청하는 자연스러운 느낌을 갖는다.
다른 실시예에서, 도 10에 도시된 가상 UI(71, 73)는 반투명한 UI로서 표시될 수 있다. 이 경우, 사용자는 명암 등에 의해 가상 UI(71, 73)를 인지할 수 있다.
한편, 전자장치(200)가 모바일 디바이스(202)인 경우, 도 11 및 도 12와 같은 가상 UI가 표시될 수 있다.
도 11에 도시된 바와 같이, 전자장치(200)의 제2 제어부(270)는 디스플레이장치(100)로부터 수신된 UI 정보에 기초하여 소정 위치에 가상 UI(81, 82, 83, 84)를 표시한다.
도 11에 도시된 가상 UI(81, 82, 83, 84)는 모바일 디바이스(202)의 디스플레이부(230)에 도시되는 점을 제외하고는 도 9의 가상 UI(51, 52, 53, 54)와 동일하므로, 도 9의 가상 UI(51, 52, 53, 54)에서의 설명은 도 11의 가상 UI(81, 82, 83, 84)에도 적용될 수 있다. 다만, 도 9의 가상 UI(53, 54)가 3차원 홀로그래픽 객체로 도시된 것에 반해, 도 11의 가상 UI(83, 84)는 2차원 가상 이미지 형태로 구현될 수 있다.
도 12는 도 11의 스크린 영역(80)에 표시되는 가상 UI를 좀더 상세하게 도시한 것이다. 도 12에 도시된 바와 같이, 전자장치(200)의 제2 제어부(270)는 디스플레이장치(100)로부터 수신된 UI 정보에 기초하여 TV 스크린 영역(90) 내 소정 위치에 가상 UI(91, 93)를 렌더링하도록 제2 디스플레이부(230)를 제어한다.
도 11과 마찬가지로, 도 12에 도시된 가상 UI(91, 93)는 모바일 디바이스(202)의 디스플레이부(230)에 도시되는 점을 제외하고는 도 10의 가상 UI(71, 73)와 동일하므로, 도 10의 가상 UI(71, 73)에서의 설명은 도 12의 가상 UI(91, 93)에도 적용될 수 있다. 다만, 도 10의 가상 UI(71, 73)가 3차원 공간 상의 소정 위치에 위치되는데 반해, 도 11의 가상 UI(91, 73)는 디스플레부(230)의 2차원 좌표 상에 위치되므로, 사실상 디스플레이장치(100)의 화면에 표시된 실제 UI의 위치에 대응된다.
그러므로, 도 12에 도시된 가상 UI(91, 93)은 디스플레이장치(100)의 제1 디스플레이부(130) 상에 실제로 표시되고 있는 UI의 정면에 겹쳐서 위치된 투명 UI가 된다. 따라서, 가상 UI(91, 93)는 실제 TV 스크린에 표시된 UI를 바라보는 사용자의 시선경로 상에 위치되므로 사용자는 가상 UI(91, 93)를 시각적으로 인지할 수 없으며, TV 화면에 TV 화면에 표시된 실제 UI를 보는 것과 같은 느낌을 갖는다.
도 9 내지 도 12에 도시된 실시예에서, 제2 제어부(270)는 현재 선택된 가상 UI를 하이라이트 처리하도록 제2 디스플레이부(230)를 제어함으로써, 사용자가 선택된 UI를 용이하게 식별하도록 할 수 있다. 여기서, 하이라이트 처리는 선택된 UI를 명암, 색상, 포인터 중 적어도 하나에 의해 강조하거나, 애니메이션 효과를 부여하는 등의 다양한 방식이 사용될 수 있다.
전자장치(200)는 도 9 내지 도 12에서 설명한 바와 같은 가상 UI(51, 52, 53, 54, 71, 73, 81, 82, 83, 84, 91, 93)에 대한 사용자의 제스처 입력을 수신할 수 있다(310).
일 실시예에서 전자장치(200)가 HMD 디바이스(201)인 경우, 제2 제어부(270)는 카메라(210)에 의해 사용자의 제스처 즉, 모션입력을 감지하고, 가상 UI(51, 52, 53, 54, 71, 73) 중 어느 하나의 위치에서 특정 모션으로의 모션 변경이 감지되면, 해당 UI를 선택한 것으로 결정할 수 있다. 여기서, UI를 선택하는 특정 모션은 미리 설정될 수 있으며 예를 들어, 사용자가 손 또는 손가락으로 원형, 삼각형, 사각형 등의 미리 설정된 패턴의 궤적을 그리는 경우, 주먹을 쥐거나 손바닥을 펴는 것과 같은 동작을 1회 이상 수행하는 경우 등이 될 수 있다.
다른 실시예에서 전자장치(200)가 모바일 디바이스(202)인 경우, 제2 제어부(270)는 터치스크린에 대한 사용자의 제스처 즉, 터치입력을 감지하고, 가상 UI(81, 82, 83, 84, 91, 93) 중 어느 하나의 위치에서 탭(tap), 클릭(click) 등의 터치가 감지되면, 해당 UI를 선택한 것으로 결정할 수 있다.
전자장치(200)는 가상 UI에 대한 사용자입력정보를 포함하는 신호 즉, 메시지(message)를 디스플레이장치(100)로 송신한다(311).
일 실시예에서, 송신되는 신호는 선택된 UI에 대응하는 동작을 디스플레이장치(100)에서 수행하도록 하는 제어 커맨드를 포함할 수 있다.
다른 실시예에서, 송신되는 신호는 선택된 UI의 위치 즉, 좌표 정보만을 포함할 수도 있다. 이 경우, 디스플레이장치(100)의 제1 제어부(160)는 수신된 좌표 정보에 기초하여 해당 좌표에 표시되는 가상 UI를 식별하여, 그 가상 UI가 사용자에 의해 선택된 것으로 판단하게 된다.
디스플레이장치(100)는 수신된 신호에 기초하여 UI 선택에 대응되는 동작을 수행한다(320). 예를 들어, 도 10에서 특정 컨텐츠에 대응하는 가상 UI(71)에 대한 선택이 수신된 경우, 디스플레이장치(100)의 제1 제어부(160)는 해당 컨텐츠를 재생하여 그에 따른 영상을 제1디스플레이부(130)에 표시하도록 제어한다. 또한, 도 10에서 특정 어플리케이션에 대응하는 가상 UI(73)이 선택된 경우, 디스플레이장치(100)의 제1 제어부(160)는 해당 어플리케이션을 실행하여 그에 따른 영상을 제1 디스플레이장치(130)에 표시하도록 제어한다.
다른 예로서, 도 9 또는 도 11에서, 메뉴 항목(54, 84) 중 전원 아이콘에 대한 선택이 수신된 경우, 디스플레이장치(100)의 전원이 오프된다.
상기와 같은 도 4에서 설명한 과정들은 디스플레이장치(100)와 전자장치(200) 간의 인터랙션 과정의 일례로서, 그 순서가 반드시 도 4에 한정되는 것이 아니며, 2 이상의 과정이 동시에 수행될 수도, 하나의 동작이 소정 시간 간격을 두고 수행될 수도 있다.
이하, 본 실시예에 따른 전자장치의 제어방법에 관해 도면을 참조하여 설명한다.
도 13은 본 발명 일 실시예에 따른 전자장치의 제어방법을 도시한 흐름도이다.
도 13에 도시된 바와 같이, 본 발명 실시예에 따른 전자장치(200)는 디스플레장치(200)와의 연결을 수행한다(S1001). 여기서, 전자장치(200)는 디스플레이장치(100)의 화면에 표시된 패턴을 카메라(210)로 촬상한 이미지를 통해 디스플레이장치(100)의 통신 설정을 위한 식별정보를 획득할 수 있다.
전자장치(200)는 디스플레이장치(100)로부터 정보를 수신한다(S1003). 여기서, 수신되는 정보는 디스플레이장치(100)에 대한 전자장치(200)의 상대적인 위치(거리 및 방향) 및 크기(스크린 영역의 크기)을 결정하기 위한 정보와, 가상 UI를 소정 위치에 표시하기 위한 UI 정보를 포함한다. 단계 S1003에서 정보는, 단계 S1001에서 촬상된 이미지를 통해 획득되거나, 또는 단계 S1001에서의 양 장치간의 연결에 따라 디스플레이장치(100)로부터 제2 통신부(250)를 통해 수신될 수 있다. UI 정보는 디스플레이장치(100)의 동작에 따라 변경된 정보가 업데이트되어 수신될 수 있으며, 좌표정보 외 해당 UI의 컨텐츠 정보를 더 포함할 수 있다.
한편, 전자장치(100)는 디스플레이장치(100)를 포함하는 실제 공간을 카메라(210)에 의해 촬상한다(S1005). 여기서, 단계 S1001 또는 S1003이 촬상된 이미지를 이용하는 경우, 이 단계는 단계 S1001 또는 S1003에 포함되어 수행될 수 있다.
전자장치(100)의 제2 제어부(270)는 단계 S1005에서 촬상된 이미지로부터 디스플레이장치(100)의 스크린 영역을 결정한다(S1007). 여기서, 제2 제어부(270)는 단계 S1003에서 수신된 정보를 이용하여 디스플레이장치(100)에 대한 전자장치(200)의 상대적인 위치(거리 및 방향)을 결정하고 그에 대응하여 스크린 영역을 결정할 수 있다.
그리고, 제2 제어부(270)는 촬상된 이미지와 소정 위치에 표시되는 가상 UI를 포함하는 혼합 이미지를 생성하여 제2 디스플레이부(230)를 통해 표시한다(S1009). 여기서, 가상 UI는 촬상된 이미지의 현실 객체인 디스플레이장치(100)의 소정 위치로서 단계 S1007에서 결정된 스크린 영역의 상하좌우 중 적어도 하나에 표시되거나, 실제 객체와 관계없이 제2 디스플레이부(230)를 통해 제공되는 사용자의 시야영역 내의 소정 위치에 고정되어 표시될 수 있다. 또한, 가상 UI는 단계 S1007에서 결정된 스크린 영역 내에 표시될 수 있으며, 이 경우 가상 UI는 디스플레이장치(100)의 화면에 현재 표시되고 있는 실제 UI에 대응되는 투명 UI가 될 수 있다.
다음, 제2 제어부(270)는 단계 S1009에서 표시된 가상 UI에 대한 사용자 제스처를 검출할 수 있다(S1011) 여기서, 제2 제어부(270)는 가상 UI를 선택하는 모션 또는 터치 입력에 의한 사용자 제스처를 검출할 수 있다.
제2 제어부(270)는 단계 S1011에서 검출된 사용자 제스처의 정보 즉, 사용자입력정보를 제2 통신부(250)를 통해 디스플레이장치(100)로 전송한다(S1013). 여기서, 전송되는 사용자입력정보는 단계 S1011에서 선택된 가상 UI의 좌표 정보를 포함하거나, 선택된 가상 UI에 대응하는 제어 커맨드를 포함할 수도 있다. 디스플레이장치(100)는 이렇게 전송되는 사용자입력정보를 수신하여, 선택된 UI에 대응하는 동작을 수행하게 된다.
상기와 같은 본 발명의 다양한 실시예에 따르면, 본 발명은 혼합 현실을 제공하는 전자장치(100)를 통해 다양한 가상 UI를 사용자에게 표시하며, 이를 이용한 디스플레이장치(100)에 대한 사용자입력이 가능하므로, 전자장치(100)는 사실상 리모컨을 대체하는 단일의 원격 입력장치로서 기능할 수 있다.
또한, 본 발명은 사용자로부터 수신되는 가상 UI에 대한 간단한 제스처, 즉 모션입력 또는 터치입력을 통해 디스플레이장치(100)와 전자장치(200)간의 인터랙션이 이루어지며, 가상 UI가 촬상된 TV 스크린 영역의 위치에 기반하여 표시되므로, 정확한 사용자입력 위치에 대응하여 디스플레이장치(100)의 동작이 제어될 수 있다.
또한, 본 발명은 디스플레이장치(100)에 표시된 실제 메뉴에 대응하여 스크린 영역 내에 가상 UI가 렌더링되므로, 사용자는 TV 화면의 UI를 선택하는 느낌으로 이질감 없이 자연스럽게 전자장치(200)를 이용할 수 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
100 : 디스플레이장치 110 : 영상수신부
120 : 제1 영상처리부 130 : 제1 디스플레이부
140 : 제1 저장부 150 : 제1 통신부
160 : 제1 제어부 10 : 사용자
200, 201, 202 : 전자장치 210 : 카메라
220 : 제2 영상처리부 230 : 제2 디스플레이부
240 : 제2 저장부 250 : 제2 통신부
260 : 센서부 270 : 제2 제어부

Claims (20)

  1. 전자장치에 있어서,
    카메라;
    디스플레이장치와 통신 가능한 통신부;
    디스플레이부; 및
    상기 디스플레이장치에 대한 상기 전자장치의 상대적인 위치 및 상기 디스플레이장치의 화면 크기를 나타내는 제1정보를 수신하고,
    상기 수신된 제1정보에 기초하여, 상기 카메라에 의해 촬상된 이미지로부터 상기 디스플레이장치의 스크린 영역을 식별하고,
    상기 통신부를 통해 상기 디스플레이장치로부터 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치에 대응하며 가상 UI가 표시될 위치를 나타내는 제2정보를 수신하고,
    상기 수신된 제2정보에 기초하여 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치를 식별하고,
    상기 카메라에 의해 촬상된 이미지와 함께 상기 식별된 스크린 영역의 상하좌우 중 어느 하나의 위치에 복수의 메뉴 항목을 포함하는 상기 가상UI를 표시하도록 상기 디스플레이부를 제어하고,
    상기 가상UI의 복수의 메뉴 항목 중 어느 하나를 선택하는 사용자입력의 수신을 식별하고,
    상기 수신된 사용자입력에 대응하는 제어 커맨드가 상기 디스플레이장치에 전송되어 상기 디스플레이장치가 상기 제어 커맨드에 기초하여 선택된 메뉴 항목에 대응하는 동작을 수행하도록 상기 통신부를 제어하는 프로세서를 포함하는 전자장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 가상UI는 제1가상UI이고,
    상기 프로세서는,
    상기 통신부를 통해 상기 디스플레이장치로부터 상기 디스플레이장치의 스크린 영역 내의 소정 위치에 대응하며 제2가상UI가 표시될 위치를 나타내는 제3정보를 더 수신하고,
    상기 수신된 제3정보에 기초하여, 상기 스크린 영역 내의 소정 위치에 상기 디스플레이장치의 스크린에 표시된 메뉴에 대응하여 상기 제2가상 UI가 표시되도록 상기 디스플레이부를 제어하는 전자장치.
  5. 제1항에 있어서,
    상기 가상UI는 제1가상UI이고,
    상기 프로세서는,
    상기 통신부를 통해 상기 디스플레이장치로부터 상기 디스플레이부에 의해 제공되는 사용자의 시야영역 내의 기설정된 위치에 대응하며 제3가상UI가 표시될 위치를 나타내는 제4정보를 더 수신하고,
    상기 수신된 제4정보에 기초하여, 상기 사용자의 시야영역 내의 기설정된 위치에 상기 제3가상 UI가 표시되도록 상기 디스플레이부를 제어하는 전자장치.
  6. 제1항에 있어서,
    상기 프로세서는, 상기 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 상기 디스플레이장치에 대한 상기 전자장치의 상대적인 위치를 결정하고, 상기 결정된 위치에 대응하여 상기 스크린 영역을 식별하는 전자장치.
  7. 제1항에 있어서,
    상기 프로세서는, 상기 디스플레이장치로부터 상기 통신부를 통해 상기 가상 UI의 좌표정보를 수신하고, 상기 디스플레이부에 의해 제공되는 사용자의 시야영역 내에서 상기 좌표정보에 대응하여 상기 가상 UI가 표시되도록 하는 전자장치.
  8. 제1항 및 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 프로세서는, 상기 복수의 메뉴 항목 중 어느 하나를 선택하는 사용자입력에 응답하여 선택된 메뉴 항목의 좌표정보를 포함하는 상기 제어 커맨드가 상기 디스플레이장치로 전송되도록 상기 통신부를 제어하는 전자장치.
  9. 제1항에 있어서,
    상기 가상 UI는 상기 디스플레이장치에서 재생 가능한 컨텐츠 및 상기 디스플레이장치에서 실행 가능한 어플리케이션 중 적어도 하나에 대응하는 항목을 더 포함하는 전자장치.
  10. 제1항 및 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 프로세서는, 상기 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 상기 통신부를 통한 상기 디스플레이장치와의 연결을 수행하는 전자장치.
  11. 전자장치의 제어방법에 있어서,
    카메라에 의한 촬상을 수행하는 단계;
    상기 전자장치와 통신 가능한 디스플레이장치로부터 상기 디스플레이장치에 대한 상기 전자장치의 상대적인 위치 및 상기 디스플레이장치의 화면 크기를 나타내는 제1정보를 수신하는 단계;
    상기 수신된 제1정보에 기초하여, 상기 카메라에 의해 촬상된 이미지로부터 상기 디스플레이장치의 스크린 영역을 식별하는 단계;
    상기 디스플레이장치로부터 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치에 대응하며 가상 UI가 표시될 위치를 나타내는 제2정보를 수신하는 단계;
    상기 수신된 제2정보에 기초하여 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치를 식별하는 단계;
    상기 촬상된 이미지와 함께 상기 식별된 스크린 영역의 상하좌우 중 어느 하나의 위치에 복수의 메뉴 항목을 포함하는 가상 UI를 표시하는 단계;
    상기 가상 UI의 상기 복수의 메뉴 항목 중 어느 하나를 선택하는 사용자입력을 수신하는 단계; 및
    상기 수신된 사용자입력에 대응하는 제어 커맨드가 상기 디스플레이장치로 전송되어 상기 디스플레이장치가 상기 제어 커맨드에 기초하여 선택된 메뉴 항목에 대응하는 동작을 수행하도록 제어하는 단계를 포함하는 전자장치의 제어방법.
  12. 삭제
  13. 삭제
  14. ◈청구항 14은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항에 있어서,
    상기 가상UI는 제1가상UI이고,
    상기 디스플레이장치로부터 상기 디스플레이장치의 스크린 영역 내의 소정 위치에 대응하며 제2가상UI가 표시될 위치를 나타내는 제3정보를 수신하는 단계; 및
    상기 수신된 제3정보에 기초하여, 상기 스크린 영역 내의 소정 위치에 상기 디스플레이장치의 스크린에 표시된 메뉴에 대응하여 상기 제2가상 UI를 표시하는 단계를 더 포함하는 전자장치의 제어방법.
  15. ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항에 있어서,
    상기 가상UI는 제1가상UI이고,
    상기 디스플레이장치로부터 사용자의 시야영역 내의 기설정된 위치에 대응하며 제3가상UI가 표시될 위치를 나타내는 제4정보를 수신하는 단계; 및
    상기 수신된 제4정보에 기초하여, 상기 사용자의 시야영역 내의 기설정된 위치에 상기 제3가상UI를 표시하는 단계를 더 포함하는 전자장치의 제어방법.
  16. ◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항에 있어서,
    상기 스크린 영역을 식별하는 단계는,
    상기 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 상기 디스플레이장치에 대한 상기 전자장치의 상대적인 위치를 결정하는 단계; 및
    상기 결정된 위치에 대응하여 상기 스크린 영역을 식별하는 단계를 포함하는 전자장치의 제어방법.
  17. ◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항에 있어서,
    상기 제2정보를 수신하는 단계는, 상기 디스플레이장치로부터 상기 가상 UI의 좌표정보를 수신하고,
    상기 가상 UI를 표시하는 단계는, 상기 전자장치의 디스플레이부에 의해 제공되는 사용자의 시야영역 내에서 상기 좌표정보에 대응하여 상기 가상 UI가 표시되도록 하는 전자장치의 제어방법.
  18. ◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항 및 제14항 내지 제16항 중 어느 한 항에 있어서,
    상기 복수의 메뉴 항목 중 어느 하나를 선택하는 사용자입력에 응답하여 선택된 메뉴항목의 좌표정보를 포함하는 제어 커맨드를 상기 디스플레이장치로 전송하는 단계를 더 포함하는 전자장치의 제어방법.
  19. ◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈
    제11항 및 제14항 내지 제16항 중 어느 한 항에 있어서,
    상기 카메라에 의해 촬상된 이미지로부터의 정보에 기초하여 통신부를 통한 상기 디스플레이장치와의 연결을 수행하는 단계를 더 포함하는 전자장치의 제어방법.
  20. 전자장치의 프로세서에 의해 실행 가능한 방법의 프로그램을 기록한 컴퓨터로 읽을 수 있는 비휘발성의 매체에 저장된 컴퓨터프로그램에 있어서,
    상기 방법은, 상기 프로세서에 의해 실행되면,
    상기 전자장치와 통신 가능한 디스플레이장치로부터 상기 디스플레이장치에 대한 상기 전자장치의 상대적인 위치 및 상기 디스플레이장치의 화면 크기를 나타내는 제1정보를 수신하고, 상기 수신된 제1정보에 기초하여 카메라에 의해 촬상된 이미지로부터 디스플레이장치의 스크린 영역을 식별하고, 상기 디스플레이장치로부터 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치에 대응하며 가상 UI가 표시될 위치를 나타내는 제2정보를 수신하고, 상기 수신된 제2정보에 기초하여 상기 디스플레이장치의 스크린 영역의 상하좌우 중 어느 하나의 위치를 식별하고, 상기 촬상된 이미지와 함께 상기 식별된 스크린 영역의 상하좌우 중 어느 하나의 위치에 복수의 메뉴 항목을 포함하는 가상 UI를 표시하고, 상기 가상 UI의 상기 복수의 메뉴 항목 중 어느 하나를 선택하는 사용자입력이 수신되는 것에 응답하여 상기 사용자입력에 대응하는 제어 커맨드가 상기 디스플레이장치로 전송되어 상기 디스플레이장치가 상기 제어 커맨드에 기초하여 선택된 메뉴 항목에 대응하는 동작을 수행하도록 하는 컴퓨터프로그램.
KR1020170112777A 2017-09-04 2017-09-04 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품 KR102431712B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170112777A KR102431712B1 (ko) 2017-09-04 2017-09-04 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
CN201880057152.1A CN111052063B (zh) 2017-09-04 2018-08-30 电子装置及其控制方法
PCT/KR2018/010070 WO2019045491A2 (en) 2017-09-04 2018-08-30 ELECTRONIC APPARATUS AND CONTROL METHOD THEREOF
EP18851893.0A EP3635525B1 (en) 2017-09-04 2018-08-30 Electronic apparatus and control method thereof
US16/119,615 US11025855B2 (en) 2017-09-04 2018-08-31 Controlling a display apparatus using a virtual UI provided by an electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170112777A KR102431712B1 (ko) 2017-09-04 2017-09-04 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품

Publications (2)

Publication Number Publication Date
KR20190026267A KR20190026267A (ko) 2019-03-13
KR102431712B1 true KR102431712B1 (ko) 2022-08-12

Family

ID=65518325

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170112777A KR102431712B1 (ko) 2017-09-04 2017-09-04 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품

Country Status (5)

Country Link
US (1) US11025855B2 (ko)
EP (1) EP3635525B1 (ko)
KR (1) KR102431712B1 (ko)
CN (1) CN111052063B (ko)
WO (1) WO2019045491A2 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019149066A (ja) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 情報処理装置及びプログラム
CN109831662B (zh) * 2019-03-22 2021-10-08 芋头科技(杭州)有限公司 Ar眼镜屏幕的实时画面投射方法、装置及控制器和介质
CN115209194B (zh) * 2019-08-09 2023-07-21 荣耀终端有限公司 一种通过遥控器实现一碰投屏的终端设备、方法以及系统
CN112351325B (zh) * 2020-11-06 2023-07-25 惠州视维新技术有限公司 基于手势的显示终端控制方法、终端和可读存储介质
US11556912B2 (en) 2021-01-28 2023-01-17 Bank Of America Corporation Smartglasses-to-smartglasses payment systems
US11734665B2 (en) * 2021-02-08 2023-08-22 Bank Of America Corporation Card-to-smartglasses payment systems
KR102516278B1 (ko) * 2022-06-08 2023-03-30 (주)이브이알스튜디오 미디어 패널에 대한 직관적인 컨트롤 환경을 제공하는 사용자 단말, 서버, 및 디스플레이 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080266323A1 (en) 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
KR100957189B1 (ko) * 2008-02-13 2010-05-11 광주과학기술원 심플 프레임 마커를 이용하는 증강현실 시스템 및 그 방법,상기 방법을 구현하는 프로그램이 기록된 기록매체
JP2012181809A (ja) * 2011-03-03 2012-09-20 Panasonic Corp 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
KR101334049B1 (ko) * 2011-03-16 2013-11-28 성준형 증강 현실 기반 사용자 인터페이스 제공 장치 및 방법
US9443353B2 (en) * 2011-12-01 2016-09-13 Qualcomm Incorporated Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US20140267130A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Hover gestures for touch-enabled devices
JP2014174507A (ja) * 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
US20140267074A1 (en) * 2013-03-14 2014-09-18 Qualcomm Incorporated System and method for virtual user interface controls in multi-display configurations
EP3053158B1 (en) * 2013-09-30 2020-07-15 PCMS Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for providing an augmented reality display and/or user interface
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2015142023A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US9626764B2 (en) * 2014-07-01 2017-04-18 Castar, Inc. System and method for synchronizing fiducial markers
JP2016038682A (ja) * 2014-08-06 2016-03-22 キヤノン株式会社 情報処理装置及びその制御方法、サーバ装置及びその制御方法、コンピュータプログラム
US20160054791A1 (en) * 2014-08-25 2016-02-25 Daqri, Llc Navigating augmented reality content with a watch
US10896543B2 (en) * 2014-08-25 2021-01-19 X Development Llc Methods and systems for augmented reality to display virtual representations of robotic device actions
KR102358548B1 (ko) * 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
US9804813B2 (en) * 2014-11-26 2017-10-31 The United States Of America As Represented By Secretary Of The Navy Augmented reality cross-domain solution for physically disconnected security domains
US9591349B2 (en) * 2014-12-23 2017-03-07 Intel Corporation Interactive binocular video display
US10775878B2 (en) 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display
JP6611501B2 (ja) * 2015-07-17 2019-11-27 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
US20170115742A1 (en) 2015-08-01 2017-04-27 Zhou Tian Xing Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US10338673B2 (en) * 2015-09-16 2019-07-02 Google Llc Touchscreen hover detection in an augmented and/or virtual reality environment
EP3391658B1 (en) * 2015-12-17 2021-08-25 InterDigital Madison Patent Holdings, SAS Personalized presentation enhancement using augmented reality
KR20170084458A (ko) * 2016-01-12 2017-07-20 엘지전자 주식회사 헤드 마운트 디스플레이 장치
US10591730B2 (en) * 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US10504290B2 (en) * 2018-05-04 2019-12-10 Facebook Technologies, Llc User interface security in a virtual reality environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Also Published As

Publication number Publication date
CN111052063A (zh) 2020-04-21
KR20190026267A (ko) 2019-03-13
WO2019045491A2 (en) 2019-03-07
EP3635525B1 (en) 2021-05-05
US11025855B2 (en) 2021-06-01
EP3635525A4 (en) 2020-04-15
US20190075266A1 (en) 2019-03-07
EP3635525A2 (en) 2020-04-15
WO2019045491A3 (en) 2019-04-04
CN111052063B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
US20210405761A1 (en) Augmented reality experiences with object manipulation
US20210407203A1 (en) Augmented reality experiences using speech and text captions
US10019849B2 (en) Personal electronic device with a display system
US10009603B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
US20180321798A1 (en) Information processing apparatus and operation reception method
WO2020186988A1 (zh) 资讯的展示方法、装置、终端及存储介质
US20140337749A1 (en) Display apparatus and graphic user interface screen providing method thereof
US11854147B2 (en) Augmented reality guidance that generates guidance markers
CN109660855B (zh) 贴纸显示方法、装置、终端及存储介质
US11094105B2 (en) Display apparatus and control method thereof
US10802784B2 (en) Transmission of data related to an indicator between a user terminal device and a head mounted display and method for controlling the transmission of data
CN111970456B (zh) 拍摄控制方法、装置、设备及存储介质
US11317072B2 (en) Display apparatus and server, and control methods thereof
US11107203B2 (en) Image processing method and display apparatus therefor providing shadow effect
US11741679B2 (en) Augmented reality environment enhancement
US10656705B2 (en) Assisted item selection for see through glasses
US11270115B2 (en) Presentation of augmented reality content based on identification of trigger accompanying video content
US9998671B2 (en) Electronic apparatus, method of controlling the same, and computer-readable recording medium
US20160004304A1 (en) Mobile terminal and method for controlling the same
WO2023287597A1 (en) Remote landmark rendering for extended reality interfaces

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant