KR102081934B1 - 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 - Google Patents

헤드 마운트 디스플레이 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR102081934B1
KR102081934B1 KR1020130102343A KR20130102343A KR102081934B1 KR 102081934 B1 KR102081934 B1 KR 102081934B1 KR 1020130102343 A KR1020130102343 A KR 1020130102343A KR 20130102343 A KR20130102343 A KR 20130102343A KR 102081934 B1 KR102081934 B1 KR 102081934B1
Authority
KR
South Korea
Prior art keywords
image
information
object image
displaying
display unit
Prior art date
Application number
KR1020130102343A
Other languages
English (en)
Other versions
KR20150025122A (ko
Inventor
박효림
이도영
김용신
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130102343A priority Critical patent/KR102081934B1/ko
Priority to US14/080,346 priority patent/US9535250B2/en
Priority to CN201380079103.5A priority patent/CN105474070B/zh
Priority to EP13892352.9A priority patent/EP3039476B1/en
Priority to PCT/KR2013/010789 priority patent/WO2015030307A1/en
Publication of KR20150025122A publication Critical patent/KR20150025122A/ko
Application granted granted Critical
Publication of KR102081934B1 publication Critical patent/KR102081934B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서의 일 실시예에 따른 HMD(Head Mounted Display) 디바이스에 있어서, 데이터를 송/수신하는 커뮤니케이션 유닛; 이미지를 디스플레이하는 디스플레이 유닛; 상기 HMD 디바이스의 전방을 캡쳐링하는 카메라 유닛; 및 상기 커뮤니케이션 유닛, 상기 디스플레이 유닛 및 상기 카메라 유닛을 제어하는, 프로세서; 를 포함하고, 상기 프로세서는, 오브젝트 이미지를 포함하는 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이중인 경우로서, 상기 제 1 이미지는 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이된 이미지이고, 상기 제 1 이미지로부터 상기 오브젝트 이미지를 포함하지 않는 제 2 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는, HMD 디바이스를 제공한다.

Description

헤드 마운트 디스플레이 디바이스 및 그 제어 방법{HEAD MOUNTED DISPLAY DEVICE AND METHOD FOR CONTROLLING THE SAME}
본 명세서는 헤드 마운트 디스플레이 디바이스에 관한 것으로, 특히 외부 디바이스에 디스플레이 중인 제 1 이미지에 관한 정보를 디스플레이하던 중, 제 1 이미지가 제 2 이미지로 변경된 경우, 제 1 이미지 및 제 1 이미지에 대한 정보를 디스플레이하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법에 관한 것이다.
헤드 마운트 디스플레이(Head Mounted Display, 이하 HMD) 디바이스는 유저가 안경처럼 착용할 수 있다. 유저는 HMD 디바이스에 디스플레이되는 정보를 제공받을 수 있다. 특히, HMD 디바이스는 전방의 오브젝트 이미지를 디텍트하여, 디텍트한 오브젝트 이미지에 관한 정보를 유저에게 제공할 수 있다.
다만, 기존의 HMD 디바이스는 화각 영역에 위치한 오브젝트 이미지에 대한 정보를 디스플레이하던 중, 오브젝트 이미지가 디텍트 되지 않는 경우, 정보의 디스플레이를 더 이상 하지 않거나, 유지할 수 있다.
이때, 정보를 디스플레이하지 않는 경우, 정보 제공의 연속성이 보장되지 못하여, 유저에게 혼란을 줄 수 있다는 문제점이 존재하였다. 반대로, 정보의 디스플레이를 유지하는 경우에는, 오브젝트 이미지가 디텍트 되지 않음에도 해당 정보가 디스플레이 되어 있으면, 유저는 해당 정보를 다른 오브젝트 이미지에 대한 정보로 착각할 수 있다는 문제점이 존재하였다.
일 실시예에 따르면, 외부 디바이스에 디스플레이 중인 오브젝트 이미지에 대한 정보를 디스플레이하던 중, 오브젝트 이미지가 디텍트되지 않는 경우, 해당 오브젝트 이미지를 포함하는 컨텐츠 이미지 및 오브젝트 이미지에 대한 정보를 디스플레이하는, HMD 디바이스 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트 이미지에 대한 정보를 디스플레이하는 경우, 해당 정보를 오브젝트 이미지에 대응하여 디스플레이하는, HMD 디바이스 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트 이미지를 포함하는 컨텐츠 이미지 및 해당 이미지에 대한 정보를 오브젝트 이미지를 포함하지 않는 컨텐츠 이미지와 겹치지 않게 디스플레이하는, HMD 디바이스 및 그 제어 방법을 제공하고자 한다. 여기서, 오브젝트 이미지를 포함하지 않는 컨텐츠 이미지는 외부 디바이스에 디스플레이 중인 컨텐츠 이미지를 나타낼 수 있다.
상기와 같은 문제를 해결하고자, 일 실시예에 따르면, HMD(Head Mounted Display) 디바이스에 있어서, 데이터를 송/수신하는 커뮤니케이션 유닛; 이미지를 디스플레이하는 디스플레이 유닛; 상기 HMD 디바이스의 전방을 캡쳐링하는 카메라 유닛; 및 상기 커뮤니케이션 유닛, 상기 디스플레이 유닛 및 상기 카메라 유닛을 제어하는, 프로세서; 를 포함하고, 상기 프로세서는, 오브젝트 이미지를 포함하는 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이중인 경우로서, 상기 제 1 이미지는 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이된 이미지이고, 상기 제 1 이미지로부터 상기 오브젝트 이미지를 포함하지 않는 제 2 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는, HMD 디바이스를 제공한다.
일 실시예에 따르면, 디바이스는 오브젝트 이미지가 디텍트되지 않음에 따라, 오브젝트 이미지를 포함한 컨텐츠 이미지 및 오브젝트 이미지에 관한 정보를 별도로 디스플레이 해줌으로써 유저에게 정보 제공의 연속성을 보장할 수 있다.
또한, 다른 일 실시예에 따르면, 디바이스는 오브젝트 이미지에 대응하여 정보를 디스플레이하므로, 해당 정보가 어떤 오브젝트에 대한 정보인지를 유저로 하여금 직관적으로 알 수 있게 한다는 효과가 있다.
또한, 다른 일 실시예에 따르면, 디바이스는 오브젝트 이미지를 포함한 컨텐츠 이미지 및 오브젝트 이미지에 관한 정보 외부 디바이스에 디스플레이 중인 컨텐츠 이미지와 겹치지 않게 디스플레이함으로써 유저의 시야를 확보할 수 있다는 효과가 있다.
보다 구체적인 발명의 효과에 대해서는 이하에서 상세히 후술하기로 한다.
도 1은 일 실시예에 따른 디바이스의 블록도를 도시한 도면이다.
도 2는 일 실시예에 따라 외부 디바이스에 디스플레이 중인 이미지에 대한 정보를 디스플레이하는 디바이스를 도시한 도면이다.
도 3은 일 실시예에 따라 컨텐츠 이미지가 전환되어 오브젝트 이미지가 디텍트되지 않는 경우, 오브젝트 이미지를 포함하는 컨텐츠 이미지 및 오브젝트 이미지에 대한 정보를 별도로 디스플레이하는 디바이스를 도시한 도면이다.
도 4는 일 실시예에 따라 제 1 이미지 및 오브젝트 이미지에 대한 정보를 디스플레이하는 경우, 제 2 이미지와 겹치지 않도록 디스플레이하는 디바이스를 도시한 도면이다.
도 5는 일 실시예에 따라 제 2 이미지가 기설정된 시간 이내에 제 3 이미지로 전환된 경우, 제 1 이미지를 디스플레이하지 않는 디바이스를 도시한 도면이다.
도 6은 일 실시예에 따라 제 1 이미지 및/또는 오브젝트 이미지의 디스플레이를 스레스홀드 시간을 기준으로 제어하는 디바이스를 도시한 도면이다.
도 7은 실시예에 따른 디바이스의 제어 방법을 나타낸 순서도이다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다. 이하에서는, 설명의 편의를 위해 HMD 디바이스를 디바이스라 약칭할 수 있다.
도 1은 일 실시예에 따른 디바이스의 블록도를 도시한 도면이다. 본 명세서에서 디바이스는 카메라 유닛(1010), 커뮤니케이션 유닛(1020), 디스플레이 유닛(1030) 및 프로세서(1040)를 포함할 수 있다.
카메라 유닛(1010)은 디바이스 전방의 이미지를 캡쳐링할 수 있다. 보다 상세하게는, 카메라 유닛(1010)은 디바이스에 장착된 적어도 하나의 카메라 센서를 사용하여 디바이스 전방의 이미지를 캡쳐링할 수 있다. 카메라 유닛(1010)은 화각 영역 내의 이미지를 캡쳐링하여, 캡쳐링 결과를 프로세서(1040)에 전달할 수 있다. 특히, 본 명세서에서 카메라 유닛(1010)은 화각 영역 내에 위치한 외부 디바이스가 디스플레이 중인 컨텐츠 이미지를 캡쳐링하여, 캡쳐링 결과를 프로세서(1040)에 전달할 수 있다. 이때, 카메라 유닛(1010)은 디바이스 전방의 이미지 중, 외부 디바이스가 디스플레이 중인 컨텐츠 이미지 영역을 부분적으로 캡쳐링할 수 있으며, 이는 도 3과 관련하여 이하에서 상세히 후술하기로 한다.
커뮤니케이션 유닛(1020)은 외부 디바이스 및/또는 웹서버와 다양한 프로토콜을 사용하여 통신을 수행하여 데이터를 송신 및/또는 수신할 수 있다. 보다 상세하게는, 커뮤니케이션 유닛(1020)은 유선 또는 무선으로 네트워크에 접속하여, 증강 현실 데이터, 가상 이미지 데이터 등의 다양한 디지털 데이터를 송신 및/또는 수신할 수 있다. 여기서 외부 디바이스는 디바이스와 페어링된 또는 카메라 유닛의 화각 영역에 위치한, 적어도 하나의 디지털 디바이스를 나타낼 수 있다.
본 명세서에서 커뮤니케이션 유닛(1020)은 실시예에 따라, 오브젝트 이미지에 대한 정보를 포함하는 디지털 데이터를 송신 및/또는 수신할 수 있다. 또는, 커뮤니케이션 유닛은 실시예에 따라, 외부 디바이스의 위치에 대한 정보를 포함하는 디지털 데이터를 송신 및/또는 수신할 수 있다.
디스플레이 유닛(1030)은 가상 이미지(virtual image)를 디스플레이할 수 있다. 여기서, 가상 이미지는 디스플레이 유닛(1030)을 통해 유저에게 제공되는 그래픽 유저 인터페이스를 나타낼 수 있다. 한편, 디스플레이 유닛(1030)은 광학적 씨-스루 디스플레이 패널로 구성될 수 있다. 이때, 디스플레이 유닛(1030)은 현실 세계를 기반으로 한 가상 이미지를 디스플레이함으로써 유저에게 증강 현실(Augmented Reality)을 제공할 수 있다. 본 명세서에서 디스플레이 유닛(1030)은 오브젝트 이미지에 대한 정보를 가상 이미지로 디스플레이하여, 유저에게 증강 현실을 제공할 수 있다.
프로세서(1040)는 디바이스 내부의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 또한, 프로세서(1040)는 입력에 기초하여 디바이스에서 실행되는 컨텐츠를 제어할 수 있다. 여기서, 컨텐츠란, TV, 영화, 드라마, 미술, 사진, 게임 등 디지털 방식으로 제작된 각종 제작물, 정보 또는 그 내용물을 나타낸다.
또한, 프로세서(1040)는 상술한 디바이스의 각 유닛들을 제어하며, 유닛들간의 데이터 송신 및/또는 수신을 제어할 수도 있다.
특히, 본 명세서에서 프로세서(1040)는 카메라 유닛(1010)을 통해 외부 디바이스에 디스플레이 중인 컨텐츠 이미지를 디텍트할 수 있다. 여기서 컨텐츠 이미지란, 외부 디바이스에 디스플레이 중인 컨텐츠의 정지 영상, 동영상, 부분 영상, 정지 이미지 또는 이들을 포함하는 기타 다양한 시각적으로 표현 가능한 이미지를 나타낼 수 있다. 특히, 본 명세서의 컨텐츠 이미지는 크게 오브젝트 이미지를 포함한 제 1 이미지 및 오브젝트 이미지를 포함하지 않는 제 2 이미지로 나뉠 수 있는데, 이와 관련한 상세한 설명은 도 3과 관련하여 후술하기로 한다.
나아가, 프로세서(1040)는 외부 디바이스에 디스플레이중인 컨텐츠 이미지에 포함되어 있는 오브젝트 이미지를 디텍트할 수 있다. 프로세서(1040)가 오브젝트 이미지를 디텍트하면, 기설정된 유저 입력에 따라 디텍트한 오브젝트 이미지에 대한 정보를 디스플레이할 수 있다. 여기서, 오브젝트 이미지란 정보 검색의 타겟이 되는 이미지를 나타낸다. 또한, 오브젝트 이미지에 대한 정보는 인터넷을 통한 검색 정보, 인물 정보, 상표 정보, 상품 정보, 구매처 정보, 위치 정보 등 기타 해당 이미지와 관련된 다양한 정보를 포함할 수 있다.
프로세서(1040)는, 이러한 오브젝트 이미지에 대한 정보를 커뮤니케이션 유닛(1020)을 통해 획득할 수 있다. 보다 상세하게는, 프로세서(1040)는 오브젝트 이미지에 대한 검색 커맨드를 수신한 경우, 커뮤니케이션 유닛(1020)을 통해 오브젝트 이미지에 대한 데이터를 수신할 수 있다. 이때, 프로세서(1040)는 웹 서버 및/또는 외부 디바이스로부터 오브젝트 이미지에 대한 데이터를 수신할 수 있다. 또는, 프로세서(1040)는 스토리지 유닛에 저장되어 있는 오브젝트 이미지에 대한 데이터를 불러올 수 있다. 프로세서(1040)는 이렇게 획득한 데이터로부터 오브젝트 이미지에 대한 정보를 획득하여 디스플레이 유닛(1030)에 디스플레이할 수 있다. 이와 관련하여 상세한 설명은 도 2와 관련하여 후술하기로 한다.
한편, 프로세서(1040)는 해당 정보를 오브젝트 이미지에 대응하여 디스플레이할 수 있다. 예를 들어, 프로세서(1040)는 해당 정보를 오브젝트 이미지 근처에 디스플레이할 수 있다. 또는, 프로세서는 해당 정보를 오브젝트 이미지에 오버랩하여 디스플레이할 수 있다. 이와 관련한 보다 상세한 설명은 도 2와 관련하여 후술하기로 한다.
또한, 프로세서(1040)는 외부 디바이스가 디스플레이 중이던 컨텐츠 이미지가 다른 컨텐츠 이미지로 전환되어 더 이상 오브젝트 이미지가 디텍트되지 않는 경우, 오브젝트 이미지를 포함하는 컨텐츠 이미지 및 오브젝트 이미지에 대한 정보를 별도로 디스플레이할 수 있다. 이는, 유저에게 정보의 오브젝트 이미지와의 연관성 및 정보 제공의 연속성을 보장하기 위함이며, 이에 관한 보다 상세한 설명은 도 3과 관련하여 이하에서 후술하기로 한다.
이외, 도 1에서는 도시하지 않았으나, 디바이스는 추가로 스토리지 유닛, 오디오 입출력 유닛 및/또는 파워 유닛을 구비할 수 있다.
스토리지 유닛(미도시)은 오디오, 사진, 동영상, 어플리케이션, 가상 이미지 등 다양한 디지털 데이터를 저장할 수 있다. 스토리지 유닛은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낸다.
또한, 스토리지 유닛은 오브젝트 이미지에 대한 데이터를 저장할 수 있다. 또한, 스토리지 유닛은 커뮤니케이션 유닛(1020)을 통해 외부로부터 수신된 데이터를 임시적으로 저장할 수 있다. 이때, 스토리지 유닛은 외부로부터 수신된 데이터를 디바이스에서 출력하기 위한 버퍼링을 위해 사용될 수 있다. 한편, 스토리지 유닛은 디바이스에 선택적으로 구비될 수 있다.
오디오 출력 유닛(미도시)은 스피커, 이어폰 등의 오디오 출력 수단을 포함한다. 또한, 오디오 출력 유닛은 프로세서(1040)에서 실행되는 컨텐츠 또는 프로세서(1040)의 제어 명령에 기초하여 음성을 출력할 수 있다. 이때, 오디오 출력 유닛은 디바이스에 선택적으로 구비될 수 있다.
파워 유닛(미도시)은 디바이스 내부의 배터리 또는 외부 전원과 연결되는 파워 소스로서, 디바이스에 파워를 공급할 수 있다.
이하에서는, 디바이스에서 수행되는 각 단계나 동작이 유저 입력에 의해 시작되거나 진행되는 경우, 유저 입력에 따라 신호가 생성되어 수신되는 과정은 중복하여 설명하지 않아도 상술한 과정에 대한 설명이 포함된 것으로 한다. 또한, 유저 입력에 따라 프로세서(1040)가 디바이스 또는 디바이스에 포함된 적어도 하나의 유닛을 제어한다고 표현할 수 있으며, 프로세서(1040)와 디바이스를 동일시하여 설명할 수 있다.
한편, 도 1에 도시된 디바이스는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디바이스의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디바이스의 엘리먼트들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다.
도 2는 일 실시예에 따라 외부 디바이스에 디스플레이 중인 이미지에 대한 정보를 디스플레이하는 디바이스를 도시한 도면이다.
디바이스(2010)는 외부 디바이스(2060)에 디스플레이 중인 오브젝트 이미지(2040)에 대한 정보(2030)를 디스플레이할 수 있다. 보다 상세하게는, 디바이스(2010)는 외부 디바이스(2060)에 디스플레이 중인 컨텐츠 이미지(2050)에 포함되어 있는 오브젝트 이미지(2040)에 대한 정보(2030)를 디스플레이할 수 있다.
예를 들어, 유저가 디바이스(2010)를 착용한 상태로 외부 디바이스(2060)에 디스플레이 중인 영화를 감상하던 중, 주인공이 착용한 옷(2040)에 대한 검색 커맨드를 입력하면, 디바이스(2010)는 해당 옷(2040)에 대한 데이터를 수신할 수 있다. 다시 말하면, 디바이스(2010)는 카메라 유닛(2020)의 화각 영역 내에 위치한 외부 디바이스(2060)에 디스플레이 중인 오브젝트 이미지(2040)에 대한 검색 명령을 수신한 경우, 오브젝트 이미지(2040)에 대한 데이터를 수신할 수 있다.
이때, 디바이스(2010)는 커뮤니케이션 유닛을 이용하여 오브젝트 이미지(2040)에 대한 데이터를 수신할 수 있다. 보다 상세하게는, 도 1과 관련하여 상술한 바와 같이, 디바이스(2010)는 커뮤니케이션 유닛을 이용하여 웹 서버, 외부 디바이스(2060) 및/또는 스토리지 유닛으로부터 오브젝트 이미지(2040)에 대한 데이터를 획득할 수 있다. 여기서, 오브젝트 이미지(2040)에 대한 데이터는 외부 디바이스(2060)에 디스플레이 중인 컨텐츠, 컨텐츠 이미지(2050) 또는 오브젝트 이미지(2040)와 연계하여 기저장되어 있는 디지털 데이터일 수 있다. 또는, 오브젝트 이미지(2040)에 대한 데이터는 유저의 검색 커맨드 입력에 따라 네트워크를 통해 실시간으로 검색을 수행하여 획득한 디지털 데이터일 수 있다.
오브젝트 이미지(2040)에 대한 정보(2030)를 획득하면, 디바이스(2010)는 해당 정보(2030)를 디스플레이 유닛에 디스플레이할 수 있다. 예를 들어, 디바이스(2010)는 영화 속 주인공이 착용한 옷(2040)에 대한 상품 정보, 상표 정보, 가격 정보, 구입처 정보, 출시 예정일 정보 등 기타 해당 옷에 관련된 다양한 정보를 디스플레이할 수 있다.
이때, 디바이스(2010)는 오브젝트 이미지(2040)에 대한 정보(2030)를 오브젝트 이미지(2040)에 대응하여 디스플레이할 수 있다. 오브젝트 이미지(2040)에 대한 정보(2030)를 오브젝트 이미지(2040)에 대응하여 디스플레이함으로써, 둘의 연관성을 부각시키기 위함이다. 따라서, 디바이스(2010)는 오브젝트 이미지(2040)에 대한 정보(2030)를, 오브젝트 이미지(2040) 근처에 디스플레이하거나, 오브젝트 이미지(2040)에 오버랩하여 디스플레이하거나, 오브젝트 이미지(2040)를 가리키는 방향성 이미지와 함께 디스플레이할 수 있다.
도 3은 일 실시예에 따라 컨텐츠 이미지가 전환되어 오브젝트 이미지가 디텍트되지 않는 경우, 오브젝트 이미지를 포함하는 컨텐츠 이미지 및 오브젝트 이미지에 대한 정보를 별도로 디스플레이하는 디바이스를 도시한 도면이다.
외부 디바이스(3020)가 디스플레이 중인 컨텐츠가 동영상 컨텐츠인 경우, 컨텐츠 이미지(3030-1)는 계속하여 다른 컨텐츠 이미지(3050)로 전환될 수 있다. 특히, 컨텐츠 이미지는 크게 오브젝트 이미지를 포함하는 제 1 이미지(3030-1), 오브젝트 이미지를 포함하지 않는 제 2 이미지(3050)로 나뉠 수 있는데, 동영상 컨텐츠가 재생됨에 따라 제 1 이미지(3030-1)는 제 2 이미지(3050)로 전환될 수 있다. 나아가, 동영상 컨텐츠가 재생됨에 따라 전환된 제 2 이미지(3050)는 제 1 이미지(3030-1)로 다시 재전환될 수 있다.
만일, 디바이스(3010)가 제 1 이미지(3030-1)의 오브젝트 이미지에 대한 정보(3040)를 디스플레이 중에, 제 1 이미지(3030-1)가 제 2 이미지(3050)로 전환됨을 디텍트한 경우, 디바이스(3010)는 제 1 이미지(3030-1) 및 오브젝트 이미지에 대한 정보(3040)를 가상 이미지로 디스플레이할 수 있다. 예를 들어, 영화 속 주인공이 착용한 옷에 대한 정보(3040)를 디스플레이 하던 중, 영화 장면이 전환되어 해당 옷을 더 이상 디텍트할 수 없는 경우, 디바이스(3010)는 해당 옷이 포함되어 있는 컨텐츠 이미지(3030-2)와 해당 옷에 대한 정보(3040)를 별도로 디스플레이하여 유저에게 제공할 수 있다.
이는, 동영상 컨텐츠의 특성 상 컨텐츠 이미지가 지속적으로 전환되는데, 컨텐츠 이미지가 전환된 후에도 해당 정보(3040)가 디스플레이 되어 있으면, 유저는 해당 정보(3040)를 전환된 컨텐츠 이미지(3050)에 대한 정보로 착각할 수 있기 때문이다. 또는, 컨텐츠 이미지가 전환되어 오브젝트 이미지가 디텍트되지 않음에 따라 해당 정보(3040)를 디스플레이하지 않는 경우, 해당 정보(3040)가 유저에게 충분히 전달되지 않을 수 있기 때문이다. 특히, 해당 정보(3040)의 디스플레이 시간이 충분하지 않았던 경우, 해당 정보(3040)가 유저에게 충분히 전달되지 않았을 확률이 높다.
따라서, 디바이스(3010)는 컨텐츠 이미지가 전환되어 오브젝트 이미지가 디텍트되지 않으면, 디바이스(3010)는 오브젝트 이미지를 포함하는 제 1 이미지(3030-2)와 오브젝트 이미지에 대한 정보(3040)를 함께 별도로 디스플레이할 수 있다. 이로써, 디바이스(3010)는 해당 정보를 오브젝트 이미지와 연관시켜 충분한 시간 동안 유저에게 제공할 수 있다.
디바이스(3010)는 카메라 유닛을 통해 오브젝트 이미지를 디텍트하여, 제 1 이미지(3030-1)로부터 제 2 이미지(3050)로의 전환을 디텍트할 수 있다. 또는, 디바이스(3010)는 커뮤니케이션 유닛을 통해 오브젝트 이미지가 디스플레이 되는 시간에 관한 데이터를 획득, 제 1 이미지(3030-1)로부터 제 2 이미지(3050)로의 전환을 디텍트할 수 있다. 또는, 디바이스는 커뮤니케이션 유닛을 통해 제 1 이미지(3030-1)가 제 2 이미지(3050)로 전환되는 시점에 특정 신호를 수신하여 제 1 이미지(3030-1)로부터 제 2 이미지(3050)로의 전환을 디텍트할 수 있다. 또는, 디바이스(3010)는 상술한 방식의 조합으로도 컨텐츠 이미지의 전환을 디텍트할 수 있다. 이밖에도, 디바이스(3010)는 다양한 방식으로 제 1 이미지(3030-1)로부터 제 2 이미지(3050)로의 전환을 디텍트할 수 있으며, 상술한 바에 한정되는 것은 아니다.
다만, 제 1 이미지(3030-1)의 디스플레이가 유지됨에 따라, 오브젝트 이미지에 대한 정보(3040)의 디스플레이 역시 기설정된 시간 동안 유지된 경우에는, 디바이스(3010)는 화면이 전환되더라도, 제 1 이미지(3030-2) 및 오브젝트 이미지에 대한 정보(3040)를 디스플레이하지 않을 수 있다. 보다 상세하게는, 오브젝트 이미지에 대한 정보(3040)가 기설정된 시간 동안 디스플레이 된 경우에는, 디바이스(3010)는 제 1 이미지(3030-1)가 제 2 이미지(3050)로 전환되더라도 제 1 이미지(3030-2) 및 오브젝트 이미지에 대한 정보(3040)를 디스플레이하지 않을 수 있다. 오브젝트 이미지에 대한 정보(3040)가 기설정된 시간 동안 디스플레이된 경우에는 유저가 디스플레이된 정보(3040)를 충분히 인지했다고 볼 수 있기 때문이다. 이에 관한 상세한 설명은 도 6과 관련하여 후술하기로 한다.
한편, 디바이스(3010)는 제 1 이미지(3030-2) 및 오브젝트 이미지에 대한 정보(3040)를 디스플레이하는 경우, 다양한 방식으로 제 1 이미지(3030-2) 를 획득하여 디스플레이할 수 있다.
일 실시예로서, 디바이스(3010)는 외부 디바이스(3020)로부터 제 1 이미지(3030-2)를 획득할 수 있다. 보다 상세하게는, 디바이스(3010)는 커뮤니케이션 유닛을 사용하여 외부 디바이스(3020)와의 통신을 수행, 제 1 이미지(3030-2)를 획득할 수 있다. 예를 들어, 외부 디바이스(3020)는 유저의 검색 커맨드가 입력된 시점의 제 1 이미지(3030-2)를 캡쳐링하여, 캡쳐링한 제 1 이미지(3030-2)에 대한 데이터를 디바이스(3010)에 송신할 수 있다. 또는, 외부 디바이스(3020)는 오브젝트 이미지를 포함하고 있는 대표적인 제 1 이미지(3030-2)에 대한 데이터를 디바이스(3010)에 송신할 수 있다. 만일, 디바이스(3010)가 오브젝트 이미지와 관련된 정보(3040)를 외부 디바이스(3020)로부터 획득하는 경우에는, 외부 디바이스(3020)는 해당 정보(3040)에 대한 데이터를 제 1 이미지(3030-2)에 대한 데이터와 함께 송신할 수 있다. 디바이스(3010)는 이렇듯 외부 디바이스(3020)로부터 수신한 제 1 이미지(3030-2)에 대한 데이터를 이용하여 제 1 이미지(3030-2)를 획득 및 디스플레이할 수 있다.
다른 실시예로서, 디바이스(3010)는 카메라 유닛을 통해 제 1 이미지(3030-2)를 획득할 수 있다. 보다 상세하게는, 디바이스(3010)는 유저의 검색 커맨드가 입력된 시점에 카메라 유닛으로 제 1 이미지(3030-2)를 캡쳐링하여, 제 1 이미지(3030-2)를 획득할 수 있다. 이때, 디바이스(3010)는 카메라 유닛의 화각 영역 내에 위치한 제 1 이미지(3030-2)를 디텍트하여, 제 1 이미지(3030-2)만 부분적으로 캡쳐링할 수 있다. 이때, 디바이스(3010)는 제 1 이미지(3030-2)를 정확하게 캡쳐링하기 위해, 외부 디바이스(3020)와의 통신을 수행할 수 있다. 보다 상세하게는, 디바이스(3010)는 외부 디바이스(3020)의 위치를 획득하여, 외부 디바이스(3020)에 디스플레이 중인 제 1 이미지(3030-2)를 부분 캡쳐링할 수 있다. 이때, 디바이스(3010)는 GPS, 블루투스, NFC 등 다양한 프로토콜을 사용하여 외부 디바이스(3020)의 절대적 위치 및/또는 상대적 위치를 획득하여 제 1 이미지(3030-2)를 캡쳐링할 수 있다.
도 4는 일 실시예에 따라, 제 1 이미지 및 오브젝트 이미지에 대한 정보를 디스플레이하는 경우, 제 2 이미지와 겹치지 않도록 디스플레이하는 디바이스를 도시한 도면이다. 특히, 본 도면은 유저가 디바이스(4010)를 착용한 상태에서 디스플레이 유닛을 통해 외부 디바이스(4050)를 바라본 경우의 뷰를 도시한 도면이다.
디스플레이 유닛은 일 실시예로서, 광학적 씨-스루 디스플레이 패널로 구성될 수 있다. 이 경우, 유저는 디스플레이 유닛을 관통하여 외부 디바이스(4050)를 볼 수 있다. 이때, 디바이스(4010)는 디스플레이 유닛을 관통하여 외부 디바이스(4050)를 바라보는 유저의 시야를 방해하지 않기 위해, 제 1 이미지(4020) 및 오브젝트 이미지에 대한 정보(4030)를 외부 디바이스(4050)와 겹치지 않도록 디스플레이할 수 있다. 특히, 디바이스(4010)는 제 1 이미지(4020) 및 오브젝트 이미지에 대한 정보(4030)를 외부 디바이스(4050)에 디스플레이 중인 제 2 이미지(4040)와 겹치지 않도록 디스플레이할 수 있다.
디바이스(4010)는 디스플레이하는 제 1 이미지(4020) 및 정보(4030)의 크기, 투명도, 및/또는 위치 등을 조절하여 제 2 이미지(4040)와 겹치지 않도록 디스플레이할 수 있다. 예를 들어, 도면에 도시한 바와 같이,디바이스(4010)는 제 1 이미지(4020) 및 오브젝트 이미지에 대한 정보(4030)를 제 2 이미지(4040)와 겹치지 않도록 위치를 조절하여 디스플레이 유닛에 디스플레이할 수 있다. 보다 상세하게는, 오른쪽 글래스에 제 2 이미지(4040)가 위치하는 경우, 디바이스(4010)는 왼쪽 글래스에 제 1 이미지(4020) 및 오브젝트 이미지에 대한 정보(4030)를 디스플레이할 수 있다.
이때, 디바이스(4010)는 카메라 유닛을 이용하여 화각 영역 내의 제 2 이미지(4040)의 위치를 디텍트할 수 있다. 나아가, 디바이스(4010)는 제 2 이미지(4040)의 위치를 정확히 디텍트하기 위해 커뮤니케이션 유닛을 이용, 외부 디바이스(4050)와 통신을 수행할 수 있으며, 이에 대해서는 도 3과 관련하여 상술한 바와 같다. 이외에도, 디바이스(4010)는 다양한 방식으로 제 2 이미지(4040) 또는 외부 디바이스(4050)의 위치를 디텍트할 수 있으며, 상술한 실시예에 한정되는 것은 아니다.
도 5는 일 실시예에 따라 제 2 이미지가 기설정된 시간 이내에 제 3 이미지로 전환된 경우, 제 1 이미지를 디스플레이하지 않는 디바이스를 도시한 도면이다.
디바이스(5010)는 제 1 이미지로부터 제 2 이미지로의 전환을 디텍트한 경우, 제 1 이미지 및 오브젝트 이미지(5020-1)에 대한 정보(5030)를 디스플레이할 수 있다. 이는, 오브젝트 이미지(5020-1)와 정보(5030)의 연관성을 유지하여 유저의 혼돈을 방지하고자 함이다.
다만, 제 2 이미지로 전환된 후 기설정된 시간(Tr) 이내에 제 2 이미지가 오브젝트 이미지(5020-2)를 포함한 제 3 이미지로 전환된 경우, 디바이스(5010)는 제 1 이미지를 디스플레이하지 않을 수 있다. 또는, 제 2 이미지로 전환된 후 기설정된 시간(Tr) 이내에 제 2 이미지로부터 제 3 이미지로의 전환을 디텍트한 경우, 디바이스(5010)는 오브젝트 이미지(5030)에 대한 정보(5030)만을 디스플레이할 수 있다.
제 1 이미지와 정보(5030)를 함께 디스플레이함은, 정보(5030)와 오브젝트 이미지(5020-1)와의 연관성을 유지하기 위함이다. 그런데, 오브젝트 이미지(5020-2)를 포함한 제 3 이미지로 전환된 경우에는 오브젝트 이미지(5020-2)에 대한 정보(5030)만 디스플레이 하더라도, 오브젝트 이미지(5020-2)와의 연관성이 유지될 수 있다. 제 3 이미지는 제 1 이미지와는 다르지만, 오브젝트 이미지(5020-2)를 포함한 컨텐츠 이미지이기 때문이다. 따라서, 이 경우 디바이스(5010)는 제 3 이미지로의 전환을 디텍트하면, 제 1 이미지를 디스플레이 하지 않고, 오브젝트 이미지(5020-2)에 대한 정보(5030)만을 디스플레이할 수 있다. 같은 맥락에서, 제 2 이미지가 기설정된 시간(Tr) 이내에 제 1 이미지로 재전환된 경우에도 동일하게 적용될 수 있다.
디바이스(5010)는 제 3 이미지에 포함된 오브젝트 이미지(5020-2)를 디텍트 하여, 해당 오브젝트 이미지(5020-2)에 대한 정보(5030)를 디스플레이할 수 있다. 이때도 디바이스(5010)는 제 3 이미지에 포함된 오브젝트 이미지(5020-2)에 대응하여 정보(5030)를 디스플레이할 수 있다.
디바이스(5010)는 제 3 이미지로의 전환 역시, 제 2 이미지로의 전환을 디텍트하는 방식과 동일한 방식으로 디텍트할 수 있다. 따라서, 디바이스는 카메라 유닛 및/또는 커뮤니케이션 유닛을 이용하여 제 2 이미지로부터 제 3 이미지로의 전환을 디텍트할 수 있으며, 이는 도 3에서 상술한 내용과 상응한다.
도 6은 일 실시예에 따라 제 1 이미지 및/또는 오브젝트 이미지의 디스플레이를 스레스홀드 시간을 기준으로 제어하는 디바이스를 도시한 도면이다.
일 실시예로서, 디바이스(6010)는 오브젝트 이미지에 대한 정보(6030)를 디스플레이하는 경우, 해당 정보(6030)를 제 1 스레스홀드 시간(T1) 동안 디스플레이할 수 있다. 정보(6030)의 디스플레이가 일정 시간 동안 유지되는 경우, 유저가 디스플레이된 정보(6030)를 충분히 인지했을 가능성이 높고, 지속적인 디스플레이는 오히려 유저의 시야를 방해할 수 있기 때문이다. 따라서, 디바이스(6010)는 유저가 정보(6030)를 인지할 수 있는 충분한 시간을 제 1 스레스홀드 시간(T1)으로 지정하여, 제 1 스레스홀드 시간(T1) 동안 해당 정보(6030)를 디스플레이할 수 있다.
이때, 디바이스(6010)는 추가로 제 2 스레스홀드 시간(T2)을 지정하여 제 1 이미지(6020) 및 오브젝트 이미지에 대한 정보(6030)의 디스플레이를 제어할 수 있다. 보다 상세하게는, 상술한 바와 같이, 디바이스(6010)는 오브젝트 이미지에 대한 정보(6030)를 제 1 스레스홀드 시간(T1) 동안 디스플레이할 수 있다. 이렇게 오브젝트 이미지에 대한 정보(6030)를 디스플레이 하던 중, 제 1 이미지(6020)가 제 2 이미지(6040)로 전환됨을 디텍트한 경우, 디바이스(6010)는 제 1 스레스홀드 시간(T1) 보다 작은 제 2 스레스홀드 시간(T2)을 기준으로 제 1 이미지(6020) 및 오브젝트 이미지에 대한 정보(6030)를 디스플레이할지 여부를 결정할 수 있다.
예를 들어, 디바이스(6010)는 오브젝트 이미지에 대한 정보(6030)가 디스플레이된 후 제 2 스레스홀드 시간(T2) 이내에, 제 1 이미지(6020)가 제 2 이미지(6040)로 전환됨을 디텍트한 경우, 제 1 이미지(6020) 및 해당 정보(6030)를 디스플레이할 수 있다. 그러나, 디바이스(6010)는 오브젝트 이미지에 대한 정보(6030)가 디스플레이된 후 제 2 스레스홀드 시간(T2) 이후 및 제 1 스레스홀드 시간(T1) 이내에 제 1 이미지(6020)가 제 2 이미지(6040)로 전환됨을 디텍트한 경우, 제 1 이미지(6020) 및 해당 정보(6030)를 디스플레이하지 않을 수 있다. 즉, 오브젝트 이미지에 대한 정보(6030)를 디스플레이하는 스레스홀드 시간(T1)과 화면 전환에 따른 제 1 이미지(6020) 및 정보(6030)를 디스플레이하는 스레스홀드 시간(T2)은 별도로 존재할 수 있다. 또한, 제 2 스레스홀드 시간(T2)은 제 1 스레스홀드 시간(T1) 보다 작을 수 있다.
제 2 스레스홀드 시간(T2)을 지정하는 이유 역시, 제 2 스레스홀드 시간(T2) 동안 제 1 이미지(6020) 및 정보(6030)가 디스플레이된 경우, 유저가 이를 충분히 인지했을 가능성이 높기 때문이다. 또한, 화면이 전환될때마다 별도의 화면을 디스플레이하는 것은 유저의 시청을 방해하는 요인이 될 수 있기 때문이다.
다만, 상술한 제 1 스레스홀드 시간(T1) 및 제 2 스레스홀드 시간(T2)은 디바이스(6010)의 용도, 실행 중인 어플리케이션의 종류, 실행 중인 모드, 설계, 디자인, 실시예, 유저의 설정에 따라 다양하게 지정될 수 있으며, 상술한 실시예에 한정되는 것은 아니다.
도 7은 실시예에 따른 디바이스의 제어 방법을 나타낸 순서도이다. 본 순서도에서 도 1 내지 도 6에서 상술한 설명과 유사하거나 중복되는 부분에 관한 상세한 설명은 생략하기로 한다.
우선, 디바이스는 제 1 이미지로부터 오브젝트 이미지를 디텍트하여, 오브젝트 이미지와 관련된 정보를 디스플레이 유닛에 디스플레이할 수 있다(S7010). 여기서, 제 1 이미지는 오브젝트 이미지를 포함한 컨텐츠 이미지를 나타낼 수 있다. 또한, 제 1 이미지는 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이중인 컨텐츠 이미지일 수 있다. 디바이스는 제 1 이미지 및 제 1 이미지에 포함되어 있는 오브젝트 이미지에 대한 정보를 커뮤니케이션 유닛을 통해 획득할 수 있으며, 이에 관한 보다 상세한 설명은 도 1 내지 도 3과 관련하여 상술한 바와 같다. 오브젝트 이미지에 대한 정보를 디스플레이하는 경우, 디바이스는 오브젝트 이미지에 대응하여 디스플레이할 수 있으며, 이는 도 2와 관련하여 상술한 바와 같다.
다음으로, 디바이스는 제 1 이미지가 제 2 이미지로 전환되는지 판단할 수 있다(S7020). 여기서 제 2 이미지는 오브젝트 이미지를 포함하지 않는 컨텐츠 이미지를 나타낼 수 있다. 또한, 제 2 이미지 역시 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이 중인 컨텐츠 이미지일 수 있다. 디바이스는 카메라 유닛 및/또는 커뮤니케이션 유닛을 통해 제 1 이미지가 제 2 이미지로 전환되는지 판단할 수 있으며, 이는 도 3과 관련하여 상술한 바와 같다.
만일, 제 1 이미지로부터 제 2 이미지로의 전환을 디텍트한 경우, 디바이스는 제 1 이미지 및 오브젝트 이미지에 대한 정보를 디스플레이 유닛에 디스플레이할 수 있다(S7030). 이때, 디바이스는 제 1 이미지 및 해당 정보를 제 2 이미지와 겹치지 않도록 디스플레이할 수 있다. 이는, 제 2 이미지에 대한 유저의 시야를 방해하지 않기 위함이며, 이에 관하여는 도 4와 관련하여 상술한 바와 같다.
반대로, 제 1 이미지의 디스플레이가 전환되지 않고 유지되는 경우, 디바이스는 오브젝트 이미지에 대한 정보의 디스플레이도 그대로 유지할 수 있다(S7010). 즉, 제 1 이미지가 제 2 이미지로 전환되지 않는 한, 오브젝트 이미지에 대한 정보의 디스플레이를 유지할 수 있다.
나아가, 본 순서도에는 도시하지 않았으나, 디바이스는 제 2 이미지로 전환된 후, 기설정된 시간 이내에 제 3 이미지로의 전환을 디텍트한 경우, 오브젝트 이미지에 대한 정보만을 디스플레이할 수 있다. 다시 말하면, 디바이스는 제 1 이미지 및 오브젝트 이미지에 대한 정보를 디스플레이한 후, 기설정된 시간 이내에 제 3 이미지로의 전환을 디텍트한 경우, 제 1 이미지를 디스플레이하지 않을 수 있다. 여기서, 제 3 이미지는 오브젝트 이미지를 포함하는 이미지이나, 제 1 이미지가 아닌 컨텐츠 이미지를 나타낼 수 있다. 이에 관한 보다 상세한 설명은 도 5와 관련하여 상술한 바와 같다.
또한, 본 순서도에는 도시하지 않았으나, 디바이스는 스레스홀드 시간을 지정하여 제 1 이미지 및/또는 오브젝트 이미지에 대한 정보의 디스플레이를 제어할 수 있는데, 이는 도 6과 관련하여 상술한 바와 같다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 권리범위에 속한다.
또한, 디바이스 및 그의 제어 방법은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
또한, 본 명세서의 디바이스 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 본 명세서에서의 시간은 정확한 값을 의미할 뿐 아니라, 일정 범위의 실질적인 시간을 포함하는 것으로 볼 수 있다. 즉, 본 명세서의 시간은 실질적인 시간을 나타낼 수 있고, 일정 범위의 오차가 존재할 수 있다.
또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
3010: 디바이스
3020: 외부 디바이스
3030-1, 3030-2: 제 1 이미지
3040: 오브젝트 이미지에 대한 정보

Claims (19)

  1. HMD(Head Mounted Display) 디바이스에 있어서,
    데이터를 송/수신하는 커뮤니케이션 유닛;
    이미지를 디스플레이하는 디스플레이 유닛;
    상기 HMD 디바이스의 전방을 캡쳐링하는 카메라 유닛; 및
    상기 커뮤니케이션 유닛, 상기 디스플레이 유닛 및 상기 카메라 유닛을 제어하는, 프로세서; 를 포함하고,
    상기 프로세서는,
    오브젝트 이미지를 포함하는 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이중인 경우로서, 상기 제 1 이미지는 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이된 이미지이고,
    상기 제 1 이미지로부터 상기 오브젝트 이미지를 포함하지 않는 제 2 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는,
    상기 제 1 이미지 및 상기 정보를 디스플레이하는 경우, 상기 제 1 이미지의 크기, 투명도 및 위치 중 적어도 하나를 조절하여 상기 제 2 이미지와 겹치지 않게 디스플레이하고,
    상기 정보의 크기, 투명도 및 위치 중 적어도 하나를 조절하여 상기 제 2 이미지와 겹치지 않게 디스플레이하는,
    HMD 디바이스.
  2. 제 1 항에 있어서,
    상기 외부 디바이스는 상기 HMD 디바이스와 페어링된 디바이스인, HMD 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 이미지로부터 상기 제 2 이미지로의 전환을 디텍트한 경우,
    상기 외부 디바이스로부터 상기 제 1 이미지에 대한 데이터를 수신하고, 상기 수신한 데이터로부터 상기 제 1 이미지를 획득하여, 상기 획득한 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는, HMD 디바이스.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이중인 경우, 상기 제 1 이미지를 캡쳐링 하고,
    상기 제 1 이미지로부터 상기 제 2 이미지로의 전환을 디텍트한 경우, 상기 캡쳐링한 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는, HMD 디바이스.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이하는 경우,
    상기 프로세서는,
    상기 정보를 제 1 스레스홀드 시간(time) 동안 디스플레이하는, HMD 디바이스.
  7. 제 6 항에 있어서,
    상기 프로세서는,
    상기 정보가 디스플레이되고 제 2 스레스홀드 시간 이상 및 상기 제 1 스레스홀드 시간 이내에 상기 제 1 이미지가 상기 제 2 이미지로 전환된 경우, 상기 제 1 이미지 및 상기 정보를 디스플레이하지 않고,
    상기 제 2 스레스홀드 시간 이내에 상기 제 1 이미지가 상기 제 2 이미지로 전환된 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는, HMD 디바이스.
  8. 제 1 항에 있어서,
    상기 제 1 이미지가 상기 제 2 이미지로 전환되어, 상기 제 1 이미지 및 상기 정보를 디스플레이 중인 경우로서,
    상기 프로세서는,
    상기 전환 후, 제 3 스레스홀드 시간(time) 이내에 상기 제 2 이미지로부터 상기 오브젝트 이미지를 포함하는 제 3 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지를 상기 디스플레이 유닛에 디스플레이하지 않는, HMD 디바이스.
  9. 제 1 항에 있어서,
    상기 디스플레이 유닛은 광학적 씨-스루 패널로 구성되는, HMD 디바이스.
  10. 제 1 항에 있어서,
    상기 프로세서는,
    상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이 하는 경우,
    상기 정보를 상기 오브젝트 이미지에 대응하여 디스플레이하는, HMD 디바이스.
  11. HMD 디바이스를 제어하는 방법에 있어서,
    오브젝트 이미지를 포함하는 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 디스플레이 유닛에 디스플레이하는 단계; 로서, 상기 제 1 이미지는 카메라 유닛의 화각 영역에 위치한 외부 디바이스에 디스플레이된 이미지이고,
    상기 제 1 이미지로부터 상기 오브젝트 이미지를 포함하지 않는 제 2 이미지로의 전환을 디텍트하는 단계;
    상기 제 1 이미지로부터 상기 제 2 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는 단계
    상기 제 1 이미지 및 상기 정보를 디스플레이하는 경우, 상기 제 1 이미지의 크기, 투명도 및 위치 중 적어도 하나를 조절하여 상기 제 2 이미지와 겹치지 않게 디스플레이하는 단계; 및
    상기 정보의 크기, 투명도 및 위치 중 적어도 하나를 조절하여 상기 제 2 이미지와 겹치지 않게 디스플레이하는 단계를 포함하는,
    HMD 디바이스의 제어 방법.
  12. 제 11 항에 있어서,
    상기 외부 디바이스는 상기 HMD 디바이스와 페어링된 디바이스인, HMD 디바이스의 제어 방법.
  13. 제 11 항에 있어서,
    상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는 단계는,
    상기 외부 디바이스로부터 상기 제 1 이미지에 대한 데이터를 수신하고, 상기 수신한 데이터로부터 상기 제 1 이미지를 획득하여, 상기 획득한 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는 단계인, HMD 디바이스의 제어 방법.
  14. 제 11 항에 있어서,
    상기 제 1 이미지로부터 상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이중인 경우, 상기 제 1 이미지를 캡쳐링 하는 단계; 및
    상기 제 1 이미지로부터 상기 제 2 이미지로의 전환을 디텍트한 경우, 상기 캡쳐링한 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는 단계; 를 포함하는, HMD 디바이스의 제어 방법.
  15. 삭제
  16. 제 11 항에 있어서,
    상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이하는 경우,
    상기 정보를 제 1 스레스홀드 시간(time) 동안 디스플레이하는 단계; 를 포함하는, HMD 디바이스의 제어 방법.
  17. 제 16 항에 있어서,
    상기 정보가 디스플레이되고 제 2 스레스홀드 시간 이상 및 상기 제 1 스레스홀드 시간 이내에 상기 제 1 이미지가 상기 제 2 이미지로 전환된 경우, 상기 제 1 이미지 및 상기 정보를 디스플레이하지 않고,
    상기 제 2 스레스홀드 시간 이내에 상기 제 1 이미지가 상기 제 2 이미지로 전환된 경우, 상기 제 1 이미지 및 상기 정보를 상기 디스플레이 유닛에 디스플레이하는 단계; 를 더 포함하는, HMD 디바이스의 제어 방법.
  18. 제 11 항에 있어서,
    상기 제 1 이미지가 상기 제 2 이미지로 전환되어, 상기 제 1 이미지 및 상기 정보를 디스플레이 중인 경우,
    상기 전환 후, 제 3 스레스홀드 시간(time) 이내에 상기 제 2 이미지로부터 상기 오브젝트 이미지를 포함하는 제 3 이미지로의 전환을 디텍트한 경우, 상기 제 1 이미지를 상기 디스플레이 유닛에 디스플레이하지 않는 단계; 를 더 포함하는, HMD 디바이스의 제어 방법.
  19. 제 11 항에 있어서,
    상기 오브젝트 이미지를 디텍트하여, 상기 오브젝트 이미지와 관련된 정보를 상기 디스플레이 유닛에 디스플레이 하는 경우,
    상기 정보를 상기 오브젝트 이미지에 대응하여 디스플레이하는 단계; 를 포함하는, HMD 디바이스의 제어 방법.
KR1020130102343A 2013-08-28 2013-08-28 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 KR102081934B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130102343A KR102081934B1 (ko) 2013-08-28 2013-08-28 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
US14/080,346 US9535250B2 (en) 2013-08-28 2013-11-14 Head mounted display device and method for controlling the same
CN201380079103.5A CN105474070B (zh) 2013-08-28 2013-11-26 头戴式显示设备及其控制方法
EP13892352.9A EP3039476B1 (en) 2013-08-28 2013-11-26 Head mounted display device and method for controlling the same
PCT/KR2013/010789 WO2015030307A1 (en) 2013-08-28 2013-11-26 Head mounted display device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130102343A KR102081934B1 (ko) 2013-08-28 2013-08-28 헤드 마운트 디스플레이 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20150025122A KR20150025122A (ko) 2015-03-10
KR102081934B1 true KR102081934B1 (ko) 2020-02-26

Family

ID=52582466

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130102343A KR102081934B1 (ko) 2013-08-28 2013-08-28 헤드 마운트 디스플레이 디바이스 및 그 제어 방법

Country Status (5)

Country Link
US (1) US9535250B2 (ko)
EP (1) EP3039476B1 (ko)
KR (1) KR102081934B1 (ko)
CN (1) CN105474070B (ko)
WO (1) WO2015030307A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262086B1 (ko) * 2014-05-28 2021-06-09 삼성전자 주식회사 이미지 처리 방법 및 장치
CN105005145B (zh) * 2015-08-03 2018-02-09 众景视界(北京)科技有限公司 智能眼镜及智能眼镜的外接设备
US10691201B2 (en) * 2016-12-19 2020-06-23 Intel Corporation Image stream switcher
US10803832B2 (en) 2017-08-01 2020-10-13 Samsung Electronics Co., Ltd. Synchronizing holographic displays and 3D objects with physical video panels
KR20200098034A (ko) * 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
CN111913562A (zh) * 2019-05-07 2020-11-10 广东虚拟现实科技有限公司 虚拟内容的显示方法、装置、终端设备及存储介质
KR101998695B1 (ko) * 2019-05-16 2019-07-11 주식회사 다윈에어로테크 군수송기 비행조종 결함수분석법을 위한 3d 시험장비 시스템 및 그 방법
CN114527864B (zh) * 2020-11-19 2024-03-15 京东方科技集团股份有限公司 增强现实文字显示系统、方法、设备及介质
CN112543340B (zh) * 2020-12-30 2023-01-13 超幻人像科技(杭州)有限公司 一种基于增强现实的戏剧观看方法和装置
US20230177136A1 (en) * 2021-12-08 2023-06-08 Qualcomm Incorporated Auto-pairing rotation vector

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8205223B2 (en) 2000-04-12 2012-06-19 Lg Electronics Inc. Method and video device for accessing information
JP2006267887A (ja) * 2005-03-25 2006-10-05 Konica Minolta Photo Imaging Inc 映像認識手段を備えたヘッドマウントディスプレイ
JP5228307B2 (ja) * 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
KR20100125698A (ko) 2009-05-21 2010-12-01 (주)코리아센터닷컴 동영상 콘텐츠를 이용한 전자상거래를 제공하는 쇼핑몰 호스트 서버 및 그 방법
US20120050140A1 (en) 2010-08-25 2012-03-01 Border John N Head-mounted display control
US9269219B2 (en) * 2010-11-15 2016-02-23 Bally Gaming, Inc. System and method for augmented reality with complex augmented reality video image tags
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
KR101338818B1 (ko) 2010-11-29 2013-12-06 주식회사 팬택 이동 단말기 및 이를 이용한 정보 표시 방법
JP5391224B2 (ja) 2011-03-28 2014-01-15 日本電信電話株式会社 映像付加情報表示制御装置およびその動作方法
KR101315303B1 (ko) * 2011-07-11 2013-10-14 한국과학기술연구원 착용형 디스플레이 장치 및 컨텐츠 디스플레이 방법
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR20130049673A (ko) 2011-11-04 2013-05-14 주식회사 코리아퍼스텍 동영상 스팟 이미지에 기초한 객체정보 제공방법 및 시스템
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
US20140035877A1 (en) * 2012-08-01 2014-02-06 Hon Hai Precision Industry Co., Ltd. Using a display device with a transparent display to capture information concerning objectives in a screen of another display device
US9576397B2 (en) * 2012-09-10 2017-02-21 Blackberry Limited Reducing latency in an augmented-reality display
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images

Also Published As

Publication number Publication date
EP3039476B1 (en) 2020-11-18
EP3039476A1 (en) 2016-07-06
CN105474070B (zh) 2018-05-29
WO2015030307A1 (en) 2015-03-05
KR20150025122A (ko) 2015-03-10
EP3039476A4 (en) 2017-03-22
US20150061973A1 (en) 2015-03-05
CN105474070A (zh) 2016-04-06
US9535250B2 (en) 2017-01-03

Similar Documents

Publication Publication Date Title
KR102081934B1 (ko) 헤드 마운트 디스플레이 디바이스 및 그 제어 방법
US10142618B2 (en) Imaging apparatus and imaging method
KR20190071839A (ko) 가상 현실 경험 공유
US20160217794A1 (en) Information processing apparatus, information processing method, and program
US8963807B1 (en) Head mounted display and method for controlling the same
KR20150034558A (ko) 헤드 마운트 디스플레이 및 제어 방법
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
US10972674B2 (en) Electronic apparatus
JPWO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20190018914A (ko) 서버, 디스플레이장치 및 그 제어방법
US10860166B2 (en) Electronic apparatus and image processing method for generating a depth adjusted image file
KR102138520B1 (ko) 헤드 마운트 디스플레이 및 제어 방법
US11706378B2 (en) Electronic device and method of controlling electronic device
WO2018129955A1 (zh) 电子设备控制方法及电子设备
US10122964B2 (en) Communication system
EP2942949A1 (en) System for providing complex-dimensional content service using complex 2d-3d content file, method for providing said service, and complex-dimensional content file therefor
US10645282B2 (en) Electronic apparatus for providing panorama image and control method thereof
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
TW202305743A (zh) 協調追蹤
KR20110072108A (ko) 태그를 구비하는 모바일 단말기를 이용한 비전기반 증강현실 구현 시스템
JP2016036081A (ja) 画像処理装置、方法及びプログラム並びに記録媒体
US9172948B2 (en) Display apparatus and method of controlling the same for displaying a three-dimensional video
US20240176411A1 (en) Electronic device and method for controlling electronic device
KR20230067000A (ko) 혼합 현실의 가상 오브젝트를 렌더링하기 위한 방법 및 이를 위한 전자 장치
JP2017224913A (ja) 撮像システム、情報処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant