KR101810980B1 - 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템 - Google Patents

콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템 Download PDF

Info

Publication number
KR101810980B1
KR101810980B1 KR1020160059589A KR20160059589A KR101810980B1 KR 101810980 B1 KR101810980 B1 KR 101810980B1 KR 1020160059589 A KR1020160059589 A KR 1020160059589A KR 20160059589 A KR20160059589 A KR 20160059589A KR 101810980 B1 KR101810980 B1 KR 101810980B1
Authority
KR
South Korea
Prior art keywords
screen
content
rendering
application
position information
Prior art date
Application number
KR1020160059589A
Other languages
English (en)
Other versions
KR20170128910A (ko
Inventor
석윤찬
Original Assignee
주식회사 비주얼캠프
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비주얼캠프 filed Critical 주식회사 비주얼캠프
Priority to KR1020160059589A priority Critical patent/KR101810980B1/ko
Publication of KR20170128910A publication Critical patent/KR20170128910A/ko
Application granted granted Critical
Publication of KR101810980B1 publication Critical patent/KR101810980B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템이 개시된다. 예시적인 실시예에 따른 표시 장치는, 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션, 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 렌더링 어플리케이션, 및 콘텐츠 어플리케이션으로부터 콘텐츠 화면을 수신하고, 렌더링 어플리케이션으로부터 렌더링 화면을 수신하며, 콘텐츠 화면과 상기 렌더링 화면을 오버레이 하여 표시하는 표시부를 포함한다.

Description

콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템{METHOD FOR DISPLAYING CONTENTS, DISPLAY DEVICE AND SYSTEM FOR EXECUTING THE METHOD}
본 발명의 실시예는 콘텐츠 표시를 위한 기술과 관련된다.
최근 가상 현실 기술이 대두되면서, 헤드 마운티드 디스플레이(HMD; Head Mounted Display) 등과 같은 가상 현실 장치의 사용이 증가하고 있다. 헤드 마운티드 디스플레이란 사용자의 머리 부분에 장착하는 형태로 사용자의 눈 앞에 직접 3차원 입체 영상을 제시할 수 있는 디스플레이 장치이다.
그러나, 가상 현실 장치를 사용하는 경우, 사용자는 화면에 표시되는 영상에서 정보를 서치하기 위해 눈의 움직임이 많아지게 되며, 이는 어지러움을 유발하게 되는 문제가 있게 된다.
한국등록특허공보 제10-1586195호(2016.01.20)
본 발명의 실시예는 사용자의 어지러움을 줄일 수 있는 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템을 제공하기 위한 것이다.
예시적인 일 실시예에 따른 표시 장치는, 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션; 상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 렌더링 어플리케이션; 및 상기 콘텐츠 어플리케이션으로부터 상기 콘텐츠 화면을 수신하고, 상기 렌더링 어플리케이션으로부터 상기 렌더링 화면을 수신하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 표시하는 표시부를 포함한다.
상기 렌더링 화면은, 투명한 윈도우 형태의 화면으로, 상기 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용될 수 있다.
상기 렌더링 어플리케이션은, 상기 표시부 상에서 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부; 및 상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하여 상기 표시부로 전달하는 렌더링 화면 구성부를 포함할 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지에 따라 동작 여부를 결정할 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되지 않고, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되도록 마련될 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션에 설정된 설정값에 따라 동작 여부를 결정할 수 있다.
예시적인 다른 실시예에 따른 표시 장치는, 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션; 상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 오버레이 화면을 구성하는 렌더링 어플리케이션; 및 상기 렌더링 어플리케이션으로부터 상기 오버레이 화면을 수신하여 출력하는 표시부를 포함한다.
상기 렌더링 화면은, 투명한 윈도우 형태의 화면으로, 상기 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용될 수 있다.
상기 렌더링 어플리케이션은, 상기 표시부 상에서 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부; 상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 렌더링 화면 구성부; 및 상기 콘텐츠 어플리케이션으로부터 상기 콘텐츠 화면을 수신하고, 상기 렌더링 화면 구성부로부터 상기 렌더링 화면을 수신하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 오버레이 화면을 구성하는 화면 오버레이부를 포함할 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지에 따라 동작 여부를 결정할 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되지 않고, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되도록 마련될 수 있다.
상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션에 설정된 설정값에 따라 동작 여부를 결정할 수 있다.
예시적인 실시예에 따른 콘텐츠 표시 시스템은, 콘텐츠 화면 및 시선 위치 정보를 전송하고, 오버레이 화면을 수신하여 표시하는 표시 장치; 및 상기 표시 장치로부터 상기 콘텐츠 화면 및 상기 시선 위치 정보를 각각 수신하고, 상기 시선 위치 정보를 기반으로 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면이 오버레이된 오버레이 화면을 구성하여 상기 표시 장치로 송신하는 서버를 포함한다.
상기 렌더링 화면은, 투명한 윈도우 형태의 화면으로, 상기 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용될 수 있다.
상기 표시 장치는, 콘텐츠를 실행시켜 상기 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션; 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부; 상기 콘텐츠 화면 및 상기 시선 위치 정보를 상기 서버로 송신하고, 상기 서버로부터 상기 오버레이 화면을 수신하는 통신부; 및 상기 오버레이 화면을 출력하여 표시하는 표시부를 포함할 수 있다.
상기 표시 장치는, 상기 콘텐츠 어플리케이션에 설정된 설정값 또는 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지 여부에 따라 상기 콘텐츠 화면 및 상기 시선 위치 정보의 상기 서버로의 전송 여부를 결정할 수 있다.
상기 서버는, 상기 표시 장치로부터 상기 콘텐츠 화면 및 상기 시선 위치 정보를 수신하고, 상기 표시 장치로 상기 오버레이 화면을 송신하는 통신부; 상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 렌더링 화면 구성부; 및 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 상기 오버레이 화면을 구성하는 화면 오버레이부를 포함할 수 있다.
예시적인 일 실시예에 따른 콘텐츠 표시 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 콘텐츠 어플리케이션으로 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 단계; 상기 콘텐츠 어플리케이션과 독립적으로 동작되는 렌더링 어플리케이션을 통해 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 단계; 및 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 표시하는 단계를 포함한다.
예시적인 다른 실시예에 따른 콘텐츠 표시 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 콘텐츠 어플리케이션으로 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 단계; 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 단계; 상기 콘텐츠 화면 및 상기 시선 위치 정보를 서버로 송신하는 단계; 상기 서버로부터 상기 콘텐츠 화면 위에 렌더링 화면이 오버레이 된 오버레이 화면을 수신하는 단계; 및 상기 오버레이 화면을 출력하여 표시하는 단계를 포함한다.
예시적인 또 다른 실시예에 따른 콘텐츠 표시 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 표시 장치로부터 콘텐츠 화면 및 시선 위치 정보를 각각 수신하는 단계; 상기 시선 위치 정보를 기반으로 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 단계; 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 오버레이 화면을 구성하는 단계; 및 상기 오버레이 화면을 상기 표시 장치로 송신하는 단계를 포함한다.
본 발명의 실시예에서는, 콘텐츠 어플리케이션과 독립적으로 렌더링 어플리케이션이 동작되어 사용자의 시선 위치에 따라 렌더링 화면을 구성하고, 표시부에서 콘텐츠 화면과 렌더링 화면을 오버레이하여 표시해줌으로써, 사용자가 가상 현실 등의 콘텐츠를 보면서 느끼게 되는 어지러움 증상을 줄일 수 있게 된다. 또한, 렌더링 어플리케이션이 콘텐츠 어플리케이션과 독립적으로 동작됨에 따라, 별도의 렌더링 기능을 구비하고 있지 않은 콘텐츠 어플리케이션의 경우에도 렌더링 화면을 제공할 수 있게 된다.
도 1은 예시적인 일 실시예에 따른 표시 장치의 구성을 나타낸 도면
도 2는 예시적인 다른 실시예에 따른 표시 장치의 구성을 나타낸 도면
도 3은 예시적인 실시예에 따른 콘텐츠 표시 시스템의 구성을 나타낸 도면
도 4는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
도 1은 예시적인 일 실시예에 따른 표시 장치의 구성을 나타낸 도면이다. 여기서, 표시 장치는 다양한 형태의 컨텐츠를 시각적으로 표시하기 위한 것으로, 예를 들어, 액정 표시 장치(Liquid Crystal Display), 유기 발광 다이오드 디스플레이(Organic Light-Emitting Diode Display), 음극선관(Cathode Ray Tube), 플라즈마 디스플레이 등 일반적으로 시각적 정보를 전달하기 위한 전자 디스플레이를 포괄하는 의미이다. 또한, 표시 장치는 사용자의 두부에 착용할 수 있도록 구성된 헤드 마운트 디스플레이(Head Mounted Display) 또는 스마트 글래스(Smart Glass) 등의 형태로 구현될 수 있다.
또한, 컨텐츠는 동영상, 이미지, 게임, 웹 페이지, 가상 현실, 증강 현실 등 표시 장치를 이용하여 화면 상에 시각적으로 표시할 수 있는 다양한 형태의 컨텐츠를 포함할 수 있다. 예시적인 실시예에서, 표시 장치는 사용자의 두부에 착용하는 헤드 마운트 디스플레이 또는 스마트 글래스 등의 형태로 구현되고, 표시 장치를 통해 3차원 가상 현실 또는 증강 현실과 같은 형태의 콘텐츠가 표시될 수 있다.
도 1을 참조하면, 표시 장치(100)는 콘텐츠 어플리케이션(102), 렌더링 어플리케이션(104), 및 표시부(106)를 포함할 수 있다.
콘텐츠 어플리케이션(102)은 표시 장치(100)를 통해 표시할 콘텐츠를 실행시키는 역할을 할 수 있다. 예를 들어, 콘텐츠 어플리케이션(102)은 동영상을 재생하거나 게임을 실행시킬 수 있다. 콘텐츠 어플리케이션(102)은 콘텐츠 종류에 따라 복수 개가 구비될 수 있다. 콘텐츠 어플리케이션(102)은 콘텐츠 실행에 따른 화면(이하, “콘텐츠 화면”이라 지칭할 수 있음)을 표시부(106)로 전달할 수 있다. 콘텐츠 어플리케이션(102)은 표시 장치(100)에 마련되는 컴퓨터 판독 가능 저장 매체 상에 상주할 수 있다. 콘텐츠 어플리케이션(102)은 표시 장치(100)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다.
렌더링 어플리케이션(104)은 콘텐츠 어플리케이션(102)과 독립된 동작을 하는 어플리케이션으로, 표시부(106) 상의 사용자의 시선 위치에 따라 콘텐츠 화면과는 별도의 렌더링 화면을 구성하여 표시부(106)로 전달할 수 있다. 렌더링 어플리케이션(104)은 콘텐츠 어플리케이션(102)과 병렬적으로 동작하여 렌더링 화면을 구성할 수 있다. 렌더링 어플리케이션(104)은 표시 장치(100)에 마련되는 컴퓨터 판독 가능 저장 매체 상에 상주할 수 있다. 렌더링 어플리케이션(104)은 표시 장치(100)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 렌더링 어플리케이션(104)은 시선 추적부(104a) 및 렌더링 화면 구성부(104b)를 포함할 수 있다.
시선 추적부(104a)는 표시부(106)에서 사용자의 시선을 추적하여 시선 위치 정보를 생성할 수 있다. 즉, 시선 추적부(104a)는 표시부(106) 화면 상에서의 사용자의 시선 위치를 산출하고, 이를 기반으로 시선 위치 정보를 생성할 수 있다. 시선 추적부(104a)는 표시부(106)에 콘텐츠 화면에 표시되는 경우, 콘텐츠 화면에서 사용자의 시선 위치를 산출할 수도 있다. 시선 추적부(104a)는 다양한 형태의 센서 내지는 카메라를 이용하여, 사용자의 시선 움직임 정보를 수집하고, 수집된 시선 움직임 정보를 이용하여 사용자의 시선 위치를 산출할 수 있다.
렌더링 화면 구성부(104b)는 시선 위치 정보를 기반으로 렌더링 화면을 구성할 수 있다. 렌더링 화면은 콘텐츠 화면과 동일한 크기의 화면일 수 있다. 렌더링 화면은 투명한 윈도우 형태의 화면으로, 일부 영역에 투과도 필터가 적용될 수 있다. 렌더링 화면 구성부(104b)는 렌더링 화면을 표시부(106)로 전달할 수 있다. 렌더링 화면은 표시부(106)에서 콘텐츠 화면 위에 겹쳐져 표시될 수 있다. 즉, 사용자는 렌더링 화면을 통해 콘텐츠 화면을 보도록 구현될 수 있다.
구체적으로, 렌더링 화면 구성부(104b)는 시선 위치 정보를 기반으로 표시부(106) 상에서의 사용자의 응시 지점을 결정하고, 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성할 수 있다. 렌더링 화면 구성부(104b)는 표시부(106) 상에서 사용자의 시선 위치가 일정 시간 이상 변동이 없는 경우, 해당 시선 위치에 대응하는 지점을 응시 지점으로 결정할 수 있다. 다른 예로, 렌더링 화면 구성부(104b)는 표시부(106) 상에서 사용자의 시선 위치가 일정 영역 내에 일정 시간 이상 머무르는 경우, 해당 영역을 응시 지점으로 결정할 수 있다. 여기서, 일정 영역의 크기 및 응시 지점을 결정하기 위한 시간은 미리 설정된 값을 이용하거나 사용자에 의해 설정된 값을 이용할 수 있다.
예시적인 실시예에서, 렌더링 화면 구성부(104b)는 응시 지점을 기준으로 렌더링 화면을 복수 개의 영역으로 구분할 수 있다. 렌더링 화면 구성부(104b)는 응시 지점을 기준으로 기 설정된 크기의 영역을 포커싱 영역으로 결정할 수 있다. 렌더링 화면 구성부(104b)는 렌더링 화면을 포커싱 영역 및 포커싱 영역 이외의 영역으로 구분할 수 있다. 렌더링 화면 구성부(104b)는 렌더링 화면 중 포커싱 영역에는 콘텐츠 화면이 선명하게 보이도록 제1 투과도의 필터를 적용하고, 렌더링 화면 중 포커싱 영역 이외의 영역에는 콘텐츠 화면이 흐리게 보이도록(블러(blur) 처리되어 보이도록) 제1 투과도 보다 낮은 투과도를 갖는 제2 투과도의 필터를 적용할 수 있다. 이 경우, 포커싱 영역에 대응하는 콘텐츠 화면 영역은 선명하게 보이고, 포커싱 영역 이외의 영역에 대응하는 콘텐츠 화면 영역은 흐리게 보임에 따라, 사용자는 포커싱 영역에 대응하는 콘텐츠 화면 영역을 집중하여 보게 되고, 사용자의 눈 움직임의 줄일 수 있어 어지러움 증상을 줄일 수 있게 된다.
렌더링 화면 구성부(104b)는 포커싱 영역 이외의 영역의 경우, 포커싱 영역에서 멀어질수록 렌더링 화면의 투과도가 점진적으로 낮아지도록 할 수 있다. 다른 예로, 렌더링 화면 구성부(104b)는 포커싱 영역 이외의 영역을 포커싱 영역과의 거리에 따라 복수 개의 영역으로 구분하고, 포커싱 영역과의 거리에 따라 투과도를 단계적으로 낮게 적용할 수 있다.
표시부(106)는 콘텐츠 화면과 렌더링 화면을 오버레이(Overlay)하여 표시할 수 있다. 즉, 표시부(106)는 콘텐츠 화면 위에 렌더링 화면을 오버레이하여 표시할 수 있다. 표시부(106)는 표시 장치(100)의 제어를 위한 OS(Operating System)를 포함할 수 있다.
본 발명의 실시예에서는, 콘텐츠 어플리케이션과 독립적으로 렌더링 어플리케이션이 동작되어 사용자의 시선 위치에 따라 렌더링 화면을 구성하고, 표시부에서 콘텐츠 화면과 렌더링 화면을 오버레이하여 표시해줌으로써, 사용자가 가상 현실 등의 콘텐츠를 보면서 느끼게 되는 어지러움 증상을 줄일 수 있게 된다. 또한, 렌더링 어플리케이션이 콘텐츠 어플리케이션과 독립적으로 동작됨에 따라, 별도의 렌더링 기능을 구비하고 있지 않은 콘텐츠 어플리케이션의 경우에도 렌더링 화면을 제공할 수 있게 된다.
한편, 렌더링 어플리케이션(104)은 표시 장치(100)에서 활성화되는 콘텐츠 어플리케이션(102)에 설정된 설정값에 따라 동작 여부를 결정할 수 있다. 즉, 표시 장치(100)에 인스톨된 각 콘텐츠 어플리케이션(102)은 렌더링 기능을 구비하는지 여부에 따라 설정값이 부여될 수 있다. 예를 들어, 렌더링 어플리케이션(104)은 설정 화면에서 표시 장치(100)에 인스톨된 각 콘텐츠 어플리케이션(102)의 리스트를 표시할 수 있다. 이때, 사용자는 렌더링 기능을 구비하는지 여부에 따라 각 콘텐츠 어플리케이션(102)에 설정값을 부여하여 해당 콘텐츠 어플리케이션(102)이 활성화되는 경우, 렌더링 어플리케이션(104)의 동작 여부를 정할 수 있게 된다.
표시 장치(100)에서 활성화되는 콘텐츠 어플리케이션(102)의 설정값이 렌더링 어플리케이션(104)이 동작되도록 하는 값인 경우, 렌더링 어플리케이션(104)은 콘텐츠 어플리케이션(102)과 독립적으로 동작하여 렌더링 화면을 구성하게 된다. 반면, 표시 장치(100)에서 활성화되는 콘텐츠 어플리케이션(102)의 설정값이 렌더링 어플리케이션(104)이 동작되지 않도록 하는 값인 경우, 렌더링 어플리케이션(104)은 동작되지 않게 된다.
그러나, 이에 한정되는 것은 아니며 렌더링 어플리케이션(104)은 표시 장치(100)에서 활성화되는 콘텐츠 어플리케이션(102)으로부터 시선 위치 정보의 요청이 있는지에 따라 동작 여부를 결정할 수도 있다. 즉, 콘텐츠 어플리케이션(102)으로부터 시선 위치 정보 요청이 있는 경우, 해당 콘텐츠 어플리케이션(102)이 렌더링 기능을 구비한 것으로 판단하여 렌더링 어플리케이션(104)은 동작되지 않을 수 있다. 반면, 콘텐츠 어플리케이션(102)으로부터 시선 위치 정보 요청이 없는 경우, 해당 콘텐츠 어플리케이션(102)이 렌더링 기능을 구비하지 않은 것으로 판단하여 렌더링 어플리케이션(104)이 동작될 수 있다.
도 2는 예시적인 다른 실시예에 따른 표시 장치의 구성을 나타낸 도면이다. 도 1을 참조하여 설명하였던 본 발명의 제1 실시예에서의 구성요소와 대응되는 구성요소는, 제1 실시예에서 설명한 바와 동일 또는 유사한 기능을 수행하므로, 이에 대한 보다 구체적인 설명은 생략하도록 한다.
도 2를 참조하면, 콘텐츠 어플리케이션(102)은 콘텐츠 실행에 따른 화면(즉, 콘텐츠 화면)을 렌더링 어플리케이션(104)으로 전달할 수 있다. 렌더링 어플리케이션(104)은 시선 추적부(104a), 렌더링 화면 구성부(104b), 및 화면 오버레이부(104c)를 포함할 수 있다. 시선 추적부(104a)는 표시부(106) 화면 상에서의 사용자의 시선 위치를 산출하고, 이를 기반으로 시선 위치 정보를 생성할 수 있다. 렌더링 화면 구성부(104b)는 시선 위치 정보를 기반으로 렌더링 화면을 구성할 수 있다.
화면 오버레이부(104c)는 콘텐츠 화면과 렌더링 화면을 오버레이(Overlay)하여 오버레이 화면을 구성할 수 있다. 즉, 화면 오버레이부(104c)는 콘텐츠 화면 위에 렌더링 화면을 오버레이 할 수 있다. 화면 오버레이부(104c)는 오버레이 화면을 표시부(106)로 전달할 수 있다. 그러면, 표시부(106)는 오버레이 화면을 출력하여 표시하게 된다.
도 3은 예시적인 실시예에 따른 콘텐츠 표시 시스템의 구성을 나타낸 도면이다.
도 3을 참조하면, 콘텐츠 표시 시스템(300)은 표시 장치(100) 및 서버(200)를 포함한다. 표시 장치(100)는 통신 네트워크(150)를 통해 서버(200)와 통신 가능하게 연결된다. 통신 네트워크(150)는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있다.
표시 장치(100)는 콘텐츠 어플리케이션(102), 시선 추적부(104a), 표시부(106), 및 통신부(108)를 포함할 수 있다. 콘텐츠 어플리케이션(102)은 콘텐츠 실행에 따른 화면(즉, 콘텐츠 화면)을 통신부(108)로 전달할 수 있다. 시선 추적부(104a)는 표시부(106)에서 사용자의 시선을 추적하여 시선 위치 정보를 생성하고, 생성한 시선 위치 정보를 통신부(108)로 전달할 수 있다. 그러면, 통신부(108)는 콘텐츠 화면 및 시선 위치 정보를 서버(200)로 송신할 수 있다. 또한, 통신부(108)는 서버(200)로부터 콘텐츠 화면 위에 렌더링 화면이 오버레이 된 오버레이 화면을 수신할 수 있다. 통신부(108)는 수신한 오버레이 화면을 표시부(106)로 전달할 수 있다. 표시부(106)는 오버레이 화면을 출력하여 표시할 수 있다.
서버(200)는 통신부(202), 렌더링 화면 구성부(204), 및 화면 오버레이부(206)를 포함할 수 있다. 통신부(202)는 표시 장치(100)의 통신부(108)로부터 콘텐츠 화면 및 시선 위치 정보를 각각 수신할 수 있다. 렌더링 화면 구성부(204)는 시선 위치 정보를 기반으로 렌더링 화면을 구성할 수 있다. 화면 오버레이부(206)는 통신부(202)가 수신한 콘텐츠 화면과 렌더링 화면 구성부(204)가 생성한 렌더링 화면을 오버레이(Overlay)하여 오버레이 화면을 구성할 수 있다. 즉, 화면 오버레이부(206)는 콘텐츠 화면 위에 렌더링 화면을 오버레이 할 수 있다. 화면 오버레이부(206)는 오버레이 화면을 통신부(202)로 전달할 수 있다. 그러면, 통신부(202)는 오버레이 화면을 표시 장치(100)로 송신할 수 있다. 서버(200)는 클라우드 기반의 서버일 수 있으나, 이에 한정되는 것은 아니며 가령 메인 프레임 기반이나 오픈 시스템 기반의 서버 컴퓨터를 포함한다.
본 발명의 실시예에 의하면, 렌더링 화면 구성 및 오버레이 화면 구성이 서버(200)에서 수행되므로, 렌더링에 따른 시간을 줄일 수 있고, 표시 장치(100)의 업무 로드를 줄일 수 있게 된다.
도 4는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되는 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 콘텐츠를 표시하는 장치(예를 들어, 표시 장치(100))일 수 있다. 또한, 컴퓨팅 장치(12)는 서버 장치(예를 들어, 서버(200))일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 표시 장치
102 : 콘텐츠 어플리케이션
104 : 렌더링 어플리케이션
104a : 시선 추적부
104b : 렌더링 화면 구성부
104c : 화면 오버레이부
106 : 표시부
108 : 통신부
200 : 서버
202 : 통신부
204 : 렌더링 화면 구성부
206 : 화면 오버레이부

Claims (20)

  1. 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션;
    상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 렌더링 어플리케이션; 및
    상기 콘텐츠 어플리케이션으로부터 상기 콘텐츠 화면을 수신하고, 상기 렌더링 어플리케이션으로부터 상기 렌더링 화면을 수신하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 표시하는 표시부를 포함하고,
    상기 렌더링 어플리케이션은,
    상기 표시부 상에서 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부; 및
    상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하여 상기 표시부로 전달하는 렌더링 화면 구성부를 포함하는, 표시 장치.
  2. 청구항 1에 있어서,
    상기 렌더링 화면은,
    투명한 윈도우 형태의 화면으로, 상기 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용되는, 표시 장치.
  3. 삭제
  4. 청구항 1에 있어서,
    상기 렌더링 어플리케이션은,
    상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지에 따라 동작 여부를 결정하는, 표시 장치.
  5. 청구항 4에 있어서,
    상기 렌더링 어플리케이션은,
    상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되지 않고, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되도록 마련되는, 표시 장치.
  6. 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션;
    상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 렌더링 어플리케이션; 및
    상기 콘텐츠 어플리케이션으로부터 상기 콘텐츠 화면을 수신하고, 상기 렌더링 어플리케이션으로부터 상기 렌더링 화면을 수신하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 표시하는 표시부를 포함하고,
    상기 렌더링 어플리케이션은, 상기 콘텐츠 어플리케이션에 설정된 설정값에 따라 동작 여부를 결정하는, 표시 장치.
  7. 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션;
    상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 오버레이 화면을 구성하는 렌더링 어플리케이션; 및
    상기 렌더링 어플리케이션으로부터 상기 오버레이 화면을 수신하여 출력하는 표시부를 포함하고,
    상기 렌더링 어플리케이션은,
    상기 표시부 상에서 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부;
    상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 렌더링 화면 구성부; 및
    상기 콘텐츠 어플리케이션으로부터 상기 콘텐츠 화면을 수신하고, 상기 렌더링 화면 구성부로부터 상기 렌더링 화면을 수신하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 오버레이 화면을 구성하는 화면 오버레이부를 포함하는, 표시 장치.
  8. 청구항 7에 있어서,
    상기 렌더링 화면은,
    투명한 윈도우 형태의 화면으로, 상기 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용되는, 표시 장치.
  9. 삭제
  10. 청구항 7에 있어서,
    상기 렌더링 어플리케이션은,
    상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지에 따라 동작 여부를 결정하는, 표시 장치.
  11. 청구항 10에 있어서,
    상기 렌더링 어플리케이션은,
    상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되지 않고, 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는 경우 동작되도록 마련되는, 표시 장치.
  12. 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션;
    상기 콘텐츠 어플리케이션과 독립적으로 동작하고, 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 오버레이 화면을 구성하는 렌더링 어플리케이션; 및
    상기 렌더링 어플리케이션으로부터 상기 오버레이 화면을 수신하여 출력하는 표시부를 포함하고,
    상기 렌더링 어플리케이션은,
    상기 콘텐츠 어플리케이션에 설정된 설정값에 따라 동작 여부를 결정하는, 표시 장치.
  13. 콘텐츠 화면 및 시선 위치 정보를 전송하고, 오버레이 화면을 수신하여 표시하는 표시 장치; 및
    상기 표시 장치로부터 상기 콘텐츠 화면 및 상기 시선 위치 정보를 각각 수신하고, 상기 시선 위치 정보를 기반으로 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면이 오버레이된 오버레이 화면을 구성하여 상기 표시 장치로 송신하는 서버를 포함하고,
    상기 표시 장치는,
    콘텐츠를 실행시켜 상기 콘텐츠 화면을 생성하는 콘텐츠 어플리케이션;
    사용자의 시선을 추적하여 시선 위치 정보를 생성하는 시선 추적부;
    상기 콘텐츠 화면 및 상기 시선 위치 정보를 상기 서버로 송신하고, 상기 서버로부터 상기 오버레이 화면을 수신하는 통신부; 및
    상기 오버레이 화면을 출력하여 표시하는 표시부를 포함하는, 콘텐츠 표시 시스템.
  14. 청구항 13에 있어서,
    상기 렌더링 화면은,
    투명한 윈도우 형태의 화면으로, 사용자의 시선에 따라 일부 영역에 투과도 필터가 적용되는, 콘텐츠 표시 시스템.
  15. 삭제
  16. 청구항 13에 있어서,
    상기 표시 장치는,
    상기 콘텐츠 어플리케이션에 설정된 설정값 또는 상기 콘텐츠 어플리케이션으로부터 상기 시선 위치 정보의 요청이 있는지 여부에 따라 상기 콘텐츠 화면 및 상기 시선 위치 정보의 상기 서버로의 전송 여부를 결정하는, 콘텐츠 표시 시스템.
  17. 콘텐츠 화면 및 시선 위치 정보를 전송하고, 오버레이 화면을 수신하여 표시하는 표시 장치; 및
    상기 표시 장치로부터 상기 콘텐츠 화면 및 상기 시선 위치 정보를 각각 수신하고, 상기 시선 위치 정보를 기반으로 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하며, 상기 콘텐츠 화면 위에 상기 렌더링 화면이 오버레이된 오버레이 화면을 구성하여 상기 표시 장치로 송신하는 서버를 포함하고,
    상기 서버는,
    상기 표시 장치로부터 상기 콘텐츠 화면 및 상기 시선 위치 정보를 수신하고, 상기 표시 장치로 상기 오버레이 화면을 송신하는 통신부;
    상기 시선 위치 정보를 기반으로 사용자의 응시 지점을 결정하고, 상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 렌더링 화면 구성부; 및
    상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이하여 상기 오버레이 화면을 구성하는 화면 오버레이부를 포함하는, 콘텐츠 표시 시스템.
  18. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    콘텐츠 어플리케이션으로 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 단계;
    상기 콘텐츠 어플리케이션과 독립적으로 동작되는 렌더링 어플리케이션을 통해 사용자의 시선에 따라 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 단계; 및
    상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 표시하는 단계를 포함하고,
    상기 렌더링 화면을 구성하는 단계는,
    상기 사용자의 시선을 추적하여 시선 위치 정보를 생성하는 단계;
    상기 시선 위치 정보를 기반으로 상기 사용자의 응시 지점을 결정하는 단계; 및
    상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 단계를 포함하는, 콘텐츠 표시 방법.
  19. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    콘텐츠 어플리케이션으로 콘텐츠를 실행시켜 콘텐츠 화면을 생성하는 단계;
    사용자의 시선을 추적하여 시선 위치 정보를 생성하는 단계;
    상기 콘텐츠 화면 및 상기 시선 위치 정보를 서버로 송신하는 단계;
    상기 서버로부터 상기 콘텐츠 화면 위에 렌더링 화면이 오버레이 된 오버레이 화면을 수신하는 단계; 및
    상기 오버레이 화면을 출력하여 표시하는 단계를 포함하고,
    상기 렌더링 화면은, 상기 시선 위치 정보를 기반으로 결정된 사용자의 응시 지점을 기준으로 투명도를 달리하여 형성된 것인, 콘텐츠 표시 방법.
  20. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    표시 장치로부터 콘텐츠 화면 및 시선 위치 정보를 각각 수신하는 단계;
    상기 시선 위치 정보를 기반으로 상기 콘텐츠 화면과는 별도의 렌더링 화면을 구성하는 단계;
    상기 콘텐츠 화면 위에 상기 렌더링 화면을 오버레이 하여 오버레이 화면을 구성하는 단계; 및
    상기 오버레이 화면을 상기 표시 장치로 송신하는 단계를 포함하고,
    상기 렌더링 화면을 구성하는 단계는,
    상기 시선 위치 정보를 기반으로 사용자의 응시 지점을 결정하는 단계; 및
    상기 응시 지점을 기준으로 투명도를 달리하는 렌더링 화면을 구성하는 단계를 포함하는, 콘텐츠 표시 방법.
KR1020160059589A 2016-05-16 2016-05-16 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템 KR101810980B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160059589A KR101810980B1 (ko) 2016-05-16 2016-05-16 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160059589A KR101810980B1 (ko) 2016-05-16 2016-05-16 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템

Publications (2)

Publication Number Publication Date
KR20170128910A KR20170128910A (ko) 2017-11-24
KR101810980B1 true KR101810980B1 (ko) 2017-12-20

Family

ID=60810508

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160059589A KR101810980B1 (ko) 2016-05-16 2016-05-16 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR101810980B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction

Also Published As

Publication number Publication date
KR20170128910A (ko) 2017-11-24

Similar Documents

Publication Publication Date Title
US10032312B2 (en) Display control system for an augmented reality display system
KR102235410B1 (ko) 머리-장착형 디스플레이에서의 메뉴 내비게이션
US10043238B2 (en) Augmented reality overlays based on an optically zoomed input
US9904055B2 (en) Smart placement of virtual objects to stay in the field of view of a head mounted display
EP2972559B1 (en) Methods and apparatus for displaying images on a head mounted display
KR102671795B1 (ko) 증강 현실 영상을 제공하는 방법, 디바이스 및 기록매체
US20130300634A1 (en) Method and apparatus for determining representations of displayed information based on focus distance
US20130300635A1 (en) Method and apparatus for providing focus correction of displayed information
US11023109B2 (en) Annotation using a multi-device mixed interactivity system
US10895966B2 (en) Selection using a multi-device mixed interactivity system
JP2017182814A (ja) 環境情報の視覚的複雑性に基づいて情報の提示を修正する方法と装置
US10379345B2 (en) Virtual expansion of desktop
JP2017021680A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
EP3881165A1 (en) Virtual content display opportunity in mixed reality
US20210117048A1 (en) Adaptive assistive technology techniques for computing devices
CN110673340A (zh) 增强现实设备的控制方法及增强现实设备
US10506211B2 (en) Recording medium, image generation apparatus, and image generation method
KR101810980B1 (ko) 콘텐츠 표시 방법 및 이를 수행하기 위한 표시 장치 및 시스템
KR102279681B1 (ko) 동공인식을 이용한 광고 제공 장치 및 방법
US20210231451A1 (en) Concept for the Control of a Display of a Mobile Augmented Reality Device
US11288873B1 (en) Blur prediction for head mounted devices
EP3533032A1 (en) Spatial audio based advertising in virtual or augmented reality video streams
KR102286518B1 (ko) 컨트롤러 입력에 따른 화면 동작 제어 방법 및 이를 이용한 헤드 마운티드 디스플레이 시스템
US11836205B2 (en) Artificial reality browser configured to trigger an immersive experience
US20240112303A1 (en) Context-Based Selection of Perspective Correction Operations

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right