KR20160016567A - 전자 장치 및 이의 사용자 인터렉션 방법 - Google Patents

전자 장치 및 이의 사용자 인터렉션 방법 Download PDF

Info

Publication number
KR20160016567A
KR20160016567A KR1020150070898A KR20150070898A KR20160016567A KR 20160016567 A KR20160016567 A KR 20160016567A KR 1020150070898 A KR1020150070898 A KR 1020150070898A KR 20150070898 A KR20150070898 A KR 20150070898A KR 20160016567 A KR20160016567 A KR 20160016567A
Authority
KR
South Korea
Prior art keywords
screen
user
interaction
displaying
display
Prior art date
Application number
KR1020150070898A
Other languages
English (en)
Other versions
KR102366677B1 (ko
Inventor
마니쉬 차브라
모닐 파르마
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2015/007876 priority Critical patent/WO2016021861A1/en
Priority to EP15829926.3A priority patent/EP3175343A4/en
Priority to CN201580041851.3A priority patent/CN106575188B/zh
Priority to US14/815,429 priority patent/US10809894B2/en
Publication of KR20160016567A publication Critical patent/KR20160016567A/ko
Application granted granted Critical
Publication of KR102366677B1 publication Critical patent/KR102366677B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 디지털 TV(DTV), 모바일, 3D(3-dimensional) 디스플레이가 가능한 소비자 제품과 인터렉션 방법을 제공한다. 특히, 본 발명은 앞서 상술한 소비자 제품을 통한 3D 공간의 웹(Web)과 사용자 인터렉션(interaction)에 대한 시스템 및 방법과 관련된다. 부가적으로, 본 발명은 다른 사용자들이 동시에 실질적인 간섭 없이 하나의 장치로 다른 콘텐츠를 통해 검색하는 복수의 사용자 인터렉션 시나리오를 제공하고, 복수의 사용자들의 화면 사이의 인터렉션을 가능하게 한다.

Description

전자 장치 및 이의 사용자 인터렉션 방법 {Apparatus and Method for User Interaction thereof}
사용자 인터렉션 시스템 및 이의 방법으로, 더 구체적으로는 웹 공간에서 3D 형태로 제공되는 사용자 인터페이스 시스템 및 이의 방법에 관한 것이다.
다음의 배경 기술 논의는 본 발명을 이해하는데 유용한 정보를 포함한다. 여기서 제공하는 어떤 정보도 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다. 또한, 어떤 구체적인 공보 또는 암시적인 참조문헌이 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다.
현재 마켓에서 다양한 3D 기술들은 유리 덮개 유무와 상관없이 3D에서 콘텐츠를 디스플레이할 수 있다. 3D에서 디스플레이되는 대부분의 콘텐츠는 비디오와 몇몇 그래픽 분야이다.
PCT 공개번호 WO 2012/082971는 3D 컴퓨터 디스플레이에서 사용자의 시선과 결합될 수 있는 사용자의 제스처에 의해 3D 컴퓨터 디스플레이에 디스플레이되는 3D 물체와 함께 사용자에 의한 활성화 또는 인터렉팅(interacting)에 대한 시스템과 방법을 교시한다. 이 공개 문서는 적어도 사용자가 착용한 엔도 카메라 및 엑소 카메라 중 하나에 포함된 헤드 프레임에 의해 사용자의 시선을 캡처링(capturing)하고, 복수의 제스처로부터 사용자의 제스처를 인식하는 특징을 교시한다. 반면에, 이 문서는 오직 3D 오브젝트(object)와의 인터렉션에 대해서만 나타낸다. 더욱이 이 문서는 2D 오브젝트에서 3D 오브젝트로의 실시간 전환을 교시, 암시하지 않는다. 부가적으로 이 문서는 또한 표준 웹 콘텐츠를 3D로의 실시간 전환을 다루지 않는다. 또한, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 공개번호 2003/0197737는 윈도우에서 2D 및 3D 정보 둘 다 디스플레이하기 위한 2D/3D 웹 브라우저(browser)를 공개한다. 특히, 2D 또는 3D 정보를 제공하는 웹 사이트를 검색하기 위한 웹 브라우저가 공개된다. 2D/3D 웹 브라우저는 웹 사이트에 액세스(access) 정보를 요청하기 위한 소프트웨어; 및 요청에 응답하는 웹 사이트에 제공된 정보를 2D/3D 전환 가능한 윈도우 및 3D 윈도우를 갖는 디스플레이 스크린에 디스플레이하기 위한 디스플레이;를 포함하고, 만약 정보가 3D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우 및 3D 윈도우의 결합 영역에 디스플레이되고, 만약 정보가 2D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우에 디스플레이된다. 이 문서는 2D 웹 콘텐츠를 3D 가상 공간에 전환하고 디스플레이하는 것을 말한다. OpenGL/WebGL와 같은 기술을 언급한다. 반면에 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 공개번호 2012/0174038는 인터렉티브(interactive) 가상의 구를 이용하여 콘텐츠를 탐색하고 선택하는 것에 대한 시스템 및 방법을 공개한다. 문서에 따라 시스템은 콘텐츠 서버를 통해 접근 가능한 콘텐츠 데이터베이스를 포함한다. 콘텐츠 데이터베이스는 제1 복수의 콘텐츠 유닛을 저장하도록 구성되고, 상기 콘텐츠 데이터베이스와 연결되는 어그리게이터(aggregator), 상기 어그리게이터는 상기 제1 복수의 콘텐츠 유닛을 업데이트하도록 구성된다. 시스템은 또한 구형 그래픽 렌더링(rendering) 모듈 및 콘텐츠 탐색 모듈을 포함한다. 구형 그래픽 렌더링 모듈은 가상 구의 표면상의 제2 복수의 콘텐츠 유닛에 대응하는 시각적 표현을 렌더(render)하도록 구성된다. 탐색 모듈 콘텐츠는 가상의 구와 인터렉팅하기 위한 사용자 인터페이스를 제공한다. 구형 그래픽 렌더링 모듈은 콘텐츠 데이터베이스에 엑세스하고, 사용자 인터페이스에 의해 수신된 입력에 대응하여 제2 복수의 콘텐츠 유닛 중 적어도 하나를 선택하도록 구성된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 공개번호 2012/0192115는 3차원 모양의 측면 상의 인터렉티브(interactive) 프로젝션(projection)과 관련 미디어 세그먼트(segment)의 재생에 대한 시스템 및 방법을 공개한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 특허번호 8,035,635는 가상의 3D 공간에서 콘텐츠 엘리먼트(element)의 위치에 대한 시스템을 공개한다. 이 문서에 따르면, 2D 베이스 평면은 3D 공간에서 지정되고, 가상의 콘텐츠는 베이스 평면과 평행하게 놓인 적어도 하나의 페이지와 함께 3D 공간에 위치된다. 뷰포인트(viewpoint)와 뷰잉 레이(viewing ray)는 베이스 평면에 평행하지도 수직하지도 않은 뷰잉 레이(viewing ray)와 함께 3D 공간을 보이기 위해 3D 공간에서 선택된다. 2D 표면은 2D 표면이 뷰포인트와 베이스 평면 사이에서 뷰 레이(view ray)와 교차하기 위하여 3D 공간에 위치된다. 적어도 3D 공간의 일부는 뷰잉 레이에 의해 결정된 원근 투영에 의한 2D 표면상에 투영된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 특허번호8,436,891은 인터렉티브(interactive) 하이퍼링크(hyperlinked) 3D 비디오 삽입과 이의 인터렉팅 방법을 공개한다. 이 문서는 멀티미디어 콘텐츠의 메타데이터(metadata)와 관련되고 가상의 3D 공간에서 메타데이터 콘텐츠와의 렌더링 및 인터렉션을 교시한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US 특허출원 공개번호 2012/0127156은 기울어진 3D 공간에서 아이템(item)을 나타내고 검색하기 위한 방법 및 시스템을 공개한다. 기울어진 시청 모드에서, 계층구조의 여러 연속적인 레벨에서 아이템의 그룹은 기울어진 3D 공간의 가시 영역으로 다른 깊이에 보여진 각각의 검색할 수 있는 퍼레이드(parade)에 표시되도록 학습된다. 사용자는 각각 검색할 수 있는 퍼레이드를 횡 방향으로 가로 질러 검색할 수 있고, 기울어진 3D 공간 내에서 계층구조의 위 아래로 검색할 수 있다. 기울어진 3D 공간의 가시 영역에 표시된 퍼레이드를 횡 방향으로 검색하는 것과 3D 공간의 깊이에 따라 계층구조를 위 아래로 검색할 수 있는 것의 결합으로, 사용자는 기울어진 3D 공간의 계층구조 전체를 탐색할 수 있다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
PCT 공개번호 2013/183801은 3D 웹 페이지 렌더링(rendering) 방법과 이를 이용하는 단말기를 공개한다. 렌더링 방법은 하나 이상의 3D 웹 페이지를 구성하는 3D 오브젝트 깊이 정보를 포함하는 소스(source) 텍스트를 로딩(loading)하는 단계, 상기 소스 텍스트를 분석함으로써 DOM 트리(document object model tree)와 깊이 정보를 포함하는 스타일(style) 규칙을 창출하는 단계, DOM 트리와 스타일 규칙을 기반으로 렌더 트리(render tree) 를 생성하는 단계, 렌더 트리에 레이아웃을 수행하는 단계, 레이아웃을 수행함으로써 얻은 정보와 3D 오브젝트의 하나 이상의 위치, 크기, 차이, 모양, 배치를 포함하는 3D 팩터(factor)를 적용함으로써 좌안 및 우안 페이지를 그리는 단계, 좌안 및 우안 페이지를 병합하는 단계 및 3D 브라우저에 좌안 및 우안 페이지를 병합하여 디스플레이하는 단계를 포함한다. 반면에, 이 문서는 인터넷에서 이용 가능한 기준 2D 웹 콘텐츠의 렌더링을 교시, 암시하지 않는다. 또한, 이 문서는 3D 공간의 오브젝트와의 실시간 인터렉션에 대하여 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
EP 출원번호 2591467은 3D TV에서 2D 콘텐츠 데이터를 3D 콘텐츠 데이터로 전환하는 방법을 공개한다. 상기 방법은 2D 에서 3D 콘텐츠로의 전환 모듈을 통해 3D 비디오 콘텐츠와 2D 사용자 인터페이스 콘텐츠 데이터를 수신하는 단계, 2D 유저 인터페이스 콘텐츠 데이터의 3D 렌더링에 대한 좌안 및 우안의 분리를 정의하는 차이 데이터에 의해 나타내지는 이동을 결정하는 단계, 상기 수신된 2D 유저 인터페이스 콘텐츠 데이터와 상기 결정된 이동을 기초로 디스플레이의 3D 깊이에서 3D 사용자 인터페이스 콘텐츠 데이터를 생성하는 단계 및 3D TV의 디스플레이의 3D 비디오 콘텐츠를 디스플레이하는 단계를 포함한다. 반면에 이 문서는 3D 표준 웹 콘텐츠를 디스플레이하는 단계를 교시, 암시하지 않는다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
그러므로, 3D에서 웹 콘텐츠를 디스플레이하기 위해 수행되는 일은 많지 않다. 또한 웹에 도시된 3D 오브젝트들과 인터렉션하기 위해 사용될 수 있는 시스템/방법은 일반적이지 않다. 더욱이 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오를 다루기 위해 이용할 수 있는 시스템/방법은 일반적이지 않다.
그러므로, 본 발명은 3D 공간에서 웹과 사용자 인터렉션을 가능하게 하는 시스템과 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시 예에 따른, 전자 장치의 인터렉션(interaction) 방법은 제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하는 단계; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계; 및 제2 화면에 상기 선택된 오브젝트 또는 선택된 오브젝트에 링크(linked)된 정보를 3D(3-dimensional) 형태로 디스플레이하는 단계;를 포함하는 인터렉션 방법일 수 있다.
또한, 3D 형태로 디스플레이 하는 단계는 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 인터렉션 방법일 수 있다.
그리고, 제1 화면과 제2 화면은 깊이감이 형성되도록 배치되는 인터렉션 방법일 수 있다.
또한, 정보 소스(source)로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 인터렉션 방법일 수 있다.
그리고, 제2 화면과의 사용자 인터렉션을 감지하는 단계; 및 제3 화면에 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 다.
또한, 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 인터렉션 방법일 수 있다.
그리고, 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법일 수 있다.
또한, 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 있다.
그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 전자 장치 인터렉션 방법일 수 있다.
또한, 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법일 수 있다.
본 발명의 또 다른 일 실시 예에 따른, 전자 장치는 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 디스플레이부; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및 감지부를 통해 적어도 하나의 오브젝트 선택이 감지되면, 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 프로세서;를 포함할 수 있다.
또한, 상기 프로세서는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어할 수 있다.
그리고, 프로세서는 제1 화면과 제2 화면을 깊이감이 형성되도록 배치하여 디스플레이 하도록 디스플레이부를 제어할 수 있다..
또한, 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.
그리고, 프로세서는 제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고, 제3 화면에 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어할 수 있다.
또한, 프로세서는 제1 화면에 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.
그리고, 프로세서는 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.
또한, 프로세서는 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고, 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.
그리고, 상기 프로세서는, 상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.
또한, 상기 프로세서는, 상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.
그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능할 수 있다.
또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 전자 장치일 수 있다.
상술한 바와 같은 본 발명의 다양한 실시 예에 의해, 사용자에게 소비자 제품을 통한 3D 공간의 웹과의 인터렉션을 가능하게 하고, 복수의 사용자가 하나의 소비자 제품을 통하여 동시에 인터렉션 할 수 있도록 한다.
본 발명과 그 이점의 더 완벽한 이해를 위해, 참조는 아래와 같이 첨부 도면과 상세한 설명과 관련된 도면의 간단한 설명을 위해 만들어지고 참조 번호는 부분을 나타낸다.
도 1은 본 발명의 일 실시 예에 따라 인터렉션 방법을 도시한다.
도 2는 적어도 하나의 오브젝트를 갖는 웹 페이지를 디스플레이하는 제1 화면을 도시한다.
도 3은 적어도 하나의 오브젝트를 갖는 이메일(e-mail)을 디스플레이하는 제1 화면을 도시한다.
도 4는 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 5는 2D 형태에서 3D 형태로 오브젝트를 전환하는 프로세스(process)를 도시한다.
도 6은 우안 이미지를 포함하는 드로잉(drawing) 버퍼(buffer), 좌안 이미지를 포함하는 드로잉 버퍼 및 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 7은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치를 도시한다.
도 8은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치하기 위한 방법을 도시한다.
도 9A는 우안 이미지를 포함하는 드로잉 버퍼를, 도 9B는 좌안 이미지를 포함하는 드로잉 버퍼를, 도 9C는 3D 형태로 선택된 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 10A는 복수의 오브젝트를 포함하는 제1 화면을, 도 10B는 제1 화면으로부터 선택된 오브젝트에 링크(link)된 정보를 포함하는 제2 화면의 디스플레이를, 도 10C는 제2 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제3 화면의 디스플레이를, 도 10D는 제3 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 추가 화면의 디스플레이를 도시한다.
도 11A는 제1 사용자에 대한 제1 화면의 디스플레이를, 도 11B는 제1 사용자의 제1 화면에서 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 11C는 제1 사용자의 제1 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제4 화면의 디스플레이를 도시한다.
도 12A는 제1 사용자와 제2 사용자에 대한 제1 화면을, 도 12B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 도시한다.
도 13A는 제1 사용자, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 13B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 13C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면을 도시한다.
도 14A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이, 도 14B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 14C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 14D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를 도시한다.
도 15A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 15B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 15C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 15D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를, 도 15E는 제2 사용자로부터 제1 사용자와의 제5 화면 공유에 관한 공유 명령을 감지하면 제1 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 16A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 16B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 16C는 제1 사용자로부터 제2 사용자와의 제2 화면 공유에 관한 공유 명령을 감지하면 제2 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 17은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 18은 본 발명의 일 실시 예에 따른 3D 형태에서 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 것은 선택 사항인 인터렉션 방법을 도시한다.
도 19는 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 멀티미디어 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 20은 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 텍스트 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 21은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 22는 도 17 또는 도 21 중 하나에 도시된 구체적인 시스템도를 도시한다.
도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법에 대해 설명하기 위한 흐름도이다.
도 24는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 간략히 나타내는 블럭도이다.
시작부터 비록 본 발명의 일 실시 예의 구현은 아래에 설명되어 있지만, 본 시스템은 현재 알려지거나 알려지지 않은 임의의 수의 기술을 사용하여 구현될 수 있다는 것이 이해되어야 한다. 본 발명은 본 명세서에서 묘사된 예시적인 디자인과 실시 예를 포함하는 예시적인 실시 예, 도면, 아래 설명된 기술에 한정되어야 하지만, 등가물들의 전체 범위와 함께 첨부된 청구항의 범위 내에서 변형 가능하다.
이동 전화, 개인 휴대 정보 단말기, 핸드헬드(handheld) 컴퓨터, 및 유사한 장치와 같은 핸드헬드 전자 장치는 핸드셋(handset)으로 지칭될 것이다. 데스크탑(desktop), 랩탑(laptop) 컴퓨터, 개인용 컴퓨터, 및 유사한 장치들은 컴퓨팅 장치로 지칭될 것이다. 디지털 TV(DTV), 프로젝터(projector), 및 유사한 장치들은 디스플레이 장치로 지칭될 것이다. 핸드셋과 디스플레이 장치는 소비자 제품으로 지칭될 것이다. 따라서, 본 발명은 3D 형태의 콘텐츠를 디스플레이하기 위해 3D 기술(유리(glass)와 함께 또는 없이)을 포함하는 일부 소비자 제품에서 시행될 수 있다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예에 있어서 "모듈" 혹은 "부" 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하, 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1을 참조하면, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S102); 제1 사용자에 의해 적어도 하나의 오브젝트의 선택을 감지하는 단계(S104); 및 제2 화면에 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S106);를 포함하는 인터렉션 방법(100)이 제공된다.
본 발명의 일 실시 예에서, 제1 화면과 제2 화면은 깊이를 형성하기 위해 배치된다.
본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S108)를 더 포함한다.
또한, 인터렉션 방법(100)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S110)를 더 포함한다.
또한, 인터렉션 방법(100)은 제1 사용자의 제2 화면과의 인터렉션을 감지하는 단계(S110)와 인터렉션 결과를 디스플레이하는 단계(S114)를 더 포함한다.
본 발명의 다른 실시 예에서, 인터렉션의 결과는 제3 화면에 디스플레이된다.
또한, 제3 화면은 제2 화면에 대한 깊이를 형성하기 위하여 배치된다.
본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의해 제1 화면으로부터 오브젝트의 선택을 감지하는 단계(S120) 및 제5 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계(S122)를 더 포함한다.
또한, 인터렉션 방법(100)은 정보 소스로부터 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S124)를 더 포함한다.
또한, 인터렉션 방법(100)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S126)를 더 포함한다.
또한, 제1 화면과 제5 화면은 깊이를 형성하기 위해 배치된다.
발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S128) 및 인터렉션의 결과를 디스플레이하는 단계(S130)를 포함한다.
또한, 제2 사용자에 의한 제5 화면과의 인터렉션의 결과는 제6 화면에 디스플레이된다.
또한, 제6 화면은 제5 화면의 깊이를 형성하기 위해 배치된다.
또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능하게 하는 단계(S132)를 더 포함한다.
또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어를 포함하는 그룹에서 선택된다.
상술한 바와 같이, 인터렉션 방법은 제1 화면에 웹 콘텐츠를 디스플레이하는 단계(S102)를 포함한다. 이제 도 2를 참조하면, 웹 페이지를 디스플레이하는 제1 화면(200)이 도시된다. 도 2에 도시된 바와 같이, 웹 페이지는 적어도 하나의 오브젝트를 포함하고, 웹 페이지는 3개의 오브젝트(202,204,206)를 포함한다. 여기서 오브젝트는 이미지(202), 비디오(204), 하이퍼링크(206)이다.
도 3을 살펴보면, 실시 예로 이메일(e-mail)을 디스플레이하는 제1 화면(300)이 도시된다. 이 경우, 이메일의 첨부파일은 오브젝트처럼 다루어질 수 있다. 예를 들어, 제1 화면(300)에 디스플레이되고 있는 이메일은 “text.doc”(302)이라는 제목의 제1 첨부파일과 멀티미디어(304)을 포함하도록 도시되고, “text.doc”(302)과 멀티미디어(304)는 오브젝트처럼 다루어질 수 있다. 제1 화면(300)이 웹 콘텐츠의 임의의 다른 유형으로 디스플레이될 수 있는 점을 주의할 수 있다. 또한, 웹 콘텐츠는 도 2 또는 도 3에 도시되지 않은 오브젝트의 다른 유형을 포함할 수 있다.
인터렉션 방법(100)은 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계(S104)를 포함한다. 사용자 선택은 마우스, 키패드, 리모콘, 음성명령, 터치, 에어 제스처(air gesture) 등 중 어떠한 것으로부터 수신될 수 있다. 제1 화면이 도2에 도시된 바와 같은 웹 페이지를 디스플레이하고 있고, 사용자의 오브젝트(206)(즉, 하이퍼링크) 선택이 감지되었다고 가정해보면 선택의 결과가 제2 화면에 3D 형태로 디스플레이된다(S106). 제2 화면의 디스플레이는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보일 수 있다. 오브젝트(206)는 “WELCOME TO STEREOSCOPIC WORLD” 문구에 링크되고 있다고 가정하면, 도 4는 3D 형태로 앞선 문구를 디스플레이하고 있는 제2 화면(402)을 도시하고, 여기서 단어 “stereoscopic”은 문구의 다른 단어들에 비하여 제1 사용자와 더 가깝게 배치된다. 임의의 다른 3D 형태가 적용될 수 있다.
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전화하는 단계(S108)를 더 포함한다. 도 5를 살펴보면, 2D 형태에서 3D 형태로 전환하는 한 실시 예의 프로세스(500)는 웹 콘텐츠 상의 오브젝트 선택 감지에 따른 웹 엔진에 의해 컨버터 모듈을 호출하는 단계(S502)를 포함한다.
결과적으로 컨버터(converter) 모듈은 소비자 제품의 3D 디스플레이를 가능하게 한다(S504). 컨버터 모듈은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(drawing buffer) (좌안용 프레임(frame) 버퍼 및 우안용 프레임 버퍼)를 생성한다(S506). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S508). 그 후, 컨버터 모듈은 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다(S510). 그러나, 본 발명의 도5에 도시된 2D 형태에서 3D 형태로 전환하는 프로세스 외에 전환하기 위해 이용 가능한 다른 프로세스가 존재할 수 있다.
도 6을 살펴보면, 컨버터 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(positioning)(602)과 컨버터 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(positioning)(604)은 3D 형태로 상기 문구를 디스플레이하는 제2 화면에 도달하기 위해 도면번호 604에 도시된다(402).
본 발명의 바람직한 실시 예에서, 제1 화면(200)과 제2 화면(402)은 깊이를 나타내기 위해 배치된다. 도 7에 도시된 바와 같이, 제2 화면(402)은 제1 화면(200)과 비교하여 사용자에 더 가깝게 나타난다. 3D 형태로 제2 화면(402)에 디스플레이되는 콘텐츠뿐 아니라 제2 화면(402) 또한 3D 형태로 디스플레이된다.
깊이를 형성하기 위해 제1 화면(200)과 제2 화면(402)을 배치하기 위하여, 인터렉션 방법(800)은 도 8에 도시된 바와 같이 일 실시 예의 방법일 수 있다. 인터렉션 방법(800)은 웹 콘텐츠 상의 오브젝트 선택을 감지하는 단계에 따른 웹 엔진에 의해 인터렉티브(interactive) 3D 윈도우를 호출하는 단계(S802)를 포함한다.
결과적으로 인터렉티브 3D 모듈은 소비자 제품의 3D 디스플레이 모드를 가능하게 한다(S803). 인터렉티브 3D 모듈은 좌안용 및 우안용 프레임을 위한 분리된 드로잉을 지원하기 위해 더블 사이즈 드로잉 버퍼를 생성한다(S806). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S808). 좌안용 프레임 버퍼와 우안용 프레임 버퍼는 3D 깊이 효과를 만들기 위해 결합된다(S810). 그러나 깊이를 나타내기 위해 제1 화면(200)과 제2 화면(402)을 배치하는 임의의 다른 대안의 프로세스가 적용될 수 있고, 본 발명은 도 8에 도시된 프로세스에 국한되는 것은 아니다.
도 9 를 살펴보면, 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(902)과 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(904)은 도면부호 910에 도시된 바와 같이 마지막 디스플레이에 도달하기 위해 도면번호 906과 908에 도시된다. 도면번호 910에 제1 화면(200)과 제2 화면(402)이 깊이를 형성하기 위해 배치된다.
앞서 살펴본 바와 같이, 인터렉션 방법(100)은 제1 사용자와 제2 화면의 인터렉션을 감지하는 단계(S112)와 인터렉션의 결과를 디스플레이하는 단계(S114)를 더 포함한다. 인터렉션의 결과는 제3 화면에 디스플레이 될 수 있고, 제3 화면은 제2 화면에 대한 깊이를 나타내기 위해 배치될 수 있다. 프로세스는 제3 화면에 대하여 반복될 수 있다.
도 10에 도시된 바와 같이 본 발명의 일 실시 예에 따르면, 도 10A는 복수의 오브젝트 (202,204,206)를 포함하는 제1 화면을 나타낸다. 사용자가 오브젝트(206)를 선택한다고 가정하면, 선택된 오브젝트(206)에 링크된 정보는 도 10B에 도시된 바와 같이 제2 화면(402)에 디스플레이된다. 제2 화면이 적어도 하나의 오브젝트(1002,1004,1006)를 포함한다, 제1 사용자가 오브젝트(1002)를 선택한다고 가정하면, 도 10C에 도시된 바와 같이 선택된 오브젝트(1002)에 링크된 정보는 제3 화면(1008)에 디스플레이된다. 10C에 도시된 바와 같이, 제3 화면(1008)은 제2 화면(402)에 대한 깊이를 나타내기 위해 배치된다. 이와 같은 프로세스는 더 반복될 수 있다. 특히, 제3 화면(1008)이 적어도 하나의 오브젝트를 포함하고 있다면, 제3 화면(1008)의 오브젝트 선택은 추가적인 화면에 선택의 결과가 디스플레이 될 수 있다. 도 10C는 제3 화면(1008)이 세 개의 오브젝트(1010,1012,1014)를 포함하는 것을 도시한다. 사용자가 오브젝트(1012)를 선택한다고 가정하면, 선택된 오브젝트(1012)에 링크된 정보는 도 10D에 도시된 바와 같이 추가적인 화면(1016)에 디스플레이된다.
몇몇 예에서, 제2 화면과의 사용자 인터렉션은 제3 화면의 오프닝(opening) 대신, 제2 화면에 디스플레이될 수 있다. 예를 들어, 제2 화면이 이미지나 텍스트를 디스플레이하고 있고, 인터렉션은 디스플레이되고 있는 이미지나 텍스트의 크기를 키우는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.
또한, 제2 화면이 이미지를 디스플레이하고 있고, 인터렉션은 디스플레이되는 이미지를 회전시키는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.
또한, 만약 제2 화면이 비디오를 디스플레이하고 있고, 인터렉션은 재생, 정지 등 중 임의의 하나라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다. 그러므로, 추가 창에 인터렉션의 결과를 디스플레이하는 것은 같은 화면에 결과를 디스플레이 하는 것을 포함한다.
또한, 인터렉션 방법(100)은 제1 화면(202)에서 제1 사용자에 의한 추가 오브젝트 선택을 감지하는 단계(S116)와 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하는 단계(S118)를 더 포함한다. 이는 도 11에 도시된다.
도 11A를 살펴보면, 제1 화면(200)은 제1 사용자에게 디스플레이 된다. 제1 화면(200)에서 오브젝트(202) 선택이 감지된다고 가정하면, 도 11B에 도시된 바와 같이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면(402)이 제1 사용자에게 디스플레이된다.
이 시점에서, 인터렉션 방법(100)은 제1 사용자가 제1 화면(200) 또는 제2 화면(402) 중 하나를 더 선택하도록 할 수 있다. 만약 제1 사용자가 제1 화면(200)에서 추가 오브젝트를 선택한다면, 인터렉션 방법(100)은 추가 선택을 감지한다. 오브젝트(206)의 선택이 감지되었다고 가정하면, 인터렉션 방법(100)은 도 11C에 도시된 바와 같이 제4 화면(1102)에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 수행한다.
또한, 복수의 사용자 소비자 제품의 경우, (즉, 독립된 방법으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품) 도 12A에 도시된 인터렉션 방법은 제1 화면(200)에 제1 사용자와 제2 사용자의 시청을 위해 웹 콘텐츠를 디스플레이하는 단계를 포함한다.
제1 사용자가 제1 화면(200)에서 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 12B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402) (제1 사용자에 의해 시청되는)의 콘텐츠는 3D 형태일 수 있다. 더욱이, 제1 사용자에게, 제2 화면(402)은 제1 화면(200)과 비교하여 가깝게 나타날 수 있다.
또한, 인터렉션 방법(100)은 제1 화면으로부터 제2 사용자에 의한 오브젝트 선택을 감지하는 단계(S120)와 제5 화면에3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크되는 정보를 디스플레이하는 단계(S122)를 더 포함한다.
도 13A에 도시된 바와 같이, 인터렉션 방법(100)은 예를 들어, 제1 사용자와 제2 사용자의 시청을 위해 제1 화면(200)에 웹 콘텐츠를 디스플레이하는 단계를 포함한다.
제1 사용자가 제1 화면(200)으로부터 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 13B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402)의 콘텐츠는 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제 1 화면(200)과 비교하여 가깝게 나타날 수 있다.
제2 사용자가 제1 화면(200)으로부터 오브젝트를 선택한다고 가정하면, 도 13C에 도시된 바와 같이, 제3 사용자에게만 시청될 수 있는 제5 화면(1302)이 열린다. 제1 사용자는 제5 화면(1302)에 의한 어떤 방해 없이 제2 화면(402) 시청을 계속할 수 있다. 제1 사용자와 제2 사용자 모두에게, 제1 화면(200)은 배경으로 나타날 수 있다. 제2 화면(402)(제1 사용자에게 시청되는)의 콘텐츠와 제5 화면(1302)(제2 사용자에게 시청되는)은 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제1 화면(200)보다 가깝게 나타날 수 있다. 제2 사용자에게 제5 화면(1302)은 제1 화면(200)보다 가깝게 나타날 수 있다.
또한, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면(1302)과의 추가 인터렉션을 감지하는 단계(S128) 및 상기 인터렉션 결과를 디스플레이하는 단계(S130)를 더 포함할 수 있다. 이는 도 14에 도시된다.
여기서 도 14A, 14B, 14C는 도 13A, 13B, 13C와 유사하다.
도 14D를 살펴본다. 제2 사용자가 제5 화면(1302)에 디스플레이되는 오브젝트를 선택한다고 가정하면, 제2 사용자에 의한 오브젝트 선택이 감지되고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제6 화면(1402)에 디스플레이된다. 본 발명의 바람직한 실시 예에서, 제6 화면(1402)은 제5 화면(1302)에 대한 깊이를 형성하기 위해 배치된다.
또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S132)를 더 포함한다. 이는 도 15에 도시된다.
여기서, 도 15A, 15B, 15C, 15D는 도 14A, 14B, 14C, 14D와 유사하다.
도 15D와 15E를 살펴보면, 인터렉션 방법(100)은 제1 사용자와 함께 제5 화면(1402)의 제2 사용자 공유를 감지하는 단계를 더 포함한다. 상기 감지에 따라, 인터렉션 방법(100)은 제1 사용자에게 보여질 수 있는 새로운 화면(1502)을 생성하고, 생성된 새로운 화면(1502)에 제5 화면(1402)의 콘텐츠를 디스플레이한다.
도 16을 살펴보면, 도 15에 도시된 방식과 유사한 방식이지만 역으로 도시된다.
도 16A를 살펴보면 제1 사용자와 제2 사용자에 대한 제1 화면(200)의 디스플레이를 도시한다. 제1 사용자에서 오브젝트 선택이 감지되고, 복수의 사용자 모드가 ON 상태이며, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 16B에 도시된 바와 같이 제2 화면(402)은 제1 사용자에게만 보여질 수 있다.
제2 사용자가 제1 화면(200)의 시청을 계속하고 있고, 제1 사용자로부터 제2 사용자와 함께 제2 화면(402)의 공유 명령이 감지된다고 가정하면, 인터렉션 방법(100)은 새로운 화면(1602)을 생성하고 상기 화면(1602)에 제2 화면(402)의 콘텐츠를 디스플레이한다. 또한 공유 명령 감지에 따라, 제1 사용자와 제2 사용자에 의해 보여질 수 있는 단일의 화면이 생성되는 것이 가능하다.
하나 또는 그 이상의 화면 각각은 그래피컬(graphical) 사용자 인터페이스로 해석될 수 있으므로, 본 발명의 일 실시 예에서, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면과 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링트된 정보를 디스플레이하는 제2 화면을 포함하는 그래피컬 사용자 인터페이스가 제공되는 것은 주목할 만 하다.
이제 시스템의 측면을 살펴보면, 앞서 기재된 방법은 도 17에 도시된 바와 같이 시스템으로 수행될 수 있다. 본 명세서에 기재된 시스템은 전자장치에서 구현될 수 있다. 이하 살펴볼 바와 같이 도 23 24
이제 도 17을 살펴보면, 앞서 기재된 발명을 수행하는 시스템(1700)은 웹 콘텐츠(1702)를 수신하고 저장하는 모듈을 포함하고, 이 모듈은 웹 브라우저 또는 사용자 인터페이스(UI) 모듈(1704)에 기초한 웹에 효력이 있게 링크된다. 웹 브라우저 또는 UI에 기초한 웹 모듈(1702)은 추가적으로 웹 엔진(1706) 및 디스플레이 버퍼(1708)에 링크된다.
본 발명의 바람직한 실시 예에 따라, 웹 엔진(1706)은 사용자에 의한 감지를 수행할 수 있다.
본 발명의 바람직한 실시 예에 따라, 시스템(1700)은 선택된 앞서 묘사된 바와 같은 프로세스를 수행하기 함으로써 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D에서 3D 형태로 전환하는 컨버터(converter) 모듈을 더 포함한다. 시스템(1700)은 깊이를 나타내기 위한 제1 화면(200)과 제2 화면(402)을 배치를 위해 인터렉티브 3D 윈도우 모듈(1712)을 더 포함한다.
본 발명의 인터렉션 방법(100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태를 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공한다.
앞서 상술한 실시 예에서, 인터렉션 방법은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다. 언급된 측면에 있어, 제2 화면과 제3 화면 각각은 제1 화면에 대한 깊이를 형성하기 위해 배치된다. 부가적으로, 인터렉션 방법은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제5 화면에 디스플레이하는 단계;를 포함한다.
앞서 상술한 실시 예에 따르면, 본 발명은 웹 콘텐츠를 디스플레이하는 제1 화면, 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의해 선택된 3D 형태로 제1 사용자에 의해 선택된 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하는 그래피컬 사용자 인터페이스를 더 제공한다.
상술한 방법을 수행하기 위해, 본 발명은 추가적으로 제1 화면에 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진(engine), 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 상기 제1 사용자에 의해 선택된 상기 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하고, 제3 화면에 상기 제2 사용자에 의해 선택된 상기 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈; 을 포함하는 인터렉션 시스템을 제공한다.
앞서 묘사된 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 적절한 화면(예를 들어 제2, 제3, 제4, 제5 또는 제6 화면)에 3D 형태로 디스플레이된다. 대안의 실시 예에서, 제2, 제3, 제4, 제5 또는 제6 화면은 제1 화면에 대한 깊이를 형성하기 위해 배치될 수 있는 점과 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 3D 형태로 디스플레이될 필요가 없는 점은 주목할 만 하다. 그러면, 다음 단락에서 상세하게 설명한다. 이 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태를 디스플레이하는 점은 필수적이 선택이 아니라 선택할 수 있는 선택이 된다.
도 18에 도시된 본 발명의 일 실시 예에 따르면, 인터렉션 방법(1800)은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S1802); 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계(S1804); 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 디스플레이하는 단계(S1806), 제1 화면에 대한 깊이를 나타내기 위해 배치되는 제2 보기창을 포함한다.
본 발명의 또 다른 실시 예에 따르면, 인터렉션 방법(1800)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1808)를 더 포함한다.
본 발명의 일 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하는 반면, 본 발명의 또 다른 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이한다.
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 사용자가 제1 화면이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 한다면, 인터렉션 방법(1800)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1810)를 더 포함한다.
본 발명의 또 다른 일 실시 예에 따르면, 인터렉션 방법(1800)은 사용자와 제2 화면의 인터렉션을 감지하는 단계(S1812) 및 인터렉션의 결과를 디스플레이하는 단계(S1814)를 더 포함한다. 바람직한 실시 예에 있어서, 상기 인터렉션의 결과는 제3 화면에 디스플레이된다. 더 바람직한 실시 예에 있어서, 제3 화면은 제2 화면에 대하여 깊이를 형성하기 위해 배치된다.
또한, 인터렉션 방법(1800)은 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계(S1816) 및 제4 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1818)를 더 포함하고, 제4 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다. 본 발명의 실시 예에 따르면, 제4 화면은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된다.
또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제1 화면에서 오브젝트 선택을 감지하는 단계(S1820) 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1822)를 더 포함하고, 제5 화면은 제1 화면에 대한 깊이를 나타내기 위해 배치된다.
또한, 인터렉션 방법(1800)은 정보 소스에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1824)를 더 포함한다.
본 발명의 일 실시 예에 따르면, 제5 화면은 2D 또는 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이한다. 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 제2 사용자가 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하길 원한다면, 인터렉션 방법(1800)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1826)를 더 포함한다.
또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S1828) 및 인터렉션의 결과를 디스플레이하는 단계(S1830)를 더 포함한다. 바람직한 측면에서, 상기 인터렉션의 결과는 제6 화면에 디스플레이된다. 더 바람직한 측면에서, 제6 화면은 제5 화면에 대하여 깊이를 형성하기 위하여 배치된다.
또한, 인터렉션 방법(1800)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S1832)를 더 포함한다.
앞서 상술한 인터렉션(1800) 방법의 측면은 도 19에 도시된다. 도 3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고, 제1 화면(300)에 포함된 첨부파일인 멀티미디어를 디스플레이하는 제2 화면(1902)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(1902)과 함께 디스플레이된다.
이와 같이, 도 20에서, 도3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고 제1 화면(300)에 포함된 첨부파일인 텍스트를 디스플레이하는 제2 화면(2002)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(2002)과 함께 디스플레이된다.
앞서 상술한 인터렉션 방법(1800)이 구현되면, 적어도 하나의 오브젝트(302,304)를 포함하는 웹 콘텐츠(300)를 디스플레이하는 제1 화면; 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면(1902,2002)을 포함하는 그래피컬 사용자 인터페이스가 획득되고, 제2 화면(1902,2002)은 제1 화면(300)에 대한 깊이를 형성하기 위해 배치된다.
앞서 상술한 인터렉션 방법(1800)을 구현하기 위하여, 본 발명은 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈을 더 제공하고, 제2 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다.
본 발명의 일 실시 예의 바람직한 측면에서, 시스템(2100)은 도 21에 도시되고 웹 콘텐츠를 검색하고 저장하기 위한 모듈(2102)을 포함한다. 이는 동작 가능하게 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹에 연결된다. 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹은 추가적으로 웹 엔진(2106)과 디스플레이 버퍼(2108)에 연결된다. 본 발명의 일 실시 예의 바람직한 측면에서, 웹 엔진(2106)은 사용자에 의한 선택의 감지를 수행할 수 있다. 또한, 시스템(2100)은 깊이를 형성하기 위해 제1 화면과 제2 화면을 배치하기 위한 인터렉티브 3D 윈도우 모듈(2110)을 더 포함한다.
인터렉티브 3D 윈도우 모듈(2110)은 또한 원하는 창에 대한 원하는 깊이를 형성하기 위해 추가적인 화면을 배치한다. 예를 들어, 인터렉티브 3D 윈도우 모듈(2110)은 제2 화면에 대하여 깊이감이 형성되도록 제3 화면을 배치하고, 제5 화면에 관하여 깊이를 형성하기 위하여 제4 화면을 배치하고, 제1 화면에 대하여 깊이감이 형성되도록 제5 화면을 배치하고, 제5 화면에 대하여 깊이감이 형성되도록 제6 화면을 배치한다.
본 발명의 방법(2100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고, 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.
본 발명의 또 다른 실시 예에 따르면, 제1 화면과 제3 화면 각각은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이한다.
또한, 인터렉션 방법(2100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다.
또한, 인터렉션 방법(2100)은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제5 화면에 디스플레이하는 단계를 더 포함한다.
본 발명의 실시 예에 따르면, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계를 더 포함한다. 바람직한 예에서, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면을 제2 사용자와 공유하거나 제2 사용자에 대응하는 화면을 제1 사용자와 공유하는 것을 허락하는 단계를 포함한다.
또한, 일단 상술한 인터렉션 방법(2100)이 실행되면, 그래피컬 사용자 인터페이스가 생성되고, 그래피컬 사용자 인터페이스는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이며 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위해 배치된다.
본 발명의 일 실시 예에 따르면, 앞서 상술한 인터렉션 방법(2100)을 수행하기 위한 시스템은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의해 선택된 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 제2 화면에 디스플레이하고, 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 제3 화면에 디스플레이하도록 구성된 인터렉티브 3D 모듈을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고 제2 화면과 제3 보기창 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.
도 11 및 도 21이 시스템의 블록도를 묘사하는 반면에, 컴퓨터 시스템(2200)의 형태로 시스템의 하드웨어 구성은 도 22에 도시된다.
컴퓨터 시스템(2200)은 컴퓨터 시스템(2200)에 개시된 인터렉션 방법(100) 중 하나 이상을 수행하도록 하기 위하여 실행될 수 있는 명령어 세트를 포함할 수 있다. 컴퓨터 시스템(2200)은 예를 들어 네트워크를 사용하여 다른 컴퓨터 시스템 또는 주변 장치들과 연결되거나 또는 독립된 장치로 동작할 수 있다.
네트워크 구축에서, 컴퓨터 시스템(2200)은 서버의 용량에서 또는 서버-클라이언트 네트워크 환경에서 클라이언트 사용자 컴퓨터로서 동작하거나, 또는 peer-to-peer(또는 분산형) 네트워크 환경에서 peer 컴퓨터 시스템으로서 동작한다. 컴퓨터 시스템(2200)은 또한 PC(personal computer), 태블릿 PC, 셋탑 박스(STB), 개인용 휴대 정보 단말기(PDA), 모바일 장치, 팜탑 컴퓨터(palmtop), 랩탑 컴퓨터, 데스크탑 컴퓨터, 통신 장치, 무선 전화기, 랜선 전화기, 제어 시스템, 카메라, 스캐너, 팩시밀리, 프린터, 페이저, 개인 신뢰 장치, 웹 어플라이언스(web appliance), 네트워크 라우터(router), 스위치 또는 브릿지(bridge), 또는 상기 기계들에 의해 취해지는 특정 액션의 지정의 명령 세트를 실행할 수 있는 임의의 기타 장치들로 실행될 수 있다. 더욱이, 단일의 컴퓨터 시스템(2200)이 도시되지만, “시스템” 용어는 또한 하나 또는 그 이상의 컴퓨터 기능을 수행하도록 하는 명령을 개별적으로 또는 공동으로 하나 또는 복수의 세트를 실행하는 시스템 또는 서브 시스템의 임의의 모음을 포함하여 취해질 수 있다.
컴퓨터 시스템(2200)은 프로세서(2202)(예를 들어, CPU(central processing unit), GPU(graphics processing unit) 또는 둘 다)를 포함할 수 있다. 프로세서(2202)는 다양한 시스템의 구성일 수 있다. 예를 들어, 프로세서(2202)는 표준 개인용 컴퓨터 또는 워크스테이션(workstation)의 일부일 수 있다. 프로세서(2202)는 하나 또는 그 이상의 일반 프로세서, 디지털 신호 프로세서, 주문형 집적 회로 필드 프로그래머블 게이트 어레이(field programmable gate arrays), 서버, 네트워크, 디지털 회로, 아날로그 회로, 이들의 조합 또는 데이터를 분석하고 처리하기 위한 현재 또는 나중에 개발될 장치일 수 있다. 프로세서(2202)는 수동으로 생성된 코드, 소프트웨어 프로그램을 구현할 수 있다(즉, 프로그래밍).
컴퓨터 시스템(2200)은 버스(2208)를 통해 통신할 수 있는 메모리(2204)를 포함한다. 메모리(2204)는 주 메모리, 정적 메모리 또는 동적 메모리 일 수 있다. 메모리(2204)는 비휘발성 및 휘발성 저장 매체와 같은 다양한 형태의 컴퓨터 판독 가능 저장 매체를 포함하지만 제한되지 않고, 읽기 전용 메모리, 프로그레머블(programmable) 읽기 전용 메모리, 전자적으로 프로그램 가능한 판독 전용 메모리, 전기적으로 소거 가능한 판독 전용 메모리, 플래시 메모리, 자기 디스크 또는 테이프, 광학 디스크 등을 포함하지만 제한되지 않는다. 한 예로, 메모리(2204)는 프로세서(2202)를 위한 캐시(cache) 또는 액세스(access) 메모리를 포함한다. 대안적인 실시 예에서, 메모리(2204)는 프로세서(2202)의 캐시 메모리, 시스템 메모리, 또는 기타 메모리와 같이 프로세서(2202)에서 분리된다. 메모리(2204)는 외부 저장 장치 또는 데이터를 저장하기 위한 데이터 베이스일 수 있다. 예들은 하드 드라이브, CD(compact disc), 디지털 비디오 디스크(DVD), 메모리 카드(memory card), 메모리 스틱(memory stick), 플로피 디스크(floppy disc), USB(universal serial bus), 메모리 장치 또는 데이터를 저장하기 위해 동작하는 임의의 기타 장치를 포함한다.
메모리(2204)는 프로세서(2202)에 의해 실행 가능한 명령들을 저장하도록 동작 가능하다. 도면에 도시된 기능(function), 작용(act), 테스크(task)는 메모리(2204)에 저장된 명령을 수행하는 프로그램이 된 프로세서(2202)에 의해 수행될 수 있다. 기능, 작용, 테스크는 명령어 세트, 저장 매체, 프로세서 또는 프로세싱 전략의 특정 형태와 무관하고, 단독 또는 조합으로 동작하는 소프트웨어, 하드웨어, 집적 회로, 펌웨어(firm-ware), 마이크로 코드(micro-code) 등에 의해 수행될 수 있다. 이와 같이, 프로세싱 전략은 멀티 프로세싱(multiprocessing), 멀티 태스킹(multitasking), 병렬 프로세싱(parallel processing) 등을 포함할 수 있다.
도시된 바와 같이, 컴퓨터 시스템(2200)은 액정 표시 장치(LCD), OLED(organic light emitting diode), 평면 패널 디스플레이(a flat panel display), 고체 상태 디스플레이, 음극선 관(CRT), 프로젝터, 프린터, 또는 기타 판단된 정보를 출력하기 위한 현재 알려지거나 또는 후에 개발된 디스플레이 장치와 같은 디스플레이부(2208)을 더 포함하거나 포함하지 않을 수 있다.
디스플레이부(2208)는 사용자가 프로세서(2202)의 기능을 볼 수 있도록 인터페이스로서 작용할 수 있다. 구체적으로, 디스플레이부(2208)는 메모리(2204)나 구동부(2212)에 저장된 소프트웨어와 함께 인터페이스로서 작용할 수 있다.
디스플레이부(2208)는 3D 형태로 이미지를 디스플레이할 수 있어야 한다. 부가적으로 디스플레이부(2208)는 복수의 사용자 시청 및 제어가 될 수 있다. 이러한 디스플레이부(2208)의 예는 http://www.theverge.com/2012/8/31/3282583/samsung-oled-tv-multi-view-hands-on-videohttp://www.youtube.com/watch?v=88_LCrnLvVk에서 보여진다.
부가적으로, 컴퓨터 시스템(2200)은 사용자가 컴퓨터 시스템(2200)의 임의의 구성과의 인터렉션을 허락하도록 구성된 입력 장치(2210)를 포함할 수 있다. 입력 장치(2210)는 숫자 키패드, 키보드, 또는 마우스 도는 조이스틱 같은 커서 제어 장치, 터치 스크린 디스플레이, 리모콘, 공기 제스처 수신기, 음성 명령 수신기, 또는 컴퓨터 시스템(2200)과 인터렉션 하도록 작동하는 기타 임의의 장치일 수 있다.
컴퓨터 시스템(2200)은 또한 디스크 또는 광학 구동부(2212)를 포함할 수 있다. 디스크 또는 광학 구동부(2212)는 하나 또는 그 이상의 명령어 세트(2216)가 내장될 수 있는(예를 들어, 소프트웨어) CMR(computer-readable medium)을 포함할 수 있다. 더욱이, 설명된 바와 같이, 명령(2216)은 하나 또는 그 이상의 방법 또는 로직을 구현할 수 있다. 특정 예에서, 명령(2216)은 컴퓨터 시스템(2200)에 의한 실행 동안 완전히 또는 적어도 부분적으로 프로세서(2202) 또는 메모리(2204) 내에 있다. 메모리(2204)와 프로세서(2202)는 또한 전술한 바와 같이 컴퓨터 판독 가능 매체를 포함할 수 있다.
본 발명은 네트워크(2220)에 연결된 장치는 보이스, 비디오, 오디오, 이미지 또는 네트워크를 통한 임의의 기타 데이터와 통신하기 위하여 명령(2216)을 포함하거나 전파된 신호에 응답하여 명령(2216)을 수신하고 실행하는 컴퓨터 판독 가능 매체(2214)를 고려한다. 더욱이, 명령(2216)은 네트워크(2220)를 통해, 통신 포트(port) 또는 인터페이스(2218)을 통해, 또는 버스 바(bus bar)(2206)를 통해 전송 또는 수신될 수 있다.
통신 포트 또는 인터페이스(2218)는 프로세서(2202)의 일부분이거나 분리된 구성일 수 있다. 통신 포트(2218)은 소프트웨어에서 생성되거나 하드웨어와 물리적인 접속일 수 있다. 통신 포트(2218)은 네트워크(2220), 외부 미디어, 디스플레이(2208), 또는 시스템(2200)의 기타 임의의 구성, 또는 이들의 결합과 연결되도록 구성될 수 있다. 네트워크(2220)와의 연결은 유선 이더넷 연결과 같은 물리적 접속 또는 하기에 설명될 바와 같이 무선으로 설정될 수 있다. 이와 같이, 시스템(2200)의 기타 구성과의 부가적인 접속은 물리적 접속이거나 무선으로 설정될 수 있다. 네트워크(2220)는 대안으로 버스(2206)와 직접적으로 연결될 수 있다.
네트워크(2220)은 유선 네트워크, 무선 네트워크, 이더넷 AVB 네트워크, 또는 이들의 결합을 포함할 수 있다. 무선 네트워크는 휴대 전화 네트워크(cellular telephone network), 802.11, 802.16, 802.20, 802.1Q 또는 WiMax 네트워크 일 수 있다. 더욱이, 네트워크(2226)는 인터넷 같은 공용 네트워크, 인트라넷 같은 개인적인 네트워크 또는 이들의 결합일 수 있고, 지금 이용 가능하거나 후에 개발될 것을 포함하는 다양한 네트워킹 프로토콜(networking protocols)을 활용할 수 있지만 네트워킹 프로토콜에 기반한 TCP/IP에 한정되지 않는다.
대안적인 예에서, 주문형 집적 회로, 프로그래머블 로직 어레이(programmable logic arrays) 및 기타 하드웨어 장치와 같은 전용 하드웨어 구현은 시스템(2200)의 다양한 부분을 구현하도록 구성될 수 있다.
시스템들을 포함할 수 있는 어플리케이션(application)은 광범위하게 다양한 전자기기 및 컴퓨터 시스템을 포함할 수 있다. 하나 또는 그 이상의 묘사된 예들은 두 개 또는 그 이상의 특정 연관된 하드웨어 모듈 또는 제어 및 모듈을 통해 모듈과 모듈 사이에서 통신될 수 있는 데이터 신호 관련된 장치를 이용하거나 또는 어플리케이션 특정 집적 회로의 부분으로서 기능을 구현할 수 있다. 따라서, 본 발명의 시스템은 소프트웨어, 펌웨어, 하드웨어 실행을 포함한다.
도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법의 흐름도를 도시한다. 구체적으로, 전자 장치(1000)는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이할 수 있다(S2310). 이때, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나일 수 있다. 사용자에 의해 오브젝트가 선택되면(S2320), 전자 장치는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이할 수 있다(S2330). 이때, 새로운 화면은 기존의 화면에 대해 깊이감이 형성되도록 디스플레이될 수 있다.
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 오브젝트를 포함하는 경우, 사용자는 새로운 화면에 디스플레이된 오브젝트를 선택할 수 있다. 새로운 오브젝트를 선택하는 경우 위와 같은 과정이 반복될 수 있다.
또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 오직 제1 사용자에게 시청 가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다.
또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색하는 도중 서로의 콘텐츠를 공유할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 제1 사용자에게만 시청가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다. 이때, 공유 모드가 실행되면, 제1 사용자뿐만 아니라 제2 사용자도 함께 제2 화면을 시청할 수 있다.
도 24는 본 발명의 일 실시 예에 따른 전자 장치(1000)의 구성을 나타낸 블럭도이다. 도 24에 도시된 바와 같이, 전자 장치(1000)는 감지부(2410), 디스플레이부(2420), 프로세서(2440)를 포함한다.
전자 장치(1000)는 데스크탑 PC일 수 있으나, 이는 일 실시 예에 불과할 뿐, 태블릿 PC, 노트북PC, 스마트 TV 등과 같이 웹 콘텐츠를 디스플레이할 수 있는 다른 디스플레이 장치로 구현될 수 있다.
감지부(2410)는 전자 장치(1000)를 제어하기 위한 사용자 명령을 감지한다. 특히, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠가 디스플레이되는 경우, 감지부(2410)는 사용자의 오브젝트 선택을 감지할 수 있다. 또한, 감지부(2410)는 전자장치의 다양한 모드(복수의 사용자 모드, 공유 모드)를 설정하기 위한 사용자 명령을 감지한다. 이때, 감지부(2410)는 터치 감지부로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 사용자 명령을 입력받기 위한 다양한 입력장치(예를 들어, 리모컨 신호 감지부, 마우스, 키보드 등)로 구현될 수 있다.
디스플레이부(2420)는 프로세서(2440)의 제어에 따라, 영상 데이터를 출력한다. 특히, 디스플레이부(2420)는 사용자가 선택한 오브젝트 또는 사용자가 선택한 오브젝트에 링크한 정보를 제1 내지 제n 화면 중 한 화면에 디스플레이할 수 있다. 이때, 화면은 창, 윈도우 창 등을 나타내고, 상자 또는 프레임 안에 콘텐츠가 디스플레이되는 것을 말할 수 있다. 또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나가 될 수 있다.
프로세서(2440)는 감지부(2410)를 통해 입력된 사용자 명령에 따라 전자 장치(1000)의 전반적인 동작을 제어한다. 특히, 사용자의 오브젝트 선택이 감지부(2410)에 의해 감지되면, 프로세서(2440)는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 프로세서(2440)는 2D 형태의 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하도록 컨버터 모듈을 제어하고, 3D 형태의 오브젝트 또는 3D 형태의 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 프로세서(2440)는 새로운 화면이 기존의 화면에 대하여 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다.
또한, 프로세서(2440)는 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다. 구체적으로, 프로세서(2440)는 다양한 통신 모듈을 통해 정보 소스(예를 들어, 인터넷 등)로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.
본 발명의 일 실시 예로, 적어도 하나의 오브젝트가 포함된 제1 화면을 포함하는 웹 콘텐츠가 디스플레이되고, 감지부(2410)가 제1 사용자에 의한 오브젝트 선택을 감지한 경우, 프로세서(2440)는 제2 화면에 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 감지부(2410)는 제1 사용자의 제2 화면과의 인터렉션을 감지할 수 있고, 프로세서(2440)는 인터렉션의 결과를 제3 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 제3 화면은 제2 화면에 대해 깊이감이 형성되도록 배치될 수 있다.
또한, 감지부(2410)가 제1 사용자의 제1 화면에서 추가 오브젝트 선택을 감지하는 경우, 프로세서(2440)는 제1 사용자에 의한 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제4 화면이 제1 화면에 대해 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다
본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드일 때, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제2 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부(2420)를 제어한다.
본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드이고, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 감지부(2410)가 제1 사용자 또는 제2 사용자에 의한 공유 모드 명령을 감지하면, 프로세서(2440)는 제2 화면을 제1 사용자 및 제2 사용자에게 디스플레이하도록 디스플레이부(2420)를 제어한다.
그리고, 프로세서(2440)는 컨버터 모듈, 인터렉티브 3D 모듈, 웹 모듈, 인터렉티브 3D 윈도우 모듈을 포함한다. 컨버터 모듈은 프로세서(2440)의 제어에 따라, 3D 형태로 웹 콘텐츠를 디스플레이하도록 한다. 컨버터 모듈(2430)은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(좌안용 프레임 버퍼 및 우안용 프레임 버퍼)를 생성한다. 컨버터 모듈은 3D 형태로 나타내고자 하는 오브젝트의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더한 후, 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다.  명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.  또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 
본 명세서(특히 특허청구범위)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.  또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.  마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다.  반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다.  모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다.  또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100: 인터렉션 방법
200: 제1 화면
402: 제2 화면
2410: 감지부
2420: 디스플레이부
2440: 프로세서

Claims (20)

  1. 전자 장치의 인터렉션(interaction) 방법에 있어서,
    제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하는 단계;
    제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계; 및
    제2 화면에 상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크(linked)된 정보를 3D(3-dimensional) 형태로 디스플레이하는 단계;를 포함하는 인터렉션 방법.
  2. 제1항에 있어서,
    상기 3D 형태로 디스플레이 하는 단계는,
    상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 것을 특징으로 하는 인터렉션 방법.
  3. 제1항에 있어서,
    상기 제1 화면과 제2 화면은 깊이감이 형성되도록 배치되는 것을 특징으로 하는 인터렉션 방법.
  4. 제1항에 있어서,
    정보 소스(source)로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
  5. 제1항에 있어서,
    제2 화면과의 사용자 인터렉션을 감지하는 단계; 및
    제3 화면에 상기 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
  6. 제1항에 있어서,
    상기 제1 화면에서 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및
    제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
  7. 제1항에 있어서,
    상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법.
  8. 제1항에 있어서,
    상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및
    제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
  9. 제 8항에 있어서,
    상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 인터렉션 방법.
  10. 제 1항에 있어서,
    상기 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법.
  11. 전자 장치에 있어서,
    제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 디스플레이부;
    제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및
    상기 감지부를 통해 상기 적어도 하나의 오브젝트 선택이 감지되면, 제2 화면에 상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 상기 디스플레이부를 제어하는 프로세서;를 포함하는 전자 장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 화면과 상기 제2 화면을 깊이감이 형성되도록 배치하여 디스플레이 하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
  14. 제11항에 있어서,
    정보 소스로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 것을 특징으로 하는 전자 장치.
  15. 제11항에 있어서,
    상기 프로세서는,
    제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고,
    제3 화면에 상기 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
  16. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고,
    제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
  17. 제11항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어하는 전자 장치.
  18. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고,
    제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
  19. 제11항에 있어서,
    상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 전자 장치.
  20. 제11항에 있어서,
    상기 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 전자 장치.
KR1020150070898A 2014-08-02 2015-05-21 전자 장치 및 이의 사용자 인터렉션 방법 KR102366677B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2015/007876 WO2016021861A1 (en) 2014-08-02 2015-07-28 Electronic device and user interaction method thereof
EP15829926.3A EP3175343A4 (en) 2014-08-02 2015-07-28 Electronic device and user interaction method thereof
CN201580041851.3A CN106575188B (zh) 2014-08-02 2015-07-28 电子设备及其用户交互方法
US14/815,429 US10809894B2 (en) 2014-08-02 2015-07-31 Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN2198DE2014 2014-08-02
IN2198/DEL/2014 2014-08-02

Publications (2)

Publication Number Publication Date
KR20160016567A true KR20160016567A (ko) 2016-02-15
KR102366677B1 KR102366677B1 (ko) 2022-02-23

Family

ID=58518575

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150070898A KR102366677B1 (ko) 2014-08-02 2015-05-21 전자 장치 및 이의 사용자 인터렉션 방법

Country Status (3)

Country Link
EP (1) EP3175343A4 (ko)
KR (1) KR102366677B1 (ko)
CN (1) CN106575188B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181949A1 (ko) * 2021-02-25 2022-09-01 삼성전자 주식회사 Ar/vr 환경을 제공하는 전자 장치 및 그 운용 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107918514B (zh) * 2017-11-24 2020-12-29 北京小米移动软件有限公司 展示方法及装置、电子设备、计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
KR20120058539A (ko) * 2009-08-07 2012-06-07 구글 인코포레이티드 소셜 네트워크 지원을 이용한 얼굴 인식
KR20130038660A (ko) * 2011-10-10 2013-04-18 엘지전자 주식회사 휴대 단말기 및 그 제어 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001040917A1 (en) * 1999-11-30 2001-06-07 Trimus Ltd. Modified browser system
US20040100489A1 (en) * 2002-11-26 2004-05-27 Canon Kabushiki Kaisha Automatic 3-D web content generation
US8533580B1 (en) * 2005-09-12 2013-09-10 Yongyong Xu System and method of navigating linked web resources
US8321783B2 (en) * 2008-09-30 2012-11-27 Apple Inc. Visualizing content positioning within a document using layers
KR101635567B1 (ko) * 2009-11-12 2016-07-01 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
KR20110115806A (ko) * 2010-04-16 2011-10-24 삼성전자주식회사 디스플레이 장치 및 3d 안경, 그리고 이를 포함하는 디스플레이 시스템
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
JP2014021511A (ja) * 2012-07-12 2014-02-03 Sony Corp 表示制御装置、表示制御方法、プログラム、及び通信システム
US20140157128A1 (en) * 2012-11-30 2014-06-05 Emo2 Inc. Systems and methods for processing simultaneously received user inputs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120058539A (ko) * 2009-08-07 2012-06-07 구글 인코포레이티드 소셜 네트워크 지원을 이용한 얼굴 인식
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
KR20130038660A (ko) * 2011-10-10 2013-04-18 엘지전자 주식회사 휴대 단말기 및 그 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181949A1 (ko) * 2021-02-25 2022-09-01 삼성전자 주식회사 Ar/vr 환경을 제공하는 전자 장치 및 그 운용 방법

Also Published As

Publication number Publication date
EP3175343A1 (en) 2017-06-07
EP3175343A4 (en) 2018-03-21
KR102366677B1 (ko) 2022-02-23
CN106575188A (zh) 2017-04-19
CN106575188B (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
US20230267697A1 (en) Object creation with physical manipulation
JP6480542B2 (ja) イメージ・パニングおよびズーミング効果
US20180348988A1 (en) Approaches for three-dimensional object display
JP5956694B2 (ja) フィードバック・ユーザ・インターフェース要素に関連するアニメーション・シーケンス
US10592064B2 (en) Approaches for three-dimensional object display used in content navigation
US9507757B2 (en) Generating multiple versions of a content item for multiple platforms
US20230367861A1 (en) Secure authorization via modal window
US20150082241A1 (en) Method for screen mirroring and source device thereof
US20100257468A1 (en) Method and system for an enhanced interactive visualization environment
US20160232646A1 (en) Content sharing with consistent aspect ratios
US20150082145A1 (en) Approaches for three-dimensional object display
CA2988901A1 (en) Content composer for third-party applications
CN111758122A (zh) 用于混合现实系统的浏览器
US20170229102A1 (en) Techniques for descriptor overlay superimposed on an asset
US10825069B2 (en) System and method for intuitive content browsing
US20170228137A1 (en) Local zooming of a workspace asset in a digital collaboration environment
US20140229823A1 (en) Display apparatus and control method thereof
Grubert et al. Exploring the design of hybrid interfaces for augmented posters in public spaces
US20120182286A1 (en) Systems and methods for converting 2d data files into 3d data files
KR102366677B1 (ko) 전자 장치 및 이의 사용자 인터렉션 방법
US9207754B2 (en) Enabling immersive, interactive desktop image presentation
EP3190503A1 (en) An apparatus and associated methods
TW200925975A (en) Media system for facilitating interaction with media data across a plurality of media devices
US10809894B2 (en) Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof
US20210141502A1 (en) Smart augmented reality selector

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right