KR102366677B1 - Apparatus and Method for User Interaction thereof - Google Patents

Apparatus and Method for User Interaction thereof Download PDF

Info

Publication number
KR102366677B1
KR102366677B1 KR1020150070898A KR20150070898A KR102366677B1 KR 102366677 B1 KR102366677 B1 KR 102366677B1 KR 1020150070898 A KR1020150070898 A KR 1020150070898A KR 20150070898 A KR20150070898 A KR 20150070898A KR 102366677 B1 KR102366677 B1 KR 102366677B1
Authority
KR
South Korea
Prior art keywords
screen
user
selected object
information linked
interaction
Prior art date
Application number
KR1020150070898A
Other languages
Korean (ko)
Other versions
KR20160016567A (en
Inventor
마니쉬 차브라
모닐 파르마
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP15829926.3A priority Critical patent/EP3175343A4/en
Priority to PCT/KR2015/007876 priority patent/WO2016021861A1/en
Priority to CN201580041851.3A priority patent/CN106575188B/en
Priority to US14/815,429 priority patent/US10809894B2/en
Publication of KR20160016567A publication Critical patent/KR20160016567A/en
Application granted granted Critical
Publication of KR102366677B1 publication Critical patent/KR102366677B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 디지털 TV(DTV), 모바일, 3D(3-dimensional) 디스플레이가 가능한 소비자 제품과 인터렉션 방법을 제공한다. 특히, 본 발명은 앞서 상술한 소비자 제품을 통한 3D 공간의 웹(Web)과 사용자 인터렉션(interaction)에 대한 시스템 및 방법과 관련된다. 부가적으로, 본 발명은 다른 사용자들이 동시에 실질적인 간섭 없이 하나의 장치로 다른 콘텐츠를 통해 검색하는 복수의 사용자 인터렉션 시나리오를 제공하고, 복수의 사용자들의 화면 사이의 인터렉션을 가능하게 한다.The present invention provides a method of interaction with consumer products capable of digital TV (DTV), mobile, and 3D (3-dimensional) display. In particular, the present invention relates to a system and method for user interaction with the Web in 3D space through the above-described consumer product. Additionally, the present invention provides a plurality of user interaction scenarios in which different users simultaneously search through different content with one device without substantial interference, and enables interaction between screens of a plurality of users.

Description

전자 장치 및 이의 사용자 인터렉션 방법 {Apparatus and Method for User Interaction thereof}Electronic device and method for user interaction thereof {Apparatus and Method for User Interaction thereof}

사용자 인터렉션 시스템 및 이의 방법으로, 더 구체적으로는 웹 공간에서 3D 형태로 제공되는 사용자 인터페이스 시스템 및 이의 방법에 관한 것이다.A user interaction system and method therefor, and more particularly, to a user interface system and method provided in a 3D form in a web space.

다음의 배경 기술 논의는 본 발명을 이해하는데 유용한 정보를 포함한다. 여기서 제공하는 어떤 정보도 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다. 또한, 어떤 구체적인 공보 또는 암시적인 참조문헌이 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다.The following background discussion contains information useful for understanding the present invention. Any information provided herein is not an admission that it is prior art or related information to the claimed subject matter. Moreover, it is not an admission that any specific publication or implied reference is prior art or related information of the claimed subject matter.

현재 마켓에서 다양한 3D 기술들은 유리 덮개 유무와 상관없이 3D에서 콘텐츠를 디스플레이할 수 있다. 3D에서 디스플레이되는 대부분의 콘텐츠는 비디오와 몇몇 그래픽 분야이다.
Various 3D technologies on the market today can display content in 3D with or without a glass cover. Most of the content displayed in 3D is video and some graphics.

PCT 공개번호 WO 2012/082971는 3D 컴퓨터 디스플레이에서 사용자의 시선과 결합될 수 있는 사용자의 제스처에 의해 3D 컴퓨터 디스플레이에 디스플레이되는 3D 물체와 함께 사용자에 의한 활성화 또는 인터렉팅(interacting)에 대한 시스템과 방법을 교시한다. 이 공개 문서는 적어도 사용자가 착용한 엔도 카메라 및 엑소 카메라 중 하나에 포함된 헤드 프레임에 의해 사용자의 시선을 캡처링(capturing)하고, 복수의 제스처로부터 사용자의 제스처를 인식하는 특징을 교시한다. 반면에, 이 문서는 오직 3D 오브젝트(object)와의 인터렉션에 대해서만 나타낸다. 더욱이 이 문서는 2D 오브젝트에서 3D 오브젝트로의 실시간 전환을 교시, 암시하지 않는다. 부가적으로 이 문서는 또한 표준 웹 콘텐츠를 3D로의 실시간 전환을 다루지 않는다. 또한, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
PCT Publication No. WO 2012/082971 discloses a system and method for activation or interacting by a user with a 3D object displayed on a 3D computer display by a user's gesture that can be combined with the user's gaze on the 3D computer display teach This public document teaches features of capturing a user's gaze by a head frame included in at least one of an endo camera and an exo camera worn by the user, and recognizing the user's gestures from a plurality of gestures. On the other hand, this document only describes interactions with 3D objects. Moreover, this document does not teach or imply real-time conversion from 2D objects to 3D objects. Additionally, this document also does not cover the real-time conversion of standard web content to 3D. Also, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 공개번호 2003/0197737는 윈도우에서 2D 및 3D 정보 둘 다 디스플레이하기 위한 2D/3D 웹 브라우저(browser)를 공개한다. 특히, 2D 또는 3D 정보를 제공하는 웹 사이트를 검색하기 위한 웹 브라우저가 공개된다. 2D/3D 웹 브라우저는 웹 사이트에 액세스(access) 정보를 요청하기 위한 소프트웨어; 및 요청에 응답하는 웹 사이트에 제공된 정보를 2D/3D 전환 가능한 윈도우 및 3D 윈도우를 갖는 디스플레이 스크린에 디스플레이하기 위한 디스플레이;를 포함하고, 만약 정보가 3D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우 및 3D 윈도우의 결합 영역에 디스플레이되고, 만약 정보가 2D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우에 디스플레이된다. 이 문서는 2D 웹 콘텐츠를 3D 가상 공간에 전환하고 디스플레이하는 것을 말한다. OpenGL/WebGL와 같은 기술을 언급한다. 반면에 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2003/0197737 discloses a 2D/3D web browser for displaying both 2D and 3D information in Windows. In particular, a web browser for searching a web site providing 2D or 3D information is disclosed. A 2D/3D web browser includes software for requesting access information to a web site; and a display for displaying the information provided to the website responding to the request on a display screen having a 2D/3D switchable window and a 3D window, wherein if the information is 3D content, the information is a 2D/3D switchable window and It is displayed in the combined area of the 3D window, and if the information is 2D content, the information is displayed in the 2D/3D switchable window. This document refers to converting and displaying 2D web content in 3D virtual space. It refers to technologies such as OpenGL/WebGL. On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 공개번호 2012/0174038는 인터렉티브(interactive) 가상의 구를 이용하여 콘텐츠를 탐색하고 선택하는 것에 대한 시스템 및 방법을 공개한다. 문서에 따라 시스템은 콘텐츠 서버를 통해 접근 가능한 콘텐츠 데이터베이스를 포함한다. 콘텐츠 데이터베이스는 제1 복수의 콘텐츠 유닛을 저장하도록 구성되고, 상기 콘텐츠 데이터베이스와 연결되는 어그리게이터(aggregator), 상기 어그리게이터는 상기 제1 복수의 콘텐츠 유닛을 업데이트하도록 구성된다. 시스템은 또한 구형 그래픽 렌더링(rendering) 모듈 및 콘텐츠 탐색 모듈을 포함한다. 구형 그래픽 렌더링 모듈은 가상 구의 표면상의 제2 복수의 콘텐츠 유닛에 대응하는 시각적 표현을 렌더(render)하도록 구성된다. 탐색 모듈 콘텐츠는 가상의 구와 인터렉팅하기 위한 사용자 인터페이스를 제공한다. 구형 그래픽 렌더링 모듈은 콘텐츠 데이터베이스에 엑세스하고, 사용자 인터페이스에 의해 수신된 입력에 대응하여 제2 복수의 콘텐츠 유닛 중 적어도 하나를 선택하도록 구성된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2012/0174038 discloses a system and method for navigating and selecting content using an interactive virtual sphere. According to the document, the system contains a content database accessible through the content server. The content database is configured to store a first plurality of content units, and an aggregator connected with the content database, the aggregator is configured to update the first plurality of content units. The system also includes a spherical graphics rendering module and a content navigation module. The spherical graphics rendering module is configured to render a visual representation corresponding to the second plurality of content units on the surface of the virtual sphere. The navigation module content provides a user interface for interacting with the virtual sphere. The spherical graphics rendering module is configured to access the content database and select at least one of the second plurality of content units in response to an input received by the user interface. On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 공개번호 2012/0192115는 3차원 모양의 측면 상의 인터렉티브(interactive) 프로젝션(projection)과 관련 미디어 세그먼트(segment)의 재생에 대한 시스템 및 방법을 공개한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2012/0192115 discloses a system and method for interactive projection on the side of a three-dimensional shape and playback of an associated media segment. On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 특허번호 8,035,635는 가상의 3D 공간에서 콘텐츠 엘리먼트(element)의 위치에 대한 시스템을 공개한다. 이 문서에 따르면, 2D 베이스 평면은 3D 공간에서 지정되고, 가상의 콘텐츠는 베이스 평면과 평행하게 놓인 적어도 하나의 페이지와 함께 3D 공간에 위치된다. 뷰포인트(viewpoint)와 뷰잉 레이(viewing ray)는 베이스 평면에 평행하지도 수직하지도 않은 뷰잉 레이(viewing ray)와 함께 3D 공간을 보이기 위해 3D 공간에서 선택된다. 2D 표면은 2D 표면이 뷰포인트와 베이스 평면 사이에서 뷰 레이(view ray)와 교차하기 위하여 3D 공간에 위치된다. 적어도 3D 공간의 일부는 뷰잉 레이에 의해 결정된 원근 투영에 의한 2D 표면상에 투영된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent No. 8,035,635 discloses a system for the location of content elements in virtual 3D space. According to this document, a 2D base plane is specified in 3D space, and virtual content is located in 3D space with at least one page lying parallel to the base plane. A viewpoint and a viewing ray are selected in 3D space to show 3D space with a viewing ray that is neither parallel nor perpendicular to the base plane. A 2D surface is placed in 3D space so that the 2D surface intersects a view ray between the viewpoint and the base plane. At least a portion of the 3D space is projected onto the 2D surface by a perspective projection determined by the viewing ray. On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 특허번호8,436,891은 인터렉티브(interactive) 하이퍼링크(hyperlinked) 3D 비디오 삽입과 이의 인터렉팅 방법을 공개한다. 이 문서는 멀티미디어 콘텐츠의 메타데이터(metadata)와 관련되고 가상의 3D 공간에서 메타데이터 콘텐츠와의 렌더링 및 인터렉션을 교시한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent No. 8,436,891 discloses an interactive hyperlinked 3D video insertion and an interactive method thereof. This document relates to the metadata of multimedia content and teaches rendering and interaction with the metadata content in a virtual 3D space. On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

US 특허출원 공개번호 2012/0127156은 기울어진 3D 공간에서 아이템(item)을 나타내고 검색하기 위한 방법 및 시스템을 공개한다. 기울어진 시청 모드에서, 계층구조의 여러 연속적인 레벨에서 아이템의 그룹은 기울어진 3D 공간의 가시 영역으로 다른 깊이에 보여진 각각의 검색할 수 있는 퍼레이드(parade)에 표시되도록 학습된다. 사용자는 각각 검색할 수 있는 퍼레이드를 횡 방향으로 가로 질러 검색할 수 있고, 기울어진 3D 공간 내에서 계층구조의 위 아래로 검색할 수 있다. 기울어진 3D 공간의 가시 영역에 표시된 퍼레이드를 횡 방향으로 검색하는 것과 3D 공간의 깊이에 따라 계층구조를 위 아래로 검색할 수 있는 것의 결합으로, 사용자는 기울어진 3D 공간의 계층구조 전체를 탐색할 수 있다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent Application Publication No. 2012/0127156 discloses a method and system for representing and retrieving items in a tilted 3D space. In the tilted viewing mode, groups of items at different successive levels of the hierarchy are learned to be displayed in each searchable parade viewed at different depths into the viewing area of the tilted 3D space. Users can search horizontally across each searchable parade, up and down the hierarchy within a tilted 3D space. Combining the horizontal search through the parade displayed in the visible area of the tilted 3D space and the ability to search the hierarchy up and down according to the depth of the 3D space, the user can navigate the entire hierarchy of the tilted 3D space. can On the other hand, this document does not teach or imply real-world 3D scenarios in which objects may appear different from their depth in real 3D space. For example, stereoscopic 3D content is viewed on a DTV with or without 3D glasses. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

PCT 공개번호 2013/183801은 3D 웹 페이지 렌더링(rendering) 방법과 이를 이용하는 단말기를 공개한다. 렌더링 방법은 하나 이상의 3D 웹 페이지를 구성하는 3D 오브젝트 깊이 정보를 포함하는 소스(source) 텍스트를 로딩(loading)하는 단계, 상기 소스 텍스트를 분석함으로써 DOM 트리(document object model tree)와 깊이 정보를 포함하는 스타일(style) 규칙을 창출하는 단계, DOM 트리와 스타일 규칙을 기반으로 렌더 트리(render tree) 를 생성하는 단계, 렌더 트리에 레이아웃을 수행하는 단계, 레이아웃을 수행함으로써 얻은 정보와 3D 오브젝트의 하나 이상의 위치, 크기, 차이, 모양, 배치를 포함하는 3D 팩터(factor)를 적용함으로써 좌안 및 우안 페이지를 그리는 단계, 좌안 및 우안 페이지를 병합하는 단계 및 3D 브라우저에 좌안 및 우안 페이지를 병합하여 디스플레이하는 단계를 포함한다. 반면에, 이 문서는 인터넷에서 이용 가능한 기준 2D 웹 콘텐츠의 렌더링을 교시, 암시하지 않는다. 또한, 이 문서는 3D 공간의 오브젝트와의 실시간 인터렉션에 대하여 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
PCT Publication No. 2013/183801 discloses a 3D web page rendering method and a terminal using the same. The rendering method includes loading source text including 3D object depth information constituting one or more 3D web pages, and analyzing the source text to include a DOM tree (document object model tree) and depth information Steps to create a style rule, create a render tree based on the DOM tree and style rules, perform layout on the render tree, information obtained by performing the layout and 3D object Drawing the left eye and right eye pages by applying a 3D factor including the above position, size, difference, shape, and arrangement, merging the left eye and right eye pages, and merging the left eye and right eye pages in a 3D browser to display includes steps. On the other hand, this document does not teach or imply rendering of reference 2D web content available on the Internet. Furthermore, this document does not teach or imply real-time interaction with objects in 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

EP 출원번호 2591467은 3D TV에서 2D 콘텐츠 데이터를 3D 콘텐츠 데이터로 전환하는 방법을 공개한다. 상기 방법은 2D 에서 3D 콘텐츠로의 전환 모듈을 통해 3D 비디오 콘텐츠와 2D 사용자 인터페이스 콘텐츠 데이터를 수신하는 단계, 2D 유저 인터페이스 콘텐츠 데이터의 3D 렌더링에 대한 좌안 및 우안의 분리를 정의하는 차이 데이터에 의해 나타내지는 이동을 결정하는 단계, 상기 수신된 2D 유저 인터페이스 콘텐츠 데이터와 상기 결정된 이동을 기초로 디스플레이의 3D 깊이에서 3D 사용자 인터페이스 콘텐츠 데이터를 생성하는 단계 및 3D TV의 디스플레이의 3D 비디오 콘텐츠를 디스플레이하는 단계를 포함한다. 반면에 이 문서는 3D 표준 웹 콘텐츠를 디스플레이하는 단계를 교시, 암시하지 않는다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
EP application number 2591467 discloses a method for converting 2D content data into 3D content data in a 3D TV. The method includes receiving 3D video content and 2D user interface content data through a 2D to 3D content conversion module, the difference data defining separation of left and right eyes for 3D rendering of the 2D user interface content data. determining a movement, generating 3D user interface content data at a 3D depth of a display based on the received 2D user interface content data and the determined movement, and displaying 3D video content of a display of a 3D TV include On the other hand, this document does not teach or imply steps for displaying 3D standard web content. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.

그러므로, 3D에서 웹 콘텐츠를 디스플레이하기 위해 수행되는 일은 많지 않다. 또한 웹에 도시된 3D 오브젝트들과 인터렉션하기 위해 사용될 수 있는 시스템/방법은 일반적이지 않다. 더욱이 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오를 다루기 위해 이용할 수 있는 시스템/방법은 일반적이지 않다.Therefore, not much is done to display web content in 3D. Also, the system/method that can be used to interact with 3D objects shown on the web is not generic. Moreover, systems/methods available to handle multiple user scenarios simultaneously retrieving different content from a single device are not common.

그러므로, 본 발명은 3D 공간에서 웹과 사용자 인터렉션을 가능하게 하는 시스템과 방법을 제공함에 있다.Therefore, the present invention is to provide a system and method for enabling user interaction with the web in 3D space.

상기 목적을 달성하기 위한 본 발명의 실시 예에 따른, 전자 장치의 인터렉션(interaction) 방법은 제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하는 단계; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계; 및 제2 화면에 상기 선택된 오브젝트 또는 선택된 오브젝트에 링크(linked)된 정보를 3D(3-dimensional) 형태로 디스플레이하는 단계;를 포함하는 인터렉션 방법일 수 있다.According to an embodiment of the present invention for achieving the above object, an interaction method of an electronic device includes: displaying web content including at least one object on a first screen; detecting selection of at least one object by the first user; and displaying the selected object or information linked to the selected object in a 3D (3-dimensional) form on a second screen; may be an interaction method comprising.

또한, 3D 형태로 디스플레이 하는 단계는 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 인터렉션 방법일 수 있다.In addition, the step of displaying in 3D form is an interaction of displaying the selected object or information linked to the selected object in 2D form, and converting the selected object in 2D form or information linked to the selected object in 2D form into 3D form could be a way

그리고, 제1 화면과 제2 화면은 깊이감이 형성되도록 배치되는 인터렉션 방법일 수 있다.In addition, the first screen and the second screen may be an interaction method in which a sense of depth is formed.

또한, 정보 소스(source)로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 인터렉션 방법일 수 있다. In addition, it may be an interaction method further comprising the step of retrieving information linked to the object selected from the information source (source).

그리고, 제2 화면과의 사용자 인터렉션을 감지하는 단계; 및 제3 화면에 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 다.And, detecting a user interaction with the second screen; and displaying the result of the interaction on a third screen.

또한, 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 인터렉션 방법일 수 있다.In addition, detecting selection of the additional object by the first user on the first screen; and an interaction method of displaying the additionally selected object or information linked to the additionally selected object on the fourth screen in a 3D form.

그리고, 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법일 수 있다.And, when the electronic device is in a plurality of user modes, the screen by the first user may be an interaction method characterized in that only the first user is shown.

또한, 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 있다.In addition, detecting an object selection by a second user on the first screen; and displaying the object selected by the second user or information linked to the object selected by the second user on the fifth screen in 3D form; may be an interaction method further comprising.

그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 전자 장치 인터렉션 방법일 수 있다.Also, when the mode of the electronic device is switched to the sharing mode, it may be an electronic device interaction method that enables interaction between the screen corresponding to the first user and the screen corresponding to the second user.

또한, 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법일 수 있다.In addition, the object may be an interaction method characterized in that it is one of an image, video, text, hyperlink, attachment, and multimedia.

본 발명의 또 다른 일 실시 예에 따른, 전자 장치는 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 디스플레이부; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및 감지부를 통해 적어도 하나의 오브젝트 선택이 감지되면, 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 프로세서;를 포함할 수 있다.According to another embodiment of the present invention, an electronic device includes: a display unit for displaying web content including at least one object on a first screen; a sensing unit configured to sense selection of at least one object by the first user; and a processor controlling the display unit to display the selected object or information linked to the selected object in a 3D form on the second screen when selection of at least one object is sensed through the sensing unit.

또한, 상기 프로세서는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어할 수 있다.In addition, the processor may control the display unit to display the selected object or information linked to the selected object in 2D form, and convert the selected object or information linked to the selected object in 2D form to 3D form to be displayed. .

그리고, 프로세서는 제1 화면과 제2 화면을 깊이감이 형성되도록 배치하여 디스플레이 하도록 디스플레이부를 제어할 수 있다..In addition, the processor may control the display unit to display the first screen and the second screen so as to form a sense of depth.

또한, 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.It is also possible to retrieve information linked to the selected object from the information source.

그리고, 프로세서는 제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고, 제3 화면에 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor may control the sensing unit to detect the user interaction with the second screen, and may control the display unit to display the result of the interaction on the third screen.

또한, 프로세서는 제1 화면에 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect the selection of the additional object by the first user on the first screen, and controls the display unit to display the additionally selected object or information linked to the additionally selected object on the fourth screen in 3D form. can

그리고, 프로세서는 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, when the electronic device is in a plurality of user modes, the processor may control the display unit to display a screen by the first user only to the first user.

또한, 프로세서는 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고, 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect object selection by the second user on the first screen, and displays the object selected by the second user on the fifth screen or information linked to the object selected by the second user in 3D form The display unit may be controlled to display.

그리고, 상기 프로세서는, 상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect selection of the additional object by the first user on the first screen, and displays the additionally selected object or information linked to the additionally selected object on the fourth screen in 3D form The display unit may be controlled to display.

또한, 상기 프로세서는, 상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.Also, when the electronic device is in a plurality of user modes, the processor may control the display unit to display the screen of the first user only to the first user.

그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능할 수 있다.In addition, when the mode of the electronic device is switched to the sharing mode, interaction between the screen corresponding to the first user and the screen corresponding to the second user may be possible.

또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 전자 장치일 수 있다.Also, the object may be an electronic device that is one of an image, video, text, hyperlink, attachment, and multimedia.

상술한 바와 같은 본 발명의 다양한 실시 예에 의해, 사용자에게 소비자 제품을 통한 3D 공간의 웹과의 인터렉션을 가능하게 하고, 복수의 사용자가 하나의 소비자 제품을 통하여 동시에 인터렉션 할 수 있도록 한다.According to various embodiments of the present invention as described above, it is possible to allow a user to interact with the web in 3D space through a consumer product, and to allow a plurality of users to interact simultaneously through a single consumer product.

본 발명과 그 이점의 더 완벽한 이해를 위해, 참조는 아래와 같이 첨부 도면과 상세한 설명과 관련된 도면의 간단한 설명을 위해 만들어지고 참조 번호는 부분을 나타낸다.
도 1은 본 발명의 일 실시 예에 따라 인터렉션 방법을 도시한다.
도 2는 적어도 하나의 오브젝트를 갖는 웹 페이지를 디스플레이하는 제1 화면을 도시한다.
도 3은 적어도 하나의 오브젝트를 갖는 이메일(e-mail)을 디스플레이하는 제1 화면을 도시한다.
도 4는 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 5는 2D 형태에서 3D 형태로 오브젝트를 전환하는 프로세스(process)를 도시한다.
도 6은 우안 이미지를 포함하는 드로잉(drawing) 버퍼(buffer), 좌안 이미지를 포함하는 드로잉 버퍼 및 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 7은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치를 도시한다.
도 8은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치하기 위한 방법을 도시한다.
도 9A는 우안 이미지를 포함하는 드로잉 버퍼를, 도 9B는 좌안 이미지를 포함하는 드로잉 버퍼를, 도 9C는 3D 형태로 선택된 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 10A는 복수의 오브젝트를 포함하는 제1 화면을, 도 10B는 제1 화면으로부터 선택된 오브젝트에 링크(link)된 정보를 포함하는 제2 화면의 디스플레이를, 도 10C는 제2 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제3 화면의 디스플레이를, 도 10D는 제3 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 추가 화면의 디스플레이를 도시한다.
도 11A는 제1 사용자에 대한 제1 화면의 디스플레이를, 도 11B는 제1 사용자의 제1 화면에서 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 11C는 제1 사용자의 제1 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제4 화면의 디스플레이를 도시한다.
도 12A는 제1 사용자와 제2 사용자에 대한 제1 화면을, 도 12B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 도시한다.
도 13A는 제1 사용자, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 13B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 13C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면을 도시한다.
도 14A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이, 도 14B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 14C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 14D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를 도시한다.
도 15A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 15B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 15C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 15D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를, 도 15E는 제2 사용자로부터 제1 사용자와의 제5 화면 공유에 관한 공유 명령을 감지하면 제1 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 16A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 16B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 16C는 제1 사용자로부터 제2 사용자와의 제2 화면 공유에 관한 공유 명령을 감지하면 제2 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 17은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 18은 본 발명의 일 실시 예에 따른 3D 형태에서 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 것은 선택 사항인 인터렉션 방법을 도시한다.
도 19는 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 멀티미디어 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 20은 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 텍스트 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 21은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 22는 도 17 또는 도 21 중 하나에 도시된 구체적인 시스템도를 도시한다.
도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법에 대해 설명하기 위한 흐름도이다.
도 24는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 간략히 나타내는 블럭도이다.
For a more complete understanding of the present invention and its advantages, reference is made to the accompanying drawings and the accompanying drawings and detailed description for a brief description of the drawings, in which reference numerals indicate parts, as follows.
1 illustrates an interaction method according to an embodiment of the present invention.
2 illustrates a first screen for displaying a web page having at least one object.
3 illustrates a first screen for displaying an e-mail having at least one object.
4 illustrates a second screen for displaying the selected object in 3D form.
5 shows a process for converting an object from a 2D form to a 3D form.
6 illustrates a drawing buffer including a right eye image, a drawing buffer including a left eye image, and a second screen for displaying the selected object in 3D form.
7 shows the arrangement of the first screen and the second screen to form the depth.
8 shows a method for arranging a first screen and a second screen for forming depth.
9A illustrates a drawing buffer including a right eye image, FIG. 9B illustrates a drawing buffer including a left eye image, and FIG. 9C illustrates a second screen displaying a selected object in 3D form.
10A is a first screen including a plurality of objects, FIG. 10B is a display of a second screen including information linked to an object selected from the first screen, and FIG. 10C is a display of an object selected from the second screen. A display of a third screen including linked information, FIG. 10D illustrates a display of an additional screen including information linked to an object selected from the third screen.
11A is a display of the first screen for a first user, FIG. 11B is a display of a second screen including information linked to an object selected on the first screen of the first user, and FIG. 11C is a display of the first screen of the first user. A display of a fourth screen including information linked to an object selected from the first screen is shown.
12A is a first screen for a first user and a second user, and FIG. 12B is a second screen that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 2 shows the screen.
13A is a display of a first screen for a first user and a second user, and FIG. 13B includes information linked to an object that can be viewed only by the first user and is selected by the first user in the first screen 13C shows a fifth screen that can only be viewed by the second user and contains information linked to an object selected by the second user in the first screen.
14A is a display of a first screen for first and second users, and FIG. 14B is a second screen that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 14C is a display of a fifth screen that can only be viewed by a second user and includes information linked to an object selected by the second user in a first screen, and FIG. 14D is only a second screen display. It shows the display of the sixth screen that can be viewed by the user and that includes information linked to the object selected by the second user in the fifth screen.
15A is a display of a first screen for first and second users, and FIG. 15B is a diagram that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 15C is a display of a fifth screen that can be viewed only by the second user and includes information linked to an object selected by the second user in the first screen, and FIG. 15D is only the second screen. A display of a sixth screen that can be viewed by two users and that includes information linked to an object selected by the second user on the fifth screen, FIG. 15E is a diagram for sharing a fifth screen from a second user to a first user Upon detecting a share command regarding the creation and display of a new screen that can be viewed by the first user.
16A is a display of a first screen for first and second users, and FIG. 16B is a diagram that can be viewed only by the first user and includes information linked to an object selected by the first user in the first screen. Display of a second screen, FIG. 16C illustrates creation and display of a new screen that can be viewed by a second user when a sharing command for sharing a second screen with a second user is sensed from a first user.
17 illustrates a system for allowing an interaction according to an embodiment of the present invention.
18 illustrates an interaction method in which displaying the selected object or information linked to the selected object in a 3D form is optional according to an embodiment of the present invention.
19 shows a second screen that is arranged to form a depth with respect to the first screen and displays the selected multimedia object.
20 illustrates a second screen that is arranged to form a depth with respect to the first screen and displays the selected text object.
21 shows a system for allowing an interaction according to an embodiment of the present invention.
Fig. 22 shows a specific system diagram shown in either Fig. 17 or Fig. 21;
23 is a flowchart illustrating an interaction method according to an embodiment of the present invention.
24 is a block diagram schematically illustrating the configuration of an electronic device according to an embodiment of the present invention.

시작부터 비록 본 발명의 일 실시 예의 구현은 아래에 설명되어 있지만, 본 시스템은 현재 알려지거나 알려지지 않은 임의의 수의 기술을 사용하여 구현될 수 있다는 것이 이해되어야 한다. 본 발명은 본 명세서에서 묘사된 예시적인 디자인과 실시 예를 포함하는 예시적인 실시 예, 도면, 아래 설명된 기술에 한정되어야 하지만, 등가물들의 전체 범위와 함께 첨부된 청구항의 범위 내에서 변형 가능하다.From the start, although implementations of one embodiment of the present invention are described below, it should be understood that the present system may be implemented using any number of techniques, presently known or unknown. The invention should be limited to the illustrative embodiments, drawings, and description set forth below, including the illustrative designs and embodiments depicted herein, but may be modified within the scope of the appended claims along with the full scope of equivalents.

이동 전화, 개인 휴대 정보 단말기, 핸드헬드(handheld) 컴퓨터, 및 유사한 장치와 같은 핸드헬드 전자 장치는 핸드셋(handset)으로 지칭될 것이다. 데스크탑(desktop), 랩탑(laptop) 컴퓨터, 개인용 컴퓨터, 및 유사한 장치들은 컴퓨팅 장치로 지칭될 것이다. 디지털 TV(DTV), 프로젝터(projector), 및 유사한 장치들은 디스플레이 장치로 지칭될 것이다. 핸드셋과 디스플레이 장치는 소비자 제품으로 지칭될 것이다. 따라서, 본 발명은 3D 형태의 콘텐츠를 디스플레이하기 위해 3D 기술(유리(glass)와 함께 또는 없이)을 포함하는 일부 소비자 제품에서 시행될 수 있다.Handheld electronic devices such as mobile phones, personal digital assistants, handheld computers, and similar devices will be referred to as handsets. Desktops, laptops, personal computers, and similar devices will be referred to as computing devices. Digital TVs (DTVs), projectors, and similar devices will be referred to as display devices. Handsets and display devices will be referred to as consumer products. Accordingly, the present invention may be practiced in some consumer products that incorporate 3D technology (with or without glass) to display content in 3D form.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the scope of rights. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

실시예에 있어서 "모듈" 혹은 "부" 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In an embodiment, a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware. can be

이하, 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.

도 1을 참조하면, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S102); 제1 사용자에 의해 적어도 하나의 오브젝트의 선택을 감지하는 단계(S104); 및 제2 화면에 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S106);를 포함하는 인터렉션 방법(100)이 제공된다.Referring to FIG. 1 , displaying web content including at least one object on a first screen (S102); detecting selection of at least one object by the first user (S104); and displaying the selected object or information linked to the selected object in 3D form on the second screen (S106);

본 발명의 일 실시 예에서, 제1 화면과 제2 화면은 깊이를 형성하기 위해 배치된다.In an embodiment of the present invention, the first screen and the second screen are arranged to form a depth.

본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S108)를 더 포함한다.In another embodiment of the present invention, the interaction method 100 further includes converting the selected object or information linked to the selected object from the 2D form to the 3D form ( S108 ).

또한, 인터렉션 방법(100)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S110)를 더 포함한다.In addition, the interaction method 100 further includes the step of retrieving information linked to the selected object from the information source (S110).

또한, 인터렉션 방법(100)은 제1 사용자의 제2 화면과의 인터렉션을 감지하는 단계(S110)와 인터렉션 결과를 디스플레이하는 단계(S114)를 더 포함한다.In addition, the interaction method 100 further includes the step of detecting the interaction of the first user with the second screen (S110) and the step of displaying the interaction result (S114).

본 발명의 다른 실시 예에서, 인터렉션의 결과는 제3 화면에 디스플레이된다.In another embodiment of the present invention, the result of the interaction is displayed on the third screen.

또한, 제3 화면은 제2 화면에 대한 깊이를 형성하기 위하여 배치된다.In addition, the third screen is arranged to form a depth with respect to the second screen.

본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의해 제1 화면으로부터 오브젝트의 선택을 감지하는 단계(S120) 및 제5 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계(S122)를 더 포함한다.In another embodiment of the present invention, the interaction method 100 detects the selection of an object from the first screen by the second user ( S120 ) and displays the selected object or information linked to the selected object on the fifth screen in 3D It further includes the step of displaying in the form (S122).

또한, 인터렉션 방법(100)은 정보 소스로부터 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S124)를 더 포함한다.In addition, the interaction method 100 further includes the step of retrieving information linked to the object selected by the second user from the information source (S124).

또한, 인터렉션 방법(100)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S126)를 더 포함한다.In addition, the interaction method 100 further includes a step (S126) of converting the object selected by the second user or information linked to the object selected by the second user from the 2D form to the 3D form.

또한, 제1 화면과 제5 화면은 깊이를 형성하기 위해 배치된다.Also, the first screen and the fifth screen are arranged to form a depth.

발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S128) 및 인터렉션의 결과를 디스플레이하는 단계(S130)를 포함한다. In another embodiment of the present invention, the interaction method 100 includes detecting an additional interaction with the fifth screen by the second user (S128) and displaying the result of the interaction (S130).

또한, 제2 사용자에 의한 제5 화면과의 인터렉션의 결과는 제6 화면에 디스플레이된다.In addition, a result of the second user's interaction with the fifth screen is displayed on the sixth screen.

또한, 제6 화면은 제5 화면의 깊이를 형성하기 위해 배치된다.In addition, the sixth screen is arranged to form the depth of the fifth screen.

또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능하게 하는 단계(S132)를 더 포함한다.In addition, the interaction method 100 further includes a step (S132) of enabling interaction between the screen corresponding to the first user and the screen corresponding to the second user.

또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어를 포함하는 그룹에서 선택된다.In addition, the object is selected from the group comprising images, videos, texts, hyperlinks, references, and multimedia.

상술한 바와 같이, 인터렉션 방법은 제1 화면에 웹 콘텐츠를 디스플레이하는 단계(S102)를 포함한다. 이제 도 2를 참조하면, 웹 페이지를 디스플레이하는 제1 화면(200)이 도시된다. 도 2에 도시된 바와 같이, 웹 페이지는 적어도 하나의 오브젝트를 포함하고, 웹 페이지는 3개의 오브젝트(202,204,206)를 포함한다. 여기서 오브젝트는 이미지(202), 비디오(204), 하이퍼링크(206)이다. As described above, the interaction method includes displaying the web content on the first screen (S102). Referring now to FIG. 2 , a first screen 200 for displaying a web page is shown. As shown in FIG. 2 , the web page includes at least one object, and the web page includes three objects 202 , 204 , and 206 . Here, the objects are an image 202 , a video 204 , and a hyperlink 206 .

도 3을 살펴보면, 실시 예로 이메일(e-mail)을 디스플레이하는 제1 화면(300)이 도시된다. 이 경우, 이메일의 첨부파일은 오브젝트처럼 다루어질 수 있다. 예를 들어, 제1 화면(300)에 디스플레이되고 있는 이메일은 “text.doc”(302)이라는 제목의 제1 첨부파일과 멀티미디어(304)을 포함하도록 도시되고, “text.doc”(302)과 멀티미디어(304)는 오브젝트처럼 다루어질 수 있다. 제1 화면(300)이 웹 콘텐츠의 임의의 다른 유형으로 디스플레이될 수 있는 점을 주의할 수 있다. 또한, 웹 콘텐츠는 도 2 또는 도 3에 도시되지 않은 오브젝트의 다른 유형을 포함할 수 있다.Referring to FIG. 3 , a first screen 300 for displaying an e-mail according to an embodiment is shown. In this case, email attachments can be treated like objects. For example, the email being displayed on the first screen 300 is shown to include a first attachment entitled “text.doc” 302 and a multimedia 304, and “text.doc” 302 . and multimedia 304 can be treated like objects. It may be noted that the first screen 300 may be displayed in any other type of web content. Also, the web content may include other types of objects not shown in FIG. 2 or FIG. 3 .

인터렉션 방법(100)은 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계(S104)를 포함한다. 사용자 선택은 마우스, 키패드, 리모콘, 음성명령, 터치, 에어 제스처(air gesture) 등 중 어떠한 것으로부터 수신될 수 있다. 제1 화면이 도2에 도시된 바와 같은 웹 페이지를 디스플레이하고 있고, 사용자의 오브젝트(206)(즉, 하이퍼링크) 선택이 감지되었다고 가정해보면 선택의 결과가 제2 화면에 3D 형태로 디스플레이된다(S106). 제2 화면의 디스플레이는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보일 수 있다. 오브젝트(206)는 “WELCOME TO STEREOSCOPIC WORLD” 문구에 링크되고 있다고 가정하면, 도 4는 3D 형태로 앞선 문구를 디스플레이하고 있는 제2 화면(402)을 도시하고, 여기서 단어 “stereoscopic”은 문구의 다른 단어들에 비하여 제1 사용자와 더 가깝게 배치된다. 임의의 다른 3D 형태가 적용될 수 있다.The interaction method 100 includes a step S104 of detecting selection of at least one object by the first user. The user selection may be received from any of a mouse, a keypad, a remote control, a voice command, a touch, an air gesture, and the like. Assuming that the first screen displays a web page as shown in Fig. 2, and that the user's selection of the object 206 (ie, hyperlink) is detected, the result of the selection is displayed on the second screen in 3D form ( S106). The display of the second screen may be the selected object or information linked to the selected object. Assuming the object 206 is linked to the phrase “WELCOME TO STEREOSCOPIC WORLD”, FIG. 4 shows a second screen 402 displaying the preceding phrase in 3D form, where the word “stereoscopic” is another of the phrase. The words are arranged closer to the first user than the words. Any other 3D shape may be applied.

선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전화하는 단계(S108)를 더 포함한다. 도 5를 살펴보면, 2D 형태에서 3D 형태로 전환하는 한 실시 예의 프로세스(500)는 웹 콘텐츠 상의 오브젝트 선택 감지에 따른 웹 엔진에 의해 컨버터 모듈을 호출하는 단계(S502)를 포함한다.When the selected object or information linked to the selected object is in a 2D form, the interaction method 100 further includes converting the selected object or information linked to the selected object from a 2D form to a 3D form ( S108 ). Referring to FIG. 5 , a process 500 of an embodiment for converting from a 2D form to a 3D form includes a step S502 of calling a converter module by a web engine according to detection of object selection on web content.

결과적으로 컨버터(converter) 모듈은 소비자 제품의 3D 디스플레이를 가능하게 한다(S504). 컨버터 모듈은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(drawing buffer) (좌안용 프레임(frame) 버퍼 및 우안용 프레임 버퍼)를 생성한다(S506). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S508). 그 후, 컨버터 모듈은 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다(S510). 그러나, 본 발명의 도5에 도시된 2D 형태에서 3D 형태로 전환하는 프로세스 외에 전환하기 위해 이용 가능한 다른 프로세스가 존재할 수 있다. As a result, the converter module enables 3D display of consumer products (S504). The converter module creates a double-sized drawing buffer (a frame buffer for the left eye and a frame buffer for the right eye) in order to support separate drawing for the frame for the left eye and the frame for the right eye (S506). A copy of the new web page/image/video (ie, object) is each rendered to half of the double-sized buffer (S508). Thereafter, the converter module combines the frame buffer for the left eye and the frame buffer for the right eye to create a 3D effect (S510). However, there may be other processes available for conversion other than the process for converting from 2D to 3D form shown in Fig. 5 of the present invention.

도 6을 살펴보면, 컨버터 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(positioning)(602)과 컨버터 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(positioning)(604)은 3D 형태로 상기 문구를 디스플레이하는 제2 화면에 도달하기 위해 도면번호 604에 도시된다(402).6, the positioning 602 of the right eye image of the drawing buffer drawn by the converter module and the positioning 604 of the left eye image of the drawing buffer drawn by the converter module are shown in 3D form of the above phrase shown at 604 (402) to arrive at a second screen displaying

본 발명의 바람직한 실시 예에서, 제1 화면(200)과 제2 화면(402)은 깊이를 나타내기 위해 배치된다. 도 7에 도시된 바와 같이, 제2 화면(402)은 제1 화면(200)과 비교하여 사용자에 더 가깝게 나타난다. 3D 형태로 제2 화면(402)에 디스플레이되는 콘텐츠뿐 아니라 제2 화면(402) 또한 3D 형태로 디스플레이된다.In a preferred embodiment of the present invention, the first screen 200 and the second screen 402 are arranged to indicate depth. As shown in FIG. 7 , the second screen 402 appears closer to the user as compared to the first screen 200 . In addition to the content displayed on the second screen 402 in 3D form, the second screen 402 is also displayed in 3D form.

깊이를 형성하기 위해 제1 화면(200)과 제2 화면(402)을 배치하기 위하여, 인터렉션 방법(800)은 도 8에 도시된 바와 같이 일 실시 예의 방법일 수 있다. 인터렉션 방법(800)은 웹 콘텐츠 상의 오브젝트 선택을 감지하는 단계에 따른 웹 엔진에 의해 인터렉티브(interactive) 3D 윈도우를 호출하는 단계(S802)를 포함한다. In order to arrange the first screen 200 and the second screen 402 to form depth, the interaction method 800 may be a method according to an embodiment as shown in FIG. 8 . The interaction method 800 includes a step S802 of calling an interactive 3D window by a web engine according to the step of detecting a selection of an object on the web content.

결과적으로 인터렉티브 3D 모듈은 소비자 제품의 3D 디스플레이 모드를 가능하게 한다(S803). 인터렉티브 3D 모듈은 좌안용 및 우안용 프레임을 위한 분리된 드로잉을 지원하기 위해 더블 사이즈 드로잉 버퍼를 생성한다(S806). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S808). 좌안용 프레임 버퍼와 우안용 프레임 버퍼는 3D 깊이 효과를 만들기 위해 결합된다(S810). 그러나 깊이를 나타내기 위해 제1 화면(200)과 제2 화면(402)을 배치하는 임의의 다른 대안의 프로세스가 적용될 수 있고, 본 발명은 도 8에 도시된 프로세스에 국한되는 것은 아니다.As a result, the interactive 3D module enables the 3D display mode of the consumer product (S803). The interactive 3D module creates a double-size drawing buffer to support separate drawing for frames for the left and right eyes (S806). A copy of the new web page/image/video (ie, object) is each rendered to half of the double-size buffer (S808). The frame buffer for the left eye and the frame buffer for the right eye are combined to create a 3D depth effect (S810). However, any other alternative process of arranging the first screen 200 and the second screen 402 to indicate depth may be applied, and the present invention is not limited to the process shown in FIG. 8 .

도 9 를 살펴보면, 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(902)과 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(904)은 도면부호 910에 도시된 바와 같이 마지막 디스플레이에 도달하기 위해 도면번호 906과 908에 도시된다. 도면번호 910에 제1 화면(200)과 제2 화면(402)이 깊이를 형성하기 위해 배치된다.Referring to FIG. 9 , the positioning 902 of the right eye image of the drawing buffer drawn by the interactive 3D module and the positioning 904 of the left eye image of the drawing buffer drawn by the interactive 3D module are the last as shown in reference numeral 910 . It is shown at 906 and 908 to reach the display. A first screen 200 and a second screen 402 are disposed at reference numeral 910 to form a depth.

앞서 살펴본 바와 같이, 인터렉션 방법(100)은 제1 사용자와 제2 화면의 인터렉션을 감지하는 단계(S112)와 인터렉션의 결과를 디스플레이하는 단계(S114)를 더 포함한다. 인터렉션의 결과는 제3 화면에 디스플레이 될 수 있고, 제3 화면은 제2 화면에 대한 깊이를 나타내기 위해 배치될 수 있다. 프로세스는 제3 화면에 대하여 반복될 수 있다.As described above, the interaction method 100 further includes the step of detecting the interaction between the first user and the second screen (S112) and the step of displaying the result of the interaction (S114). The result of the interaction may be displayed on a third screen, and the third screen may be arranged to indicate depth with respect to the second screen. The process may be repeated for the third screen.

도 10에 도시된 바와 같이 본 발명의 일 실시 예에 따르면, 도 10A는 복수의 오브젝트 (202,204,206)를 포함하는 제1 화면을 나타낸다. 사용자가 오브젝트(206)를 선택한다고 가정하면, 선택된 오브젝트(206)에 링크된 정보는 도 10B에 도시된 바와 같이 제2 화면(402)에 디스플레이된다. 제2 화면이 적어도 하나의 오브젝트(1002,1004,1006)를 포함한다, 제1 사용자가 오브젝트(1002)를 선택한다고 가정하면, 도 10C에 도시된 바와 같이 선택된 오브젝트(1002)에 링크된 정보는 제3 화면(1008)에 디스플레이된다. 10C에 도시된 바와 같이, 제3 화면(1008)은 제2 화면(402)에 대한 깊이를 나타내기 위해 배치된다. 이와 같은 프로세스는 더 반복될 수 있다. 특히, 제3 화면(1008)이 적어도 하나의 오브젝트를 포함하고 있다면, 제3 화면(1008)의 오브젝트 선택은 추가적인 화면에 선택의 결과가 디스플레이 될 수 있다. 도 10C는 제3 화면(1008)이 세 개의 오브젝트(1010,1012,1014)를 포함하는 것을 도시한다. 사용자가 오브젝트(1012)를 선택한다고 가정하면, 선택된 오브젝트(1012)에 링크된 정보는 도 10D에 도시된 바와 같이 추가적인 화면(1016)에 디스플레이된다.As shown in FIG. 10 , according to an embodiment of the present invention, FIG. 10A shows a first screen including a plurality of objects 202 , 204 , and 206 . Assuming that the user selects the object 206 , information linked to the selected object 206 is displayed on the second screen 402 as shown in FIG. 10B . The second screen includes at least one object 1002, 1004, 1006. Assuming that the first user selects the object 1002, the information linked to the selected object 1002 as shown in FIG. 10C is It is displayed on the third screen 1008 . As shown in 10C, the third screen 1008 is arranged to indicate the depth to the second screen 402 . This process may be further repeated. In particular, if the third screen 1008 includes at least one object, the selection result of the object selection on the third screen 1008 may be displayed on an additional screen. 10C shows that the third screen 1008 includes three objects 1010 , 1012 , and 1014 . Assuming that the user selects the object 1012 , information linked to the selected object 1012 is displayed on an additional screen 1016 as shown in FIG. 10D .

몇몇 예에서, 제2 화면과의 사용자 인터렉션은 제3 화면의 오프닝(opening) 대신, 제2 화면에 디스플레이될 수 있다. 예를 들어, 제2 화면이 이미지나 텍스트를 디스플레이하고 있고, 인터렉션은 디스플레이되고 있는 이미지나 텍스트의 크기를 키우는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.In some examples, the user interaction with the second screen may be displayed on the second screen instead of the opening of the third screen. For example, if the second screen displays an image or text, and the interaction increases the size of the image or text being displayed, the result of the interaction may be displayed on the second screen instead of opening the third screen.

또한, 제2 화면이 이미지를 디스플레이하고 있고, 인터렉션은 디스플레이되는 이미지를 회전시키는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.Also, if the second screen is displaying an image and the interaction is to rotate the displayed image, the result of the interaction may be displayed on the second screen instead of opening the third screen.

또한, 만약 제2 화면이 비디오를 디스플레이하고 있고, 인터렉션은 재생, 정지 등 중 임의의 하나라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다. 그러므로, 추가 창에 인터렉션의 결과를 디스플레이하는 것은 같은 화면에 결과를 디스플레이 하는 것을 포함한다.Also, if the second screen is displaying a video and the interaction is any one of play, pause, etc., the result of the interaction may be displayed on the second screen instead of opening the third screen. Therefore, displaying the result of the interaction in the additional window includes displaying the result in the same screen.

또한, 인터렉션 방법(100)은 제1 화면(202)에서 제1 사용자에 의한 추가 오브젝트 선택을 감지하는 단계(S116)와 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하는 단계(S118)를 더 포함한다. 이는 도 11에 도시된다.In addition, the interaction method 100 includes the steps of detecting selection of an additional object by the first user on the first screen 202 ( S116 ) and displaying the selected object or information linked to the selected object in a 3D form on the fourth screen. It further includes step S118. This is shown in FIG. 11 .

도 11A를 살펴보면, 제1 화면(200)은 제1 사용자에게 디스플레이 된다. 제1 화면(200)에서 오브젝트(202) 선택이 감지된다고 가정하면, 도 11B에 도시된 바와 같이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면(402)이 제1 사용자에게 디스플레이된다.Referring to FIG. 11A , the first screen 200 is displayed to the first user. Assuming that selection of the object 202 is detected on the first screen 200, as shown in FIG. 11B , the second screen 402 including the selected object or information linked to the selected object is displayed to the first user .

이 시점에서, 인터렉션 방법(100)은 제1 사용자가 제1 화면(200) 또는 제2 화면(402) 중 하나를 더 선택하도록 할 수 있다. 만약 제1 사용자가 제1 화면(200)에서 추가 오브젝트를 선택한다면, 인터렉션 방법(100)은 추가 선택을 감지한다. 오브젝트(206)의 선택이 감지되었다고 가정하면, 인터렉션 방법(100)은 도 11C에 도시된 바와 같이 제4 화면(1102)에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 수행한다.At this point, the interaction method 100 may allow the first user to further select one of the first screen 200 or the second screen 402 . If the first user selects an additional object on the first screen 200 , the interaction method 100 detects the additional selection. Assuming that the selection of the object 206 is detected, the interaction method 100 performs to display the selected object or information linked to the selected object on the fourth screen 1102 as shown in FIG. 11C .

또한, 복수의 사용자 소비자 제품의 경우, (즉, 독립된 방법으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품) 도 12A에 도시된 인터렉션 방법은 제1 화면(200)에 제1 사용자와 제2 사용자의 시청을 위해 웹 콘텐츠를 디스플레이하는 단계를 포함한다.Further, in the case of a multi-user consumer product (ie, a consumer product capable of being controlled by a plurality of users in an independent manner and capable of displaying an image in 3D form), the interaction method shown in FIG. 12A is the first screen 200 . ) and displaying the web content for viewing by the first user and the second user.

제1 사용자가 제1 화면(200)에서 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 12B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402) (제1 사용자에 의해 시청되는)의 콘텐츠는 3D 형태일 수 있다. 더욱이, 제1 사용자에게, 제2 화면(402)은 제1 화면(200)과 비교하여 가깝게 나타날 수 있다. If it is assumed that the first user selects an object on the first screen 200, the plurality of user modes are ON, and the selected object or information linked to the selected object is displayed on the second screen 402, FIG. 12B is shown. As described above, the second screen 402 can be shown only to the first user. The second user may continue to watch the first screen 200 without any interruption from the second screen 402 . The content of the second screen 402 (viewed by the first user) may be in 3D form. Moreover, to the first user, the second screen 402 may appear closer as compared to the first screen 200 .

또한, 인터렉션 방법(100)은 제1 화면으로부터 제2 사용자에 의한 오브젝트 선택을 감지하는 단계(S120)와 제5 화면에3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크되는 정보를 디스플레이하는 단계(S122)를 더 포함한다.In addition, the interaction method 100 includes the steps of detecting object selection by the second user from the first screen (S120) and displaying the selected object or information linked to the selected object in 3D form on the fifth screen (S122) further includes

도 13A에 도시된 바와 같이, 인터렉션 방법(100)은 예를 들어, 제1 사용자와 제2 사용자의 시청을 위해 제1 화면(200)에 웹 콘텐츠를 디스플레이하는 단계를 포함한다.As shown in FIG. 13A , the interaction method 100 includes, for example, displaying web content on the first screen 200 for viewing by a first user and a second user.

제1 사용자가 제1 화면(200)으로부터 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 13B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402)의 콘텐츠는 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제 1 화면(200)과 비교하여 가깝게 나타날 수 있다. It is assumed that the first user selects an object from the first screen 200, the plurality of user modes are ON, and the selected object or information linked to the selected object is displayed on the second screen 402, as shown in FIG. 13B. As described above, the second screen 402 can be shown only to the first user. The second user may continue to watch the first screen 200 without any interruption from the second screen 402 . The content of the second screen 402 may be in a 3D form. Furthermore, the second screen 402 may appear closer to the first user as compared to the first screen 200 .

제2 사용자가 제1 화면(200)으로부터 오브젝트를 선택한다고 가정하면, 도 13C에 도시된 바와 같이, 제3 사용자에게만 시청될 수 있는 제5 화면(1302)이 열린다. 제1 사용자는 제5 화면(1302)에 의한 어떤 방해 없이 제2 화면(402) 시청을 계속할 수 있다. 제1 사용자와 제2 사용자 모두에게, 제1 화면(200)은 배경으로 나타날 수 있다. 제2 화면(402)(제1 사용자에게 시청되는)의 콘텐츠와 제5 화면(1302)(제2 사용자에게 시청되는)은 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제1 화면(200)보다 가깝게 나타날 수 있다. 제2 사용자에게 제5 화면(1302)은 제1 화면(200)보다 가깝게 나타날 수 있다.Assuming that the second user selects an object from the first screen 200 , as shown in FIG. 13C , a fifth screen 1302 that can be viewed only by a third user is opened. The first user can continue viewing the second screen 402 without any interruption by the fifth screen 1302 . For both the first user and the second user, the first screen 200 may appear as a background. The content of the second screen 402 (viewed by the first user) and the fifth screen 1302 (viewed by the second user) may be in 3D form. Moreover, the second screen 402 may appear closer to the first user than the first screen 200 . The fifth screen 1302 may appear closer to the second user than the first screen 200 .

또한, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면(1302)과의 추가 인터렉션을 감지하는 단계(S128) 및 상기 인터렉션 결과를 디스플레이하는 단계(S130)를 더 포함할 수 있다. 이는 도 14에 도시된다.In addition, the interaction method 100 may further include the steps of detecting an additional interaction with the fifth screen 1302 by the second user (S128) and displaying the result of the interaction (S130). This is shown in FIG. 14 .

여기서 도 14A, 14B, 14C는 도 13A, 13B, 13C와 유사하다. Here, Figures 14A, 14B, 14C are similar to Figures 13A, 13B, 13C.

도 14D를 살펴본다. 제2 사용자가 제5 화면(1302)에 디스플레이되는 오브젝트를 선택한다고 가정하면, 제2 사용자에 의한 오브젝트 선택이 감지되고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제6 화면(1402)에 디스플레이된다. 본 발명의 바람직한 실시 예에서, 제6 화면(1402)은 제5 화면(1302)에 대한 깊이를 형성하기 위해 배치된다.Look at Figure 14D. Assuming that the second user selects an object displayed on the fifth screen 1302 , the selection of the object by the second user is detected, and the selected object or information linked to the selected object is displayed on the sixth screen 1402 . . In a preferred embodiment of the present invention, the sixth screen 1402 is arranged to form a depth for the fifth screen 1302 .

또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S132)를 더 포함한다. 이는 도 15에 도시된다.In addition, the interaction method 100 further includes the step of allowing an interaction between the screen corresponding to the first user and the screen corresponding to the second user (S132). This is shown in FIG. 15 .

여기서, 도 15A, 15B, 15C, 15D는 도 14A, 14B, 14C, 14D와 유사하다. Here, Figs. 15A, 15B, 15C, 15D are similar to Figs. 14A, 14B, 14C, 14D.

도 15D와 15E를 살펴보면, 인터렉션 방법(100)은 제1 사용자와 함께 제5 화면(1402)의 제2 사용자 공유를 감지하는 단계를 더 포함한다. 상기 감지에 따라, 인터렉션 방법(100)은 제1 사용자에게 보여질 수 있는 새로운 화면(1502)을 생성하고, 생성된 새로운 화면(1502)에 제5 화면(1402)의 콘텐츠를 디스플레이한다.15D and 15E , the interaction method 100 further includes detecting a second user sharing of the fifth screen 1402 with the first user. According to the detection, the interaction method 100 generates a new screen 1502 that can be shown to the first user, and displays the contents of the fifth screen 1402 on the created new screen 1502 .

도 16을 살펴보면, 도 15에 도시된 방식과 유사한 방식이지만 역으로 도시된다. Referring to FIG. 16 , a scheme similar to that shown in FIG. 15 , but reversed.

도 16A를 살펴보면 제1 사용자와 제2 사용자에 대한 제1 화면(200)의 디스플레이를 도시한다. 제1 사용자에서 오브젝트 선택이 감지되고, 복수의 사용자 모드가 ON 상태이며, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 16B에 도시된 바와 같이 제2 화면(402)은 제1 사용자에게만 보여질 수 있다.Referring to FIG. 16A , the display of the first screen 200 for a first user and a second user is shown. Assuming that the object selection is detected by the first user, the plurality of user modes are in the ON state, and the selected object or information linked to the selected object is displayed on the second screen 402, as shown in FIG. 16B, the second The screen 402 may be shown only to the first user.

제2 사용자가 제1 화면(200)의 시청을 계속하고 있고, 제1 사용자로부터 제2 사용자와 함께 제2 화면(402)의 공유 명령이 감지된다고 가정하면, 인터렉션 방법(100)은 새로운 화면(1602)을 생성하고 상기 화면(1602)에 제2 화면(402)의 콘텐츠를 디스플레이한다. 또한 공유 명령 감지에 따라, 제1 사용자와 제2 사용자에 의해 보여질 수 있는 단일의 화면이 생성되는 것이 가능하다.Assuming that the second user continues to watch the first screen 200 and a share command of the second screen 402 together with the second user is sensed from the first user, the interaction method 100 is a new screen ( 1602) and display the contents of the second screen 402 on the screen 1602. It is also possible to create a single screen that can be viewed by the first user and the second user according to the sharing command detection.

하나 또는 그 이상의 화면 각각은 그래피컬(graphical) 사용자 인터페이스로 해석될 수 있으므로, 본 발명의 일 실시 예에서, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면과 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링트된 정보를 디스플레이하는 제2 화면을 포함하는 그래피컬 사용자 인터페이스가 제공되는 것은 주목할 만 하다.Since each of the one or more screens may be interpreted as a graphical user interface, in an embodiment of the present invention, the first screen for displaying web content including at least one object and the selected object or selected object in 3D form It is noteworthy that a graphical user interface including a second screen for displaying information linked to an object is provided.

이제 시스템의 측면을 살펴보면, 앞서 기재된 방법은 도 17에 도시된 바와 같이 시스템으로 수행될 수 있다. 본 명세서에 기재된 시스템은 전자장치에서 구현될 수 있다. 이하 살펴볼 바와 같이 도 23 24Turning now to an aspect of the system, the method described above may be performed with the system as shown in FIG. 17 . The system described herein may be implemented in an electronic device. 23 24 as will be seen below.

이제 도 17을 살펴보면, 앞서 기재된 발명을 수행하는 시스템(1700)은 웹 콘텐츠(1702)를 수신하고 저장하는 모듈을 포함하고, 이 모듈은 웹 브라우저 또는 사용자 인터페이스(UI) 모듈(1704)에 기초한 웹에 효력이 있게 링크된다. 웹 브라우저 또는 UI에 기초한 웹 모듈(1702)은 추가적으로 웹 엔진(1706) 및 디스플레이 버퍼(1708)에 링크된다. Referring now to FIG. 17 , a system 1700 for carrying out the invention described above includes a module for receiving and storing web content 1702 , which module may include a web browser or web based user interface (UI) module 1704 . is effectively linked to A web browser or UI based web module 1702 is further linked to a web engine 1706 and a display buffer 1708 .

본 발명의 바람직한 실시 예에 따라, 웹 엔진(1706)은 사용자에 의한 감지를 수행할 수 있다.According to a preferred embodiment of the present invention, the web engine 1706 may perform sensing by the user.

본 발명의 바람직한 실시 예에 따라, 시스템(1700)은 선택된 앞서 묘사된 바와 같은 프로세스를 수행하기 함으로써 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D에서 3D 형태로 전환하는 컨버터(converter) 모듈을 더 포함한다. 시스템(1700)은 깊이를 나타내기 위한 제1 화면(200)과 제2 화면(402)을 배치를 위해 인터렉티브 3D 윈도우 모듈(1712)을 더 포함한다.According to a preferred embodiment of the present invention, the system 1700 further comprises a converter module for converting the selected object or information linked to the selected object from 2D to 3D form by performing the process as described above. . The system 1700 further includes an interactive 3D window module 1712 for arranging the first screen 200 and the second screen 402 for indicating depth.

본 발명의 인터렉션 방법(100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태를 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공한다.The method of interaction 100 of the present invention may be advantageously performed on a consumer product available to multiple users, a consumer product capable of being controlled by multiple users in an independent manner and capable of displaying images in 3D form. Therefore, the present invention also includes the steps of displaying web content including at least one object on the first screen; detecting selection of at least one object by the first user; detecting selection of at least one object by a second user; displaying the object selected by the first user or information linked to the object selected by the first user in a 3D form on a second screen; It provides an interaction method comprising; displaying the object selected by the second user or information linked to the object selected by the second user in a 3D form on a third screen.

앞서 상술한 실시 예에서, 인터렉션 방법은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다. 언급된 측면에 있어, 제2 화면과 제3 화면 각각은 제1 화면에 대한 깊이를 형성하기 위해 배치된다. 부가적으로, 인터렉션 방법은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제5 화면에 디스플레이하는 단계;를 포함한다.In the above-described embodiment, the interaction method further includes converting the selected object or information linked to the selected object from a 2D form to a 3D form. In the aspect mentioned, each of the second screen and the third screen is arranged to form a depth with respect to the first screen. Additionally, the interaction method may include detecting an interaction with a second screen by a first user and displaying a result of the interaction on a fourth screen; and/or detecting an interaction with the third screen by the second user and displaying the interaction result on the fifth screen.

앞서 상술한 실시 예에 따르면, 본 발명은 웹 콘텐츠를 디스플레이하는 제1 화면, 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의해 선택된 3D 형태로 제1 사용자에 의해 선택된 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하는 그래피컬 사용자 인터페이스를 더 제공한다.According to the above-described embodiment, the present invention provides a first screen for displaying web content, the web content including at least one object; a second screen for displaying an object selected by the first user or information linked to the object selected by the first user in a 3D form selected by the first user; It further provides a graphical user interface including a third screen for displaying an object selected by a second user in a 3D form or information linked to the object selected by the second user.

상술한 방법을 수행하기 위해, 본 발명은 추가적으로 제1 화면에 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진(engine), 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 상기 제1 사용자에 의해 선택된 상기 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하고, 제3 화면에 상기 제2 사용자에 의해 선택된 상기 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈; 을 포함하는 인터렉션 시스템을 제공한다.In order to perform the above method, the present invention further provides a user interface engine configured to display web content on a first screen, the web content including at least one object; a sensing module configured to detect selection of the at least one object by the first user and detect selection of the at least one object by the second user; and displaying the object selected by the first user or information linked to the object selected by the first user on a second screen, and the object selected by the second user or the second user on a third screen an interactive 3D module configured to display information linked to the object selected by ; It provides an interaction system that includes

앞서 묘사된 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 적절한 화면(예를 들어 제2, 제3, 제4, 제5 또는 제6 화면)에 3D 형태로 디스플레이된다. 대안의 실시 예에서, 제2, 제3, 제4, 제5 또는 제6 화면은 제1 화면에 대한 깊이를 형성하기 위해 배치될 수 있는 점과 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 3D 형태로 디스플레이될 필요가 없는 점은 주목할 만 하다. 그러면, 다음 단락에서 상세하게 설명한다. 이 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태를 디스플레이하는 점은 필수적이 선택이 아니라 선택할 수 있는 선택이 된다.In the embodiment described above, the selected object or information linked to the selected object is displayed in 3D form on an appropriate screen (eg, second, third, fourth, fifth or sixth screen). In an alternative embodiment, the second, third, fourth, fifth or sixth screen may be positioned to form a depth for the first screen, and the selected object or information linked to the selected object is in 3D form. It is noteworthy that it does not need to be displayed as . Then, it will be described in detail in the next paragraph. In this embodiment, the point of displaying the selected object or information linked to the selected object in 3D form is not necessarily a choice but a selectable choice.

도 18에 도시된 본 발명의 일 실시 예에 따르면, 인터렉션 방법(1800)은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S1802); 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계(S1804); 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 디스플레이하는 단계(S1806), 제1 화면에 대한 깊이를 나타내기 위해 배치되는 제2 보기창을 포함한다.According to an embodiment of the present invention shown in FIG. 18 , the interaction method 1800 includes displaying web content including at least one object on a first screen ( S1802 ); detecting selection of at least one object by the first user (S1804); and displaying the selected object or a second screen including information linked to the selected object ( S1806 ), and a second viewing window arranged to indicate the depth of the first screen.

본 발명의 또 다른 실시 예에 따르면, 인터렉션 방법(1800)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1808)를 더 포함한다.According to another embodiment of the present invention, the interaction method 1800 further includes retrieving information linked to the object selected from the information source (S1808).

본 발명의 일 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하는 반면, 본 발명의 또 다른 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이한다.According to an embodiment of the present invention, the second screen displays the selected object or information linked to the selected object in 2D form, whereas according to another embodiment of the present invention, the second screen displays the selected object or information linked to the selected object. Linked information is displayed in 3D form.

선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 사용자가 제1 화면이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 한다면, 인터렉션 방법(1800)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1810)를 더 포함한다.When the selected object or information linked to the selected object is in a 2D form, if the user allows the first screen to display the selected object or information linked to the selected object in 3D form, the interaction method 1800 is the selected object or the selected object The method further includes converting the linked information from the 2D form to the 3D form (S1810).

본 발명의 또 다른 일 실시 예에 따르면, 인터렉션 방법(1800)은 사용자와 제2 화면의 인터렉션을 감지하는 단계(S1812) 및 인터렉션의 결과를 디스플레이하는 단계(S1814)를 더 포함한다. 바람직한 실시 예에 있어서, 상기 인터렉션의 결과는 제3 화면에 디스플레이된다. 더 바람직한 실시 예에 있어서, 제3 화면은 제2 화면에 대하여 깊이를 형성하기 위해 배치된다. According to another embodiment of the present invention, the interaction method 1800 further includes detecting an interaction between the user and the second screen (S1812) and displaying the result of the interaction (S1814). In a preferred embodiment, the result of the interaction is displayed on the third screen. In a further preferred embodiment, the third screen is arranged to form a depth with respect to the second screen.

또한, 인터렉션 방법(1800)은 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계(S1816) 및 제4 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1818)를 더 포함하고, 제4 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다. 본 발명의 실시 예에 따르면, 제4 화면은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된다.In addition, the interaction method 1800 includes the steps of detecting selection of an additional object by the first user on the first screen (S1816) and displaying the selected object or information linked to the selected object on the fourth screen (S1818). Further comprising, the fourth screen is arranged to indicate depth with respect to the first screen. According to an embodiment of the present invention, the fourth screen is configured to display the selected object or information linked to the selected object in a 2D or 3D form.

또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제1 화면에서 오브젝트 선택을 감지하는 단계(S1820) 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1822)를 더 포함하고, 제5 화면은 제1 화면에 대한 깊이를 나타내기 위해 배치된다.In addition, the interaction method 1800 includes the steps of detecting object selection on the first screen by the second user ( S1820 ) and information linked to the object selected by the second user on the fifth screen or the object selected by the second user The method further includes displaying ( S1822 ), wherein the fifth screen is arranged to indicate the depth of the first screen.

또한, 인터렉션 방법(1800)은 정보 소스에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1824)를 더 포함한다.Also, the interaction method 1800 further includes retrieving information linked to the object selected by the second user from the information source ( S1824 ).

본 발명의 일 실시 예에 따르면, 제5 화면은 2D 또는 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이한다. 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 제2 사용자가 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하길 원한다면, 인터렉션 방법(1800)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1826)를 더 포함한다.According to an embodiment of the present invention, the fifth screen displays the object selected by the second user or information linked to the object selected by the second user in a 2D or 3D form. When the object selected by the second user or information linked to the object selected by the second user is in a 2D form, if the second user enters the object selected by the second user or the object selected by the second user on the fifth screen If it is desired to display the linked information in 3D form, the interaction method 1800 converts the information linked to the object selected by the second user or the object selected by the second user from the 2D form to the 3D form (S1826) include more

또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S1828) 및 인터렉션의 결과를 디스플레이하는 단계(S1830)를 더 포함한다. 바람직한 측면에서, 상기 인터렉션의 결과는 제6 화면에 디스플레이된다. 더 바람직한 측면에서, 제6 화면은 제5 화면에 대하여 깊이를 형성하기 위하여 배치된다.In addition, the interaction method 1800 further includes the step of detecting an additional interaction with the fifth screen by the second user (S1828) and the step of displaying the result of the interaction (S1830). In a preferred aspect, the result of the interaction is displayed on the sixth screen. In a more preferred aspect, the sixth screen is arranged to form a depth with respect to the fifth screen.

또한, 인터렉션 방법(1800)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S1832)를 더 포함한다.In addition, the interaction method 1800 further includes the step of allowing an interaction between the screen corresponding to the first user and the screen corresponding to the second user (S1832).

앞서 상술한 인터렉션(1800) 방법의 측면은 도 19에 도시된다. 도 3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고, 제1 화면(300)에 포함된 첨부파일인 멀티미디어를 디스플레이하는 제2 화면(1902)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(1902)과 함께 디스플레이된다. An aspect of the above-described interaction 1800 method is illustrated in FIG. 19 . As shown in FIG. 3 , a first screen 300 for displaying this mail is taken, and a second screen 1902 for displaying multimedia that is an attachment included in the first screen 300 is the first screen 300 . ) is displayed with a second screen 1902 positioned to form a depth for .

이와 같이, 도 20에서, 도3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고 제1 화면(300)에 포함된 첨부파일인 텍스트를 디스플레이하는 제2 화면(2002)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(2002)과 함께 디스플레이된다.In this way, in FIG. 20 , as shown in FIG. 3 , a first screen 300 for displaying an e-mail is taken, and a second screen 2002 for displaying text as an attachment included in the first screen 300 . is displayed with a second screen 2002 arranged to form depth with respect to the first screen 300 .

앞서 상술한 인터렉션 방법(1800)이 구현되면, 적어도 하나의 오브젝트(302,304)를 포함하는 웹 콘텐츠(300)를 디스플레이하는 제1 화면; 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면(1902,2002)을 포함하는 그래피컬 사용자 인터페이스가 획득되고, 제2 화면(1902,2002)은 제1 화면(300)에 대한 깊이를 형성하기 위해 배치된다.When the above-described interaction method 1800 is implemented, a first screen for displaying the web content 300 including at least one object 302 and 304; and a second screen (1902,2002) for displaying the selected object or information linked to the selected object is obtained, and the second screen (1902,2002) has a depth for the first screen (300). placed to form.

앞서 상술한 인터렉션 방법(1800)을 구현하기 위하여, 본 발명은 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈을 더 제공하고, 제2 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다.In order to implement the above-described interaction method 1800, the present invention provides a user interface engine configured to display web content including at least one object on a first screen; a sensing module configured to detect selection of at least one object by the first user; and an interactive 3D module configured to display the selected object or information linked to the selected object on the second screen, wherein the second screen is disposed to indicate depth with respect to the first screen.

본 발명의 일 실시 예의 바람직한 측면에서, 시스템(2100)은 도 21에 도시되고 웹 콘텐츠를 검색하고 저장하기 위한 모듈(2102)을 포함한다. 이는 동작 가능하게 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹에 연결된다. 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹은 추가적으로 웹 엔진(2106)과 디스플레이 버퍼(2108)에 연결된다. 본 발명의 일 실시 예의 바람직한 측면에서, 웹 엔진(2106)은 사용자에 의한 선택의 감지를 수행할 수 있다. 또한, 시스템(2100)은 깊이를 형성하기 위해 제1 화면과 제2 화면을 배치하기 위한 인터렉티브 3D 윈도우 모듈(2110)을 더 포함한다.In a preferred aspect of one embodiment of the present invention, system 2100 is shown in FIG. 21 and includes a module 2102 for retrieving and storing web content. It is operatively connected to a web based web browser or UI module 2104 . A web based web browser or UI module 2104 is additionally connected to a web engine 2106 and a display buffer 2108 . In a preferred aspect of one embodiment of the present invention, the web engine 2106 may perform detection of selection by the user. In addition, the system 2100 further includes an interactive 3D window module 2110 for arranging the first screen and the second screen to form a depth.

인터렉티브 3D 윈도우 모듈(2110)은 또한 원하는 창에 대한 원하는 깊이를 형성하기 위해 추가적인 화면을 배치한다. 예를 들어, 인터렉티브 3D 윈도우 모듈(2110)은 제2 화면에 대하여 깊이감이 형성되도록 제3 화면을 배치하고, 제5 화면에 관하여 깊이를 형성하기 위하여 제4 화면을 배치하고, 제1 화면에 대하여 깊이감이 형성되도록 제5 화면을 배치하고, 제5 화면에 대하여 깊이감이 형성되도록 제6 화면을 배치한다.The interactive 3D window module 2110 also places additional screens to form the desired depth for the desired window. For example, the interactive 3D window module 2110 arranges a third screen to form a sense of depth with respect to the second screen, arranges a fourth screen to form depth with respect to the fifth screen, and places a fourth screen on the first screen. The fifth screen is disposed to form a sense of depth with respect to the screen, and the sixth screen is disposed to form a sense of depth with respect to the fifth screen.

본 발명의 방법(2100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고, 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.Method 2100 of the present invention may be advantageously performed on a consumer product available to multiple users, a consumer product capable of being controlled by multiple users in an independent manner and capable of displaying images in 3D form. Therefore, the present invention also includes the steps of displaying web content including at least one object on the first screen; detecting selection of at least one object by the first user; detecting selection of at least one object by a second user; displaying the object selected by the first user or information linked to the object selected by the first user in a 3D form on a second screen; Displaying the object selected by the second user or information linked to the object selected by the second user in a 3D form on a third screen, wherein the second screen and the third screen are at least partially is non-overlapping, and each of the second screen and the third screen is arranged to form a depth with respect to the first screen.

본 발명의 또 다른 실시 예에 따르면, 제1 화면과 제3 화면 각각은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이한다.According to another embodiment of the present invention, each of the first screen and the third screen displays a selected object or information linked to the selected object in a 2D or 3D form.

또한, 인터렉션 방법(2100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다.In addition, the interaction method 2100 further includes converting the selected object or information linked to the selected object from a 2D form to a 3D form.

또한, 인터렉션 방법(2100)은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제5 화면에 디스플레이하는 단계를 더 포함한다.In addition, the interaction method 2100 includes the steps of detecting the interaction with the second screen by the first user and displaying the result of the interaction on the fourth screen; and/or detecting an interaction with the third screen by the second user and displaying a result of the interaction on the fifth screen.

본 발명의 실시 예에 따르면, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계를 더 포함한다. 바람직한 예에서, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면을 제2 사용자와 공유하거나 제2 사용자에 대응하는 화면을 제1 사용자와 공유하는 것을 허락하는 단계를 포함한다.According to an embodiment of the present invention, the interaction method 2100 further includes allowing an interaction between the screen corresponding to the first user and the screen corresponding to the second user. In a preferred example, the interaction method 2100 includes sharing a screen corresponding to the first user with a second user or allowing sharing of a screen corresponding to the second user with the first user.

또한, 일단 상술한 인터렉션 방법(2100)이 실행되면, 그래피컬 사용자 인터페이스가 생성되고, 그래피컬 사용자 인터페이스는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이며 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위해 배치된다.In addition, once the above-described interaction method 2100 is executed, a graphical user interface is generated, and the graphical user interface includes: a first screen for displaying web content including at least one object; a second screen for displaying the object selected by the first user or information linked to the object selected by the first user; a third screen for displaying an object selected by a second user or information linked to an object selected by the second user, wherein the second screen and the third screen are at least partially non-overlapping, and the second screen and the third screen Each of the screens is arranged to form a depth with respect to the first screen.

본 발명의 일 실시 예에 따르면, 앞서 상술한 인터렉션 방법(2100)을 수행하기 위한 시스템은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의해 선택된 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 제2 화면에 디스플레이하고, 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 제3 화면에 디스플레이하도록 구성된 인터렉티브 3D 모듈을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고 제2 화면과 제3 보기창 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.According to an embodiment of the present invention, a system for performing the above-described interaction method 2100 includes a user interface engine configured to display web content including at least one object on a first screen; a sensing module configured to detect selection of the at least one object by the first user and detect selection of the at least one object selected by the second user; and displaying the object selected by the first user or information linked to the object selected by the first user on the second screen, and displaying the object selected by the second user or information linked to the object selected by the second user on a third screen an interactive 3D module configured to display on a screen, wherein the second screen and the third screen are at least partially non-overlapping and each of the second screen and the third viewing window are arranged to form a depth with respect to the first screen.

도 11 및 도 21이 시스템의 블록도를 묘사하는 반면에, 컴퓨터 시스템(2200)의 형태로 시스템의 하드웨어 구성은 도 22에 도시된다.While FIGS. 11 and 21 depict block diagrams of the system, the hardware configuration of the system in the form of computer system 2200 is shown in FIG. 22 .

컴퓨터 시스템(2200)은 컴퓨터 시스템(2200)에 개시된 인터렉션 방법(100) 중 하나 이상을 수행하도록 하기 위하여 실행될 수 있는 명령어 세트를 포함할 수 있다. 컴퓨터 시스템(2200)은 예를 들어 네트워크를 사용하여 다른 컴퓨터 시스템 또는 주변 장치들과 연결되거나 또는 독립된 장치로 동작할 수 있다.Computer system 2200 may include a set of instructions that may be executed to cause computer system 2200 to perform one or more of the methods of interaction 100 disclosed. The computer system 2200 may be connected to other computer systems or peripheral devices using, for example, a network, or may operate as a separate device.

네트워크 구축에서, 컴퓨터 시스템(2200)은 서버의 용량에서 또는 서버-클라이언트 네트워크 환경에서 클라이언트 사용자 컴퓨터로서 동작하거나, 또는 peer-to-peer(또는 분산형) 네트워크 환경에서 peer 컴퓨터 시스템으로서 동작한다. 컴퓨터 시스템(2200)은 또한 PC(personal computer), 태블릿 PC, 셋탑 박스(STB), 개인용 휴대 정보 단말기(PDA), 모바일 장치, 팜탑 컴퓨터(palmtop), 랩탑 컴퓨터, 데스크탑 컴퓨터, 통신 장치, 무선 전화기, 랜선 전화기, 제어 시스템, 카메라, 스캐너, 팩시밀리, 프린터, 페이저, 개인 신뢰 장치, 웹 어플라이언스(web appliance), 네트워크 라우터(router), 스위치 또는 브릿지(bridge), 또는 상기 기계들에 의해 취해지는 특정 액션의 지정의 명령 세트를 실행할 수 있는 임의의 기타 장치들로 실행될 수 있다. 더욱이, 단일의 컴퓨터 시스템(2200)이 도시되지만, “시스템” 용어는 또한 하나 또는 그 이상의 컴퓨터 기능을 수행하도록 하는 명령을 개별적으로 또는 공동으로 하나 또는 복수의 세트를 실행하는 시스템 또는 서브 시스템의 임의의 모음을 포함하여 취해질 수 있다. In a network implementation, computer system 2200 operates in the capacity of a server or as a client user computer in a server-client network environment, or as a peer computer system in a peer-to-peer (or distributed) network environment. Computer system 2200 may also be a personal computer (PC), tablet PC, set-top box (STB), personal digital assistant (PDA), mobile device, palmtop, laptop computer, desktop computer, communication device, cordless phone , LAN phone, control system, camera, scanner, facsimile, printer, pager, personal trust device, web appliance, network router, switch or bridge, or any particular device taken by the machine. It may be executed by any other device capable of executing a specified set of instructions of an action. Moreover, although a single computer system 2200 is shown, the term “system” also refers to any of a system or subsystem that individually or jointly executes one or more sets of instructions to perform one or more computer functions. It can be taken including a vowel of

컴퓨터 시스템(2200)은 프로세서(2202)(예를 들어, CPU(central processing unit), GPU(graphics processing unit) 또는 둘 다)를 포함할 수 있다. 프로세서(2202)는 다양한 시스템의 구성일 수 있다. 예를 들어, 프로세서(2202)는 표준 개인용 컴퓨터 또는 워크스테이션(workstation)의 일부일 수 있다. 프로세서(2202)는 하나 또는 그 이상의 일반 프로세서, 디지털 신호 프로세서, 주문형 집적 회로 필드 프로그래머블 게이트 어레이(field programmable gate arrays), 서버, 네트워크, 디지털 회로, 아날로그 회로, 이들의 조합 또는 데이터를 분석하고 처리하기 위한 현재 또는 나중에 개발될 장치일 수 있다. 프로세서(2202)는 수동으로 생성된 코드, 소프트웨어 프로그램을 구현할 수 있다(즉, 프로그래밍).The computer system 2200 may include a processor 2202 (eg, a central processing unit (CPU), a graphics processing unit (GPU), or both). The processor 2202 may be a component of various systems. For example, the processor 2202 may be part of a standard personal computer or workstation. The processor 2202 is configured to analyze and process one or more general processors, digital signal processors, application specific integrated circuits, field programmable gate arrays, servers, networks, digital circuits, analog circuits, combinations thereof, or data. It may be a device currently or later developed for The processor 2202 may implement manually generated code, a software program (ie, programming).

컴퓨터 시스템(2200)은 버스(2208)를 통해 통신할 수 있는 메모리(2204)를 포함한다. 메모리(2204)는 주 메모리, 정적 메모리 또는 동적 메모리 일 수 있다. 메모리(2204)는 비휘발성 및 휘발성 저장 매체와 같은 다양한 형태의 컴퓨터 판독 가능 저장 매체를 포함하지만 제한되지 않고, 읽기 전용 메모리, 프로그레머블(programmable) 읽기 전용 메모리, 전자적으로 프로그램 가능한 판독 전용 메모리, 전기적으로 소거 가능한 판독 전용 메모리, 플래시 메모리, 자기 디스크 또는 테이프, 광학 디스크 등을 포함하지만 제한되지 않는다. 한 예로, 메모리(2204)는 프로세서(2202)를 위한 캐시(cache) 또는 액세스(access) 메모리를 포함한다. 대안적인 실시 예에서, 메모리(2204)는 프로세서(2202)의 캐시 메모리, 시스템 메모리, 또는 기타 메모리와 같이 프로세서(2202)에서 분리된다. 메모리(2204)는 외부 저장 장치 또는 데이터를 저장하기 위한 데이터 베이스일 수 있다. 예들은 하드 드라이브, CD(compact disc), 디지털 비디오 디스크(DVD), 메모리 카드(memory card), 메모리 스틱(memory stick), 플로피 디스크(floppy disc), USB(universal serial bus), 메모리 장치 또는 데이터를 저장하기 위해 동작하는 임의의 기타 장치를 포함한다. The computer system 2200 includes a memory 2204 that can communicate via a bus 2208 . Memory 2204 may be main memory, static memory, or dynamic memory. Memory 2204 includes, but is not limited to, various forms of computer-readable storage media such as non-volatile and volatile storage media, read-only memory, programmable read-only memory, electronically programmable read-only memory, including, but not limited to, electrically erasable read-only memory, flash memory, magnetic disks or tapes, optical disks, and the like. In one example, memory 2204 includes cache or access memory for processor 2202 . In an alternative embodiment, memory 2204 is separate from processor 2202 , such as cache memory, system memory, or other memory of processor 2202 . The memory 2204 may be an external storage device or a database for storing data. Examples are hard drives, compact discs (CDs), digital video discs (DVDs), memory cards, memory sticks, floppy discs, universal serial bus (USB), memory devices or data any other device operative to store

메모리(2204)는 프로세서(2202)에 의해 실행 가능한 명령들을 저장하도록 동작 가능하다. 도면에 도시된 기능(function), 작용(act), 테스크(task)는 메모리(2204)에 저장된 명령을 수행하는 프로그램이 된 프로세서(2202)에 의해 수행될 수 있다. 기능, 작용, 테스크는 명령어 세트, 저장 매체, 프로세서 또는 프로세싱 전략의 특정 형태와 무관하고, 단독 또는 조합으로 동작하는 소프트웨어, 하드웨어, 집적 회로, 펌웨어(firm-ware), 마이크로 코드(micro-code) 등에 의해 수행될 수 있다. 이와 같이, 프로세싱 전략은 멀티 프로세싱(multiprocessing), 멀티 태스킹(multitasking), 병렬 프로세싱(parallel processing) 등을 포함할 수 있다.Memory 2204 is operable to store instructions executable by processor 2202 . The functions, acts, and tasks shown in the figure may be performed by the processor 2202 being programmed to execute instructions stored in the memory 2204 . The functions, actions, and tasks are independent of any particular form of instruction set, storage medium, processor, or processing strategy, and may be software, hardware, integrated circuits, firmware, micro-code, operating alone or in combination. and the like. As such, the processing strategy may include multiprocessing, multitasking, parallel processing, and the like.

도시된 바와 같이, 컴퓨터 시스템(2200)은 액정 표시 장치(LCD), OLED(organic light emitting diode), 평면 패널 디스플레이(a flat panel display), 고체 상태 디스플레이, 음극선 관(CRT), 프로젝터, 프린터, 또는 기타 판단된 정보를 출력하기 위한 현재 알려지거나 또는 후에 개발된 디스플레이 장치와 같은 디스플레이부(2208)을 더 포함하거나 포함하지 않을 수 있다.As shown, computer system 2200 includes a liquid crystal display (LCD), an organic light emitting diode (OLED), a flat panel display, a solid state display, a cathode ray tube (CRT), a projector, a printer, Alternatively, the display unit 2208, such as a currently known or later developed display device for outputting other determined information, may or may not be further included.

디스플레이부(2208)는 사용자가 프로세서(2202)의 기능을 볼 수 있도록 인터페이스로서 작용할 수 있다. 구체적으로, 디스플레이부(2208)는 메모리(2204)나 구동부(2212)에 저장된 소프트웨어와 함께 인터페이스로서 작용할 수 있다.The display unit 2208 may act as an interface so that a user can view the functions of the processor 2202 . Specifically, the display unit 2208 may act as an interface together with software stored in the memory 2204 or the driving unit 2212 .

디스플레이부(2208)는 3D 형태로 이미지를 디스플레이할 수 있어야 한다. 부가적으로 디스플레이부(2208)는 복수의 사용자 시청 및 제어가 될 수 있다. 이러한 디스플레이부(2208)의 예는 http://www.theverge.com/2012/8/31/3282583/samsung-oled-tv-multi-view-hands-on-videohttp://www.youtube.com/watch?v=88_LCrnLvVk에서 보여진다.The display unit 2208 should be able to display an image in 3D form. Additionally, the display unit 2208 may be viewed and controlled by a plurality of users. Examples of the display unit 2208 include http://www.theverge.com/2012/8/31/3282583/samsung-oled-tv-multi-view-hands-on-video and http://www.youtube Shown at .com/watch?v=88_LCrnLvVk .

부가적으로, 컴퓨터 시스템(2200)은 사용자가 컴퓨터 시스템(2200)의 임의의 구성과의 인터렉션을 허락하도록 구성된 입력 장치(2210)를 포함할 수 있다. 입력 장치(2210)는 숫자 키패드, 키보드, 또는 마우스 도는 조이스틱 같은 커서 제어 장치, 터치 스크린 디스플레이, 리모콘, 공기 제스처 수신기, 음성 명령 수신기, 또는 컴퓨터 시스템(2200)과 인터렉션 하도록 작동하는 기타 임의의 장치일 수 있다.Additionally, computer system 2200 may include an input device 2210 configured to allow a user to interact with any configuration of computer system 2200 . The input device 2210 may be a numeric keypad, keyboard, or cursor control device such as a mouse or joystick, a touch screen display, a remote control, an air gesture receiver, a voice command receiver, or any other device operative to interact with the computer system 2200 . can

컴퓨터 시스템(2200)은 또한 디스크 또는 광학 구동부(2212)를 포함할 수 있다. 디스크 또는 광학 구동부(2212)는 하나 또는 그 이상의 명령어 세트(2216)가 내장될 수 있는(예를 들어, 소프트웨어) CMR(computer-readable medium)을 포함할 수 있다. 더욱이, 설명된 바와 같이, 명령(2216)은 하나 또는 그 이상의 방법 또는 로직을 구현할 수 있다. 특정 예에서, 명령(2216)은 컴퓨터 시스템(2200)에 의한 실행 동안 완전히 또는 적어도 부분적으로 프로세서(2202) 또는 메모리(2204) 내에 있다. 메모리(2204)와 프로세서(2202)는 또한 전술한 바와 같이 컴퓨터 판독 가능 매체를 포함할 수 있다.Computer system 2200 may also include a disk or optical drive 2212 . The disk or optical drive 2212 may include a computer-readable medium (CMR) in which one or more instruction sets 2216 may be embedded (eg, software). Moreover, as described, instructions 2216 may implement one or more methods or logic. In a particular example, the instructions 2216 reside entirely or at least partially within the processor 2202 or memory 2204 during execution by the computer system 2200 . Memory 2204 and processor 2202 may also include computer-readable media, as described above.

본 발명은 네트워크(2220)에 연결된 장치는 보이스, 비디오, 오디오, 이미지 또는 네트워크를 통한 임의의 기타 데이터와 통신하기 위하여 명령(2216)을 포함하거나 전파된 신호에 응답하여 명령(2216)을 수신하고 실행하는 컴퓨터 판독 가능 매체(2214)를 고려한다. 더욱이, 명령(2216)은 네트워크(2220)를 통해, 통신 포트(port) 또는 인터페이스(2218)을 통해, 또는 버스 바(bus bar)(2206)를 통해 전송 또는 수신될 수 있다. The present invention provides that a device coupled to the network 2220 receives the command 2216 including or in response to a propagated signal for communicating with voice, video, audio, image, or any other data over the network, and Consider a computer readable medium 2214 executing. Moreover, the command 2216 may be sent or received via the network 2220 , via a communication port or interface 2218 , or via a bus bar 2206 .

통신 포트 또는 인터페이스(2218)는 프로세서(2202)의 일부분이거나 분리된 구성일 수 있다. 통신 포트(2218)은 소프트웨어에서 생성되거나 하드웨어와 물리적인 접속일 수 있다. 통신 포트(2218)은 네트워크(2220), 외부 미디어, 디스플레이(2208), 또는 시스템(2200)의 기타 임의의 구성, 또는 이들의 결합과 연결되도록 구성될 수 있다. 네트워크(2220)와의 연결은 유선 이더넷 연결과 같은 물리적 접속 또는 하기에 설명될 바와 같이 무선으로 설정될 수 있다. 이와 같이, 시스템(2200)의 기타 구성과의 부가적인 접속은 물리적 접속이거나 무선으로 설정될 수 있다. 네트워크(2220)는 대안으로 버스(2206)와 직접적으로 연결될 수 있다.The communication port or interface 2218 may be part of the processor 2202 or may be a separate component. Communication port 2218 may be created in software or may be a physical connection with hardware. Communication port 2218 may be configured to connect with network 2220 , external media, display 2208 , or any other configuration of system 2200 , or a combination thereof. The connection to the network 2220 may be established as a physical connection, such as a wired Ethernet connection, or wirelessly, as described below. As such, additional connections with other components of system 2200 may be physical connections or established wirelessly. Network 2220 may alternatively be coupled directly with bus 2206 .

네트워크(2220)은 유선 네트워크, 무선 네트워크, 이더넷 AVB 네트워크, 또는 이들의 결합을 포함할 수 있다. 무선 네트워크는 휴대 전화 네트워크(cellular telephone network), 802.11, 802.16, 802.20, 802.1Q 또는 WiMax 네트워크 일 수 있다. 더욱이, 네트워크(2226)는 인터넷 같은 공용 네트워크, 인트라넷 같은 개인적인 네트워크 또는 이들의 결합일 수 있고, 지금 이용 가능하거나 후에 개발될 것을 포함하는 다양한 네트워킹 프로토콜(networking protocols)을 활용할 수 있지만 네트워킹 프로토콜에 기반한 TCP/IP에 한정되지 않는다.Network 2220 may include a wired network, a wireless network, an Ethernet AVB network, or a combination thereof. The wireless network may be a cellular telephone network, 802.11, 802.16, 802.20, 802.1Q or WiMax network. Moreover, the network 2226 may be a public network such as the Internet, a private network such as an intranet, or a combination thereof, and may utilize a variety of networking protocols, including those available now or to be developed in the future, but may be TCP based networking protocols. /IP is not limited.

대안적인 예에서, 주문형 집적 회로, 프로그래머블 로직 어레이(programmable logic arrays) 및 기타 하드웨어 장치와 같은 전용 하드웨어 구현은 시스템(2200)의 다양한 부분을 구현하도록 구성될 수 있다.In alternative examples, dedicated hardware implementations such as application specific integrated circuits, programmable logic arrays, and other hardware devices may be configured to implement various portions of system 2200 .

시스템들을 포함할 수 있는 어플리케이션(application)은 광범위하게 다양한 전자기기 및 컴퓨터 시스템을 포함할 수 있다. 하나 또는 그 이상의 묘사된 예들은 두 개 또는 그 이상의 특정 연관된 하드웨어 모듈 또는 제어 및 모듈을 통해 모듈과 모듈 사이에서 통신될 수 있는 데이터 신호 관련된 장치를 이용하거나 또는 어플리케이션 특정 집적 회로의 부분으로서 기능을 구현할 수 있다. 따라서, 본 발명의 시스템은 소프트웨어, 펌웨어, 하드웨어 실행을 포함한다.Applications that may include systems may include a wide variety of electronic and computer systems. One or more depicted examples may implement functionality as part of an application-specific integrated circuit or employing two or more specific associated hardware modules or data signal related devices that may be communicated between modules and modules via control and modules. can Accordingly, the system of the present invention includes software, firmware, and hardware implementations.

도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법의 흐름도를 도시한다. 구체적으로, 전자 장치(1000)는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이할 수 있다(S2310). 이때, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나일 수 있다. 사용자에 의해 오브젝트가 선택되면(S2320), 전자 장치는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이할 수 있다(S2330). 이때, 새로운 화면은 기존의 화면에 대해 깊이감이 형성되도록 디스플레이될 수 있다.23 is a flowchart of an interaction method according to an embodiment of the present invention. Specifically, the electronic device 1000 may display web content including at least one object on the first screen (S2310). In this case, the object may be one of an image, a video, text, a hyperlink, a reference, multimedia, and the like. When an object is selected by the user (S2320), the electronic device may display the selected object or information linked to the selected object in 3D form on a new screen (S2330). In this case, the new screen may be displayed to form a sense of depth with respect to the existing screen.

선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 오브젝트를 포함하는 경우, 사용자는 새로운 화면에 디스플레이된 오브젝트를 선택할 수 있다. 새로운 오브젝트를 선택하는 경우 위와 같은 과정이 반복될 수 있다. When the selected object or information linked to the selected object includes the object, the user may select an object displayed on a new screen. When a new object is selected, the above process may be repeated.

또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 오직 제1 사용자에게 시청 가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다. In addition, a plurality of users may simultaneously search for different content using one device. For example, it is assumed that there is a plurality of user mode, and the first user and the second user are watching a first screen displaying web content including at least one object. When the first user selects an object, the selected object or information linked to the selected object is displayed on the second screen, and the second screen is viewable only to the first user and does not prevent the second user from viewing the first screen does not

또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색하는 도중 서로의 콘텐츠를 공유할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 제1 사용자에게만 시청가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다. 이때, 공유 모드가 실행되면, 제1 사용자뿐만 아니라 제2 사용자도 함께 제2 화면을 시청할 수 있다.In addition, a plurality of users may share content with each other while simultaneously searching for different content using one device. For example, it is assumed that there is a plurality of user mode, and the first user and the second user are watching a first screen displaying web content including at least one object. When the first user selects an object, the object selected by the first user or information linked to the selected object is displayed on the second screen, the second screen is viewable only to the first user, and the second user views the first screen do not interfere with In this case, when the sharing mode is executed, not only the first user but also the second user may view the second screen together.

도 24는 본 발명의 일 실시 예에 따른 전자 장치(1000)의 구성을 나타낸 블럭도이다. 도 24에 도시된 바와 같이, 전자 장치(1000)는 감지부(2410), 디스플레이부(2420), 프로세서(2440)를 포함한다.24 is a block diagram illustrating the configuration of the electronic device 1000 according to an embodiment of the present invention. 24 , the electronic device 1000 includes a sensing unit 2410 , a display unit 2420 , and a processor 2440 .

전자 장치(1000)는 데스크탑 PC일 수 있으나, 이는 일 실시 예에 불과할 뿐, 태블릿 PC, 노트북PC, 스마트 TV 등과 같이 웹 콘텐츠를 디스플레이할 수 있는 다른 디스플레이 장치로 구현될 수 있다.The electronic device 1000 may be a desktop PC, but this is only an exemplary embodiment and may be implemented as another display device capable of displaying web content, such as a tablet PC, a notebook PC, or a smart TV.

감지부(2410)는 전자 장치(1000)를 제어하기 위한 사용자 명령을 감지한다. 특히, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠가 디스플레이되는 경우, 감지부(2410)는 사용자의 오브젝트 선택을 감지할 수 있다. 또한, 감지부(2410)는 전자장치의 다양한 모드(복수의 사용자 모드, 공유 모드)를 설정하기 위한 사용자 명령을 감지한다. 이때, 감지부(2410)는 터치 감지부로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 사용자 명령을 입력받기 위한 다양한 입력장치(예를 들어, 리모컨 신호 감지부, 마우스, 키보드 등)로 구현될 수 있다.The sensing unit 2410 detects a user command for controlling the electronic device 1000 . In particular, when web content including at least one object is displayed, the sensing unit 2410 may detect the user's selection of the object. Also, the sensing unit 2410 detects a user command for setting various modes (a plurality of user modes and a sharing mode) of the electronic device. In this case, the sensing unit 2410 may be implemented as a touch sensing unit, but this is only an exemplary embodiment, and is implemented as various input devices (eg, remote control signal sensing unit, mouse, keyboard, etc.) for receiving user commands. can be

디스플레이부(2420)는 프로세서(2440)의 제어에 따라, 영상 데이터를 출력한다. 특히, 디스플레이부(2420)는 사용자가 선택한 오브젝트 또는 사용자가 선택한 오브젝트에 링크한 정보를 제1 내지 제n 화면 중 한 화면에 디스플레이할 수 있다. 이때, 화면은 창, 윈도우 창 등을 나타내고, 상자 또는 프레임 안에 콘텐츠가 디스플레이되는 것을 말할 수 있다. 또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나가 될 수 있다.The display unit 2420 outputs image data under the control of the processor 2440 . In particular, the display unit 2420 may display the object selected by the user or information linked to the object selected by the user on one of the first to nth screens. In this case, the screen represents a window, a window window, and the like, and may refer to content being displayed in a box or frame. Also, the object can be one of an image, video, text, hyperlink, bibliography, multimedia, and the like.

프로세서(2440)는 감지부(2410)를 통해 입력된 사용자 명령에 따라 전자 장치(1000)의 전반적인 동작을 제어한다. 특히, 사용자의 오브젝트 선택이 감지부(2410)에 의해 감지되면, 프로세서(2440)는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 프로세서(2440)는 2D 형태의 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하도록 컨버터 모듈을 제어하고, 3D 형태의 오브젝트 또는 3D 형태의 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 프로세서(2440)는 새로운 화면이 기존의 화면에 대하여 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다.The processor 2440 controls the overall operation of the electronic device 1000 according to a user command input through the sensing unit 2410 . In particular, when the user's object selection is sensed by the sensing unit 2410 , the processor 2440 may control the display 2420 to display the selected object or information linked to the selected object on a new screen in 3D form. . In addition, when the selected object or information linked to the selected object is in a 2D form, the processor 2440 controls the converter module to convert the selected object in the 2D form or information linked to the selected object to the 3D form, and the 3D object Alternatively, the display unit 2420 may be controlled to display information linked to the selected object in 3D form. Also, the processor 2440 may control the display unit 2420 to display a new screen to form a sense of depth with respect to the existing screen.

또한, 프로세서(2440)는 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다. 구체적으로, 프로세서(2440)는 다양한 통신 모듈을 통해 정보 소스(예를 들어, 인터넷 등)로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.Also, the processor 2440 may retrieve information linked to the selected object from the information source. Specifically, the processor 2440 may search for information linked to a selected object from an information source (eg, the Internet, etc.) through various communication modules.

본 발명의 일 실시 예로, 적어도 하나의 오브젝트가 포함된 제1 화면을 포함하는 웹 콘텐츠가 디스플레이되고, 감지부(2410)가 제1 사용자에 의한 오브젝트 선택을 감지한 경우, 프로세서(2440)는 제2 화면에 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 감지부(2410)는 제1 사용자의 제2 화면과의 인터렉션을 감지할 수 있고, 프로세서(2440)는 인터렉션의 결과를 제3 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 제3 화면은 제2 화면에 대해 깊이감이 형성되도록 배치될 수 있다.In an embodiment of the present invention, when web content including a first screen including at least one object is displayed and the sensing unit 2410 detects an object selection by the first user, the processor 2440 may The display unit 2420 may be controlled to display the object selected by the first user or information linked to the selected object on the second screen. In this case, the sensing unit 2410 may detect the first user's interaction with the second screen, and the processor 2440 may control the display 2420 to display the result of the interaction on the third screen. In this case, the third screen may be arranged to form a sense of depth with respect to the second screen.

또한, 감지부(2410)가 제1 사용자의 제1 화면에서 추가 오브젝트 선택을 감지하는 경우, 프로세서(2440)는 제1 사용자에 의한 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제4 화면이 제1 화면에 대해 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다Also, when the sensing unit 2410 detects that the first user selects an additional object on the first screen, the processor 2440 displays the additionally selected object by the first user or information linked to the additionally selected object on the fourth screen. The display unit 2420 may be controlled to display. The processor 2440 may control the display unit 2420 to display the fourth screen to form a sense of depth with respect to the first screen.

본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드일 때, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제2 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부(2420)를 제어한다.As another embodiment of the present invention, when the electronic device 1000 is in a plurality of user modes, there may be a first screen that displays web content including at least one object for the first user and the second user. When the sensing unit 2410 detects the selection of the object by the first user, the processor 2440 may control the display unit 2420 to display the object selected by the first user or information linked to the object on the second screen. there is. The processor 2440 controls the display unit 2420 to display the second screen only to the first user.

본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드이고, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 감지부(2410)가 제1 사용자 또는 제2 사용자에 의한 공유 모드 명령을 감지하면, 프로세서(2440)는 제2 화면을 제1 사용자 및 제2 사용자에게 디스플레이하도록 디스플레이부(2420)를 제어한다.As another embodiment of the present invention, the electronic device 1000 may be in a plurality of user modes, and there may be a first screen that displays web content including at least one object for the first user and the second user. When the sensing unit 2410 detects the selection of the object by the first user, the processor 2440 may control the display unit 2420 to display the object selected by the first user or information linked to the object on the second screen. there is. When the sensing unit 2410 detects a share mode command by the first user or the second user, the processor 2440 controls the display unit 2420 to display the second screen to the first user and the second user.

그리고, 프로세서(2440)는 컨버터 모듈, 인터렉티브 3D 모듈, 웹 모듈, 인터렉티브 3D 윈도우 모듈을 포함한다. 컨버터 모듈은 프로세서(2440)의 제어에 따라, 3D 형태로 웹 콘텐츠를 디스플레이하도록 한다. 컨버터 모듈(2430)은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(좌안용 프레임 버퍼 및 우안용 프레임 버퍼)를 생성한다. 컨버터 모듈은 3D 형태로 나타내고자 하는 오브젝트의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더한 후, 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다.
In addition, the processor 2440 includes a converter module, an interactive 3D module, a web module, and an interactive 3D window module. The converter module displays web content in 3D form under the control of the processor 2440 . The converter module 2430 generates a double-sized drawing buffer (a frame buffer for the left eye and a frame buffer for the right eye) to support separate drawing for the left eye frame and the right eye frame. The converter module renders each copy of the object to be displayed in 3D form in half of the double-size buffer, and then combines the frame buffer for the left eye and the frame buffer for the right eye to create a 3D effect.

본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다.  명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.  또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.  The specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections.

본 명세서(특히 특허청구범위)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.  또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다.  마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다.  반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다.  모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다.  또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (especially in the claims), the use of the term "above" and similar referential terms may correspond to both the singular and the plural. In addition, when a range is described, individual values within the range are included (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, the steps constituting the method may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is merely for describing the technical idea in detail, and the scope is not limited by the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art will recognize that various modifications, combinations, and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

100: 인터렉션 방법
200: 제1 화면
402: 제2 화면
2410: 감지부
2420: 디스플레이부
2440: 프로세서
100: Interaction method
200: first screen
402: second screen
2410: detection unit
2420: display unit
2440: Processor

Claims (20)

전자 장치의 인터렉션(interaction) 방법에 있어서,
제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하고, 상기 제1 화면은 제1 깊이감이 형성되고, 제1 사용자 및 제2 사용자에게 보여지는 화면인 단계;
상기 전자 장치의 모드가 복수 사용자 모드일 때, 제1 사용자에 의해 상기 적어도 하나의 오브젝트가 선택되면, 상기 제1 화면이 디스플레이 되는 동안 제2 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하고, 상기 제2 화면은 제2 깊이감이 형성되고, 제1 사용자에게만 보여지는 화면인 단계; 및
상기 제2화면에 디스플레이 되는 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 공유하기 위한 상기 제1 사용자로부터의 공유 모드 명령을 기초로, 상기 전자 장치의 모드가 상기 복수 사용자 모드에서 상기 공유 모드로 전환되면, 상기 제1 화면 및 상기 제2 화면이 디스플레이 되는 동안, 제3 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하고, 상기 제3 화면은 제2깊이감이 형성되고, 제2 사용자에게만 보여지는 화면인 단계;를 포함하는 인터렉션 방법.
In an electronic device interaction method,
Displaying web content including at least one object on a first screen, wherein the first screen has a first sense of depth and is a screen shown to a first user and a second user;
When the mode of the electronic device is a multi-user mode and the at least one object is selected by a first user, the selected object and information linked to the selected object are displayed on a second screen while the first screen is displayed. displaying in a 3D form, and the second screen is a screen that has a second sense of depth and is only visible to the first user; and
Based on a sharing mode command from the first user for sharing the selected object displayed on the second screen and information linked to the selected object, the mode of the electronic device is changed from the multi-user mode to the sharing mode When switched, while the first screen and the second screen are displayed, the selected object and information linked to the selected object are displayed on a third screen in 3D form, and the third screen forms a second sense of depth and a screen that is displayed only to a second user.
제1항에 있어서,
상기 3D 형태로 디스플레이 하는 단계는,
상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
The step of displaying in the 3D form,
An interaction method characterized in that the selected object or information linked to the selected object is displayed in a 2D form, and the selected object in the 2D form or information linked to the selected object in the 2D form is converted and displayed in a 3D form.
삭제delete 제1항에 있어서,
정보 소스(source)로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
and retrieving information linked to the selected object from an information source.
제1항에 있어서,
제2 화면과의 사용자 인터렉션을 감지하는 단계; 및
제3 화면에 상기 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
detecting user interaction with the second screen; and
The interaction method further comprising; displaying the result of the interaction on a third screen.
제1항에 있어서,
상기 제1 화면에서 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및
제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
detecting selection of an additional object by the first user on the first screen; and
The method further comprising: displaying the additionally selected object or information linked to the additionally selected object in a 3D form on a fourth screen.
제1항에 있어서,
상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
When the electronic device is in a plurality of user modes, the screen by the first user is displayed only to the first user.
제1항에 있어서,
상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및
제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.
According to claim 1,
detecting object selection by a second user on the first screen; and
The method further comprising: displaying the object selected by the second user or information linked to the object selected by the second user on a fifth screen in 3D form;
제 8항에 있어서,
상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 인터렉션 방법.
9. The method of claim 8,
When the mode of the electronic device is switched to the sharing mode, interaction between the screen corresponding to the first user and the screen corresponding to the second user is possible.
제 1항에 있어서,
상기 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법.
The method of claim 1,
The object is an image, video, text (text), a hyperlink, an attachment, and an interaction method, characterized in that one of multimedia.
전자 장치에 있어서,
디스플레이부;
제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및
프로세서를 포함하고,
상기 프로세서는
제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제1 화면은 제1 깊이감이 형성되고, 상기 제1 사용자 및 제2 사용자에게 보여지는 화면이고,
상기 전자 장치의 모드가 복수 사용자 모드일 때, 상기 제1 사용자에 의해 상기 적어도 하나의 오브젝트가 선택되면, 상기 제1 화면이 디스플레이 되는 동안 제2 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제2 화면은 제2 깊이감이 형성되고, 제1 사용자에게만 보여지는 화면이고,
상기 제2 화면이 디스플레이 되는 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 공유하기 위한 상기 제1 사용자로부터의 공유 모드 명령을 기초로, 상기 전자 장치의 모드가 상기 복수 사용자 모드에서 상기 공유 모드로 전환되면, 상기 제1 화면 및 상기 제2 화면이 디스플레이 되는 동안, 제3 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제3 화면은 제2 깊이감이 형성되고, 상기 제2 사용자에게만 보여지는 화면인 전자 장치.
In an electronic device,
display unit;
a sensing unit configured to sense selection of at least one object by the first user; and
including a processor;
the processor is
The display unit is controlled to display web content including at least one object on a first screen, and the first screen is a screen with a first sense of depth and shown to the first and second users,
When the mode of the electronic device is a multi-user mode and the at least one object is selected by the first user, the selected object and information linked to the selected object are displayed on a second screen while the first screen is displayed The display unit is controlled to display in 3D form, and the second screen is a screen that has a second sense of depth and is visible only to the first user,
Based on the sharing mode command from the first user for sharing the selected object on which the second screen is displayed and information linked to the selected object, the mode of the electronic device is changed from the multi-user mode to the sharing mode When switched, the display unit is controlled to display the selected object and information linked to the selected object in a 3D form on a third screen while the first screen and the second screen are displayed, and the third screen is 2 The electronic device is a screen that has a sense of depth and is visible only to the second user.
제11항에 있어서,
상기 프로세서는,
상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor is
Displaying the selected object or information linked to the selected object in a 2D form, and controlling the display unit to display the selected object in the 2D form or information linked to the selected object in the 2D form to be converted into a 3D form electronic device.
삭제delete 제11항에 있어서,
정보 소스로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
and retrieving information linked to the selected object from an information source.
제11항에 있어서,
상기 프로세서는,
제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고,
제3 화면에 상기 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor is
Controls the sensing unit to detect user interaction with the second screen,
The electronic device of claim 1, wherein the display unit is controlled to display a result of the interaction on a third screen.
제11항에 있어서,
상기 프로세서는,
상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고,
제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor is
controlling the sensing unit to detect selection of an additional object by the first user on the first screen,
The electronic device of claim 1, wherein the display unit is controlled to display the additionally selected object or information linked to the additionally selected object on a fourth screen in a 3D form.
제11항에 있어서,
상기 프로세서는,
상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어하는 전자 장치.
12. The method of claim 11,
The processor is
When the electronic device is in a plurality of user modes, the electronic device controls the display unit to display the screen of the first user only to the first user.
제11항에 있어서,
상기 프로세서는,
상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고,
제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The processor is
controlling the sensing unit to detect object selection by a second user on the first screen,
The electronic device of claim 1, wherein the display unit is controlled to display the object selected by the second user or information linked to the object selected by the second user on a fifth screen in a 3D form.
제18항에 있어서,
상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 전자 장치.
19. The method of claim 18,
When the mode of the electronic device is switched to the sharing mode, an interaction between the screen corresponding to the first user and the screen corresponding to the second user is possible.
제11항에 있어서,
상기 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The electronic device, characterized in that the object is one of an image, video, text, hyperlink, attachment, and multimedia.
KR1020150070898A 2014-08-02 2015-05-21 Apparatus and Method for User Interaction thereof KR102366677B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15829926.3A EP3175343A4 (en) 2014-08-02 2015-07-28 Electronic device and user interaction method thereof
PCT/KR2015/007876 WO2016021861A1 (en) 2014-08-02 2015-07-28 Electronic device and user interaction method thereof
CN201580041851.3A CN106575188B (en) 2014-08-02 2015-07-28 Electronic equipment and user interaction method thereof
US14/815,429 US10809894B2 (en) 2014-08-02 2015-07-31 Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN2198/DEL/2014 2014-08-02
IN2198DE2014 2014-08-02

Publications (2)

Publication Number Publication Date
KR20160016567A KR20160016567A (en) 2016-02-15
KR102366677B1 true KR102366677B1 (en) 2022-02-23

Family

ID=58518575

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150070898A KR102366677B1 (en) 2014-08-02 2015-05-21 Apparatus and Method for User Interaction thereof

Country Status (3)

Country Link
EP (1) EP3175343A4 (en)
KR (1) KR102366677B1 (en)
CN (1) CN106575188B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107918514B (en) * 2017-11-24 2020-12-29 北京小米移动软件有限公司 Display method and device, electronic equipment and computer readable storage medium
KR20220121574A (en) * 2021-02-25 2022-09-01 삼성전자주식회사 Electronic device providing ar/vr environment and operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1547601A (en) * 1999-11-30 2001-06-12 Trimus Ltd. Modified browser system
US20040100489A1 (en) * 2002-11-26 2004-05-27 Canon Kabushiki Kaisha Automatic 3-D web content generation
US8533580B1 (en) * 2005-09-12 2013-09-10 Yongyong Xu System and method of navigating linked web resources
US8321783B2 (en) * 2008-09-30 2012-11-27 Apple Inc. Visualizing content positioning within a document using layers
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
KR101635567B1 (en) * 2009-11-12 2016-07-01 엘지전자 주식회사 Apparatus for displaying image and method for operating the same
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
KR20110115806A (en) * 2010-04-16 2011-10-24 삼성전자주식회사 Display apparatus and 3d glasses, and display system including the same
KR101763263B1 (en) * 2010-12-24 2017-07-31 삼성전자주식회사 3d display terminal apparatus and operating method
KR101813035B1 (en) * 2011-10-10 2017-12-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP2014021511A (en) * 2012-07-12 2014-02-03 Sony Corp Display control unit, display control method, program, and communication system
US20140157128A1 (en) * 2012-11-30 2014-06-05 Emo2 Inc. Systems and methods for processing simultaneously received user inputs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display

Also Published As

Publication number Publication date
CN106575188B (en) 2021-01-05
EP3175343A4 (en) 2018-03-21
EP3175343A1 (en) 2017-06-07
CN106575188A (en) 2017-04-19
KR20160016567A (en) 2016-02-15

Similar Documents

Publication Publication Date Title
US20230267697A1 (en) Object creation with physical manipulation
US20180348988A1 (en) Approaches for three-dimensional object display
US10592064B2 (en) Approaches for three-dimensional object display used in content navigation
US11803628B2 (en) Secure authorization via modal window
TWI624786B (en) Multi-display apparatus and method of controlling display thereof
EP3047363B1 (en) Approaches for three-dimensional object display
US9201585B1 (en) User interface navigation gestures
US20120192078A1 (en) Method and system of mobile virtual desktop and virtual trackball therefor
KR20190141162A (en) Container-based Virtual Camera Rotation
US10359905B2 (en) Collaboration with 3D data visualizations
CN105190486A (en) Display apparatus and user interface screen providing method thereof
CN111758122A (en) Browser for mixed reality system
US9495064B2 (en) Information processing method and electronic device
US20170229102A1 (en) Techniques for descriptor overlay superimposed on an asset
US20170228137A1 (en) Local zooming of a workspace asset in a digital collaboration environment
US20140229823A1 (en) Display apparatus and control method thereof
US10838585B1 (en) Interactive content element presentation
KR102366677B1 (en) Apparatus and Method for User Interaction thereof
KR20230061519A (en) Screen capture methods, devices and electronics
US9524036B1 (en) Motions for displaying additional content
US10809894B2 (en) Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof
KR101457999B1 (en) Transparent display device and method for providing user interface thereof
KR20200033640A (en) Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method
KR20200033639A (en) Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method
GB2548468A (en) Local zooming of a workspace asset in a digital collaboration environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right