KR102366677B1 - Apparatus and Method for User Interaction thereof - Google Patents
Apparatus and Method for User Interaction thereof Download PDFInfo
- Publication number
- KR102366677B1 KR102366677B1 KR1020150070898A KR20150070898A KR102366677B1 KR 102366677 B1 KR102366677 B1 KR 102366677B1 KR 1020150070898 A KR1020150070898 A KR 1020150070898A KR 20150070898 A KR20150070898 A KR 20150070898A KR 102366677 B1 KR102366677 B1 KR 102366677B1
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- user
- selected object
- information linked
- interaction
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 디지털 TV(DTV), 모바일, 3D(3-dimensional) 디스플레이가 가능한 소비자 제품과 인터렉션 방법을 제공한다. 특히, 본 발명은 앞서 상술한 소비자 제품을 통한 3D 공간의 웹(Web)과 사용자 인터렉션(interaction)에 대한 시스템 및 방법과 관련된다. 부가적으로, 본 발명은 다른 사용자들이 동시에 실질적인 간섭 없이 하나의 장치로 다른 콘텐츠를 통해 검색하는 복수의 사용자 인터렉션 시나리오를 제공하고, 복수의 사용자들의 화면 사이의 인터렉션을 가능하게 한다.The present invention provides a method of interaction with consumer products capable of digital TV (DTV), mobile, and 3D (3-dimensional) display. In particular, the present invention relates to a system and method for user interaction with the Web in 3D space through the above-described consumer product. Additionally, the present invention provides a plurality of user interaction scenarios in which different users simultaneously search through different content with one device without substantial interference, and enables interaction between screens of a plurality of users.
Description
사용자 인터렉션 시스템 및 이의 방법으로, 더 구체적으로는 웹 공간에서 3D 형태로 제공되는 사용자 인터페이스 시스템 및 이의 방법에 관한 것이다.A user interaction system and method therefor, and more particularly, to a user interface system and method provided in a 3D form in a web space.
다음의 배경 기술 논의는 본 발명을 이해하는데 유용한 정보를 포함한다. 여기서 제공하는 어떤 정보도 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다. 또한, 어떤 구체적인 공보 또는 암시적인 참조문헌이 본 청구 발명의 이전 기술이거나 관련 정보인 것을 인정하는 것은 아니다.The following background discussion contains information useful for understanding the present invention. Any information provided herein is not an admission that it is prior art or related information to the claimed subject matter. Moreover, it is not an admission that any specific publication or implied reference is prior art or related information of the claimed subject matter.
현재 마켓에서 다양한 3D 기술들은 유리 덮개 유무와 상관없이 3D에서 콘텐츠를 디스플레이할 수 있다. 3D에서 디스플레이되는 대부분의 콘텐츠는 비디오와 몇몇 그래픽 분야이다.
Various 3D technologies on the market today can display content in 3D with or without a glass cover. Most of the content displayed in 3D is video and some graphics.
PCT 공개번호 WO 2012/082971는 3D 컴퓨터 디스플레이에서 사용자의 시선과 결합될 수 있는 사용자의 제스처에 의해 3D 컴퓨터 디스플레이에 디스플레이되는 3D 물체와 함께 사용자에 의한 활성화 또는 인터렉팅(interacting)에 대한 시스템과 방법을 교시한다. 이 공개 문서는 적어도 사용자가 착용한 엔도 카메라 및 엑소 카메라 중 하나에 포함된 헤드 프레임에 의해 사용자의 시선을 캡처링(capturing)하고, 복수의 제스처로부터 사용자의 제스처를 인식하는 특징을 교시한다. 반면에, 이 문서는 오직 3D 오브젝트(object)와의 인터렉션에 대해서만 나타낸다. 더욱이 이 문서는 2D 오브젝트에서 3D 오브젝트로의 실시간 전환을 교시, 암시하지 않는다. 부가적으로 이 문서는 또한 표준 웹 콘텐츠를 3D로의 실시간 전환을 다루지 않는다. 또한, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
PCT Publication No. WO 2012/082971 discloses a system and method for activation or interacting by a user with a 3D object displayed on a 3D computer display by a user's gesture that can be combined with the user's gaze on the 3D computer display teach This public document teaches features of capturing a user's gaze by a head frame included in at least one of an endo camera and an exo camera worn by the user, and recognizing the user's gestures from a plurality of gestures. On the other hand, this document only describes interactions with 3D objects. Moreover, this document does not teach or imply real-time conversion from 2D objects to 3D objects. Additionally, this document also does not cover the real-time conversion of standard web content to 3D. Also, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.
US 공개번호 2003/0197737는 윈도우에서 2D 및 3D 정보 둘 다 디스플레이하기 위한 2D/3D 웹 브라우저(browser)를 공개한다. 특히, 2D 또는 3D 정보를 제공하는 웹 사이트를 검색하기 위한 웹 브라우저가 공개된다. 2D/3D 웹 브라우저는 웹 사이트에 액세스(access) 정보를 요청하기 위한 소프트웨어; 및 요청에 응답하는 웹 사이트에 제공된 정보를 2D/3D 전환 가능한 윈도우 및 3D 윈도우를 갖는 디스플레이 스크린에 디스플레이하기 위한 디스플레이;를 포함하고, 만약 정보가 3D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우 및 3D 윈도우의 결합 영역에 디스플레이되고, 만약 정보가 2D 콘텐츠라면, 정보는 2D/3D 전환 가능한 윈도우에 디스플레이된다. 이 문서는 2D 웹 콘텐츠를 3D 가상 공간에 전환하고 디스플레이하는 것을 말한다. OpenGL/WebGL와 같은 기술을 언급한다. 반면에 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2003/0197737 discloses a 2D/3D web browser for displaying both 2D and 3D information in Windows. In particular, a web browser for searching a web site providing 2D or 3D information is disclosed. A 2D/3D web browser includes software for requesting access information to a web site; and a display for displaying the information provided to the website responding to the request on a display screen having a 2D/3D switchable window and a 3D window, wherein if the information is 3D content, the information is a 2D/3D switchable window and It is displayed in the combined area of the 3D window, and if the information is 2D content, the information is displayed in the 2D/3D switchable window. This document refers to converting and displaying 2D web content in 3D virtual space. It refers to technologies such as OpenGL/WebGL. On the other hand, this document does not teach or imply real-
US 공개번호 2012/0174038는 인터렉티브(interactive) 가상의 구를 이용하여 콘텐츠를 탐색하고 선택하는 것에 대한 시스템 및 방법을 공개한다. 문서에 따라 시스템은 콘텐츠 서버를 통해 접근 가능한 콘텐츠 데이터베이스를 포함한다. 콘텐츠 데이터베이스는 제1 복수의 콘텐츠 유닛을 저장하도록 구성되고, 상기 콘텐츠 데이터베이스와 연결되는 어그리게이터(aggregator), 상기 어그리게이터는 상기 제1 복수의 콘텐츠 유닛을 업데이트하도록 구성된다. 시스템은 또한 구형 그래픽 렌더링(rendering) 모듈 및 콘텐츠 탐색 모듈을 포함한다. 구형 그래픽 렌더링 모듈은 가상 구의 표면상의 제2 복수의 콘텐츠 유닛에 대응하는 시각적 표현을 렌더(render)하도록 구성된다. 탐색 모듈 콘텐츠는 가상의 구와 인터렉팅하기 위한 사용자 인터페이스를 제공한다. 구형 그래픽 렌더링 모듈은 콘텐츠 데이터베이스에 엑세스하고, 사용자 인터페이스에 의해 수신된 입력에 대응하여 제2 복수의 콘텐츠 유닛 중 적어도 하나를 선택하도록 구성된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2012/0174038 discloses a system and method for navigating and selecting content using an interactive virtual sphere. According to the document, the system contains a content database accessible through the content server. The content database is configured to store a first plurality of content units, and an aggregator connected with the content database, the aggregator is configured to update the first plurality of content units. The system also includes a spherical graphics rendering module and a content navigation module. The spherical graphics rendering module is configured to render a visual representation corresponding to the second plurality of content units on the surface of the virtual sphere. The navigation module content provides a user interface for interacting with the virtual sphere. The spherical graphics rendering module is configured to access the content database and select at least one of the second plurality of content units in response to an input received by the user interface. On the other hand, this document does not teach or imply real-
US 공개번호 2012/0192115는 3차원 모양의 측면 상의 인터렉티브(interactive) 프로젝션(projection)과 관련 미디어 세그먼트(segment)의 재생에 대한 시스템 및 방법을 공개한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Publication No. 2012/0192115 discloses a system and method for interactive projection on the side of a three-dimensional shape and playback of an associated media segment. On the other hand, this document does not teach or imply real-
US 특허번호 8,035,635는 가상의 3D 공간에서 콘텐츠 엘리먼트(element)의 위치에 대한 시스템을 공개한다. 이 문서에 따르면, 2D 베이스 평면은 3D 공간에서 지정되고, 가상의 콘텐츠는 베이스 평면과 평행하게 놓인 적어도 하나의 페이지와 함께 3D 공간에 위치된다. 뷰포인트(viewpoint)와 뷰잉 레이(viewing ray)는 베이스 평면에 평행하지도 수직하지도 않은 뷰잉 레이(viewing ray)와 함께 3D 공간을 보이기 위해 3D 공간에서 선택된다. 2D 표면은 2D 표면이 뷰포인트와 베이스 평면 사이에서 뷰 레이(view ray)와 교차하기 위하여 3D 공간에 위치된다. 적어도 3D 공간의 일부는 뷰잉 레이에 의해 결정된 원근 투영에 의한 2D 표면상에 투영된다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent No. 8,035,635 discloses a system for the location of content elements in virtual 3D space. According to this document, a 2D base plane is specified in 3D space, and virtual content is located in 3D space with at least one page lying parallel to the base plane. A viewpoint and a viewing ray are selected in 3D space to show 3D space with a viewing ray that is neither parallel nor perpendicular to the base plane. A 2D surface is placed in 3D space so that the 2D surface intersects a view ray between the viewpoint and the base plane. At least a portion of the 3D space is projected onto the 2D surface by a perspective projection determined by the viewing ray. On the other hand, this document does not teach or imply real-
US 특허번호8,436,891은 인터렉티브(interactive) 하이퍼링크(hyperlinked) 3D 비디오 삽입과 이의 인터렉팅 방법을 공개한다. 이 문서는 멀티미디어 콘텐츠의 메타데이터(metadata)와 관련되고 가상의 3D 공간에서 메타데이터 콘텐츠와의 렌더링 및 인터렉션을 교시한다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent No. 8,436,891 discloses an interactive hyperlinked 3D video insertion and an interactive method thereof. This document relates to the metadata of multimedia content and teaches rendering and interaction with the metadata content in a virtual 3D space. On the other hand, this document does not teach or imply real-
US 특허출원 공개번호 2012/0127156은 기울어진 3D 공간에서 아이템(item)을 나타내고 검색하기 위한 방법 및 시스템을 공개한다. 기울어진 시청 모드에서, 계층구조의 여러 연속적인 레벨에서 아이템의 그룹은 기울어진 3D 공간의 가시 영역으로 다른 깊이에 보여진 각각의 검색할 수 있는 퍼레이드(parade)에 표시되도록 학습된다. 사용자는 각각 검색할 수 있는 퍼레이드를 횡 방향으로 가로 질러 검색할 수 있고, 기울어진 3D 공간 내에서 계층구조의 위 아래로 검색할 수 있다. 기울어진 3D 공간의 가시 영역에 표시된 퍼레이드를 횡 방향으로 검색하는 것과 3D 공간의 깊이에 따라 계층구조를 위 아래로 검색할 수 있는 것의 결합으로, 사용자는 기울어진 3D 공간의 계층구조 전체를 탐색할 수 있다. 반면에, 이 문서는 오브젝트가 실제 3D 공간에서의 깊이와 다르게 보일 수 있는 실제 3D 시나리오를 교시, 암시하지 않는다. 예를 들어 입체 3D 콘텐츠는 3D 안경과 함께 또는 3D 안경 없이 DTV에 보여진다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
US Patent Application Publication No. 2012/0127156 discloses a method and system for representing and retrieving items in a tilted 3D space. In the tilted viewing mode, groups of items at different successive levels of the hierarchy are learned to be displayed in each searchable parade viewed at different depths into the viewing area of the tilted 3D space. Users can search horizontally across each searchable parade, up and down the hierarchy within a tilted 3D space. Combining the horizontal search through the parade displayed in the visible area of the tilted 3D space and the ability to search the hierarchy up and down according to the depth of the 3D space, the user can navigate the entire hierarchy of the tilted 3D space. can On the other hand, this document does not teach or imply real-
PCT 공개번호 2013/183801은 3D 웹 페이지 렌더링(rendering) 방법과 이를 이용하는 단말기를 공개한다. 렌더링 방법은 하나 이상의 3D 웹 페이지를 구성하는 3D 오브젝트 깊이 정보를 포함하는 소스(source) 텍스트를 로딩(loading)하는 단계, 상기 소스 텍스트를 분석함으로써 DOM 트리(document object model tree)와 깊이 정보를 포함하는 스타일(style) 규칙을 창출하는 단계, DOM 트리와 스타일 규칙을 기반으로 렌더 트리(render tree) 를 생성하는 단계, 렌더 트리에 레이아웃을 수행하는 단계, 레이아웃을 수행함으로써 얻은 정보와 3D 오브젝트의 하나 이상의 위치, 크기, 차이, 모양, 배치를 포함하는 3D 팩터(factor)를 적용함으로써 좌안 및 우안 페이지를 그리는 단계, 좌안 및 우안 페이지를 병합하는 단계 및 3D 브라우저에 좌안 및 우안 페이지를 병합하여 디스플레이하는 단계를 포함한다. 반면에, 이 문서는 인터넷에서 이용 가능한 기준 2D 웹 콘텐츠의 렌더링을 교시, 암시하지 않는다. 또한, 이 문서는 3D 공간의 오브젝트와의 실시간 인터렉션에 대하여 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
PCT Publication No. 2013/183801 discloses a 3D web page rendering method and a terminal using the same. The rendering method includes loading source text including 3D object depth information constituting one or more 3D web pages, and analyzing the source text to include a DOM tree (document object model tree) and depth information Steps to create a style rule, create a render tree based on the DOM tree and style rules, perform layout on the render tree, information obtained by performing the layout and 3D object Drawing the left eye and right eye pages by applying a 3D factor including the above position, size, difference, shape, and arrangement, merging the left eye and right eye pages, and merging the left eye and right eye pages in a 3D browser to display includes steps. On the other hand, this document does not teach or imply rendering of
EP 출원번호 2591467은 3D TV에서 2D 콘텐츠 데이터를 3D 콘텐츠 데이터로 전환하는 방법을 공개한다. 상기 방법은 2D 에서 3D 콘텐츠로의 전환 모듈을 통해 3D 비디오 콘텐츠와 2D 사용자 인터페이스 콘텐츠 데이터를 수신하는 단계, 2D 유저 인터페이스 콘텐츠 데이터의 3D 렌더링에 대한 좌안 및 우안의 분리를 정의하는 차이 데이터에 의해 나타내지는 이동을 결정하는 단계, 상기 수신된 2D 유저 인터페이스 콘텐츠 데이터와 상기 결정된 이동을 기초로 디스플레이의 3D 깊이에서 3D 사용자 인터페이스 콘텐츠 데이터를 생성하는 단계 및 3D TV의 디스플레이의 3D 비디오 콘텐츠를 디스플레이하는 단계를 포함한다. 반면에 이 문서는 3D 표준 웹 콘텐츠를 디스플레이하는 단계를 교시, 암시하지 않는다. 또한, 이 문서는 실제 3D 공간의 오브젝트와의 실시간 인터렉션을 교시, 암시하지 않는다. 더욱이, 이 문서는 다른 사용자가 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오에 대해 다루지 않는다.
EP application number 2591467 discloses a method for converting 2D content data into 3D content data in a 3D TV. The method includes receiving 3D video content and 2D user interface content data through a 2D to 3D content conversion module, the difference data defining separation of left and right eyes for 3D rendering of the 2D user interface content data. determining a movement, generating 3D user interface content data at a 3D depth of a display based on the received 2D user interface content data and the determined movement, and displaying 3D video content of a display of a 3D TV include On the other hand, this document does not teach or imply steps for displaying 3D standard web content. Furthermore, this document does not teach or imply real-time interaction with objects in real 3D space. Moreover, this document does not address the multi-user scenario where different users are simultaneously browsing different content on a single device.
그러므로, 3D에서 웹 콘텐츠를 디스플레이하기 위해 수행되는 일은 많지 않다. 또한 웹에 도시된 3D 오브젝트들과 인터렉션하기 위해 사용될 수 있는 시스템/방법은 일반적이지 않다. 더욱이 동시에 단일 장치에서 다른 콘텐츠를 검색하는 복수의 사용자 시나리오를 다루기 위해 이용할 수 있는 시스템/방법은 일반적이지 않다.Therefore, not much is done to display web content in 3D. Also, the system/method that can be used to interact with 3D objects shown on the web is not generic. Moreover, systems/methods available to handle multiple user scenarios simultaneously retrieving different content from a single device are not common.
그러므로, 본 발명은 3D 공간에서 웹과 사용자 인터렉션을 가능하게 하는 시스템과 방법을 제공함에 있다.Therefore, the present invention is to provide a system and method for enabling user interaction with the web in 3D space.
상기 목적을 달성하기 위한 본 발명의 실시 예에 따른, 전자 장치의 인터렉션(interaction) 방법은 제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하는 단계; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계; 및 제2 화면에 상기 선택된 오브젝트 또는 선택된 오브젝트에 링크(linked)된 정보를 3D(3-dimensional) 형태로 디스플레이하는 단계;를 포함하는 인터렉션 방법일 수 있다.According to an embodiment of the present invention for achieving the above object, an interaction method of an electronic device includes: displaying web content including at least one object on a first screen; detecting selection of at least one object by the first user; and displaying the selected object or information linked to the selected object in a 3D (3-dimensional) form on a second screen; may be an interaction method comprising.
또한, 3D 형태로 디스플레이 하는 단계는 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 인터렉션 방법일 수 있다.In addition, the step of displaying in 3D form is an interaction of displaying the selected object or information linked to the selected object in 2D form, and converting the selected object in 2D form or information linked to the selected object in 2D form into 3D form could be a way
그리고, 제1 화면과 제2 화면은 깊이감이 형성되도록 배치되는 인터렉션 방법일 수 있다.In addition, the first screen and the second screen may be an interaction method in which a sense of depth is formed.
또한, 정보 소스(source)로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 인터렉션 방법일 수 있다. In addition, it may be an interaction method further comprising the step of retrieving information linked to the object selected from the information source (source).
그리고, 제2 화면과의 사용자 인터렉션을 감지하는 단계; 및 제3 화면에 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 다.And, detecting a user interaction with the second screen; and displaying the result of the interaction on a third screen.
또한, 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 인터렉션 방법일 수 있다.In addition, detecting selection of the additional object by the first user on the first screen; and an interaction method of displaying the additionally selected object or information linked to the additionally selected object on the fourth screen in a 3D form.
그리고, 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법일 수 있다.And, when the electronic device is in a plurality of user modes, the screen by the first user may be an interaction method characterized in that only the first user is shown.
또한, 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 인터렉션 방법일 수 있다.In addition, detecting an object selection by a second user on the first screen; and displaying the object selected by the second user or information linked to the object selected by the second user on the fifth screen in 3D form; may be an interaction method further comprising.
그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 전자 장치 인터렉션 방법일 수 있다.Also, when the mode of the electronic device is switched to the sharing mode, it may be an electronic device interaction method that enables interaction between the screen corresponding to the first user and the screen corresponding to the second user.
또한, 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법일 수 있다.In addition, the object may be an interaction method characterized in that it is one of an image, video, text, hyperlink, attachment, and multimedia.
본 발명의 또 다른 일 실시 예에 따른, 전자 장치는 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 디스플레이부; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및 감지부를 통해 적어도 하나의 오브젝트 선택이 감지되면, 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 프로세서;를 포함할 수 있다.According to another embodiment of the present invention, an electronic device includes: a display unit for displaying web content including at least one object on a first screen; a sensing unit configured to sense selection of at least one object by the first user; and a processor controlling the display unit to display the selected object or information linked to the selected object in a 3D form on the second screen when selection of at least one object is sensed through the sensing unit.
또한, 상기 프로세서는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 2D 형태의 선택된 오브젝트 또는 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어할 수 있다.In addition, the processor may control the display unit to display the selected object or information linked to the selected object in 2D form, and convert the selected object or information linked to the selected object in 2D form to 3D form to be displayed. .
그리고, 프로세서는 제1 화면과 제2 화면을 깊이감이 형성되도록 배치하여 디스플레이 하도록 디스플레이부를 제어할 수 있다..In addition, the processor may control the display unit to display the first screen and the second screen so as to form a sense of depth.
또한, 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.It is also possible to retrieve information linked to the selected object from the information source.
그리고, 프로세서는 제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고, 제3 화면에 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor may control the sensing unit to detect the user interaction with the second screen, and may control the display unit to display the result of the interaction on the third screen.
또한, 프로세서는 제1 화면에 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect the selection of the additional object by the first user on the first screen, and controls the display unit to display the additionally selected object or information linked to the additionally selected object on the fourth screen in 3D form. can
그리고, 프로세서는 전자 장치가 복수의 사용자 모드인 경우, 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, when the electronic device is in a plurality of user modes, the processor may control the display unit to display a screen by the first user only to the first user.
또한, 프로세서는 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고, 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect object selection by the second user on the first screen, and displays the object selected by the second user on the fifth screen or information linked to the object selected by the second user in 3D form The display unit may be controlled to display.
그리고, 상기 프로세서는, 상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고, 제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어할 수 있다.In addition, the processor controls the sensing unit to detect selection of the additional object by the first user on the first screen, and displays the additionally selected object or information linked to the additionally selected object on the fourth screen in 3D form The display unit may be controlled to display.
또한, 상기 프로세서는, 상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어할 수 있다.Also, when the electronic device is in a plurality of user modes, the processor may control the display unit to display the screen of the first user only to the first user.
그리고, 전자 장치의 모드가 공유 모드로 전환되면, 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능할 수 있다.In addition, when the mode of the electronic device is switched to the sharing mode, interaction between the screen corresponding to the first user and the screen corresponding to the second user may be possible.
또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 전자 장치일 수 있다.Also, the object may be an electronic device that is one of an image, video, text, hyperlink, attachment, and multimedia.
상술한 바와 같은 본 발명의 다양한 실시 예에 의해, 사용자에게 소비자 제품을 통한 3D 공간의 웹과의 인터렉션을 가능하게 하고, 복수의 사용자가 하나의 소비자 제품을 통하여 동시에 인터렉션 할 수 있도록 한다.According to various embodiments of the present invention as described above, it is possible to allow a user to interact with the web in 3D space through a consumer product, and to allow a plurality of users to interact simultaneously through a single consumer product.
본 발명과 그 이점의 더 완벽한 이해를 위해, 참조는 아래와 같이 첨부 도면과 상세한 설명과 관련된 도면의 간단한 설명을 위해 만들어지고 참조 번호는 부분을 나타낸다.
도 1은 본 발명의 일 실시 예에 따라 인터렉션 방법을 도시한다.
도 2는 적어도 하나의 오브젝트를 갖는 웹 페이지를 디스플레이하는 제1 화면을 도시한다.
도 3은 적어도 하나의 오브젝트를 갖는 이메일(e-mail)을 디스플레이하는 제1 화면을 도시한다.
도 4는 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 5는 2D 형태에서 3D 형태로 오브젝트를 전환하는 프로세스(process)를 도시한다.
도 6은 우안 이미지를 포함하는 드로잉(drawing) 버퍼(buffer), 좌안 이미지를 포함하는 드로잉 버퍼 및 선택된 오브젝트를 3D 형태로 디스플레이하는 제2 화면을 도시한다.
도 7은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치를 도시한다.
도 8은 깊이를 형성하기 위한 제1 화면과 제2 화면의 배치하기 위한 방법을 도시한다.
도 9A는 우안 이미지를 포함하는 드로잉 버퍼를, 도 9B는 좌안 이미지를 포함하는 드로잉 버퍼를, 도 9C는 3D 형태로 선택된 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 10A는 복수의 오브젝트를 포함하는 제1 화면을, 도 10B는 제1 화면으로부터 선택된 오브젝트에 링크(link)된 정보를 포함하는 제2 화면의 디스플레이를, 도 10C는 제2 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제3 화면의 디스플레이를, 도 10D는 제3 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 추가 화면의 디스플레이를 도시한다.
도 11A는 제1 사용자에 대한 제1 화면의 디스플레이를, 도 11B는 제1 사용자의 제1 화면에서 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 11C는 제1 사용자의 제1 화면으로부터 선택된 오브젝트에 링크된 정보를 포함하는 제4 화면의 디스플레이를 도시한다.
도 12A는 제1 사용자와 제2 사용자에 대한 제1 화면을, 도 12B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 도시한다.
도 13A는 제1 사용자, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 13B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 13C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면을 도시한다.
도 14A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이, 도 14B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 14C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 14D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를 도시한다.
도 15A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 15B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 15C는 오직 제2 사용자에 의해 시청될 수 있고 제1 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제5 화면의 디스플레이를, 도 15D는 오직 제2 사용자에 의해 시청될 수 있고 제5 화면에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제6 화면의 디스플레이를, 도 15E는 제2 사용자로부터 제1 사용자와의 제5 화면 공유에 관한 공유 명령을 감지하면 제1 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 16A는 제1, 제2 사용자에 대한 제1 화면의 디스플레이를, 도 16B는 오직 제1 사용자에 의해 시청될 수 있고, 제1 화면에서 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면의 디스플레이를, 도 16C는 제1 사용자로부터 제2 사용자와의 제2 화면 공유에 관한 공유 명령을 감지하면 제2 사용자에게 시청될 수 있는 새로운 화면의 생성 및 디스플레이를 도시한다.
도 17은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 18은 본 발명의 일 실시 예에 따른 3D 형태에서 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 것은 선택 사항인 인터렉션 방법을 도시한다.
도 19는 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 멀티미디어 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 20은 제1 화면에 대하여 깊이를 형성하기 위해 배치되고, 선택된 텍스트 오브젝트를 디스플레이하는 제2 화면을 도시한다.
도 21은 본 발명의 일 실시 예에 따른 인터렉션을 허락하는 시스템을 도시한다.
도 22는 도 17 또는 도 21 중 하나에 도시된 구체적인 시스템도를 도시한다.
도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법에 대해 설명하기 위한 흐름도이다.
도 24는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 간략히 나타내는 블럭도이다.For a more complete understanding of the present invention and its advantages, reference is made to the accompanying drawings and the accompanying drawings and detailed description for a brief description of the drawings, in which reference numerals indicate parts, as follows.
1 illustrates an interaction method according to an embodiment of the present invention.
2 illustrates a first screen for displaying a web page having at least one object.
3 illustrates a first screen for displaying an e-mail having at least one object.
4 illustrates a second screen for displaying the selected object in 3D form.
5 shows a process for converting an object from a 2D form to a 3D form.
6 illustrates a drawing buffer including a right eye image, a drawing buffer including a left eye image, and a second screen for displaying the selected object in 3D form.
7 shows the arrangement of the first screen and the second screen to form the depth.
8 shows a method for arranging a first screen and a second screen for forming depth.
9A illustrates a drawing buffer including a right eye image, FIG. 9B illustrates a drawing buffer including a left eye image, and FIG. 9C illustrates a second screen displaying a selected object in 3D form.
10A is a first screen including a plurality of objects, FIG. 10B is a display of a second screen including information linked to an object selected from the first screen, and FIG. 10C is a display of an object selected from the second screen. A display of a third screen including linked information, FIG. 10D illustrates a display of an additional screen including information linked to an object selected from the third screen.
11A is a display of the first screen for a first user, FIG. 11B is a display of a second screen including information linked to an object selected on the first screen of the first user, and FIG. 11C is a display of the first screen of the first user. A display of a fourth screen including information linked to an object selected from the first screen is shown.
12A is a first screen for a first user and a second user, and FIG. 12B is a second screen that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 2 shows the screen.
13A is a display of a first screen for a first user and a second user, and FIG. 13B includes information linked to an object that can be viewed only by the first user and is selected by the first user in the first screen 13C shows a fifth screen that can only be viewed by the second user and contains information linked to an object selected by the second user in the first screen.
14A is a display of a first screen for first and second users, and FIG. 14B is a second screen that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 14C is a display of a fifth screen that can only be viewed by a second user and includes information linked to an object selected by the second user in a first screen, and FIG. 14D is only a second screen display. It shows the display of the sixth screen that can be viewed by the user and that includes information linked to the object selected by the second user in the fifth screen.
15A is a display of a first screen for first and second users, and FIG. 15B is a diagram that can be viewed only by the first user and includes information linked to an object selected by the first user on the first screen. 15C is a display of a fifth screen that can be viewed only by the second user and includes information linked to an object selected by the second user in the first screen, and FIG. 15D is only the second screen. A display of a sixth screen that can be viewed by two users and that includes information linked to an object selected by the second user on the fifth screen, FIG. 15E is a diagram for sharing a fifth screen from a second user to a first user Upon detecting a share command regarding the creation and display of a new screen that can be viewed by the first user.
16A is a display of a first screen for first and second users, and FIG. 16B is a diagram that can be viewed only by the first user and includes information linked to an object selected by the first user in the first screen. Display of a second screen, FIG. 16C illustrates creation and display of a new screen that can be viewed by a second user when a sharing command for sharing a second screen with a second user is sensed from a first user.
17 illustrates a system for allowing an interaction according to an embodiment of the present invention.
18 illustrates an interaction method in which displaying the selected object or information linked to the selected object in a 3D form is optional according to an embodiment of the present invention.
19 shows a second screen that is arranged to form a depth with respect to the first screen and displays the selected multimedia object.
20 illustrates a second screen that is arranged to form a depth with respect to the first screen and displays the selected text object.
21 shows a system for allowing an interaction according to an embodiment of the present invention.
Fig. 22 shows a specific system diagram shown in either Fig. 17 or Fig. 21;
23 is a flowchart illustrating an interaction method according to an embodiment of the present invention.
24 is a block diagram schematically illustrating the configuration of an electronic device according to an embodiment of the present invention.
시작부터 비록 본 발명의 일 실시 예의 구현은 아래에 설명되어 있지만, 본 시스템은 현재 알려지거나 알려지지 않은 임의의 수의 기술을 사용하여 구현될 수 있다는 것이 이해되어야 한다. 본 발명은 본 명세서에서 묘사된 예시적인 디자인과 실시 예를 포함하는 예시적인 실시 예, 도면, 아래 설명된 기술에 한정되어야 하지만, 등가물들의 전체 범위와 함께 첨부된 청구항의 범위 내에서 변형 가능하다.From the start, although implementations of one embodiment of the present invention are described below, it should be understood that the present system may be implemented using any number of techniques, presently known or unknown. The invention should be limited to the illustrative embodiments, drawings, and description set forth below, including the illustrative designs and embodiments depicted herein, but may be modified within the scope of the appended claims along with the full scope of equivalents.
이동 전화, 개인 휴대 정보 단말기, 핸드헬드(handheld) 컴퓨터, 및 유사한 장치와 같은 핸드헬드 전자 장치는 핸드셋(handset)으로 지칭될 것이다. 데스크탑(desktop), 랩탑(laptop) 컴퓨터, 개인용 컴퓨터, 및 유사한 장치들은 컴퓨팅 장치로 지칭될 것이다. 디지털 TV(DTV), 프로젝터(projector), 및 유사한 장치들은 디스플레이 장치로 지칭될 것이다. 핸드셋과 디스플레이 장치는 소비자 제품으로 지칭될 것이다. 따라서, 본 발명은 3D 형태의 콘텐츠를 디스플레이하기 위해 3D 기술(유리(glass)와 함께 또는 없이)을 포함하는 일부 소비자 제품에서 시행될 수 있다.Handheld electronic devices such as mobile phones, personal digital assistants, handheld computers, and similar devices will be referred to as handsets. Desktops, laptops, personal computers, and similar devices will be referred to as computing devices. Digital TVs (DTVs), projectors, and similar devices will be referred to as display devices. Handsets and display devices will be referred to as consumer products. Accordingly, the present invention may be practiced in some consumer products that incorporate 3D technology (with or without glass) to display content in 3D form.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the scope of rights. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
실시예에 있어서 "모듈" 혹은 "부" 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In an embodiment, a “module” or “unit” performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware. can be
이하, 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.
도 1을 참조하면, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S102); 제1 사용자에 의해 적어도 하나의 오브젝트의 선택을 감지하는 단계(S104); 및 제2 화면에 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S106);를 포함하는 인터렉션 방법(100)이 제공된다.Referring to FIG. 1 , displaying web content including at least one object on a first screen (S102); detecting selection of at least one object by the first user (S104); and displaying the selected object or information linked to the selected object in 3D form on the second screen (S106);
본 발명의 일 실시 예에서, 제1 화면과 제2 화면은 깊이를 형성하기 위해 배치된다.In an embodiment of the present invention, the first screen and the second screen are arranged to form a depth.
본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S108)를 더 포함한다.In another embodiment of the present invention, the
또한, 인터렉션 방법(100)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S110)를 더 포함한다.In addition, the
또한, 인터렉션 방법(100)은 제1 사용자의 제2 화면과의 인터렉션을 감지하는 단계(S110)와 인터렉션 결과를 디스플레이하는 단계(S114)를 더 포함한다.In addition, the
본 발명의 다른 실시 예에서, 인터렉션의 결과는 제3 화면에 디스플레이된다.In another embodiment of the present invention, the result of the interaction is displayed on the third screen.
또한, 제3 화면은 제2 화면에 대한 깊이를 형성하기 위하여 배치된다.In addition, the third screen is arranged to form a depth with respect to the second screen.
본 발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의해 제1 화면으로부터 오브젝트의 선택을 감지하는 단계(S120) 및 제5 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계(S122)를 더 포함한다.In another embodiment of the present invention, the
또한, 인터렉션 방법(100)은 정보 소스로부터 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S124)를 더 포함한다.In addition, the
또한, 인터렉션 방법(100)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S126)를 더 포함한다.In addition, the
또한, 제1 화면과 제5 화면은 깊이를 형성하기 위해 배치된다.Also, the first screen and the fifth screen are arranged to form a depth.
발명의 또 다른 실시 예에서, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S128) 및 인터렉션의 결과를 디스플레이하는 단계(S130)를 포함한다. In another embodiment of the present invention, the
또한, 제2 사용자에 의한 제5 화면과의 인터렉션의 결과는 제6 화면에 디스플레이된다.In addition, a result of the second user's interaction with the fifth screen is displayed on the sixth screen.
또한, 제6 화면은 제5 화면의 깊이를 형성하기 위해 배치된다.In addition, the sixth screen is arranged to form the depth of the fifth screen.
또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능하게 하는 단계(S132)를 더 포함한다.In addition, the
또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어를 포함하는 그룹에서 선택된다.In addition, the object is selected from the group comprising images, videos, texts, hyperlinks, references, and multimedia.
상술한 바와 같이, 인터렉션 방법은 제1 화면에 웹 콘텐츠를 디스플레이하는 단계(S102)를 포함한다. 이제 도 2를 참조하면, 웹 페이지를 디스플레이하는 제1 화면(200)이 도시된다. 도 2에 도시된 바와 같이, 웹 페이지는 적어도 하나의 오브젝트를 포함하고, 웹 페이지는 3개의 오브젝트(202,204,206)를 포함한다. 여기서 오브젝트는 이미지(202), 비디오(204), 하이퍼링크(206)이다. As described above, the interaction method includes displaying the web content on the first screen (S102). Referring now to FIG. 2 , a
도 3을 살펴보면, 실시 예로 이메일(e-mail)을 디스플레이하는 제1 화면(300)이 도시된다. 이 경우, 이메일의 첨부파일은 오브젝트처럼 다루어질 수 있다. 예를 들어, 제1 화면(300)에 디스플레이되고 있는 이메일은 “text.doc”(302)이라는 제목의 제1 첨부파일과 멀티미디어(304)을 포함하도록 도시되고, “text.doc”(302)과 멀티미디어(304)는 오브젝트처럼 다루어질 수 있다. 제1 화면(300)이 웹 콘텐츠의 임의의 다른 유형으로 디스플레이될 수 있는 점을 주의할 수 있다. 또한, 웹 콘텐츠는 도 2 또는 도 3에 도시되지 않은 오브젝트의 다른 유형을 포함할 수 있다.Referring to FIG. 3 , a
인터렉션 방법(100)은 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 단계(S104)를 포함한다. 사용자 선택은 마우스, 키패드, 리모콘, 음성명령, 터치, 에어 제스처(air gesture) 등 중 어떠한 것으로부터 수신될 수 있다. 제1 화면이 도2에 도시된 바와 같은 웹 페이지를 디스플레이하고 있고, 사용자의 오브젝트(206)(즉, 하이퍼링크) 선택이 감지되었다고 가정해보면 선택의 결과가 제2 화면에 3D 형태로 디스플레이된다(S106). 제2 화면의 디스플레이는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보일 수 있다. 오브젝트(206)는 “WELCOME TO STEREOSCOPIC WORLD” 문구에 링크되고 있다고 가정하면, 도 4는 3D 형태로 앞선 문구를 디스플레이하고 있는 제2 화면(402)을 도시하고, 여기서 단어 “stereoscopic”은 문구의 다른 단어들에 비하여 제1 사용자와 더 가깝게 배치된다. 임의의 다른 3D 형태가 적용될 수 있다.The
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 인터렉션 방법(100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전화하는 단계(S108)를 더 포함한다. 도 5를 살펴보면, 2D 형태에서 3D 형태로 전환하는 한 실시 예의 프로세스(500)는 웹 콘텐츠 상의 오브젝트 선택 감지에 따른 웹 엔진에 의해 컨버터 모듈을 호출하는 단계(S502)를 포함한다.When the selected object or information linked to the selected object is in a 2D form, the
결과적으로 컨버터(converter) 모듈은 소비자 제품의 3D 디스플레이를 가능하게 한다(S504). 컨버터 모듈은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(drawing buffer) (좌안용 프레임(frame) 버퍼 및 우안용 프레임 버퍼)를 생성한다(S506). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S508). 그 후, 컨버터 모듈은 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다(S510). 그러나, 본 발명의 도5에 도시된 2D 형태에서 3D 형태로 전환하는 프로세스 외에 전환하기 위해 이용 가능한 다른 프로세스가 존재할 수 있다. As a result, the converter module enables 3D display of consumer products (S504). The converter module creates a double-sized drawing buffer (a frame buffer for the left eye and a frame buffer for the right eye) in order to support separate drawing for the frame for the left eye and the frame for the right eye (S506). A copy of the new web page/image/video (ie, object) is each rendered to half of the double-sized buffer (S508). Thereafter, the converter module combines the frame buffer for the left eye and the frame buffer for the right eye to create a 3D effect (S510). However, there may be other processes available for conversion other than the process for converting from 2D to 3D form shown in Fig. 5 of the present invention.
도 6을 살펴보면, 컨버터 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(positioning)(602)과 컨버터 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(positioning)(604)은 3D 형태로 상기 문구를 디스플레이하는 제2 화면에 도달하기 위해 도면번호 604에 도시된다(402).6, the positioning 602 of the right eye image of the drawing buffer drawn by the converter module and the
본 발명의 바람직한 실시 예에서, 제1 화면(200)과 제2 화면(402)은 깊이를 나타내기 위해 배치된다. 도 7에 도시된 바와 같이, 제2 화면(402)은 제1 화면(200)과 비교하여 사용자에 더 가깝게 나타난다. 3D 형태로 제2 화면(402)에 디스플레이되는 콘텐츠뿐 아니라 제2 화면(402) 또한 3D 형태로 디스플레이된다.In a preferred embodiment of the present invention, the
깊이를 형성하기 위해 제1 화면(200)과 제2 화면(402)을 배치하기 위하여, 인터렉션 방법(800)은 도 8에 도시된 바와 같이 일 실시 예의 방법일 수 있다. 인터렉션 방법(800)은 웹 콘텐츠 상의 오브젝트 선택을 감지하는 단계에 따른 웹 엔진에 의해 인터렉티브(interactive) 3D 윈도우를 호출하는 단계(S802)를 포함한다. In order to arrange the
결과적으로 인터렉티브 3D 모듈은 소비자 제품의 3D 디스플레이 모드를 가능하게 한다(S803). 인터렉티브 3D 모듈은 좌안용 및 우안용 프레임을 위한 분리된 드로잉을 지원하기 위해 더블 사이즈 드로잉 버퍼를 생성한다(S806). 새로운 웹 페이지/ 이미지/ 비디오 (즉, 오브젝트)의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더(render)된다(S808). 좌안용 프레임 버퍼와 우안용 프레임 버퍼는 3D 깊이 효과를 만들기 위해 결합된다(S810). 그러나 깊이를 나타내기 위해 제1 화면(200)과 제2 화면(402)을 배치하는 임의의 다른 대안의 프로세스가 적용될 수 있고, 본 발명은 도 8에 도시된 프로세스에 국한되는 것은 아니다.As a result, the interactive 3D module enables the 3D display mode of the consumer product (S803). The interactive 3D module creates a double-size drawing buffer to support separate drawing for frames for the left and right eyes (S806). A copy of the new web page/image/video (ie, object) is each rendered to half of the double-size buffer (S808). The frame buffer for the left eye and the frame buffer for the right eye are combined to create a 3D depth effect (S810). However, any other alternative process of arranging the
도 9 를 살펴보면, 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 우안 이미지의 포지셔닝(902)과 인터렉티브 3D 모듈에 의해 도안된 드로잉 버퍼의 좌안 이미지의 포지셔닝(904)은 도면부호 910에 도시된 바와 같이 마지막 디스플레이에 도달하기 위해 도면번호 906과 908에 도시된다. 도면번호 910에 제1 화면(200)과 제2 화면(402)이 깊이를 형성하기 위해 배치된다.Referring to FIG. 9 , the positioning 902 of the right eye image of the drawing buffer drawn by the interactive 3D module and the
앞서 살펴본 바와 같이, 인터렉션 방법(100)은 제1 사용자와 제2 화면의 인터렉션을 감지하는 단계(S112)와 인터렉션의 결과를 디스플레이하는 단계(S114)를 더 포함한다. 인터렉션의 결과는 제3 화면에 디스플레이 될 수 있고, 제3 화면은 제2 화면에 대한 깊이를 나타내기 위해 배치될 수 있다. 프로세스는 제3 화면에 대하여 반복될 수 있다.As described above, the
도 10에 도시된 바와 같이 본 발명의 일 실시 예에 따르면, 도 10A는 복수의 오브젝트 (202,204,206)를 포함하는 제1 화면을 나타낸다. 사용자가 오브젝트(206)를 선택한다고 가정하면, 선택된 오브젝트(206)에 링크된 정보는 도 10B에 도시된 바와 같이 제2 화면(402)에 디스플레이된다. 제2 화면이 적어도 하나의 오브젝트(1002,1004,1006)를 포함한다, 제1 사용자가 오브젝트(1002)를 선택한다고 가정하면, 도 10C에 도시된 바와 같이 선택된 오브젝트(1002)에 링크된 정보는 제3 화면(1008)에 디스플레이된다. 10C에 도시된 바와 같이, 제3 화면(1008)은 제2 화면(402)에 대한 깊이를 나타내기 위해 배치된다. 이와 같은 프로세스는 더 반복될 수 있다. 특히, 제3 화면(1008)이 적어도 하나의 오브젝트를 포함하고 있다면, 제3 화면(1008)의 오브젝트 선택은 추가적인 화면에 선택의 결과가 디스플레이 될 수 있다. 도 10C는 제3 화면(1008)이 세 개의 오브젝트(1010,1012,1014)를 포함하는 것을 도시한다. 사용자가 오브젝트(1012)를 선택한다고 가정하면, 선택된 오브젝트(1012)에 링크된 정보는 도 10D에 도시된 바와 같이 추가적인 화면(1016)에 디스플레이된다.As shown in FIG. 10 , according to an embodiment of the present invention, FIG. 10A shows a first screen including a plurality of
몇몇 예에서, 제2 화면과의 사용자 인터렉션은 제3 화면의 오프닝(opening) 대신, 제2 화면에 디스플레이될 수 있다. 예를 들어, 제2 화면이 이미지나 텍스트를 디스플레이하고 있고, 인터렉션은 디스플레이되고 있는 이미지나 텍스트의 크기를 키우는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.In some examples, the user interaction with the second screen may be displayed on the second screen instead of the opening of the third screen. For example, if the second screen displays an image or text, and the interaction increases the size of the image or text being displayed, the result of the interaction may be displayed on the second screen instead of opening the third screen.
또한, 제2 화면이 이미지를 디스플레이하고 있고, 인터렉션은 디스플레이되는 이미지를 회전시키는 것이라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다.Also, if the second screen is displaying an image and the interaction is to rotate the displayed image, the result of the interaction may be displayed on the second screen instead of opening the third screen.
또한, 만약 제2 화면이 비디오를 디스플레이하고 있고, 인터렉션은 재생, 정지 등 중 임의의 하나라면, 인터렉션의 결과는 제3 화면의 오프닝 대신 제2 화면에서 디스플레이될 수 있다. 그러므로, 추가 창에 인터렉션의 결과를 디스플레이하는 것은 같은 화면에 결과를 디스플레이 하는 것을 포함한다.Also, if the second screen is displaying a video and the interaction is any one of play, pause, etc., the result of the interaction may be displayed on the second screen instead of opening the third screen. Therefore, displaying the result of the interaction in the additional window includes displaying the result in the same screen.
또한, 인터렉션 방법(100)은 제1 화면(202)에서 제1 사용자에 의한 추가 오브젝트 선택을 감지하는 단계(S116)와 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하는 단계(S118)를 더 포함한다. 이는 도 11에 도시된다.In addition, the
도 11A를 살펴보면, 제1 화면(200)은 제1 사용자에게 디스플레이 된다. 제1 화면(200)에서 오브젝트(202) 선택이 감지된다고 가정하면, 도 11B에 도시된 바와 같이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면(402)이 제1 사용자에게 디스플레이된다.Referring to FIG. 11A , the
이 시점에서, 인터렉션 방법(100)은 제1 사용자가 제1 화면(200) 또는 제2 화면(402) 중 하나를 더 선택하도록 할 수 있다. 만약 제1 사용자가 제1 화면(200)에서 추가 오브젝트를 선택한다면, 인터렉션 방법(100)은 추가 선택을 감지한다. 오브젝트(206)의 선택이 감지되었다고 가정하면, 인터렉션 방법(100)은 도 11C에 도시된 바와 같이 제4 화면(1102)에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 수행한다.At this point, the
또한, 복수의 사용자 소비자 제품의 경우, (즉, 독립된 방법으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품) 도 12A에 도시된 인터렉션 방법은 제1 화면(200)에 제1 사용자와 제2 사용자의 시청을 위해 웹 콘텐츠를 디스플레이하는 단계를 포함한다.Further, in the case of a multi-user consumer product (ie, a consumer product capable of being controlled by a plurality of users in an independent manner and capable of displaying an image in 3D form), the interaction method shown in FIG. 12A is the
제1 사용자가 제1 화면(200)에서 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 12B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402) (제1 사용자에 의해 시청되는)의 콘텐츠는 3D 형태일 수 있다. 더욱이, 제1 사용자에게, 제2 화면(402)은 제1 화면(200)과 비교하여 가깝게 나타날 수 있다. If it is assumed that the first user selects an object on the
또한, 인터렉션 방법(100)은 제1 화면으로부터 제2 사용자에 의한 오브젝트 선택을 감지하는 단계(S120)와 제5 화면에3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크되는 정보를 디스플레이하는 단계(S122)를 더 포함한다.In addition, the
도 13A에 도시된 바와 같이, 인터렉션 방법(100)은 예를 들어, 제1 사용자와 제2 사용자의 시청을 위해 제1 화면(200)에 웹 콘텐츠를 디스플레이하는 단계를 포함한다.As shown in FIG. 13A , the
제1 사용자가 제1 화면(200)으로부터 오브젝트를 선택하고 복수의 사용자 모드가 ON 상태이고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 13B에 도시된 바와 같이 제2 화면(402)은 오직 제1 사용자에게만 보여질 수 있다. 제2 사용자는 제2 화면(402)으로부터 어떠한 방해 없이 제1 화면(200) 시청을 계속할 수 있다. 제2 화면(402)의 콘텐츠는 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제 1 화면(200)과 비교하여 가깝게 나타날 수 있다. It is assumed that the first user selects an object from the
제2 사용자가 제1 화면(200)으로부터 오브젝트를 선택한다고 가정하면, 도 13C에 도시된 바와 같이, 제3 사용자에게만 시청될 수 있는 제5 화면(1302)이 열린다. 제1 사용자는 제5 화면(1302)에 의한 어떤 방해 없이 제2 화면(402) 시청을 계속할 수 있다. 제1 사용자와 제2 사용자 모두에게, 제1 화면(200)은 배경으로 나타날 수 있다. 제2 화면(402)(제1 사용자에게 시청되는)의 콘텐츠와 제5 화면(1302)(제2 사용자에게 시청되는)은 3D 형태일 수 있다. 더욱이 제1 사용자에게 제2 화면(402)은 제1 화면(200)보다 가깝게 나타날 수 있다. 제2 사용자에게 제5 화면(1302)은 제1 화면(200)보다 가깝게 나타날 수 있다.Assuming that the second user selects an object from the
또한, 인터렉션 방법(100)은 제2 사용자에 의한 제5 화면(1302)과의 추가 인터렉션을 감지하는 단계(S128) 및 상기 인터렉션 결과를 디스플레이하는 단계(S130)를 더 포함할 수 있다. 이는 도 14에 도시된다.In addition, the
여기서 도 14A, 14B, 14C는 도 13A, 13B, 13C와 유사하다. Here, Figures 14A, 14B, 14C are similar to Figures 13A, 13B, 13C.
도 14D를 살펴본다. 제2 사용자가 제5 화면(1302)에 디스플레이되는 오브젝트를 선택한다고 가정하면, 제2 사용자에 의한 오브젝트 선택이 감지되고, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제6 화면(1402)에 디스플레이된다. 본 발명의 바람직한 실시 예에서, 제6 화면(1402)은 제5 화면(1302)에 대한 깊이를 형성하기 위해 배치된다.Look at Figure 14D. Assuming that the second user selects an object displayed on the
또한, 인터렉션 방법(100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S132)를 더 포함한다. 이는 도 15에 도시된다.In addition, the
여기서, 도 15A, 15B, 15C, 15D는 도 14A, 14B, 14C, 14D와 유사하다. Here, Figs. 15A, 15B, 15C, 15D are similar to Figs. 14A, 14B, 14C, 14D.
도 15D와 15E를 살펴보면, 인터렉션 방법(100)은 제1 사용자와 함께 제5 화면(1402)의 제2 사용자 공유를 감지하는 단계를 더 포함한다. 상기 감지에 따라, 인터렉션 방법(100)은 제1 사용자에게 보여질 수 있는 새로운 화면(1502)을 생성하고, 생성된 새로운 화면(1502)에 제5 화면(1402)의 콘텐츠를 디스플레이한다.15D and 15E , the
도 16을 살펴보면, 도 15에 도시된 방식과 유사한 방식이지만 역으로 도시된다. Referring to FIG. 16 , a scheme similar to that shown in FIG. 15 , but reversed.
도 16A를 살펴보면 제1 사용자와 제2 사용자에 대한 제1 화면(200)의 디스플레이를 도시한다. 제1 사용자에서 오브젝트 선택이 감지되고, 복수의 사용자 모드가 ON 상태이며, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면(402)에 디스플레이 된다고 가정하면, 도 16B에 도시된 바와 같이 제2 화면(402)은 제1 사용자에게만 보여질 수 있다.Referring to FIG. 16A , the display of the
제2 사용자가 제1 화면(200)의 시청을 계속하고 있고, 제1 사용자로부터 제2 사용자와 함께 제2 화면(402)의 공유 명령이 감지된다고 가정하면, 인터렉션 방법(100)은 새로운 화면(1602)을 생성하고 상기 화면(1602)에 제2 화면(402)의 콘텐츠를 디스플레이한다. 또한 공유 명령 감지에 따라, 제1 사용자와 제2 사용자에 의해 보여질 수 있는 단일의 화면이 생성되는 것이 가능하다.Assuming that the second user continues to watch the
하나 또는 그 이상의 화면 각각은 그래피컬(graphical) 사용자 인터페이스로 해석될 수 있으므로, 본 발명의 일 실시 예에서, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면과 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링트된 정보를 디스플레이하는 제2 화면을 포함하는 그래피컬 사용자 인터페이스가 제공되는 것은 주목할 만 하다.Since each of the one or more screens may be interpreted as a graphical user interface, in an embodiment of the present invention, the first screen for displaying web content including at least one object and the selected object or selected object in 3D form It is noteworthy that a graphical user interface including a second screen for displaying information linked to an object is provided.
이제 시스템의 측면을 살펴보면, 앞서 기재된 방법은 도 17에 도시된 바와 같이 시스템으로 수행될 수 있다. 본 명세서에 기재된 시스템은 전자장치에서 구현될 수 있다. 이하 살펴볼 바와 같이 도 23 24Turning now to an aspect of the system, the method described above may be performed with the system as shown in FIG. 17 . The system described herein may be implemented in an electronic device. 23 24 as will be seen below.
이제 도 17을 살펴보면, 앞서 기재된 발명을 수행하는 시스템(1700)은 웹 콘텐츠(1702)를 수신하고 저장하는 모듈을 포함하고, 이 모듈은 웹 브라우저 또는 사용자 인터페이스(UI) 모듈(1704)에 기초한 웹에 효력이 있게 링크된다. 웹 브라우저 또는 UI에 기초한 웹 모듈(1702)은 추가적으로 웹 엔진(1706) 및 디스플레이 버퍼(1708)에 링크된다. Referring now to FIG. 17 , a
본 발명의 바람직한 실시 예에 따라, 웹 엔진(1706)은 사용자에 의한 감지를 수행할 수 있다.According to a preferred embodiment of the present invention, the
본 발명의 바람직한 실시 예에 따라, 시스템(1700)은 선택된 앞서 묘사된 바와 같은 프로세스를 수행하기 함으로써 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D에서 3D 형태로 전환하는 컨버터(converter) 모듈을 더 포함한다. 시스템(1700)은 깊이를 나타내기 위한 제1 화면(200)과 제2 화면(402)을 배치를 위해 인터렉티브 3D 윈도우 모듈(1712)을 더 포함한다.According to a preferred embodiment of the present invention, the
본 발명의 인터렉션 방법(100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태를 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공한다.The method of
앞서 상술한 실시 예에서, 인터렉션 방법은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다. 언급된 측면에 있어, 제2 화면과 제3 화면 각각은 제1 화면에 대한 깊이를 형성하기 위해 배치된다. 부가적으로, 인터렉션 방법은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계와 상기 인터렉션 결과를 제5 화면에 디스플레이하는 단계;를 포함한다.In the above-described embodiment, the interaction method further includes converting the selected object or information linked to the selected object from a 2D form to a 3D form. In the aspect mentioned, each of the second screen and the third screen is arranged to form a depth with respect to the first screen. Additionally, the interaction method may include detecting an interaction with a second screen by a first user and displaying a result of the interaction on a fourth screen; and/or detecting an interaction with the third screen by the second user and displaying the interaction result on the fifth screen.
앞서 상술한 실시 예에 따르면, 본 발명은 웹 콘텐츠를 디스플레이하는 제1 화면, 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의해 선택된 3D 형태로 제1 사용자에 의해 선택된 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하는 그래피컬 사용자 인터페이스를 더 제공한다.According to the above-described embodiment, the present invention provides a first screen for displaying web content, the web content including at least one object; a second screen for displaying an object selected by the first user or information linked to the object selected by the first user in a 3D form selected by the first user; It further provides a graphical user interface including a third screen for displaying an object selected by a second user in a 3D form or information linked to the object selected by the second user.
상술한 방법을 수행하기 위해, 본 발명은 추가적으로 제1 화면에 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진(engine), 적어도 하나의 오브젝트를 포함하는 상기 웹 콘텐츠; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 상기 제1 사용자에 의해 선택된 상기 오브젝트 또는 상기 제1 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하고, 제3 화면에 상기 제2 사용자에 의해 선택된 상기 오브젝트 또는 상기 제2 사용자에 의해 선택된 상기 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈; 을 포함하는 인터렉션 시스템을 제공한다.In order to perform the above method, the present invention further provides a user interface engine configured to display web content on a first screen, the web content including at least one object; a sensing module configured to detect selection of the at least one object by the first user and detect selection of the at least one object by the second user; and displaying the object selected by the first user or information linked to the object selected by the first user on a second screen, and the object selected by the second user or the second user on a third screen an interactive 3D module configured to display information linked to the object selected by ; It provides an interaction system that includes
앞서 묘사된 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 적절한 화면(예를 들어 제2, 제3, 제4, 제5 또는 제6 화면)에 3D 형태로 디스플레이된다. 대안의 실시 예에서, 제2, 제3, 제4, 제5 또는 제6 화면은 제1 화면에 대한 깊이를 형성하기 위해 배치될 수 있는 점과 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보는 3D 형태로 디스플레이될 필요가 없는 점은 주목할 만 하다. 그러면, 다음 단락에서 상세하게 설명한다. 이 실시 예에서, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태를 디스플레이하는 점은 필수적이 선택이 아니라 선택할 수 있는 선택이 된다.In the embodiment described above, the selected object or information linked to the selected object is displayed in 3D form on an appropriate screen (eg, second, third, fourth, fifth or sixth screen). In an alternative embodiment, the second, third, fourth, fifth or sixth screen may be positioned to form a depth for the first screen, and the selected object or information linked to the selected object is in 3D form. It is noteworthy that it does not need to be displayed as . Then, it will be described in detail in the next paragraph. In this embodiment, the point of displaying the selected object or information linked to the selected object in 3D form is not necessarily a choice but a selectable choice.
도 18에 도시된 본 발명의 일 실시 예에 따르면, 인터렉션 방법(1800)은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계(S1802); 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계(S1804); 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 포함하는 제2 화면을 디스플레이하는 단계(S1806), 제1 화면에 대한 깊이를 나타내기 위해 배치되는 제2 보기창을 포함한다.According to an embodiment of the present invention shown in FIG. 18 , the
본 발명의 또 다른 실시 예에 따르면, 인터렉션 방법(1800)은 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1808)를 더 포함한다.According to another embodiment of the present invention, the
본 발명의 일 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하는 반면, 본 발명의 또 다른 실시 예에 따르면, 제2 화면은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이한다.According to an embodiment of the present invention, the second screen displays the selected object or information linked to the selected object in 2D form, whereas according to another embodiment of the present invention, the second screen displays the selected object or information linked to the selected object. Linked information is displayed in 3D form.
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 사용자가 제1 화면이 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 한다면, 인터렉션 방법(1800)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1810)를 더 포함한다.When the selected object or information linked to the selected object is in a 2D form, if the user allows the first screen to display the selected object or information linked to the selected object in 3D form, the
본 발명의 또 다른 일 실시 예에 따르면, 인터렉션 방법(1800)은 사용자와 제2 화면의 인터렉션을 감지하는 단계(S1812) 및 인터렉션의 결과를 디스플레이하는 단계(S1814)를 더 포함한다. 바람직한 실시 예에 있어서, 상기 인터렉션의 결과는 제3 화면에 디스플레이된다. 더 바람직한 실시 예에 있어서, 제3 화면은 제2 화면에 대하여 깊이를 형성하기 위해 배치된다. According to another embodiment of the present invention, the
또한, 인터렉션 방법(1800)은 제1 화면에서 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계(S1816) 및 제4 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1818)를 더 포함하고, 제4 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다. 본 발명의 실시 예에 따르면, 제4 화면은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된다.In addition, the
또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제1 화면에서 오브젝트 선택을 감지하는 단계(S1820) 및 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 단계(S1822)를 더 포함하고, 제5 화면은 제1 화면에 대한 깊이를 나타내기 위해 배치된다.In addition, the
또한, 인터렉션 방법(1800)은 정보 소스에서 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 검색하는 단계(S1824)를 더 포함한다.Also, the
본 발명의 일 실시 예에 따르면, 제5 화면은 2D 또는 3D 형태로 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이한다. 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 만약 제2 사용자가 제5 화면에 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하길 원한다면, 인터렉션 방법(1800)은 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계(S1826)를 더 포함한다.According to an embodiment of the present invention, the fifth screen displays the object selected by the second user or information linked to the object selected by the second user in a 2D or 3D form. When the object selected by the second user or information linked to the object selected by the second user is in a 2D form, if the second user enters the object selected by the second user or the object selected by the second user on the fifth screen If it is desired to display the linked information in 3D form, the
또한, 인터렉션 방법(1800)은 제2 사용자에 의한 제5 화면과의 추가 인터렉션을 감지하는 단계(S1828) 및 인터렉션의 결과를 디스플레이하는 단계(S1830)를 더 포함한다. 바람직한 측면에서, 상기 인터렉션의 결과는 제6 화면에 디스플레이된다. 더 바람직한 측면에서, 제6 화면은 제5 화면에 대하여 깊이를 형성하기 위하여 배치된다.In addition, the
또한, 인터렉션 방법(1800)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계(S1832)를 더 포함한다.In addition, the
앞서 상술한 인터렉션(1800) 방법의 측면은 도 19에 도시된다. 도 3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고, 제1 화면(300)에 포함된 첨부파일인 멀티미디어를 디스플레이하는 제2 화면(1902)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(1902)과 함께 디스플레이된다. An aspect of the above-described
이와 같이, 도 20에서, 도3에 도시된 바와 같이 이 메일을 디스플레이하는 제1 화면(300)이 취해지고 제1 화면(300)에 포함된 첨부파일인 텍스트를 디스플레이하는 제2 화면(2002)은 제1 화면(300)에 대하여 깊이를 형성하기 위해 배치된 제2 화면(2002)과 함께 디스플레이된다.In this way, in FIG. 20 , as shown in FIG. 3 , a
앞서 상술한 인터렉션 방법(1800)이 구현되면, 적어도 하나의 오브젝트(302,304)를 포함하는 웹 콘텐츠(300)를 디스플레이하는 제1 화면; 및 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면(1902,2002)을 포함하는 그래피컬 사용자 인터페이스가 획득되고, 제2 화면(1902,2002)은 제1 화면(300)에 대한 깊이를 형성하기 위해 배치된다.When the above-described
앞서 상술한 인터렉션 방법(1800)을 구현하기 위하여, 본 발명은 제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제2 화면에 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 구성된 인터렉티브 3D 모듈을 더 제공하고, 제2 화면은 제1 화면에 대하여 깊이를 나타내기 위해 배치된다.In order to implement the above-described
본 발명의 일 실시 예의 바람직한 측면에서, 시스템(2100)은 도 21에 도시되고 웹 콘텐츠를 검색하고 저장하기 위한 모듈(2102)을 포함한다. 이는 동작 가능하게 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹에 연결된다. 웹 브라우저 또는 UI 모듈(2104)에 기반한 웹은 추가적으로 웹 엔진(2106)과 디스플레이 버퍼(2108)에 연결된다. 본 발명의 일 실시 예의 바람직한 측면에서, 웹 엔진(2106)은 사용자에 의한 선택의 감지를 수행할 수 있다. 또한, 시스템(2100)은 깊이를 형성하기 위해 제1 화면과 제2 화면을 배치하기 위한 인터렉티브 3D 윈도우 모듈(2110)을 더 포함한다.In a preferred aspect of one embodiment of the present invention,
인터렉티브 3D 윈도우 모듈(2110)은 또한 원하는 창에 대한 원하는 깊이를 형성하기 위해 추가적인 화면을 배치한다. 예를 들어, 인터렉티브 3D 윈도우 모듈(2110)은 제2 화면에 대하여 깊이감이 형성되도록 제3 화면을 배치하고, 제5 화면에 관하여 깊이를 형성하기 위하여 제4 화면을 배치하고, 제1 화면에 대하여 깊이감이 형성되도록 제5 화면을 배치하고, 제5 화면에 대하여 깊이감이 형성되도록 제6 화면을 배치한다.The interactive
본 발명의 방법(2100)은 독립적인 방식으로 복수의 사용자에 의해 제어될 수 있고 3D 형태로 이미지를 디스플레이할 수 있는 소비자 제품인 다수의 사용자가 이용 가능한 소비자 제품에 이익적으로 수행될 수 있다. 때문에, 본 발명은 또한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하는 단계; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제2 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하는 단계; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제2 화면에 디스플레이하는 단계; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 제3 화면에 디스플레이하는 단계;를 포함하는 인터렉션 방법을 제공하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고, 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.
본 발명의 또 다른 실시 예에 따르면, 제1 화면과 제3 화면 각각은 2D 또는 3D 형태로 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이한다.According to another embodiment of the present invention, each of the first screen and the third screen displays a selected object or information linked to the selected object in a 2D or 3D form.
또한, 인터렉션 방법(2100)은 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 2D 형태에서 3D 형태로 전환하는 단계를 더 포함한다.In addition, the
또한, 인터렉션 방법(2100)은 제1 사용자에 의한 제2 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제4 화면에 디스플레이하는 단계; 및/또는 제2 사용자에 의한 제3 화면과의 인터렉션을 감지하는 단계 및 인터렉션의 결과를 제5 화면에 디스플레이하는 단계를 더 포함한다.In addition, the
본 발명의 실시 예에 따르면, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면과 제2 사용자에 대응하는 화면 사이의 인터렉션을 허락하는 단계를 더 포함한다. 바람직한 예에서, 인터렉션 방법(2100)은 제1 사용자에 대응하는 화면을 제2 사용자와 공유하거나 제2 사용자에 대응하는 화면을 제1 사용자와 공유하는 것을 허락하는 단계를 포함한다.According to an embodiment of the present invention, the
또한, 일단 상술한 인터렉션 방법(2100)이 실행되면, 그래피컬 사용자 인터페이스가 생성되고, 그래피컬 사용자 인터페이스는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면; 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제2 화면; 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 디스플레이하는 제3 화면을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이며 제2 화면과 제3 화면 각각은 제1 화면에 대하여 깊이를 형성하기 위해 배치된다.In addition, once the above-described
본 발명의 일 실시 예에 따르면, 앞서 상술한 인터렉션 방법(2100)을 수행하기 위한 시스템은 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이하도록 구성된 사용자 인터페이스 엔진; 제1 사용자에 의한 적어도 하나의 오브젝트 선택을 감지하고 제2 사용자에 의해 선택된 적어도 하나의 오브젝트 선택을 감지하도록 구성된 감지 모듈; 및 제1 사용자에 의해 선택된 오브젝트 또는 제1 사용자에 의해 선택된 오브젝트에 링크된 정보를 제2 화면에 디스플레이하고, 제2 사용자에 의해 선택된 오브젝트 또는 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 제3 화면에 디스플레이하도록 구성된 인터렉티브 3D 모듈을 포함하고, 제2 화면과 제3 화면은 적어도 부분적으로 비 중첩적이고 제2 화면과 제3 보기창 각각은 제1 화면에 대하여 깊이를 형성하기 위하여 배치된다.According to an embodiment of the present invention, a system for performing the above-described
도 11 및 도 21이 시스템의 블록도를 묘사하는 반면에, 컴퓨터 시스템(2200)의 형태로 시스템의 하드웨어 구성은 도 22에 도시된다.While FIGS. 11 and 21 depict block diagrams of the system, the hardware configuration of the system in the form of
컴퓨터 시스템(2200)은 컴퓨터 시스템(2200)에 개시된 인터렉션 방법(100) 중 하나 이상을 수행하도록 하기 위하여 실행될 수 있는 명령어 세트를 포함할 수 있다. 컴퓨터 시스템(2200)은 예를 들어 네트워크를 사용하여 다른 컴퓨터 시스템 또는 주변 장치들과 연결되거나 또는 독립된 장치로 동작할 수 있다.
네트워크 구축에서, 컴퓨터 시스템(2200)은 서버의 용량에서 또는 서버-클라이언트 네트워크 환경에서 클라이언트 사용자 컴퓨터로서 동작하거나, 또는 peer-to-peer(또는 분산형) 네트워크 환경에서 peer 컴퓨터 시스템으로서 동작한다. 컴퓨터 시스템(2200)은 또한 PC(personal computer), 태블릿 PC, 셋탑 박스(STB), 개인용 휴대 정보 단말기(PDA), 모바일 장치, 팜탑 컴퓨터(palmtop), 랩탑 컴퓨터, 데스크탑 컴퓨터, 통신 장치, 무선 전화기, 랜선 전화기, 제어 시스템, 카메라, 스캐너, 팩시밀리, 프린터, 페이저, 개인 신뢰 장치, 웹 어플라이언스(web appliance), 네트워크 라우터(router), 스위치 또는 브릿지(bridge), 또는 상기 기계들에 의해 취해지는 특정 액션의 지정의 명령 세트를 실행할 수 있는 임의의 기타 장치들로 실행될 수 있다. 더욱이, 단일의 컴퓨터 시스템(2200)이 도시되지만, “시스템” 용어는 또한 하나 또는 그 이상의 컴퓨터 기능을 수행하도록 하는 명령을 개별적으로 또는 공동으로 하나 또는 복수의 세트를 실행하는 시스템 또는 서브 시스템의 임의의 모음을 포함하여 취해질 수 있다. In a network implementation,
컴퓨터 시스템(2200)은 프로세서(2202)(예를 들어, CPU(central processing unit), GPU(graphics processing unit) 또는 둘 다)를 포함할 수 있다. 프로세서(2202)는 다양한 시스템의 구성일 수 있다. 예를 들어, 프로세서(2202)는 표준 개인용 컴퓨터 또는 워크스테이션(workstation)의 일부일 수 있다. 프로세서(2202)는 하나 또는 그 이상의 일반 프로세서, 디지털 신호 프로세서, 주문형 집적 회로 필드 프로그래머블 게이트 어레이(field programmable gate arrays), 서버, 네트워크, 디지털 회로, 아날로그 회로, 이들의 조합 또는 데이터를 분석하고 처리하기 위한 현재 또는 나중에 개발될 장치일 수 있다. 프로세서(2202)는 수동으로 생성된 코드, 소프트웨어 프로그램을 구현할 수 있다(즉, 프로그래밍).The
컴퓨터 시스템(2200)은 버스(2208)를 통해 통신할 수 있는 메모리(2204)를 포함한다. 메모리(2204)는 주 메모리, 정적 메모리 또는 동적 메모리 일 수 있다. 메모리(2204)는 비휘발성 및 휘발성 저장 매체와 같은 다양한 형태의 컴퓨터 판독 가능 저장 매체를 포함하지만 제한되지 않고, 읽기 전용 메모리, 프로그레머블(programmable) 읽기 전용 메모리, 전자적으로 프로그램 가능한 판독 전용 메모리, 전기적으로 소거 가능한 판독 전용 메모리, 플래시 메모리, 자기 디스크 또는 테이프, 광학 디스크 등을 포함하지만 제한되지 않는다. 한 예로, 메모리(2204)는 프로세서(2202)를 위한 캐시(cache) 또는 액세스(access) 메모리를 포함한다. 대안적인 실시 예에서, 메모리(2204)는 프로세서(2202)의 캐시 메모리, 시스템 메모리, 또는 기타 메모리와 같이 프로세서(2202)에서 분리된다. 메모리(2204)는 외부 저장 장치 또는 데이터를 저장하기 위한 데이터 베이스일 수 있다. 예들은 하드 드라이브, CD(compact disc), 디지털 비디오 디스크(DVD), 메모리 카드(memory card), 메모리 스틱(memory stick), 플로피 디스크(floppy disc), USB(universal serial bus), 메모리 장치 또는 데이터를 저장하기 위해 동작하는 임의의 기타 장치를 포함한다. The
메모리(2204)는 프로세서(2202)에 의해 실행 가능한 명령들을 저장하도록 동작 가능하다. 도면에 도시된 기능(function), 작용(act), 테스크(task)는 메모리(2204)에 저장된 명령을 수행하는 프로그램이 된 프로세서(2202)에 의해 수행될 수 있다. 기능, 작용, 테스크는 명령어 세트, 저장 매체, 프로세서 또는 프로세싱 전략의 특정 형태와 무관하고, 단독 또는 조합으로 동작하는 소프트웨어, 하드웨어, 집적 회로, 펌웨어(firm-ware), 마이크로 코드(micro-code) 등에 의해 수행될 수 있다. 이와 같이, 프로세싱 전략은 멀티 프로세싱(multiprocessing), 멀티 태스킹(multitasking), 병렬 프로세싱(parallel processing) 등을 포함할 수 있다.
도시된 바와 같이, 컴퓨터 시스템(2200)은 액정 표시 장치(LCD), OLED(organic light emitting diode), 평면 패널 디스플레이(a flat panel display), 고체 상태 디스플레이, 음극선 관(CRT), 프로젝터, 프린터, 또는 기타 판단된 정보를 출력하기 위한 현재 알려지거나 또는 후에 개발된 디스플레이 장치와 같은 디스플레이부(2208)을 더 포함하거나 포함하지 않을 수 있다.As shown,
디스플레이부(2208)는 사용자가 프로세서(2202)의 기능을 볼 수 있도록 인터페이스로서 작용할 수 있다. 구체적으로, 디스플레이부(2208)는 메모리(2204)나 구동부(2212)에 저장된 소프트웨어와 함께 인터페이스로서 작용할 수 있다.The
디스플레이부(2208)는 3D 형태로 이미지를 디스플레이할 수 있어야 한다. 부가적으로 디스플레이부(2208)는 복수의 사용자 시청 및 제어가 될 수 있다. 이러한 디스플레이부(2208)의 예는 http://www.theverge.com/2012/8/31/3282583/samsung-oled-tv-multi-view-hands-on-video 및 http://www.youtube.com/watch?v=88_LCrnLvVk에서 보여진다.The
부가적으로, 컴퓨터 시스템(2200)은 사용자가 컴퓨터 시스템(2200)의 임의의 구성과의 인터렉션을 허락하도록 구성된 입력 장치(2210)를 포함할 수 있다. 입력 장치(2210)는 숫자 키패드, 키보드, 또는 마우스 도는 조이스틱 같은 커서 제어 장치, 터치 스크린 디스플레이, 리모콘, 공기 제스처 수신기, 음성 명령 수신기, 또는 컴퓨터 시스템(2200)과 인터렉션 하도록 작동하는 기타 임의의 장치일 수 있다.Additionally,
컴퓨터 시스템(2200)은 또한 디스크 또는 광학 구동부(2212)를 포함할 수 있다. 디스크 또는 광학 구동부(2212)는 하나 또는 그 이상의 명령어 세트(2216)가 내장될 수 있는(예를 들어, 소프트웨어) CMR(computer-readable medium)을 포함할 수 있다. 더욱이, 설명된 바와 같이, 명령(2216)은 하나 또는 그 이상의 방법 또는 로직을 구현할 수 있다. 특정 예에서, 명령(2216)은 컴퓨터 시스템(2200)에 의한 실행 동안 완전히 또는 적어도 부분적으로 프로세서(2202) 또는 메모리(2204) 내에 있다. 메모리(2204)와 프로세서(2202)는 또한 전술한 바와 같이 컴퓨터 판독 가능 매체를 포함할 수 있다.
본 발명은 네트워크(2220)에 연결된 장치는 보이스, 비디오, 오디오, 이미지 또는 네트워크를 통한 임의의 기타 데이터와 통신하기 위하여 명령(2216)을 포함하거나 전파된 신호에 응답하여 명령(2216)을 수신하고 실행하는 컴퓨터 판독 가능 매체(2214)를 고려한다. 더욱이, 명령(2216)은 네트워크(2220)를 통해, 통신 포트(port) 또는 인터페이스(2218)을 통해, 또는 버스 바(bus bar)(2206)를 통해 전송 또는 수신될 수 있다. The present invention provides that a device coupled to the
통신 포트 또는 인터페이스(2218)는 프로세서(2202)의 일부분이거나 분리된 구성일 수 있다. 통신 포트(2218)은 소프트웨어에서 생성되거나 하드웨어와 물리적인 접속일 수 있다. 통신 포트(2218)은 네트워크(2220), 외부 미디어, 디스플레이(2208), 또는 시스템(2200)의 기타 임의의 구성, 또는 이들의 결합과 연결되도록 구성될 수 있다. 네트워크(2220)와의 연결은 유선 이더넷 연결과 같은 물리적 접속 또는 하기에 설명될 바와 같이 무선으로 설정될 수 있다. 이와 같이, 시스템(2200)의 기타 구성과의 부가적인 접속은 물리적 접속이거나 무선으로 설정될 수 있다. 네트워크(2220)는 대안으로 버스(2206)와 직접적으로 연결될 수 있다.The communication port or
네트워크(2220)은 유선 네트워크, 무선 네트워크, 이더넷 AVB 네트워크, 또는 이들의 결합을 포함할 수 있다. 무선 네트워크는 휴대 전화 네트워크(cellular telephone network), 802.11, 802.16, 802.20, 802.1Q 또는 WiMax 네트워크 일 수 있다. 더욱이, 네트워크(2226)는 인터넷 같은 공용 네트워크, 인트라넷 같은 개인적인 네트워크 또는 이들의 결합일 수 있고, 지금 이용 가능하거나 후에 개발될 것을 포함하는 다양한 네트워킹 프로토콜(networking protocols)을 활용할 수 있지만 네트워킹 프로토콜에 기반한 TCP/IP에 한정되지 않는다.
대안적인 예에서, 주문형 집적 회로, 프로그래머블 로직 어레이(programmable logic arrays) 및 기타 하드웨어 장치와 같은 전용 하드웨어 구현은 시스템(2200)의 다양한 부분을 구현하도록 구성될 수 있다.In alternative examples, dedicated hardware implementations such as application specific integrated circuits, programmable logic arrays, and other hardware devices may be configured to implement various portions of
시스템들을 포함할 수 있는 어플리케이션(application)은 광범위하게 다양한 전자기기 및 컴퓨터 시스템을 포함할 수 있다. 하나 또는 그 이상의 묘사된 예들은 두 개 또는 그 이상의 특정 연관된 하드웨어 모듈 또는 제어 및 모듈을 통해 모듈과 모듈 사이에서 통신될 수 있는 데이터 신호 관련된 장치를 이용하거나 또는 어플리케이션 특정 집적 회로의 부분으로서 기능을 구현할 수 있다. 따라서, 본 발명의 시스템은 소프트웨어, 펌웨어, 하드웨어 실행을 포함한다.Applications that may include systems may include a wide variety of electronic and computer systems. One or more depicted examples may implement functionality as part of an application-specific integrated circuit or employing two or more specific associated hardware modules or data signal related devices that may be communicated between modules and modules via control and modules. can Accordingly, the system of the present invention includes software, firmware, and hardware implementations.
도 23은 본 발명의 일 실시 예에 따른 인터렉션 방법의 흐름도를 도시한다. 구체적으로, 전자 장치(1000)는 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 제1 화면에 디스플레이할 수 있다(S2310). 이때, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나일 수 있다. 사용자에 의해 오브젝트가 선택되면(S2320), 전자 장치는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이할 수 있다(S2330). 이때, 새로운 화면은 기존의 화면에 대해 깊이감이 형성되도록 디스플레이될 수 있다.23 is a flowchart of an interaction method according to an embodiment of the present invention. Specifically, the
선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 오브젝트를 포함하는 경우, 사용자는 새로운 화면에 디스플레이된 오브젝트를 선택할 수 있다. 새로운 오브젝트를 선택하는 경우 위와 같은 과정이 반복될 수 있다. When the selected object or information linked to the selected object includes the object, the user may select an object displayed on a new screen. When a new object is selected, the above process may be repeated.
또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 오직 제1 사용자에게 시청 가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다. In addition, a plurality of users may simultaneously search for different content using one device. For example, it is assumed that there is a plurality of user mode, and the first user and the second user are watching a first screen displaying web content including at least one object. When the first user selects an object, the selected object or information linked to the selected object is displayed on the second screen, and the second screen is viewable only to the first user and does not prevent the second user from viewing the first screen does not
또한, 복수의 사용자가 동시에 하나의 장치를 이용하여 상이한 콘텐츠를 검색하는 도중 서로의 콘텐츠를 공유할 수 있다. 예를 들어, 복수의 사용자 모드이고, 제1 사용자와 제2 사용자가 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면을 시청하고 있다고 가정한다. 제1 사용자가 오브젝트를 선택하면 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 제2 화면에 디스플레이되고, 제2 화면은 제1 사용자에게만 시청가능하고 제2 사용자가 제1 화면을 시청하는 것을 방해하지 않는다. 이때, 공유 모드가 실행되면, 제1 사용자뿐만 아니라 제2 사용자도 함께 제2 화면을 시청할 수 있다.In addition, a plurality of users may share content with each other while simultaneously searching for different content using one device. For example, it is assumed that there is a plurality of user mode, and the first user and the second user are watching a first screen displaying web content including at least one object. When the first user selects an object, the object selected by the first user or information linked to the selected object is displayed on the second screen, the second screen is viewable only to the first user, and the second user views the first screen do not interfere with In this case, when the sharing mode is executed, not only the first user but also the second user may view the second screen together.
도 24는 본 발명의 일 실시 예에 따른 전자 장치(1000)의 구성을 나타낸 블럭도이다. 도 24에 도시된 바와 같이, 전자 장치(1000)는 감지부(2410), 디스플레이부(2420), 프로세서(2440)를 포함한다.24 is a block diagram illustrating the configuration of the
전자 장치(1000)는 데스크탑 PC일 수 있으나, 이는 일 실시 예에 불과할 뿐, 태블릿 PC, 노트북PC, 스마트 TV 등과 같이 웹 콘텐츠를 디스플레이할 수 있는 다른 디스플레이 장치로 구현될 수 있다.The
감지부(2410)는 전자 장치(1000)를 제어하기 위한 사용자 명령을 감지한다. 특히, 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠가 디스플레이되는 경우, 감지부(2410)는 사용자의 오브젝트 선택을 감지할 수 있다. 또한, 감지부(2410)는 전자장치의 다양한 모드(복수의 사용자 모드, 공유 모드)를 설정하기 위한 사용자 명령을 감지한다. 이때, 감지부(2410)는 터치 감지부로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 사용자 명령을 입력받기 위한 다양한 입력장치(예를 들어, 리모컨 신호 감지부, 마우스, 키보드 등)로 구현될 수 있다.The
디스플레이부(2420)는 프로세서(2440)의 제어에 따라, 영상 데이터를 출력한다. 특히, 디스플레이부(2420)는 사용자가 선택한 오브젝트 또는 사용자가 선택한 오브젝트에 링크한 정보를 제1 내지 제n 화면 중 한 화면에 디스플레이할 수 있다. 이때, 화면은 창, 윈도우 창 등을 나타내고, 상자 또는 프레임 안에 콘텐츠가 디스플레이되는 것을 말할 수 있다. 또한, 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 참고문헌, 멀티미디어, 기타 중 하나가 될 수 있다.The
프로세서(2440)는 감지부(2410)를 통해 입력된 사용자 명령에 따라 전자 장치(1000)의 전반적인 동작을 제어한다. 특히, 사용자의 오브젝트 선택이 감지부(2410)에 의해 감지되면, 프로세서(2440)는 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 새로운 화면에 3D 형태로 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보가 2D 형태인 경우, 프로세서(2440)는 2D 형태의 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하도록 컨버터 모듈을 제어하고, 3D 형태의 오브젝트 또는 3D 형태의 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 또한, 프로세서(2440)는 새로운 화면이 기존의 화면에 대하여 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다.The
또한, 프로세서(2440)는 정보 소스로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다. 구체적으로, 프로세서(2440)는 다양한 통신 모듈을 통해 정보 소스(예를 들어, 인터넷 등)로부터 선택된 오브젝트에 링크된 정보를 검색할 수 있다.Also, the
본 발명의 일 실시 예로, 적어도 하나의 오브젝트가 포함된 제1 화면을 포함하는 웹 콘텐츠가 디스플레이되고, 감지부(2410)가 제1 사용자에 의한 오브젝트 선택을 감지한 경우, 프로세서(2440)는 제2 화면에 제1 사용자에 의해 선택된 오브젝트 또는 선택된 오브젝트에 링크된 정보를 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 감지부(2410)는 제1 사용자의 제2 화면과의 인터렉션을 감지할 수 있고, 프로세서(2440)는 인터렉션의 결과를 제3 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 이때, 제3 화면은 제2 화면에 대해 깊이감이 형성되도록 배치될 수 있다.In an embodiment of the present invention, when web content including a first screen including at least one object is displayed and the
또한, 감지부(2410)가 제1 사용자의 제1 화면에서 추가 오브젝트 선택을 감지하는 경우, 프로세서(2440)는 제1 사용자에 의한 추가 선택된 오브젝트 또는 추가 선택된 오브젝트에 링크된 정보를 제4 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제4 화면이 제1 화면에 대해 깊이감을 형성하도록 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다Also, when the
본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드일 때, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 프로세서(2440)는 제2 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부(2420)를 제어한다.As another embodiment of the present invention, when the
본 발명의 또 다른 실시 예로, 전자 장치(1000)가 복수의 사용자 모드이고, 제1 사용자와 제2 사용자에 대한 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이하는 제1 화면이 존재할 수 있다. 감지부(2410)가 제1 사용자의 오브젝트 선택을 감지하면, 프로세서(2440)는 제1 사용자에 의해 선택된 오브젝트 또는 오브젝트에 링크된 정보를 제2 화면에 디스플레이하도록 디스플레이부(2420)를 제어할 수 있다. 감지부(2410)가 제1 사용자 또는 제2 사용자에 의한 공유 모드 명령을 감지하면, 프로세서(2440)는 제2 화면을 제1 사용자 및 제2 사용자에게 디스플레이하도록 디스플레이부(2420)를 제어한다.As another embodiment of the present invention, the
그리고, 프로세서(2440)는 컨버터 모듈, 인터렉티브 3D 모듈, 웹 모듈, 인터렉티브 3D 윈도우 모듈을 포함한다. 컨버터 모듈은 프로세서(2440)의 제어에 따라, 3D 형태로 웹 콘텐츠를 디스플레이하도록 한다. 컨버터 모듈(2430)은 좌안용 프레임과 우안영 프레임에 대해 분리된 드로잉을 지원하기 위해 더블 사이즈의 드로잉 버퍼(좌안용 프레임 버퍼 및 우안용 프레임 버퍼)를 생성한다. 컨버터 모듈은 3D 형태로 나타내고자 하는 오브젝트의 사본은 더블 사이즈 버퍼의 절반에 각각 렌더한 후, 3D 효과를 만들기 위해 좌안용 프레임과 우안용 프레임 버퍼를 결합한다.
In addition, the
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. The specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections.
본 명세서(특히 특허청구범위)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (especially in the claims), the use of the term "above" and similar referential terms may correspond to both the singular and the plural. In addition, when a range is described, individual values within the range are included (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. Finally, the steps constituting the method may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is merely for describing the technical idea in detail, and the scope is not limited by the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art will recognize that various modifications, combinations, and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.
100: 인터렉션 방법
200: 제1 화면
402: 제2 화면
2410: 감지부
2420: 디스플레이부
2440: 프로세서100: Interaction method
200: first screen
402: second screen
2410: detection unit
2420: display unit
2440: Processor
Claims (20)
제1 화면에 적어도 하나의 오브젝트(object)를 포함하는 웹 콘텐츠를 디스플레이하고, 상기 제1 화면은 제1 깊이감이 형성되고, 제1 사용자 및 제2 사용자에게 보여지는 화면인 단계;
상기 전자 장치의 모드가 복수 사용자 모드일 때, 제1 사용자에 의해 상기 적어도 하나의 오브젝트가 선택되면, 상기 제1 화면이 디스플레이 되는 동안 제2 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하고, 상기 제2 화면은 제2 깊이감이 형성되고, 제1 사용자에게만 보여지는 화면인 단계; 및
상기 제2화면에 디스플레이 되는 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 공유하기 위한 상기 제1 사용자로부터의 공유 모드 명령을 기초로, 상기 전자 장치의 모드가 상기 복수 사용자 모드에서 상기 공유 모드로 전환되면, 상기 제1 화면 및 상기 제2 화면이 디스플레이 되는 동안, 제3 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하고, 상기 제3 화면은 제2깊이감이 형성되고, 제2 사용자에게만 보여지는 화면인 단계;를 포함하는 인터렉션 방법.In an electronic device interaction method,
Displaying web content including at least one object on a first screen, wherein the first screen has a first sense of depth and is a screen shown to a first user and a second user;
When the mode of the electronic device is a multi-user mode and the at least one object is selected by a first user, the selected object and information linked to the selected object are displayed on a second screen while the first screen is displayed. displaying in a 3D form, and the second screen is a screen that has a second sense of depth and is only visible to the first user; and
Based on a sharing mode command from the first user for sharing the selected object displayed on the second screen and information linked to the selected object, the mode of the electronic device is changed from the multi-user mode to the sharing mode When switched, while the first screen and the second screen are displayed, the selected object and information linked to the selected object are displayed on a third screen in 3D form, and the third screen forms a second sense of depth and a screen that is displayed only to a second user.
상기 3D 형태로 디스플레이 하는 단계는,
상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이하는 것을 특징으로 하는 인터렉션 방법.According to claim 1,
The step of displaying in the 3D form,
An interaction method characterized in that the selected object or information linked to the selected object is displayed in a 2D form, and the selected object in the 2D form or information linked to the selected object in the 2D form is converted and displayed in a 3D form.
정보 소스(source)로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 단계를 더 포함하는 것을 특징으로 하는 인터렉션 방법. According to claim 1,
and retrieving information linked to the selected object from an information source.
제2 화면과의 사용자 인터렉션을 감지하는 단계; 및
제3 화면에 상기 인터렉션의 결과를 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.According to claim 1,
detecting user interaction with the second screen; and
The interaction method further comprising; displaying the result of the interaction on a third screen.
상기 제1 화면에서 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하는 단계; 및
제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.According to claim 1,
detecting selection of an additional object by the first user on the first screen; and
The method further comprising: displaying the additionally selected object or information linked to the additionally selected object in a 3D form on a fourth screen.
상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면은 제1 사용자에게만 보여지는 것을 특징으로 하는 인터렉션 방법.According to claim 1,
When the electronic device is in a plurality of user modes, the screen by the first user is displayed only to the first user.
상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하는 단계; 및
제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 인터렉션 방법.According to claim 1,
detecting object selection by a second user on the first screen; and
The method further comprising: displaying the object selected by the second user or information linked to the object selected by the second user on a fifth screen in 3D form;
상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 인터렉션 방법.9. The method of claim 8,
When the mode of the electronic device is switched to the sharing mode, interaction between the screen corresponding to the first user and the screen corresponding to the second user is possible.
상기 오브젝트는 이미지, 비디오, 텍스트(text), 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 인터렉션 방법.The method of claim 1,
The object is an image, video, text (text), a hyperlink, an attachment, and an interaction method, characterized in that one of multimedia.
디스플레이부;
제1 사용자에 의해 적어도 하나의 오브젝트 선택을 감지하는 감지부; 및
프로세서를 포함하고,
상기 프로세서는
제1 화면에 적어도 하나의 오브젝트를 포함하는 웹 콘텐츠를 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제1 화면은 제1 깊이감이 형성되고, 상기 제1 사용자 및 제2 사용자에게 보여지는 화면이고,
상기 전자 장치의 모드가 복수 사용자 모드일 때, 상기 제1 사용자에 의해 상기 적어도 하나의 오브젝트가 선택되면, 상기 제1 화면이 디스플레이 되는 동안 제2 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제2 화면은 제2 깊이감이 형성되고, 제1 사용자에게만 보여지는 화면이고,
상기 제2 화면이 디스플레이 되는 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 공유하기 위한 상기 제1 사용자로부터의 공유 모드 명령을 기초로, 상기 전자 장치의 모드가 상기 복수 사용자 모드에서 상기 공유 모드로 전환되면, 상기 제1 화면 및 상기 제2 화면이 디스플레이 되는 동안, 제3 화면에 상기 선택된 오브젝트 및 상기 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이 하도록 상기 디스플레이부를 제어하고, 상기 제3 화면은 제2 깊이감이 형성되고, 상기 제2 사용자에게만 보여지는 화면인 전자 장치.In an electronic device,
display unit;
a sensing unit configured to sense selection of at least one object by the first user; and
including a processor;
the processor is
The display unit is controlled to display web content including at least one object on a first screen, and the first screen is a screen with a first sense of depth and shown to the first and second users,
When the mode of the electronic device is a multi-user mode and the at least one object is selected by the first user, the selected object and information linked to the selected object are displayed on a second screen while the first screen is displayed The display unit is controlled to display in 3D form, and the second screen is a screen that has a second sense of depth and is visible only to the first user,
Based on the sharing mode command from the first user for sharing the selected object on which the second screen is displayed and information linked to the selected object, the mode of the electronic device is changed from the multi-user mode to the sharing mode When switched, the display unit is controlled to display the selected object and information linked to the selected object in a 3D form on a third screen while the first screen and the second screen are displayed, and the third screen is 2 The electronic device is a screen that has a sense of depth and is visible only to the second user.
상기 프로세서는,
상기 선택된 오브젝트 또는 상기 선택된 오브젝트에 링크된 정보를 2D 형태로 디스플레이하고, 상기 2D 형태의 선택된 오브젝트 또는 상기 2D 형태의 선택된 오브젝트에 링크된 정보를 3D 형태로 전환하여 디스플레이 하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The processor is
Displaying the selected object or information linked to the selected object in a 2D form, and controlling the display unit to display the selected object in the 2D form or information linked to the selected object in the 2D form to be converted into a 3D form electronic device.
정보 소스로부터 상기 선택된 오브젝트에 링크된 정보를 검색하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
and retrieving information linked to the selected object from an information source.
상기 프로세서는,
제2 화면과의 사용자 인터렉션을 감지하도록 감지부를 제어하고,
제3 화면에 상기 인터렉션의 결과를 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The processor is
Controls the sensing unit to detect user interaction with the second screen,
The electronic device of claim 1, wherein the display unit is controlled to display a result of the interaction on a third screen.
상기 프로세서는,
상기 제1 화면에 상기 제1 사용자에 의한 추가 오브젝트의 선택을 감지하도록 감지부를 제어하고,
제4 화면에 상기 추가 선택된 오브젝트 또는 상기 추가 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The processor is
controlling the sensing unit to detect selection of an additional object by the first user on the first screen,
The electronic device of claim 1, wherein the display unit is controlled to display the additionally selected object or information linked to the additionally selected object on a fourth screen in a 3D form.
상기 프로세서는,
상기 전자 장치가 복수의 사용자 모드인 경우, 상기 제1 사용자에 의한 화면을 제1 사용자에게만 디스플레이하도록 디스플레이부를 제어하는 전자 장치.12. The method of claim 11,
The processor is
When the electronic device is in a plurality of user modes, the electronic device controls the display unit to display the screen of the first user only to the first user.
상기 프로세서는,
상기 제1 화면에서 제2 사용자에 의한 오브젝트 선택을 감지하도록 감지부를 제어하고,
제5 화면에 상기 제2 사용자에 의해 선택된 오브젝트 또는 상기 제2 사용자에 의해 선택된 오브젝트에 링크된 정보를 3D 형태로 디스플레이하도록 디스플레이부를 제어하는 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The processor is
controlling the sensing unit to detect object selection by a second user on the first screen,
The electronic device of claim 1, wherein the display unit is controlled to display the object selected by the second user or information linked to the object selected by the second user on a fifth screen in a 3D form.
상기 전자 장치의 모드가 공유 모드로 전환되면, 상기 제1 사용자에 대응하는 화면과 상기 제2 사용자에 대응하는 화면 사이의 인터렉션이 가능한 것을 특징으로 하는 전자 장치.19. The method of claim 18,
When the mode of the electronic device is switched to the sharing mode, an interaction between the screen corresponding to the first user and the screen corresponding to the second user is possible.
상기 오브젝트는 이미지, 비디오, 텍스트, 하이퍼링크, 첨부파일 및 멀티미디어 중 하나인 것을 특징으로 하는 전자 장치.12. The method of claim 11,
The electronic device, characterized in that the object is one of an image, video, text, hyperlink, attachment, and multimedia.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15829926.3A EP3175343A4 (en) | 2014-08-02 | 2015-07-28 | Electronic device and user interaction method thereof |
PCT/KR2015/007876 WO2016021861A1 (en) | 2014-08-02 | 2015-07-28 | Electronic device and user interaction method thereof |
CN201580041851.3A CN106575188B (en) | 2014-08-02 | 2015-07-28 | Electronic equipment and user interaction method thereof |
US14/815,429 US10809894B2 (en) | 2014-08-02 | 2015-07-31 | Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN2198/DEL/2014 | 2014-08-02 | ||
IN2198DE2014 | 2014-08-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160016567A KR20160016567A (en) | 2016-02-15 |
KR102366677B1 true KR102366677B1 (en) | 2022-02-23 |
Family
ID=58518575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150070898A KR102366677B1 (en) | 2014-08-02 | 2015-05-21 | Apparatus and Method for User Interaction thereof |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3175343A4 (en) |
KR (1) | KR102366677B1 (en) |
CN (1) | CN106575188B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107918514B (en) * | 2017-11-24 | 2020-12-29 | 北京小米移动软件有限公司 | Display method and device, electronic equipment and computer readable storage medium |
KR20220121574A (en) * | 2021-02-25 | 2022-09-01 | 삼성전자주식회사 | Electronic device providing ar/vr environment and operating method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110159929A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU1547601A (en) * | 1999-11-30 | 2001-06-12 | Trimus Ltd. | Modified browser system |
US20040100489A1 (en) * | 2002-11-26 | 2004-05-27 | Canon Kabushiki Kaisha | Automatic 3-D web content generation |
US8533580B1 (en) * | 2005-09-12 | 2013-09-10 | Yongyong Xu | System and method of navigating linked web resources |
US8321783B2 (en) * | 2008-09-30 | 2012-11-27 | Apple Inc. | Visualizing content positioning within a document using layers |
US8670597B2 (en) * | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
KR101635567B1 (en) * | 2009-11-12 | 2016-07-01 | 엘지전자 주식회사 | Apparatus for displaying image and method for operating the same |
US8964013B2 (en) * | 2009-12-31 | 2015-02-24 | Broadcom Corporation | Display with elastic light manipulator |
KR20110115806A (en) * | 2010-04-16 | 2011-10-24 | 삼성전자주식회사 | Display apparatus and 3d glasses, and display system including the same |
KR101763263B1 (en) * | 2010-12-24 | 2017-07-31 | 삼성전자주식회사 | 3d display terminal apparatus and operating method |
KR101813035B1 (en) * | 2011-10-10 | 2017-12-28 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
JP2014021511A (en) * | 2012-07-12 | 2014-02-03 | Sony Corp | Display control unit, display control method, program, and communication system |
US20140157128A1 (en) * | 2012-11-30 | 2014-06-05 | Emo2 Inc. | Systems and methods for processing simultaneously received user inputs |
-
2015
- 2015-05-21 KR KR1020150070898A patent/KR102366677B1/en active IP Right Grant
- 2015-07-28 EP EP15829926.3A patent/EP3175343A4/en not_active Ceased
- 2015-07-28 CN CN201580041851.3A patent/CN106575188B/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110159929A1 (en) * | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display |
Also Published As
Publication number | Publication date |
---|---|
CN106575188B (en) | 2021-01-05 |
EP3175343A4 (en) | 2018-03-21 |
EP3175343A1 (en) | 2017-06-07 |
CN106575188A (en) | 2017-04-19 |
KR20160016567A (en) | 2016-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230267697A1 (en) | Object creation with physical manipulation | |
US20180348988A1 (en) | Approaches for three-dimensional object display | |
US10592064B2 (en) | Approaches for three-dimensional object display used in content navigation | |
US11803628B2 (en) | Secure authorization via modal window | |
TWI624786B (en) | Multi-display apparatus and method of controlling display thereof | |
EP3047363B1 (en) | Approaches for three-dimensional object display | |
US9201585B1 (en) | User interface navigation gestures | |
US20120192078A1 (en) | Method and system of mobile virtual desktop and virtual trackball therefor | |
KR20190141162A (en) | Container-based Virtual Camera Rotation | |
US10359905B2 (en) | Collaboration with 3D data visualizations | |
CN105190486A (en) | Display apparatus and user interface screen providing method thereof | |
CN111758122A (en) | Browser for mixed reality system | |
US9495064B2 (en) | Information processing method and electronic device | |
US20170229102A1 (en) | Techniques for descriptor overlay superimposed on an asset | |
US20170228137A1 (en) | Local zooming of a workspace asset in a digital collaboration environment | |
US20140229823A1 (en) | Display apparatus and control method thereof | |
US10838585B1 (en) | Interactive content element presentation | |
KR102366677B1 (en) | Apparatus and Method for User Interaction thereof | |
KR20230061519A (en) | Screen capture methods, devices and electronics | |
US9524036B1 (en) | Motions for displaying additional content | |
US10809894B2 (en) | Electronic device for displaying object or information in three-dimensional (3D) form and user interaction method thereof | |
KR101457999B1 (en) | Transparent display device and method for providing user interface thereof | |
KR20200033640A (en) | Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method | |
KR20200033639A (en) | Terminal, method for contrlling thereof and recording medium on which a program for implemeting the method | |
GB2548468A (en) | Local zooming of a workspace asset in a digital collaboration environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |