KR101012081B1 - Method and system for providing contents using a table-top interface - Google Patents

Method and system for providing contents using a table-top interface Download PDF

Info

Publication number
KR101012081B1
KR101012081B1 KR1020080089948A KR20080089948A KR101012081B1 KR 101012081 B1 KR101012081 B1 KR 101012081B1 KR 1020080089948 A KR1020080089948 A KR 1020080089948A KR 20080089948 A KR20080089948 A KR 20080089948A KR 101012081 B1 KR101012081 B1 KR 101012081B1
Authority
KR
South Korea
Prior art keywords
information
projection screen
rear projection
content
input
Prior art date
Application number
KR1020080089948A
Other languages
Korean (ko)
Other versions
KR20100030960A (en
Inventor
김지인
이준
노영태
박성준
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020080089948A priority Critical patent/KR101012081B1/en
Publication of KR20100030960A publication Critical patent/KR20100030960A/en
Application granted granted Critical
Publication of KR101012081B1 publication Critical patent/KR101012081B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/067Combinations of audio and projected visual presentation, e.g. film, slides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Mathematical Analysis (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Marketing (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

기존의 컴퓨터 기반 콘텐츠는 기본적으로 개인용이고, 사용방법이 쉽지 않아서 어린이나 노인과 같은 컴퓨터 지식이 부족한 사용자들은 여러 사용자가 공유할 수 있는 콘텐츠, 예컨대 에듀테인먼트 콘텐츠를 쉽게 사용하기에는 많은 제약이 따른다는 문제가 있다. 이에 본 발명은, 에듀테인먼트 콘텐츠를 사용함에 있어 직관적인 조작과 시각적인 효과를 부각시켜 컴퓨터를 다루는데 익숙하지 않은 사용자들도 쉽게 사용할 수 있게 하였으며, 에듀테인먼트 콘텐츠를 사용함에 있어서 여러 사용자들이 콘텐츠를 공유할 수 있는 테이블탑 인터페이스 환경을 제공코자 한다.Existing computer-based contents are basically personal and they are not easy to use, so users who lack computer knowledge such as children and the elderly have a lot of restrictions to easily use contents that can be shared by multiple users, such as edutainment contents. There is. Accordingly, the present invention makes it easy to use even users who are not used to handling computers by using intuitive operation and visual effects in using edutainment contents, and share the contents among users in using edutainment contents. We want to provide a tabletop interface environment.

테이블탑 인터페이스, 유비쿼터스, 테이블기반, 손 인식 Tabletop Interface, Ubiquitous, Table-Based, Hand Recognition

Description

테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템 및 방법{METHOD AND SYSTEM FOR PROVIDING CONTENTS USING A TABLE-TOP INTERFACE}System and method for providing content using tabletop interface {METHOD AND SYSTEM FOR PROVIDING CONTENTS USING A TABLE-TOP INTERFACE}

본 발명은 테이블탑 인터페이스(Table-Top Interface)를 이용한 콘텐츠 제공 기술에 관한 것으로, 특히 에듀테인먼트(Edutainment) 콘텐츠를 사용함에 있어 직관적인 조작과 시각적인 효과를 부각시키는데 적합한 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템 및 방법에 관한 것이다.The present invention relates to a content providing technology using a table-top interface, and more particularly, to providing content using a tabletop interface suitable for highlighting an intuitive operation and a visual effect in using edutainment content. System and method.

컴퓨터 기술의 급속한 발전으로 인해 다양한 연령층의 사람들이 컴퓨터 게임을 즐기면서 사회성을 향상시킬 수 있는 방법을 찾기 위한 연구가 다각도로 진행된 바 있으며, 게임적인 요소를 교육과 결합하여 교육(Education) 기능과 오락(Entertainment) 기능을 갖추어 사용자들의 학습 효과를 향상시키는 에듀테인먼트(Edutainment) 콘텐츠에 대한 연구들도 다양하게 이루어지고 있다.Due to the rapid development of computer technology, researches have been conducted in various ways to find ways to improve sociality for people of all ages playing computer games, and combine educational elements with education to provide educational functions and entertainment. There is also a lot of research on edutainment content that has the function of (Entertainment) to improve the learning effect of users.

하지만, 여러 연령층의 사용자들이 기존의 마우스와 키보드로 이루어지는 컴퓨터 인터페이스를 사용하여 게임을 즐기게 될 때는 다른 문제가 발생하게 된다. 즉, 나이가 어린 아이들이나 특히 컴퓨터에 대한 사용 경험이 없는 노인들이 기존 의 인터페이스를 사용하게 될 때는 여러 가지 어려움이 따르게 된다. 노인들은 일반적으로 노화가 진행되면서, 시력, 시야, 패턴인식 등의 시각적인 부분과, 반응 속도, 근력 유지, 균형 등의 육체적인 부분과, 그 밖의 인식능력 등이 감소하게 된다. 그리고, 빠른 발전에 의해 사회가 급속히 변화되면서 세대 변화에 따른 가치관의 변화도 노인들의 컴퓨터 사용을 하나의 장벽으로 만들고 있다.However, when users of various ages enjoy a game using a computer interface consisting of a conventional mouse and keyboard, another problem arises. In other words, young children, especially the elderly who do not have a computer experience using the existing interface presents a number of difficulties. As the elderly generally progress, aging, visual parts such as vision, vision, and pattern recognition, physical parts such as reaction speed, muscle strength, balance, and other cognitive abilities decrease. Also, as the society changes rapidly due to rapid development, the change of values caused by the change of generation also makes the use of computer by the elderly as a barrier.

어린 아이들이 컴퓨터를 사용함에 있어서도, 단순히 게임적인 재미를 추구하는 것이 아닌 인터랙티브(interactive)한 조작을 통해서 게임을 하는 즐거움과 동시에 교육적인 효과를 얻을 수 있는 스토리텔링 시스템(story-telling system)에 대한 연구가 많이 이루어지고 있으며, 방송 드라마 및 동화 등의 콘텐츠를 통하여 즐거움과 교육적인 효과를 얻을 수 있는 시스템들에 대한 연구가 많이 이루어지고 있다.The storytelling system, which enables young children to use the computer, not only to pursue game fun, but also to enjoy educational and educational effects through interactive manipulation. A lot of research is being done, and a lot of researches have been made on systems that can achieve enjoyment and educational effects through contents such as broadcasting dramas and fairy tales.

하지만, 이러한 연구들도 주로 기존의 컴퓨터 인터페이스 환경을 사용하기 때문에 보다 자연스러운 인터페이스를 적용한 시스템을 필요로 한다.However, these studies mainly use the existing computer interface environment and thus require a system with a more natural interface.

한편, 유비쿼터스 컴퓨팅 환경에서는 모든 생활환경이 유기적으로 연결되어 사용자에게 독립적인 지능형 서비스를 제공하고 있다. 그 중 테이블은 사람들이 실생활에서 가장 많이 사용하는 공간으로, 이를 이용한 테이블탑 인터페이스는 유비쿼터스 컴퓨팅 환경을 구성하는 중요한 요소 중의 하나가 될 것이다.Meanwhile, in the ubiquitous computing environment, all living environments are organically connected to provide users with intelligent services that are independent. Among them, the table is the most used space in real life, and the tabletop interface using it will be one of the important components of the ubiquitous computing environment.

테이블탑 인터페이스는 테이블을 기반으로 하여 기존 컴퓨터 인터페이스 환경의 단점을 보완한 사용자 인터페이스로서, 테이블이 물리적인 객체를 올려놓거나 디지털 정보를 다루는 공간으로 사용된다. 즉, 테이블은 하나의 영상 출력 및 사 용자 입력 장치로 구성된다.The tabletop interface is a user interface that complements the shortcomings of the existing computer interface environment based on the table. The tabletop interface is used as a space for placing physical objects or handling digital information. That is, the table consists of one image output and a user input device.

초기 테이블탑 인터페이스인 DigitalDesk[P. Wellner: The DigitalDesk Calculator: Tangible Manipulation on a Desk Top Display. UIST (1991)]는 테이블 상단에 카메라와 프로젝터를 설치하여 사용자 입력을 받는다.DigitalDesk [P. Wellner: The Digital Desk Calculator: Tangible Manipulation on a Desk Top Display. UIST (1991)] installs a camera and a projector on the table top to receive user input.

EnhancedDesk[Yasuto Nakanishi, Yoichi Sato and Hideki Koike: EnhancedDesk and Enhanced-Wall: Augmented Desk and Wall Interfaces with Real-Time Tracking of Users Motion. UbiComp Workshop (2002)]는 동시에 여러 손가락 입력을 빠르게 받을 수 있다. 일반 카메라가 아닌 고성능 적외선 열감지 카메라를 사용하여 사용자의 손을 정확히 구분해낸다.Yasuto Nakanishi, Yoichi Sato and Hideki Koike: EnhancedDesk and Enhanced-Wall: Augmented Desk and Wall Interfaces with Real-Time Tracking of Users Motion. UbiComp Workshop (2002)] can quickly receive multiple finger inputs simultaneously. It uses a high-performance infrared camera instead of a normal camera to accurately distinguish the user's hand.

HoloWall[Jun Rekimoto and Nobuyuki Matsushita: Perceptual Surfaces: Towards a Human and Object Sensitive Interactive Display. PUI (1997)]은 스크린 후면에 카메라를 설치하고 적외선 조명을 비춰 반대편에서 입력하는 사용자의 터치를 흐려지는 정도로 인식하는 방법을 사용하였다.HoloWall [Jun Rekimoto and Nobuyuki Matsushita: Perceptual Surfaces: Towards a Human and Object Sensitive Interactive Display. PUI (1997)] installed a camera on the back of the screen and used the method of recognizing the touch of the user input from the opposite side by the infrared illumination.

기존의 컴퓨터 기반 콘텐츠는 기본적으로 개인용이고, 키보드와 마우스와 같은 조작장치를 통해 사용이 가능하기 때문에 어린이와 노인과 같은 컴퓨터 지식이 부족한 사람에게는 여러 사용자가 공유할 수 있는 콘텐츠, 예컨대 에듀테인먼트 콘텐츠를 쉽게 사용하기에는 많은 제약이 따른다는 문제가 있다.Existing computer-based content is basically personal and can be used through manipulation devices such as keyboards and mice. Therefore, content that can be shared by multiple users, such as edutainment content, is available to people who lack computer knowledge such as children and the elderly. The problem is that there are many limitations to using it easily.

이에 본 발명은, 에듀테인먼트 콘텐츠를 사용함에 있어 직관적인 조작과 시각적인 효과를 부각시켜 컴퓨터를 다루는데 익숙하지 않은 사용자들도 쉽게 사용할 수 있는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방안을 마련코자 한다.Accordingly, the present invention intends to provide a content providing method using a tabletop interface that can be easily used by users who are not used to handling a computer by emphasizing intuitive operation and visual effects in using edutainment content.

또한 본 발명은, 에듀테인먼트 콘텐츠를 사용함에 있어서 여러 사용자들이 콘텐츠를 공유할 수 있는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방안을 마련코자 한다.In addition, the present invention, to use the edutainment content to provide a content providing method using a tabletop interface that can be shared by multiple users.

본 발명의 과제를 해결하기 위한 일 관점의 일 실시예에 따르면, 테이블탑 인터페이스를 활성화하고 게임 콘텐츠 애플리케이션을 구동시키는 과정과, 상기 게임 콘텐츠 애플리케이션에 대해 사용자 조작정보가 입력되면, 상기 사용자 조작정보에 대응하는 데이터 처리 언어 정보를 생성하는 과정과, 상기 데이터 처리 언어 정보 정보에서 조작정보를 분석하여 상기 테이블탑 인터페이스를 통해 시청각 정보로서 출력하는 과정을 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법을 제공한다.According to an embodiment of the present invention, a process of activating a tabletop interface and driving a game content application, and when user operation information is input to the game content application, is input to the user operation information. It provides a content providing method using a tabletop interface comprising the step of generating corresponding data processing language information, and analyzing the operation information from the data processing language information information and outputting the audiovisual information through the tabletop interface. .

본 발명의 과제를 해결하기 위한 일 관점의 다른 실시예에 따르면, 테이블탑 인터페이스를 활성화하고 스토리텔링 콘텐츠 애플리케이션을 구동시키는 과정과, 상기 스토리텔링 콘텐츠 애플리케이션의 3D 캐릭터 정보 선택에 대응하는 데이터 처리 언어 정보를 생성하여 3D 캐릭터 정보를 출력하는 과정과, 상기 3D 캐릭터 정보의 각도 변경을 위한 사용자 드래그(drag) 조작정보가 입력되면 상기 드래그 조작정보에 대응하는 데이터 처리 언어 정보를 생성하여 상기 3D 캐릭터의 3D 각도를 변경하는 과정을 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법을 제공한다.According to another exemplary embodiment of the present invention, a process of activating a tabletop interface and driving a storytelling content application, and data processing language information corresponding to selection of 3D character information of the storytelling content application are provided. Generating 3D character information and outputting 3D character information and generating data processing language information corresponding to the drag manipulation information when user drag manipulation information for changing the angle of the 3D character information is input. A content providing method using a tabletop interface including a process of changing an angle is provided.

본 발명의 과제를 해결하기 위한 다른 관점에 따르면, 콘텐츠 애플리케이션을 통해 입력되는 사용자 조작정보를 감지하는 조작정보 감지 블록과, 상기 조작정보 감지 블록을 통해 감지되는 사용자 조작정보에 대응하는 데이터 처리 언어 정보를 생성하며, 상기 조작정보 감지 블록을 통해 감지되는 사용자 조작정보에 따라 3D 콘텐츠의 각도를 변경하는 제어 블록을 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템을 제공한다.According to another aspect of the present invention, an operation information detection block for detecting user operation information input through a content application, and data processing language information corresponding to user operation information detected through the operation information detection block. And a control block for changing an angle of 3D content according to user manipulation information detected through the manipulation information sensing block.

본 발명에 의하면, 테이블탑 인터페이스를 사용하여 컴퓨터를 다루는데 익숙하지 않은 사용자들도 쉽게 사용할 수 있으며, 기존의 콘텐츠가 한 사람을 위한 콘텐츠에 집중되어 있는 것에 반해, 여러 사용자가 콘텐츠를 공유할 수 있다.According to the present invention, users who are unfamiliar with the computer using the tabletop interface can easily use it, and the content can be shared by multiple users, while the existing content is concentrated on the content for one person. .

이하, 본 발명의 바람직한 실시 예를 첨부된 도면들을 참조하여 상세히 설명한다. 아울러 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명에 따른 콘텐츠 제공 방법을 구현하기 위한 테이블탑 인터페이스 장치의 구성도이며, 도 2는 도 1에 도시된 일부 구성요소의 배치 상태를 보인 개략도이다.1 is a configuration diagram of a tabletop interface device for implementing a content providing method according to the present invention, Figure 2 is a schematic diagram showing an arrangement of some of the components shown in FIG.

도 1 및 도 2에 나타낸 바와 같이 테이블탑 인터페이스 장치는, 테이블 형태를 가지는 구조체(100)의 상면에 입출력 공간으로 활용되는 후면 투영 스크린(102)이 설치되고, 구조체(100)의 측면에 빔 프로젝터(104)와 카메라(106), 그리고 빔 프로젝터의 제어를 위한 제어부(108)가 설치되며, 구조체(100)의 하부에는 하단 반사 거울(110)이 설치되어 빔 프로젝터(104)의 영상을 반사시켜 후면 투영 스크린(102)에 투영하는 빔 투영 경로를 제공함과 아울러 후면 투영 스크린(102)의 영상을 카메라(106)가 촬영할 수 있도록 촬영 경로를 제공한다. 상단 반사 거울(112)은 하단 반사 거울(110)과 빔 프로젝터(104) 사이의 빔 투영 경로상에 설치되어 빔 투영 경로의 각도를 조정할 수 있도록 함으로써 빔 프로젝터(104)의 설치 용이성을 보장한다. 구조체(100) 외부의 상측에 설치된 광원(114)은 후면 투영 스크린(102)의 상부에서의 물체 움직임이 역광 영상으로 후면 투영 스크린(102)에 투영되도록 하여 카메라(106)가 투영 영상을 촬영할 수 있도록 한다.As shown in FIGS. 1 and 2, the tabletop interface device includes a rear projection screen 102 that is utilized as an input / output space on an upper surface of a structure 100 having a table shape, and a beam projector on a side of the structure 100. The control unit 108 for controlling the 104 and the camera 106 and the beam projector is installed, and a lower reflecting mirror 110 is installed below the structure 100 to reflect the image of the beam projector 104. In addition to providing a beam projection path for projecting onto the rear projection screen 102, a photographing path is provided so that the camera 106 can capture an image of the rear projection screen 102. The top reflecting mirror 112 is installed on the beam projection path between the bottom reflecting mirror 110 and the beam projector 104 to ensure the ease of installation of the beam projector 104 by allowing the angle of the beam projection path to be adjusted. The light source 114 installed on the upper side of the structure 100 allows the camera 106 to take a projection image by causing an object movement in the upper portion of the rear projection screen 102 to be projected onto the rear projection screen 102 as a back light image. Make sure

이러한 본 발명의 테이블탑 인터페이스 장치는 후면 투영 스크린(102)의 후면 투영이 출력으로 사용되고, 후면 투영 스크린(102)의 후면 인식이 입력으로 사용된다. 사용자는 제스처 등을 이용하여 테이블과 상호 작용을 하며, 테이블은 사용자 손동작 및 실세계의 물리적 객체를 인식하여 정보의 관람, 공유, 조작을 편리하게 도와준다.In this tabletop interface device of the present invention, the rear projection of the rear projection screen 102 is used as the output, and the rear recognition of the rear projection screen 102 is used as the input. The user interacts with the table using gestures and the like, and the table recognizes the user's hand gestures and physical objects in the real world to conveniently view, share, and manipulate information.

후면 투영 스크린(102)의 측면에 빔 프로젝터(104)가 위치하여 상단 반사 거울(112)과 하단 반사 거울(110)에 의해 제공되는 빔 투영 경로를 통해 후면 투영 스크린(102)에 영상 투영을 하고, 빔 프로젝터(104)와 동일한 위치 또는 근접 위치에 놓인 카메라(106)가 상단 반사 거울(112)과 하단 반사 거울(110)에 의해 제공되는 촬영 경로를 통해 후면 투영 스크린(102)의 후면을 촬영하여 사용자의 행동을 인식한다. 빔 프로젝터(104)의 빔 투영 경로와 카메라(106)의 촬영 경로는 동일하게 설계하여 시스템이 원래 테이블 크기를 크게 벗어나지 않도록 하는 것이 바람직하다.The beam projector 104 is positioned on the side of the rear projection screen 102 to project an image onto the rear projection screen 102 through the beam projection path provided by the upper and lower reflecting mirrors 112 and 110. , Camera 106 positioned at or near the same position as the beam projector 104, photographs the rear of the rear projection screen 102 through the photographing path provided by the upper reflecting mirror 112 and the lower reflecting mirror 110. Recognize your behavior. The beam projection path of the beam projector 104 and the imaging path of the camera 106 are preferably designed so that the system does not significantly deviate from the original table size.

빔 프로젝터(104)에서 투영된 영상은 상단 반사 거울(112)과 하단 반사 거울(110)을 통해 반사하여 후면 투영 스크린(102)에 넓은 면적의 영상을 만들어 낸다. 도 2의 도면부호 102a는 후면 투영 스크린(102)의 화면 투영 크기를 나타내고 있다.The image projected by the beam projector 104 is reflected by the upper reflecting mirror 112 and the lower reflecting mirror 110 to produce an image of a large area on the rear projection screen 102. Reference numeral 102a in FIG. 2 denotes the screen projection size of the rear projection screen 102.

카메라(106)를 통해 후면 투영 스크린(102) 위에서의 사용자 상호 작용 영상이 얻어지면 취득된 영상은 영상 판독장치(도시 생략됨)로 전송되며, 영상 판독장치는 취득된 영상의 의미를 인식하게 되고, 이에 대한 적합한 이벤트를 만들어 그 래픽 유저 인터페이스(GUI) 시스템(도시 생략됨)에 전달한다. 사용자의 입력에 의해 만들어지는 GUI는 다시 빔 프로젝터(104)를 통해 후면 투영 스크린(102)에 투영하게 된다.When the user interaction image on the rear projection screen 102 is obtained through the camera 106, the acquired image is transmitted to an image reading apparatus (not shown), and the image reading apparatus recognizes the meaning of the acquired image. It then creates a suitable event for this and passes it on to a graphical user interface (GUI) system (not shown). The GUI created by the user's input is then projected back to the rear projection screen 102 via the beam projector 104.

한편, 비전을 이용한 입력 방식에는 인식의 품질을 높이기 위해 적합한 조명 환경이 필요하다. 도 1과 같이 광원(114)을 설치하여 역광의 조명을 사용하면 후면 투영 스크린(102) 위의 객체와 배경간의 명도 차가 매우 커, 같은 방향에 설치하는 조명보다 더욱 선명한 영상을 얻을 수 있다. 이를 통해 사용자의 손동작을 세밀하게 얻어낼 수 있다. 균일한 조명을 만들어내기 위해서는 도 1과 같이 후면 투영 스크린(102)의 전역에 고른 밝기가 비춰지도록 면광원을 이용하는 것이 바람직하다.On the other hand, the input method using the vision needs a suitable lighting environment to improve the quality of the recognition. When the light source 114 is installed and the backlight is used as shown in FIG. 1, the difference in brightness between the object on the rear projection screen 102 and the background is very large, and thus a clearer image can be obtained than the illumination installed in the same direction. Through this, the user's hand gestures can be obtained in detail. In order to produce uniform illumination, it is preferable to use a surface light source so that uniform brightness is displayed throughout the rear projection screen 102 as shown in FIG. 1.

아울러, 카메라(106)는 적외선 채널을 사용하여 빔 프로젝터 영상과 사용자 입력 영상을 구분한다. 채널을 분리함으로써 빔 프로젝터의 출력 영상을 인식 과정에서 제외할 수 있고, 후면 투영 스크린(102)에 투영되는 영상이 조명의 반사 때문에 사용자에게는 흐릿하게 보이는 문제를 해결한다. 적외선은 근 적외선 대역으로 830nm이상의 파장을 사용하며, 해당 대역대의 적외선 필터가 달린 흑백 카메라를 사용하는 것이 바람직하다. 또한 빔 프로젝터(104)에는 반대로 가시광선만을 통과시켜야 하므로 적외선 차단 필터(도시 생략됨)를 부착한다.In addition, the camera 106 distinguishes a beam projector image from a user input image by using an infrared channel. By separating the channel, the output image of the beam projector can be excluded from the recognition process, and the image projected on the rear projection screen 102 solves the problem of the user being blurred due to the reflection of the illumination. Infrared uses a wavelength of more than 830nm in the near infrared band, it is preferable to use a monochrome camera with an infrared filter in the band. In addition, since the visible light only passes through the beam projector 104, an infrared cut filter (not shown) is attached.

도 3은 본 발명의 일 관점에 따른 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템의 개략적인 블록 구성도로서, 크게 테이블탑 인터페이스(200), 콘텐츠 애플리케이션(300)을 포함한다.3 is a schematic block diagram of a content providing system using a tabletop interface according to an aspect of the present invention, and includes a tabletop interface 200 and a content application 300.

도 3에 도시한 바와 같이, 테이블탑 인터페이스(200)는 조작정보 감지 블록(202)과 제어 블록(204)을 포함한다.As shown in FIG. 3, the tabletop interface 200 includes an operation information sensing block 202 and a control block 204.

조작정보 감지 블록(202)은 콘텐츠 애플리케이션(300)을 통해 입력되는 사용자의 조작정보, 예컨대 사용자의 손 터치 정보, 도구 터치 정보 등을 감지하는 역할을 한다.The manipulation information detection block 202 detects manipulation information of a user input through the content application 300, for example, user's hand touch information, tool touch information, and the like.

제어 블록(204)은 조작정보 감지 블록(202)을 통해 감지되는 사용자 조작정보에 대응하는 데이터 처리 언어, 예를 들면 XML(eXtensible Markup Language) 정보를 생성한다. 또한, 제어 블록(204)은 조작정보 감지 블록(202)을 통해 감지되는 사용자 조작정보에 따라 3D 콘텐츠의 각도를 변경할 수 있다.The control block 204 generates a data processing language, for example, eXtensible Markup Language (XML) information corresponding to the user manipulation information sensed through the manipulation information sensing block 202. In addition, the control block 204 may change the angle of the 3D content according to the user operation information detected through the operation information detection block 202.

콘텐츠 애플리케이션(300)은 사용자 조작정보를 테이블탑 인터페이스(200)로 전달하며, 테이블탑 인터페이스(200)로부터 제공되는 XML 정보에서 조작정보를 분석하여 시청각 정보로서 출력하는 역할을 한다. 이때의 시청각 정보는, 예컨대 게임 콘텐츠, 스토리텔링(story-telling) 콘텐츠 등에 대한 에듀테인먼트(Edutainment) 시청각 정보들이 적용될 수 있으며, 각 콘텐츠는 플래시(Flash), DirectX, OpenGL 등을 기반으로 제작될 수 있을 것이다. 또한, 본 실시예에 적용되는 에듀테인먼트 시청각 정보는 테이블탑 인터페이스 환경에서 완벽히 구현되는 바, 에듀테인먼트 콘텐츠를 사용함에 있어 직관적인 조작과 시각적인 효과를 부각시켜 컴퓨터를 다루는데 익숙하지 않은 사용자들도 쉽게 사용할 수 있으며, 에듀테인먼트 콘텐츠를 여러 사용자들이 공유하는데 적합하다.The content application 300 transmits user manipulation information to the tabletop interface 200, and analyzes the manipulation information in the XML information provided from the tabletop interface 200 and outputs the audiovisual information as audiovisual information. In this case, for example, edutainment audiovisual information about game content, storytelling content, and the like may be applied, and each content may be produced based on Flash, DirectX, OpenGL, and the like. There will be. In addition, the edutainment audiovisual information applied to the present embodiment is fully implemented in a tabletop interface environment, so that users who are not used to handling a computer can easily see the intuitive operation and visual effects in using edutainment contents. It can be used and is suitable for sharing the edutainment content among multiple users.

이하, 상술한 구성과 함께, 본 발명의 바람직한 실시예에 따른 테이블탑 인 터페이스를 이용한 콘텐츠 제공 방법에 대해 첨부한 도 4 및 도 5의 흐름도를 참조하여 상세하게 설명하기로 한다.Hereinafter, the content providing method using the tabletop interface according to the preferred embodiment of the present invention will be described in detail with reference to the flowcharts of FIGS. 4 and 5.

먼저, 도 4는 본 실시예에 따른 콘텐츠 제공 방법, 예컨대 게임 콘텐츠 제공 방법을 예시한 흐름도로서, 도 3의 콘텐츠 애플리케이션(300)이 게임 콘텐츠 애플리케이션인 경우의 콘텐츠 제공 방법을 나타낸 것이다.First, FIG. 4 is a flowchart illustrating a content providing method, for example, a game content providing method according to the present embodiment, and illustrates a content providing method when the content application 300 of FIG. 3 is a game content application.

도 4에 예시한 바와 같이, 단계(S400)에서 테이블탑 인터페이스(200)가 활성화되면, 사용자에 의해 선택되는 임의의 게임 콘텐츠 애플리케이션을 구동시킨다(S402).As illustrated in FIG. 4, when the tabletop interface 200 is activated in step S400, any game content application selected by the user is driven (S402).

이후, 테이블탑 인터페이스(200)의 조작정보 감지 블록(202)에서는 게임 콘텐츠 애플리케이션을 통해 사용자 조작정보가 입력되는지를 판단한다(S404). 이때의 사용자 조작정보는, 예컨대 사용자의 손 터치 정보, 도구 터치 정보 등이 될 수 있다. 즉, 손 터치 정보인 경우는 사용자의 손을 통해 직접 조작정보를 입력하는 콘텐츠 애플리케이션, 예를 들면 테이블탑 인터페이스를 통해 단어나 그림을 맞추는 퍼즐게임 애플리케이션일 수 있으며, 도구 터치 정보인 경우는 별도의 도구를 통해 조작정보를 입력하는 콘텐츠 애플리케이션, 예를 들면 테이블탑 인터페이스를 통해 낚시 추로 포인트를 획득하는 낚시게임 애플리케이션이 적용될 수 있을 것이다.Thereafter, the operation information detection block 202 of the tabletop interface 200 determines whether user operation information is input through the game content application (S404). In this case, the user manipulation information may be, for example, user hand touch information and tool touch information. That is, the hand touch information may be a content application that directly inputs operation information through a user's hand, for example, a puzzle game application that matches words or pictures through a tabletop interface. A content application for inputting operation information through a tool, for example, a fishing game application for acquiring fishing trajectory points through a tabletop interface may be applied.

이와 같은 사용자 조작정보가 게임 콘텐츠 애플리케이션을 통해 조작정보 감지 블록(202)으로 입력되면, 테이블탑 인터페이스(200)의 제어 블록(204)은 이러한 조작정보에 대응하는 데이터 처리 언어, 예컨대 XML 정보를 생성하여 게임 콘텐츠 애플리케이션으로 전달한다(S406).When such user manipulation information is input to the manipulation information detection block 202 through the game content application, the control block 204 of the tabletop interface 200 generates a data processing language corresponding to the manipulation information, for example, XML information. To the game content application (S406).

이에 따라 게임 콘텐츠 애플리케이션은 테이블탑 인터페이스(200)로부터 제공된 XML 정보에서 조작정보를 분석하여 시청각 정보, 예컨대 퍼즐게임 시청각 정보 또는 낚시게임 시청각 정보를 출력한다(S408).Accordingly, the game content application analyzes the operation information from the XML information provided from the tabletop interface 200 and outputs audiovisual information such as puzzle game audiovisual information or fishing game audiovisual information (S408).

한편, 도 5는 본 실시예에 따른 콘텐츠 제공 방법, 예컨대 스토리텔링 콘텐츠 제공 방법을 예시한 흐름도로서, 도 3의 콘텐츠 애플리케이션(300)이 스토리텔링 콘텐츠 애플리케이션인 경우의 콘텐츠 제공 방법을 나타낸 것이다.5 is a flowchart illustrating a content providing method, for example, a storytelling content providing method according to the present embodiment, and illustrates a content providing method when the content application 300 of FIG. 3 is a storytelling content application.

도 5에 예시한 바와 같이, 단계(S500)에서 테이블탑 인터페이스(200)가 활성화되면, 사용자에 의해 선택되는 임의의 스토리텔링 콘텐츠 애플리케이션을 구동시킨다(S502).As illustrated in FIG. 5, when the tabletop interface 200 is activated at step S500, an arbitrary storytelling content application selected by the user is driven at step S502.

스토리텔링 콘텐츠 애플리케이션은 동화 내용을 3D 애니메이션을 이용하여 콘텐츠로 제작한 것으로, 본 실시예에서는 사용자에 의해 선택되는 스토리텔링 콘텐츠 애플리케이션의 3D 캐릭터 정보를 테이블탑 인터페이스(200)를 통해 출력한다(S504).The storytelling content application is a content produced by using a 3D animation as a fairy tale content, in the present embodiment outputs the 3D character information of the storytelling content application selected by the user through the tabletop interface 200 (S504) .

보다 구체적으로 설명하면, 테이블탑 인터페이스(200)의 제어 블록(204)은 사용자에 의해 선택되는 스토리텔링 콘텐츠의 3D 캐릭터 정보에 대응하는 데이터 처리 언어, 예컨대 XML 정보를 생성하여 스토리텔링 콘텐츠 애플리케이션으로 전달하고, 이에 따라 스토리텔링 콘텐츠 애플리케이션은 테이블탑 인터페이스(200)로부터 제공된 XML 정보에서 3D 캐릭터 정보를 출력한다.More specifically, the control block 204 of the tabletop interface 200 generates a data processing language corresponding to the 3D character information of the storytelling content selected by the user, for example, XML information, and delivers it to the storytelling content application. Accordingly, the storytelling content application outputs 3D character information from the XML information provided from the tabletop interface 200.

그리고 단계(S506)에서는 해당 3D 캐릭터 정보에 대한 동화 지문, 동화 음성 등을 테이블탑 인터페이스(200)를 통해 출력한다. 예컨대, 3D 캐릭터를 디스플레이하면서 그 하단에 동화 내용을 지문 형태로 디스플레이하고, 이와 동시에 해당 지문을 음성 정보로 출력할 수 있을 것이다.In operation S506, a moving image fingerprint, a moving image voice, and the like for the corresponding 3D character information are output through the tabletop interface 200. For example, while displaying a 3D character, a moving image may be displayed at the bottom thereof in the form of a fingerprint and at the same time, the fingerprint may be output as voice information.

이후, 테이블탑 인터페이스(200)의 조작정보 감지 블록(202)에서는 스토리텔링 콘텐츠 애플리케이션을 통해 3D 캐릭터의 각도 변경을 위한 사용자 드래그(drag) 조작정보가 입력되는지를 판단한다(S508). 이때의 사용자 조작정보는, 예컨대 사용자의 손 터치 정보 또는 도구 터치 정보를 이용한 3D 캐릭터 드래그 동작을 포함할 수 있다. 즉, 손 터치 정보인 경우는 스토리텔링 콘텐츠의 3D 캐릭터를 사용자의 손으로 직접 드래그 조작하는 경우이고, 도구 터치 정보인 경우는 별도의 도구를 이용하여 3D 캐릭터를 드래그 조작하는 경우이다.Thereafter, the manipulation information detection block 202 of the tabletop interface 200 determines whether user drag manipulation information for changing the angle of the 3D character is input through the storytelling content application (S508). In this case, the user manipulation information may include a 3D character dragging operation using, for example, user hand touch information or tool touch information. That is, in the case of hand touch information, the 3D character of the storytelling content is directly dragged by the user's hand, and in the case of tool touch information, the 3D character is dragged using a separate tool.

이와 같은 사용자 드래그 조작정보가 스토리텔링 콘텐츠 애플리케이션을 통해 조작정보 감지 블록(202)으로 입력되면, 테이블탑 인터페이스(200)의 제어 블록(204)은 이러한 드래그 조작정보에 대응하는 데이터 처리 언어, 예컨대 XML 정보를 생성하여 스토리텔링 콘텐츠 애플리케이션으로 전달한다.When such user drag manipulation information is input to the manipulation information sensing block 202 through the storytelling content application, the control block 204 of the tabletop interface 200 may correspond to a data processing language corresponding to the drag manipulation information, for example, XML. Generates information and delivers it to storytelling content applications.

이에 따라 스토리텔링 콘텐츠 애플리케이션은 테이블탑 인터페이스(200)로부터 제공된 XML 정보에서 드래그 조작정보를 분석하여 해당 3D 캐릭터의 3D 각도를 변경한다(S510).Accordingly, the storytelling content application analyzes the drag manipulation information from the XML information provided from the tabletop interface 200 and changes the 3D angle of the corresponding 3D character (S510).

이상 설명한 바와 같이, 본 발명은 테이블탑 인터페이스를 사용하여 에듀테인먼트 콘텐츠를 제공할 수 있는 바, 에듀테인먼트 콘텐츠를 사용함에 있어 직관적인 조작과 시각적인 효과를 부각시켜 컴퓨터를 다루는데 익숙하지 않은 사용자들도 쉽게 사용할 수 있도록 하였으며, 테이블탑 인터페이스를 통해 에듀테인먼트 콘텐츠를 여러 사용자들이 공유 또는 조작할 수 있게 구현한 것이다.As described above, the present invention can provide the edutainment content using the tabletop interface, and even users who are not familiar with the computer by emphasizing the intuitive operation and visual effects in using the edutainment content Edutainment content can be shared or manipulated by various users through the tabletop interface.

지금까지 본 발명의 일 실시 예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시 예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.It has been described so far limited to one embodiment of the present invention, it is obvious that the technology of the present invention can be easily modified by those skilled in the art. Such modified embodiments should be included in the technical spirit described in the claims of the present invention.

도 1은 본 발명에 따른 콘텐츠 제공 방법을 구현하기 위한 테이블탑 인터페이스 장치의 구성도,1 is a configuration diagram of a tabletop interface device for implementing a content providing method according to the present invention;

도 2는 도 1에 도시된 일부 구성요소의 배치 상태를 보인 개략도,FIG. 2 is a schematic view showing an arrangement of some of the components shown in FIG. 1;

도 3은 본 발명의 일 관점에 따른 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템에 대한 개략적인 블록 구성도,3 is a schematic block diagram of a content providing system using a tabletop interface according to an aspect of the present invention;

도 4는 본 발명의 다른 관점에 따른 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법을 나타낸 것으로, 게임 콘텐츠 애플리케이션 제공 과정의 흐름도,4 is a flowchart illustrating a content providing method using a tabletop interface according to another aspect of the present invention.

도 5는 본 발명의 다른 관점에 따른 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법을 나타낸 것으로, 스토리텔링 콘텐츠 애플리케이션 제공 과정의 흐름도.5 is a flowchart illustrating a content providing method using a tabletop interface according to another aspect of the present invention, and a process of providing a storytelling content application.

<도면의 주요 부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

200 : 테이블탑 인터페이스 202 : 조작정보 감지 블록200: tabletop interface 202: operation information detection block

204 : 제어 블록 300 : 콘텐츠 애플리케이션204: control block 300: content application

Claims (12)

테이블 형태를 갖는 구조체의 상면에 설치되어 입출력 공간으로 활용되는 후면 투영 스크린과, 상기 후면 투영 스크린에 영상을 투영하는 빔 프로젝터와, 상기 후면 투영 스크린의 상부에서의 물체 움직임이 역광 영상으로 상기 후면 투영 스크린에 투영되도록 하는 광원과, 상기 후면 투영 스크린의 투영 영상을 촬영하는 카메라를 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법으로서,A rear projection screen installed on an upper surface of a table-shaped structure and used as an input / output space, a beam projector for projecting an image on the rear projection screen, and an object movement on an upper portion of the rear projection screen to project the rear surface into a backlight image A content providing method using a tabletop interface including a light source to be projected onto a screen, and a camera to photograph a projection image of the rear projection screen. 상기 테이블탑 인터페이스를 통해 게임 콘텐츠 애플리케이션이 구동되면 상기 후면 투영 스크린을 통해 상기 게임 콘텐츠 애플리케이션에 대한 사용자의 손 터치 정보 또는 도구 터치 정보가 입력되는지를 판단하는 과정과,Determining whether a user's hand touch information or a tool touch information for the game content application is input through the rear projection screen when a game content application is driven through the tabletop interface; 상기 손 터치 정보 또는 도구 터치 정보가 입력되면 상기 손 터치 정보 또는 도구 터치 정보에 대응하는 XML(eXtensible Markup Language) 정보를 상기 후면 투영 스크린을 통해 생성하는 과정과,Generating eXtensible Markup Language (XML) information corresponding to the hand touch information or the tool touch information through the rear projection screen when the hand touch information or the tool touch information is input; 생성되는 상기 XML 정보를 분석하고 분석되는 상기 XML 정보에 대응하는 상기 게임 콘텐츠 애플리케이션의 시청각 정보를 상기 후면 투영 스크린을 통해 출력하는 과정을 포함하는Analyzing the generated XML information and outputting the audiovisual information of the game content application corresponding to the analyzed XML information through the rear projection screen. 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법.How to provide content using the tabletop interface. 삭제delete 삭제delete 테이블 형태를 갖는 구조체의 상면에 설치되어 입출력 공간으로 활용되는 후면 투영 스크린과, 상기 후면 투영 스크린에 영상을 투영하는 빔 프로젝터와, 상기 후면 투영 스크린의 상부에서의 물체 움직임이 역광 영상으로 상기 후면 투영 스크린에 투영되도록 하는 광원과, 상기 후면 투영 스크린의 투영 영상을 촬영하는 카메라를 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법으로서,A rear projection screen installed on an upper surface of a table-shaped structure and used as an input / output space, a beam projector for projecting an image on the rear projection screen, and an object movement on an upper portion of the rear projection screen to project the rear surface into a backlight image A content providing method using a tabletop interface including a light source to be projected onto a screen, and a camera to photograph a projection image of the rear projection screen. 상기 테이블탑 인터페이스를 통해 스토리텔링 콘텐츠 애플리케이션이 구동되면 상기 후면 투영 스크린을 통해 상기 스토리텔링 콘텐츠 애플리케이션 내에 포함된 3D 캐릭터 정보가 선택되는지를 판단하는 과정과,Determining whether 3D character information included in the storytelling content application is selected through the rear projection screen when the storytelling content application is driven through the tabletop interface; 상기 3D 캐릭터 정보가 선택되면 선택되는 상기 3D 캐릭터 정보에 대응하는 XML 정보를 생성하여 상기 후면 투영 스크린을 통해 출력하는 과정과,Generating XML information corresponding to the selected 3D character information when the 3D character information is selected and outputting the generated XML information through the rear projection screen; 상기 후면 투영 스크린을 통해 상기 3D 캐릭터 정보에 대한 사용자의 손 터치 정보 또는 도구 터치 정보의 입력에 따른 드래그 조작 정보가 입력되는지를 판단하는 과정과,Determining whether drag manipulation information according to input of the user's hand touch information or tool touch information to the 3D character information is input through the rear projection screen; 상기 드래그 조작 정보가 입력되면 상기 드래그 조작 정보에 대응하는 XML 정보를 생성하고 생성되는 상기 XML 정보에 대응하는 상기 3D 캐릭터 정보의 위치 각도를 변경하는 과정을 포함하는Generating the XML information corresponding to the drag manipulation information and changing a position angle of the 3D character information corresponding to the generated XML information when the drag manipulation information is input. 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법.How to provide content using the tabletop interface. 삭제delete 삭제delete 제 4 항에 있어서,The method of claim 4, wherein 상기 콘텐츠 제공 방법은,The content providing method, 상기 후면 투영 스크린을 통해 상기 3D 캐릭터 정보를 출력하면서 지문 및 음성을 출력하는 과정을 더 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 방법.And outputting a fingerprint and a voice while outputting the 3D character information through the rear projection screen. 테이블 형태를 갖는 구조체의 상면에 설치되어 입출력 공간으로 활용되는 후면 투영 스크린과, 상기 후면 투영 스크린에 영상을 투영하는 빔 프로젝터와, 상기 후면 투영 스크린의 상부에서의 물체 움직임이 역광 영상으로 상기 후면 투영 스크린에 투영되도록 하는 광원과, 상기 후면 투영 스크린의 투영 영상을 촬영하는 카메라를 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템으로서,A rear projection screen installed on an upper surface of a table-shaped structure and used as an input / output space, a beam projector for projecting an image on the rear projection screen, and an object movement on an upper portion of the rear projection screen to project the rear surface into a backlight image A content providing system using a tabletop interface including a light source to be projected onto a screen, and a camera for photographing a projection image of the rear projection screen. 상기 테이블탑 인터페이스를 통해 콘텐츠 애플리케이션이 구동되면 상기 후면 투영 스크린을 통해 입력되는 상기 콘텐츠 애플리케이션에 대한 사용자의 손 터치 정보 또는 도구 터치 정보를 감지하는 조작정보 감지 블록과,An operation information detection block for detecting a user's hand touch information or a tool touch information on the content application input through the rear projection screen when the content application is driven through the tabletop interface; 상기 조작정보 감지 블록을 통해 감지되는 상기 손 터치 정보 또는 도구 터치 정보에 대응하는 입력값에 따라 상기 콘텐츠 애플리케이션의 정보를 변경하는 제어 블록을 포함하는And a control block for changing information of the content application according to an input value corresponding to the hand touch information or the tool touch information detected through the manipulation information sensing block. 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템.Content provision system using a tabletop interface. 삭제delete 삭제delete 제 8 항에 있어서,The method of claim 8, 상기 콘텐츠 애플리케이션은, 상기 입력값에서 조작정보를 분석하여 출력되는 에듀테인먼트 시청각 정보를 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템.The content application is a content providing system using a tabletop interface including the edutainment audio-visual information that is output by analyzing the operation information from the input value. 제 11 항에 있어서,The method of claim 11, 상기 에듀테인먼트 시청각 정보는, 게임 콘텐츠 또는 스토리텔링(story-telling) 콘텐츠를 포함하는 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템.The edutainment audiovisual information is a content providing system using a tabletop interface that includes game content or story-telling content.
KR1020080089948A 2008-09-11 2008-09-11 Method and system for providing contents using a table-top interface KR101012081B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080089948A KR101012081B1 (en) 2008-09-11 2008-09-11 Method and system for providing contents using a table-top interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080089948A KR101012081B1 (en) 2008-09-11 2008-09-11 Method and system for providing contents using a table-top interface

Publications (2)

Publication Number Publication Date
KR20100030960A KR20100030960A (en) 2010-03-19
KR101012081B1 true KR101012081B1 (en) 2011-02-07

Family

ID=42180773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080089948A KR101012081B1 (en) 2008-09-11 2008-09-11 Method and system for providing contents using a table-top interface

Country Status (1)

Country Link
KR (1) KR101012081B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102389558B1 (en) 2021-08-06 2022-04-22 삼익에이치디에스(주) Multi-layered photocurable sheet composition with enhanced flame retardancy and heat resistance, prepreg inline manufacturing method using this

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054844A (en) * 2000-06-29 2000-09-05 홍영실 Method of education by a 3D cyber character, 3D cyber education space and realtime mutual voice supports at internet
KR20070045188A (en) * 2004-08-27 2007-05-02 인터내셔널 비지네스 머신즈 코포레이션 User input apparatus, system, method and computer program for use with a screen having a translucent surface
KR100720178B1 (en) * 2005-05-25 2007-05-22 정치영 The method for character managing service in accordance story developing and thereof system
KR20080071316A (en) * 2007-01-30 2008-08-04 엘지전자 주식회사 Mobile communication terminal with a touch screen and method of displaying application contents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054844A (en) * 2000-06-29 2000-09-05 홍영실 Method of education by a 3D cyber character, 3D cyber education space and realtime mutual voice supports at internet
KR20070045188A (en) * 2004-08-27 2007-05-02 인터내셔널 비지네스 머신즈 코포레이션 User input apparatus, system, method and computer program for use with a screen having a translucent surface
KR100720178B1 (en) * 2005-05-25 2007-05-22 정치영 The method for character managing service in accordance story developing and thereof system
KR20080071316A (en) * 2007-01-30 2008-08-04 엘지전자 주식회사 Mobile communication terminal with a touch screen and method of displaying application contents

Also Published As

Publication number Publication date
KR20100030960A (en) 2010-03-19

Similar Documents

Publication Publication Date Title
US11392212B2 (en) Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments
US11182685B2 (en) Interactions with virtual objects for machine control
US10739965B2 (en) Virtual interactions for machine control
US20220164032A1 (en) Enhanced Virtual Touchpad
US9292083B2 (en) Interacting with user interface via avatar
US9791918B2 (en) Breath-sensitive digital interface
US20200004403A1 (en) Interaction strength using virtual objects for machine control
US20140125590A1 (en) Systems and methods for alternative control of touch-based devices
Aghajan et al. Human-centric interfaces for ambient intelligence
TW201539305A (en) Controlling a computing-based device using gestures
TW201531917A (en) Control device, control method, and computer program
JP2006040271A (en) Recognition and use of gesture for interacting with software application
US20230093979A1 (en) Devices, methods, and graphical user interfaces for content applications
Guo et al. Investigating cursor-based interactions to support non-visual exploration in the real world
Muller Multi-touch displays: design, applications and performance evaluation
KR101012081B1 (en) Method and system for providing contents using a table-top interface
Liikkanen et al. Exploring emotions and multimodality in digitally augmented puppeteering
Darbar Extending Interaction Space in Augmented Reality: Contributions in Optical-See-Through and Projection-Based Augmented Environments
Stearns HandSight: A Touch-Based Wearable System to Increase Information Accessibility for People with Visual Impairments
Soro Gestures and cooperation: considering non verbal communication in the design of interactive spaces
AU2015252151A1 (en) Enhanced virtual touchpad and touchscreen
KR20230102785A (en) Electronic device and operation method for color-based learning
Yang Variable reality: interacting with the virtual book
Sorokin Tangible Augmented Reality Tabletop Game
Wong Gesture based interactions for augmented virtual mirrors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee