KR20120087446A - System and method for providing bodily sensitive contents - Google Patents

System and method for providing bodily sensitive contents Download PDF

Info

Publication number
KR20120087446A
KR20120087446A KR1020110008638A KR20110008638A KR20120087446A KR 20120087446 A KR20120087446 A KR 20120087446A KR 1020110008638 A KR1020110008638 A KR 1020110008638A KR 20110008638 A KR20110008638 A KR 20110008638A KR 20120087446 A KR20120087446 A KR 20120087446A
Authority
KR
South Korea
Prior art keywords
unit
interface pattern
content
interface
user
Prior art date
Application number
KR1020110008638A
Other languages
Korean (ko)
Inventor
이만희
Original Assignee
(주)누리봄
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)누리봄 filed Critical (주)누리봄
Priority to KR1020110008638A priority Critical patent/KR20120087446A/en
Publication of KR20120087446A publication Critical patent/KR20120087446A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

PURPOSE: A feel type content providing system capable of enjoying content by only physically touching an interface pattern and a method thereof are provided to supply and generate various interface patterns according to kinds of content. CONSTITUTION: A pattern generating unit(120) generates an interface pattern for supplying content saved in a content database(110). A display unit(130) displays the interface pattern. An image input unit(150) takes an image of a fixed area in which the interface pattern is displayed. A user information recognition unit(160) recognizes user information located in the interface pattern from the image signal taken by the image input unit.

Description

체감형 콘텐츠 제공 시스템 및 방법 {SYSTEM AND METHOD FOR PROVIDING BODILY SENSITIVE CONTENTS}Systematic content delivery system and method {SYSTEM AND METHOD FOR PROVIDING BODILY SENSITIVE CONTENTS}

본 발명은 체감형 콘텐츠 제공 시스템에 관한 것으로서, 보다 상세하게는 다양한 인터페이스 패턴을 이용한 체감형 콘텐츠 제공 시스템에 관한 것이다.
The present invention relates to a tangible content providing system, and more particularly, to a tangible content providing system using various interface patterns.

컴퓨터 기술의 급속한 발전으로 인해 다양한 연령층의 사람들이 컴퓨터 게임을 즐기면서 사회성을 향상시킬 수 있는 방법을 찾기 위한 연구가 다각도로 진행된 바 있으며, 게임적인 요소를 교육과 결합하여 교육(Education) 기능과 오락(Entertainment) 기능을 갖추어 사용자들의 학습 효과를 향상시키는 에듀테인먼트(Edutainment) 콘텐츠에 대한 연구들도 다양하게 이루어지고 있다.Due to the rapid development of computer technology, researches have been conducted in various ways to find ways to improve sociality for people of all ages playing computer games, and combine educational elements with education to provide educational functions and entertainment. There is also a lot of research on edutainment content that has the function of (Entertainment) to improve the learning effect of users.

하지만, 여러 연령층의 사용자들이 기존의 마우스와 키보드, 조이스틱으로 이루어지는 컴퓨터 인터페이스를 사용하여 게임을 즐기게 될 때는 다른 문제가 발생하게 된다. 즉, 나이가 어린 아이들이나 특히 컴퓨터에 대한 사용 경험이 없는 노인들이 기존의 인터페이스를 사용하게 될 때는 여러 가지 어려움이 따르게 된다. 노인들은 일반적으로 노화가 진행되면서, 시력, 시야, 패턴인식 등의 시각적인 부분과, 반응 속도, 근력 유지, 균형 등의 육체적인 부분과, 그 밖의 인식능력 등이 감소하게 된다. 그리고, 빠른 발전에 의해 사회가 급속히 변화되면서 세대 변화에 따른 가치관의 변화도 노인들의 컴퓨터 사용을 하나의 장벽으로 만들고 있다. 또한, 어린 아이들이 컴퓨터를 사용함에 있어서도, 단순히 게임적인 재미를 추구하는 것이 아닌 인터랙티브(interactive)한 조작을 통해서 게임을 하는 즐거움과 동시에 교육적인 효과를 얻을 수 있는 스토리텔링 시스템(story-telling system)에 대한 연구가 많이 이루어지고 있으며, 방송 드라마 및 동화 등의 콘텐츠를 통하여 즐거움과 교육적인 효과를 얻을 수 있는 시스템들에 대한 연구가 많이 이루어지고 있다.However, when users of various ages enjoy a game using a computer interface composed of a mouse, a keyboard, and a joystick, another problem occurs. In other words, young children, especially the elderly who do not have a computer experience using the existing interface presents a number of difficulties. As the elderly generally progress, aging, visual parts such as vision, vision, and pattern recognition, physical parts such as reaction speed, muscle strength, balance, and other cognitive abilities decrease. Also, as the society changes rapidly due to rapid development, the change of values caused by the change of generation also makes the use of computer by the elderly as a barrier. In addition, the story-telling system enables young children to enjoy the game and enjoy the educational effect through interactive manipulation, not simply pursuing game fun. Many researches have been conducted, and many researches have been conducted on systems that can achieve enjoyment and educational effects through contents such as broadcasting dramas and fairy tales.

하지만, 이러한 연구들도 주로 기존의 컴퓨터 인터페이스 환경, 즉 마우스, 키보드 등의 표준 입출력 장치를 기반으로 이루어지고 있으므로, 보다 다양하고 자연스러운 휴먼 인터페이스를 적용한 시스템의 구현이 요구되고 있다.
However, these studies are mainly based on the existing computer interface environment, that is, standard input / output devices such as a mouse and a keyboard, and thus, the implementation of a system using a more diverse and natural human interface is required.

본 발명은 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 실행되는 콘텐츠에 대응한 다양한 인터페이스 패턴을 생성 및 제공함으로써, 별도의 정형화된 인터페이스 장치의 조작이 불필요하고, 현실감 및 몰입감이 향상된 콘텐츠 제공 시스템 및 방법을 제공하는데 그 목적이 있다.
The present invention has been proposed to meet the above demands, and by generating and providing various interface patterns corresponding to the contents to be executed, it is unnecessary to operate a separate standardized interface device, and improves the realism and immersion. And to provide a method.

본 발명에 따른 일실시예인 콘텐츠 데이터 베이스를 포함하는 콘텐츠 제공 시스템은, 상기 콘텐츠 데이터 베이스에 저장되어 있는 콘텐츠를 제공하기 위한 인터페이스 패턴을 생성하는 패턴 생성부, 상기 인터페이스 패턴을 표시하는 디스플레이부, 상기 인터페이스 패턴이 표시된 소정 영역의 영상을 촬영하는 영상 입력부, 상기 영상 입력부에서 촬영된 영상 신호로부터 상기 인터페이스 패턴 상에 위치하는 사용자 정보를 인식하는 사용자 정보 인식부를 포함할 수 있다. In one embodiment, a content providing system including a content database includes: a pattern generator configured to generate an interface pattern for providing content stored in the content database, a display configured to display the interface pattern, and The image input unit may capture an image of a predetermined area on which an interface pattern is displayed, and a user information recognizing unit recognizing user information located on the interface pattern from the image signal captured by the image input unit.

본 발명에 따른 일실시예의 일태양에 의하면 상기 인터페이스 패턴은, 원 또는 다각형 형상의 단위 셀이 적어도 하나 이상 배열되어 형성되는 것을 특징으로 한다. According to an aspect of an embodiment of the present invention, the interface pattern may be formed by arranging at least one unit cell of a circle or polygon shape.

본 발명에 따른 일실시예의 일태양에 의하면 상기 사용자 정보 인식부는, 상기 영상 신호로부터 상기 단위 셀 중 경계선의 일부가 가려져 있는 적어도 하나 이상의 단위 셀을 검출하여 사용자의 위치 정보로 인식하는 것을 특징으로 한다. According to an embodiment of the present invention, the user information recognizing unit detects at least one or more unit cells of which a part of a boundary line is covered from the image signal and recognizes the at least one unit cell as position information of the user. .

본 발명에 따른 일실시예의 일태양에 의하면 가속도를 감지할 수 있는 가속도 센서를 구비하는 핸드 헬드(hand-held)형 인터페이스부를 더 포함할 수 있다.
According to an aspect of an embodiment of the present invention, the apparatus may further include a hand-held interface unit having an acceleration sensor capable of sensing acceleration.

본 발명에 따른 다른 실시예인 체감형 콘텐츠 제공 방법은 콘텐츠를 제공하기 위한 인터페이스 패턴을 생성하는 단계, 생성된 상기 인터페이스 패턴을 표시하는 단계, 상기 인터페이스 패턴이 표시된 소정 영역의 영상을 촬영하는 단계 및 촬영된 영상 신호로부터 사용자의 위치 정보를 인식하는 단계를 포함할 수 있다. According to another embodiment of the present invention, there is provided a method for providing haptic content, including generating an interface pattern for providing content, displaying the generated interface pattern, capturing and photographing an image of a predetermined region where the interface pattern is displayed. Recognizing the location information of the user from the received video signal.

본 발명에 따른 다른 실시예의 일태양에 의하면 상기 인터페이스 패턴은, 원 또는 다각형 형상의 단위 셀이 적어도 하나 이상 배열되어 형성되는 것을 특징으로 한다. According to another embodiment of the present invention, the interface pattern may be formed by arranging at least one unit cell of a circle or polygon shape.

본 발명에 따른 다른 실시예의 일태양에 의하면 사용자의 위치 정보를 인식하는 단계는, 촬영된 영상 신호를 처리하여 상기 단위 셀은 경계선만을 표시하는 단계 및 상기 단위 셀 중 경계선의 일부가 가려져 있는 적어도 하나 이상의 단위 셀을 검출하여 사용자의 위치 정보를 인식하는 단계를 포함하는 것을 특징으로 한다.
According to an aspect of another embodiment of the present invention, the step of recognizing the location information of the user comprises the steps of: processing the captured image signal to display only the boundary line of the unit cell; and at least one part of the boundary line of the unit cell is covered. And detecting location information of the user by detecting the unit cell.

상기와 같은 본 발명은, 콘텐츠의 종류에 따라 다양한 인터페이스 패턴을 생성 및 제공함으로써 사용자가 별도의 인터페이스 장치의 조작 과정을 거치지 않고, 상기 인터페이스 패턴에의 신체 접촉만으로 콘텐츠를 즐길 수 있으므로 현실감 및 몰입값이 향상된 콘텐츠를 제공할 수 있는 이점이 있다.
The present invention as described above, by generating and providing a variety of interface patterns according to the type of content, the user can enjoy the content only by physical contact to the interface pattern, without going through the operation of a separate interface device realism and immersion value There is an advantage in providing this enhanced content.

도 1은 본 발명에 따른 체감형 콘텐츠 제공 시스템을 설명하기 위한 일실시예 블록도이다.
도 2는 본 발명에 따른 체감형 콘텐츠 제공 시스템의 예를 설명하기 위한 일예시도이다.
도 3a 내지 도 3c는 인터페이스 패턴의 예를 설명하기 위한 일예시도이다.
도 4는 본 발명에 따른 체감형 콘텐츠 제공 방법을 설명하기 위한 순서흐름도이다.
1 is a block diagram of an embodiment for explaining a haptic content providing system according to the present invention.
2 is an exemplary view for explaining an example of a haptic content providing system according to the present invention.
3A to 3C are exemplary views illustrating an example of an interface pattern.
4 is a flowchart illustrating a haptic content providing method according to the present invention.

첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 설명한다. 도면상에서 동일 부호는 동일한 요소를 지칭한다. With reference to the accompanying drawings will be described a preferred embodiment according to the present invention. Wherein like reference numerals refer to like elements throughout.

도 1은 본 발명에 따른 체감형 콘텐츠 제공 시스템을 설명하기 위한 일실시예 블록도이다. 1 is a block diagram of an embodiment for explaining a haptic content providing system according to the present invention.

도 1을 참조하면, 본 발명에 따른 체감형 콘텐츠 제공 시스템은 콘텐츠 DB(database)(110), 패턴 생성부(120), 디스플레이부(130), 제어부(140), 영상 입력부(150), 사용자 정보 인식부(160)를 포함한다. Referring to FIG. 1, the tangible content providing system according to the present invention includes a content DB (database) 110, a pattern generator 120, a display 130, a controller 140, an image inputter 150, and a user. The information recognizing unit 160 is included.

콘텐츠 DB(110)에는 본 발명에 따른 체감형 콘텐츠 제공 시스템에서 실행되는 각종 콘텐츠 및 관련 데이터가 저장되어 있다. 상기 콘텐츠는 스포츠 게임 콘텐츠, 교육 콘텐츠 또는 게임적인 요소를 교육과 결합하여 교육 기능과 오락 기능을 갖추어 사용자들의 학습 효과를 향상시키는 에듀테인먼트(edutainment) 콘텐츠 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The content DB 110 stores various contents and related data executed in the tangible content providing system according to the present invention. The content may include, but is not limited to, sports game content, educational content, or edutainment content that combines educational and game elements with education to enhance the learning effect of users by providing educational and entertainment functions. .

패턴 생성부(120)는 본 발명에 따른 체감형 콘텐츠 제공 시스템이 콘텐츠 DB(110)에 저장되어 있는 다양한 콘텐츠를 제공함에 있어서, 사용자에게 인터페이스 환경을 제공하기 위한 인터페이스 패턴을 생성한다. 상기 인터페이스 패턴은 원 또는 다각형 형상의 단위 셀이 적어도 하나 이상 배열되어 형성될 수 있고, 상기 단위 셀은 임의의 색상으로 채워질 수 있다. 또한, 패턴 생성부(120)는 상기 인터페이스 패턴을 생성함에 있어서, 콘텐츠의 제공에 필요한 소정의 문자열, 미션 영상, 배경 영상 등을 부가한 인터페이스 패턴을 생성할 수 있다. 또한, 본 발명에 따른 체감형 콘텐츠 제공 시스템은 상기 인터페이스 패턴을 통하여 데이터 입출력이 이루어질 수 있다. 따라서 실행하고자 하는 콘텐츠가 키보드, 마우스 등의 표준 입출력 장치 기반인 경우, 패턴 생성부(120)는 상기 인터페이스 패턴을 통한 데이터 입출력이 가능하도록 매핑(mapping) 과정을 수행한다. 예를 들어, 키보드의 방향 키, 선택 키 등을 상기 인터페이스 패턴에 포함되는 특정의 단위 셀과 각각 매핑하여, 사용자가 상기 특정 단위 셀을 접촉하면 그에 대응하는 키 입력이 가능하도록 할 수 있다. The pattern generator 120 generates an interface pattern for providing an interface environment to a user in providing various contents stored in the content DB 110 according to the tangible content providing system according to the present invention. The interface pattern may be formed by arranging at least one unit cell of a circle or polygon shape, and the unit cell may be filled with any color. In addition, in generating the interface pattern, the pattern generator 120 may generate an interface pattern to which a predetermined character string, a mission image, a background image, etc. necessary for providing content are added. In addition, in the haptic content providing system according to the present invention, data input / output may be performed through the interface pattern. Therefore, when the content to be executed is based on a standard input / output device such as a keyboard or a mouse, the pattern generator 120 performs a mapping process to enable data input / output through the interface pattern. For example, the direction keys, the selection keys, and the like of the keyboard may be mapped to specific unit cells included in the interface pattern, so that when a user touches the specific unit cell, a corresponding key input is possible.

디스플레이부(130)는 패턴 생성부(120)에서 생성된 상기 인터페이스 패턴을 표시하기 위한 구성으로서, 통상적으로 사용되는 빔프로젝터, 레이저 프로젝터 등으로 구현될 수 있다. 디스플레이부(130)는 상기 인터페이스 패턴 영상을 확대하여 벽면, 바닥면 등에 설치된 별도의 투영 스크린에 표시할 수 있고, 또는 별도의 투영 스크린을 구비하지 않고 벽면, 바닥면 또는 임의의 구조체의 평평한 면에 상기 인터페이스 패턴을 표시할 수 있다. The display unit 130 is a component for displaying the interface pattern generated by the pattern generator 120 and may be implemented as a beam projector, a laser projector, or the like that is commonly used. The display unit 130 may enlarge and display the interface pattern image on a separate projection screen installed on a wall, a bottom, or the like, or may be provided on a flat surface of a wall, a bottom, or any structure without having a separate projection screen. The interface pattern can be displayed.

제어부(140)는 체감형 콘텐츠 제공 시스템을 구성하는 콘텐츠 DB(110), 패턴 생성부(120), 디스플레이부(130), 제어부(140), 영상 입력부(150) 및 사용자 정보 인식부(160) 사이의 데이터 전달 등을 제어한다. The controller 140 configures the content DB 110, the pattern generator 120, the display 130, the controller 140, the image input unit 150, and the user information recognition unit 160 constituting the haptic content providing system. Control data passing between them.

영상 입력부(150)는 소정 영역의 영상을 촬영하는 구성으로서, 상기 소정 영역은 상기 인터페이스 패턴이 표시되는 영역을 포함하여야 한다. 따라서, 상기 촬영된 영상은 상기 인터페이스 패턴과 상기 인터페이스 패턴 상에 위치하는 사용자를 포함하게 된다. 상기 인터페이스 패턴은 디스플레이부(130)의 전방에 확대되어 표시되는 것이 일반적이므로, 영상 입력부(150)는 디스플레이부(130)의 상부에 설치되어 디스플레이부(130)의 전방 영역의 영상을 촬영하는 것이 바람직하다. 영상 입력부(150)는 일반적인 PC에서 별도의 하드웨어적인 기술 없이 즉시 채용 가능한 웹캠(Webcam)인 것이 바람직하지만, 디지털 카메라, 카메라 모듈을 구비하는 다양한 장치로 구현될 수도 있다. The image input unit 150 is configured to capture an image of a predetermined area, and the predetermined area should include an area where the interface pattern is displayed. Therefore, the captured image includes the interface pattern and a user located on the interface pattern. Since the interface pattern is generally enlarged and displayed in front of the display 130, the image input unit 150 is installed above the display 130 to capture an image of the front region of the display 130. desirable. Image input unit 150 is preferably a webcam (Webcam) that can be immediately employed without a separate hardware technology in a general PC, but may be implemented in various devices having a digital camera, a camera module.

사용자 정보 인식부(160)는 영상 입력부(150)에서 촬영된 영상 신호로부터 상기 인터페이스 패턴 상에 위치하는 사용자의 위치 정보, 속도 정보 등을 인식한다. 사용자 정보 인식부(160)는 먼저 영상 입력부(150)로부터 입력되는 영상 신호를 처리하여 흑백 영상 신호로 변환, 영상의 크기 변환 등을 수행하고, 상기 인터페이스 패턴의 단위 셀은 경계선만을 표시한다. 다음으로, 사용자 정보 인식부(160)는 상기 영상 신호로부터 상기 단위 셀 중, 사용자의 발이 접촉하여 경계선의 일부가 가려진 단위 셀을 검출하여, 검출된 단위 셀의 위치를 사용자의 위치 정보로 인식할 수 있다. 상기 단위 셀의 검출 과정을 상세하게 설명하도록 한다. 사용자 정보 인식부(160)는 제어부(140)로부터 패턴 생성부(120)에서 생성된 상기 인터페이스 패턴을 제공받는다. 사용자 정보 인식부(160)는 제어부(140)에서 제공받은 상기 인터페이스 패턴과, 상기 영상 처리하여 경계선만이 표시된 단위 셀이 배열된 상기 인터페이스 패턴 및 상기 인터페이스 패턴 상에 위치하는 사용자를 포함한 영상 신호를 비교하여 기준 단위 셀(예를 들어, 1열 좌측의 단위 셀)을 검출한다. 사용자 정보 인식부(160)는 상기 기준 단위 셀부터 소정의 순서에 따라, 상기 인터페이스 패턴을 구성하는 단위 셀을 순차적으로 스캔하여 경계선이 일부 가려져 있는 단위 셀을 검출하고, 상기 경계선이 일부 가려져 있는 단위 셀을 사용자의 위치 정보로 인식한다. 상기 사용자의 위치 정보는 제어부(140)를 통하여 패턴 생성부(120)로 입력되고, 상기 게임 콘텐츠의 계속적인 진행에 제공된다. 또한 상기 사용자의 위치 정보는 계속적으로 변화할 수 있으며, 사용자 정보 인식부(160)는 상기의 과정을 반복하면서 연속적인 사용자 위치 정보를 추출한다. 이와 같은 사용자 위치 정보의 제공과 콘텐츠 실행 과정에 대하여는 도 4에서 상세하게 설명하도록 한다.
The user information recognizing unit 160 recognizes the location information, the speed information, and the like of the user located on the interface pattern from the image signal captured by the image input unit 150. The user information recognizing unit 160 first processes the image signal input from the image input unit 150 to convert the image signal into a black and white image signal, and converts the size of the image. The unit cell of the interface pattern displays only a boundary line. Next, the user information recognizing unit 160 detects a unit cell of a part of the unit cell in which the user's foot is in contact with the part of the boundary line, and recognizes the detected position of the unit cell as the location information of the user. Can be. The detection process of the unit cell will be described in detail. The user information recognizer 160 receives the interface pattern generated by the pattern generator 120 from the controller 140. The user information recognizing unit 160 may generate an image signal including the interface pattern provided from the control unit 140, the interface pattern on which unit cells displaying only boundary lines are arranged by processing the image, and a user located on the interface pattern. By comparison, reference unit cells (eg, unit cells on the left of one column) are detected. The user information recognizing unit 160 sequentially scans the unit cells constituting the interface pattern from the reference unit cell in a predetermined order and detects unit cells that partially block the boundary lines, and then partially hides the boundary lines. Recognize the cell as location information of the user. The location information of the user is input to the pattern generation unit 120 through the control unit 140 and provided to the continuous progress of the game content. In addition, the location information of the user may continuously change, and the user information recognizing unit 160 extracts continuous user location information while repeating the above process. The provision of the user location information and the content execution process will be described in detail with reference to FIG. 4.

상기와 같은 구성을 가진 본 발명에 따른 체감형 콘텐츠 제공 시스템의 예를 도 2를 통하여 상세하게 설명하도록 한다. An example of a haptic content providing system according to the present invention having the above configuration will be described in detail with reference to FIG. 2.

도 2는 본 발명에 따른 체감형 콘텐츠 제공 시스템의 예를 설명하기 위한 일예시도이다. 본 발명에 따른 체감형 콘텐츠 제공 시스템은, 도 2에 도시된 바와 같이, 패턴 생성부, 사용자 정보 인식부 및 제어부의 기능을 수행하며 콘텐츠 DB를 구비한 PC(210), 디스플레이부로서 빔프로젝터(220), 영상 입력부로서 카메라(230)를 포함하여 구성될 수 있고, 상기 PC, 빔프로젝터, 카메라를 모두 포함하는 일체형의 전자 기기로 구성될 수 있다. 또한, 가속도 센서가 구비된 핸드 헬드형 인터페이스 장치(도시하지 않음) 및 모니터 또는 TV와 같은 디스플레이장치(도시하지 않음)를 더 구비할 수 있다. 2 is an exemplary view for explaining an example of a haptic content providing system according to the present invention. In the haptic content providing system according to the present invention, as shown in FIG. 2, a PC 210 having a content DB and performing a function of a pattern generator, a user information recognizing unit, and a controller, and a beam projector as a display unit ( 220, the image input unit may include a camera 230, and may be configured as an integrated electronic device including all of the PC, the beam projector, and the camera. In addition, the device may further include a hand held interface device (not shown) equipped with an acceleration sensor and a display device (not shown) such as a monitor or a TV.

PC(210)에 구비된 콘텐츠 데이터 베이스에 저장되어 있는 다양한 콘텐츠 중 사용자가 선택한 콘텐츠가 실행될 수 있다. 실행될 콘텐츠가 정해지면, 패턴 생성부는 사용자에게 인터페이스 환경을 제공하기 위한 인터페이스 패턴(240)을 생성한다. 본 발명에 따른 체감형 콘텐츠 제공 시스템은 실행되는 콘텐츠에 대응하여 적절한 인터페이스 환경을 제공하여야 하므로, 상기 인터페이스 패턴(240)은 콘텐츠의 종류에 따라 다양하게 형성될 수 있다. 예를 들어, 도 2에서와 같이 정사각형 형상의 단위 셀이 동일한 간격마다 반복적으로 배열되어 직사각형 형상의 인터페이스 패턴(240)을 형성할 수 있다. 또한, 도 3a 및 도 3b에 도시된 바와 같이, 상기 단위 셀은 원 또는 다각형 형상을 가질 수 있고, 그 크기 및 색상도 다양하게 설정될 수 있으며, 상기 단위 셀의 배열 간격, 배열 형태, 배열되는 단위 셀의 개수 등이 다양하게 변경된 인터페이스 패턴(241, 243)이 형성될 수 있다. 만약, 사용자가 선택한 콘텐츠가 교육 콘텐츠라면, 상기 패턴 생성부는 도 3c에서와 같이 키보드 형상의 인터페이스 패턴(245)을 생성할 수 있다. 상기 인터페이스 패턴은 상기 배열된 단위 셀 외에 콘텐츠의 제공에 필요한 소정의 문자열, 미션 영상, 배경 영상 등이 부가되어 생성될 수 있다. Content selected by a user may be executed among various contents stored in a contents database provided in the PC 210. When the content to be determined is determined, the pattern generator generates an interface pattern 240 for providing an interface environment to the user. Since the haptic content providing system according to the present invention should provide an appropriate interface environment corresponding to the executed content, the interface pattern 240 may be variously formed according to the type of the content. For example, as shown in FIG. 2, unit cells having a square shape may be repeatedly arranged at the same interval to form a rectangular interface pattern 240. In addition, as shown in Figure 3a and 3b, the unit cell may have a circular or polygonal shape, the size and color of the unit cells can be set in various ways, the arrangement interval, arrangement form, arrangement of the unit cells Interface patterns 241 and 243 may be formed in which the number of unit cells and the like are variously changed. If the content selected by the user is educational content, the pattern generator may generate a keyboard-shaped interface pattern 245 as shown in FIG. 3C. The interface pattern may be generated by adding a predetermined character string, a mission image, a background image, etc. required for providing content in addition to the arranged unit cells.

이와 같이 상기 패턴 생성부에 의해 생성된 상기 인터페이스 패턴은 빔프로젝터(220)를 통하여 디스플레이된다. 빔프로젝터(220)는 영상이 투영되는 위치를 다양하게 설정할 수 있으며, 별도로 설치된 투영 스크린, 또는 별도의 투영 스크린을 구비하지 않더라도 주위의 조명을 조절하면 벽면, 바닥면 등에도 영상을 표시할 수 있다. 본 발명에 따른 체감형 콘텐츠 제공 시스템의 경우에, 콘텐츠의 종류에 따라 바닥면, 벽면에 상기 인터페이스 패턴이 표시될 수 있고, 이 외에도 평평한 면을 가지는 임의의 구조물에 상기 인터페이스 패턴이 표시될 수 있다. As such, the interface pattern generated by the pattern generator is displayed through the beam projector 220. The beam projector 220 may set various positions at which the image is projected, and may display an image on a wall, a bottom surface, etc. by adjusting ambient lighting even without a separately installed projection screen or a separate projection screen. . In the case of a haptic content providing system according to the present invention, the interface pattern may be displayed on a bottom surface and a wall surface according to the type of content, and the interface pattern may be displayed on any structure having a flat surface. .

카메라(230)는 대상물의 영상을 촬영하게 되는데, 상기 대상물은 상기 인터페이스 패턴 및 사용자를 포함한다. 카메라(230)에 의해 촬영된 영상 신호는 사용자 정보 인식부로 입력되어 크기 변환, 흑백 변환 등의 영상 처리 과정을 거치게 되며, 특히 상기 인터페이스 패턴의 단위 셀은 경계선만이 표시되도록 처리된다. 다음으로, 상기 사용자 정보 인식부는 경계선의 일부가 가려져 있는 단위 셀을 사용자의 위치 정보, 즉 사용자가 접촉하고 있는 단위 셀로 판단한다. 사용자의 위치 정보를 인식함에 있어서, 상기 사용자 정보 인식부는 상기 패턴 생성부에서 생성한 인터페이스 패턴을 제어부를 통하여 입력받고, 상기 제어부로부터 입력받은 인터페이스 패턴과 상기 영상 처리된 영상 신호를 비교하여 기준 단위 셀을 검출한다. 상기 기준 단위 셀로부터 소정의 순서에 따라 순차적으로 각 단위 셀을 스캔하고, 경계선의 일부가 가려져 있는 단위 셀을 검출하여 사용자의 위치 정보로 인식하게 된다. 또는, 사용자가 달리는 동작을 행하는 경우, 상기 단위 셀의 경계선이 가려지는 빈도수를 기준 시간 동안 카운트하여 사용자의 속도 정보를 인식할 수 있다. 한편, 상기 핸드 헬드형 인터페이스 장치는 가속도 센서를 구비하므로, 사용자가 달리거나, 물체를 던지는 동작 등을 행할 때 이용될 수 있다. 예를 들어, 창 던지기 게임 콘텐츠가 실행될 경우에, 사용자가 상기 핸드 헬드형 인터페이스 장치를 손에 쥐고 던지는 동작을 행하면, 물체의 투척 속도 및 낙하 위치 등을 계산하여 사용자 정보로 활용할 수 있다.
The camera 230 photographs an image of the object, which includes the interface pattern and the user. The image signal photographed by the camera 230 is input to the user information recognizing unit to undergo image processing such as size conversion and black and white conversion. In particular, the unit cell of the interface pattern is processed so that only a boundary line is displayed. Next, the user information recognizing unit determines the unit cell of which a part of the boundary line is hidden as the location information of the user, that is, the unit cell that the user is in contact with. In recognizing user location information, the user information recognizing unit receives an interface pattern generated by the pattern generating unit through a control unit, and compares the interface pattern received from the control unit with the image processed image signal to reference unit cell. Is detected. Each unit cell is sequentially scanned from the reference unit cell in a predetermined order, and a unit cell, which is partially covered by a boundary line, is detected and recognized as position information of the user. Alternatively, when the user performs a running operation, the user may recognize the user's speed information by counting the frequency at which the boundary of the unit cell is covered for a reference time. On the other hand, since the handheld interface device includes an acceleration sensor, the handheld interface device may be used when the user runs or throws an object. For example, when the throwing game content is executed, when the user performs the throwing operation with the hand held interface device in hand, the throwing speed and the falling position of the object may be calculated and used as the user information.

도 4는 본 발명에 따른 체감형 콘텐츠 제공 방법을 설명하기 위한 순서흐름도이다. 4 is a flowchart illustrating a haptic content providing method according to the present invention.

사용자는 체감형 콘텐츠 제공 시스템의 콘텐츠 DB(110)에 저장되어 있는 다양한 콘텐츠 중 어느 하나를 선택하여 실행시킬 수 있다(S10). 이하의 콘텐츠 제공 방법의 설명과 관련하여, 인터페이스의 패턴을 접촉 영역 및 비접촉 영역으로 구분하여 서로 다른 색상으로 표시하고, 사용자가 상기 색상 표시에 따른 지시 사항을 이행하는 게임 콘텐츠가 실행되는 경우를 예를 들어 설명하도록 한다. The user may select and execute any one of various contents stored in the content DB 110 of the haptic content providing system (S10). In relation to the following description of the content providing method, an example of a case in which a game content in which a pattern of an interface is divided into a contact area and a non-contact area and displayed in different colors and a user implements the instructions according to the color display is executed. Let's explain.

먼저, 패턴 생성부(120)는 상기 게임 콘텐츠를 제공하기 위한 인터페이스 패턴을 생성한다(S20). 상기 인터페이스 패턴은 사각형 형상의 단위 셀이 반복적으로 배열되어 형성된다. 상기 게임 콘텐츠의 제공을 위하여 사용자의 움직임에 대한 지시 사항으로서 상기 복수의 단위 셀은 임의의 색상으로 채워질 수 있다. 상기 지시 사항으로서 사용자가 접촉하거나 이동해야 할 하나 이상의 단위 셀을 녹색으로 표시하고, 사용자가 접촉하지 않아야 하는 단위 셀을 적색으로 표시할 수 있다. 또한, 상기 게임 콘텐츠가 키보드, 마우스 등의 표준 입출력 장치 기반인 경우, 패턴 생성부(120)는 상기 표준 입출력 장치와 상기 인터페이스 패턴에 포함되는 특정의 단위 셀들과 각각 매핑하여 상기 인터페이스 패턴을 통한 메뉴 이동, 캐릭터 선택 등의 데이터 입출력이 가능하도록 한다. First, the pattern generator 120 generates an interface pattern for providing the game content (S20). The interface pattern is formed by repeatedly arranging unit cells having a rectangular shape. In order to provide the game content, the plurality of unit cells may be filled with any color as an instruction for a user's movement. As the above instruction, one or more unit cells to be touched or moved by the user may be displayed in green, and the unit cells which should not be touched by the user may be displayed in red. In addition, when the game content is based on a standard input / output device such as a keyboard or a mouse, the pattern generator 120 maps each of the standard input / output device and specific unit cells included in the interface pattern to select a menu through the interface pattern. Enables data input and output such as movement and character selection.

다음으로, 디스플레이부(130)는 생성된 상기 인터페이스 패턴을 표시한다(S30). 디스플레이부(130)는 빔프로젝터 또는 레이저 프로젝터 등으로 구성될 수 있다. 사용자가 상기 지시 사항에 따라 소정의 단위 셀에 발을 접촉할 수 있도록, 빔프로젝터에서 상기 인터페이스 패턴 영상을 확대하여 바닥면(또는 바닥면에 설치된 투영 스크린)에 표시한다. Next, the display 130 displays the generated interface pattern (S30). The display unit 130 may be configured as a beam projector or a laser projector. The interface pattern image is enlarged and displayed on a bottom surface (or a projection screen installed on the bottom surface) in a beam projector so that a user can touch a foot to a predetermined unit cell according to the instructions.

영상 입력부(150)는 사용자가 상기 인터페이스 패턴 상에 위치하여 단위 셀의 색상 표시에 따른 상기 지시 사항을 이행하기 위하여 움직이는 영상을 촬영하고, 촬영한 영상 신호는 사용자 정보 인식부(160)로 입력된다(S40). 이때, 영상이 촬영되는 소정의 영역에는 상기 인터페이스 패턴이 표시된 영역 및 상기 인터페이스 패턴 상에 위치하는 사용자가 포함되어야 한다. The image input unit 150 captures a moving image in order for the user to be positioned on the interface pattern to perform the instructions according to the color display of the unit cell, and the captured image signal is input to the user information recognizing unit 160. (S40). In this case, the predetermined region where the image is captured should include a region where the interface pattern is displayed and a user located on the interface pattern.

사용자 정보 인식부(160)는 상기 인터페이스 패턴과 사용자를 촬영한 영상 신호를 처리하는데, 상기 영상 신호를 흑백 영상 신호로 변환, 영상의 크기 변환 등을 수행하고, 상기 인터페이스 패턴의 단위 셀은 경계선만을 표시하도록 영상 처리한다(S50). 다음으로, 사용자 정보 인식부(160)는 상기와 같이 영상 처리된 영상 신호로부터 상기 인터페이스 패턴 상에 위치하는 사용자의 위치 정보를 인식한다. 상기 영상 신호에는 경계선만이 표시된 단위 셀들을 포함하는 상기 인터페이스 패턴 및 상기 인터페이스 패턴 상에 위치하는 사용자가 포함되어 있으며, 사용자 정보 인식부(160)는 상기 인터페이스 패턴의 단위 셀 중 사용자의 발이 접촉됨으로 인하여 경계선의 일부가 가려져 있는 단위 셀을 검출하여, 검출된 단위 셀의 위치를 사용자의 위치 정보로 인식한다(S60). 상기 경계선의 일부가 가려져 있는 단위 셀의 검출 및 사용자 위치 정보 인식 과정에 대하여 더욱 상세하게 설명하도록 한다. 사용자 정보 인식부(160)는 제어부(140)로부터 패턴 생성부(120)에서 생성된 상기 인터페이스 패턴을 제공받는다. 사용자 정보 인식부(160)는 제어부(140)에서 제공받은 상기 인터페이스 패턴과, 영상 처리하여 경계선만이 표시된 단위 셀이 배열된 상기 영상 신호를 비교하여 기준 단위 셀(예를 들어, 1열 좌측의 단위 셀)을 검출한다. 사용자 정보 인식부(160)는 상기 기준 단위 셀부터 소정의 순서에 따라, 상기 인터페이스 패턴을 구성하는 단위 셀을 순차적으로 스캔하여 경계선이 일부 가려져 있는 단위 셀을 검출하게 된다. 검출된 상기 단위 셀은 사용자의 발이 접촉함으로써 경계선의 일부가 보이지 않는 경우로 판단되므로, 상기 검출된 단위 셀을 사용자의 위치 정보로 인식한다. 한편, 패턴 생성부(120)는 상기 인터페이스 패턴을 생성할 때, 각 단위 셀을 순번 또는 상기 기준 단위 셀을 기준점으로 한 좌표값 등으로 구별할 수 있으므로, 특정의 단위 셀을 사용자의 위치 정보로 인식함으로써 사용자의 위치 정보로 특정할 수 있다. 상기 사용자의 위치 정보는 제어부(140)를 통하여 패턴 생성부(120)로 입력되어, 상기 게임 콘텐츠의 계속적인 진행에 제공된다. 즉, 패턴 생성부(120)는 녹색으로 표시된 단위 셀과 사용자의 위치 정보로 인식된 단위 셀이 일치하면 지시 사항의 정확한 이행에 따른 피드백으로 해당 단위 셀을 황색으로 표시한 후, 다음의 지시 사항으로서, 단위 셀의 색상을 변경한 인터페이스 패턴을 생성하고, 상술한 과정이 반복된다. 이와 같이, 본 발명에 따른 체감형 콘텐츠 제공 시스템은 사용자가 인터페이스 장치를 조작하여야 하는 부담을 덜어주고, 인터페이스 패턴에 신체의 일부를 접촉하는 과정만으로 콘텐츠를 즐길 수 있으며, 실행되는 콘텐츠의 종류에 대응하여 다양한 인터페이스 패턴을 제공함으로써, 특히 체감형 콘텐츠의 현실감 및 몰입감을 향상시킬 수 있다.
The user information recognizing unit 160 processes the interface pattern and the image signal photographing the user. The user information recognizing unit 160 converts the image signal into a black and white image signal, converts the size of the image, and the unit cell of the interface pattern. Image processing is performed to display (S50). Next, the user information recognizing unit 160 recognizes the location information of the user located on the interface pattern from the image signal processed as described above. The image signal includes the interface pattern including unit cells displaying only boundary lines and a user located on the interface pattern, and the user information recognizer 160 contacts the user's foot among the unit cells of the interface pattern. As a result, the unit cell of which a part of the boundary line is covered is detected, and the detected position of the unit cell is recognized as location information of the user (S60). A process of detecting a unit cell in which part of the boundary line is covered and recognizing user location information will be described in more detail. The user information recognizer 160 receives the interface pattern generated by the pattern generator 120 from the controller 140. The user information recognizing unit 160 compares the interface pattern provided from the control unit 140 with the image signal in which the unit cells in which only boundary lines are displayed by image processing are arranged to compare the reference unit cell (for example, at the left of one column). Unit cell) is detected. The user information recognizing unit 160 sequentially scans the unit cells constituting the interface pattern from the reference unit cell in a predetermined order, and detects unit cells that partially block the boundary lines. Since the detected unit cell is determined as a part of the boundary line is not visible when the user's foot touches, the detected unit cell recognizes the detected unit cell as the location information of the user. Meanwhile, when generating the interface pattern, the pattern generator 120 may distinguish each unit cell by a sequence number or a coordinate value based on the reference unit cell as a reference point. By recognizing, the location information of the user can be specified. The location information of the user is input to the pattern generation unit 120 through the control unit 140 and provided to the continuous progress of the game content. That is, if the unit cell displayed in green and the unit cell recognized as the user's location information coincide with each other, the pattern generator 120 displays the corresponding unit cell in yellow according to the feedback according to the correct implementation of the instruction, and then the following instruction. As an example, an interface pattern in which the color of the unit cell is changed is generated, and the above-described process is repeated. In this way, the haptic content providing system according to the present invention can reduce the burden of the user to operate the interface device, enjoy the content only by the process of touching a part of the body to the interface pattern, corresponding to the type of content to be executed By providing various interface patterns, in particular, realism and immersion of haptic content can be improved.

이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 보호 범위는 다음의 특허청구범위뿐만 아니라 이와 균등한 것들에 의해 정해져야 한다.
While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention as defined by the appended claims. Accordingly, the scope of protection of the present invention should be determined by the following claims, as well as equivalents thereof.

110 : 콘텐츠 DB 120 : 패턴 생성부
130 : 디스플레이부 140 : 제어부
150 : 영상 입력부 160 : 사용자 정보 인식부
110: content DB 120: pattern generator
130: display unit 140: control unit
150: image input unit 160: user information recognition unit

Claims (7)

콘텐츠 데이터 베이스를 포함하는 체감형 콘텐츠 제공 시스템에 있어서,
상기 콘텐츠 데이터 베이스에 저장되어 있는 콘텐츠를 제공하기 위한 인터페이스 패턴을 생성하는 패턴 생성부;
상기 인터페이스 패턴을 표시하는 디스플레이부;
상기 인터페이스 패턴이 표시된 소정 영역의 영상을 촬영하는 영상 입력부;
상기 영상 입력부에서 촬영된 영상 신호로부터 상기 인터페이스 패턴 상에 위치하는 사용자 정보를 인식하는 사용자 정보 인식부를 포함하는 체감형 콘텐츠 제공 시스템.
In a haptic content providing system comprising a content database,
A pattern generator for generating an interface pattern for providing content stored in the content database;
A display unit displaying the interface pattern;
An image input unit configured to capture an image of a predetermined region in which the interface pattern is displayed;
And a user information recognizing unit recognizing user information located on the interface pattern from the image signal photographed by the image input unit.
제1항에 있어서,
상기 인터페이스 패턴은,
원 또는 다각형 형상의 단위 셀이 적어도 하나 이상 배열되어 형성되는 것을 특징으로 하는 체감형 콘텐츠 제공 시스템.
The method of claim 1,
The interface pattern is,
Feel-like content providing system, characterized in that formed in at least one unit cell of a circle or polygonal shape arranged.
제2항에 있어서,
상기 사용자 정보 인식부는,
상기 영상 입력부에서 촬영된 영상 신호로부터 상기 단위 셀 중 경계선의 일부가 가려져 있는 적어도 하나 이상의 단위 셀을 검출하여 사용자의 위치 정보로 인식하는 것을 특징으로 하는 체감형 콘텐츠 제공 시스템.
The method of claim 2,
The user information recognition unit,
And at least one unit cell of which a part of a boundary line is covered from the image signal captured by the image input unit is detected and recognized as position information of the user.
제1항에 있어서,
가속도를 감지할 수 있는 가속도 센서를 구비하는 핸드 헬드(hand-held)형 인터페이스부를 더 포함하는 체감형 콘텐츠 제공 시스템.
The method of claim 1,
A haptic content providing system further comprising a hand-held interface unit having an acceleration sensor capable of sensing acceleration.
(a) 콘텐츠를 제공하기 위한 인터페이스 패턴을 생성하는 단계;
(b) 생성된 상기 인터페이스 패턴을 표시하는 단계;
(c) 상기 인터페이스 패턴이 표시된 소정 영역의 영상을 촬영하는 단계; 및
(d) (c)단계에서 촬영된 영상 신호로부터 사용자의 위치 정보를 인식하는 단계를 포함하는 체감형 콘텐츠 제공 방법.
(a) generating an interface pattern for providing content;
(b) displaying the generated interface pattern;
(c) capturing an image of a predetermined area in which the interface pattern is displayed; And
and (d) recognizing location information of the user from the image signal photographed in step (c).
제5항에 있어서,
상기 인터페이스 패턴은,
원 또는 다각형 형상의 단위 셀이 적어도 하나 이상 배열되어 형성되는 것을 특징으로 하는 체감형 콘텐츠 제공 방법.
The method of claim 5,
The interface pattern is,
Method of providing haptic content, characterized in that formed at least one unit cell of a circle or polygonal shape is arranged.
제6항에 있어서,
(d) 단계는,
(c) 단계에서 촬영된 영상 신호를 처리하여 상기 단위 셀은 경계선만을 표시하는 단계; 및
상기 단위 셀 중 경계선의 일부가 가려져 있는 적어도 하나 이상의 단위 셀을 검출하여 사용자의 위치 정보를 인식하는 단계를 포함하는 것을 특징으로 하는 체감형 콘텐츠 제공 방법.

The method of claim 6,
(d) step,
processing the image signal photographed in step (c) to display only a boundary line of the unit cell; And
And detecting at least one unit cell of which a part of a boundary of the unit cells is hidden to recognize location information of the user.

KR1020110008638A 2011-01-28 2011-01-28 System and method for providing bodily sensitive contents KR20120087446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110008638A KR20120087446A (en) 2011-01-28 2011-01-28 System and method for providing bodily sensitive contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110008638A KR20120087446A (en) 2011-01-28 2011-01-28 System and method for providing bodily sensitive contents

Publications (1)

Publication Number Publication Date
KR20120087446A true KR20120087446A (en) 2012-08-07

Family

ID=46872992

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110008638A KR20120087446A (en) 2011-01-28 2011-01-28 System and method for providing bodily sensitive contents

Country Status (1)

Country Link
KR (1) KR20120087446A (en)

Similar Documents

Publication Publication Date Title
JP5256561B2 (en) Information input device, information output device and method
US10661157B2 (en) Method and system incorporating real environment for virtuality and reality combined interaction
US9272202B2 (en) Method and apparatus for tracking of a plurality of subjects in a video game
US20100199228A1 (en) Gesture Keyboarding
CN113826058A (en) Artificial reality system with self-tactile virtual keyboard
CN102033702A (en) Image display device and display control method thereof
KR101410410B1 (en) Bodily sensation type learning apparatus and method
US20090247251A1 (en) Game device and program
WO2012172548A1 (en) Method for translating a movement and an orientation of a predefined object into a computer generated data
WO2019000430A1 (en) Electronic systems and methods for text input in a virtual environment
CN113785262A (en) Artificial reality system with finger mapping self-touch input method
JP6514376B1 (en) Game program, method, and information processing apparatus
KR102088335B1 (en) Mixed reality-based learning game providing system that can simultaneously learn and exercise
WO2014093770A2 (en) Tangible alphanumeric interaction on multi-touch digital display
KR20150097050A (en) learning system using clap game for child and developmental disorder child
JP3138145U (en) Brain training equipment
JP2019126741A (en) Game program, method, and information processor
KR101326869B1 (en) Virtual golf simulation apparatus for supporting generation of virtual golf course and method therefor
KR20120087446A (en) System and method for providing bodily sensitive contents
TWI729323B (en) Interactive gamimg system
Chien et al. Gesture-based head-mounted augmented reality game development using leap motion and usability evaluation
KR101212629B1 (en) System for providing bodily sensitive contents
KR20150011559A (en) Method for Offering Multiple Player Game using Motion Sensor of Single and Apparatus thereof
KR102556410B1 (en) Battleship puzzle calculation game device for performing calculation games using battleship puzzles
JP6298915B1 (en) GAME PROGRAM, METHOD, AND INFORMATION PROCESSING DEVICE

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application