KR101517001B1 - 입력 장치 및 방법 - Google Patents

입력 장치 및 방법 Download PDF

Info

Publication number
KR101517001B1
KR101517001B1 KR1020080124714A KR20080124714A KR101517001B1 KR 101517001 B1 KR101517001 B1 KR 101517001B1 KR 1020080124714 A KR1020080124714 A KR 1020080124714A KR 20080124714 A KR20080124714 A KR 20080124714A KR 101517001 B1 KR101517001 B1 KR 101517001B1
Authority
KR
South Korea
Prior art keywords
contact
input signal
information
contact information
avatar
Prior art date
Application number
KR1020080124714A
Other languages
English (en)
Other versions
KR20100066070A (ko
Inventor
이현정
장욱
한승주
박준아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080124714A priority Critical patent/KR101517001B1/ko
Priority to US12/453,356 priority patent/US9058091B2/en
Publication of KR20100066070A publication Critical patent/KR20100066070A/ko
Application granted granted Critical
Publication of KR101517001B1 publication Critical patent/KR101517001B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉 및 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제1 접촉 정보 및 제2 접촉 정보를 생성하고, 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한 후 상기 입력 신호를 상기 디스플레이 장치로 전송하는 입력 장치가 개시된다. 한편, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 디스플레이 장치 상에 디스플레이되는 개체를 제어할 수 있다.
입력, 디스플레이 장치, 접촉, 감지, 제어, 개체

Description

입력 장치 및 방법{INPUT DEVICE AND INPUT METHOD}
입력 장치 및 방법이 개시된다. 특히, 사용자에게 직관적인 입력 인터페이스를 제공함으로써 사용자가 디스플레이 장치 상에 디스플레이되는 개체를 손쉽게 조작할 수 있도록 하는 입력 장치 및 방법이 개시된다.
최근, 다양한 정보기기의 출현으로 인해, 이러한 정보기기를 제어할 수 있는 다양한 입력 장치에 대한 관심이 증폭되고 있다.
기존에 존재하고 있는 입력 장치 중 대표적인 것으로 컴퓨터 등에서 많이 사용되는 마우스나 키보드 등을 들 수 있다.
마우스와 같은 입력 장치는 그래픽 유저 인터페이스(Graphic User Interface: GUI)를 기반으로 하는 입력 인터페이스를 제공할 수 있어서, 컴퓨터와 같은 정보기기를 사용하는 사용자에게 많은 편리함을 가져다 주었다.
하지만, 기존의 입력 장치들은 주로 명령행 인터페이스(command line interface)나 2차원 GUI에 적합하여 어린이나 노약자 등 최신 정보기기에 익숙하지 않은 초보 사용자가 이를 사용하기에는 많은 어려움이 있었다.
특히, 최근에는 3D 게임이나, 3차원 인터넷이 대중화되면서, 3차원 가상 공 간 상에서 디스플레이되는 객체를 제어하기 위한 입력 인터페이스에 대한 요구가 증가하고 있다.
하지만, 기존의 입력 장치들은 2차원 입력 인터페이스를 중심으로 제작되었기 때문에, 3차원 가상 공간의 객체를 제어하기에는 다소 적절하지 못한 점이 있었다.
따라서, 3차원 가상 공간에서 사용자에게 편리한 인터페이스를 제공할 수 있는 입력 장치에 대한 연구가 필요하다.
본 발명의 일실시예에 따른 입력 장치는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성하는 제1 접촉 감지부, 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성하는 제2 접촉 감지부 및 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 소정의 디스플레이 장치에 대한 입력 신호를 생성하는 입력 신호 생성부를 포함한다.
또한, 본 발명의 일실시예에 따른 입력 장치는 상기 입력 신호 생성부에서 생성된 입력 신호를 상기 디스플레이 장치로 전송하는 전송부를 더 포함하고, 상기 디스플레이 장치로 전송되는 상기 입력 신호는 상기 디스플레이 장치 상에 디스플레이되는 개체를 제어한다.
또한, 본 발명의 일실시예에 따른 입력 방법은 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성하는 단계, 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성하는 단계 및 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 소정의 디스플레이 장치에 대한 입력 신호를 생성하는 단계를 포함한다.
또한, 본 발명의 일실시예에 따른 입력 방법은 상기 입력 신호를 상기 디스플레이 장치로 전송하는 단계를 더 포함하고, 상기 디스플레이 장치로 전송되는 상 기 입력 신호는 상기 디스플레이 장치 상에 디스플레이 되는 개체를 제어한다.
3차원 공간 좌표축 중 평면 좌표축을 따르는 접촉과 수직 좌표축을 따르는 접촉을 각각 감지하여 디스플레이 장치 상에서 디스플레이되는 개체를 조작할 수 있는 입력 장치 및 방법을 제공함으로써, 사용자에게 직관적인 입력 인터페이스를 제공할 수 있다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 입력 장치의 구조를 도시한 도면이다.
도 1을 참조하면, 입력 장치(110) 및 디스플레이 장치(120)가 도시되어 있다.
입력 장치(110)는 제1 접촉 감지부(111), 제2 접촉 감지부(112), 입력 신호 생성부(113) 및 전송부(114)를 포함할 수 있다.
제1 접촉 감지부(111)는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
제2 접촉 감지부(112)는 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
본 발명의 일실시예에 따르면, 입력 장치(110)는 상기 제1 접촉 정보 및 상기 제2 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부(미도시) 를 더 포함할 수 있다.
입력 신호 생성부(113)는 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 디스플레이 장치(120)에 대한 입력 신호를 생성한다.
본 발명의 일실시예에 따르면, 입력 신호 생성부(113)는 적어도 하나의 선정된(predetermined) 동작 정보가 포함된 테이블(table)을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하는 동작 정보 생성부(미도시)를 포함할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 동작 정보 생성부는 상기 어느 하나 이상의 접촉 정보를 기초로 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치를 추적(tracking)하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성할 수 있다.
전송부(114)는 입력 신호 생성부(113)에서 생성된 상기 입력 신호를 디스플레이 장치(120)로 전송한다.
이때, 디스플레이 장치(120)로 전송되는 상기 입력신호는 디스플레이 장치(120) 상에 디스플레이 되는 개체를 제어할 수 있다. 즉, 디스플레이 장치(120)는 입력 장치(110)로부터 상기 입력 신호를 수신하면, 상기 입력 신호에 기초하여 디스플레이 장치(120) 상에 디스플레이되는 개체를 제어할 수 있다.
이하에서는 도 2를 참조하여 본 발명의 일실시예에 따른 입력 장치(110)의 동작에 대해 상세히 설명하기로 한다.
도 2는 본 발명의 일실시예에 따라 입력 장치를 통해 제어 가능한 개체의 동작의 종류에 대한 예를 도시한 도면이다.
먼저, 디스플레이 장치(120)에 디스플레이되는 개체가 가상의 3D 공간 상에 존재하는 아바타(avatar)이고, 사용자는 입력 장치(110)를 통해 상기 아바타를 조작한다고 가정하자.
상기 아바타는 3D 공간에 존재하므로 상기 아바타는 도 2에 도시된 바와 같이 3차원 공간 좌표축 상에서 다양한 동작을 취할 수 있다.
그리고, 도 2에 도시된 실시예와 같이 상기 아바타는 3D 공간에서 6DOF(Degree of freedom) 조작 체계를 따를 수 있다.
먼저, 제1 접촉 감지부(111)는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
예컨대, 사용자가 상기 아바타를 Y축 방향으로 이동(210)시키거나 X 축 방향으로 이동(220)시키고자 하는 경우, 사용자는 제1 접촉 감지부(111)를 통해 상기 아바타를 조작할 수 있다.
즉, 제1 접촉 감지부(111)는 3차원 공간 좌표축 중 평면 좌표축(X축, Y축)을 따라 발생하는 제1 접촉을 감지함으로써, 사용자가 상기 아바타를 Y축 방향으로 이동(210)시키거나 X축 방향으로 이동(220)시키는 2차원 조작, 즉, 상기 아바타를 상기 좌표축을 따라 발생하는 제1 접촉을 감지하고, 상기 감지된 제1 접촉에 대한 발 생 신호들을 조합하여 상기 xy 평면상의 이동 조작이 가능하도록 할 수 있다.
제2 접촉 감지부(112)는 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
예컨대, 사용자가 상기 아바타를 Z축 방향으로 이동(230)시키고자 하는 경우, 사용자는 제2 접촉 감지부(112)를 통해 상기 아바타를 조작할 수 있다.
즉, 제2 접촉 감지부(112)는 3차원 공간 좌표축 중 수직 좌표축(Z축)을 따라 발생하는 제2 접촉을 감지함으로써, 사용자가 상기 아바타를 Z축 방향으로 이동시키는 조작이 가능하도록 할 수 있다.
또한, 제1 접촉 감지부(111)와 제2 접촉 감지부(112)는 사용자가 상기 아바타를 Y축 기준으로 회전(240)시키거나 X축 기준으로 회전(250)시키거나 Z축 기준으로 회전(260)시키기 위해 제1 접촉 감지부(111)와 제2 접촉 감지부(112) 상에 제1 접촉 또는 제2 접촉을 발생시키는 경우, 상기 제1 접촉 또는 상기 제2 접촉을 감지하여 제1 접촉 정보 또는 제2 접촉 정보를 생성할 수 있다.
예컨대, 사용자는 상기 아바타를 X축과 Y축으로 이루어진 평면 상에서 Z축 기준으로 회전(260)시키기 위해 제1 접촉 감지부(111) 상에 원 형태의 제1 접촉을 발생시킬 수 있다.
본 발명의 일실시예에 따르면, 입력 장치(110)는 상기 제1 접촉 정보 및 상기 제2 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부(미도시)를 더 포함할 수 있다.
입력 신호 생성부(113)는 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 디스플레이 장치(120)에 대한 입력 신호를 생성한다.
예컨대, 만약, 사용자가 상기 아바타를 Y축 방향으로 이동(210)시키기 위해 제1 접촉 감지부(111) 상에 Y축 방향의 제1 접촉을 발생시키는 경우, 제1 접촉 감지부(111)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 입력 신호 생성부(113)는 상기 제1 접촉 정보를 분석하여 디스플레이 장치(120)로 전송될 입력 신호를 생성한다.
또한, 사용자가 상기 아바타를 Z축 방향으로 이동(230)시키기 위해 제2 접촉 감지부(112) 상에 Z축 방향의 제2 접촉을 발생시키는 경우, 제2 접촉 감지부(112)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 입력 신호 생성부(113)는 상기 제2 접촉 정보를 분석하여 디스플레이 장치(120)로 전송될 입력 신호를 생성한다.
또한, 입력 신호 생성부(113)는 사용자가 제1 접촉 감지부(111)와 제2 접촉 감지부(112) 상에 제1 접촉 및 제2 접촉을 동시에 발생시키는 경우, 제1 접촉 정보 및 제2 접촉 정보를 분석하여 상기 아바타가 3차원 공간에서 소정의 동작을 취할 수 있도록 하는 동작 정보가 포함된 입력 신호를 생성할 수 있다.
예컨대, 사용자가 제1 접촉 감지부(111) 상에 Z축을 기준으로 회전하는 제1 접촉을 발생시키고, 제2 접촉 감지부(112) 상에 Z축 방향으로 이동하는 제2 접촉을 발생시키는 경우, 입력 신호 생성부(113)는 제1 접촉 정보와 제2 접촉 정보를 분석하여 상기 아바타가 Z축을 기준으로 회전(260)하면서 Z축 방향으로 이동(230)하는 동작을 취할 수 있도록 하는 동작 정보가 포함된 입력 신호를 생성할 수 있다.
본 발명의 일실시예에 따르면, 입력 신호 생성부(113)는 적어도 하나의 선정된 동작 정보가 포함된 테이블을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 아바타의 동작과 연관된 동작 정보를 생성하는 동작 정보 생성부(미도시)를 더 포함할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
예컨대, 사용자가 제1 접촉 감지부(111) 상에 Y축 방향으로 이동하는 제1 접촉을 발생시키는 경우, 상기 동작 정보 생성부는 적어도 하나의 선정된 동작 정보가 포함된 테이블을 참조하여 제1 접촉 정보로부터 상기 아바타가 Y축 방향으로 이동(210)하도록 하는 동작 정보를 생성할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 동작 정보 생성부는 상기 어느 하나 이상의 접촉 정보를 기초로 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적하여 상기 아바타의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 아바타의 동작으로부터 상기 동작 정보를 생성할 수 있다.
예컨대, 사용자가 제2 접촉 감지부(112) 상에 Z축 방향으로 이동하는 제2 접촉을 발생시키는 경우, 상기 동작 정보 생성부는 제2 접촉 정보를 기초로 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적할 수 있다.
다음으로, 상기 동작 정보 생성부는 상기 제2 접촉의 위치 추적 결과를 바탕으로 상기 아바타의 동작을 추정할 수 있다. 예컨대, 상기 동작 정보 생성부는 상 기 아바타의 동작을 Z축 방향으로 이동(230)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 적어도 하나의 선정된 아바타의 동작 정보 중에서 상기 추정된 아바타의 동작과 유사한 동작에 대한 동작 정보를 추출하여 상기 아바타에 대한 동작 정보를 생성할 수 있다. 예컨대, 상기 동작 정보 생성부는 상기 아바타의 동작을 Z축 방향으로 이동(230)하는 동작으로 추정하였으므로, 상기 적어도 하나의 선정된 동작 정보 중에서 상기 아바타가 Z축 방향으로 이동(230)하는 동작에 대한 동작 정보를 추출하여 상기 아바타에 대한 동작 정보를 생성할 수 있다.
입력 신호 생성부(113)가 상기 입력 신호를 생성하였으면, 전송부(114)는 상기 입력 신호를 디스플레이 장치(120)로 전송한다.
디스플레이 장치(120)는 상기 입력 신호를 수신하면, 상기 입력 신호에 기초하여 디스플레이 장치(120) 상에 디스플레이되는 상기 아바타를 제어한다.
이하에서는 도 3 내지 도 5를 참조하여 입력 장치(110)에 대한 다양한 실시예를 살펴보기로 한다.
도 3은 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제1 실시예를 도시한 도면이다.
도 3을 참조하면, 도면부호 310은 본 발명의 일실시예에 따른 입력 장치의 구조를 도시한 도면이고, 도면부호 320은 상기 입력 장치를 통해 조작 가능한 개체의 동작의 종류를 도시한 도면이다.
도면부호 310을 살펴보면, 본 발명의 일실시예에 따른 입력 장치는 구 형상으로 구현될 수 있다. 이때, 구 형상의 윗 부분을 평면으로 구성함으로써 제1 접촉 감지부(311)를 구현할 수 있다. 그리고, 제2 접촉 감지부(312)는 도면부호 310에 도시된 바와 같이 구 형상의 옆면에 구현될 수 있다.
따라서, 이하에서는 도면부호 320을 참조하여 입력 장치(310)를 통해 사용자가 디스플레이 장치 상에 디스플레이된 개체를 조작하는 과정에 대해 상세히 설명하기로 한다.
이때, 본 발명의 일실시예에 따른 입력 장치(310)는 표면에 접촉 동작을 인식하기 위하여 멀티 터치를 센싱할 수 있는 센서를 포함하고 있다. 즉, 입력 장치(310)는 제1 접촉 감지부(311) 및 제2 접촉 감지부와 직접적으로 연결되는 전체 표면 내부에 멀티 터치 제스처를 인식할 수 있는 센서가 장착될 수 있다.
또한, 본 발명의 일실시예에 따른 입력 장치(310)는 하우징 안쪽으로 센서 노드를 곡면을 따라 부착하여, 터치 신호 센싱을 수행하는데 문제가 없으며, 상기 멀티 센서로는 비접촉식 터치 센서, 예를 들어, 정전용량 방식의 센서가 바람직하나 상기 비접촉식 터치 센서에 국한된 것은 아니다.
먼저, 상기 디스플레이 장치 상에 디스플레이되는 개체는 가상의 3D 공간 상에 존재하는 아바타(avatar)이고, 사용자는 입력 장치(310)를 통해 상기 아바타를 조작한다고 가정하자.
첫 번째로 사용자가 상기 아바타를 직진(321)시키고자 하는 경우, 사용자는 제1 접촉 감지부(311)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(311) 상에 손가락 등을 이용하여 아래에서 위로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(311)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
본 발명의 일실시예에 따르면, 입력 장치(310)는 상기 제1 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부(미도시)를 더 포함할 수 있다.
다음으로, 입력 신호 생성부(미도시)가 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
본 발명의 일실시예에 따르면, 상기 입력 신호 생성부는 동작 정보 생성부(미도시)를 더 포함할 수 있다.
상기 동작 정보 생성부는 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 직진(321)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(321)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 전송부(미도시)는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 직진(321)하도록 상기 아바타의 동작을 제어한다.
두 번째로 사용자가 상기 아바타를 후진(322)시키고자 하는 경우, 사용자는 제1 접촉 감지부(311)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(311) 상에 손가락 등을 이용하여 위에서 아래로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(311)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 후진(322)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(322)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 후진(322)하도록 상기 아바타의 동작을 제어한다.
세 번째로 사용자가 상기 아바타를 날아오르게 하거나 점프 등(323)을 시키고자 하는 경우, 사용자는 제2 접촉 감지부(312)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(312) 상에 손가락 등을 이용하여 아래에서 위로 입력 장치(310)를 감싸면서 쓸어올리 듯 하는 접촉을 발생시킬 수 있다.
이 경우, 제2 접촉 감지부(312)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 날아오르는 동작 또는 점프 등(323)의 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바 타의 동작(323)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 날아오르거나 점프 등(323)을 하도록 상기 아바타의 동작을 제어한다.
네 번째로 사용자가 상기 아바타를 하늘에서 지면으로 내려가도록 하는 동작을 유지(324) 시키고자 하는 경우, 사용자는 제2 접촉 감지부(312)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(312) 상에 손가락 등을 이용하여 위에서 아래로 입력 장치(310)를 감싸면서 쓸어내리 듯 하는 접촉을 발생시킬 수 있다. 이때, 사용자는 상기 접촉 동작에서 손을 떼지 않고 계속 유지할 수 있다.
이 경우, 제2 접촉 감지부(312)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 하늘에서 지면으 로 내려가는 동작이 유지(324)되는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(324)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 하늘에서 지면으로 내려가는 동작을 유지(324)하도록 상기 아바타의 동작을 제어한다.
다섯 번째로 사용자가 상기 아바타를 직진 상태로 유지(325)시키고자 하는 경우, 사용자는 제1 접촉 감지부(311)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(311) 상에 손가락 등을 이용하여 아래에서 위로 접촉을 발생시킬 수 있다. 이때, 사용자는 상기 접촉 동작에서 손을 떼지 않고 계속 유지할 수 있다.
이 경우, 제1 접촉 감지부(311)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 직진 상태가 유지되는 동작(325)으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(325)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 직진 상태를 유지(325)하도록 상기 아바타의 동작을 제어한다.
이상, 도면부호 320을 참조하여 제1 접촉 감지부(311) 및 제2 접촉 감지부(312)에서 발생하는 접촉의 종류에 따른 아바타의 동작의 예를 상세히 설명하였다.
하지만, 본 발명의 일실시예에 따른 입력 장치(310)는 전술한 실시예뿐만 다양한 실시예가 존재할 수 있다.
예컨대, 도면부호 320에 도시된 바와 같이, 입력 장치(310)는 제1 접촉 감지부(311) 및 제2 접촉 감지부(312) 상에 발생하는 접촉의 방법에 따라 오른쪽으로 전진(326), 하늘에서 지면으로 내려오는 동작(327), 우회전(328), 좌회전 상태 유지(329), 위로 회전(330) 및 오른쪽 옆구르기 회전(331) 등 다양한 아바타의 동작을 제어할 수 있다.
또한, 본 발명의 일실시예에 따르면, 입력 장치(310)는 제1 접촉 감지부(311) 및 제2 접촉 감지부(312)에서 제1 접촉 및 제2 접촉이 동시에 발생하는 경우, 상기 제1 접촉 및 상기 제2 접촉에 따른 아바타의 동작을 제어할 수 있다.
예컨대, 제1 접촉 감지부(311)에서 직진 동작(321)에 대한 제1 접촉이 발생하고, 제2 접촉 감지부(311)에서 날아오르거나 점프하는 동작(323)에 대한 제2 접촉이 발생하는 경우, 상기 입력 신호 생성부는 제1 접촉 정보와 제2 접촉 정보를 바탕으로 상기 아바타가 직진하면서 날아오르는 동작을 취하도록 하는 동작 정보가 포함된 입력 신호를 생성할 수 있다.
도 4는 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제2 실시예를 도시한 도면이다.
도 4을 참조하면, 도면부호 410은 본 발명의 일실시예에 따른 입력 장치의 구조를 도시한 도면이고, 도면부호 420은 상기 입력 장치를 통해 조작 가능한 개체의 동작의 종류를 도시한 도면이다.
도면부호 410을 살펴보면, 본 발명의 일실시예에 따른 입력 장치는 육면체 형상으로 구현될 수 있다. 이때, 육면체 형상의 윗면(XY평면)을 제1 접촉 감지부(411)로 구현할 수 있다. 그리고, 제2 접촉 감지부(412)는 도면부호 410에 도시된 바와 같이 육면체 형상의 옆면(XZ, YZ평면)에 구현될 수 있다.
따라서, 이하에서는 도면부호 420을 참조하여 입력 장치(410)를 통해 사용자가 디스플레이 장치 상에 디스플레이된 개체를 조작하는 과정에 대해 상세히 설명하기로 한다.
먼저, 상기 디스플레이 장치 상에 디스플레이되는 개체는 가상의 3D 공간 상에 존재하는 아바타(avatar)이고, 사용자는 입력 장치(410)를 통해 상기 아바타를 조작한다고 가정하자.
첫 번째로 사용자가 상기 아바타를 직진(421)시키고자 하는 경우, 사용자는 제1 접촉 감지부(411)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(411) 상에 손가락 등을 이용하여 아래에서 위로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(411)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
본 발명의 일실시예에 따르면, 입력 장치(410)는 상기 제1 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부(미도시)를 더 포함할 수 있다.
다음으로, 입력 신호 생성부(미도시)가 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
본 발명의 일실시예에 따르면, 상기 입력 신호 생성부는 동작 정보 생성부(미도시)를 더 포함할 수 있다.
상기 동작 정보 생성부는 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으 로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 직진(421)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(421)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 전송부(미도시)는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 직진(421)하도록 상기 아바타의 동작을 제어한다.
두 번째로 사용자가 상기 아바타를 후진(422)시키고자 하는 경우, 사용자는 제1 접촉 감지부(411)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(411) 상에 손가락 등을 이용하여 위에서 아래로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(411)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호 를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 후진(422)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(422)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 후진(422)하도록 상기 아바타의 동작을 제어한다.
세 번째로 사용자가 상기 아바타를 날아오르게 하거나 점프 등(423)을 시키고자 하는 경우, 사용자는 제2 접촉 감지부(412)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(412) 상에 손가락 등을 이용하여 아래에서 위로 입력 장치(410)를 쓸어올리 듯 하는 접촉을 발생시킬 수 있다.
이 경우, 제2 접촉 감지부(412)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 날아오르는 동작 또는 점프 등(423)의 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(423)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 날아오르거나 점프 등(423)을 하도록 상기 아바타의 동작을 제어한다.
네 번째로 사용자가 상기 아바타를 하늘에서 지면으로 내려가도록(424) 하고자 하는 경우, 사용자는 제2 접촉 감지부(412)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(412) 상에 손가락 등을 이용하여 위에서 아래로 입력 장치(410)를 쓸어내리 듯 하는 접촉을 발생시킬 수 있다.
이 경우, 제2 접촉 감지부(412)는 상기 제2 접촉을 감지하여 제2 접촉 정보 를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 하늘에서 지면으로 내려가는(424) 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(424)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 하늘에서 지면으로 내려가는 동작(424)을 취하도록 상기 아바타의 동작을 제어한다.
다섯 번째로 사용자가 상기 아바타를 왼쪽으로 전진(425)시키고자 하는 경우, 사용자는 제1 접촉 감지부(411)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(411) 상에 손가락 등을 이용하여 오른쪽에서 왼쪽으로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(411)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 왼쪽으로 전진하는 동작(425)으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(425)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 왼쪽으로 전진(425)하도록 상기 아바타의 동작을 제어한다.
이상, 도면부호 420을 참조하여 제1 접촉 감지부(411) 및 제2 접촉 감지 부(412)에서 발생하는 접촉의 종류에 따른 아바타의 동작의 예를 상세히 설명하였다.
하지만, 본 발명의 일실시예에 따른 입력 장치(410)는 전술한 실시예뿐만 다양한 실시예가 존재할 수 있다.
예컨대, 도면부호 420에 도시된 바와 같이, 입력 장치(410)는 제1 접촉 감지부(411) 및 제2 접촉 감지부(412) 상에 발생하는 접촉의 방법에 따라 오른쪽으로 전진(426), Z축 기준으로 회전(427), Y축 기준으로 회전(428), X축 기준으로 회전(429) 등 다양한 아바타의 동작을 제어할 수 있다.
또한, 본 발명의 일실시예에 따르면, 입력 장치(410)는 제1 접촉 감지부(411) 및 제2 접촉 감지부(412)에서 제1 접촉 및 제2 접촉이 동시에 발생하는 경우, 상기 제1 접촉 및 상기 제2 접촉에 따른 아바타의 동작을 제어할 수 있다.
예컨대, 제1 접촉 감지부(411)에서 직진 동작(421)에 대한 제1 접촉이 발생하고, 제2 접촉 감지부(411)에서 날아오르거나 점프하는 동작(423)에 대한 제2 접촉이 발생하는 경우, 상기 입력 신호 생성부는 제1 접촉 정보와 제2 접촉 정보를 바탕으로 상기 아바타가 직진하면서 날아오르도록 하는 동작을 취하도록 하는 동작 정보가 포함된 입력 신호를 생성할 수 있다.
도 5는 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제3 실시예를 도시한 도면이다.
도 5을 참조하면, 도면부호 510은 본 발명의 일실시예에 따른 입력 장치의 구조를 도시한 도면이고, 도면부호 520은 상기 입력 장치를 통해 조작 가능한 개체 의 동작의 종류를 도시한 도면이다.
도면부호 510을 살펴보면, 본 발명의 일실시예에 따른 입력 장치는 평면판의 2개의 영역으로 구현 될 수 있는데, 예를 들어, 구 형상으로 구현될 수 있도 있고, 원형 2개의 영역으로 구현 될 수도 있고, 사각형 2개의 영역으로 구현 될 수도 있다. 이때, 구 형상의 옆면을 평면으로 구성함으로써 제1 접촉 감지부(511)를 구현할 수 있다. 그리고, 제2 접촉 감지부(512)는 도면부호 510에 도시된 바와 같이 구 형상의 나머지 부분에 구현될 수 있다.
따라서, 이하에서는 도면부호 520을 참조하여 입력 장치(510)를 통해 사용자가 디스플레이 장치 상에 디스플레이된 개체를 조작하는 과정에 대해 상세히 설명하기로 한다.
먼저, 상기 디스플레이 장치 상에 디스플레이되는 개체는 가상의 3D 공간 상에 존재하는 아바타(avatar)이고, 사용자는 입력 장치(510)를 통해 상기 아바타를 조작한다고 가정하자.
첫 번째로 사용자가 상기 아바타를 직진(521)시키고자 하는 경우, 사용자는 제1 접촉 감지부(511)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(511) 상에 손가락 등을 이용하여 아래에서 위로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(511)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
본 발명의 일실시예에 따르면, 입력 장치(510)는 상기 제1 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부(미도시)를 더 포함할 수 있다.
다음으로, 입력 신호 생성부(미도시)가 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
본 발명의 일실시예에 따르면, 상기 입력 신호 생성부는 동작 정보 생성부(미도시)를 더 포함할 수 있다.
상기 동작 정보 생성부는 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 직진(521)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(521)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 전송부(미도시)는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 직진(521)하도록 상기 아바타의 동작을 제어한다.
두 번째로 사용자가 상기 아바타를 후진(522)시키고자 하는 경우, 사용자는 제1 접촉 감지부(511)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(511) 상에 손가락 등을 이용하여 위에서 아래로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(511)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 후진(522)하는 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(522)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보가 포함될 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 후진(522)하도록 상기 아바타의 동작을 제어한다.
세 번째로 사용자가 상기 아바타를 날아오르게 하거나 점프 등(523)을 시키 고자 하는 경우, 사용자는 제2 접촉 감지부(512)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(512) 상에 손가락 등을 이용하여 아래에서 위로 입력 장치(510)를 쓸어올리 듯 하는 접촉을 발생시킬 수 있다.
이 경우, 제2 접촉 감지부(512)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 날아오르는 동작 또는 점프 등(523)의 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(523)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타 가 날아오르거나 점프 등(523)을 하도록 상기 아바타의 동작을 제어한다.
네 번째로 사용자가 상기 아바타를 하늘에서 지면으로 내려가도록(524) 하고자 하는 경우, 사용자는 제2 접촉 감지부(512)에 대해 도면에 도시된 화살표와 같은 제2 접촉을 발생시킬 수 있다.
즉, 사용자는 제2 접촉 감지부(512) 상에 손가락 등을 이용하여 위에서 아래로 입력 장치(410)를 쓸어내리 듯 하는 접촉을 발생시킬 수 있다.
이 경우, 제2 접촉 감지부(512)는 상기 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제2 접촉 정보의 유효성을 판단한다.
상기 제2 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제2 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제2 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제2 접촉의 위치를 추적하여 상기 아바타의 동작을 하늘에서 지면으로 내려가는(524) 동작으로 추정할 수 있다.
다음으로, 상기 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(524)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보가 포함될 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상 기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 하늘에서 지면으로 내려가는 동작(524)을 취하도록 상기 아바타의 동작을 제어한다.
다섯 번째로 사용자가 상기 아바타를 왼쪽으로 전진(525)시키고자 하는 경우, 사용자는 제1 접촉 감지부(511)에 대해 도면에 도시된 화살표와 같은 제1 접촉을 발생시킬 수 있다.
즉, 사용자는 제1 접촉 감지부(511) 상에 손가락 등을 이용하여 오른쪽에서 왼쪽으로 접촉을 발생시킬 수 있다.
이 경우, 제1 접촉 감지부(511)는 상기 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
다음으로, 상기 유효성 판단부가 상기 제1 접촉 정보의 유효성을 판단한다.
상기 제1 접촉 정보가 유효한 접촉 정보인 것으로 판단된 경우, 상기 입력 신호 생성부는 상기 제1 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
이때, 상기 동작 정보 생성부가 상기 제1 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치를 추적하여 상기 아바타의 동작을 왼쪽으로 전진하는 동작(525)으로 추정할 수 있다.
다음으로, 동작 정보 생성부는 적어도 하나의 선정된 아바타의 동작 정보가 포함된 테이블을 참조하여 상기 추정된 아바타의 동작 정보로부터 상기 아바타의 동작(525)에 대한 동작 정보를 생성할 수 있다.
이때, 상기 입력 신호는 상기 동작 정보를 포함할 수 있다.
상기 입력 신호 생성부가 상기 입력 신호를 생성하였으면, 상기 전송부는 상기 입력 신호를 상기 디스플레이 장치로 전송한다.
다음으로, 상기 디스플레이 장치는 상기 입력 신호에 기초하여 상기 아바타가 왼쪽으로 전진(525)하도록 상기 아바타의 동작을 제어한다.
이상, 도면부호 520을 참조하여 제1 접촉 감지부(511) 및 제2 접촉 감지부(512)에서 발생하는 접촉의 종류에 따른 아바타의 동작의 예를 상세히 설명하였다.
하지만, 본 발명의 일실시예에 따른 입력 장치(510)는 전술한 실시예뿐만 다양한 실시예가 존재할 수 있다.
예컨대, 도면부호 520에 도시된 바와 같이, 입력 장치(510)는 제1 접촉 감지부(511) 및 제2 접촉 감지부(512) 상에 발생하는 접촉의 종류에 따라 오른쪽으로 전진(526), Z축 기준으로 회전(527), Y축 기준으로 회전(528), X축 기준으로 회전(529) 등 다양한 아바타의 동작을 제어할 수 있다.
또한, 본 발명의 일실시예에 따르면, 입력 장치(510)는 제1 접촉 감지부(511) 및 제2 접촉 감지부(512)에서 제1 접촉 및 제2 접촉이 동시에 발생하는 경우, 상기 제1 접촉 및 상기 제2 접촉에 따른 아바타의 동작을 제어할 수 있다.
예컨대, 제1 접촉 감지부(511)에서 직진 동작(521)에 대한 제1 접촉이 발생하고, 제2 접촉 감지부(511)에서 날아오르거나 점프하는 동작(523)에 대한 제2 접 촉이 발생하는 경우, 상기 입력 신호 생성부는 제1 접촉 정보와 제2 접촉 정보를 바탕으로 상기 아바타가 직진하면서 날아오르도록 하는 동작을 취하도록 하는 동작 정보가 포함된 입력 신호를 생성할 수 있다.
이상, 도 1 내지 도 5를 이용하여 본 발명의 일실시예에 따른 입력 장치에 대해 상세히 설명하였다. 하지만, 본 발명의 일실시예에 따른 입력 장치는 도 1에 도시된 입력 장치 외에 다른 실시예로 변형이 가능하다.
따라서, 이하에서는 도 6을 참조하여 본 발명의 다른 일실시예에 따른 입력 장치에 대해 상세히 설명하기로 한다.
도 6은 본 발명의 다른 일실시예에 따른 입력 장치의 구조를 도시한 도면이다.
본 발명의 다른 실시예에 따르면, 입력 장치(610)는 제1 접촉 정보 또는 제2 접촉 정보를 포함하는 하나 이상의 접촉 정보를 생성하여 디스플레이 장치(620)로 전송하고, 디스플레이 장치(620)가 상기 접촉 정보를 분석하여 디스플레이 되는 개체를 제어할 수도 있다.
즉, 입력 장치(610)는 도 1에 도시된 입력 장치(110)에 대응될 수 있지만, 본 발명의 다른 실시예에 따르면, 디스플레이 되는 개체를 직접 제어하는 입력 장치(110)와 달리, 입력 장치(610)은 상기 하나 이상의 접촉 정보를 디스플레이 장치(620)로 전송하고, 디스플레이 장치(620)가 상기 접촉 정보를 분석하여 디스플레이 되는 개체를 제어할 수도 있다.
제1 접촉 감지부(611)는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성하고, 제2 접촉 감지부(612)는 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
또한, 전송부(613)는 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 디스플레이 장치(620)로 전송하고, 디스플레이 장치(620)는 입력 장치(610)로부터 상기 어느 하나 이상의 접촉 정보를 수신하면, 상기 어느 하나 이상의 접촉 정보를 분석하여 디스플레이 장치(620) 상에 디스플레이되는 개체를 제어한다.
본 발명의 다른 실시예에 따르면, 디스플레이 장치(620)는 적어도 하나의 선정된 동작 정보가 포함된 테이블을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하고, 상기 동작 정보에 기초하여 상기 개체를 제어할 수 있다.
이때, 본 발명의 다른 실시예에 따르면, 디스플레이 장치(620)는 상기 어느 하나 이상의 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성할 수 있다.
이상, 도 6을 참조하여 본 발명의 다른 일실시예에 따른 입력 장치(610)에 대해 설명하였다. 여기서, 입력 장치(610) 및 디스플레이 장치(620)의 전반적인 동작은 도 1에 도시된 입력 장치(110) 및 디스플레이 장치(120)의 전반적인 동작과 거의 동일하다. 따라서, 입력 장치(610) 및 디스플레이 장치(620)의 동작에 대한 상세한 설명은 생략하기로 한다.
도 7은 본 발명의 일실시예에 따른 입력 방법을 도시한 순서도이다.
단계(S710)에서는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
단계(S720)에서는 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
단계(S730)에서는 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 분석하여 디스플레이 장치에 대한 입력 신호를 생성한다.
본 발명의 일실시예에 따르면, 단계(S730)에서는 적어도 하나의 선정된 동작 정보가 포함된 테이블을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하는 단계를 더 포함할 수 있다.
이때, 상기 입력 정보는 상기 동작 정보를 포함할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 동작 정보를 생성하는 단계는 상기 어느 하나 이상의 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성할 수 있다.
또한, 본 발명의 일실시예에 따르면, 단계(S730)이전에 상기 제1 접촉 정보 및 상기 제2 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 단계를 더 포함할 수 있다.
단계(S740)에서는 단계(S730)에서 생성된 상기 입력 신호를 디스플레이 장치로 전송한다.
상기 디스플레이 장치는 상기 입력 신호를 수신하면, 상기 입력 신호에 기초하여 상기 디스플레이 장치 상에 디스플레이 되는 개체를 제어한다.
도 8은 본 발명의 다른 일실시예에 따른 입력 방법을 도시한 순서도이다.
단계(S810)에서는 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성한다.
단계(S820)에서는 상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성한다.
단계(S830)에서는 상기 제1 접촉 정보 또는 상기 제2 접촉 정보 중 어느 하나 이상의 접촉 정보를 디스플레이 장치로 전송한다.
상기 디스플레이 장치는 상기 어느 하나 이상의 접촉 정보를 수신하면, 상기 어느 하나 이상의 접촉 정보를 분석하여 상기 디스플레이 장치 상에 디스플레이 되는 개체를 제어한다.
본 발명의 다른 실시예에 따르면, 상기 디스플레이 장치는 적어도 하나의 선정된 동작 정보가 포함된 테이블을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하고, 상기 동작 정보에 기초하여 상기 개체를 제어할 수 있다.
이때, 본 발명의 다른 실시예에 따르면, 상기 디스플레이 장치는 상기 어느 하나 이상의 접촉 정보를 기초로, 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성할 수 있다.
지금까지 도 7 및 도 8을 이용하여 본 발명에 따른 입력 방법의 실시예들에 대해 설명하였다. 여기서, 상기 실시예들은 도 1 내지 도 6를 이용하여 설명한 입력 장치에 대한 실시예들과 그 구성이 매우 유사하므로 보다 상세한 설명은 생략하기로 한다.
본 발명에 따른 입력 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 일실시예에 따른 입력 장치의 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따라 입력 장치를 통해 제어 가능한 개체의 동작의 종류에 대한 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제1 실시예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제2 실시예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 입력 장치의 동작에 대한 제3 실시예를 도시한 도면이다.
도 6은 본 발명의 다른 일실시예에 따른 입력 장치의 구조를 도시한 도면이다.
도 7은 본 발명의 일실시예에 따른 입력 방법을 도시한 순서도이다.
도 8은 본 발명의 다른 일실시예에 따른 입력 방법을 도시한 순서도이다.

Claims (13)

  1. 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성하는 제1 접촉 감지부;
    상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성하는 제2 접촉 감지부; 및
    상기 제1 접촉 정보 및 상기 제2 접촉 정보 중 적어도 어느 하나를 포함하는 접촉 정보를 분석하고, 분석된 접촉 정보에 기초하여 가상 3D 공간의 6DOF(degrees of freedom)에 따라 소정의 디스플레이 장치를 제어하기 위한 입력 신호를 생성하는 입력 신호 생성부;
    를 포함하고,
    상기 입력 신호 생성부는 상기 제1 접촉 감지부에 연관된 접촉 정보만을 분석하여 상기 6DOF 중에서 세 개의 DOF를 결정하고,
    상기 입력 신호 생성부는 상기 제2 접촉 감지부에 연관된 접촉 정보를 분석하여 상기 6DOF 중에서 상기 세 개의 DOF를 제외한 적어도 나머지 DOF를 포함하는 복수의 DOF를 결정하고,
    상기 세 개의 DOF는 두 개의 병진의(translational) DOF와 하나의 회전의(rotational) DOF를 포함하는 입력 장치.
  2. 제1항에 있어서,
    상기 입력 신호 생성부에서 생성된 입력 신호를 상기 디스플레이 장치로 전송하는 전송부
    를 더 포함하는 입력 장치.
  3. 제2항에 있어서,
    상기 디스플레이 장치로 전송되는 상기 입력신호는 상기 디스플레이 장치 상에 디스플레이 되는 개체를 제어하는 것을 특징으로 하는 입력 장치.
  4. 제3항에 있어서,
    상기 입력 신호 생성부는,
    적어도 하나의 선정된(predetermined) 동작 정보가 포함된 테이블(table)을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하는 동작 정보 생성부
    를 더 포함하고,
    상기 입력 신호는 상기 동작 정보를 포함하는 것을 특징으로 하는 입력 장치.
  5. 제4항에 있어서,
    상기 동작 정보 생성부는,
    상기 어느 하나 이상의 접촉 정보를 기초로 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적(tracking)하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성하는 것을 특징으로 하는 입력 장치.
  6. 제1항에 있어서,
    상기 제1 접촉 정보 및 상기 제2 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 유효성 판단부
    를 더 포함하는 것을 특징으로 하는 입력 장치.
  7. 3차원 공간 좌표축 중 평면 좌표축을 따라 발생하는 제1 접촉을 감지하여 제1 접촉 정보를 생성하는 단계;
    상기 3차원 공간 좌표축 중 수직 좌표축을 따라 발생하는 제2 접촉을 감지하여 제2 접촉 정보를 생성하는 단계; 및
    상기 제1 접촉 정보 및 상기 제2 접촉 정보 중 적어도 어느 하나를 포함하는 접촉 정보를 분석하고, 분석된 접촉 정보에 기초하여 가상 3D 공간의 6DOF(degrees of freedom)에 따라 소정의 디스플레이 장치를 제어하기 위한 입력 신호를 생성하는 단계;
    를 포함하고,
    상기 입력 신호를 생성하는 단계는,
    상기 제1 접촉 정보만을 분석하여 상기 6DOF 중에서 세 개의 DOF를 결정하는 단계; 및
    상기 제2 접촉 정보를 분석하여 상기 6DOF 중에서 상기 세 개의 DOF를 제외한 적어도 나머지 DOF를 포함하는 복수의 DOF를 결정하는 단계
    를 포함하고,
    상기 세 개의 DOF는 두 개의 병진의(translational) DOF와 하나의 회전의(rotational) DOF를 포함하는 입력 방법.
  8. 제7항에 있어서,
    상기 입력 신호를 상기 디스플레이 장치로 전송하는 단계
    를 더 포함하는 입력 방법.
  9. 제8항에 있어서,
    상기 디스플레이 장치로 전송되는 상기 입력 신호는 상기 디스플레이 장치 상에 디스플레이되는 개체를 제어하는 것을 특징으로 하는 입력 방법.
  10. 제9항에 있어서,
    상기 입력 신호를 생성하는 상기 단계는,
    적어도 하나의 선정된(predetermined) 동작 정보가 포함된 테이블(table)을 참조하여 상기 어느 하나 이상의 접촉 정보로부터 상기 개체의 동작과 연관된 동작 정보를 생성하는 단계
    를 더 포함하고,
    상기 입력 신호는 상기 동작 정보를 포함하는 것을 특징으로 하는 입력 방법.
  11. 제10항에 있어서,
    상기 동작 정보를 생성하는 상기 단계는,
    상기 어느 하나 이상의 접촉 정보를 기초로 선정된 시간 간격으로 상기 제1 접촉의 위치 또는 상기 제2 접촉의 위치 중 어느 하나 이상의 위치를 추적(tracking)하여 상기 개체의 동작을 추정하고, 상기 테이블을 참조하여 상기 추정된 상기 개체의 동작으로부터 상기 동작 정보를 생성하는 것을 특징으로 하는 입력 방법.
  12. 제9항에 있어서,
    상기 제1 접촉 정보 및 상기 제2 접촉 정보가 유효한 접촉 정보인지 여부를 판단하는 단계
    를 더 포함하는 것을 특징으로 하는 입력 방법.
  13. 제7항 내지 제12항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020080124714A 2008-12-09 2008-12-09 입력 장치 및 방법 KR101517001B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080124714A KR101517001B1 (ko) 2008-12-09 2008-12-09 입력 장치 및 방법
US12/453,356 US9058091B2 (en) 2008-12-09 2009-05-07 Input device and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080124714A KR101517001B1 (ko) 2008-12-09 2008-12-09 입력 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20100066070A KR20100066070A (ko) 2010-06-17
KR101517001B1 true KR101517001B1 (ko) 2015-04-30

Family

ID=42230532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080124714A KR101517001B1 (ko) 2008-12-09 2008-12-09 입력 장치 및 방법

Country Status (2)

Country Link
US (1) US9058091B2 (ko)
KR (1) KR101517001B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190009846A (ko) * 2016-06-21 2019-01-29 삼성전자주식회사 원격 호버 터치 시스템 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008019144B4 (de) * 2008-04-16 2016-12-01 Spacecontrol Gmbh Vorrichtung zur Eingabe von Steuersignalen zum Bewegen eines Gegenstands
CN104756502A (zh) * 2012-12-10 2015-07-01 英特尔公司 通信设备之间的视频和音频共享的方法、设备和系统
JP2014147511A (ja) 2013-01-31 2014-08-21 Gree Inc プログラム、表示システム及びサーバ装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
KR20060069985A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 착용형 범용 3차원 입력 시스템
KR100773553B1 (ko) * 2006-05-17 2007-11-07 삼성전자주식회사 디스플레이 기능을 갖는 버튼을 구비한 단말기 및 이를위한 디스플레이 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739129B2 (ja) 1990-02-21 1998-04-08 日本碍子株式会社 複合部材の製造方法
JP3243770B2 (ja) 1993-04-21 2002-01-07 日本電信電話株式会社 回転運動入力方法
JPH09218744A (ja) 1996-02-08 1997-08-19 Casio Comput Co Ltd 入力装置及び画像制御装置
JP2001331274A (ja) 2000-05-23 2001-11-30 Funai Electric Co Ltd 3次元入力装置
JP2003131804A (ja) 2001-08-10 2003-05-09 Wacom Co Ltd 6自由度情報指示器及び6自由度情報指示方法
JP2005084006A (ja) 2003-09-11 2005-03-31 East:Kk 方位センサ及び/又は傾斜センサを用いた計測方法、及びマウス
US8009138B2 (en) * 2005-05-09 2011-08-30 Sandio Technology Corporation Multidimensional input device
JP2007148518A (ja) 2005-11-24 2007-06-14 Neo Techno:Kk Usbデバイス
EP1804154A3 (en) * 2005-12-27 2012-08-08 Poston Timothy Computer input device enabling three degrees of freedom and related input and feedback methods
TWI317498B (en) 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597347B1 (en) * 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
KR20060069985A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 착용형 범용 3차원 입력 시스템
KR100773553B1 (ko) * 2006-05-17 2007-11-07 삼성전자주식회사 디스플레이 기능을 갖는 버튼을 구비한 단말기 및 이를위한 디스플레이 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190009846A (ko) * 2016-06-21 2019-01-29 삼성전자주식회사 원격 호버 터치 시스템 및 방법
US10852913B2 (en) 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
KR102219912B1 (ko) * 2016-06-21 2021-02-24 삼성전자주식회사 원격 호버 터치 시스템 및 방법

Also Published As

Publication number Publication date
KR20100066070A (ko) 2010-06-17
US20100141611A1 (en) 2010-06-10
US9058091B2 (en) 2015-06-16

Similar Documents

Publication Publication Date Title
US11875012B2 (en) Throwable interface for augmented reality and virtual reality environments
US20210181857A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
KR102110811B1 (ko) Hci 시스템 및 방법
KR101531363B1 (ko) 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
JP6044079B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101662172B1 (ko) 입력 장치
US9747018B2 (en) Apparatus and method for controlling object
US9619042B2 (en) Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
US9229534B2 (en) Asymmetric mapping for tactile and non-tactile user interfaces
US10220304B2 (en) Boolean/float controller and gesture recognition system
US20120208639A1 (en) Remote control with motion sensitive devices
US20100238137A1 (en) Multi-telepointer, virtual object display device, and virtual object control method
EP2538309A2 (en) Remote control with motion sensitive devices
Shiratuddin et al. Non-contact multi-hand gestures interaction techniques for architectural design in a virtual environment
US8525780B2 (en) Method and apparatus for inputting three-dimensional location
TWI705356B (zh) 虛擬實境場景下的輸入方法和裝置
CN102770828A (zh) 用于人机界面的控制柄交互
KR101956073B1 (ko) 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
US20170371432A1 (en) Integrated free space and surface input device
KR20120023900A (ko) 인터페이스 방법 및 장치
KR101517001B1 (ko) 입력 장치 및 방법
WO2017000917A1 (zh) 体感按键的定位方法及装置
KR102118610B1 (ko) 센서들을 이용하는 근접 동작 인식 장치 및 그 장치를 이용한 방법
US20100313133A1 (en) Audio and position control of user interface
JP5724422B2 (ja) 操作制御装置,操作制御プログラムおよび操作制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180321

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 5