KR101793146B1 - 입력 장치 - Google Patents

입력 장치 Download PDF

Info

Publication number
KR101793146B1
KR101793146B1 KR1020160007455A KR20160007455A KR101793146B1 KR 101793146 B1 KR101793146 B1 KR 101793146B1 KR 1020160007455 A KR1020160007455 A KR 1020160007455A KR 20160007455 A KR20160007455 A KR 20160007455A KR 101793146 B1 KR101793146 B1 KR 101793146B1
Authority
KR
South Korea
Prior art keywords
input
input device
user
output unit
unit
Prior art date
Application number
KR1020160007455A
Other languages
English (en)
Other versions
KR20170087637A (ko
Inventor
윤진혁
박승렬
Original Assignee
윤진혁
박승렬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤진혁, 박승렬 filed Critical 윤진혁
Priority to KR1020160007455A priority Critical patent/KR101793146B1/ko
Publication of KR20170087637A publication Critical patent/KR20170087637A/ko
Application granted granted Critical
Publication of KR101793146B1 publication Critical patent/KR101793146B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예는 본체부; 상기 본체부의 일 면상에 형성되는 입/출력부; 상기 본체부의 일 측에 형성되며 사용자의 손가락이 끼워질 수 있도록 형성되는 사용자 결합부;를 포함하는 입력 장치를 개시한다.

Description

입력 장치{Input device}
본 발명의 실시예들은 입력 장치에 관한 것으로, 더 상세하게는 가상현실 기기를 착용한 상태에서 보다 정확하고 편리하게 문자 입력을 수행할 수 있는 입력 장치에 관한 것이다.
가상현실/증강현실 기기들이 늘어나고 있지만 키보드 역할을 할 수 있는 적절한 입력기기가 아직 존재하지 않는다.
도 1은 기존의 가상현실/증강현실 기기를 착용하고 있는 상태에서 키보드 입력을 하는 모습을 나타낸 도면이다.
도 1에 도시된 바와 같이, 가상현실 기기를 착용하게 되면 외부가 보이지 않기 때문에, 키보드, 마우스 등이 있더라도 위치를 파악하기 힘들다는 문제점이 존재한다. 특히 사용자는 움직이거나 회전하는 등의 자유로운 움직임 때문에 외부의 고정된 컨트롤러를 사용하기가 더욱 힘들게 된다.
지금까지 가상현실 기기들이 검색을 할 수 있게 지원하는 방법은 음성인식이 대부분이다. 예를 들면, 유튜브 동영상도 최근 VR서비스를 지원하기 시작했지만, 검색을 하기 위해서는 음성검색으로 검색을 수행해야 한다. 하지만, 음성인식률의 한계 등으로 인해, 음성으로 표현되는 문자는 전자기기에 명령어를 정확하게 전달하는데 한계가 있다.
문자 입력 기능(키보드 기능)을 사용할 수 없는 지금의 가상현실용 애플리케이션들의 개발은 게임이나 동영상 같은 엔터테인먼트 분야에 집중되어 있다. 즉, 인터넷 환경의 큰 장점인 타인과의 소통(채팅)과 검색 기능 등, 키보드를 이용해야 하는 작업들은 가상현실용 애플리케이션들에서는 구현되지 못하고 있다.
가상현실/증강현실은 지금의 엔터테인먼트 분야에 집중된 것보다 훨씬 더 큰 시장성이 있다. 다만, 적절한 입력 장치의 부재로 그 가능성을 제대로 발휘하지 못하고 있는 것이다. 가상현실/증강현실 기술은 모든 산업 영역에서 활용될 가능성이 있는 기술로써 효율적인 문자 입력 장치가 꼭 필요한 시점이다.
이러한 문제를 해결하는 방법으로 모션 인식을 이용해서 손의 움직임을 추적하는 기술이 가장 광범위하게 연구되고 있다. 하지만, 아직 이 기술은 음성인식과 비슷한 수준의 낮은 정확도를 가지며, 표준이 되는 기술이 나오기까지 시간이 걸릴 것으로 예상된다.
또한, 모션 인식을 통한 제어 기술이 확립되더라도, 허공에서 입력을 제어하는 상황은 물리적으로 터치 가능한 환경에서 입력을 수행하는 것보다 불편할 수밖에 없으며, 모션 인식을 통한 언어전달을 위한 새로운 모션 인식 언어의 학습이 필요하게 된다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 실시예들은 입력 장치를 제공한다.
본 발명의 일 실시예는 본체부; 상기 본체부의 일 면상에 형성되는 입/출력부; 상기 본체부의 일 측에 형성되며 사용자의 손가락이 끼워질 수 있도록 형성되는 사용자 결합부;를 포함하는 입력 장치를 개시한다.
본 실시예에 있어서, 상기 입/출력부는, 사용자의 직접 터치 및 근접 터치를 인식할 수 있다.
본 실시예에 있어서, 상기 사용자 결합부는 상기 본체부에 대해 회전가능하도록 형성되어, 상기 사용자 결합부의 상기 본체부에 대한 회전 위치에 따라 상기 입력 장치의 온(ON)/오프(OFF)가 제어될 수 있다.
본 실시예에 있어서, 상기 본체부에는 하나 이상의 버튼부가 더 형성될 수 있다.
본 실시예에 있어서, 상기 입력 장치는 서로 결합 가능하도록 형성되는 제1 입력 장치 및 제2 입력 장치를 포함하고, 상기 제1 입력 장치 및 제2 입력 장치 각각이 상기 본체부, 상기 입/출력부, 상기 사용자 결합부를 포함할 수 있다.
본 실시예에 있어서, 상기 제1 입력 장치 및 제2 입력 장치가 결합하면 키보드 기능을 수행할 수 있다.
본 실시예에 있어서, 상기 제1 입력 장치 및 제2 입력 장치가 분리되면 마우스 기능을 수행할 수 있다.
본 실시예에 있어서, 상기 입력 장치는 외부의 사용자 단말과 연결되어, 상기 사용자 단말의 디스플레이부에 가상의 입력부를 디스플레이시킬 수 있다.
본 실시예에 있어서, 상기 입력 장치를 통해 사용자로부터 신호가 입력되면, 상기 사용자 단말에 상기 입력된 신호가 디스플레이될 수 있다.
본 실시예에 있어서, 상기 사용자 단말은 가상현실 기기일 수 있다.
본 발명의 다른 실시예는 사용자로부터 소정의 신호를 입력받는 입/출력부; 상기 입/출력부를 통해 입력된 신호를 사용자 단말로 전송하는 통신부; 및 상기 입/출력부를 통해 입력된 신호에 대응되는 신호가 상기 사용자 단말에서 디스플레이되도록 제어하는 제어부;를 포함하는 입력 장치를 개시한다.
본 실시예에 있어서, 상기 제어부는 상기 직접 터치 및 근접 터치를 서로 다른 입력 신호로 인식하도록 제어할 수 있다.
본 실시예에 있어서, 상기 제어부는, 상기 입/출력부에서 인식한 상기 입/출력부 상에서의 사용자의 손가락의 위치를 상기 사용자 단말의 디스플레이부에 표시하도록 제어할 수 있다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
이와 같은 본 발명에 의해 스마트폰의 입력 방식과 동일한 입력 방식을 가상현실 기기에서도 구현함으로써, 사용자가 가상현실이라는 새로운 환경에서도 적응하기 쉽고 문자 입력을 편리하게 수행하는 효과를 얻을 수 있다.
도 1은 기존의 가상현실/증강현실 기기를 착용하고 있는 상태에서 키보드 입력을 하는 모습을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 입력 장치의 외부 구성을 나타낸 전면 사시도이다.
도 3은 본 발명의 일 실시예에 따른 입력 장치의 외부 구성을 나타낸 배면 사시도이다.
도 4는 본 발명의 일 실시예에 따른 입력 장치의 내부 구성을 나타낸 블록도이다.
도 5는 종래의 스마트폰을 이용하여 문자를 입력하는 모습을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 입력 장치를 이용하여 문자를 입력하는 모습을 나타내는 도면이다.
도 7은 좌/우 두 개의 입력 장치가 결합되어 있는 모습을 나타내는 도면이다.
도 8은 좌/우 두 개의 입력 장치가 분리되어 있는 모습을 나타내는 도면이다.
도 9 및 도 10은 본 발명의 일 실시예에 따른 입력 장치의 사용 상태 및 미사용 상태를 나타내는 도면으로써, 사용자 결합부가 본체부에 대해 회전 가능하도록 형성된 것을 나타내는 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 2는 본 발명의 일 실시예에 따른 입력 장치의 외부 구성을 나타낸 전면 사시도이고, 도 3은 본 발명의 일 실시예에 따른 입력 장치의 외부 구성을 나타낸 배면 사시도이고, 도 4는 본 발명의 일 실시예에 따른 입력 장치의 내부 구성을 나타낸 블록도이다.
도 2, 도 3 및 도 4를 참고하면, 본 발명의 일 실시예에 따른 입력 장치(100)는 본체부(110)와, 입/출력부(120)와, 사용자 결합부(130)와, 버튼부(140)를 포함한다. 또한, 본 발명의 일 실시예에 따른 입력 장치(100)는 통신부(111), 메모리(113), 프로그램 저장부(115), 제어부(117), 데이터베이스(119)를 포함할 수 있다.
그리고 입력 장치(100)는 통신부(111)를 통해 사용자 단말(200)과 연결될 수 있다.
복수 개의 사용자 단말(200)들은 사용자에게 소정의 디스플레이 화면을 제공할 수 있는 통신 단말기를 의미한다. 여기서 사용자 단말(200)은 사용자의 가상현실 기기(201)일 수도 있고, 사용자의 휴대용 단말기(202)일 수도 있고, 사용자의 퍼스널 컴퓨터(203)일 수도 있다. 도 1에서는 가상현실 기기(201)가 사용자의 머리에 착용하는 형태로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 사용자에게 소정의 디스플레이 화면을 제공하는 단말은 제한 없이 차용될 수 있다. 이를 더욱 상세히 설명하면, 사용자 단말(200)은 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
본 발명의 일 실시예에 따른 입력 장치(100)는 본체부(110)와, 입/출력부(120)와, 사용자 결합부(130)와, 버튼부(140)를 포함한다.
본체부(110)는 입력 장치(100)의 베이스를 이루며, 내부에는 후술할 각종 구성 요소, 부재, 모듈들이 배치될 수 있다. 여기서 본체부(110)는 사용자가 손으로 파지하기에 용이하도록 인체 공학적으로 설계될 수 있다.
본체부(110)의 일 면상에는 입/출력부(120)가 형성될 수 있다.
입/출력부(120)는 표시부와 입력부를 포함할 수 있다.
여기서, 표시부는 입력 장치(100)에서 처리되는 정보를 표시 출력할 수 있다. 예를 들어, 표시부에는 가상의 키보드 자판이 표시될 수 있다. 한편, 표시부와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 표시부는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.
입력부는 사용자가 기술 정보에 대한 답변을 입력하는 수단을 의미한다. 예를 들어, 입력부는 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 키 패드(key pad), 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등일 수 있으나 이에 한정되는 것은 아니다. 입력부는 사용자 입력을 획득할 수 있다. 예를 들어, 입력부는, 소정의 방향을 가지는 움직임이 있는 터치 입력, 사용자 이벤트, 스크롤 입력, 방향키 입력 등을 획득할 수 있다.
여기서, 본 발명의 일 실시예에 따른 입력 장치(100)의 입/출력부(120)는 근접 터치 기능을 지원하는 것을 일 특징으로 한다.
근접 터치 기능은 호버링(Hovering) 터치 기술로도 불리며, 사용자의 손가락이 터치 화면에 직접 닿지 않더라도 사용자의 손가락이 일정 거리 이내로 근접했을 때 터치를 인식하는 기능이다. 스마트폰에서는 손의 위치가 터치 위치와 일치하므로, 손가락이 근접했을 때 인식하는 방식은 거의 쓰이지 않고 있다. 하지만, 가상현실 환경에서는 효과적으로 쓰일 수 있다. 즉, 외부 환경이 보이지 않는 가상현실 환경에서는, 근접 터치 기술로써 손가락이 위치하고 있는 지점이 자판의 어디쯤인지를 정확히 알 수 있게 된다.
따라서 근접 터치 기능은 가상현실에서 빠르고 정확한 터치를 가능하게 한다. 특히 대부분의 사람들이 스마트폰의 터치 방식에 익숙하기 때문에 새로운 입력 방식 때문에 적용하는 것에 어려움을 겪을 필요가 없다.
또한, 근접 터치 기술을 사용하면 카드만 한 작은 마우스 공간으로 가상의 현실이라는 큰 공간에서 정밀한 작업을 할 수 있다. 기존의 노트북 터치 환경을 생각해보면, 터치를 하였을 때에만 마우스 커서가 움직인다. 하지만, 근접 터치 기술을 활용하면, 커서가 근접 터치 되었을 때 빠르게 움직이고, 물리적 터치가 되었을 때 커서를 정밀하게 움직여서 넓은 시야를 효과적으로 다룰 수 있다.
이와 같은 근접 터치를 구현하기 위한 방법으로는 프로젝티드 커패시티브 방식(Projected Capacitive Touch)과 션트 방식(shunt Type)을 들 수 있다. 프로젝티드 커패시티브 방식(Projected Capacitive Touch)은 손가락이 입/출력부(120)에 가까이 다가가면 손가락과 전극 사이의 정전 용략이 거리에 따라 다르게 증가하므로, 그 위치를 인식하여 손가락이 화면 위에 위치한 좌표를 알아내는 방식이다. 한편, 션트 방식(shunt Type)은 발진회로가 지속적인 전기 진동을 발생시키고, AD 컨버터가 그 진동을 지속적으로 측정하고 있는 상태에서, 손가락이 입/출력부(120)에 접근하여 전기 진동을 방해하면 송수신측 사이의 전계 일부가 손가락으로 접지되고, 이러한 변화를 컨버터가 인식하는 방식이다. 또한, 광센서를 활용하여 입/출력부(120)는 전방에 물체가 있는지 없는지를 광 차단의 유무로 판단하는 방식으로 근접 터치를 구현할 수도 있다.
이와 같이 근접 터치 기능을 사용함으로써, 가상현실에서 빠르고 정확한 입력을 수행할 수 있다.
한편, 본 발명에서는 근접 터치와 직접 터치를 서로 종류가 다른 두 가지의 입력으로써 활용할 수도 있다. 즉, 두 개의 입력 장치(100)가 결합된 키보드 모드에서는 근접 터치 기능을 적용하되, 양 손의 엄지의 위치가 가상현실상의 키보드에 표시되도록 하여, 가상현실상의 키보드상에서의 엄지의 위치를 사용자가 정확히 알 수 있도록 한다. 한편, 하나의 입력 장치(100)가 단독으로 사용되는 마우스 모드에서는 근접 터치일 경우와 직접 터치일 경우의 커서의 이동 속도를 다르게 할 수 있다.
사용자 결합부(130)는 사용자가 검지 손가락을 끼울 수 있도록 형성된다. 즉, 도 6 등에 도시된 바와 같이 사용자는 사용자 결합부(130)에 검지 손가락을 끼워서 검지 및 중지 손가락으로 본체부(110)의 하부를 받치고, 입/출력부(120) 상에 엄지 손가락을 올려놓는 방식으로 본 발명의 입력 장치(100)를 파지할 수 있으며, 결과적으로 사용자는 스마트폰을 잡는 것과 유사하게 입력 장치(100)를 잡은 상태에서 문자 입력을 수행할 수 있는 것이다.
사용자 결합부(130)는 본체부(110)에 대해 적어도 일 방향으로 회전가능하도록 형성될 수 있다. 사용자 결합부(130)가 본체부(110)에 대해 회전된 각도에 따가 입력 장치(100)의 온/오프가 제어될 수도 있다. 즉, 입력 장치(100)는, 도 9에 도시된 바와 같이 사용시에는 스마트폰을 사용할 때의 터치 환경을 구현할 수 있고, 사용하지 않을 때에는 도 10에 도시된 바와 같이 입력 장치(100)가 손등에 오도록 젖혀두고 손으로는 자유롭게 다른 작업을 할 수 있다.
이와 같이 입력 장치(100)를 반지 형태로 만들 수 있는 이유는 입력 장치(100)의 크기가 클 필요가 없기 때문이다. 반지형의 장점은 사용하지 않을 때 손이 자유롭다는 것이다. 그렇기 때문에 주변이 보이지 않는 가상현실/증강현실 기술의 환경에서는 반지형이 더 적합하다. 왜냐하면, 반지형 기기를 착용하게 되면 언제든지 기기를 다시 사용할 수 있기 때문이다. 예를 들어, 다른 기기들처럼 스틱형으로 손에 쥐는 형태의 컨트롤러들은 항상 손에 컨트롤러를 손에 쥐고 있어야 하는 불편함이 생긴다. 게임처럼 계속 컨트롤러를 사용해야하는 환경에는 적합하겠지만, 그 외의 다양한 환경에서는 컨트롤러를 필요시에만 사용하는 것이 효과적이다.
본 발명의 입력 장치(100)는 손동작 인식(모션 인식) 기술과 같이 사용하게 될 경우 시너지 효과를 낼 수 있다. 위의 문제점에서 언급하였듯이, 손동작 인식 기술이 적용되더라도 기존의 입력 시스템을 대체하기에는 불편함이 존재한다. 그렇기에 손동작이 할 수 있는 영역과 마우스, 키보드 역할은 구분될 것이다.
특히, 손이 동작하는 것과 시야 속에 존재하는 마우스 커서는 독립적으로 존재해야 할 필요가 있다. 예를 들어, 손동작이 마우스 역할을 겸한다면, 손동작 인식 기술은 사용자가 터치를 하려고 손가락을 어떤 위치에 다가가는지, 아니면 물건을 집기 위해서 손가락을 옮기는 중인지 시스템이 구분해야하는 어려움이 생긴다. 반면, 본 발명의 입력 장치(100)를 통해 마우스 커서를 독립적으로 제어할 수 있다면 동작인식을 구현하는 기술의 정확도도 훨씬 높아질 수 있다고 생각한다.
물론 현재도 마우스의 기능을 표현하는 방식은 존재한다. 머리 착용형 가상현실 기기에서는, 응시하는 화면의 중앙이 마우스 커서의 역할을 하고 있는데, 가상 현실 기기는 자이로 센서를 기반으로 위치 인식을 하기 때문에 얼굴방향 기준으로 커서의 위치가 결정된다. 가상현실에서도 눈동자만 움직여 시야를 바꾸고 싶은 경우가 있을 것이다. 얼굴의 방향과 내가 동작하고 싶은 부분의 위치도 다른 경우가 있다. 그렇기 때문에 마우스 커서가 독립적으로 화면에 존재할 수 있도록 하는 기기는 필수적이다.
버튼부(140)는 본체부(110)의 하부에 하나 이상 구비될 수 있다. 버튼부(140)는 사용자가 손가락을 이용하여 추가적인 신호를 입력하는 추가 입력 수단으로 기능할 수 있다.
도면에는 버튼부(140)가, 사용자의 검지 손가락과 접촉하는 제1 버튼(141)과, 사용자의 중지 손가락과 접촉하는 제2 버튼(142)의 두 개의 버튼을 포함하는 것으로 도시되어 있으나, 본 발명의 사상은 이에 제한되지 아니하며, 사용자의 필요성 및 제품 디자인 등에 따라 다양한 개수 및 형상으로 구비될 수 있을 것이다.
계속해서 도 4를 참조하면, 본 발명의 일 실시예에 따른 입력 장치(100)는 통신부(111), 메모리(113), 프로그램 저장부(115), 제어부(117), 데이터베이스(119)를 포함할 수 있다.
통신부(111)는 사용자 단말(200)과 같은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 예를 들어, 통신부(111)는, 근거리 통신부 또는 이동 통신부를 포함할 수 있다. 근거리 통신부(short-range wireless communication unit)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등일 수 있으나, 이에 한정되는 것은 아니다. 이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(113)는 제어부(117)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(113)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
프로그램 저장부(115)는 입/출력부(120)를 통해 사용자로부터 소정의 입력 신호를 입력받는 기능, 통신부(111)를 통해 사용자 단말(200)과 신호 및 데이터를 송수신하는 기능, 입/출력부(120)를 통해 입력된 신호에 대응되는 신호가 사용자 단말(200)에서 디스플레이되도록 제어하는 기능 등을 수행하는 제어 소프트웨어를 탑재하고 있다.
제어부(117)는 일종의 중앙처리장치로서 입/출력부(120)를 통해 사용자로부터 소정의 입력 신호를 입력받고, 통신부(111)를 통해 사용자 단말(200)과 신호 및 데이터를 송수신하고, 입/출력부(120)를 통해 입력된 신호에 대응되는 신호가 사용자 단말(200)에서 디스플레이되도록 하는 전체 과정을 제어한다.
상세히, 제어부(117)는 사용자 단말(200)의 디스플레이부에 입/출력부(120)에 대응하는 가상의 입력부를 디스플레이시킬수 있다. 또한, 제어부(117)는 입/출력부(120)에서 인식한 입/출력부(120) 상에서의 사용자의 손가락의 위치를 사용자 단말(200)의 디스플레이부에 표시하도록 제어할 수 있다. 또한, 제어부(117)는 입/출력부(120)를 통해 사용자로부터 신호가 입력되면, 사용자 단말(200)에 상기 입력된 신호가 디스플레이되도록 제어한다.
즉, 제어부(117)는 사용자가 가상현실 기기(도 4의 201 참조)를 착용하고 있는 상태에서 가상현실 기기(도 2의 201 참조)의 디스플레이부에 가상의 입력부를 디스플레이하며, 사용자가 입/출력부(120)를 통해 문자를 입력하면, 입/출력부(120) 상에서의 사용자의 손가락의 위치 및 입력되고 있는 문자를 가상현실 기기(도 2의 201 참조)의 가상의 입력부에 디스플레이하는 것이다.
여기서, 제어부(117)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
데이터베이스(119)는 입력 장치(100)에서 발생하는 각종 신호 및 데이터들을 저장하는 역할을 수행한다.
이와 같은 입력 장치는 서로 결합 가능하도록 형성되는 제1 입력 장치 및 제2 입력 장치를 포함할 수 있다. 이하에서는 이에 대해 보다 상세히 설명하도록 한다.
도 5는 종래의 스마트폰을 이용하여 문자를 입력하는 모습을 나타내는 도면이고, 도 6은 본 발명의 일 실시예에 따른 입력 장치를 이용하여 문자를 입력하는 모습을 나타내는 도면이다. 그리고, 도 7은 좌/우 두 개의 입력 장치가 결합되어 있는 모습을 나타내는 도면이고, 도 8은 좌/우 두 개의 입력 장치가 분리되어 있는 모습을 나타내는 도면이다.
도 6, 도 7 및 도 8에서는 설명의 편의상 오른손(RH)용 입력 장치를 제1 입력 장치라고 지칭하며 도면부호 100으로 기재하고, 왼손용 입력 장치(LH)를 제2 입력 장치라고 지칭하며 도면부호 200으로 기재하고, 이 두 개의 입력 장치가 결합된 전체로서의 입력 장치를 도면부호 1로 기재하였다.
도 5는 종래의 스마트폰을 이용하여 문자를 입력하는 모습을 나타내는 도면이며, 본 발명의 일 실시예에 따른 입력 장치(1)는 가상현실 기기를 착용하고 있는 사용자에게도 이와 같은 종래 스마트폰의 문자 입력 인터페이스와 동일한 인터페이스를 제공하는 것을 특징으로 한다. 즉, 도 6에 도시된 바와 같이, 사용자는 가상현실 기기를 착용하고 있는 상태에서도 스마트폰의 문자 입력과 동일한 방식으로 문자를 입력할 수 있는 것이다. 이와 같은 본 발명에 의해 가상/증강현실용 문자 입력 시스템을 구축할 수 있는 것이다.
본 발명의 일 실시예에 따른 입력 장치(1)는 입력 도구로써 근접 터치가 가능한 터치 패널과, 양손 각각 2개의 물리 버튼을 제공할 수 있다.
먼저, 도 7은 제1 입력 장치(100)와 제2 입력 장치(200)가 결합된 상태를 나타내는 도면이다.
두 기기가 결합하는 방식은 예를 들어, 입력 장치들 각각이 결합 부위에 자석을 구비하여, 두 기기를 서로 가까이하면 자석을 통해 힘들게 결합부분을 찾지 않고도 자연스럽게 결합할 수 있다. 이와 같이 두 개의 입력 장치의 결합 기능을 제공하는 이유는 스마트폰의 환경을 재구성하기 위해서이다. 도 6에 도시된 바와 같이, 두 개의 입력 장치를 결합하면, 양손이 터치를 입력하는 자세가 스마트폰을 이용해서 타자를 입력하는 자세와 동일하게 된다. 그리고 검지 손가락과 중지 손가락 부분에 버튼부(도 3의 140 참조)가 위치하며, 손가락의 길이에 상관없이 쉽게 누를 수 있도록 인체공학적 설계를 하였다.
이때, 예를 들어 왼쪽 중지 버튼(도 3의 142 참조)은 입력 방식 전환 기능을 가질 수 있다. 또한, 기기가 결합되어 있는 동안 키보드와 마우스 기능을 변경할 수 있다. 키보드 모드에서는 나머지 버튼으로 스마트폰에서 흔히 사용되는 뒤로가기, 홈키, 작업관리자, 팝업 기능 등을 수행할 수 있으며, 마우스 모드에서는 마우스 왼쪽클릭, 오른쪽클릭, 휠(L1버튼 클릭 상태로 화면 swiping)의 기능들을 수행할 수 있을 것이다.
또한, 기기가 결합되어 있다가 다시 분리된다면, 기기는 원래의 동작 기능을 수행할 수 있다. 예를 들면, 양 쪽의 기기가 두 손의 움직임을 가상현실에서 디스플레이하고 있을 경우(예컨대, 마우스 모드가 아닌 경우), 채팅을 하고 싶을 때 기기를 결합해서 키보드로 바로 입력하고, 분리하였을 때 다시 원래의 손 움직임으로 돌아와서 원래의 기능을 그대로 수행하게 할 수 있다.
다음으로, 도 8은 제1 입력 장치(100)와 제2 입력 장치(200)가 분리된 상태를 나타내는 도면이다.
두 기기를 분리하게 되면 왼쪽 중지 버튼(도 3의 142 참조)을 통해서 3D 마우스 기능과 조이스틱 기능을 변경하여 사용할 수 있다.
3D 마우스 기능은 3D 환경을 고려한 마우스 기능인데, 상술한 바와 같이 근접 터치와 직접 터치를 통해 정밀한 커서 조작 기능을 할 수 있다. 하지만, 3D 환경에서는 회전 개념이 추가된다. 따라서 한 손은 마우스의 움직임을 담당하고 한 손은 마우스의 화전을 담당한다. 오른쪽의 검지(도 3의 141 참조)와 중지(도 3의 142 참조)은 각각 마우스의 왼쪽클릭과 오른쪽클릭을 할 수 있다. 왼쪽 검지(도 3의 141 참조)은 누른 상태에서 터치를 조작하면 줌인, 줌아웃, 마우스의 거리 조절, 음량 조절 등의 새로운 기능을 할 수 있게 된다.
조이스틱 기능은 현재의 조이스틱과 같은 방식으로 한쪽 손은 방향 터치, 다른 손은 A, B, C 등의 터치를 할 수 있다. 현재 조이스틱과의 차이는 터치 패드를 사용하기 때문에 커스터마이징을 통해 왼손과 오른손 전환 및 버튼의 위치 변경 등을 내가 원하는 대로 설정할 수 있다는 것이다.
이렇게 터치 환경과 버튼 환경을 조합하여 다양한 환경에서 임의의 터치 환경을 구성할 수도 있다.
이와 같은 본 발명에 의해 스마트폰의 입력 방식과 동일한 입력 방식을 가상현실 기기에서도 구현함으로써, 사용자가 가상현실이라는 새로운 환경에서도 적응하기 쉽고 문자 입력을 편리하게 수행하는 효과를 얻을 수 있다. 또한, 키보드, 마우스, 조이스틱 등의 다양한 입력 도구를 지원하여 많은 동작과 표현의 전달이 가능하다. 또한, 기존 기술들과 호환 범위가 넓으며, 동작인식과 함께 사용시 시너지 효과를 극대화하는 효과를 얻을 수 있다. 또한, 본 입력 장치를 인체공학적으로 설계되고, 반지형으로 만들어 가볍기 때문에, 장시간동안 사용 가능하다는 효과를 가진다. 또한, 근접 터치 기능을 적용하여 시야가 보이지 않는 가상현실 공간에서도 기기를 정확하게 동작시킬 수 있으며, 근접 터치와 직접 터치인 2단계 손가락 인식 방식을 이용하여 작은 범위의 동작으로 넓은 범위의 시야를 효율적으로 제어할 수 있다. 나아가, 터치패드 환경이기 때문에 입력 방식을 사용자에 맞게 커스터마이징하는 것이 가능하며, 착용 부분이 반지 형태이기 때문에 필요 시 두 손이 자유로울 수 있다.
이와 같이 본 발명은 도면에 도시된 일 실시예를 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 입력 장치
110: 본체부
120: 입/출력부
130: 사용자 결합부
140: 버튼부
111: 통신부
113: 메모리
115: 프로그램 저장부
117: 제어부
119: 데이터베이스

Claims (20)

  1. 본체부;
    상기 본체부의 일 면상에 형성되는 입/출력부;
    상기 본체부의 일 측에 형성되며 사용자의 손가락이 끼워질 수 있도록 형성되는 사용자 결합부;를 포함하고,
    상기 사용자 결합부는 상기 본체부에 대해 회전 가능하도록 형성되어,
    상기 사용자 결합부의 상기 본체부에 대한 회전 위치에 따라 온(ON)/오프(OFF)가 제어되는 것을 특징으로 하는 입력 장치.
  2. 제 1 항에 있어서,
    상기 입/출력부는, 사용자의 직접 터치 및 근접 터치를 인식하는 것을 특징으로 하는 입력 장치.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 본체부에는 하나 이상의 버튼부가 더 형성되는 것을 특징으로 하는 입력 장치.
  5. 제 1 항에 있어서,
    상기 입력 장치는 서로 결합 가능하도록 형성되는 제1 입력 장치 및 제2 입력 장치를 포함하고,
    상기 제1 입력 장치 및 제2 입력 장치 각각이 상기 본체부, 상기 입/출력부, 상기 사용자 결합부를 포함하는 입력 장치.
  6. 제 5 항에 있어서,
    상기 제1 입력 장치 및 제2 입력 장치가 결합하면 키보드 기능을 수행하는 것을 특징으로 하는 입력 장치.
  7. 제 5 항에 있어서,
    상기 제1 입력 장치 및 제2 입력 장치가 분리되면 마우스 기능을 수행하는 것을 특징으로 하는 입력 장치.
  8. 제 1 항에 있어서,
    상기 입력 장치는 외부의 사용자 단말과 연결되어, 상기 사용자 단말의 디스플레이부에 가상의 입력부를 디스플레이시키는 것을 특징으로 하는 입력 장치.
  9. 제 8 항에 있어서,
    상기 입력 장치를 통해 사용자로부터 신호가 입력되면, 상기 사용자 단말에 상기 입력된 신호가 디스플레이되는 것을 특징으로 하는 입력 장치.
  10. 제 8 항에 있어서,
    상기 사용자 단말은 가상현실 기기인 것을 특징으로 하는 입력 장치.
  11. 사용자로부터 소정의 신호를 입력받는 입/출력부;
    상기 입/출력부를 통해 입력된 신호를 사용자 단말로 전송하는 통신부; 및
    상기 입/출력부를 통해 입력된 신호에 대응되는 신호가 상기 사용자 단말에서 디스플레이되도록 제어하는 제어부;를 포함하고,
    상기 입/출력부는 사용자의 직접 터치 및 근접 터치를 인식할 수 있고,
    상기 제어부는 상기 직접 터치 및 근접 터치를 서로 다른 입력 신호로 인식하도록 제어하는 것을 특징으로 하는 입력 장치.
  12. 삭제
  13. 삭제
  14. 제 11 항에 있어서,
    상기 제어부는,
    상기 입/출력부에서 인식한 상기 입/출력부 상에서의 사용자의 손가락의 위치를 상기 사용자 단말의 디스플레이부에 표시하도록 제어하는 것을 특징으로 하는 입력 장치.
  15. 제 11 항에 있어서,
    상기 제어부는 상기 사용자 단말의 디스플레이부에 상기 입/출력부에 대응하는 가상의 입력부를 디스플레이시키는 것을 특징으로 하는 입력 장치.
  16. 제 11 항에 있어서,
    상기 입력 장치를 통해 사용자로부터 신호가 입력되면, 상기 사용자 단말에 상기 입력된 신호가 디스플레이되는 것을 특징으로 하는 입력 장치.
  17. 제 11 항에 있어서,
    상기 사용자 단말은 가상현실 기기인 것을 특징으로 하는 입력 장치.
  18. 사용자로부터 소정의 신호를 입력받는 입/출력부;
    상기 입/출력부를 통해 입력된 신호를 사용자 단말로 전송하는 통신부;
    상기 입/출력부를 통해 입력된 신호에 대응되는 신호가 상기 사용자 단말에서 디스플레이되도록 제어하는 제어부;
    서로 결합 가능하도록 형성되는 제1 입력 장치 및 제2 입력 장치를 포함하고,
    상기 제1 입력 장치 및 제2 입력 장치 각각이 상기 통신부, 상기 입/출력부, 상기 제어부를 포함하는 입력 장치.
  19. 제 18 항에 있어서,
    상기 제1 입력 장치 및 제2 입력 장치가 결합하면 키보드 기능을 수행하는 것을 특징으로 하는 입력 장치.
  20. 제 18 항에 있어서,
    상기 제1 입력 장치 및 제2 입력 장치가 분리되면 마우스 기능을 수행하는 것을 특징으로 하는 입력 장치.
KR1020160007455A 2016-01-21 2016-01-21 입력 장치 KR101793146B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160007455A KR101793146B1 (ko) 2016-01-21 2016-01-21 입력 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160007455A KR101793146B1 (ko) 2016-01-21 2016-01-21 입력 장치

Publications (2)

Publication Number Publication Date
KR20170087637A KR20170087637A (ko) 2017-07-31
KR101793146B1 true KR101793146B1 (ko) 2017-11-09

Family

ID=59419220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160007455A KR101793146B1 (ko) 2016-01-21 2016-01-21 입력 장치

Country Status (1)

Country Link
KR (1) KR101793146B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302204A (ja) * 2005-04-25 2006-11-02 Chiba Inst Of Technology 携帯型操作入力装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302204A (ja) * 2005-04-25 2006-11-02 Chiba Inst Of Technology 携帯型操作入力装置

Also Published As

Publication number Publication date
KR20170087637A (ko) 2017-07-31

Similar Documents

Publication Publication Date Title
CN109891368B (zh) 活动对象在增强和/或虚拟现实环境中的切换
US10444849B2 (en) Multi-surface controller
US10534447B2 (en) Multi-surface controller
US20210248835A1 (en) Context sensitive user interface activation in an augmented and/or virtual reality environment
Gupta et al. Rotoswype: Word-gesture typing using a ring
RU2687037C1 (ru) Способ, устройство быстрого разделения экрана, электронное устройство, ui отображения и носитель хранения
US10452191B2 (en) Systems and methods for automatically switching between touch layers of an interactive workspace based upon the use of accessory devices
US9965033B2 (en) User input method and portable device
KR102385759B1 (ko) 컨텍스트 정보에 기초한 터치 표면에 대한 비활성 영역
KR101793566B1 (ko) 원격 제어기, 정보 처리 방법 및 시스템
US20190384450A1 (en) Touch gesture detection on a surface with movable artifacts
Lee et al. Towards augmented reality driven human-city interaction: Current research on mobile headsets and future challenges
KR20140114913A (ko) 사용자 기기의 센서 운용 방법 및 장치
KR102297473B1 (ko) 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
Matulic et al. Phonetroller: Visual representations of fingers for precise touch input with mobile phones in vr
US20170097733A1 (en) Touch device with suppression band
CN103353826A (zh) 一种显示设备及其信息处理方法
US20180275773A1 (en) Electronic eraser
CN113641278A (zh) 控制方法、装置、电子设备和存储介质
WO2015174316A1 (ja) 端末、及び端末制御方法
KR20140106996A (ko) 햅틱을 제공하는 방법 및 장치
Lee et al. Towards augmented reality-driven human-city interaction: Current research and future challenges
KR101793146B1 (ko) 입력 장치
US20170017389A1 (en) Method and apparatus for smart device manipulation utilizing sides of device
CN108780383B (zh) 基于第二输入选择第一数字输入行为

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right