KR20220152111A - 한 손 키보드 입력장치 - Google Patents

한 손 키보드 입력장치 Download PDF

Info

Publication number
KR20220152111A
KR20220152111A KR1020210106120A KR20210106120A KR20220152111A KR 20220152111 A KR20220152111 A KR 20220152111A KR 1020210106120 A KR1020210106120 A KR 1020210106120A KR 20210106120 A KR20210106120 A KR 20210106120A KR 20220152111 A KR20220152111 A KR 20220152111A
Authority
KR
South Korea
Prior art keywords
nail
tactile sensor
input device
finger
alphabet
Prior art date
Application number
KR1020210106120A
Other languages
English (en)
Inventor
오클리 이안
김지완
이도영
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Publication of KR20220152111A publication Critical patent/KR20220152111A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0231Cordless keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본 발명은 전자기기에 해당 신호를 주도록 전기적으로 연결되어, 사용자가 문자 입력을 위해 접촉하는 키들을 구비한 것으로, 한 손의 엄지손가락과 나머지 4개의 손가락 각각의 손톱에 구비되고, 손가락 일부분과의 접촉으로 접촉신호를 검출하는 손톱촉각센서, 및 상기 손톱촉각센서들과 전기적으로 연결되고, 상기 손톱촉각센서들에서 검출된 접촉신호를 토대로, 해당 키입력신호를 생성하여 이를 전자기기로 송신하는 제어부를 포함하여, 보행 중에도 한 손으로 전자기기에 문자를 입력할 수 있는 한 손 키보드 입력장치를 제공한다.

Description

한 손 키보드 입력장치{One-handed keyboard input device}
본 발명은 한 손 키보드 입력장치에 관한 것으로, 더욱 상세하게는 사용자가 보행 중에도 전자기기에 문자를 한 손으로 입력할 수 있는 한 손 키보드 입력장치에 관한 것이다.
일반적으로 문자(텍스트) 입력은 키보드와 같은 대형 전용 입력 장치를 통해 높은 수준의 성능으로 달성되는 보편적이고 까다로운 입력 작업이다.
근래에는 모바일 및 웨어러블 장치 태블릿, 스마트폰, 웨어러블 장치 등 다양한 모바일 전자기기가 출시되는데, 모바일 전자기기 및 웨어러블 장치의 조작을 위해 신속하게 문자(텍스트)를 입력할 수 있도록 하는 연구가 진행되고 있다.
그 중 스마트폰 터치 스크린 기술을 시계나 안경에 적용한 것이 있고, 손가락의 위상 및 궤적을 추적하는 추적기를 제공하여, 공중에서 손가락의 스트로크를 추적하는 시스템을 제안하여, 종래의 키보드에서 사용되는 것과 유사한 입력 동작을 지원하는 시스템도 있다.
하지만, 웨어러블 장치에 문자(텍스트)를 입력할 시 상당한 문제가 발생하였는데, 터치입력공간이 작아 부정확하게 입력하거나, 사용자의 시야에 보이지 않을 수 있고, 디스플레이가 상대적으로 작아 입력공간이 화면에서 벗어나 오프셋되는 경우가 발생하였다.
이러한 문제를 해소하기 위해 다단계 문자 선택, 제한된 그래픽 피드백, 맞춤형 제스처 알파벳 및 최적화된 키보드 레이아웃과 같은 기술이 제공되었다.
또한, 웨어러블 장치는 이동 중일 때 상황에 따라 장애가 발생하는 등의 문제가 불가피하게 발생하였다.
이러한 상황에서는 한 손으로 조작할 수 있고 걷기와 같은 일반적인 활동에 참여할 수 있는 웨어러블 문자(텍스트) 입력장치가 필요하다.
또한, 보행 중에 스마트폰 등을 주시한 상태로 조작하는 것은 사용자가 위험한 상황에 그대로 노출되므로 사회적 문제로 대두되었다.
종래기술로는 공개특허 제10-2016-0072637호(2016,06,23)를 참조할 수 있다.
본 발명은 보행 중에도 한 손으로 전자기기에 문자를 입력할 수 있는 한 손 키보드 입력장치를 제공하는 것을 그 목적으로 한다.
본 발명에 따른 한 손 키보드 입력장치는 한 손의 엄지손가락과 나머지 4개의 손가락 각각의 손톱에 구비되고, 손가락 일부분과의 접촉으로 접촉신호를 검출하는 손톱촉각센서; 및 상기 손톱촉각센서들과 전기적으로 연결되고, 상기 손톱촉각센서들에서 검출된 접촉신호를 토대로, 해당 키입력신호를 생성하여 이를 전자기기로 송신하는 제어부;를 포함한다.
이때 본 발명에 따른 상기 손톱촉각센서는 각 손톱 형상에 대응하는 형상으로 형성되고, 각 손톱의 표면에 위치하는 것이 바람직하다.
그리고 본 발명에 따른 상기 손톱촉각센서는 그 감지영역을 복수 개로 분할하여 복수 개의 감지점을 구비할 수 있다.
또한, 본 발명에 따른 상기 제어부는 상기 손톱촉각센서가 해당 시간 내에 손가락과 접촉하는 접촉횟수를 카운트하고, 카운트된 접촉횟수에 대응하여 각각 다른 해당 키입력신호를 발생할 수 있다.
여기서 본 발명에 따른 상기 전자기기는 상기 제어부와 통신수단으로 연결되고, 상기 제어부에서 송신된 해당 키입력신호을 수신하여, 해당 키입력신호에 대응하는 문자를 출력한다
그리고 본 발명에 따른 상기 제어부는 수신된 접촉신호들의 순서에 대응하여, 기학습된 단어 중 입력하고자 하는 예상 단어를 추출하고, 추출된 예상 단어를 제시한다.
이때 본 발명에 따른 상기 제어부가 추출하여 제시한 예상 단어를 디스플레이하는 디스플레이부를 더 포함한다.
더불어 본 발명에 따른 상기 제어부가 제시한 예상 단어는 상기 손톱촉각센서들 중 검지손가락의 손톱촉각센서에서 약지손가락의 손톱촉각센서까지 손가락나열 순으로 순차 접촉시켜 예상 단어가 선택되도록 한다.
본 발명에 따른 한 손 키보드 입력장치에 의해 나타나는 효과는 다음과 같다.
보행 중에도 한 손으로 전자기기에 문자를 입력할 수 있는 한 손 키보드 입력장치를 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치를 간략하게 보인 예시도이다.
도 2는 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치의 사용 예시를 보인 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치의 실시 상태를 보인 참고도이다.
도 4는 본 발명의 일 실시 예에 따른 손톱촉각센서를 착용하여 'YOU' 단어를 입력하는 상태를 보인 예시도이다.
도 5는 본 발명의 일 실시 예에 따른 손톱촉각센서들에 실시할 시작접촉 및 종료접촉을 하이라이트를 보인 예시도이다.
도 6은 시작접촉 및 종료접촉의 모든 조합에 대한 시간(ms) 오류(%) 데이터를 보인 예시도이다.
도 7은 시작접촉 및 종료접촉의 모든 조합의 시간(ms) 오류(%) 데이터에 대한 평균을 보인 박스 플릇이다.
도 8은 본 발명의 일 실시 예에 따른 손톱촉각센서들에 할당된 문자 레이아웃을 보인 참고도이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들은 대체할 수 있는 균등한 변형 예들이 있을 수 있음을 이해하여야 한다.
본 발명은 사용자가 보행 중에도 전자기기에 문자를 한 손으로 입력할 수 있는 한 손 키보드 입력장치에 관한 것으로, 도면을 참조하여 살펴보면 다음과 같다.
도 1 내지 도 8을 참조한 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치는 복수 개의 손톱촉각센서(11, 12, 13, 14, 15)와, 제어부(20)와, 전자기기(100)와, 디스플레이부(200)를 포함하는데, 먼저 상기 손톱촉각센서(11, 12, 13, 14, 15)는 복수 개로, 한 손 중 엄지손가락과 나머지 검지, 중지, 약지, 및 새끼손가락 각각의 손톱에 구비되고, 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 손가락 일부분과의 접촉에 의해 접촉신호를 생성한다.
이때 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 전체적인 형상이 손톱 형상에 대응하는 형상으로 형성하고, 플렉시블한 PCB기판을 베이스로 하며, 상기 PCB기판 상에 복수 개의 정전용량 터치 전극이 사각형태로 배열되어 이루어진다.
상기 정전용량 터치 전극들은 손가락 일부분과의 접촉으로 정전용량이 변화되어 그에 따른 접촉신호를 생성한다.
따라서 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 한 손의 손가락 각각의 손톱에 구비되어, 한 손에는 총 5개소의 감지점을 형성할 수 있고, 상기 총 5개소의 감지점들은 각각 손가락 일부분과 접촉하여 서로 다른 접촉신호를 생성한다.
또한, 상기 손톱촉각센서(11, 12, 13, 14, 15)들에 의해 형성된 총 5개소의 감지점 각각은 해당 시간 내에 손톱촉각센서(11, 12, 13, 14, 15)의 접촉횟수가 카운트되고, 카운트된 접촉횟수에 따라 다른 접촉신호를 생성한다.
상기와 같이 한 손에 5개의 감지점을 형성한 경우, 각 손가락에 할당되는 알바벳 레이아웃은 엄지손가락에는 알파벳 D, I, O, C, G, N의 레이아웃으로 설정할 수 있고, 검지손가락에는 알파벳 E, R, T, A, H, S의 레이아웃으로 설정할 수 있으며, 중지 손가락은 알파벳 F, M, U, B, L, P의 레이아웃으로 설정할 수 있고, 약지 손가락은 알파벳 Q, W, Y, K, V, X의 레이아웃으로 설정할 수 있으며, 새끼손가락은 알파벳 J, Z의 레이아웃으로 설정할 수 있다.
상기한 각 손가락에 할당되는 알파벳 레이아웃은 사용자의 취향에 따라 다르게 설정할 수 있다.
상기의 5개의 감지점에 따른 알파벳 레이아웃을 기준으로 문자 입력 실시 예를 살펴보면 다음과 같다.
사용자가 한 손에 5개의 감지점을 이용하여 'YOU'라는 단어를 입력하고자 한다면, 사용자는 엄지손가락으로 약지손가락의 손톱에 구비된 손톱촉각센서(14)를 접촉시키는데, 이때 엄지손가락으로 약지손가락의 손톱에 구비된 손톱촉각센서(14)를 3회 연속 접촉시켜, 알파벳 'Y'에 해당하는 접촉신호를 발생시킨다.
그리고 검지손가락으로 엄지손가락의 손톱에 구비된 손톱촉각센서(11)를 접촉시키는데, 이때에도 검지손가락으로 엄지손가락의 손톱에 구비된 손톱촉각센서(11)를 3회 연속 접촉시켜, 알파벳 'O'에 해당하는 접촉신호를 발생시킨다.
끝으로 엄지손가락으로 중지 손가락의 손톱에 구비된 손톱촉각센서(13)를 접촉시키는데, 이때에는 엄지손가락으로 중지 손가락의 손톱에 구비된 손톱촉각센서(13)를 3회 연속 접촉시켜, 알파벳 'U'에 해당하는 접촉신호를 발생시킨다.
따라서 상기한 일련의 과정에 의해 'Y', 'O', 'U' 각각에 해당하는 접촉신호가 순차적으로 검출되어 제어부(20)로 출력된다.
또한, 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 해당 감지영역을 분할하여, 하나의 손톱촉각센서(11, 12, 13, 14, 15)에 감지점을 복수 개로 형성할 수 있다.
일례로, 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 길이 또는 폭의 중심을 기준으로 가로, 세로, 또는 사선을 기준으로 분할하여, 상기 손톱촉각센서(11, 12, 13, 14, 15)들 각각의 감지점을 좌우 또는 상하, 사선으로 분할하여 한 손에 총 10개소의 감지점을 형성할 수도 있다.
상기와 같이 한 손에 10개의 감지점을 형성한 경우, 각 손가락에 할당되는 알바벳 레이아웃은 엄지손가락의 좌는 알파벳 B 우는 알파벳 E, R, S, U의 레이아웃으로 설정할 수 있고, 검지손가락의 좌는 알파벳 A, D, N, O 우는 알파벳 H, I, L, T의 레이아웃으로 설정할 수 있으며, 중지손가락의 좌는 알파벳 C, G, M, O 우는 알파벳 F, Y의 레이아웃으로 설정할 수 있고, 약지손가락의 좌는 알파벳 J, K, W 우는 알파벳 V, X의 레이아웃으로 설정할 수 있으며, 새끼손가락의 좌는 알파벳 Z 우는 Q의 레이아웃으로 설정할 수 있다.
상기한 알파벳 레이아웃 역시, 사용자의 취향에 따라 다르게 설정할 수 있다.
상기의 10개의 감지점에 따른 알파벳 레이아웃을 기준으로 문자 입력 실시 예를 살펴보면 다음과 같다.
사용자가 한 손에 10개의 감지점을 이용하여 'YOU'라는 단어를 입력하고자 한다면, 사용자는 엄지손가락으로 중지손가락의 손톱에 구비된 손톱촉각센서(13)의 우측을 접촉시키는데, 이때 엄지손가락으로 중지손가락의 손톱에 구비된 손톱촉각센서(13)의 우측을 2회 연속 접촉시켜, 알파벳 'Y'에 해당하는 접촉신호를 발생시킨다.
그리고 엄지손가락으로 중지손가락의 손톱에 구비된 손톱촉각센서(13)의 좌측을 접촉시키는데, 이때에는 엄지손가락으로 중지손가락의 손톱에 구비된 손톱촉각센서(13)를 4회 연속 접촉시켜, 알파벳 'O'에 해당하는 접촉신호를 발생시킨다.
끝으로 검지손가락으로 엄지손가락의 손톱에 구비된 손톱촉각센서(11)의 우측을 접촉시키는데, 이때에는 검지손가락으로 엄지손가락의 손톱에 구비된 손톱촉각센서(11) 우측을 4회 연속 접촉시켜, 알파벳 'U'에 해당하는 접촉신호를 발생시킨다.
따라서 상기한 일련의 과정에 의해 'Y', 'O', 'U' 각각에 해당하는 접촉신호가 순차적으로 검출되어 제어부(20)로 출력된다.
그리고 숫자 또는 구두점과 같은 특수문자에 대한 레이아웃 역시, 알파벳 레이아웃과 같이 각 손톱촉각센서(11, 12, 13, 14, 15)들에 할당하여 제공할 수 있고, 알파벳, 숫자, 및 특수문자 각각 레이아웃은 상기 손톱촉각센서(11, 12, 13, 14, 15)들이 착용된 한 손을 주먹을 진 후 펴는 제스처로 레이아웃 변경이 가능하다.
이때, 엄지를 제외한 나머지 손가락에 구비된 상기 손톱촉각센서(12, 13, 14, 15)들 모두가 동시에 접촉신호를 생성하기 때문이다.
또한, 띄우기(예: space 키)는 엄지손가락으로 검지와 중지의 손톱촉각센서(12, 13)를 동시에 접촉하여 실시할 수 있고, 삭제(예: delete 키)는 중지와 약지의 손톱촉각센서(13, 14)를 동시에 접촉하여 실시할 수 있으며, 선택(예: enter)은 엄지손가락을 검지에서 약지로 슬라이딩시키거나, 약지에서 검지로 슬라이딩 시켜, 검지에서 약지의 손톱촉각센서(12, 13, 14)들을 순차적으로 접촉하는 제스처로 실시할 수 있다.
상기한 레이아웃 및 제스처는 하나의 예시 일뿐 사용자의 기호에 따라 다양한 형태의 레이아웃으로 할당 가능하고, 제스처 역시 변경 가능하다.
그리고 상기 손톱촉각센서(11, 12, 13, 14, 15)들은 제어부(20)와 전기적으로 연결되는데, 상기 제어부(20)는 상기 손톱촉각센서(11, 12, 13, 14, 15)들 각각의 감지점에서 생성된 접촉신호를 수신하고, 수신된 접촉신호에 대응하여 전자기기(100)의 문자 키입력신호를 생성하여 이를 전자기기(100)로 송신한다.
상기 제어부(20)는 그 내부에 자체 전원부(배터리) 및 통신수단을 구비하여, 상기 손톱촉각센서(11, 12, 13, 14, 15)들에 전원을 선택적으로 공급하고, 상기 통신수단을 통해 상기 전자기기(100)와 유, 무선으로 서로 통신 가능하게 전기적으로 연결된다.
여기서 상기 전자기기(100)는 소셜 네트워크 서비스(SNS), 문자통신(SMS), 인터넷검색이 가능한 스마트폰과 같은 모바일 폰, 모바일 통신기기, 모바일 컴퓨터인 것이 바람직하다.
상기 전자기기(100)는 상기 제어부(20)에서는 송신된 해당 키입력신호를 수신하여, 해당 문자 키입력신호에 대응하는 문자를 출력한다.
또한, 상기 제어부(20)는 상기 손톱촉각센서(11, 12, 13, 14, 15)들을 통해 수신된 접촉신호로 해당 문자 키입력신호를 생성할 시, 수신된 접촉신호들의 나열을 연산하여, 기학습된 단어 중 예상 단어를 전자기기(100)를 통해 사용자에게 제시하여 사용자가 선택하도록 함으로써, 단어 전체를 입력해야 하는 수고를 줄일 수 있다.
상기 디스플레이부(200)는 사용자의 머리에 착용되면서, 상기 전자기기(100)와 전기적으로 연결되어, 상기 전자기기(100)에서 출력되는 화면과 함께 상기 손톱촉각센서(11, 12, 13, 14, 15)들에 할당된 문자 레이아웃을 사용자의 눈높이에 대응하는 위치에 표시한다.
이때 상기 디스플레이부(200)는 사용자의 머리에 착용되어, 사용자의 시야를 가리지 않는 증가현실(Augmented Reality: AR) 디스플레이 기기인 것이 바람직하고, 사용자는 눈높이 위치에 표시된 화면과 문자 레이아웃을 인지하면서 문자 타이핑 및 기기조작을 실시할 수 있다.
보행(이동성)은 전자기기(웨어러블 장치 포함)에 있어 중요한 상황장애 중 하나인데, 다른 전자기기와 마찬가지로 콘텐츠 보기와, 전자기기에 대한 문자 입력 등의 작업은 사용자가 걷는 동안 하지 못한다.
전자기기 중 하나인 스마트워치는 사용자의 한 손목에 착용하고, 화면을 주시한 상태로 다른 손으로 화면을 두드리는 등 양손을 사용해야만 하였다.
상기한 스마트워치 이외의 전자기기(웨어러블 장치 포함)에서는 사용자가 보행중에 문자(텍스트) 입력하는 것을 경험적으로 가능하지 못하다는 것을 확인하였다.
따라서 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치를 이용하여 손으로 전자기기(웨어러블 장치 포함)에 문자(텍스트)를 입력할 수 있는지에 대해 실험을 통해 알아보았다.
문자(텍스트) 입력 기법을 설계하기 위해 문자 할당 문제는 입력 동작에 문자를 할당하는 과정을 말하는 것으로, 이 프로세스를 제한하는 주요요인은 지원해야 하는 문자 수와, 사용 가능한 입력 작업 수이다.
전자기기(웨어러블 장치 포함)에 문자(텍스트)를 입력하는 장치에서 입력 동작의 수는 일반적으로 문자 수보다 적은 것이 바람직하다.
따라서 입력 동작은 여러 문자와 연관되며, 단어 예측 기술은 입력을 명확하게 하고 정확한 문자(텍스트) 입력을 가능하게 한다.
문자 할당 문제를 여러 목표 중 하나로 보는 것이 일반적인데, 가능한 문자 배열이 종래와 다르면, 문자(텍스트) 입력 속도, 입력 정확도, 편의성, 단어 수준 정확도와 같은 메트릭 측면에서 다른 성능 프로필이 생성될 것이다.
또한, 종래의 키보드 레이아웃과 유사성을 가지면, 진화 알고리즘 또는 분기 및 경계 정수 프로그래밍과 같은 프로세스를 사용하는 다목적 최적화로 목표에 따라 원하는 키보드 레이아웃을 선택하는데 도움이 될 것이다.
예를 들어 재교육 없이 성능을 높이고, 키보드 디자인의 모호함을 줄이며, 자주 사용하지 않는 특수 문자의 배치를 개선하기 위해 쿼티(QWERTY: 키보드 배열의 일종)를 사용하여 조정할 수 있다.
본 실험에서는 입력 속도, 편의성, 정확성 및 단어를 입력하는 기능 측면에서 후보 키 할당을 평가하는 진화 알고리즘을 활용한다.
본 실험에 따른 모든 작업은 한 손에서 접촉(터치)를 추적하기 위해 5개의 손톱에 장착되는 손톱촉각센서(정전용량센서)를 사용한 한 손 키보드 입력장치를 이용하였는데, 각 손톱에 대해 최대 5번까지 연속 접촉(터치)을 세밀하게 추적할 수 있도록 한다.
손톱에 착용되는 손톱촉각센서(11, 12, 13, 14, 15)을 기반으로 하는 본 발명에 따른 한 손 키보드 입력장치는 사용자의 한 손에 손쉽게 착용할 수 있으며 사용자의 움직임 범위를 크게 제한하지 않는다.
상기한 한 손 키보드 입력장치는 간단히 말해서 5개의 손톱촉각센서(11, 12, 13, 14, 15)로 구성되고, 각각의 손톱촉각센서(11, 12, 13, 14, 15)는 한 손의 손가락들 손톱에 각각 부착된다.
상기 손톱촉각센서(11, 12, 13, 14, 15)들은 상업용 미용 손톱에 장착된 유연한 PCB(두께 0.3mm)로 구성되며, 표준 고정액을 사용하여 사용자의 손톱에 부착되고, 각 손톱에는 정사각형 격자로 배열된 9개의 개별 정전용량 터치 전극이 있으며, 더 좁은 형태의 작은 손가락(새끼손가락)은 두 개의 열에 6개의 전극을 지원하며, 전극 크기는 3.8mm(검지, 중지, 약지손가락)에서 4.8mm 정사각형(엄지)까지 다양하다.
각 손톱촉각센서(11, 12, 13, 14, 15)의 베이스로 각 유연한 PCB를 구비하는데, 손가락의 말단 지골 위로 확장되면서 마이크로 컨트롤러(MPR121))와 연결된다.
이때 마이크로 컨트롤러는 각 손톱촉각센서(11, 12, 13, 14, 15)를 모니터링하여 100Hz에서 아날로그 "터치 히트맵" 형태로 접촉 데이터를 송출한다.
각 손톱촉각센서(11, 12, 13, 14, 15)를 읽는 동안 이러한 히트맵이 처리되어 가장 큰 접촉영역을 추출하고, 그런 다음 이미지 모멘트를 계산하여 영역의 중심, 각도 및 치수를 검출하였다.
접촉영역의 중심은 손톱의 접촉점으로 간주되고, 각 마이크로 컨트롤러는 손가락 움직임을 제한하지 않는 게이지 와이어(AWG32)를 통해 손목에 장착된 제어부(20)인 마이컴(Arduino MKR1010)과 연결된다.
상기 마이컴(Arduino MKR1010)은 와이파이(WiFi) 및 UDP를 통해 호스트 컴퓨터와 통신하고, 피드백 측면에서 디스플레이부(200)인 헤드 마운트 디스플레이(Epson BT 200)를 사용하여 사용자에게 지침과 인터페이스 등을 제공한다.
상기 헤드 마운트 디스플레이(Epson BT 200 HMD)는 23° 시야각과 30Hz 업데이트 속도를 제공하고, 모든 시각적 콘텐츠는 무선 UDP 연결을 통해 호스트 컴퓨터에 의해 제어된다.
본 실험은 사용자가 앉거나 선 상태인 정지상태와 보행중인 보행상태에서 한 손 접촉(터치)과 성능을 대조하였고, 사용자가 보행 중일 때 발생할 수 있는 성능 변화를 살펴보았으며, 또한 연속적인 타이핑(문자 입력) 과정에서 손톱촉각센서 개별 접촉(터치)의 성능에 대한 종래 데이터를 접촉(터치)이 순차적으로 수행되는 방식에 대한 데이터로 보완하였다.
본 실험에서는 한 손 키보드 입력장치에서 모든 감지점에 대한 데이터는 바이그램 주파수를 활용하여 효율적이고 정확한 입력 데이터를 생성하여, 문자(텍스트) 입력 최적화를 위해 필요하다.
본 실험은 자세(앉아/걷기), 시작접촉(스타트-터치) 및 종료접촉(엔드-터치)의 세 가지 독립 변수를 기준으로 실시하였다.
본 실험은 반복된 측정설계를 따랐고, 테스트에 참가한 모든 참가자는 모든 조건에서 시험을 완료하였다.
참가자의 절반이 앉기 전에 걷기 테스트를 완료하고, 나머지 절반은 그 반대의 자세(걷기 전에 앉기)로 테스트를 완료하였다.
여기서 시작접촉 및 종료접촉의 조합은 각 자세 조건 내에서 임의의 블록으로 설정하고, 이 블록은 참가자들에게 무작위로 제시되었으며, 각 블록은 시작접촉 및 종료접촉를 4번 반복하는 것으로 구성되었다.
본 테스트 전, 연습으로 수행되었고, 참가자가 요청한 접촉을 잘못 수행한 경우, 다시 실시하여 완료해야 했다.
자세(앉기/걷기)를 변경하면서 시작접촉 후, 종료접촉을 반복 수행하였고, 매회 시간과 오류를 측정하였으며, 시간 측정은 시작접촉 시 감지영역의 초기 접촉과, 종료접촉 시 감지영역의 초기 접촉까지의 사이 기간으로 정의하였다.
오류는 참가자가 시작접촉 및 종료접촉 감지영역을 올바르게 접촉하지 못한 횟수로 정의되었고, 또한 보행 조건에서 참가자가 이동한 전체 거리를 측정하여 이를 이용해 평균 보행 속도를 추론하였다.
본 실험은 실내에서 진행되었으며, 참가자들의 오른손에는 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치를 착용하고, 머리에는 디스플레이부(200)인 헤드 마운트 디스플레이 착용하였으며, 테스트 시작 및 중지와 같은 제어 입력을 제공하기 위해 참가자는 무선 마우스를 왼손에 잡고 편안하게 버튼을 누를 수 있도록 했다.
참가자들은 형식과 지침에 익숙해질 때까지 연습을 수행하였다.
본 테스트는 앉은 상태에서 참가자는 팔걸이 없이 의자에 앉았고, 보행 상태에서는 평상시 보폭으로 책상을 중심으로 30m 간략의 '8'자 모양의 경로를 계속 걸었으며, 보행과 앉기 두 자세 변경 조건 사이에 최소 5분의 휴식이 적용되었다.
본 테스트의 실시는 먼저 참가자가 무선 마우스를 클릭하여 실험 지침이 표시되었는데, 도 5와 같이 손의 그래픽 이미지 위에 강조된 하이라이트로 시작 및 끝터치 영역을 묘사했다.
그런 다음 참가자는 표시된 지침에 따라 한 쌍의 접촉(시작접촉 및 종료접촉)을 수행하고, 하나의 입력이 완료되면 단계를 순차적으로 반복 수행하였다.
본 테스트 사이에 참가자들은 필요한 경우 휴식을 취할 수 있었고, 테스트 전반에 걸쳐 참가자들은 손을 자유롭게 입력하면서 자연스러운 "팔을 내리는" 자세를 유지하도록 하였으며, 시선은 손을 보지 않도록 하였다.
상기한 본 테스트의 실시로 오류를 포함하여 총 7653번의 시행을 기록했는데, 시스템 장애로 인한 데이터 손실로 29번의 시행(0.38 %)을 제외하고, 7175번을 올바른 수행과, 449개의 오류를 수행하였다.
시간을 분석하기 위해 처음에는 평균 편차를 조사하여 이상 값을 제거했고, 주어진 조건에 대한 모든 참가자의 데이터가 제거된 두 가지(0.08%) 사례에서 평균 대치를 사용하였다.
도 6의 왼쪽은 모든 주요 효과에 대한 모든 조건의 시간 데이터를 보여주고, 도 6의 오른쪽은 모든 주요 효과에 대해 개별 독립 변수로 축소된 오류 데이터를 보여준다. 이때 평균은 '+'기호로 표시되었다.
시간 데이터는 개별 조건의 8%(즉, 자세, 시작접촉 및 종료접촉의 200개 조합 중 16개)에서 약간의 비정상적인 데이터가 도출되었다.
이러한 왜곡을 해소하기 위한 것으로 널리 사용되는 분산분석(analysis of variance: ANOVA)을 이용하였는데, 자세, 시작접촉 및 종료접촉의 변수에 대한 보정을 통합하여 시간 데이터를 분석했다.
상기 분산분석(ANOVA)에서는 참가자가 작업을 수행하는 속도에 자세의 영향을 찾지 못하였는데, 이는 문자 타이핑 성능에 미치는 주요요인이 시작접촉 및 종료접촉 간의 관계였음을 시사한다.
도 7은 시작접촉 및 종료접촉의 모든 조합에 대한 평균 결과를 보인 것으로, 왼쪽은 시간 데이터(ms), 오른쪽은 오류 데이터(%)를 보여주는데, 도 7에 도시한 바와 같이 동일한 영역을 반복해서 선택하면(왼쪽에서 오른쪽 아래로 대각선으로 표시됨) 매우 강력한 성능을 얻을 수 있다.
상기한 데이터로 순차적 접촉의 성능에 따른 최적화된 한 손 문자(텍스트) 입력장치를 설계할 수 있다.
또한, 서로 다른 손가락의 감지점에 비해 동일한 손가락에 있는 두 개의 서로 다른 감지점을 순차적으로 선택할 때 눈에 띄는 이점(평균 오류율 2.58% 대 4.76% 및 작업 시간 520ms 대 583ms)이 있고, 엄지손가락과 특히 손끝에 위치한 새끼손가락은 성능이 저하되는 경향이 있다.
이러한 주요 결과 외에도 전체 평균 보행 속도 2.42km/h(SD 0.52, 최소 1.41 및 최대 3.07)를 기록했으며, 이는 헤드 마운트 디스플레이를 통해 문자를 읽는 작업과 동일할 것이다.
그러므로 테스트 지침(헤드 마운트 디스플레이에 표시됨)을 처리하고, 문자 입력 작업을 수행하는 것이 보행에 영향을 미친지 않는 것을 시사한다.
따라서 상기한 테스트로 두 가지의 결론을 도출되는데, 첫째 자세가 성능에 미치는 중요한 영향을 찾지 못했고, 수치적으로 앉아있는 자세와 걷는 자세 사이에서 시간과 오류는 모두 안정적이었다.
이것은 한 손 내에서 문자의 입력하는 장치가 보행 중에 전자기기와 상호작용할 수 있는 좋은 후보라는 것을 시사한다.
그리고 시작접촉과 종료접촉의 관계가 중요한데, 이것은 키보드 레이아웃과 관계가 있고, 이 관계를 고려하면 타이핑 시나리오가 매우 중요하다.
그러므로 연속적인 한 손 입력의 성능이 시작접촉 및 종료접촉에 따라 크게 달라짐에 따라 키보드 레이아웃 최적화 할필요가 있다.
이를 위해 최적의 성능을 나타내는 5개의 키(F5) 및 10개의 키(F10) 키보드 레이아웃을 생성하는 것을 목표로 한다.
상기한 레이아웃을 평가하고, 성능을 강조하기 위해 속도, 정확성, 편안함, 혼동, 친숙함 등과 같은 측정 항목을 선택했다.
이에 감지점이 5개인 F5 및 감지점이 10개인 F10 입력장치와 종래의 쿼티에 따른 디자인인 Q5 및 Q10 입력장치를 제안하고, 각 항목에 대한 점수는 [표 1]에 나타낸 바와 같다.
Keyboard Layout Speed(ms/WPM) Accuracy(%) Comfort(1-5) Confusability(#) Normalized Value Sum
Value WPM Norm Value Norm Value Norm Value Norm Top1% Top3% TOP5%
QWERTY10(Q10) 538 27.9 0.34 95.9 0.43 3.952 0.31 108863 0.25 91.3 98.9 99.7 1.332
F10 486 30.9 0.06 97.13 0.21 4.455 0.07 140154 0.34 88.1 97.7 99.1 0.685
QWERTY5(Q5) 494 30.4 0.45 98.56 0.39 4.064 0.35 191122 0.17 81.7 95.1 97.8 1.369
F5 453 33.1 0.05 99.21 0.10 4.654 0.01 293959 0.42 70.1 88.6 93.7 0.582
이에 F5 및 F10는 도 7에서 도시한 바와 같이 정확도(95.6%에서 99.4%)는 일반적으로 높은 반면, 속도(450ms-563ms), 편안함(3.73 / 5-4.67 / 5) 및 혼동성(25512-353001)은 더 큰 입력 속도와 편안함을 달성하였다.
도 8은 최종적으로 선택된 레이아웃을 보여준 것으로, 혼동성 측면에서는 쿼티(Q5 및 Q10)를 기준하여 상대적으로 우수한 성능을 보였고, 입력 측면에서 빠르고 편안한 F5 및 F10 레이아웃을 선택했다.
F5와 F10은 모두 쿼티(QWERTY) 디자인에 비해 속도와 편안함 모두에서 10% 이상 향상된다.
또한, F10 레이아웃은 종래의 한 손 웨어러블 입력 장치와 비교할 때 혼동성 측면에서 상대적으로 강력한 성능을 달성하였다.
따라서 본 발명의 일 실시 예에 따른 한 손 키보드 입력장치는 한 손의 엄지손가락과 나머지 4개의 손가락 각각의 손톱에 구비되고, 손가락 일부분과의 접촉으로 접촉신호를 검출하는 손톱촉각센서, 및 상기 손톱촉각센서들과 전기적으로 연결되고, 상기 손톱촉각센서들에서 검출된 접촉신호를 토대로, 해당 키입력신호를 생성하여 이를 전자기기로 송신하는 제어부를 포함하고, 상기 전자기기와 전기적으로 연결되고, 상기 전자기기에서 출력한 해당 키입력신호에 대응하는 해당 문자를 화면에 표시하는 디스플레이부를 더 포함하여, 보행 중에도 한 손으로 전자기기에 문자를 입력할 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
11: 엄지손가락 손톱촉각센서
12: 검지손가락 손톱촉각센서
13: 중지손가락 손톱촉각센서
14: 약지손가락 손톱촉각센서
15: 새끼손가락 손톱촉각센서
20: 제어부
100: 전자기기
200: 디스플레이부

Claims (10)

  1. 전자기기에 키입력신호를 송신하는 키보드 입력 장치에 있어서,
    한 손의 엄지손가락과 나머지 4개의 손가락 각각의 손톱에 구비되고, 손가락 일부분과의 접촉으로 접촉신호를 검출하는 손톱촉각센서; 및
    상기 손톱촉각센서들과 전기적으로 연결되고, 상기 손톱촉각센서들에서 검출된 접촉신호를 토대로, 해당 키입력신호를 생성하여 이를 전자기기로 송신하는 제어부;를 포함하는 한 손 키보드 입력장치.
  2. 청구항 1에 있어서,
    상기 손톱촉각센서는
    각 손톱 형상에 대응하는 형상으로 형성되고, 각 손톱의 표면에 위치하는 한 손 키보드 입력장치.
  3. 청구항 1에 있어서,
    상기 손톱촉각센서는
    그 감지영역을 복수 개로 분할하여 복수 개의 감지점을 구비하는 한 손 키보드 입력장치.
  4. 청구항 1에 있어서,
    상기 제어부는
    상기 손톱촉각센서가 해당 시간 내에 손가락과 접촉하는 접촉횟수를 카운트하고, 카운트된 접촉횟수에 대응하여 각각 다른 해당 키입력신호를 발생하는 한 손 키보드 입력장치.
  5. 청구항 1에 있어서,
    상기 전자기기는
    상기 제어부와 통신수단으로 연결되고, 상기 제어부에서 송신된 해당 키입력신호을 수신하여, 해당 키입력신호에 대응하는 문자를 출력하는 한 손 키보드 입력장치.
  6. 청구항 1에 있어서,
    상기 제어부는
    수신된 접촉신호들의 순서에 대응하여, 기학습된 단어 중 입력하고자 하는 예상 단어를 추출하고, 추출된 예상 단어를 제시하는 한 손 키보드 입력장치.
  7. 청구항 6에 있어서,
    상기 제어부가 추출하여 제시한 예상 단어를 디스플레이하는 디스플레이부;를 더 포함하는 한 손 키보드 입력장치.
  8. 청구항 6에 있어서,
    상기 제어부가 제시한 예상 단어는
    상기 손톱촉각센서들 중 검지손가락의 손톱촉각센서에서 약지손가락의 손톱촉각센서까지 손가락 나열 순으로 순차 접촉시켜 예상 단어가 선택되도록 한 한 손 키보드 입력장치.
  9. 청구항 1에 있어서,
    한 손에 5개의 감지점을 형성한 경우,
    엄지손가락 손톱촉각센서에 할당된 문자 레이아웃은 알파벳 D, I, O, C, G, N이고,
    검지손가락 손톱촉각센서에 할당된 문자 레이아웃은 알파벳 E, R, T, A, H, S이며,
    중지손가락 손톱촉각센서에 할당된 문자 레이아웃은 알파벳 F, M, U, B, L, P이고,
    약지손가락 손톱촉각센서에 할당된 문자 레이아웃은 알파벳 Q, W, Y, K, V, X이며,
    새끼손가락 손톱촉각센서에 할당된 문자 레이아웃은 알파벳 J, Z인 것을 특징으로 하는 한 손 키보드 입력장치.
  10. 청구항 3에 있어서,
    한 손에 10개의 감지점을 형성한 경우,
    엄지손가락 손톱촉각센서에 할당된 문자 레이아웃은 상기 손톱촉각센서의 일측에는 알파벳 B이고, 타측에는 알파벳 E, R, S, U이며,
    검지손가락 손톱촉각센서에 할당된 문자 레이아웃은 상기 손톱촉각센서의 일측에는 알파벳 A, D, N, O 타측에는 알파벳 H, I, L, T
    중지손가락 손톱촉각센서에 할당된 문자 레이아웃은 상기 손톱촉각센서의 일측에는 알파벳 C, G, M, O 타측에는 알파벳 F, Y
    약지손가락 손톱촉각센서에 할당된 문자 레이아웃은 상기 손톱촉각센서의 일측에는 알파벳 J, K, W 타측에는 알파벳 V, X
    새끼손가락 손톱촉각센서에 할당된 문자 레이아웃은 상기 손톱촉각센서의 일측에는 알파벳 Z 타측에는 Q인 것을 특징으로 하는 한 손 키보드 입력장치.
KR1020210106120A 2021-05-07 2021-08-11 한 손 키보드 입력장치 KR20220152111A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210058983 2021-05-07
KR20210058983 2021-05-07

Publications (1)

Publication Number Publication Date
KR20220152111A true KR20220152111A (ko) 2022-11-15

Family

ID=84041585

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210106120A KR20220152111A (ko) 2021-05-07 2021-08-11 한 손 키보드 입력장치

Country Status (1)

Country Link
KR (1) KR20220152111A (ko)

Similar Documents

Publication Publication Date Title
Wang et al. PalmType: Using palms as keyboards for smart glasses
Whitmire et al. Digitouch: Reconfigurable thumb-to-finger input and text entry on head-mounted displays
Oney et al. ZoomBoard: a diminutive qwerty soft keyboard using iterative zooming for ultra-small devices
US9041654B2 (en) Virtual touchscreen keyboards
US10310632B2 (en) Wearable devices for detecting finger movements and related methods
CN101685342B (zh) 一种动态虚拟键盘的实现方法及装置
KR101695174B1 (ko) 전자장치에 수신문자입력을 위한 인체공학적 움직임 감지
US10042438B2 (en) Systems and methods for text entry
US20130275907A1 (en) Virtual keyboard
Ahn et al. Typing on a smartwatch for smart glasses
EP1933225A2 (en) Using sequential taps to enter text
Lee et al. Quadmetric optimized thumb-to-finger interaction for force assisted one-handed text entry on mobile headsets
WO2014019085A1 (en) One-dimensional input system and method
US10621410B2 (en) Method and system for operating a keyboard with multi functional keys, using fingerprints recognition
Lee et al. Fingertext: Exploring and optimizing performance for wearable, mobile and one-handed typing
US20150100911A1 (en) Gesture responsive keyboard and interface
Sax et al. Liquid Keyboard: An ergonomic, adaptive QWERTY keyboard for touchscreens and surfaces
He et al. Tapgazer: Text entry with finger tapping and gaze-directed word selection
US9557825B2 (en) Finger position sensing and display
US20140191992A1 (en) Touch input method, electronic device, system, and readable recording medium by using virtual keys
Jiang et al. PinchText: One-handed text entry technique combining pinch gestures and hand positions for head-mounted displays
Gil et al. ThumbAir: In-Air Typing for Head Mounted Displays
Liu et al. PrinType: Text Entry via Fingerprint Recognition
US9021379B1 (en) Matching of gesture keyboard strokes with predefined stroke templates
KR101521288B1 (ko) 장갑형 무선 입력 장치 및 그 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application