KR20160022832A - 문자 입력을 위한 방법 및 디바이스 - Google Patents

문자 입력을 위한 방법 및 디바이스 Download PDF

Info

Publication number
KR20160022832A
KR20160022832A KR1020157036334A KR20157036334A KR20160022832A KR 20160022832 A KR20160022832 A KR 20160022832A KR 1020157036334 A KR1020157036334 A KR 1020157036334A KR 20157036334 A KR20157036334 A KR 20157036334A KR 20160022832 A KR20160022832 A KR 20160022832A
Authority
KR
South Korea
Prior art keywords
input object
character
sensor
stroke
movement trajectory
Prior art date
Application number
KR1020157036334A
Other languages
English (en)
Inventor
펭 친
린 두
광후아 조우
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20160022832A publication Critical patent/KR20160022832A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06K9/222
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

입력 오브젝트의 이동 궤적을 캡처하는 카메라 및 입력 오브젝트로부터 센서까지의 거리를 검출하는 센서를 갖는 디바이스에 의해 문자 입력을 인식하는 방법으로서, 입력 오브젝트로부터 센서까지의 거리를 검출하는 단계; 입력 오브젝트가 공간 영역 내부에서 이동할 때 입력 오브젝트의 이동 궤적을 기록하는 단계- 공간 영역은 센서에 대한 최단 거리 값 및 최장 거리 값을 갖고, 입력 오브젝트가 공간 영역 외부로 이동할 때 입력 오브젝트의 이동 궤적은 기록되지 않음 -; 및 기록된 이동 궤적에 기초하여 문자를 인식하는 단계를 포함하는 방법이 제공된다.

Description

문자 입력을 위한 방법 및 디바이스{METHOD AND DEVICE FOR CHARACTER INPUT}
본 발명은 사용자 상호작용에 관련되는 것으로, 보다 구체적으로는 문자 입력을 위한 방법 및 디바이스에 관련된다.
제스처 인식 기술의 발달에 따라, 사람들은 수기(handwriting)를 입력 수단으로서 점점 더 사용하려고 한다. 수기 인식의 기본은 라이브러리를 학습하고 훈련하는 머신이다. 어떠한 훈련 데이터베이스가 사용되던, 획들(strokes)의 합리적 분할이 결정적이다. 현재, 대부분의 수기 입력들은 터치 스크린 상에서 행해진다. 사용자가 문자의 한 획을 완료한 후, 그는 터치 스크린에서 그의 손을 뗄 것이며, 이에 따라 입력 디바이스는 획들을 상호로부터 용이하게 구별할 수 있다.
3D(3차원) 디바이스들의 발달에 따라, 허공에서의 수기 입력들을 인식하기 위한 수요가 점점 더 강해지고 있다.
본 발명의 일 양상에 따르면, 입력 오브젝트의 이동 궤적을 캡처하는 카메라 및 입력 오브젝트로부터 센서까지의 거리를 검출하는 센서를 갖는 디바이스에 의해 문자 입력을 인식하는 방법으로서, 입력 오브젝트로부터 센서까지의 거리를 검출하는 단계; 입력 오브젝트가 공간 영역 내부에서 이동할 때 입력 오브젝트의 이동 궤적을 기록하는 단계- 공간 영역은 센서에 대한 최단 거리 값 및 최장 거리 값을 갖고, 입력 오브젝트가 공간 영역 외부로 이동할 때 입력 오브젝트의 이동 궤적은 기록되지 않음 -; 및 기록된 이동 궤적에 기초하여 문자를 인식하는 단계를 포함하는 방법이 제공된다.
또한, 문자를 인식하는 단계 이전에, 이러한 방법은, 입력 오브젝트가 일정 주기의 시간 동안 공간 영역 내부에서 고요한 것을 검출하는 단계를 더 포함한다.
또한, 문자를 인식하는 단계 이전에, 이러한 방법은, 현재 획이 새로운 문자의 시작 획임을 결정하는 단계- 획은 입력 오브젝트가 공간 영역의 외부로부터 공간 영역 내부로 이동하는 것이 검출될 때 시작하고 입력 오브젝트가 공간 영역으로부터 공간 영역 외부로 이동하는 것이 검출될 때 종료하는 주기 동안 입력 오브젝트의 이동 궤적에 대응함 -를 더 포함한다.
또한, 이러한 결정하는 단계는, 제1 맵핑된 라인 및 제2 맵핑된 라인을 얻도록 디스플레이 표면의 평면과 지구의 땅의 평면 사이의 교차 라인에 평행한 동일 라인에 현재 획과 이전 획을 맵핑시키는 단계; 및 1) 제1 맵핑된 라인이 제2 맵핑된 라인에 포함된다; 2) 제2 맵핑된 라인이 제1 맵핑된 라인에 포함된다; 및 3) 제1 맵핑된 라인과 제2 맵핑된 라인의 교차부분 대 제1 맵핑된 라인과 제2 맵핑된 라인의 합의 비율이 일정 값 위이다 라는 조건들 중 임의의 것을 충족하지 않으면 현재 획이 새로운 문자의 시작 획이라고 결정하는 단계를 더 포함한다.
또한, 디바이스는 문자 인식을 위한 작업 모드 및 대기 모드를 갖고, 이러한 방법은, 제1 제스처의 검출시 디바이스를 작업 모드에 두는 단계; 및 제2 제스처의 검출시 디바이스를 대기 모드에 두는 단계를 더 포함한다.
또한, 이러한 방법은, 입력 오브젝트가 공간 영역 내부에서 이동할 때 카메라가 입력 오브젝트의 이동 궤적을 출력할 수 있게 하는 단계; 및 입력 오브젝트가 공간 영역 외부에서 이동할 때 카메라가 입력 오브젝트의 이동 궤적을 출력할 수 없게 하는 단계를 더 포함한다.
본 발명의 일 양상에 따르면, 문자 입력을 인식하는 디바이스로서, 입력 오브젝트의 이동 궤적을 캡처하고 출력하는 카메라(101); 및 입력 오브젝트와 센서(102) 사이의 거리를 검출하고 출력하는 센서(102); a) 센서(102)에 의해 출력되는 거리가 최장 거리 값 및 최단 거리 값을 갖는 범위 내에 있을 때 카메라(101)에 의해 출력되는 입력 오브젝트의 이동 궤적을 기록하고- 센서(102)에 의해 출력되는 거리가 범위에 속하지 않을 때 입력 오브젝트의 이동 궤적은 기록되지 않음 -; b) 기록된 이동 궤적에 기초하여 문자를 인식하는 프로세서(103)를 포함하는 디바이스가 제공된다.
또한, 이러한 프로세서(103)는, c) 제1 제스처의 검출시 문자 인식을 위한 작업 모드와 대기 모드 중 디바이스를 작업 모드에 두고; 그리고 d) 제1 제스처가 검출될 시 센서(102)에 의해 출력되는 거리에 기초하여 최장 거리 값 및 최단 거리 값을 결정하는데 더욱 사용된다.
또한, 이러한 프로세서(103)는, c') 제1 제스처의 검출시 문자 인식을 위한 작업 모드와 대기 모드 중 디바이스를 작업 모드에 두고; d') 입력 오브젝트가 일정 주기의 시간 동안 고요한 것을 검출하고; 그리고 e) 입력 오브젝트가 고요한 것으로 검출될 시 센서(102)에 의해 출력되는 거리에 기초하여 최장 거리 값 및 최단 거리 값을 결정하는데 더욱 사용된다.
또한, 이러한 프로세서(103)는, g) 현재 획이 새로운 문자의 시작 획이라고 결정하는데- 획은 센서(102)에 의해 출력되는 거리가 범위 내에 있게 될 때 시작하고 센서(102)에 의해 출력되는 거리가 범위 외에 있게 될 때 종료하는 주기 동안 입력 오브젝트의 이동 궤적에 대응함 - 더욱 사용된다.
본 발명의 더 많은 양상들 및 이점들이 본 발명의 이하의 상세한 설명에서 발견될 것이라는 점이 이해되어야 한다.
본 발명의 추가적 이해를 제공하기 위해 포함되고 본 출원의 일부에 포함되며 이를 구성하는 첨부 도면들은, 서술에 의해 설명되는 것으로서, 본 발명의 일 실시예를 예시하는데 사용될 것이다. 본 발명이 이러한 실시예에 제한되는 것은 아니다.
도 1은 본 발명의 일 실시예에 따라 문자를 공간적으로 입력하는 시스템을 개략적으로 도시하는 도면이다.
도 2는 본 발명의 실시예에 따른 공간 영역의 정의를 도시하는 도면이다.
도 3a는 본 발명을 사용하지 않고 카메라(101)에 의해 캡처되어 출력되는 사용자 손의 이동 궤적을 도시하는 도면이다.
도 3b는 본 발명의 실시예에 따라 무효 입력들을 필터링 아웃한 후의 사용자 손의 이동 궤적을 도시하는 도면이다.
도 4는 본 발명의 실시예에 따라 문자의 입력을 인식하는 방법을 도시하는 흐름도이다.
도 5는 본 발명의 실시예에 따라 이전 문자와 이후 문자 사이의 위치 관계를 도시하는 도면이다.
도 6은 본 발명의 실시예에 따라 이전 획과 이후 획 사이의 모든 가능한 수평 위치 관계를 도시하는 도면이다.
본 발명의 실시예가 도면들을 참조하여 이제 상세히 서술될 것이다. 이하의 서술에서, 알려진 기능들 및 구성들의 일부 상세한 서술들은 명료함과 간결함을 위해 생략될 수 있다.
도 1은 본 발명의 일 실시예에 따라 문자를 공간적으로 입력하는 시스템을 개략적으로 도시하는 도면이다. 이러한 시스템은 카메라(101), 깊이 센서(102), 프로세서(103) 및 디스플레이(104)를 포함한다. 프로세서(103)는 카메라(101), 깊이 센서(102) 및 디스플레이(104)와 접속된다. 본 예에서, 카메라(101) 및 깊이 센서(102)는 디스플레이(104)의 상부 상에 배치된다. 카메라(101) 및 깊이 센서(102)는, 예를 들어, 디스플레이 프레임의 하부에, 또는 디스플레이(104)를 지지하는 책상 위에 등, 다른 장소들에 배치될 수 있다는 점에 주목하여야 한다. 본 명세서에서, 공간적으로 입력되는 문자를 인식하는 인식 디바이스는 카메라(101), 깊이 센서(102) 및 프로세서(103)를 포함한다. 또한, 공간적으로 입력되는 문자를 인식하는 디바이스는 카메라(101), 깊이 센서(102), 프로세서(103) 및 디스플레이(104)를 포함한다. 이러한 시스템의 컴포넌트들은 이하의 기본 기능들을 갖는다:
-- 카메라(101)는 디지털 이미지들을 캡처하고 출력하는데 사용된다;
-- 깊이 센서(102)는 손으로부터 깊이 센서(102)까지의 거리를 검출하고 출력하는데 사용된다. 후보 깊이 센서에 관하여는, 이하의 센서들이 사용될 수 있다. OptriCam은 3D TOF(Time Of Flight)이고 다른 독점적이며 특허된 기술들 깊이 센서이며, 이것이 NIR 스펙트럼에서 동작하면, 이는 뛰어난 배경 광 억제, 매우 제한된 모션 블러(motion blur) 및 낮은 잔상(image lag)을 제공한다. GrayPoint의 Bumblebee는 스테레오 이미지 및 서브-픽셀 보간 기술에 기초하며, 이는 깊이 정보를 실시간으로 얻을 수 있다. PrimeSense 광 코딩 깊이 센서는 레이저 스페클(laser speckle) 및 다른 기술을 사용한다.
-- 프로세서(103)는 데이터를 처리하여 디스플레이(104)에 데이터를 출력하는데 사용된다; 그리고
-- 디스플레이(104)는 프로세서(103)로부터 수신한 데이터를 디스플레이하는데 사용된다.
본 발명이 해결하는 문제점은, 사용자가 허공에서 문자의 2개 이상의 획들을 공간적으로 입력하거나 또는 수기하는데 카메라(101) 및 깊이 센서(102)에게 인식될 수 있는 자신의 손 또는 다른 오브젝트들을 사용할 때, 시스템이 어떻게, 획의 시작과 그 이전 획의 종료 사이의(예를 들어, 문자의 제2 획의 시작과 제1 획의 종료 사이의) 손의 이동 궤적을 무시하고, 문자의 모든 획을 정확히 인식하는가 하는 점이다. 이러한 문제점을 해결하기 위해, 공간 영역이 사용된다. 일 예로서, 이러한 공간 영역은 2개의 거리 파라미터들, 즉, 최단 거리 파라미터 및 최장 거리 파라미터에 의해 정의된다. 도 2는 본 발명의 실시예에 따른 공간 영역의 정의를 도시하는 도면이다. 도 2에서, 최단 거리 파라미터의 값은 Z와 동일하고, 최장 거리 파라미터의 값은 Z+T와 동일한다.
사용자 인터렉션의 관점으로부터, 이러한 공간 영역은 사용자가 문자의 획들을 입력하는데 사용된다. 사용자가 문자를 입력하기 원할 때, 그는 그의 손을 공간 영역 내부로 이동시켜 제1 획을 입력한다. 사용자가 제1 획을 입력하기를 끝내고 나면, 그는 그의 손을 공간 영역 외부로 이동시키고 나서, 그 문자의 다음 획을 입력하기 위해 그의 손을 공간 영역 내부로 이동시킨다. 위 단계들은 모든 획들이 입력될 때까지 반복된다. 예를 들어, 사용자는 숫자 4를 입력하기를 원한다. 도 3a는 본 발명을 사용하지 않고 카메라(101)에 의해 캡처되어 출력되는 사용자 손의 이동 궤적을 도시하는 도면이다. 환언하면, 도 3a는 또한 깊이 정보(또는 손으로부터 깊이 센서까지의 거리에 대한 정보라 함)가 없는 사용자 손의 이동 궤적을 도시한다. 본 명세서에서, 우리는 사용자가 4를 입력하기를 원할 때 손의 공간 이동 궤적을 도시하는데 도 3을 사용한다. 먼저, 사용자는 지점 1로부터 지점 2까지 제1 획을 쓰기 위해 그의 손을 공간 영역 내부로 이동시키고, 그리고 나서 그의 손을 공간 영역 외부로 이동시키고 그의 손을 지점 2로부터 지점 3까지 이동시키고, 그리고 나서 지점 3으로부터 지점 4까지 문자 4의 제2 획을 쓰기 위해 그의 손을 공간 영역 내부로 이동시킨다.
데이터 처리의 관점으로부터, 이러한 공간 영역은 프로세서(103)(이는 컴퓨터 또는 데이터 처리를 할 수 있는 임의의 다른 하드웨어일 수 있음)에 의해 유효 입력들 및 무효 입력들을 구별하는데 사용된다. 유효 입력은 공간 영역 내부에서의 손의 이동이고 문자의 한 획에 대응하며, 무효 입력은 공간 영역 외에서의 손의 이동이고 획의 시작과 그 이전 획의 종료 사이의 손의 이동에 대응한다.
공간 영역을 사용하는 것에 의해, 무효 입력들은 필터링 아웃되고, 문자의 획들이 정확히 구별되어 인식된다. 도 3a는 카메라 앞에서 숫자 4를 입력할 때 본 발명을 사용하지 않고 카메라(101)에 의해 캡처되어 출력되는 사용자 손의 이동 궤적을 도시하는 도면이다. 숫자 4는 2개의 획들, 즉 지점 1로부터 지점 2까지의 궤적 및 지점 3으로부터 지점 4까지의 궤적으로 구성된다. 사용자 손의 이동은 지점 1에서 시작하여 지점 2 및 지점 3을 통해 지점 4까지이다. 그러나, 지점 2로부터 지점 3까지의 이동 궤적 때문에 문자 인식 알고리즘은 이를 숫자 4로서 정확히 인식할 수 없다. 도 3b는 본 발명의 실시예에 따라 무효 입력들을 필터링 아웃한 후의 사용자 손의 이동 궤적을 도시하는 도면이다.
도 4는 본 발명의 실시예에 따라 문자의 입력을 인식하는 방법을 도시하는 흐름도이다. 이러한 방법은 이하의 단계들을 포함한다.
단계 401에서는, 공간적으로 입력되는 문자를 인식하는 디바이스가 문자 인식에 관하여 대기 모드에 있다. 환언하면, 공간적으로 입력되는 문자를 인식하는 디바이스의 기능이 비활성화되거나 또는 디스에이블된다.
단계 402에서는, 프로세서(103)가 카메라(101)를 사용하여 시작 제스처를 검출할 때 디바이스는 문자 인식에 관하여 작업 모드로 변경된다. 본 명세서에서, 시작 제스처는 디바이스의 스토리지(예를 들어, 불휘발성 메모리)(도 1에는 도시되지 않음)에 저장되는 미리 정해진 제스처이다. 다양한 기존 제스처 인식 접근방식들이 이러한 시작 제스처를 검출하는데 사용될 수 있다.
단계 403에서는, 디바이스가 공간 영역을 결정한다. 이는 미리 정해진 시간 주기 동안 사용자가 그의 손을 안정되게 올리는 것에 의해 구현된다. 깊이 센서(102)와 사용자의 손 사이의 거리는 도 2에 도시된 바와 같이 Z, 즉, 최단 거리 파라미터 값으로서 디바이스의 스토리지에 저장된다. 도 2에서 T는, 인간의 팔 길이, 즉 15 cm와 거의 동일한 미리 정해진 값이다. 기술분야의 숙련된 자는 T에 대한 다른 값, 예를 들어, 팔 길이의 1/3이 가능하다는 점에 주목하여야 한다. 따라서, 최장 거리의 값은 Z+T이다. 다른 예에서는, 깊이 센서로부터 손까지 검출되는 거리가 최단 거리 파라미터 값으로서 사용되지 않지만, 최단 거리 파라미터 값 및 최장 거리 파라미터 값을 결정하는데 사용되는데, 예를 들어, 검출되는 거리 더하기 어떤 값(예를 들어, 7 cm)은 최장 거리 파라미터 값이고, 검출되는 거리 빼기 어떤 값(예를 들어, 7 cm)은 최단 거리 파라미터 값이다.
단계 404에서는, 사용자가 그의 손을 공간 영역 내부로 이동시키고 입력을 원하는 문자의 획을 입력한다. 사용자가 획을 입력하는 것을 끝낸 후, 그는 단계 405에서 그 획이 그 문자의 최종 획인지를 결정한다. 그렇지 않으면, 단계 406 및 404에서, 그는 그의 손을 끌어 당기는 것에 의해 그의 손을 공간 영역 외부로 이동시키고 나서, 그 문자의 다음 획을 입력하기 위해 그의 손을 공간 영역 내부로 밀어 넣는다. 기술분야에 숙련된 자는 문자의 모든 획들이 입력되는 것을 단계들 404, 405 및 406이 보장한다는 점에 주목하여야 한다. 문자의 모든 획들의 사용자 입력 동안, 인식 디바이스의 관점으로부터, 프로세서(103)는 손의 모든 이동 궤적을 메모리에 저장하는 것은 아니다. 그 대신, 프로세서(103)는 손이 공간 영역 내에 있는 것으로 깊이 센서(102)에 의해 검출될 때의 손의 이동 궤적만을 기록한다. 일 예에서는, 손이 공간 영역 내에 있는지 여부에 무관하게 카메라가 손의 캡처된 이동 궤적을 계속 출력하고, 깊이 센서는 손으로부터 깊이 센서까지 검출되는 거리를 계속 출력한다. 깊이 센서의 출력이 미리 정해진 요건을 충족한다고, 즉 최장 파라미터 및 최단 파라미터에 의해 정의되는 영역 내에 있다고 결정할 때 프로세서는 카메라의 출력을 기록 기록한다. 다른 예에서, 카메라는, 단계 402 이후 턴 오프되고, 손이 공간 영역 내부로 이동하기 시작하는 것으로 검출될 때(즉, 검출되는 거리가 최장 파라미터와 최단 파라미터에 의해 정의되는 범위 내에 있기 시작함) 턴 온되고, 손이 공간 영역 내에 있는 동안 온으로 유지되도록 프로세서에 의해 지시를 받는다. 이러한 단계들 동안, 인식 디바이스의 프로세서는 문자의 획들을 상호로부터 용이하게 결정하고 구분할 수 있다. 한 획은 손이 공간 영역 내부로 이동할 때 시작하여 손이 공간 영역 외부로 이동할 때 종료하는 주기 동안 카메라에 의해 출력되는 손의 이동 궤적이다. 인식 디바이스의 관점으로부터, 이러한 주기는 검출되는 거리가 최장 파라미터 및 최단 파라미터에 의해 정의되는 범위 내부로 시작할 때 시작하여 검출되는 거리가 이러한 범위 외부로 시작할 때 종료한다.
단계 407에서는, 사용자가 문자의 모든 획들을 입력하는 것을 끝내면, 그는 그의 손을 공간 영역 내부로 이동하고 이를 미리 정해진 주기의 시간 동안 유지한다. 인식 디바이스의 관점으로부터, 손이 미리 정해진 주기의 시간 동안 실질적으로 고요하게(인간이 손을 허공에서 완벽히 고요하게 유지하는 것은 어렵기 때문임) 유지된다고 프로세서(103)에 의해 검출되면, 프로세서(103)는 모든 저장된 획들, 즉, 모든 저장된 이동 궤적에 기초하여 문자를 인식하기 시작한다. 저장된 이동 궤적은 도 3b와 같이 보인다.
단계 408에서는, 정지 제스처(미리 정해진 사실상 인식가능한 제스처) 검출시, 디바이스가 대기 모드로 변경된다. 사용자가 이러한 정지 제스처를 행할 때 손이 공간 영역 내에 있어야 할 것을 반드시 요구하는 것은 아니라는 점에 주목하여야 한다. 카메라가 온으로 유지되는 일 예에서는, 손이 공간 영역 외에 있을 때 사용자가 정지 제스처를 행할 수 있다. 손이 공간 영역 내에 있을 때 카메라가 온으로 유지되는 다른 예에서는, 손이 공간 영역 내에 있을 때 사용자가 정지 제스처를 행할 수만 있다.
일 변형에 따르면, 공간 영역은 미리 정해진다, 즉, 최단 거리 파라미터 및 최장 거리 파라미터의 값들이 미리 정해진다. 이러한 경우, 단계 403은 불필요하고, 결과적으로 제거될 수 있다.
다른 변형에 따르면, 공간 영역은 시작 제스처를 검출할 때 손으로부터 깊이 센서까지의 거리를 사용하여 단계 402에서 결정된다.
위 서술은 하나의 문자를 입력하는 방법을 제공한다. 또한, 본 발명의 일 실시예는 이전 문자의 최종 획 및 이후 문자의 시작 획을 정확히 인식하는 것에 의해 2 이상의 문자들을 연속하여 입력하는 방법을 제공한다. 환언하면, 단계 402에서의 시작 제스처 이후 단계 407에서의 미리 정해진 주기의 시간 동안 손을 유지하는 것 이전에, 2개 보다 많은 문자들이 입력된다. 시작 획은 디바이스에 의해 인식될 수 있기 때문에, 디바이스는 이동 궤적을 2개 보다 많은 분할들로 나눌 것이고, 각각의 분할은 문자를 나타낸다. 허공에서 사용자에 의해 입력되는 2개의 연속적인 문자들 사이의 위치 관계를 고려하면, 사용자가 이후 문자의 모든 획들을 최초 이전 문자의 최종 획의 좌측 또는 우측에 있는 위치에서 쓰는 것이 더 자연스럽다. 도 5는 사용자에 의해 인지되는 바와 같이 지구의 땅에 수직인 가상 평면에서 이전 문자와 이후 문자 사이의 위치 관계를 도시하는 도면이다. 실선(501)의 사각형은 이전 문자 입력을 입력하는 영역을 나타내고, 점선(502 및 503)의 사각형들은 이후 문자를 입력하는 2개의 가능한 영역들(배타적이지 않음)을 나타낸다. 본 예에서 위치 관계는 수평 위치 관계를 의미한다는 점에 주목하여야 한다. 2 이상의 문자들이 연속하여 입력되는 경우 문자의 최초 획을 결정하는 방법을 이하 설명한다.
위쪽 좌측 코너에 좌표 시스템의 원점이 있고, X 축(디스플레이 표면의 평면과 지구의 땅 표면의 평면 사이의 교차 라인에 평행함)은 우측 방향으로 증가하고, Y 축(지구의 땅 표면에 수직임)은 아래쪽 방향으로 증가하는 것으로 가정하자. 그리고 사용자의 쓰기 습관은 좌측으로부터 우측으로 수평으로 씌여진다. 각 획의 폭(W)은 다음과 같이 정의된다: W = max_x - min_x; max_x는 한 획의 최대 X 축 값이고, min_x는 그 획의 최소 X 축 값이고, W는 이들 2개 값들 사이의 차분이다. 도 6은 이전 획과 이후 획이 X 축에 맵핑될 때 이전 획(획 a)과 이후 획(획 b0, b1, b2 및 b3) 사이의 모든 가능한 수평 위치 관계를 도시한다. 핵심 개념은 이하의 조건들 중 임의의 것이 충족되면 이후 획 및 이전 획이 동일 문자에 속한다는 점이다: 1) 이후 획의 수평 맵핑된 라인이 이전 획의 수평 맵핑된 라인에 포함된다; 2) 이전 획의 수평 맵핑된 라인이 이후 획의 수평 맵핑된 라인에 포함된다; 3) 이전 획의 수평 맵핑된 라인과 이후 획의 수평 맵핑된 라인의 교차부분 대 그들의 합의 비율이 미리 정의된 값 위이다. 이하는 획이 이후 문자의 시작 획인지 판정하는 방법을 보여주는 의사 코드(pseudo-code)이다:
Figure pct00001
TH_RATE는 2개의 연속적인 획들의 교차 부분의 비율을 보여주고, 이 값은 미리 설정될 수 있다.
위 실시예들에 따르면, 디바이스에게 그렇게 하라고 지시하는 신호가 있을 때 디바이스는 문자를 인식하기 시작한다. 예를 들어, 단계 407에서는, 사용자가 그의 손을 미리 정의된 주기의 시간 동안 유지할 때, 이러한 신호가 생성되고; 또한, 2개보다 많은 문자들이 입력될 때, 이후 문자의 최초 획의 인식이 이러한 신호의 생성을 트리거한다. 일 변형에 따르면, 새로운 획이 디바이스에 의해 캡처될 때마다, 디바이스는 과거 캡처된 이동 궤적에 기초하여 문자를 인식하려 시도할 것이다. 일단 문자가 성공적으로 인식되면, 디바이스는 다음 획 및 그 후속 획들에 기초하여 새로운 문자를 인식하기 시작한다.
다수의 구현들이 서술되었다. 그럼에도 불구하고, 다양한 수정들이 이루어질 수 있다는 점이 이해될 것이다. 예를 들어, 상이한 구현들의 엘리먼트들은 다른 구현들을 산출하도록 조합되고, 보충되고, 수정되거나, 또는 제거될 수 있다. 또한, 통상의 기술자는, 다른 구조들 및 프로세스들이 개시된 것들에 대해 대체될 수 있으며, 그 결과인 구현들이 적어도 실질적으로 동일한 방식(들)으로 적어도 실질적으로 동일한 기능(들)을 수행하여 개시된 구현들과 적어도 실질적으로 동일한 결과(들)를 달성할 것이라는 점을 이해할 것이다. 따라서, 이러한 구현들 및 다른 구현들이 본 출원에 의해 고려되며 이들은 첨부되는 청구항들에 의해 정의되는 바와 같은 본 발명의 범위 내에 있다.

Claims (10)

  1. 입력 오브젝트의 이동 궤적을 캡처하는 카메라 및 상기 입력 오브젝트로부터 센서까지의 거리를 검출하는 센서를 갖는 디바이스에 의해 문자 입력을 인식하는 방법으로서,
    상기 입력 오브젝트로부터 상기 센서까지의 거리를 검출하는 단계;
    상기 입력 오브젝트가 공간 영역 내부에서 이동할 때 상기 입력 오브젝트의 이동 궤적을 기록하는 단계- 상기 공간 영역은 상기 센서에 대한 최단 거리 값 및 최장 거리 값을 갖고, 상기 입력 오브젝트가 상기 공간 영역 외부로 이동할 때 상기 입력 오브젝트의 이동 궤적은 기록되지 않음 -; 및
    상기 기록된 이동 궤적에 기초하여 문자를 인식하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 문자를 인식하는 단계 이전에, 상기 방법은,
    상기 입력 오브젝트가 일정 주기의 시간 동안 상기 공간 영역 내부에서 고요한 것을 검출하는 단계
    를 더 포함하는 방법.
  3. 제1항에 있어서,
    상기 문자를 인식하는 단계 이전에, 상기 방법은,
    현재 획이 새로운 문자의 시작 획임을 결정하는 단계- 획은 상기 입력 오브젝트가 상기 공간 영역의 외부로부터 상기 공간 영역 내부로 이동하는 것이 검출될 때 시작하고 상기 입력 오브젝트가 상기 공간 영역으로부터 상기 공간 영역 외부로 이동하는 것이 검출될 때 종료하는 주기 동안 상기 입력 오브젝트의 이동 궤적에 대응함 -
    를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 결정하는 단계는,
    제1 맵핑된 라인 및 제2 맵핑된 라인을 얻도록 디스플레이 표면의 평면과 지구의 땅의 평면 사이의 교차 라인에 평행한 동일 라인에 상기 현재 획과 이전 획을 맵핑시키는 단계; 및
    1) 상기 제1 맵핑된 라인이 상기 제2 맵핑된 라인에 포함된다; 2) 상기 제2 맵핑된 라인이 상기 제1 맵핑된 라인에 포함된다; 및 3) 상기 제1 맵핑된 라인과 상기 제2 맵핑된 라인의 교차부분 대 상기 제1 맵핑된 라인과 상기 제2 맵핑된 라인의 합의 비율이 일정 값 위이다 라는 조건들 중 임의의 것을 충족하지 않으면 상기 현재 획이 상기 새로운 문자의 시작 획이라고 결정하는 단계
    를 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 디바이스는 문자 인식을 위한 작업 모드 및 대기 모드를 갖고,
    상기 방법은,
    제1 제스처의 검출시 상기 디바이스를 상기 작업 모드에 두는 단계; 및
    제2 제스처의 검출시 상기 디바이스를 상기 대기 모드에 두는 단계
    를 더 포함하는 방법.
  6. 제1항에 있어서,
    상기 방법은,
    상기 입력 오브젝트가 공간 영역 내부에서 이동할 때 상기 카메라가 상기 입력 오브젝트의 이동 궤적을 출력할 수 있게 하는 단계; 및
    상기 입력 오브젝트가 상기 공간 영역 외부에서 이동할 때 상기 카메라가 상기 입력 오브젝트의 이동 궤적을 출력할 수 없게 하는 단계
    를 더 포함하는 방법.
  7. 문자 입력을 인식하는 디바이스로서,
    입력 오브젝트의 이동 궤적을 캡처하고 출력하는 카메라(101); 및
    입력 오브젝트와 센서(102) 사이의 거리를 검출하고 출력하는 센서(102);
    a) 상기 센서(102)에 의해 출력되는 상기 거리가 최장 거리 값 및 최단 거리 값을 갖는 범위 내에 있을 때 상기 카메라(101)에 의해 출력되는 상기 입력 오브젝트의 이동 궤적을 기록하고- 상기 센서(102)에 의해 출력되는 상기 거리가 상기 범위에 속하지 않을 때 상기 입력 오브젝트의 이동 궤적은 기록되지 않음 -; b) 상기 기록된 이동 궤적에 기초하여 문자를 인식하는 프로세서(103)
    를 포함하는 디바이스.
  8. 제7항에 있어서,
    상기 프로세서(103)는,
    c) 제1 제스처의 검출시 문자 인식을 위한 작업 모드와 대기 모드 중 상기 디바이스를 상기 작업 모드에 두고; 그리고
    d) 상기 제1 제스처가 검출될 시 상기 센서(102)에 의해 출력되는 거리에 기초하여 상기 최장 거리 값 및 상기 최단 거리 값을 결정하는데 더욱 사용되는 디바이스.
  9. 제7항에 있어서,
    상기 프로세서(103)는,
    c') 제1 제스처의 검출시 문자 인식을 위한 작업 모드와 대기 모드 중 상기 디바이스를 상기 작업 모드에 두고;
    d') 상기 입력 오브젝트가 일정 주기의 시간 동안 고요한 것을 검출하고; 그리고
    e) 상기 입력 오브젝트가 고요한 것으로 검출될 시 상기 센서(102)에 의해 출력되는 거리에 기초하여 상기 최장 거리 값 및 상기 최단 거리 값을 결정하는데 더욱 사용되는 디바이스.
  10. 제7항에 있어서,
    상기 프로세서(103)는,
    g) 현재 획이 새로운 문자의 시작 획이라고 결정하는데- 획은 상기 센서(102)에 의해 출력되는 거리가 상기 범위 내에 있게 될 때 시작하고 상기 센서(102)에 의해 출력되는 거리가 상기 범위 외에 있게 될 때 종료하는 주기 동안 상기 입력 오브젝트의 이동 궤적에 대응함 - 더욱 사용되는 디바이스.
KR1020157036334A 2013-06-25 2013-06-25 문자 입력을 위한 방법 및 디바이스 KR20160022832A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/077832 WO2014205639A1 (en) 2013-06-25 2013-06-25 Method and device for character input

Publications (1)

Publication Number Publication Date
KR20160022832A true KR20160022832A (ko) 2016-03-02

Family

ID=52140761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157036334A KR20160022832A (ko) 2013-06-25 2013-06-25 문자 입력을 위한 방법 및 디바이스

Country Status (6)

Country Link
US (1) US20160171297A1 (ko)
EP (1) EP3014389A4 (ko)
JP (1) JP2016525235A (ko)
KR (1) KR20160022832A (ko)
CN (1) CN105339862A (ko)
WO (1) WO2014205639A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302298B (zh) 2015-09-17 2017-05-31 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法
TWI695296B (zh) * 2016-04-29 2020-06-01 姚秉洋 內建感應器及光源模組之鍵盤裝置
US11720222B2 (en) * 2017-11-17 2023-08-08 International Business Machines Corporation 3D interaction input for text in augmented reality
CN108399654B (zh) * 2018-02-06 2021-10-22 北京市商汤科技开发有限公司 描边特效程序文件包的生成及描边特效生成方法与装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119090A (ja) * 1992-10-07 1994-04-28 Hitachi Ltd 省電力制御方式
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
EP2667218B1 (de) * 2010-11-15 2017-10-18 Cedes AG Energiespar-3-D-Sensor
US20120317516A1 (en) * 2011-06-09 2012-12-13 Casio Computer Co., Ltd. Information processing device, information processing method, and recording medium
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
CN102508546B (zh) * 2011-10-31 2014-04-09 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
WO2014054716A1 (ja) * 2012-10-03 2014-04-10 楽天株式会社 ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface

Also Published As

Publication number Publication date
EP3014389A4 (en) 2016-12-21
CN105339862A (zh) 2016-02-17
JP2016525235A (ja) 2016-08-22
WO2014205639A1 (en) 2014-12-31
EP3014389A1 (en) 2016-05-04
US20160171297A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
US20180173393A1 (en) Apparatus and method for video zooming by selecting and tracking an image area
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10373357B2 (en) Device and method for displaying screen based on event
US10990226B2 (en) Inputting information using a virtual canvas
US9619042B2 (en) Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
CN103440033B (zh) 一种基于徒手和单目摄像头实现人机交互的方法和装置
WO2014209762A1 (en) Recognizing interactions with hot zones
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5769277B2 (ja) 入力装置、入力方法及びプログラム
KR20160022832A (ko) 문자 입력을 위한 방법 및 디바이스
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
CN102799271A (zh) 一种基于人手手势的交互命令识别方法及系统
KR20160088719A (ko) 이미지를 촬영하는 전자 장치 및 방법
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
JP2015043141A (ja) ジェスチャ認識装置および制御プログラム
CN114510142B (zh) 基于二维图像的手势识别方法及其系统和电子设备
WO2022160085A1 (zh) 控制方法、电子设备及存储介质
US9761009B2 (en) Motion tracking device control systems and methods
JP6008904B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid