JP2016525235A - 文字入力のための方法及びデバイス - Google Patents

文字入力のための方法及びデバイス Download PDF

Info

Publication number
JP2016525235A
JP2016525235A JP2016520228A JP2016520228A JP2016525235A JP 2016525235 A JP2016525235 A JP 2016525235A JP 2016520228 A JP2016520228 A JP 2016520228A JP 2016520228 A JP2016520228 A JP 2016520228A JP 2016525235 A JP2016525235 A JP 2016525235A
Authority
JP
Japan
Prior art keywords
input object
sensor
stroke
character
movement trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016520228A
Other languages
English (en)
Inventor
シン,ペン
デュ,リン
シュー,グァンショウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016525235A publication Critical patent/JP2016525235A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

カメラ及びセンサを備えたデバイスによって文字入力を認識する方法が提供される。カメラは、入力オブジェクトの移動軌跡を捕捉し、センサは、入力オブジェクトからセンサまでの距離を検出する。方法は、入力オブジェクトからセンサまでの距離を検出するステップと、入力オブジェクトが空間領域内で動く場合に入力オブジェクトの移動軌跡を記録するステップと、記録された移動軌跡に基づき文字を認識するステップとを有する。空間領域は、センサに対する最短距離値及び最長距離値を有する。入力オブジェクトの移動軌跡は、入力オブジェクトが空間領域の外を動く場合に記録されない。

Description

本発明は、ユーザインタラクションに関し、特に、文字入力のための方法及びデバイスに関する。
ジェスチャ認識技術の発展に伴って、人々は、入力手段として手書きを使用することにますます前向きになっている。手書き認識の基本は、機械学習及びトレーニングライブラリである。たとえどのようなトレーニングデータベースが使用されようとも、ストロークの妥当なセグメンテーションが重要である。今のところ、手書き入力の大部分は、タッチスクリーンにおいて行われている。ユーザが文字の1ストロークを終えた後、彼は、自身の手をタッチスクリーンから離すので、入力デバイスは、ストロークどうしを容易に区別することができる。
3D(3次元)デバイスの発展に伴って、空中で手書き入力を認識することに対する要求は、ますます強くなっている。
本発明の態様に従って、カメラ及びセンサを備えたデバイスによって文字入力を認識する方法が提供される。カメラは、入力オブジェクトの移動軌跡を捕捉し、センサは、入力オブジェクトからセンサまでの距離を検出する。方法は、入力オブジェクトからセンサまでの距離を検出するステップと、入力オブジェクトが空間領域内で動く場合に入力オブジェクトの移動軌跡を記録するステップと、記録された移動軌跡に基づき文字を認識するステップとを有する。空間領域は、センサに対する最短距離値及び最長距離値を有する。入力オブジェクトの移動軌跡は、入力オブジェクトが空間領域の外を動く場合に記録されない。
更に、文字を認識するステップの前に、方法は、入力オブジェクトがある期間の間前記空間領域内に依然としてあることを検出するステップを更に有する。
更に、文字を認識するステップの前に、方法は、現在のストロークが新しい文字の開始ストロークであると決定するステップを更に有する。ストロークは、入力オブジェクトが前記空間領域の外から該空間領域の中に入ることを検出される場合に開始し、入力オブジェクトが前記空間領域から該空間領域の外へ出ることを検出される場合に終了する期間の間の入力オブジェクトの移動軌跡に対応する。
更に、前記決定するステップは、第1のマッピングされたライン及び第2のマッピングされたラインを得るよう、現在のストローク及び前のストロークを、表示面レベルから地面レベルの間にある交差ラインに平行な同じラインにマッピングするステップと、1)第1のマッピングされたラインが第2のマッピングされたラインによって含まれること、2)第2のマッピングされたラインが第1のマッピングされたラインによって含まれること、及び3)第1のマッピングされたラインと第2のマッピングされたラインとの和集合に対する第1のマッピングされたラインと第2のマッピングされたラインとの共通部分の割合がある値を上回ることのうちのいずれかの条件を満たさない場合は、現在のストロークが新しい文字の開始ストロークであると決定するステップとを有する。
更に、デバイスは、文字認識のための作業モード及び待機モードを有し、方法は、第1のジェスチャの検出時にデバイスを前記作業モードに入らせるステップと、第2のジェスチャの検出時にデバイスを前記待機モードに入らせるステップとを更に有する。
更に、方法は、入力オブジェクトが空間領域内で動く場合に、カメラが入力オブジェクトの移動軌跡を出力できるようにするステップと、入力オブジェクトが空間領域の外を動く場合に、カメラが入力オブジェクトの移動軌跡を出力できないようにするステップとを更に有する。
本発明の態様に従って、文字入力を認識するデバイスが提供される。デバイスは、カメラ101、センサ102及びプロセッサ103を備える。カメラ101は、入力オブジェクトの移動軌跡を捕捉し出力する。センサ102は、入力オブジェクトとセンサ102との間の距離を検出し出力する。プロセッサ103は、a)センサ102によって出力された距離が最長距離値及び最短距離値を有する範囲内にある場合には、カメラ101によって出力された入力オブジェクトの前記移動軌跡を記録し、センサ102によって出力された距離が前記範囲に属さない場合には、入力オブジェクトの移動軌跡が記録されず、b)記録された移動軌跡に基づき文字を認識する。
更に、プロセッサ103は、c)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの前記作業モードにデバイスを入らせ、d)第1のジェスチャが検出される時点でセンサ102によって出力された距離に基づき最長距離値及び最短距離値を決定するために更に使用される。
更に、プロセッサ103は、c′)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの作業モードにデバイスを入らせ、d′)入力オブジェクトがある期間の間静止していることを検出し、e)入力オブジェクトが静止していると検出される時点でセンサ102によって出力された距離に基づき最長距離値及び最短距離値を決定するために更に使用される。
更に、プロセッサ103は、g)現在のストロークが新しい文字の開始ストロークであると決定するために更に使用される。ストロークは、センサ102によって出力される距離が前記範囲内になる場合に開始し、センサ102によって出力される距離が前記範囲外になる場合に終了する期間の間の入力オブジェクトの移動軌跡に対応する。
本発明の更なる態様及び利点は、本発明の以下の詳細な説明において見受けられることが理解されるべきである。
添付の図面は、本発明の更なる理解を提供するために含まれ、本願に組み込まれてその一部を構成する。図面は、本明細書によって説明される本発明の実施形態を表すために使用される。本発明は、その実施形態に制限されない。
本発明の実施形態に従って文字を空間的に入力するシステムを概略的に示す図である。 本発明の実施形態に従う空間領域の定義を示す図である。 本発明を用いずにカメラ101によって捕捉されて出力されるユーザの手の移動軌跡を示す図である。 本発明の実施形態に従って無効な入力を除外した後のユーザの手の移動軌跡を示す図である。 本発明の実施形態に従って文字の入力を認識する方法を示すフローチャートである。 本発明の実施形態に従って先の文字と後の文字との間の位置関係を示す図である。 本発明の実施形態に従って先のストロークと後のストロークとの間の全ての可能な水平位置関係を示す図である。
本発明の実施形態は、これより、図面に関連して詳細に記載される。以下の記載では、既知の機能及び構成のいくつかの詳細な説明は、明りょうさ及び簡潔さのために省略されることがある。
図1は、本発明の実施形態に従って文字を空間的に入力するシステムを概略的に示す図である。システムは、カメラ101、深さセンサ102、プロセッサ103及びディスプレイ104を有する。プロセッサ103は、カメラ101及び深さセンサ102及びディスプレイ104と接続されている。この例では、カメラ101及び深さセンサ102は、ディスプレイ104の上に置かれている。カメラ101及び深さセンサ102は、他の場所、例えば、ディスプレイフレームの下側、又はディスプレイ104を支持する机の上、等に置かれてよいことが留意されるべきである。ここでは、空間的に入力された文字を認識する認識デバイスは、カメラ101、深さセンサ102及びプロセッサ103を有する。更には、空間的に入力された文字を認識するデバイスは、カメラ101、深さセンサ102、プロセッサ103及びディスプレイ104を有する。システムのコンポーネントは、次の基本機能を持つ:
・カメラ101は、デジタル画像を捕捉し出力するために使用される;
・深さセンサ102は、手から深さセンサ102までの距離を検出し出力するために使用される。深さセンサの候補としては、次のセンサが使用されてよい。OptriCamは、3Dタイム・オブ・フライト(TOF;time of flight)並びに他の独自仕様の及び特許された技術を持った深さセンサであり、NIRスペクトルで動作し、顕著なバックライト光抑制、極めて限られたモーションブラー及び低い画像ラグを提供する。GrayPoint社のBumbleBeeは、ステレオ画像及びサブピクセル補間技術に基づいており、深さ情報を実時間で得ることができる。PrimeSense(登録商標)の光符号化深さセンサは、レーザースペックル及び他の技術を使用する;
・プロセッサ103は、データを処理して、データをディスプレイ104へ出力するために使用される;
・ディスプレイ104は、プロセッサ103から受信したデータを表示するために使用される。
本発明が解決する課題は、ユーザがカメラ101及び深さセンサ102によって認識可能な自身の手又は他のオブジェクトを使用して、空中で文字の2つ以上のストロークを空間的に入力又は手書きする場合に、如何にしてシステムが、ストロークの開始とその前のストロークの終わりとの間(例えば、文字の二番目のストロークの開始と最初のストロークの終わりとの間)の手の移動軌跡を無視し、文字のストロークごとを正確に認識するのかである。課題を解決するために、空間認識が使用される。一例として、空間認識は、2つの距離パラメータ、すなわち、最短距離パラメータ及び最長距離パラメータによって定義される。図2は、本発明の実施形態に従う空間領域の定義を示す図である。図1において、最短距離パラメータの値はZに等しく、最長距離パラメータの値はZ+Tに等しい。
ユーザインタラクションの観点からすれば、空間領域は、ユーザが文字のストロークを入力するために使用される。ユーザが文字を入力したい場合に、彼は、自身の手を空間領域内に動かし、最初のストロークを入力する。ユーザが最初のストロークを入力し終えた後、彼は、自身の手を空間領域外に動かし、次いで、文字の次のストロークを入力するために自身の手を空間領域内に動かす。上記のステップは、全てのストロークが入力されるまで繰り返される。例えば、ユーザは、数字の4を入力したい。図3Aは、本発明を使用せずにカメラ101によって捕捉されて出力されるユーザの手の移動軌跡を示す図である。言い換えると、図3Aはまた、深さ情報を伴わないユーザの手の移動軌跡を示す(すなわち、手から深さセンサまでの距離に関する情報と呼ばれる。)。ここでは、我々は、図3を使用して、ユーザが4を入力したい場合の手の空間移動軌跡を示す。最初に、ユーザは、点1から点2までの最初のストロークを書くために自身の手を空間領域内に動かし、次いで、自身の点を空間領域外に動かし、自身の手を点2から点3へ動かし、次いで、点3から点4までの文字4の二番目のストロークを書くために自身の手を空間領域内に動かす。
データ処理の観点からすれば、空間領域は、有効な入力と無効な入力とを区別するためにプロセッサ103によって使用される(プロセッサ103は、データを処理することができるコンピュータ又はあらゆる他のハードウェアであることもできる。)。有効な入力は、空間領域内での手の動きであり、文字の1ストロークに対応し、無効な入力は、空間領域外での手の動きであり、ストロークの開始とその前のストロークの終わりとの間の手の動きに対応する。
空間領域を使用することによって、無効な入力は除外され、文字のストロークは正確に区別されて認識される。図3Aは、カメラの前で数字の4を入力する場合に、本発明を使用せずにカメラ101によって捕捉されて出力されるユーザの手の移動軌跡を示す図である。数字の4は、2つのストローク、すなわち、点1から点2までの軌跡、及び点3から点4までの軌跡から成る。ユーザの手の動きは、点1から始まって点4まで点2及び点3を通る。しかし、文字認識アルゴリズムは、点2から点3までの移動軌跡のために、手の動きを数字の4として正確に認識することができない。図3Bは、本発明の実施形態に従って無効な入力を除外した後のユーザの手の移動軌跡を示す図である。
図4は、本発明の実施形態に従って文字の入力を認識する方法を示すフローチャートである。方法は、次のステップを有する。
ステップ401で、空間的に入力された文字を認識するデバイスは、文字認識に関して待機モードにある。言い換えると、空間的に入力された文字を認識するデバイスの機能は、非アクティブ又は無効にされている。
ステップ402で、デバイスは、プロセッサ103がカメラ101を使用して開始ジェスチャを検出する場合に、文字認識に関して作業モードへ切り替えられる。ここでは、開始ジェスチャは、デバイスのストレージ(例えば、不揮発性メモリ)(図1に図示せず。)において記憶されている予め定義されたジェスチャである。様々な既存のジェスチャ認識アプローチは、開始ジェスチャを検出するために使用され得る。
ステップ403で、デバイスは空間領域を決定する。それは、予め定義された期間の間ユーザが自身の手を挙げていることによって、実施される。深さセンサ102とユーザの手との間の距離は、図2に示されるZ、すなわち、最短距離パラメータ値として、デバイスのストレージにおいて記憶される。図2におけるTは、予め定義された値であり、人間の腕の長さ、すなわち、15cmにほぼ等しい。当業者は、Tのための他の値、例えば、腕の長さの1/3、が可能であることに留意すべきである。故に、最長距離パラメータの値はZ+Tである。他の例では、深さセンサから手までの検出された距離は、最短距離パラメータ値として使用されず、最短距離パラメータ値及び最長距離パラメータ値を決定するために使用される。例えば、検出された距離にある値を加えた値、例えば、7cm、が最長距離パラメータ値であり、検出された距離からある値を引いた値、例えば、7cm、が最短距離パラメータ値である。
ステップ404で、ユーザは、自身の手を空間領域内に動かし、入力したい文字のストロークを入力する。ユーザがストロークを入力し終えた後、ステップ405で、彼は、そのストロークが文字の最後のストロークであるかどうかを判断する。そうでない場合は、ステップ406及び404で、彼は、自身の手を引き寄せることによって自身の手を空間領域外に動かし、次いで、文字の次のストロークを入力するために自身の手を空間領域内に押し入れる。当業者は、ステップ404、405及び406が、文字の全てのストロークが入力されることを確かにすることに留意すべきである。文字の全てのストロークのユーザ入力の間、認識デバイスの観点からすれば、プロセッサ103は、手の全ての移動軌跡をメモリにおいて記録するわけではない。代わりに、プロセッサ103は、手が深さセンサ102によって空間領域内にあると検出される場合にのみ、手の移動軌跡を記録する。一例において、カメラは、手が空間領域内にあるか否かにかかわらず、手の捕捉された移動軌跡を出力し続け、深さセンサは、手から深さセンサまでの検出された距離を出力し続ける。プロセッサは、深さセンサの出力が予め定義された要件、すなわち、最長距離パラメータ及び最短距離パラメータによって定義された範囲内、を満足すると決定する場合に、カメラの出力を記録する。他の例では、カメラは、ステップ402の後にオフされ、手が空間領域内に移動し始める(すなわち、検出された距離が最長距離パラメータ及び最短距離パラメータによって定義された範囲内に入り始める)と検出される場合にオンされ、手が空間領域内にある間オンのままであるよう、プロセッサによって指示される。それらのステップの間、認識デバイスのプロセッサは、容易に、文字のストロークを決定し、それらを互いに区別することができる。1ストロークは、手が空間領域内に移動する場合に開始し、手が移動領域外に移動する場合に終了する期間中にカメラによって出力される手の移動軌跡である。認識デバイスの観点からすれば、その期間は、検出された距離が、最長距離パラメータ及び最短距離パラメータによって定義された範囲内に入り始める場合に開始し、検出された距離が範囲外になり始める場合に終了する。
ステップ407で、ユーザが文字の全てのストロークを入力し終える場合に、彼は、自身の手を空間領域内に動かし、それを予め定義された期間の間保持する。認識デバイスの観点からすれば、手が予め定義された期間の間実質的に静止(人が手を空中で完全に静止したままとすることは困難であるため。)したままであるとプロセッサ103が検出すると、プロセッサ103は、記憶されている全てのストローク、すなわち、記憶されている全ての移動軌跡に基づき、文字を認識することを開始する。この記憶されている移動軌跡は、図3Bのように見える。
ステップ408で、停止ジェスチャ(現実に、予め定義された認識可能なジェスチャ)を検出すると、デバイスは待機モードへ切り替えられる。ユーザが停止ジェスチャを行う場合に手は必ずしも空間領域内にある必要はないことが留意されるべきである。カメラがオンされたままである例では、ユーザは、手が空間領域外である場合に停止ジェスチャを行うことができる。手が空間領域内にある場合にカメラがオンされたままである他の例では、ユーザは、手が空間領域内にある場合にのみ停止ジェスチャを行うことができる。
変形例に従って、空間領域は予め定義される。すなわち、最短距離パラメータ及び最長距離パラメータの各値は予め定義される。この場合に、ステップ403は不必要であり、結果として削除され得る。
他の変形例に従って、空間領域は、開始ジェスチャを検出する場合の手から深さセンサまでの距離を使用することによって、ステップ402において決定される。
上記の説明は、1つの文字を入力するための方法を提供する。加えて、本発明の実施形態は、前の文字の最後のストロークと、後の文字の開始ストロークとを正確に認識することによって、2つ以上の文字を連続して入力するための方法を提供する。言い換えると、ステップ402における開始ジェスチャの後、且つ、ステップ407において予め定義された期間の間手を保持することの前に、2よりも多い文字が入力される。開始ストロークはデバイスによって認識され得るので、デバイスは、移動軌跡を2よりも多いセグメントに分け、夫々のセグメントは文字を表す。空中でユーザによって入力された2つの連続した文字の間の位置関係を考えると、先の文字の最後のストロークの左側又は右側の位置に後の文字の全てのストロークを書くことが、ユーザにとって、より自然である。図5は、ユーザによって認識される地面に垂直な仮想平面において先の文字と後の文字との間の位置関係を示す図である。実線501における長方形は、先の文字を入力するための領域を表し、破線502及び503における長方形は、後の文字を入力するための2つの可能な領域を表す(例示列挙)。この例では、位置関係は、水平位置関係を意味することが留意されるべきである。以下は、2つ以上の文字が連続して入力される場合に文字の最初のストロークを決定する方法について説明する。
座標系の原点を左上角に仮定すると、X軸(表示面レベルと地面レベルとの間の交差のラインに平行)は右方向に増大し、Y軸(地面に垂直)は下方向に増大する。そして、ユーザの書き癖は、左から右へ水平に書かれる。各ストロークの幅(W)はこのように定義される:W=max_x−min_x。max_xは、1ストロークの最大X軸値であり、min_xは、そのストロークの最小x軸値であり、Wは、それら2つの値の間の差である。図6は、先のストローク及び後のストロークがX軸にマッピングしている場合の先のストローク(ストロークa)と後のストローク(ストロークb0、b1、b2及びb3)との間の全ての可能な水平位置関係を示す。核となる概念は、次の条件のいずれかが満たされる場合に後のストローク及び先のストロークが同じ文字に属することである:1)後のストロークの水平にマッピングされたラインは、先のストロークの水平にマッピングされたラインによって含まれる;2)先のストロークの水平にマッピングされたラインは、後のストロークの水平にマッピングされたラインによって含まれる;3)先のストロークの水平にマッピングされたラインと後のストロークの水平にマッピングされたラインとの和集合に対する先のストロークの水平にマッピングされたラインと後のストロークの水平にマッピングされたラインとの共通部分の割合は、予め定義された値を上回る。以下は、ストロークが後の文字の開始ストロークであると如何にして判断すべきかを示す擬似コードである:
Figure 2016525235
TH_RATEは、2つの連続したストロークの交差部分の割合を示し、この値は前もって設定され得る。
上記の実施形態に従って、デバイスは、そうするようデバイスに指示する信号がある場合に、文字を認識することを開始する。例えば、ステップ407で、ユーザが予め定義された期間の間自身の手を留めておく場合に、信号は生成される。それに加えて、2つよりも多い文字が入力される場合に、後の文字の最初のストロークの認識は、信号の生成をトリガする。変形例に従って、新しいストロークがデバイスによって捕捉されるたびに、デバイスは、過去に捕捉された移動軌跡に基づき文字を認識しようとする。文字の認識が成功すると、デバイスは、次のストローク及びそれに続くストロークに基づき新しい文字を認識し始める。
多数の実施が記載されてきた。そうでもなお、様々な変更がなされてよいことが理解されるであろう。例えば、異なった実施の要素は、他の実施を生じするように結合され、補足され、変更され、又は除外されてよい。加えて、当業者は、他の構造及びプロセスが、開示されているものに取って代わってよく、結果として得られる実施が、開示されている実施と少なくとも実質的に同じ結果を達成するよう少なくとも実質的に同じ方法で少なくとも実質的に同じ機能を実行することを理解するである。然るに、それら及び他の実施は、本願によって企図され、添付の特許請求の範囲によって定義される発明の適用範囲内にある。
多数の実施が記載されてきた。そうでもなお、様々な変更がなされてよいことが理解されるであろう。例えば、異なった実施の要素は、他の実施を生じするように結合され、補足され、変更され、又は除外されてよい。加えて、当業者は、他の構造及びプロセスが、開示されているものに取って代わってよく、結果として得られる実施が、開示されている実施と少なくとも実質的に同じ結果を達成するよう少なくとも実質的に同じ方法で少なくとも実質的に同じ機能を実行することを理解するである。然るに、それら及び他の実施は、本願によって企図され、添付の特許請求の範囲によって定義される発明の適用範囲内にある。
上記の実施形態に加えて、以下の付記が開示される。
(付記1)
入力オブジェクトの移動軌跡を捕捉するカメラと、前記入力オブジェクトからセンサまでの距離を検出する前記センサとを備えるデバイスによって、文字入力を認識する方法であって、
前記入力オブジェクトから前記センサまでの距離を検出するステップと、
前記入力オブジェクトが空間領域内で動く場合に前記入力オブジェクトの移動軌跡を記録するステップであって、前記空間領域は、前記センサに対する最短距離値及び最長距離値を有し、前記入力オブジェクトの移動軌跡は、前記入力オブジェクトが前記空間領域の外を動く場合に記録されない、ステップと、
前記記録された移動軌跡に基づき文字を認識するステップと
を有する方法。
(付記2)
前記文字を認識するステップの前に、当該方法は、
前記入力オブジェクトがある期間の間前記空間領域内に依然としてあることを検出するステップ
を更に有する、付記1に記載の方法。
(付記3)
前記文字を認識するステップの前に、当該方法は、
現在のストロークが新しい文字の開始ストロークであると決定するステップ
を有し、
ストロークは、前記入力オブジェクトが前記空間領域の外から該空間領域の中に入ることを検出される場合に開始し、前記入力オブジェクトが前記空間領域から該空間領域の外へ出ることを検出される場合に終了する期間の間の前記入力オブジェクトの移動軌跡に対応する、
付記1に記載の方法。
(付記4)
前記決定するステップは、
第1のマッピングされたライン及び第2のマッピングされたラインを得るよう、前記現在のストローク及び前のストロークを、表示面レベルから地面レベルの間にある交差ラインに平行な同じラインにマッピングするステップと、
1)前記第1のマッピングされたラインが前記第2のマッピングされたラインによって含まれること、2)前記第2のマッピングされたラインが前記第1のマッピングされたラインによって含まれること、及び3)前記第1のマッピングされたラインと前記第2のマッピングされたラインとの和集合に対する前記第1のマッピングされたラインと前記第2のマッピングされたラインとの共通部分の割合がある値を上回ることのうちのいずれかの条件を満たさない場合は、前記現在のストロークが前記新しい文字の前記開始ストロークであると決定するステップと
を有する、付記3に記載の方法。
(付記5)
前記デバイスは、文字認識のための作業モード及び待機モードを有し、当該方法は、
第1のジェスチャの検出時に前記デバイスを前記作業モードに入らせるステップと、
第2のジェスチャの検出時に前記デバイスを前記待機モードに入らせるステップと
を更に有する、付記1に記載の方法。
(付記6)
前記入力オブジェクトが空間領域内で動く場合に、前記カメラが前記入力オブジェクトの移動軌跡を出力できるようにするステップと、
前記入力オブジェクトが前記空間領域の外を動く場合に、前記カメラが前記入力オブジェクトの移動軌跡を出力できないようにするステップと
を更に有する付記1に記載の方法。
(付記7)
文字入力を認識するデバイスであって、
入力オブジェクトの移動軌跡を捕捉し出力するカメラと、
前記入力オブジェクトとセンサとの間の距離を検出し出力する前記センサと、
a)前記センサによって出力された前記距離が最長距離値及び最短距離値を有する範囲内にある場合には、前記カメラによって出力された前記入力オブジェクトの前記移動軌跡を記録し、前記センサによって出力された前記距離が前記範囲に属さない場合には、前記入力オブジェクトの移動軌跡が記録されず、b)前記記録された移動軌跡に基づき文字を認識するプロセッサと
を有するデバイス。
(付記8)
前記プロセッサは、
c)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの前記作業モードに前記デバイスを入らせ、
d)前記第1のジェスチャが検出される時点で前記センサによって出力された距離に基づき前記最長距離値及び前記最短距離値を決定する
ために更に使用される、付記7に記載のデバイス。
(付記9)
前記プロセッサは、
c′)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの前記作業モードに前記デバイスを入らせ、
d′)前記入力オブジェクトがある期間の間静止していることを検出し、
e)前記入力オブジェクトが静止していると検出される時点で前記センサによって出力された距離に基づき前記最長距離値及び前記最短距離値を決定する
ために更に使用される、付記7に記載のデバイス。
(付記10)
前記プロセッサは、
g)現在のストロークが新しい文字の開始ストロークであると決定する
ために更に使用され、
ストロークは、前記センサによって出力される前記距離が前記範囲内になる場合に開始し、前記センサによって出力される前記距離が前記範囲外になる場合に終了する期間の間の前記入力オブジェクトの移動軌跡に対応する、
付記7に記載のデバイス。

Claims (10)

  1. 入力オブジェクトの移動軌跡を捕捉するカメラと、前記入力オブジェクトからセンサまでの距離を検出する前記センサとを備えるデバイスによって、文字入力を認識する方法であって、
    前記入力オブジェクトから前記センサまでの距離を検出するステップと、
    前記入力オブジェクトが空間領域内で動く場合に前記入力オブジェクトの移動軌跡を記録するステップであって、前記空間領域は、前記センサに対する最短距離値及び最長距離値を有し、前記入力オブジェクトの移動軌跡は、前記入力オブジェクトが前記空間領域の外を動く場合に記録されない、ステップと、
    前記記録された移動軌跡に基づき文字を認識するステップと
    を有する方法。
  2. 前記文字を認識するステップの前に、当該方法は、
    前記入力オブジェクトがある期間の間前記空間領域内に依然としてあることを検出するステップ
    を更に有する、請求項1に記載の方法。
  3. 前記文字を認識するステップの前に、当該方法は、
    現在のストロークが新しい文字の開始ストロークであると決定するステップ
    を有し、
    ストロークは、前記入力オブジェクトが前記空間領域の外から該空間領域の中に入ることを検出される場合に開始し、前記入力オブジェクトが前記空間領域から該空間領域の外へ出ることを検出される場合に終了する期間の間の前記入力オブジェクトの移動軌跡に対応する、
    請求項1に記載の方法。
  4. 前記決定するステップは、
    第1のマッピングされたライン及び第2のマッピングされたラインを得るよう、前記現在のストローク及び前のストロークを、表示面レベルから地面レベルの間にある交差ラインに平行な同じラインにマッピングするステップと、
    1)前記第1のマッピングされたラインが前記第2のマッピングされたラインによって含まれること、2)前記第2のマッピングされたラインが前記第1のマッピングされたラインによって含まれること、及び3)前記第1のマッピングされたラインと前記第2のマッピングされたラインとの和集合に対する前記第1のマッピングされたラインと前記第2のマッピングされたラインとの共通部分の割合がある値を上回ることのうちのいずれかの条件を満たさない場合は、前記現在のストロークが前記新しい文字の前記開始ストロークであると決定するステップと
    を有する、請求項3に記載の方法。
  5. 前記デバイスは、文字認識のための作業モード及び待機モードを有し、当該方法は、
    第1のジェスチャの検出時に前記デバイスを前記作業モードに入らせるステップと、
    第2のジェスチャの検出時に前記デバイスを前記待機モードに入らせるステップと
    を更に有する、請求項1に記載の方法。
  6. 前記入力オブジェクトが空間領域内で動く場合に、前記カメラが前記入力オブジェクトの移動軌跡を出力できるようにするステップと、
    前記入力オブジェクトが前記空間領域の外を動く場合に、前記カメラが前記入力オブジェクトの移動軌跡を出力できないようにするステップと
    を更に有する請求項1に記載の方法。
  7. 文字入力を認識するデバイスであって、
    入力オブジェクトの移動軌跡を捕捉し出力するカメラと、
    前記入力オブジェクトとセンサとの間の距離を検出し出力する前記センサと、
    a)前記センサによって出力された前記距離が最長距離値及び最短距離値を有する範囲内にある場合には、前記カメラによって出力された前記入力オブジェクトの前記移動軌跡を記録し、前記センサによって出力された前記距離が前記範囲に属さない場合には、前記入力オブジェクトの移動軌跡が記録されず、b)前記記録された移動軌跡に基づき文字を認識するプロセッサと
    を有するデバイス。
  8. 前記プロセッサは、
    c)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの前記作業モードに前記デバイスを入らせ、
    d)前記第1のジェスチャが検出される時点で前記センサによって出力された距離に基づき前記最長距離値及び前記最短距離値を決定する
    ために更に使用される、請求項7に記載のデバイス。
  9. 前記プロセッサは、
    c′)第1のジェスチャの検出時に、文字認識のために、作業モード及び待機モードのうちの前記作業モードに前記デバイスを入らせ、
    d′)前記入力オブジェクトがある期間の間静止していることを検出し、
    e)前記入力オブジェクトが静止していると検出される時点で前記センサによって出力された距離に基づき前記最長距離値及び前記最短距離値を決定する
    ために更に使用される、請求項7に記載のデバイス。
  10. 前記プロセッサは、
    g)現在のストロークが新しい文字の開始ストロークであると決定する
    ために更に使用され、
    ストロークは、前記センサによって出力される前記距離が前記範囲内になる場合に開始し、前記センサによって出力される前記距離が前記範囲外になる場合に終了する期間の間の前記入力オブジェクトの移動軌跡に対応する、
    請求項7に記載のデバイス。
JP2016520228A 2013-06-25 2013-06-25 文字入力のための方法及びデバイス Withdrawn JP2016525235A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/077832 WO2014205639A1 (en) 2013-06-25 2013-06-25 Method and device for character input

Publications (1)

Publication Number Publication Date
JP2016525235A true JP2016525235A (ja) 2016-08-22

Family

ID=52140761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520228A Withdrawn JP2016525235A (ja) 2013-06-25 2013-06-25 文字入力のための方法及びデバイス

Country Status (6)

Country Link
US (1) US20160171297A1 (ja)
EP (1) EP3014389A4 (ja)
JP (1) JP2016525235A (ja)
KR (1) KR20160022832A (ja)
CN (1) CN105339862A (ja)
WO (1) WO2014205639A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302298B (zh) * 2015-09-17 2017-05-31 深圳市国华识别科技开发有限公司 空中书写断笔系统和方法
TWI695296B (zh) * 2016-04-29 2020-06-01 姚秉洋 內建感應器及光源模組之鍵盤裝置
US11720222B2 (en) * 2017-11-17 2023-08-08 International Business Machines Corporation 3D interaction input for text in augmented reality
CN108399654B (zh) * 2018-02-06 2021-10-22 北京市商汤科技开发有限公司 描边特效程序文件包的生成及描边特效生成方法与装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119090A (ja) * 1992-10-07 1994-04-28 Hitachi Ltd 省電力制御方式
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
US8904312B2 (en) * 2006-11-09 2014-12-02 Navisense Method and device for touchless signing and recognition
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
EP2453252B1 (de) * 2010-11-15 2015-06-10 Cedes AG Energiespar-3D-sensor
US20120317516A1 (en) * 2011-06-09 2012-12-13 Casio Computer Co., Ltd. Information processing device, information processing method, and recording medium
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
CN102508546B (zh) * 2011-10-31 2014-04-09 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
US10591998B2 (en) * 2012-10-03 2020-03-17 Rakuten, Inc. User interface device, user interface method, program, and computer-readable information storage medium
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface

Also Published As

Publication number Publication date
US20160171297A1 (en) 2016-06-16
WO2014205639A1 (en) 2014-12-31
KR20160022832A (ko) 2016-03-02
EP3014389A1 (en) 2016-05-04
EP3014389A4 (en) 2016-12-21
CN105339862A (zh) 2016-02-17

Similar Documents

Publication Publication Date Title
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
US20180173393A1 (en) Apparatus and method for video zooming by selecting and tracking an image area
US9619042B2 (en) Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
US10990226B2 (en) Inputting information using a virtual canvas
CN103440033B (zh) 一种基于徒手和单目摄像头实现人机交互的方法和装置
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6711817B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
KR20140039342A (ko) 윈도우 또는 애플리케이션을 닫기 위한 방법, 이 방법을 수행하기 위한 디바이스, 데이터 저장 디바이스, 소프트웨어 프로그램 및 사용자 디바이스
JP2016224686A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
JP2016525235A (ja) 文字入力のための方法及びデバイス
US10525599B1 (en) Automatic detection of screen area and camera assisted movement of robotic arm
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
RU2552192C2 (ru) Способ и система для взаимодействия человек-машина, основанного на жестах, и машиночитаемый носитель для этого
JP2002366958A (ja) 画像認識方法および画像認識装置
JP7351130B2 (ja) 深度カメラ及び深層ニューラルネットワークを使用する、プロジェクタ-カメラ対話型ディスプレイ用のロバストなジェスチャ認識装置及びシステム
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
CN114510142B (zh) 基于二维图像的手势识别方法及其系统和电子设备
US9761009B2 (en) Motion tracking device control systems and methods
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법
WO2021245749A1 (ja) 追跡装置、追跡方法、および記録媒体
JP2021144358A (ja) 学習装置、推定装置、学習方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170322

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170323