JP2022062064A - リアルタイム手書き認識の管理 - Google Patents
リアルタイム手書き認識の管理 Download PDFInfo
- Publication number
- JP2022062064A JP2022062064A JP2022004546A JP2022004546A JP2022062064A JP 2022062064 A JP2022062064 A JP 2022062064A JP 2022004546 A JP2022004546 A JP 2022004546A JP 2022004546 A JP2022004546 A JP 2022004546A JP 2022062064 A JP2022062064 A JP 2022062064A
- Authority
- JP
- Japan
- Prior art keywords
- handwriting
- recognition
- input
- user
- handwriting input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 303
- 230000004044 response Effects 0.000 claims abstract description 75
- 238000013515 script Methods 0.000 claims description 184
- 238000012549 training Methods 0.000 claims description 122
- 230000008569 process Effects 0.000 claims description 89
- 238000009826 distribution Methods 0.000 claims description 54
- 238000012217 deletion Methods 0.000 claims description 47
- 230000037430 deletion Effects 0.000 claims description 47
- 230000002123 temporal effect Effects 0.000 claims description 34
- 238000005562 fading Methods 0.000 claims description 33
- 238000013527 convolutional neural network Methods 0.000 claims description 31
- 238000009877 rendering Methods 0.000 claims description 31
- 238000012937 correction Methods 0.000 claims description 16
- 230000036961 partial effect Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 9
- 230000014509 gene expression Effects 0.000 claims description 9
- 230000002441 reversible effect Effects 0.000 claims description 7
- 239000000470 constituent Substances 0.000 claims description 4
- 230000010365 information processing Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000013179 statistical model Methods 0.000 claims description 2
- 230000002459 sustained effect Effects 0.000 claims 1
- 230000008685 targeting Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 10
- 230000007246 mechanism Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 22
- 230000000007 visual effect Effects 0.000 description 20
- 238000012790 confirmation Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 150000001875 compounds Chemical class 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 241000282326 Felis catus Species 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 241000406668 Loxodonta cyclotis Species 0.000 description 4
- 238000007792 addition Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012015 optical character recognition Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007794 irritation Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
- G06V30/2264—Character recognition characterised by the type of writing of cursive writing using word shape
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/32—Digital ink
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/293—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of characters other than Kanji, Hiragana or Katakana
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Character Discrimination (AREA)
- User Interface Of Digital Computer (AREA)
- Document Processing Apparatus (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
Description
●一般に、従来の手書き入力の機能性は、言語ごとに、又はスクリプトごとに有効化される。追加される各入力言語は、別個の記憶スペース及びメモリを費やす、別個の手書き認識モデルのインストールを必要とする。異なる言語に関する手書き認識モデルを組み合わせることによってもたらされる相乗効果は、僅かなものであり、混合言語又は混合スクリプトの手書き認識は、複雑な曖昧性除去プロセスのために、従来は、極めて長い時間を要するものであった。
●更には、従来の手書き認識システムは、文字認識に関して、言語固有又はスクリプト固有の特性に依存するところが大きい。混合言語の手書き入力の認識は、低い精度を有するものであった。更には、認識される言語の利用可能な組み合わせは、極めて限定される。殆どのシステムは、非デフォルトの各言語又は各スクリプトで手書き入力を提供する前に、所望の言語固有の手書き認識部を、ユーザが手動で指定することを必要とするものであった。
●多くの既存のリアルタイム手書き認識モデルは、ストローク単位レベルでの、時間的情報又は配列情報を必要とし、このことは、どのように文字が書かれ得るかの高い変動性(例えば、書体又は個人的な癖による、ストロークの形状、長さ、緩急、分割、順序、及び方向の高い変動性)に対処する場合に、不正確な認識結果を生じさせる。一部のシステムはまた、手書き入力を提供する場合に、ユーザが、厳格な(例えば、各文字入力のサイズ、配列、及び時間枠に対する、組み込みの仮定条件を有する)空間的及び時間的基準を順守することも必要とする。これらの基準からのいずれの逸脱も、修正することが困難な、不正確な認識結果を引き起こすものであった。
●現時点では、殆どのリアルタイム手書き入力インタフェースは、ユーザが一度に少数の文字を入力することのみを可能とする。長い語句又は文の入力は、短い分節へと分解されて、別個に入力される。この形式的な入力は、構成の流れを維持するための、ユーザに対する認知負担を強いるだけではなく、以前に入力された文字又は語句を、ユーザが修正若しくは訂正することも困難にさせる。
例示的デバイス
」は、2つの部首、すなわち、左の部首「
」及び右の部首「
」を使用して構築されている。
」に関するストロークを分割する場合、分割モジュール508は、任意選択的に、手書き入力の左側にクラスタ化されるストロークを、1つの(すなわち、左の部首「
」に関する)認識単位に割り当て、手書き入力の右側にクラスタ化されるストロークを、別の(すなわち、右の部首「
」に関する)認識単位に割り当てる。あるいは、分割モジュール508はまた、これらのストロークの全てを、単一の(すなわち、文字「
」に関する)認識単位に割り当てることもできる。
」及び「
」)を、手書き入力インタフェースの候補表示区域内に表示する。一部の実施形態では、I/Oインタフェースモジュールは、複数の認識結果(例えば、「
」及び「
」)をユーザに対して表示し、ユーザが、認識結果を選択し、関連するアプリケーションに関するテキスト入力として入力することを可能にする。一部の実施形態では、I/Oインタフェースモジュールは、最上ランクの認識結果(例えば、「
」)を、その認識結果のユーザ確認の、他の入力又は指示に応じて、自動的に入力する。最上ランクの結果の有効な自動入力により、入力インタフェースの効率を改善し、より良好なユーザエクスペリエンスを提供することができる。
」に関する手書きサンプルである。同様に、手描きの笑顔(例えば、上を向いた弧の上方の2つの点)は、訓練コーパス内の絵文字「
」に関する手書きサンプルである。他の絵文字としては、種々の感情(例えば、歓喜、悲哀、怒り、当惑、驚愕、笑い、泣き、苛立ちなど)、種々の物体及びキャラクタ(例えば、猫、犬、ウサギ、心臓、果物、目、唇、贈り物、花、ろうそく、月、星など)、及び種々の行為(例えば、握手、キス、走る、踊る、跳び上がる、眠る、食べる、会う、愛する、好む、投票するなど)などを示すアイコンのカテゴリが挙げられる。一部の実施形態では、絵文字に対応する手書きサンプル内のストロークは、対応する絵文字を形成する実際の線の、単純化及び/又は様式化された線である。一部の実施形態では、各デバイス又はアプリケーションは、同じ絵文字に関して、異なるデザインを使用することができる。例えば、女性のユーザに提示される笑顔の絵文字は、男性のユーザに提示される笑顔の絵文字とは、それらの2人のユーザから受信される手書き入力が実質的に同じ場合であっても、異なるものとすることができる。
」)、幾つかの手書き英語文字(例えば、「Happy」)、及び手描きの絵文字(例えば、笑顔)を含む、幾つもの手書きストロークを提供している。これらの手書き文字は、手書き入力区域804内の複数の行(例えば、2つの行)内に分布されている。
」)は、メモアプリケーションに既に提供されたテキスト入力である。一部の実施形態では、カーソル813が、テキスト入力区域808内での、現在のテキスト入力位置を示す。
」に関する手書き入力は、類似する場合が多い。同様に、絵文字「
」に関する手書き入力は、CJK部首「
」に関する手書き入力と類似する場合がある。一部の実施形態では、マルチスクリプト手書き認識モデルは、多くの場合、ユーザの手書き入力に対応する可能性が高い、複数の候補認識結果を生成するが、これは、手書き入力の視覚的外観が、人間の読み手でさえも、解読することが困難となるためである。一部の実施形態では、第1のスクリプトは、CJK基本文字ブロックであり、第2のスクリプトは、Unicode規格によって符号化されているようなラテンスクリプトである。一部の実施形態では、第1のスクリプトは、CJK基本文字ブロックであり、第2のスクリプトは、絵文字のセットである。一部の実施形態では、第1のスクリプトは、ラテンスクリプトであり、第2のスクリプトは、絵文字である。
」及びギリシャ文字「λ」を特定していると想定すると、ユーザデバイスは、そのユーザデバイス上に、中国語ソフトキーボード(例えば、ピンイン入力法を使用するキーボード)又はギリシャ語入力キーボードのいずれをユーザがインストールしているかを判定する。ユーザデバイスが、中国語ソフトキーボードのみがインストールされていると判定する場合には、そのユーザデバイスは、任意選択的に、ユーザへの認識結果として中国文字「
」のみを表示し、ギリシャ文字「λ」は表示しない。
in Chinese.」を書き込むことができ、その場合、中国文字「
」を書き込む前に、英語から中国語に入力言語を切り替えることも、又は英語の語「in Chinese」を書き込む際に、中国語から英語に入力言語を切り替えて戻すことも必要とはしない。
」に関しては、ユーザが、水平のストロークを最初に書き込むか、又は垂直のストロークを最初に書き込むかにかかわらず、同じ認識結果「
」が、手書き認識モデルによって与えられる。
」に関する手書き入力は、典型的には、実質的に垂直の手書きストロークと交差する、実質的に水平の手書きストロークを含む。
」)を表示する(1008)。
」を書き込んでいる場合には、手書き認識モデルは、ユーザが、水平のストロークを左から右に描いたか、又は右から左に描いたかにかかわらず、同じ認識結果を出力する。同様に、手書き認識モデルは、ユーザが、垂直のストロークを下向きの方向で描いたか、又は上向きの方向で描いたかにかかわらず、同じ認識結果を出力する。別の実施例では、多くの中国文字は、2つ以上の部首で構造的に作成される。一部の中国文字は、左の部首及び右の部首をそれぞれが含み、人々は、慣例的に、左の部首を最初に書き込み、右の部首を2番目に書き込む。一部の実施形態では、手書き認識モデルは、ユーザが手書き文字を完成させた際に、結果的に得られる手書き入力が、右の部首の左側に左の部首を示す限りは、ユーザが左の部首を最初に書き込んだか、又は右の部首を最初に書き込んだかにかかわらず、同じ認識結果を提供する。同様に、一部の中国文字は、上の部首及び下の部首をそれぞれが含み、人々は、慣例的に、上の部首を最初に書き込み、下の部首を最後に書き込む。一部の実施形態では、手書き認識モデルは、結果的に得られる手書き入力が、下の部首の上方に上の部首を示す限りは、ユーザが上の部首を最初に書き込んだか、又は下の部首を最初に書き込んだかにかかわらず、同じ認識結果を提供する。換言すれば、手書き認識モデルは、ユーザが提供する、手書き文字の個別のストロークの方向に依存することなく、手書き文字の同一性を判定する。
」の形状を構成するために、4つのストローク(例えば、十字形状の文字を構成するための、2つの短い水平のストローク及び2つの短い垂直のストローク)を提供したか、又は2つのストローク(例えば、L形状のストローク及び7形状のストローク、あるいは水平のストローク及び垂直のストローク)を提供したか、又は任意の他の数のストローク(例えば、数百個の極度に短いストローク又は点)を提供したかにかかわらず、同じ認識結果を出力する。
」及び「
」)を書き込んでいる場合には、ユーザデバイスは、手書き入力区域内に現時点で蓄積されている手書き入力が、文字「
」に関するストロークの左に、文字「
」に関するストロークを示す限りは、ユーザが文字「
」のストロークを最初に書き込んだか、又は文字「
」のストロークを最初に書き込んだかにかかわらず、認識結果「
」を表示する。実際に、ユーザが、文字「
」に関するストロークのうちの一部(例えば、垂直のストローク)の前に、文字「
」に関するストロークのうちの一部(例えば、左に傾斜したストローク)を書き込んでいる場合であっても、手書き入力区域内の手書き入力の結果的に得られる画像が、文字「
」に関する全てのストロークの左に、文字「
」に関する全てのストロークを示す限りは、ユーザデバイスは、それらの2つの手書き文字の空間的配列で、認識結果「
」を示す。
」が第1の手書き文内に存在し、手書き文字「
」が第2の手書き文内に存在し、それらの2つの手書き文字が、1つ以上の他の手書き文字及び/又は語によって隔てられている場合であっても、手書き認識モデルは、それらの2つの文字を空間的配列「
」で示す認識結果を、依然として提供する。この認識結果、及び2つの認識文字の空間的配列は、ユーザが手書き入力を完了した際に、それらの2つの文字に関する認識単位が、配列「
」で空間的に配置構成されているならば、ユーザによって提供された、それらの2つの文字のストロークの時間的順序にかかわらず、同じままで維持される。一部の実施形態では、第1の手書き文字(例えば、「
」)は、第1の手書き文(例えば、「
is a number.」)の一部として、ユーザによって提供され、第2の手書き文字(例えば、「
」)は、第2の手書き文(例えば、「
is another number.」)の一部として、ユーザによって提供され、これらの第1の手書き文及び第2の手書き文は、ユーザデバイスの手書き入力区域内に、同時に表示される。一部の実施形態では、この認識結果(例えば、「
is a number.
is another number.」)が正しい認識結果であることを、ユーザが確認すると、それらの2つの文は、ユーザデバイスのテキスト入力区域内に入力され、手書き入力区域は、ユーザが別の手書き入力を入力するために、クリアされる。
」)を書き込んでいる。第1の複数のストロークは、手書き文字「
」を形成する。ユーザは、実際には文字「
」を書き込むことを意図していたが、1つのストロークを書き落としたことに留意されたい。第2の複数のストロークは、手書き文字「
」を形成する。ユーザが、「
」ではなく「
」を書き込むことを望んでいたことを、その後に理解すると、ユーザは、単純に、文字「
」に関するストロークの下方に、もう1つの垂直のストロークを記入することができ、ユーザデバイスは、その垂直のストロークを、第1の認識単位(例えば、「
」に関する認識単位)に割り当てる。ユーザデバイスは、第1の認識単位に関する新たな出力文字(例えば、「
」)を出力し、この新たな出力文字が、認識結果内の従前の出力文字(例えば、「
」)に置き換わる。図10Cに示されるように、第3の手書きストロークの受信に応じて、ユーザデバイスは、その第3の手書きストロークの、第1の複数の手書きストロークへの相対的な近接性に基づいて、第1の複数の手書きストロークと同じ認識単位に、その第3の手書きストロークを割り当てる(1032)。一部の実施形態では、ユーザデバイスは、第1の複数の手書きストローク及び第3の手書きストロークに基づいて、訂正された入力画像を生成する(1034)。ユーザデバイスは、訂正された手書き文字のリアルタイム認識を実行するために、この訂正された入力画像を、手書き認識モデルに提供する(1036)。一部の実施形態では、ユーザデバイスは、第3の手書き入力の受信に応じて、訂正された入力画像に対応する第3の出力文字を表示し(1040)、この第3の出力文字は、第1の出力文字に置き換わり、デフォルトの書き込み方向に沿った空間的配列で、第2の出力文字と同時に表示される。
」内の欠落した垂直のストロークを提供した後、ユーザが、削除入力を入力した場合には、文字「
」に関する認識単位内のストロークが、手書き入力区域から除去され、文字「
」が、ユーザデバイスの候補表示区域内の認識結果「
」から除去される。この削除の後、文字「
」に関するストロークは、手書き入力区域内に維持され、認識結果は、文字「
」のみを示す。
」、「β」、「
」など)を含む。
」及び1122「T」)は、いずれのグループにも属さない候補文字(例えば、候補文字1120「
」及び1124「J」)とは異なる方式で(例えば、太枠ボックス内に)表示される。一部の実施形態では、グループの代表的文字を選択するための基準は、そのグループ内での候補文字の相対的な使用頻度に基づく。一部の実施形態では、他の基準を使用することができる。
」、「
」、及び「
」)が、同じ拡大グループ内には存在しない他の候補文字(例えば、「
」)と比較して、拡大されたビュー内に(例えば、それぞれ、拡大されたボックス1142、1144、及び1146内に)提示される。
」、「
」、及び「
」)の微細な区別は、ユーザによって、より容易に視認することができる。これらの3つの候補文字のうちの1つが、意図された文字入力である場合には、ユーザは、例えば、その文字が表示されている区域をタッチすることによって、その候補文字を選択することができる。図11J及び図11Kに示されるように、ユーザは、拡大ビュー内のボックス1144内に示される第2の文字(例えば、「
」)を、(接触1148で)選択している。これに応じて、選択された文字(例えば、「
」)が、テキスト入力区域808内に、カーソルによって示される挿入ポイントで入力される。図11Kに示されるように、文字が選択されると、手書き入力区域804内の手書き入力、及び候補表示区域806(又は、候補表示区域の拡大ビュー)内の候補文字は、後続の手書き入力のために消去される。
」)を、その視覚的に類似する文字のグループ内の他の文字(例えば、「
」、「
」)の代わりに表示する(1220)。一部の実施形態では、各候補文字が、グループの代表的文字であるか、又はいずれのグループ内にも存在しない通常の候補文字であるかを示すために、候補表示区域の初期ビュー内に、視覚的指示(例えば、選択的な視覚的強調表示、特殊な背景)が提供される。一部の実施形態では、ユーザデバイスは、例えば、図11Hに示されるように、候補表示区域の初期ビュー内に表示された代表的文字を対象とする、既定の拡大入力(例えば、拡大ジェスチャ)を、ユーザから受信する(1222)。一部の実施形態では、この既定の拡大入力の受信に応じて、ユーザデバイスは、例えば、図11Iに示されるように、代表的文字の拡大されたビューと、視覚的に類似する文字のグループ内の1つ以上の他の文字の、それぞれの拡大されたビューとを、同時に表示する(1224)。
」)を受信している。
」、及び代替的に数字「0」を特定する。新たな認識単位から認識された、これらの新たな候補文字に基づいて、ユーザデバイスは、2つの更新された候補認識結果1326及び1330(例えば、「Thanks
」及び「Thanks 80」)を提示する。一部の実施形態では、ユーザデバイスは、特定された絵文字(例えば、「
」)に対応する、正規の文字又は語(例えば、「Love」)を更に特定する。認識された絵文字に関する、その特定された正規の文字又は語に基づいて、ユーザデバイスは、認識された絵文字が、その対応する正規の文字又は語で置き換えられた、第3の認識結果1328を提示する。図13Dに示されるように、認識結果1328では、絵文字「
」が、通常の感嘆符「!」で置き換えられ、絵文字「
」が、正規の文字又は語「Love」で置き換えられている。
」を示す候補結果1326)を選択しており、この選択された認識結果のテキストが、テキスト入力区域808内に入力され、その後、チャットセッションの他の参加者に送信される。メッセージの吹き出し1332は、対話パネル1302内に、そのメッセージのテキストを示す。
」又は絵文字「
」)と、自然人間言語のスクリプトからの少なくとも第1の文字(例えば、図13Dでの、語「Thanks」からの文字)とを含む。一部の実施形態では、ユーザデバイスは、例えば、図13Dに示されるように、それらの第1の絵文字(例えば、図13Dでの、様式化された感嘆符「
」又は絵文字「
」)と自然人間言語のスクリプトからの第1の文字(例えば、図13Dでの、語「Thanks」からの文字)とを含む認識結果(例えば、図13Dでの結果1326)を、手書き入力インタフェースの候補表示区域内に表示する(1406)。
」及び「
」の絵文字を示す、認識結果)を表示する(1412)。一部の実施形態では、第2の認識結果を表示することは、少なくとも第1の意味的単位(例えば、語「Thanks」)を含む第3の認識結果(例えば、認識結果「Thanks
」)と同時に、第2の認識結果を表示することを更に含む。
」の絵文字)に対応する、第2の意味的単位(例えば、語「Love」)を特定する(1414)。一部の実施形態では、ユーザデバイスは、手書き入力インタフェースの候補表示区域内に、第1の絵文字(例えば、「
」の絵文字)から特定された第2の意味的単位(例えば、語「Love」)を少なくとも含む、第4の認識結果(例えば、図13Dでの1328)を表示する(1416)。一部の実施形態では、ユーザデバイスは、図13Dに示されるように、候補表示区域内に、第1の認識結果(例えば、結果「Thanks
」)と同時に、第4の認識結果(例えば、結果1328「Thanks!Love」)を表示する。
」を書き込む代わりに、様式化された猫を描くことができる。ユーザデバイスが、このユーザによって提供された手書き入力に基づいて、「猫」に関する絵文字を特定する場合には、ユーザデバイスはまた、任意選択的に、候補表示区域内に、「猫」に関する絵文字と共に、中国語で「猫」を意味する中国文字「
」も提示する。認識された絵文字に関する通常のテキストを提示することによって、ユーザデバイスは、周知の絵文字に一般的に関連付けられる、少ない数の様式化されたストロークを使用して、複雑な文字又は語を入力する、代替的な方法を提供する。一部の実施形態では、ユーザデバイスは、絵文字を、1つ以上の好ましいスクリプト又は言語(例えば、英語又は中国語)での、それらの対応する通常のテキスト(例えば、文字、語、語句、記号など)と結びつける、辞書を記憶する。
」、「
」、及び「
」)を提示している。
」)の左部分(例えば、左の部首「
」)と右部分(例えば、右の部首「
」)との間に、過度に大きい空間を不用意に残したと想定する。候補表示区域806内に提示された結果(例えば、1512、1514、1516、及び1518)を視認して、ユーザは、ユーザデバイスが、現在の手書き入力を、誤って2つの認識単位へと分割していることを理解する。この分割は、客観的な基準に基づき得るものであるが、ユーザにとっては、現在の手書き入力を削除し、この文字全体を、左部分と右部分との距離をより小さくして再度書き直すことは、望ましいものではない。
」、「
」、及び「
」)を取得している。一部の実施形態では、図15Eに示されるように、ユーザデバイスは、任意選択的に、手書き入力区域806内の手書き入力のレンダリングを、手書きストロークの左クラスタと右クラスタとの距離が低減されるように調節する。一部の実施形態では、ユーザデバイスは、手書き入力区域608内に示される手書き入力のレンダリングを、ピンチジェスチャに応じて変更することがない。一部の実施形態では、ユーザデバイスは、手書き入力区域806内で検出される、(単一の接触とは対照的な)2つの同時接触に基づいて、ピンチジェスチャを入力ストロークから識別する。
」に関するストローク)の右に、更に2つのストローク1530を入力している。ユーザデバイスは、この新たに入力されたストローク1530が、新たな認識単位であることを判定し、その新たに特定された認識単位に関する候補文字(例えば、「
」)を認識する。次いで、ユーザデバイスは、その新たに特定された文字(例えば、「
」)を、以前に特定された認識単位に関する候補文字と組み合わせ、候補表示区域806内に、幾つかの異なる認識結果(例えば、結果1532及び1534)を提示する。
」及び「±」)として意図されていると想定する。ユーザは、ユーザデバイスが、2つのストローク1530及び1536のセットを、誤って単一の認識単位へと組み合わせていることを視認した後、ユーザは、続けて拡大ジェスチャを提供して、ユーザデバイスに、2つのストローク1530及び1536のセットが、2つの別個の認識単位へと分離されるべきであることを通知する。図15Hに示されるように、ユーザは、ストローク1530及び1536の周りで、2つの接触1542及び1544を実施して、次いで、それらの2つの接触を、概して水平な方向で(すなわち、デフォルトの書き込み方向に沿って)互いから離れる方向に移動させる。
」「
」)を含む、初期の認識結果(例えば、図15Gの結果1538又は1540)を表示する(1626)。一部の実施形態では、拡大ジェスチャに応じて、第2の認識結果(例えば、図15Iでの結果1546又は1548)を表示する場合、ユーザデバイスは、例えば、図15H、図15Iに示されるように、候補表示区域内で、初期の認識結果(例えば、結果1538又は1540)を、その第2の認識結果(例えば、結果1546又は1548)で置き換える(1628)。一部の実施形態では、ユーザデバイスは、図15Hに示されるように、初期の認識結果が候補表示区域内に表示されている間に、拡大ジェスチャ入力を受信する(1630)。一部の実施形態では、この拡大ジェスチャ入力に応じて、ユーザデバイスは、図15H及び図15Iに示されるように、手書き入力区域内の、第1の認識単位に割り当てられた、第1のストロークのサブセットと、第2の認識単位に割り当てられた、第2の手書きストロークのサブセットとの距離を増大させるように、複数の手書きストロークを再レンダリングする(1632)。
など)内の単一の構成要素を、その複合文字の種々の部分(例えば、上、下、左、又は右の部分)に分離することの手引きも、提供することができる。このことは、複雑な複合文字を手で書き込む場合に、ユーザは正しい比率及びバランスを失う傾向があるため、複雑な複合中国文字を認識するために特に役立つ。手書き入力の完了後に、例えば、ピンチジェスチャ及び拡大ジェスチャによって、手書き入力の比率及びバランスを調節することが可能であることは、ユーザが、正しい比率及びバランスに到達するための幾つかの試みを実施することを必要とせずに、正しい文字を入力するために、特に役立つ。
」、「
」)は全て、既定の閾値を下回る認識信頼度を有する。一部の実施形態では、ユーザデバイスは、第1の認識単位に関する候補文字(例えば、「
」)のみを含むが、第2の認識単位に関するいずれの候補文字も含まない、部分的認識結果(例えば、結果1712)を、候補表示区域806内に提示する。一部の実施形態では、ユーザデバイスは、認識信頼度が既定の閾値に合格しているか否かにかかわらず、双方の認識単位に関する候補文字を含む、完全認識結果(例えば、結果1714又は1716)を更に表示する。部分的認識結果を提供することは、その手書き入力のいずれの部分に訂正が必要であるかを、ユーザに通知する。更には、ユーザはまた、最初に、その手書き入力の正しく認識された部分を入力することを選択し、次いで、正しく認識されなかった部分を書き直すこともできる。
」)が認識され、新たな認識結果1720、1722、及び1724のセットが生成される。この場合も、第1の認識結果1720は、ストローク1710に関して特定される候補文字のいずれもが、既定の信頼度閾値を満たさないため、部分的認識結果である。
」)に関する手書きストロークの全ての入力を完了しており、正しい認識結果1728が、候補表示区域806内に示される。
」に関する認識単位)が、手書き入力区域804内で同時に表示されている他の認識単位に対して、視覚的に強調表示される(例えば、境界線1734又は明るい背景などで強調表示される)。
」に関する認識単位)が削除された後、ユーザが、削除ボタン1732上での接触1730を継続して維持する場合には、削除された認識単位に隣接する認識単位(例えば、文字「
」に関する認識単位)が、削除される次の認識単位になることを更に示す。図17Fに示されるように、この残存する認識単位は、(例えば、ボックス1736内で)視覚的に強調表示されており、削除される準備が整っている。一部の実施形態では、認識単位の視覚的な強調表示は、ユーザが、削除ボタンとの接触を継続して維持する場合には、削除されることになる認識単位のプレビューを提供する。閾値持続時間に到達する前に、ユーザが、削除ボタンとの接触を中断する場合には、視覚的な強調表示は、最後の認識単位から除去され、その認識単位は削除されない。当業者には認識されるように、接触の持続時間は、認識単位が削除されるたびに、毎回リセットされる。更には、一部の実施形態では、接触の強度(例えば、ユーザが、タッチ感知スクリーンとの接触1730に加えている圧力)を任意選択的に使用して、現在強調表示されている認識単位を削除するユーザの意図を確認するための、閾値持続時間を調節する。図17F及び図17Gは、閾値持続時間に到達する前に、ユーザが、削除ボタン1732との接触1730を中断しており、文字「
」に関する認識単位が、手書き入力区域806内に保存されていることを示す。ユーザが、この認識単位に関する第1の認識結果(例えば、結果1738)を、(例えば、接触1740によって示されるように)選択すると、図17G及び図17Hに示されるように、その第1の認識結果1738内のテキストが、テキスト入力区域808内に入力される。
」の最後に現れる文字「
」を除去する(1812)。
」)に対応する。
」に関する手書きストローク)を入力している。この手書き入力は、垂直の書き込み方向で書き込まれる。ユーザデバイスは、この垂直方向での手書き入力を、2つの認識単位へと分割し、垂直方向でレイアウトされた2つの認識文字をそれぞれが含む、2つの認識結果1916及び1918を表示する。
」及び「
」に関する)認識単位が強調表示され、第2のタップジェスチャに応じて、3つの(例えば、それぞれ、文字「
」、「
」、及び「
」に関する)認識単位が強調表示される。一部の実施形態では、第3のタップジェスチャに応じて、視覚的な強調表示が、任意選択的に、全ての認識単位から除去され、手書き入力区域は、通常状態に戻り、更なるストロークを受け入れる準備が整う。一部の実施形態では、ユーザデバイスは、手書き入力区域内に現在表されている、対応の認識単位のセットのそれぞれを、個別に削除する手段を提供する(2234)。一部の実施形態では、この手段は、強調表示された各認識単位に関する、個別の削除ボタンである。一部の実施形態では、この手段は、強調表示された各認識単位の上での、既定の削除ジェスチャを検出し、及び、その既定の削除ジェスチャの下の強調表示された認識単位を、削除する機能を呼び出す手段である。
」に関しては、8つの(例えば、図27で#1~#8と標識される)ストロークを使用して、この文字を書き上げることができる。この文字に関するストロークの配列及び方向は、その文字に関連付けられる、幾つかの独自の特徴を提供する。認識システムのストローク順序及びストローク方向非依存性を損なうことなく、ストローク順序及びストローク方向の情報を捕捉するための素朴な方法は、訓練サンプル内に、ストローク順序及びストローク方向の全ての可能な順列を、明示的に列挙することである。しかしながら、単に適度の複雑性の文字に関してさえ、この順列は、10億を超える可能性に及び、実際に実装することは、不可能ではないにせよ、非現実的なものとなる。本明細書で説明されるように、ストローク生成の時系列態様(すなわち、時間的情報)を抽象化する、ストローク分布プロファイルが、各書き込みサンプルに関して生成される。それらの書き込みサンプルのストローク分布プロファイルは、時間的に導出される特徴のセットを抽出するように訓練され、その時間的に導出される特徴のセットが、その後、(例えば、入力ビットマップ画像からの)空間的に導出される特徴と組み合わされて、手書き認識システムのストローク順序及びストローク方向非依存性に影響を及ぼすことなく、認識精度を向上させる。
」を使用して、説明の目的のために、例示的実施形態が本明細書で説明される。一部の実施形態では、手書き文字の各入力画像は、任意選択的に、正方形へと正規化される。この正方形の、水平、垂直、斜め+45度、及び斜め-45度上に投影される場合の、個別の各手書きストローク(例えば、ストローク#1、#2...及び#3)のスパンが測定される。各ストロークSiのスパンは、4つの投影方向に関して、それぞれ、xスパン(i)、yスパン(i)、cスパン(i)、及びdスパン(i)として記録される。更には、画像全体にわたって観測された最大スパンもまた、記録される。この文字の最大スパンは、4つの投影方向に関して、それぞれ、xスパン、yスパン、cスパン、及びdスパンとして記録される。説明の目的のために、本明細書では、4つの投影方向が任意選択的に考察されているが、原理的には、任意の恣意的な投影のセットを、様々な実施形態で使用することができる。最大スパン(例えば、xスパン、yスパン、cスパン、及びdスパンとして示される)、及び4つの投影方向での、文字「
」内のストロークのうちの1つ(例えば、ストローク#4)のスパン(例えば、xスパン(4)、yスパン(4)、cスパン(4)、及びdスパン(4)として示される)が、図27に示される。
Claims (162)
- マルチスクリプト手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
マルチスクリプト訓練コーパスの空間的に導出される特徴に基づいて、マルチスクリプト手書き認識モデルを訓練することであって、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを訓練することと、
前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含むことを特徴とする、方法。 - 前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴が、ストローク順序非依存式及びストローク方向非依存式であることを特徴とする、請求項1に記載の方法。
- 前記マルチスクリプト手書き認識モデルの前記訓練が、前記手書きサンプル内のそれぞれのストロークに関連付けられる、時間的情報とは無関係であることを特徴とする、請求項1に記載の方法。
- 前記少なくとも3つの非重複スクリプトが、中国文字、絵文字、及びラテンスクリプトを含むことを特徴とする、請求項1に記載の方法。
- 前記少なくとも3つの非重複スクリプトが、中国文字、アラビア語スクリプト、及びラテンスクリプトを含むことを特徴とする、請求項1に記載の方法。
- 前記少なくとも3つの非重複スクリプトが、Unicode規格によって定義された、非重複スクリプトを含むことを特徴とする、請求項1に記載の方法。
- 前記マルチスクリプト手書き認識モデルを訓練することが、
単一の入力面及び単一の出力面を有する、単一の畳み込みニューラルネットワークに、前記マルチスクリプト訓練コーパスの前記手書きサンプルを提供することと、
前記マルチスクリプト訓練コーパス内に表される、前記少なくとも3つの非重複スクリプトの文字を区別するための、前記手書きサンプルの前記空間的に導出される特徴、及び前記空間的に導出される特徴に関するそれぞれの重みを、前記畳み込みニューラルネットワークを使用して判定することと、
を更に含むことを特徴とする、請求項1に記載の方法。 - 前記マルチスクリプト手書き認識モデルが、前記少なくとも3つの非重複スクリプトにわたる少なくとも3万個の文字を表す、少なくとも3万個の出力クラスを有することを特徴とする、請求項1に記載の方法。
- ユーザの手書き入力に関する、リアルタイム手書き認識を提供することが、
前記マルチスクリプト手書き認識モデルを、ユーザデバイスに提供することを更に含み、前記ユーザデバイスが、前記ユーザから、複数の手書きストロークを受信し、前記受信したマルチスクリプト手書き認識モデルに基づいて、前記複数の手書きストロークから特定された1つ以上の認識単位に対して、手書き認識をローカルで実行することを特徴とする、請求項1に記載の方法。 - ユーザの手書き入力に関する、リアルタイム手書き認識を提供することが、
前記ユーザによる前記手書き入力に対する継続的な追加又は訂正に応じて、前記ユーザの手書き入力に関する1つ以上の認識結果を、継続的に訂正することと、
前記1つ以上の認識結果の各訂正に応じて、前記それぞれの訂正された1つ以上の認識結果を、手書き入力ユーザインタフェースの候補表示区域内で、前記ユーザに対して表示することと、
を更に含むことを特徴とする、請求項1に記載の方法。 - 入力言語に重複が存在しない、複数のデバイスに、前記マルチスクリプト手書き認識モデルを提供することを更に含み、前記マルチスクリプト手書き認識モデルが、前記各ユーザデバイスに関連付けられる、異なる入力言語の手書き認識に関して、前記複数のデバイスのそれぞれで使用されることを特徴とする、請求項1に記載の方法。
- 請求項1から11に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、
マルチスクリプト訓練コーパスの空間的に導出される特徴に基づいて、マルチスクリプト手書き認識モデルを訓練することであって、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを訓練することと、
前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含む動作を実行させることを特徴とする、非一時的コンピュータ可読媒体。 - 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項1から11での方法のいずれかを実行させることを特徴とする、非一時的コンピュータ可読媒体。
- システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、
マルチスクリプト訓練コーパスの空間的に導出される特徴に基づいて、マルチスクリプト手書き認識モデルを訓練することであって、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを訓練することと、
前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含む動作を実行させることを特徴とする、システム。 - システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行された時に、前記プロセッサに、請求項1から11での方法のいずれかを実行させることを特徴とする、システム。 - マルチスクリプト手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するユーザデバイスで、
マルチスクリプト手書き認識モデルを受信することであって、前記マルチスクリプト認識モデルが、マルチスクリプト訓練コーパスの空間的に導出される特徴について訓練されており、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを受信することと、
ユーザから手書き入力を受信することであって、前記手書き入力が、前記ユーザデバイスに結合されたタッチ感知面上に提供される、1つ以上の手書きストロークを含む、手書き入力を受信することと、
前記手書き入力の受信に応じて、前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルに基づいて、1つ以上の手書き認識結果を、前記ユーザにリアルタイムで提供することと、
を含むことを特徴とする、方法。 - 前記ユーザにリアルタイムの手書き認識結果を提供することが、
前記ユーザの手書き入力を、1つ以上の認識単位へと分割することであって、各認識単位が、前記ユーザによって提供された前記手書きストロークのうちの1つ以上を含む、1つ以上の認識単位へと分割することと、
前記1つ以上の認識単位のそれぞれの対応の画像を、前記マルチスクリプト手書き認識モデルに、入力として提供することと、
前記1つ以上の認識単位のうちの少なくとも1つに関して、前記マルチスクリプト手書き認識モデルから、第1のスクリプトからの少なくとも第1の出力文字、及び、前記第1のスクリプトとは異なる第2のスクリプトからの少なくとも第2の出力文字を取得することと、
を更に含むことを特徴とする、請求項17に記載の方法。 - 前記ユーザにリアルタイムの手書き認識結果を提供することが、
前記ユーザデバイスの手書き入力インタフェースの候補表示区域内に、前記第1の出力文字及び前記第2の出力文字の双方を表示することを更に含むことを特徴とする、請求項18に記載の方法。 - 前記ユーザにリアルタイムの手書き認識結果を提供することが、
前記第1のスクリプト又は前記第2のスクリプトのうちのいずれの一方が、前記ユーザデバイス上に現在インストールされているソフトキーボードで使用される対応のスクリプトであるかに基づいて、前記第1の出力文字及び前記第2の出力文字のうちの一方を選択的に表示することを更に含むことを特徴とする、請求項18に記載の方法。 - ユーザの手書き入力に関する、リアルタイム手書き認識を提供することが、
前記ユーザによる前記手書き入力に対する継続的な追加又は訂正に応じて、前記ユーザの手書き入力に関する1つ以上の認識結果を、継続的に訂正することと、
前記1つ以上の認識結果の各訂正に応じて、前記それぞれの訂正された1つ以上の認識結果を、前記手書き入力ユーザインタフェースの候補表示区域内で、前記ユーザに対して表示することと、
を更に含むことを特徴とする、請求項17に記載の方法。 - 前記少なくとも3つの非重複スクリプトが、中国文字、絵文字、及びラテンスクリプトを含むことを特徴とする、請求項17に記載の方法。
- 前記少なくとも3つの非重複スクリプトが、中国文字、アラビア語スクリプト、及びラテンスクリプトを含むことを特徴とする、請求項17に記載の方法。
- 前記マルチスクリプト手書き認識モデルが、単一の入力面及び単一の出力面を有する、単一の畳み込みニューラルネットワークであり、前記マルチスクリプト訓練コーパス内に表される、前記少なくとも3つの非重複スクリプトの文字を区別するための、空間的に導出される特徴、及び前記空間的に導出される特徴に関するそれぞれの重みを含むことを特徴とする、請求項17に記載の方法。
- 前記マルチスクリプト手書き認識モデルが、少なくとも3つの非重複スクリプトにわたる少なくとも3万個の文字を表す、少なくとも3万個の出力クラスを有することを特徴とする、請求項17に記載の方法。
- 前記マルチスクリプト手書き認識モデルが、前記手書き入力内で特定された1つ以上の認識単位の、それぞれの入力画像に基づいて、文字を認識するように構成され、認識のために使用される、それぞれの空間的に導出される特徴は、前記手書き入力内での、それぞれのストローク順序、ストローク方向、及びストロークの連続性とは無関係であることを特徴とする、請求項17に記載の方法。
- 請求項17から26に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、
マルチスクリプト手書き認識モデルを受信することであって、前記マルチスクリプト認識モデルが、マルチスクリプト訓練コーパスの空間的に導出される特徴について訓練されており、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを受信することと、
ユーザから手書き入力を受信することであって、前記手書き入力が、前記ユーザデバイスに結合されたタッチ感知面上に提供される、1つ以上の手書きストロークを含む、手書き入力を受信することと、
前記手書き入力の受信に応じて、前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルに基づいて、1つ以上の手書き認識結果を、前記ユーザにリアルタイムで提供することと、
を含む動作を実行させることを特徴とする、非一時的コンピュータ可読媒体。 - 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項17から26に記載の方法のいずれかを実行させることを特徴とする、非一時的コンピュータ可読媒体。
- システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、
マルチスクリプト手書き認識モデルを受信することであって、前記マルチスクリプト認識モデルが、マルチスクリプト訓練コーパスの空間的に導出される特徴について訓練されており、前記マルチスクリプト訓練コーパスが、少なくとも3つの非重複スクリプトの文字に対応する、それぞれの手書きサンプルを含む、マルチスクリプト手書き認識モデルを受信することと、
ユーザから手書き入力を受信することであって、前記手書き入力が、前記ユーザデバイスに結合されたタッチ感知面上に提供される、1つ以上の手書きストロークを含む、手書き入力を受信することと、
前記手書き入力の受信に応じて、前記マルチスクリプト訓練コーパスの前記空間的に導出される特徴について訓練されている、前記マルチスクリプト手書き認識モデルに基づいて、1つ以上の手書き認識結果を、前記ユーザにリアルタイムで提供することと、
を含む動作を実行させることを特徴とする、システム。 - システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項17から26に記載の方法のいずれかを実行させることを特徴とする、システム。 - リアルタイム手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
ユーザから複数の手書きストロークを受信することであって、前記複数の手書きストロークが、1つの手書き文字に対応する、手書きストロークを受信することと、
前記複数の手書きストロークに基づいて、入力画像を生成することと、
前記手書き文字のリアルタイム認識を実行するために、手書き認識モデルに前記入力画像を提供することであって、前記手書き認識モデルが、ストローク順序非依存式の手書き認識を提供する、前記入力画像を提供することと、
前記ユーザから受信された前記複数の手書きストロークの、それぞれの順序に関わりなく、前記複数の手書きストロークを受信するリアルタイムで、同一の第1の出力文字を表示することと、
を含むことを特徴とする、方法。 - 前記手書き認識モデルが、ストローク方向非依存式の手書き認識を提供し、前記同一の第1の出力文字を表示することが、
前記複数の手書きストロークの受信に応じて、前記ユーザによって提供された前記複数の手書きストロークのそれぞれの、それぞれのストローク方向に関わりなく、前記同一の第1の出力文字を表示することを更に含むことを特徴とする、請求項32に記載の方法。 - 前記手書き認識モデルが、ストローク数非依存式の手書き認識を提供し、前記同一の第1の出力文字を表示することが、
前記複数の手書きストロークの受信に応じて、幾つの手書きストロークが、前記入力画像内の継続的ストロークを形成するために使用されるかに関わりなく、前記同一の第1の出力文字を表示することを更に含むことを特徴とする、請求項32に記載の方法。 - ストローク順序非依存式の手書き認識が、前記手書き文字内の個別のストロークに関連付けられる時間的情報とは、無関係に実行されることを特徴とする、請求項32に記載の方法。
- 前記ユーザから第2の複数の手書きストロークを受信することであって、前記第2の複数の手書きストロークが、第2の手書き文字に対応する、第2の複数の手書きストロークを受信することと、
前記第2の複数の手書きストロークに基づいて、第2の入力画像を生成することと、前記第2の手書き文字のリアルタイム認識を実行するために、前記手書き認識モデルに、前記第2の入力画像を提供することと、
前記第2の複数の手書きストロークを受信するリアルタイムで、前記第2の複数の手書きストロークに対応する第2の出力文字を表示することであって、前記第1の出力文字と前記第2の出力文字とが、前記ユーザによって提供された、前記第1の複数の手書き入力及び前記第2の複数の手書き入力のそれぞれの順序とは無関係な、空間的配列で同時に表示される、第2の出力文字を表示することと、
を更に含むことを特徴とする、請求項32に記載の方法。 - 前記第1の出力文字及び前記第2の出力文字の前記空間的配列が、前記ユーザデバイスの手書き入力インタフェースの、デフォルトの書き込み方向に沿った、前記第1の複数の手書きストローク及び前記第2の複数のストロークの、空間的分布に対応することを特徴とする、請求項36に記載の方法。
- 前記第1の手書き文字が、第1の手書き文の一部として、前記ユーザによって提供され、前記第2の手書き文字が、第2の手書き文の一部として、前記ユーザによって提供され、前記第1の手書き文及び前記第2の手書き文が、前記ユーザデバイスの手書き入力区域内に、同時に表示されることを特徴とする、請求項36に記載の方法。
- 前記第2の複数の手書きストロークが、前記第1の複数の手書きストロークよりも時間的に後に受信され、前記第2の出力文字が、前記ユーザデバイスの手書き入力インタフェースの、デフォルトの書き込み方向に沿った空間的配列で、前記第1の出力文字に先行することを特徴とする、請求項36に記載の方法。
- 前記第2の複数の手書きストロークが、前記ユーザデバイスの手書き入力インタフェースの、デフォルトの書き込み方向に沿って、前記第1の複数の手書きストロークを空間的に追従し、前記第2の出力文字が、前記デフォルトの書き込み方向に沿った空間的配列で、前記第1の出力文字を追従し、前記方法が、
前記手書き文字を訂正するために、前記ユーザから第3の手書きストロークを受信することであって、前記第3の手書きストロークが、前記第1の複数の手書きストローク及び前記第2の複数の手書きストロークよりも時間的に後に受信される、第3の手書きストロークを受信することと、
前記第3の手書きストロークの受信に応じて、前記第3の手書きストロークの、前記第1の複数の手書きストロークへの相対的な近接性に基づいて、前記第1の複数の手書きストロークと同じ認識単位に、前記第3の手書きストロークを割り当てることと、
前記第1の複数の手書きストローク及び前記第3の手書きストロークに基づいて、訂正された入力画像を生成することと、
前記訂正された手書き文字のリアルタイム認識を実行するために、前記訂正された入力画像を、前記手書き認識モデルに提供することと、
前記第3の手書き入力の受信に応じて、前記訂正された入力画像に対応する第3の出力文字を表示することであって、前記第3の出力文字が、前記第1の出力文字に置き換わり、前記デフォルトの書き込み方向に沿った前記空間的配列で、前記第2の出力文字と同時に表示される、第3の出力文字を表示することと、
を更に含むことを特徴とする、請求項36に記載の方法。 - 前記第3の出力文字及び前記第2の出力文字が、前記手書き入力インタフェースの候補表示区域内に、認識結果として同時に表示されている間に、前記ユーザから削除入力を受信することと、
前記削除入力に応じて、前記認識結果から前記第2の出力文字を削除する一方で、前記第3の出力文字を、前記認識結果内に維持することと、
を更に含むことを特徴とする、請求項40に記載の方法。 - 前記手書き入力インタフェースの前記手書き入力区域内に、前記第1の複数の手書きストローク、前記第2の複数の手書きストローク、及び前記第3の手書きストロークを、前記手書きストロークのそれぞれが前記ユーザによって提供される際にリアルタイムでレンダリングすることと、
前記削除入力の受信に応じて、前記手書き入力区域から、前記第2の複数の手書きストロークの、それぞれのレンダリングを削除する一方で、前記第1の複数の手書きストローク及び前記第3の手書きストロークの、それぞれのレンダリングを、前記手書き入力区域内に維持することと、
を更に含むことを特徴とする、請求項41に記載の方法。 - 前記手書き文字が、複数ストロークの中国文字であることを特徴とする、請求項32に記載の方法。
- 前記第1の複数の手書きストロークが、筆写体の書体で提供されることを特徴とする、請求項32に記載の方法。
- 前記第1の複数の手書きストロークが、筆写体の書体で提供され、前記手書き文字が、複数ストロークの中国文字であることを特徴とする、請求項32に記載の方法。
- 手書き文字入力に関する容認可能な寸法のセットについての、それぞれの既定の制約を確立することと、
現時点で蓄積されている複数の手書きストロークを、前記それぞれの既定の制約に基づいて、複数の認識単位へと分割することであって、前記認識単位のそれぞれから、それぞれの入力画像が生成され、前記手書き認識モデルに提供され、対応する出力文字として認識される、複数の認識単位へと分割することと、
を更に含むことを特徴とする、請求項40に記載の方法。 - 前記現時点で蓄積されている複数の手書きストロークを、前記複数の認識単位へと分割した後、前記ユーザから更なる手書きストロークを受信することと、
前記複数の認識単位に対する、前記更なる手書きストロークの空間的位置に基づいて、前記複数の認識単位のうちのそれぞれ1つに、前記更なる手書きストロークを割り当てることと、
を更に含むことを特徴とする、請求項46に記載の方法。 - 請求項32から47に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、
ユーザから複数の手書きストロークを受信することであって、前記複数の手書きストロークが、1つの手書き文字に対応する、複数の手書きストロークを受信することと、
前記複数の手書きストロークに基づいて、入力画像を生成することと、
前記手書き文字のリアルタイム認識を実行するために、手書き認識モデルに前記入力画像を提供することであって、前記手書き認識モデルが、ストローク順序非依存式の手書き認識を提供する、前記入力画像を提供することと、
前記ユーザから受信された前記複数の手書きストロークの、それぞれの順序に関わりなく、前記複数の手書きストロークを受信するリアルタイムで、同一の第1の出力文字を表示することと、
を含む動作を実行させることを特徴とする、非一時的コンピュータ可読媒体。 - 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項32から47に記載の方法のいずれかを実行させることを特徴とする、非一時的コンピュータ可読媒体。
- システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、
ユーザから複数の手書きストロークを受信することであって、前記複数の手書きストロークが、1つの手書き文字に対応する、複数の手書きストロークを受信することと、
前記複数の手書きストロークに基づいて、入力画像を生成することと、前記手書き文字のリアルタイム認識を実行するために、手書き認識モデルに前記入力画像を提供することであって、前記手書き認識モデルが、ストローク順序非依存式の手書き認識を提供する、前記入力画像を提供することと、
前記ユーザから受信された前記複数の手書きストロークの、それぞれの順序に関わりなく、前記複数の手書きストロークを受信するリアルタイムで、同一の第1の出力文字を表示することと、
を含む動作を実行させることを特徴とする、システム。 - システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項32から47に記載の方法のいずれかを実行させることを特徴とする、システム。 - リアルタイム手書き認識を提供する方法であって、1つ以上のプロセッサ及びメモリを有するデバイスで、
ユーザから手書き入力を受信することであって、前記手書き入力が、手書き入力インタフェースの手書き入力区域内に提供される、1つ以上の手書きストロークを含む、手書き入力を受信することと、
手書き認識モデルに基づいて、前記手書き入力に関する複数の出力文字を特定することと、
既定のカテゴリ化基準に基づいて、前記複数の出力文字を、2つ以上のカテゴリへと分類することと、
前記手書き入力インタフェースの候補表示区域の初期ビュー内に、前記2つ以上のカテゴリのうちの第1のカテゴリ内の、それぞれの出力文字を表示することであって、前記候補表示区域の前記初期ビューが、前記候補表示区域の拡張ビューを呼び出すためのアフォーダンスと同時に提供される、それぞれの出力文字を表示することと、
前記拡張ビューを呼び出すための前記アフォーダンスを選択する、ユーザ入力を受信することと、
前記ユーザ入力に応じて、前記候補表示区域の前記拡張ビュー内に、前記第1のカテゴリ内の前記それぞれの出力文字、及び、前記候補表示区域の前記初期ビュー内には従前に表示されていなかった、前記2つ以上のカテゴリのうちの少なくとも第2のカテゴリ内の、それぞれの出力文字を表示することと、
を含むことを特徴とする、方法。 - 前記既定のカテゴリ化基準が、それぞれの文字が一般的に使用される文字であるか、又は低頻度の文字であるかを判定することを特徴とする、請求項53に記載の方法。
- 前記第1のカテゴリ内の前記それぞれの文字が、一般的に使用される文字の辞書内に見出される文字であり、前記第2のカテゴリ内の前記それぞれの文字が、低頻度の文字の辞書内に見出される文字であることを特徴とする、請求項53に記載の方法。
- 前記一般的に使用される文字の辞書、及び前記低頻度の文字の辞書が、前記デバイスに関連付けられる使用履歴に基づいて、動的に調節されることを特徴とする、請求項55に記載の方法。
- 前記複数の出力文字から、既定の類似性基準に従って、互いに視覚的に類似する文字のグループを特定することと、
前記視覚的に類似する文字のグループから、既定の選択基準に基づいて、代表的文字を選択することと、
前記候補表示区域の前記初期ビュー内に、前記代表的文字を、前記視覚的に類似する文字のグループ内の他の文字の代わりに表示することと、
を更に含むことを特徴とする、請求項53に記載の方法。 - 前記候補表示区域の前記初期ビュー内に表示された前記代表的文字を対象とする、既定の拡大入力を、前記ユーザから受信することと、
前記既定の拡大入力の受信に応じて、前記代表的文字の拡大されたビューと、前記視覚的に類似する文字のグループ内の1つ以上の他の文字の、それぞれの拡大されたビューとを、同時に表示することと、
を更に含むことを特徴とする、請求項57に記載の方法。 - 前記既定の拡大入力が、前記候補表示区域内に表示された前記代表的文字の上で検出される、拡大ジェスチャを含むことを特徴とする、請求項58に記載の方法。
- 前記既定の拡大入力が、前記候補表示区域内に表示された前記代表的文字の上で検出され、既定の閾値時間よりも長く持続される、接触を含むことを特徴とする、請求項58に記載の方法。
- 前記既定の選択基準が、前記グループ内での、前記文字の相対的な使用頻度に基づくことを特徴とする、請求項57に記載の方法。
- 前記既定の選択基準が、前記デバイスに関連付けられる、好ましい入力言語に基づくことを特徴とする、請求項57に記載の方法。
- 請求項53から62に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- リアルタイム手書き認識を提供する方法であって、1つ以上のプロセッサ及びメモリを有するデバイスで、
ユーザから手書き入力を受信することであって、前記手書き入力が、手書き入力インタフェースの手書き入力区域内に提供される、複数の手書きストロークを含む、手書き入力を受信することと、
手書き認識モデルに基づいて、前記手書き入力から複数の出力文字を認識することであって、前記出力文字が、少なくとも第1の絵文字、及び自然人間言語のスクリプトからの少なくとも第1の文字を含む、複数の出力文字を認識することと、
前記第1の絵文字と前記自然人間言語の前記スクリプトからの前記第1の文字とを含む認識結果を、前記手書き入力インタフェースの候補表示区域内に表示することと、
を含むことを特徴とする、方法。 - 前記手書き認識モデルに基づいて、前記手書き入力から、少なくとも第1の意味的単位を認識することであって、前記第1の意味的単位が、それぞれの人間言語での、それぞれの意味論的意味を伝達することが可能な、それぞれの文字、語、又は語句を含む、少なくとも第1の意味的単位を認識することと、
前記手書き入力から認識された前記第1の意味的単位に関連付けられる、第2の絵文字を特定することと、
前記手書き入力インタフェースの前記候補表示区域内に、前記第1の意味的単位から特定された前記第2の絵文字を少なくとも含む、第2の認識結果を表示することと、
を更に含むことを特徴とする、請求項64に記載の方法。 - 前記第2の認識結果を表示することが、
少なくとも前記第1の意味的単位を含む第3の認識結果と同時に、前記第2の認識結果を表示することを更に含むことを特徴とする、請求項65に記載の方法。 - 前記候補表示区域内に表示された前記第1の認識結果を選択する、ユーザ入力を受信することと、
前記ユーザ入力に応じて、前記手書き入力インタフェースのテキスト入力区域内に、前記選択された第1の認識結果のテキストを入力することであって、前記テキストが、少なくとも、前記第1の絵文字、及び前記自然人間言語の前記スクリプトからの前記第1の文字を含む、第1の認識結果のテキストを入力することと、
を更に含むことを特徴とする、請求項64に記載の方法。 - 前記手書き認識モデルが、少なくとも3つの非重複スクリプトの文字に対応する書き込みサンプルを含む、マルチスクリプト訓練コーパスについて訓練されており、前記3つの非重複スクリプトが、絵文字、中国文字、及びラテンスクリプトのセットを含むことを特徴とする、請求項64に記載の方法。
- 前記手書き入力から認識された前記第1の絵文字に対応する、第2の意味的単位を特定することと、
前記手書き入力インタフェースの前記候補表示区域内に、前記第1の絵文字から特定された前記第2の意味的単位を少なくとも含む、第4の認識結果を表示することと、
を更に含むことを特徴とする、請求項64に記載の方法。 - 前記第4の認識結果を表示することが、
前記候補表示区域内に、前記第1の認識結果と同時に、前記第4の認識結果を表示することを更に含むことを特徴とする、請求項69に記載の方法。 - 請求項64から70に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
前記デバイスに結合されたタッチ感知面内に提供される複数の手書きストロークを含む手書き入力をユーザから受信することと、
手書き入力インタフェースの手書き入力区域内に、前記複数の手書きストロークをリアルタイムでレンダリングすることと、
前記複数の手書きストロークの上での、ピンチジェスチャ入力と拡大ジェスチャ入力とのうちの一方を受信することと、
ピンチジェスチャ入力の受信に際して、前記複数の手書きストロークを単一の認識単位として処理することによって、前記複数の手書きストロークに基づいた第1の認識結果を生成することと、
拡大ジェスチャ入力の受信に際して、前記複数の手書きストロークを前記拡大ジェスチャ入力によって引き離された2つの別個の認識単位として処理することによって、前記複数の手書きストロークに基づいた第2の認識結果を生成することと、
前記第1の認識結果と前記第2の認識結果とのうちのそれぞれの一方の生成に際して、前記生成された認識結果を前記手書き入力インタフェースの候補表示区域内に表示することと、
を含むことを特徴とする、方法。 - 前記ピンチジェスチャ入力が、前記複数の手書きストロークによって占有される区域内で互いに向けて収束する、前記タッチ感知面上での2つの接触を含むことを特徴とする、請求項72に記載の方法。
- 前記拡大ジェスチャ入力が、前記複数の手書きストロークによって占有される区域内で互いに分散する、前記タッチ感知面上での2つの接触を含むことを特徴とする、請求項72に記載の方法。
- 前記複数の手書きストロークから2つの隣接する認識単位を特定することと、
前記候補表示区域内に、前記2つの隣接する認識単位から認識されたそれぞれの文字を含む初期の認識結果を表示することと、
前記初期の認識結果が前記候補表示区域内に表示されている間に、前記ピンチジェスチャ入力を受信することと、
を更に含むことを特徴とする、請求項72に記載の方法。 - 前記第1の認識結果を表示することが、前記候補表示区域内で、前記初期の認識結果を前記第1の認識結果で置き換えることを更に含むことを特徴とする、請求項75に記載の方法。
- 前記ピンチジェスチャ入力に応じて、前記手書き入力区域内の前記2つの隣接する認識単位間の距離を低減するように、前記複数の手書きストロークを再レンダリングすることを更に含むことを特徴とする、請求項75に記載の方法。
- 前記複数の手書きストロークから単一の認識単位を特定することと、
前記候補表示区域内に、前記単一の認識単位から認識された文字を含む初期の認識結果を表示することと、
前記初期の認識結果が前記候補表示区域内に表示されている間に、前記拡大ジェスチャ入力を受信することと、
を更に含むことを特徴とする、請求項72に記載の方法。 - 前記第2の認識結果を表示することが、前記候補表示区域内で、前記初期の認識結果を前記第2の認識結果で置き換えることを更に含むことを特徴とする、請求項78に記載の方法。
- 前記拡大ジェスチャ入力に応じて、前記手書き入力区域内の、第1の認識単位に割り当てられた第1のストロークのサブセットと、第2の認識単位に割り当てられた第2の手書きストロークのサブセットとの距離を増大させるように、前記複数の手書きストロークを再レンダリングすることを更に含むことを特徴とする、請求項79に記載の方法。
- 請求項72から80に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 手書き認識を提供する方法であって、
ユーザから手書き入力を受信することであって、前記手書き入力が、手書き入力インタフェースの手書き入力区域内に提供される、複数の手書きストロークを含む、手書き入力を受信することと、
前記複数の手書きストロークから、複数の認識単位を特定することであって、各認識単位が、前記複数の手書きストロークのうちの対応のサブセットを含む、複数の認識単位を特定することと、
前記複数の認識単位から認識されたそれぞれの文字を含む、複数文字の認識結果を生成することと、
前記複数文字の認識結果を、前記手書き入力インタフェースの候補表示区域内に表示することと、
前記複数文字の認識結果が前記候補表示区域内に表示されている間に、前記ユーザから削除入力を受信することと、
前記削除入力の受信に応じて、前記候補表示区域内に表示された前記複数文字の認識結果から、最後の文字を除去することと、
を含むことを特徴とする、方法。 - 前記複数の手書きストロークが前記ユーザによって提供される際に、前記手書き入力インタフェースの前記手書き入力区域内に、前記複数の手書きストロークをリアルタイムでレンダリングすることと、
前記削除入力の受信に応じて、前記手書き入力区域から、前記手書き入力区域内の、前記複数の認識単位によって形成された空間的配列内の、最後の認識単位に対応する、前記複数の手書きストロークのうちの前記対応のサブセットを除去することであって、前記最後の認識単位が、前記複数文字の認識結果内の、前記最後の文字に対応する、前記対応のサブセットを除去することと、
を更に含むを特徴とする、請求項82に記載の方法。 - 前記最後の認識単位が、前記ユーザによって提供された前記複数の手書きストロークの中の、時間的に最後の手書きストロークを含まないことを特徴とする、請求項83に記載の方法。
- 前記削除入力の初期部分の受信に応じて、前記最後の認識単位を、前記手書き入力区域内で特定された他の認識単位から、視覚的に識別することを更に含むことを特徴とする、請求項83に記載の方法。
- 前記削除入力の前記初期部分が、前記手書き入力インタフェース内の削除ボタン上で検出される、初期の接触であり、前記初期の接触が、既定の閾値時間量を超えて持続される場合に、前記削除入力が検出されることを特徴とする、請求項85に記載の方法。
- 前記最後の認識単位が、手書き中国文字に対応することを特徴とする、請求項83に記載の方法。
- 前記手書き入力が、筆写体の書体で書き込まれることを特徴とする、請求項83に記載の方法。
- 前記手書き入力が、筆写体の書体で書き込まれた、複数の中国文字に対応することを特徴とする、請求項83に記載の方法。
- 前記手書きストロークのうちの少なくとも1つが、前記複数の認識単位のうちの、2つの隣接する認識単位へと分離されることを特徴とする、請求項83に記載の方法。
- 前記削除入力が、前記手書き入力インタフェース内に提供される削除ボタン上での持続的接触であり、前記複数の手書きストロークのうちの前記対応のサブセットを除去することが、
前記最後の認識単位内の前記手書きストロークのサブセットを、前記手書きストロークのサブセットが前記ユーザによって提供された逆の時間的順序で、前記手書き入力区域から、ストローク単位で除去することを更に含むことを特徴とする、請求項83に記載の方法。 - 前記複数の認識単位から認識された前記それぞれの文字のサブセットを含む、部分的認識結果を生成することであって、前記それぞれの文字の前記サブセットのそれぞれが、既定の信頼度閾値を満たす、部分的認識結果を生成することと、
前記手書き入力インタフェースの前記候補表示区域内に、前記部分的認識結果を、前記複数文字の認識結果と同時に表示することと、
を更に含むことを特徴とする、請求項82に記載の方法。 - 前記部分的認識結果が、複数文字の認識結果内の、少なくとも前記最後の文字を含まないことを特徴とする、請求項92に記載の方法。
- 前記部分的認識結果が、複数文字の認識結果内の、少なくとも最初の文字を含まないことを特徴とする、請求項92に記載の方法。
- 前記部分的認識結果が、複数文字の認識結果内の、少なくとも中間の文字を含まないことを特徴とする、請求項92に記載の方法。
- 請求項82から95に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- リアルタイム手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
前記デバイスの向きを判定することと、
前記デバイスが第1の向きにあることに従って、前記デバイス上に、手書き入力インタフェースを、水平入力モードで提供することであって、前記水平入力モードで入力される手書き入力のそれぞれの行が、水平の書き込み方向に沿って、1つ以上のそれぞれの認識単位へと分割される、水平入力モードで提供することと、
前記デバイスが第2の向きにあることに従って、前記デバイス上に、前記手書き入力インタフェースを、垂直入力モードで提供することであって、前記垂直入力モードで入力される手書き入力のそれぞれの行が、垂直の書き込み方向に沿って、1つ以上のそれぞれの認識単位へと分割される、垂直入力モードで提供することと、
を含むことを特徴とする、方法。 - 前記水平入力モードで動作している間に、
前記第1の向きから前記第2の向きへの、デバイスの向きの変化を検出することと、
前記デバイスの向きの変化に応じて、前記水平入力モードから前記垂直入力モードに切り替えることと、
を更に含むことを特徴とする、請求項97に記載の方法。 - 前記垂直入力モードで動作している間に、
前記第2の向きから前記第1の向きへの、デバイスの向きの変化を検出することと、
前記デバイスの向きの変化に応じて、前記垂直入力モードから前記水平入力モードに切り替えることと、
を更に含むことを特徴とする、請求項97に記載の方法。 - 前記水平入力モードで動作している間に、
前記ユーザから、第1の複数語の手書き入力を受信することと、
前記第1の複数語の手書き入力に応じて、前記手書き入力インタフェースの候補表示区域内に、前記水平の書き込み方向に従って、第1の複数語の認識結果を提示することと、
前記垂直入力モードで動作している間に、
前記ユーザから、第2の複数語の手書き入力を受信することと、
前記第2の複数語の手書き入力に応じて、前記候補表示区域内に、前記垂直の書き込み方向に従って、第2の複数語の認識結果を提示することと、
を更に含むことを特徴とする、請求項97に記載の方法。 - 前記第1の複数語の認識結果を選択する、第1のユーザ入力を受信することと、
前記第2の複数語の認識結果を選択する、第2のユーザ入力を受信することと、
前記手書き入力インタフェースのテキスト入力区域内に、前記第1の複数語の認識結果及び前記第2の複数語の認識結果の、対応のテキストを同時に表示することであって、前記第1の複数語の認識結果の前記対応のテキストが、前記水平の書き込み方向に従って表示され、前記第2の複数語の認識結果の前記対応のテキストが、前記垂直の書き込み方向に従って表示される、対応のテキストを同時に表示することと、
を更に含むことを特徴とする、請求項100に記載の方法。 - 前記手書き入力区域が、前記水平の書き込み方向で複数行の手書き入力を受け入れ、デフォルトの上から下へのパラグラフ方向を有することを特徴とする、請求項97に記載の方法。
- 前記水平の書き込み方向が、左から右であることを特徴とする、請求項97に記載の方法。
- 前記水平の書き込み方向が、右から左であることを特徴とする、請求項97に記載の方法。
- 前記手書き入力区域が、前記垂直の書き込み方向で複数行の手書き入力を受け入れ、デフォルトの左から右へのパラグラフ方向を有することを特徴とする、請求項97に記載の方法。
- 前記手書き入力区域が、前記垂直の書き込み方向で複数行の手書き入力を受け入れ、デフォルトの右から左へのパラグラフ方向を有することを特徴とする、請求項97に記載の方法。
- 前記垂直の書き込み方向が、上から下であることを特徴とする、請求項97に記載の方法。
- 前記第1の向きが、デフォルトで横表示の向きであり、前記第2の向きが、デフォルトで縦表示の向きであることを特徴とする、請求項97に記載の方法。
- 前記デバイスの向きに関わりなく、前記水平入力モードと前記垂直入力モードとを手動で切り替えるために、前記手書き入力インタフェース内に、対応のアフォーダンスを提供することを更に含むことを特徴とする、請求項97に記載の方法。
- 2つの代替的な書き込み方向を手動で切り替えるために、前記手書き入力インタフェース内に、対応のアフォーダンスを提供することを更に含むことを特徴とする、請求項97に記載の方法。
- 2つの代替的なパラグラフ方向を手動で切り替えるために、前記手書き入力インタフェース内に、対応のアフォーダンスを提供することを更に含むことを特徴とする、請求項97に記載の方法。
- ユーザから手書き入力を受信することであって、前記手書き入力が、前記手書き入力インタフェースの前記手書き入力区域内に提供される、複数の手書きストロークを含む、手書き入力を受信することと、
前記手書き入力に応じて、前記手書き入力インタフェースの候補表示区域内に、1つ以上の認識結果を表示することと、
前記1つ以上の認識結果が、前記候補表示区域内に表示されている間に、現在の手書き入力モードから代替の手書き入力モードに切り替えるための、ユーザ入力を検出することと、
前記ユーザ入力に応じて、
前記現在の手書き入力モードから前記代替の手書き入力モードに切り替えることと、
前記手書き入力区域内から、前記手書き入力を消去することと、
前記候補表示区域内に表示された前記1つ以上の認識結果のうちの、最上ランクの認識結果を、前記手書き入力インタフェースのテキスト入力区域内に、自動的に入力することと、
を更に含むことを特徴とする、請求項97に記載の方法。 - 前記ユーザ入力が、現在の向きから、異なる向きへの、前記デバイスの回転であることを特徴とする、請求項112に記載の方法。
- 前記ユーザ入力が、前記現在の手書き入力モードを、前記代替の手書き入力モードに手動で切り替えるための、アフォーダンスの呼び出しであることを特徴とする、請求項112に記載の方法。
- 請求項97から114に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- リアルタイム手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
ユーザから手書き入力を受信することであって、前記手書き入力が、前記デバイスに結合されたタッチ感知面上に提供される、複数の手書きストロークを含む、手書き入力を受信することと、
手書き入力インタフェースの手書き入力区域内に、前記複数の手書きストロークをレンダリングすることと、
前記複数の手書きストロークを、2つ以上の認識単位へと分割することであって、各認識単位が、前記複数の手書きストロークのうちの対応のサブセットを含む、2つ以上の認識単位へと分割することと、
前記ユーザから編集リクエストを受信することと、
前記編集リクエストに応じて、前記手書き入力区域内の前記2つ以上の認識単位を、視覚的に識別することと、
前記手書き入力区域から、前記2つ以上の認識単位のうちのそれぞれを、個別に削除する手段を提供することと、
を含むことを特徴とする、方法。 - 前記2つ以上の認識単位のうちのそれぞれを、個別に削除するための前記手段が、前記各認識単位の近位に表示される、それぞれの削除ボタンであることを特徴とする、請求項116に記載の方法。
- 前記2つ以上の認識単位のうちのそれぞれを、個別に削除するための前記手段が、前記各認識単位の上での、既定の削除ジェスチャ入力を検出する手段であることを特徴とする、請求項116に記載の方法。
- 前記2つ以上の認識単位を視覚的に識別することが、前記手書き入力区域内の前記2つ以上の認識単位間の、それぞれの境界線を強調表示することを更に含むことを特徴とする、請求項116に記載の方法。
- 前記編集リクエストが、前記手書き入力インタフェース内に提供された、既定のアフォーダンスの上で検出される、接触であることを特徴とする、請求項116に記載の方法。
- 前記編集リクエストが、前記手書き入力インタフェース内の既定の区域の上で検出される、タップジェスチャであることを特徴とする、請求項116に記載の方法。
- 前記既定の区域が、前記手書き入力インタフェースの前記手書き入力区域内に存在することを特徴とする、請求項121に記載の方法。
- 前記既定の区域が、前記手書き入力インタフェースの前記手書き入力区域の外側に存在することを特徴とする、請求項121に記載の方法。
- 前記2つ以上の認識単位のうちの第1の認識単位を、前記手書き入力区域から個別に削除するための削除入力を、前記ユーザから、前記提供された手段を通じて受信することと、
前記削除入力に応じて、前記手書き入力区域から、前記第1の認識単位内の、前記手書きストロークのうちの対応のサブセットを除去することと、
を更に含むことを特徴とする、請求項116に記載の方法。 - 前記第1の認識単位が、前記2つ以上の認識単位内の、空間的に最初の認識単位であることを特徴とする、請求項124に記載の方法。
- 前記第1の認識単位が、前記2つ以上の認識単位の中の、空間的に中間の認識単位であることを特徴とする、請求項124に記載の方法。
- 前記複数の手書きストロークから、分割束を生成することであって、前記分割束が、それぞれが前記複数の手書きストロークから特定される対応の認識単位のセットを表す、複数の代替的な分割鎖を含む、分割束を生成することと、
前記ユーザから、2つ以上の連続的編集リクエストを受信することと、
前記2つ以上の連続的編集リクエストのそれぞれに応じて、前記手書き入力区域内で、前記複数の代替的な分割鎖のうちの異なる1つからの、前記対応の認識単位のセットを、視覚的に識別することと、
前記手書き入力区域内に現在表されている、前記対応の認識単位のセットのそれぞれを、個別に削除する手段を提供することと、
を更に含むことを特徴とする、請求項124に記載の方法。 - 請求項116から127に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- リアルタイム手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
ユーザから第1の手書き入力を受信することであって、前記第1の手書き入力が、複数の手書きストロークを含み、前記複数の手書きストロークが、手書き入力インタフェースの手書き入力区域に関連付けられた、それぞれの書き込み方向に沿って分布する、複数の認識単位を形成する、第1の手書き入力を受信することと、
前記手書きストロークが前記ユーザによって提供される際に、前記手書き入力区域内に、前記複数の手書きストロークのそれぞれをレンダリングすることと、
前記認識単位が完全にレンダリングされた後に、前記複数の認識単位のそれぞれに関する、それぞれのフェーディングプロセスを開始することであって、前記それぞれのフェーディングプロセスの間に、前記第1の手書き入力内の前記認識単位の前記レンダリングが、次第にフェードする、それぞれのフェーディングプロセスを開始することと、
前記複数の認識単位のうちのフェードした認識単位によって占有されていた、前記手書き入力区域の領域の上に、前記ユーザから第2の手書き入力を受信することと、
前記第2の手書き入力の受信に応じて、
前記手書き入力区域内に、前記第2の手書き入力をレンダリングすることと、
全てのフェードした認識単位を、前記手書き入力区域から消去することと、
を含むことを特徴とする、方法。 - 前記第1の手書き入力に関する、1つ以上の認識結果を生成することと、
前記手書き入力インタフェースの候補表示区域内に、前記1つ以上の認識結果を表示することと、
前記第2の手書き入力の受信に応じて、前記候補表示区域内に表示された最上ランクの認識結果を、ユーザ選択なしで、前記手書き入力インタフェースのテキスト入力区域内に、自動的に入力することと、
を更に含むことを特徴とする、請求項129に記載の方法。 - 前記第1の手書き入力及び前記第2の手書き入力を含む、入力スタックを記憶することと、
前記第1の手書き入力と前記第2の手書き入力との連結から認識された、対応の空間的な文字の配列をそれぞれが含む、1つ以上の複数文字の認識結果を生成することと、
前記第2の手書き入力の前記レンダリングが、前記手書き入力区域内で、前記第1の手書き入力の前記レンダリングを置き換えている間に、前記手書き入力インタフェースの候補表示区域内に、前記1つ以上の複数文字の認識結果を表示することと、
を更に含むことを特徴とする、請求項129に記載の方法。 - 各認識単位に関する前記それぞれのフェーディングプロセスが、前記認識単位が前記ユーザによって完了された後、既定の期間が経過している場合に開始されることを特徴とする、請求項129に記載の方法。
- 各認識単位に関する前記それぞれのフェーディングプロセスが、前記認識単位の後に、前記ユーザが次の認識単位に関するストロークの入力を開始している場合に開始されることを特徴とする、請求項129に記載の方法。
- 各認識単位に関する前記それぞれのフェーディングプロセスの終了状態が、前記認識単位に関して、既定の最小限の視認性を有する状態であることを特徴とする、請求項129に記載の方法。
- 各認識単位に関する前記それぞれのフェーディングプロセスの終了状態が、前記認識単位に関して、ゼロの視認性を有する状態であることを特徴とする、請求項129に記載の方法。
- 前記第1の手書き入力内の最後の認識単位がフェードした後、前記ユーザから、既定の再生入力を受信することと、
前記既定の再生入力の受信に応じて、前記最後の認識単位を、前記フェード状態から非フェード状態に復帰させることと、
を更に含むことを特徴とする、請求項129に記載の方法。 - 前記既定の再生入力が、前記手書き入力インタフェース内に提供された削除ボタン上で検出される、初期の接触であることを特徴とする、請求項136に記載の方法。
- 前記削除ボタン上で検出される持続的接触が、前記手書き入力区域から前記最後の認識単位を削除し、最後から2番目の認識単位を、前記フェード状態から前記非フェード状態に再生することを特徴とする、請求項136に記載の方法。
- 請求項129から138に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 手書き認識を提供する方法であって、
1つ以上のプロセッサ及びメモリを有するデバイスで、
手書き認識モデルの、空間的に導出される特徴のセットと時間的に導出される特徴のセットとを、別個に訓練することであって、
前記空間的に導出される特徴のセットが、それぞれが出力文字セットのそれぞれの文字に関する手書きサンプルの画像である、訓練画像のコーパスについて訓練され、
前記時間的に導出される特徴のセットが、ストローク分布プロファイルのコーパスについて訓練され、各ストローク分布プロファイルが、前記出力文字セットのそれぞれの文字に関する手書きサンプル内での、複数のストロークの空間的分布を、数値的に特徴付ける、
別個に訓練することと、
前記手書き認識モデル内で、前記空間的に導出される特徴のセットと前記時間的に導出される特徴のセットとを組み合わせることと、
前記手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含むことを特徴とする、方法。 - 前記空間的に導出される特徴のセットを別個に訓練することが、
入力層、出力層、及び複数の畳み込み層を有する、畳み込みニューラルネットワークを訓練することを更に含み、前記複数の畳み込み層が、最初の畳み込み層、最終畳み込み層、前記最初の畳み込み層と前記最終畳み込み層との間の0以上の中間畳み込み層、及び、前記最終畳み込み層と前記出力層との間の隠れ層を含むことを特徴とする、請求項140に記載の方法。 - 前記時間的に導出される特徴のセットを別個に訓練することが、
前記複数のストローク分布プロファイルを統計モデルに提供して、前記出力文字セットの前記それぞれの文字を分類するための、複数の時間的に導出されるパラメータ、及び前記複数の時間的に導出されるパラメータに関するそれぞれの重みを判定することを更に含むことを特徴とする、請求項141に記載の方法。 - 前記手書き認識モデル内で、前記空間的に導出される特徴のセットと前記時間的に導出される特徴のセットとを組み合わせることが、
前記畳み込みニューラルネットワークの、前記畳み込み層のうちの1つ又は前記隠れ層内に、前記複数の空間的に導出されるパラメータ、及び前記複数の時間的に導出されるパラメータを導入することを含むことを特徴とする、請求項142に記載の方法。 - 前記複数の時間的に導出されるパラメータ、及び前記複数の時間的に導出されるパラメータに関するそれぞれの重みが、手書き認識に関する前記畳み込みニューラルネットワークの前記最終畳み込み層内に導入されることを特徴とする、請求項143に記載の方法。
- 前記複数の時間的に導出されるパラメータ、及び前記複数の時間的に導出されるパラメータに関するそれぞれの重みが、前記畳み込み手書き認識の前記隠れ層内に導入されることを特徴とする、請求項143に記載の方法。
- 複数の書き込みサンプルから、前記ストローク分布プロファイルのコーパスを生成することを更に含み、
前記複数の手書きサンプルのそれぞれが、前記出力文字セット内の文字に対応し、前記手書きサンプルの各構成ストロークに関する、前記ストロークが書き込まれた際のそれぞれの空間的情報を、別個に保存し、
前記ストローク分布プロファイルのコーパスを生成することが、
前記複数の手書きサンプルのそれぞれに関して、
前記手書きサンプル内の構成ストロークを特定することと、
前記手書きサンプルの前記特定されたストロークのそれぞれに関して、複数の既定の方向のそれぞれに沿った、それぞれの占有率を算出することであって、占有率が、前記各ストローク方向の投影スパンと、前記書き込みサンプルの最大投影スパンとの比率であることと、
前記手書きサンプルの前記特定されたストロークのそれぞれに関して、前記各ストローク内のそれぞれのピクセル数と、前記書き込みサンプル内の総ピクセル数との比率に基づいて、前記各ストロークに関するそれぞれの飽和率を算出することと、
前記書き込みサンプルの前記ストローク分布プロファイルとして、前記手書きサンプルに関する特徴ベクトルを生成することであって、前記特徴ベクトルが、前記手書きサンプル内の少なくともN個のストロークの、前記それぞれの占有率及び前記それぞれの飽和率を含み、Nが既定の自然数である、特徴ベクトルを生成することと、
を更に含むことを特徴とする、請求項140に記載の方法。 - Nが、前記複数の書き込みサンプル内の、いずれの単一の書き込みサンプル内で観察される最大ストローク数よりも少ないことを特徴とする、請求項146に記載の方法。
- 前記複数の手書きサンプルのそれぞれに関して、
前記既定の方向のそれぞれでの、前記特定されたストロークの前記それぞれの占有率を、降順に並べ替えることと、
N個の上位ランクの占有率及び飽和率の書き込みサンプルのみを、前記書き込みサンプルの前記特徴ベクトル内に含めることと、
を更に含むことを特徴とする、請求項147に記載の方法。 - 前記複数の既定の方向が、前記書き込みサンプルの水平方向、垂直方向、正の45度の方向、及び負の45度の方向を含むことを特徴とする、請求項146に記載の方法。
- 前記手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することが、
前記ユーザの手書き入力を受信することと、
前記ユーザの手書き入力の受信に応じて、手書き認識出力を、前記手書き入力の前記受信と実質的に同時に、前記ユーザに提供することと、
を更に含むことを特徴とする、請求項140に記載の方法。 - 請求項140から150に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、
手書き認識モデルの、空間的に導出される特徴のセットと時間的に導出される特徴のセットとを、別個に訓練することであって、
前記空間的に導出される特徴のセットが、それぞれが出力文字セットのそれぞれの文字に関する手書きサンプルの画像である、訓練画像のコーパスについて訓練され、
前記時間的に導出される特徴のセットが、ストローク分布プロファイルのコーパスについて訓練され、各ストローク分布プロファイルが、前記出力文字セットのそれぞれの文字に関する手書きサンプル内での、複数のストロークの空間的分布を、数値的に特徴付ける、
別個に訓練することと、
前記手書き認識モデル内で、前記空間的に導出される特徴のセットと前記時間的に導出される特徴のセットとを組み合わせることと、
前記手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含む動作を実行させることを特徴とする、非一時的コンピュータ可読媒体。 - 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項140から150に記載の方法のいずれかを実行させることを特徴とする、非一時的コンピュータ可読媒体。
- システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、
手書き認識モデルの、空間的に導出される特徴のセットと時間的に導出される特徴のセットとを、別個に訓練することであって、
前記空間的に導出される特徴のセットが、それぞれが出力文字セットのそれぞれの文字に関する手書きサンプルの画像である、訓練画像のコーパスについて訓練され、
前記時間的に導出される特徴のセットが、ストローク分布プロファイルのコーパスについて訓練され、各ストローク分布プロファイルが、前記出力文字セットのそれぞれの文字に関する手書きサンプル内での、複数のストロークの空間的分布を、数値的に特徴付ける、
別個に訓練することと、
前記手書き認識モデル内で、前記空間的に導出される特徴のセットと前記時間的に導出される特徴のセットとを組み合わせることと、
前記手書き認識モデルを使用して、ユーザの手書き入力に関するリアルタイム手書き認識を提供することと、
を含む動作を実行させることを特徴とする、システム。 - システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項140から150に記載の方法のいずれかを実行させることを特徴とする、システム。 - 請求項1から150に記載の特徴の、いずれかの組み合わせを含むことを特徴とする、方法。
- 記憶された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項1から150に記載の方法のいずれかを実行させることを特徴とする、非一時的コンピュータ可読媒体。
- システムであって、
1つ以上のプロセッサと、
記憶された命令を有するメモリと、
を備え、前記命令が、前記1つ以上のプロセッサによって実行されると、前記プロセッサに、請求項1から150に記載の方法のいずれかを実行させることを特徴とする、システム。 - 電子デバイスであって、
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、
を備え、前記1つ以上のプログラムが、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から150に記載の方法のいずれかを実行する命令を含むことを特徴とする、電子デバイス。 - ディスプレイと、メモリと、前記メモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサとを備える電子デバイス上の、グラフィカルユーザインタフェースであって、請求項1から150に記載の方法のいずれかに従って表示されるユーザインタフェースを含むことを特徴とする、グラフィカルユーザインタフェース。
- 電子デバイスであって、
ディスプレイと、
請求項1から150に記載の方法のいずれかを実行する手段と、
を備えることを特徴とする、電子デバイス。 - ディスプレイを備える電子デバイス内で使用するための、情報処理装置であって、
請求項1から150に記載の方法のいずれかを実行する手段を備えることを特徴とする、情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022082332A JP7361156B2 (ja) | 2013-06-09 | 2022-05-19 | リアルタイム手書き認識の管理 |
JP2023171414A JP2023182718A (ja) | 2013-06-09 | 2023-10-02 | リアルタイム手書き認識の管理 |
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361832921P | 2013-06-09 | 2013-06-09 | |
US201361832934P | 2013-06-09 | 2013-06-09 | |
US201361832942P | 2013-06-09 | 2013-06-09 | |
US201361832908P | 2013-06-09 | 2013-06-09 | |
US61/832,908 | 2013-06-09 | ||
US61/832,921 | 2013-06-09 | ||
US61/832,934 | 2013-06-09 | ||
US61/832,942 | 2013-06-09 | ||
US14/290,935 US9898187B2 (en) | 2013-06-09 | 2014-05-29 | Managing real-time handwriting recognition |
US14/290,945 US9465985B2 (en) | 2013-06-09 | 2014-05-29 | Managing real-time handwriting recognition |
US14/290,935 | 2014-05-29 | ||
US14/290,945 | 2014-05-29 | ||
US14/292,138 | 2014-05-30 | ||
US14/291,865 | 2014-05-30 | ||
US14/291,722 US20140363082A1 (en) | 2013-06-09 | 2014-05-30 | Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition |
US14/291,865 US9495620B2 (en) | 2013-06-09 | 2014-05-30 | Multi-script handwriting recognition using a universal recognizer |
US14/291,722 | 2014-05-30 | ||
US14/292,138 US20140361983A1 (en) | 2013-06-09 | 2014-05-30 | Real-time stroke-order and stroke-direction independent handwriting recognition |
JP2021104255A JP7011747B2 (ja) | 2013-06-09 | 2021-06-23 | リアルタイム手書き認識の管理 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021104255A Division JP7011747B2 (ja) | 2013-06-09 | 2021-06-23 | リアルタイム手書き認識の管理 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022082332A Division JP7361156B2 (ja) | 2013-06-09 | 2022-05-19 | リアルタイム手書き認識の管理 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022062064A true JP2022062064A (ja) | 2022-04-19 |
JP7078808B2 JP7078808B2 (ja) | 2022-05-31 |
Family
ID=52022661
Family Applications (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518366A Active JP6154550B2 (ja) | 2013-06-09 | 2014-05-30 | リアルタイム手書き認識の管理 |
JP2017109294A Active JP6559184B2 (ja) | 2013-06-09 | 2017-06-01 | リアルタイム手書き認識の管理 |
JP2019077312A Active JP6802876B2 (ja) | 2013-06-09 | 2019-04-15 | リアルタイム手書き認識の管理 |
JP2020197242A Active JP6903808B2 (ja) | 2013-06-09 | 2020-11-27 | リアルタイム手書き認識の管理 |
JP2021104255A Active JP7011747B2 (ja) | 2013-06-09 | 2021-06-23 | リアルタイム手書き認識の管理 |
JP2022004546A Active JP7078808B2 (ja) | 2013-06-09 | 2022-01-14 | リアルタイム手書き認識の管理 |
JP2022082332A Active JP7361156B2 (ja) | 2013-06-09 | 2022-05-19 | リアルタイム手書き認識の管理 |
JP2023171414A Pending JP2023182718A (ja) | 2013-06-09 | 2023-10-02 | リアルタイム手書き認識の管理 |
Family Applications Before (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518366A Active JP6154550B2 (ja) | 2013-06-09 | 2014-05-30 | リアルタイム手書き認識の管理 |
JP2017109294A Active JP6559184B2 (ja) | 2013-06-09 | 2017-06-01 | リアルタイム手書き認識の管理 |
JP2019077312A Active JP6802876B2 (ja) | 2013-06-09 | 2019-04-15 | リアルタイム手書き認識の管理 |
JP2020197242A Active JP6903808B2 (ja) | 2013-06-09 | 2020-11-27 | リアルタイム手書き認識の管理 |
JP2021104255A Active JP7011747B2 (ja) | 2013-06-09 | 2021-06-23 | リアルタイム手書き認識の管理 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022082332A Active JP7361156B2 (ja) | 2013-06-09 | 2022-05-19 | リアルタイム手書き認識の管理 |
JP2023171414A Pending JP2023182718A (ja) | 2013-06-09 | 2023-10-02 | リアルタイム手書き認識の管理 |
Country Status (5)
Country | Link |
---|---|
JP (8) | JP6154550B2 (ja) |
KR (6) | KR20220003662A (ja) |
CN (4) | CN105247540B (ja) |
HK (1) | HK1220276A1 (ja) |
WO (1) | WO2014200736A1 (ja) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US9465985B2 (en) | 2013-06-09 | 2016-10-11 | Apple Inc. | Managing real-time handwriting recognition |
US10114544B2 (en) * | 2015-06-06 | 2018-10-30 | Apple Inc. | Systems and methods for generating and providing intelligent time to leave reminders |
US10013603B2 (en) * | 2016-01-20 | 2018-07-03 | Myscript | System and method for recognizing multiple object structure |
KR102482850B1 (ko) * | 2016-02-15 | 2022-12-29 | 삼성전자 주식회사 | 전자 장치 및 전자 장치의 필체 교정 기능 제공 방법 |
CN107220655A (zh) * | 2016-03-22 | 2017-09-29 | 华南理工大学 | 一种基于深度学习的手写、印刷文本的分类方法 |
US20170308289A1 (en) * | 2016-04-20 | 2017-10-26 | Google Inc. | Iconographic symbol search within a graphical keyboard |
JP6728993B2 (ja) * | 2016-05-31 | 2020-07-22 | 富士ゼロックス株式会社 | 筆記システム、情報処理装置、プログラム |
JP6611346B2 (ja) * | 2016-06-01 | 2019-11-27 | 日本電信電話株式会社 | 文字列認識装置、方法、及びプログラム |
DK179329B1 (en) * | 2016-06-12 | 2018-05-07 | Apple Inc | Handwriting keyboard for monitors |
CN106126092A (zh) * | 2016-06-20 | 2016-11-16 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
TWI633463B (zh) * | 2016-06-20 | 2018-08-21 | 鴻海精密工業股份有限公司 | 文字輸入法 |
US10325018B2 (en) | 2016-10-17 | 2019-06-18 | Google Llc | Techniques for scheduling language models and character recognition models for handwriting inputs |
CN106527875B (zh) * | 2016-10-25 | 2019-11-29 | 北京小米移动软件有限公司 | 电子记事方法及装置 |
US10984757B2 (en) | 2017-05-19 | 2021-04-20 | Semiconductor Energy Laboratory Co., Ltd. | Machine learning method, machine learning system, and display system |
US11188158B2 (en) | 2017-06-02 | 2021-11-30 | Samsung Electronics Co., Ltd. | System and method of determining input characters based on swipe input |
KR102474245B1 (ko) | 2017-06-02 | 2022-12-05 | 삼성전자주식회사 | 스와이프 입력에 기초하여 입력 문자를 판단하는 시스템 및 방법 |
US10481791B2 (en) * | 2017-06-07 | 2019-11-19 | Microsoft Technology Licensing, Llc | Magnified input panels |
US20190155895A1 (en) * | 2017-11-20 | 2019-05-23 | Google Llc | Electronic text pen systems and methods |
CN107861684A (zh) * | 2017-11-23 | 2018-03-30 | 广州视睿电子科技有限公司 | 书写识别方法、装置、存储介质及计算机设备 |
KR102008845B1 (ko) * | 2017-11-30 | 2019-10-21 | 굿모니터링 주식회사 | 비정형 데이터의 카테고리 자동분류 방법 |
CN109992124B (zh) * | 2018-01-02 | 2024-05-31 | 北京搜狗科技发展有限公司 | 输入方法、装置和机器可读介质 |
KR102053885B1 (ko) * | 2018-03-07 | 2019-12-09 | 주식회사 엘렉시 | 판서 분석 시스템 및 방법과 어플리케이션 |
CN108710882A (zh) * | 2018-05-11 | 2018-10-26 | 武汉科技大学 | 一种基于卷积神经网络的屏幕渲染文本识别方法 |
JP7298290B2 (ja) * | 2018-06-19 | 2023-06-27 | 株式会社リコー | 手書き入力表示装置、手書き入力表示方法およびプログラム |
KR101989960B1 (ko) | 2018-06-21 | 2019-06-17 | 가천대학교 산학협력단 | 복수 개의 기계학습 모델을 사용한 실시간 필기 인식 방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 및 실시간 필기 인식 시스템 |
US11270486B2 (en) * | 2018-07-02 | 2022-03-08 | Apple Inc. | Electronic drawing with handwriting recognition |
CN109446780B (zh) * | 2018-11-01 | 2020-11-27 | 北京知道创宇信息技术股份有限公司 | 一种身份认证方法、装置及其存储介质 |
CN109471587B (zh) * | 2018-11-13 | 2020-05-12 | 掌阅科技股份有限公司 | 基于Java虚拟机的手写内容的显示方法及电子设备 |
CN109858323A (zh) * | 2018-12-07 | 2019-06-07 | 广州光大教育软件科技股份有限公司 | 一种字符手写识别方法及系统 |
CN110009027B (zh) * | 2019-03-28 | 2022-07-29 | 腾讯科技(深圳)有限公司 | 图像的比对方法、装置、存储介质及电子装置 |
CN110135530B (zh) * | 2019-05-16 | 2021-08-13 | 京东方科技集团股份有限公司 | 转换图像中汉字字体的方法及系统、计算机设备及介质 |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
CN110362247A (zh) * | 2019-07-18 | 2019-10-22 | 江苏中威科技软件系统有限公司 | 一套在电子文件上放大签批的模式 |
CN112257820B (zh) * | 2019-07-22 | 2024-09-03 | 珠海金山办公软件有限公司 | 一种信息修正方法及装置 |
KR20210017090A (ko) * | 2019-08-06 | 2021-02-17 | 삼성전자주식회사 | 필기 입력을 텍스트로 변환하는 방법 및 전자 장치 |
CN110942089B (zh) * | 2019-11-08 | 2023-10-10 | 东北大学 | 一种基于多级决策的击键识别方法 |
EP4130966A1 (en) | 2019-11-29 | 2023-02-08 | MyScript | Gesture stroke recognition in touch-based user interface input |
US20200251217A1 (en) * | 2019-12-12 | 2020-08-06 | Renee CASSUTO | Diagnosis Method Using Image Based Machine Learning Analysis of Handwriting |
CN111078073B (zh) * | 2019-12-17 | 2021-03-23 | 科大讯飞股份有限公司 | 一种笔迹放大的方法和相关装置 |
EP3839706B1 (fr) | 2019-12-20 | 2023-07-05 | The Swatch Group Research and Development Ltd | Procede et dispositif de determination de position d'un objet sur une surface donnee |
CN111355715B (zh) * | 2020-02-21 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 待决议事件的处理方法、系统、装置、介质及电子设备 |
JP7540190B2 (ja) * | 2020-05-08 | 2024-08-27 | ブラザー工業株式会社 | 編集プログラム |
CN111736751B (zh) * | 2020-08-26 | 2021-03-26 | 深圳市千分一智能技术有限公司 | 笔画重绘方法、设备及可读存储介质 |
US11627799B2 (en) * | 2020-12-04 | 2023-04-18 | Keith McRobert | Slidable work surface |
US11587346B2 (en) | 2020-12-10 | 2023-02-21 | Microsoft Technology Licensing, Llc | Detecting ink gestures based on spatial and image data processing |
US11531454B2 (en) | 2020-12-10 | 2022-12-20 | Microsoft Technology Licensing, Llc | Selecting content in ink documents using a hierarchical data structure |
KR20220088166A (ko) | 2020-12-18 | 2022-06-27 | 삼성전자주식회사 | 복수의 사용자 환경에서 필기 입력 인식 방법 및 장치 |
EP4057182A1 (en) * | 2021-03-09 | 2022-09-14 | Société BIC | Handwriting feedback |
JP2022148901A (ja) * | 2021-03-24 | 2022-10-06 | カシオ計算機株式会社 | 文字認識装置、文字認識方法およびプログラム |
KR20220135914A (ko) * | 2021-03-31 | 2022-10-07 | 삼성전자주식회사 | 학습 기반의 필기 입력을 처리하는 전자 장치, 그 동작 방법 및 저장매체 |
CN113190161A (zh) * | 2021-04-25 | 2021-07-30 | 无锡乐骐科技有限公司 | 一种基于卷积神经网络的电子书写练习方法 |
KR20220147832A (ko) * | 2021-04-28 | 2022-11-04 | 삼성전자주식회사 | 필기 입력을 처리하는 전자 장치 및 이의 동작 방법 |
EP4258094A4 (en) * | 2021-04-28 | 2024-07-10 | Samsung Electronics Co Ltd | ELECTRONIC DEVICE FOR PROCESSING HANDWRITTEN INPUTS AND OPERATING METHODS THEREFOR |
KR102366052B1 (ko) * | 2021-05-28 | 2022-02-23 | (유)벨류이 | 지연시간 감소 처리를 이용한 필기 시스템 및 방법, 그리고 이를 위한 첩 스프레드 스펙트럼 기반 저 복잡도 거리측정 알고리즘 |
CN113673415B (zh) * | 2021-08-18 | 2022-03-04 | 山东建筑大学 | 一种手写汉字身份鉴别方法及系统 |
EP4145264A1 (en) * | 2021-09-07 | 2023-03-08 | Ricoh Company, Ltd. | Display apparatus, carrier means, and display method |
CN113918030B (zh) * | 2021-09-30 | 2024-10-15 | 北京搜狗科技发展有限公司 | 一种手写输入方法、装置和用于手写输入的装置 |
JP2023058255A (ja) | 2021-10-13 | 2023-04-25 | 株式会社デンソー | 車両用電子キーシステム、車両用認証装置 |
KR102468713B1 (ko) * | 2022-07-07 | 2022-11-21 | 주식회사 에이치투케이 | 학습자의 한글 필기에 대한 인공지능 기반의 획순 인식 장치 및 방법 |
WO2024014655A1 (ko) * | 2022-07-14 | 2024-01-18 | 삼성전자 주식회사 | 획들에 의해 나타나는 문장을 식별하기 위한 전자 장치 및 방법 |
CN115291791B (zh) * | 2022-08-17 | 2024-08-06 | 维沃移动通信有限公司 | 文本识别方法、装置、电子设备及存储介质 |
KR20240065997A (ko) * | 2022-11-07 | 2024-05-14 | 삼성전자주식회사 | 필기 입력을 인식하는 방법 및 장치 |
CN116646911B (zh) * | 2023-07-27 | 2023-10-24 | 成都华普电器有限公司 | 应用于数字化电源并联模式的电流均流分配方法及系统 |
CN117037186B (zh) * | 2023-10-09 | 2024-01-30 | 山东维克特信息技术有限公司 | 一种患者数据管理系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5742705A (en) * | 1995-06-05 | 1998-04-21 | Parthasarathy; Kannan | Method and apparatus for character recognition of handwritten input |
JPH10232864A (ja) * | 1996-12-18 | 1998-09-02 | Sharp Corp | 文章入力装置、及び文章入力プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20030043189A1 (en) * | 2001-08-31 | 2003-03-06 | Fuji Xerox Co., Ltd. | Systems and methods for generating and controlling temporary digital ink |
US20030212961A1 (en) * | 2002-05-13 | 2003-11-13 | Microsoft Corporation | Correction widget |
JP2005341387A (ja) * | 2004-05-28 | 2005-12-08 | Nokia Corp | リアルタイムコミュニケーションシステム、及びリアルタイムコミュニケーションに用いる送受信装置及び方法 |
JP2006323502A (ja) * | 2005-05-17 | 2006-11-30 | Canon Inc | 情報処理装置及びその制御方法、プログラム |
US20090161958A1 (en) * | 2007-12-21 | 2009-06-25 | Microsoft Corporation | Inline handwriting recognition and correction |
WO2012140935A1 (ja) * | 2011-04-11 | 2012-10-18 | Necカシオモバイルコミュニケーションズ株式会社 | 情報入力装置 |
JP2012216027A (ja) * | 2011-03-31 | 2012-11-08 | Panasonic Corp | 手書き文字入力装置 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0614372B2 (ja) * | 1984-01-23 | 1994-02-23 | 日本電信電話株式会社 | 文字読取方法 |
JPS61272890A (ja) * | 1985-05-29 | 1986-12-03 | Canon Inc | 手書文字認識装置 |
DE69315990T2 (de) * | 1993-07-01 | 1998-07-02 | Ibm | Mustererkennung durch Erzeugung und Benutzung zonenweiser Merkmale und Anti-Merkmale |
JP3353954B2 (ja) * | 1993-08-13 | 2002-12-09 | ソニー株式会社 | 手書き入力表示方法および手書き入力表示装置 |
JPH07160827A (ja) * | 1993-12-09 | 1995-06-23 | Matsushita Electric Ind Co Ltd | 手書きストローク編集装置及び方法 |
JPH07200723A (ja) * | 1993-12-29 | 1995-08-04 | Canon Inc | 文字認識方法及び装置 |
JPH0855182A (ja) * | 1994-06-10 | 1996-02-27 | Nippon Steel Corp | 手書き文字入力装置 |
US5737443A (en) * | 1994-11-14 | 1998-04-07 | Motorola, Inc. | Method of joining handwritten input |
DE69523567T2 (de) * | 1994-11-14 | 2002-06-27 | Motorola, Inc. | Verfahren zur handschrift-eingangsaufteilung |
JP3333362B2 (ja) * | 1995-04-11 | 2002-10-15 | 株式会社日立製作所 | 文字入力装置 |
JPH10307675A (ja) * | 1997-05-01 | 1998-11-17 | Hitachi Ltd | 手書き文字認識方法及び装置 |
US6970599B2 (en) * | 2002-07-25 | 2005-11-29 | America Online, Inc. | Chinese character handwriting recognition system |
JP4663903B2 (ja) * | 2000-04-20 | 2011-04-06 | パナソニック株式会社 | 手書き文字認識装置及び手書き文字認識プログラム並びに手書き文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体 |
WO2002037933A2 (en) * | 2000-11-08 | 2002-05-16 | New York University | System, process and software arrangement for recognizing handwritten characters |
JP2003162687A (ja) * | 2001-11-28 | 2003-06-06 | Toshiba Corp | 手書き文字入力装置、手書き文字認識プログラム |
JP4212270B2 (ja) * | 2001-12-07 | 2009-01-21 | シャープ株式会社 | 文字入力装置、文字入力方法および文字を入力するためのプログラム |
JP2004213269A (ja) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | 文字入力装置 |
US8479112B2 (en) * | 2003-05-13 | 2013-07-02 | Microsoft Corporation | Multiple input language selection |
US7496547B2 (en) * | 2005-06-02 | 2009-02-24 | Microsoft Corporation | Handwriting recognition using a comparative neural network |
US7720316B2 (en) * | 2006-09-05 | 2010-05-18 | Microsoft Corporation | Constraint-based correction of handwriting recognition errors |
KR100859010B1 (ko) * | 2006-11-01 | 2008-09-18 | 노키아 코포레이션 | 필기 인식을 위한 장치 및 방법 |
CN101311887A (zh) * | 2007-05-21 | 2008-11-26 | 刘恩新 | 一种计算机手写输入系统及输入方法和编辑方法 |
CN101123044A (zh) * | 2007-09-13 | 2008-02-13 | 无敌科技(西安)有限公司 | 汉字书写学习方法 |
JP2009110092A (ja) * | 2007-10-26 | 2009-05-21 | Alps Electric Co Ltd | 入力処理装置 |
CN101178633A (zh) * | 2007-12-13 | 2008-05-14 | 深圳华为通信技术有限公司 | 一种手写屏错误纠正的方法、系统及装置 |
US9355090B2 (en) * | 2008-05-30 | 2016-05-31 | Apple Inc. | Identification of candidate characters for text input |
CN101676838B (zh) * | 2008-09-16 | 2012-05-23 | 夏普株式会社 | 输入装置 |
US8584031B2 (en) * | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
US20100166314A1 (en) * | 2008-12-30 | 2010-07-01 | Microsoft Corporation | Segment Sequence-Based Handwritten Expression Recognition |
US8391613B2 (en) * | 2009-06-30 | 2013-03-05 | Oracle America, Inc. | Statistical online character recognition |
JP2011065623A (ja) * | 2009-08-21 | 2011-03-31 | Sharp Corp | 情報検索装置、情報検索装置の制御方法 |
CN101893987A (zh) * | 2010-06-01 | 2010-11-24 | 华南理工大学 | 一种电子设备的手写输入方法 |
JP5581448B2 (ja) | 2010-08-24 | 2014-08-27 | ノキア コーポレイション | 重なった手書き文字のストロークを一つ又は複数のグループにグループ分けする方法及び装置 |
JP2012108871A (ja) | 2010-10-26 | 2012-06-07 | Nec Corp | 情報処理装置およびその手書き入力処理方法 |
WO2012071730A1 (en) * | 2010-12-02 | 2012-06-07 | Nokia Corporation | Method, apparatus, and computer program product for overlapped handwriting |
CN102135838A (zh) * | 2011-05-05 | 2011-07-27 | 汉王科技股份有限公司 | 分区输入手写字符串的方法和系统 |
US8977059B2 (en) | 2011-06-03 | 2015-03-10 | Apple Inc. | Integrating feature extraction via local sequential embedding for automatic handwriting recognition |
EP3522075A1 (en) * | 2011-06-13 | 2019-08-07 | Google LLC | Character recognition for overlapping textual user input |
US8094941B1 (en) * | 2011-06-13 | 2012-01-10 | Google Inc. | Character recognition for overlapping textual user input |
US20130002553A1 (en) * | 2011-06-29 | 2013-01-03 | Nokia Corporation | Character entry apparatus and associated methods |
JP5330478B2 (ja) * | 2011-10-14 | 2013-10-30 | 株式会社エヌ・ティ・ティ・ドコモ | 入力支援装置、プログラム及び絵文字の入力支援方法 |
JP2013089131A (ja) * | 2011-10-20 | 2013-05-13 | Kyocera Corp | 装置、方法及びプログラム |
CN102566933A (zh) * | 2011-12-31 | 2012-07-11 | 广东步步高电子工业有限公司 | 一种全屏手写有效区分命令手势和字符的方法 |
JP6102374B2 (ja) * | 2013-03-15 | 2017-03-29 | オムロン株式会社 | 読取文字訂正用のプログラムおよび文字読取装置 |
GB201704729D0 (en) | 2017-03-24 | 2017-05-10 | Lucite Int Uk Ltd | Method of producing methyl methacrylate or methacrylic acid |
-
2014
- 2014-05-30 CN CN201480030897.0A patent/CN105247540B/zh active Active
- 2014-05-30 JP JP2016518366A patent/JP6154550B2/ja active Active
- 2014-05-30 KR KR1020217043310A patent/KR20220003662A/ko not_active Application Discontinuation
- 2014-05-30 KR KR1020187024261A patent/KR102005878B1/ko active IP Right Grant
- 2014-05-30 KR KR1020207016098A patent/KR102221079B1/ko active IP Right Grant
- 2014-05-30 CN CN201811217821.5A patent/CN109614846A/zh active Pending
- 2014-05-30 KR KR1020217005264A patent/KR102347064B1/ko active IP Right Grant
- 2014-05-30 CN CN201811217768.9A patent/CN109614845B/zh active Active
- 2014-05-30 CN CN201811217822.XA patent/CN109614847B/zh active Active
- 2014-05-30 WO PCT/US2014/040417 patent/WO2014200736A1/en active Application Filing
- 2014-05-30 KR KR1020197021958A patent/KR102121487B1/ko active IP Right Grant
- 2014-05-30 KR KR1020157033627A patent/KR101892723B1/ko active IP Right Grant
-
2016
- 2016-07-12 HK HK16108185.0A patent/HK1220276A1/zh not_active IP Right Cessation
-
2017
- 2017-06-01 JP JP2017109294A patent/JP6559184B2/ja active Active
-
2019
- 2019-04-15 JP JP2019077312A patent/JP6802876B2/ja active Active
-
2020
- 2020-11-27 JP JP2020197242A patent/JP6903808B2/ja active Active
-
2021
- 2021-06-23 JP JP2021104255A patent/JP7011747B2/ja active Active
-
2022
- 2022-01-14 JP JP2022004546A patent/JP7078808B2/ja active Active
- 2022-05-19 JP JP2022082332A patent/JP7361156B2/ja active Active
-
2023
- 2023-10-02 JP JP2023171414A patent/JP2023182718A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5742705A (en) * | 1995-06-05 | 1998-04-21 | Parthasarathy; Kannan | Method and apparatus for character recognition of handwritten input |
JPH10232864A (ja) * | 1996-12-18 | 1998-09-02 | Sharp Corp | 文章入力装置、及び文章入力プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20030043189A1 (en) * | 2001-08-31 | 2003-03-06 | Fuji Xerox Co., Ltd. | Systems and methods for generating and controlling temporary digital ink |
US20030212961A1 (en) * | 2002-05-13 | 2003-11-13 | Microsoft Corporation | Correction widget |
JP2005341387A (ja) * | 2004-05-28 | 2005-12-08 | Nokia Corp | リアルタイムコミュニケーションシステム、及びリアルタイムコミュニケーションに用いる送受信装置及び方法 |
JP2006323502A (ja) * | 2005-05-17 | 2006-11-30 | Canon Inc | 情報処理装置及びその制御方法、プログラム |
US20090161958A1 (en) * | 2007-12-21 | 2009-06-25 | Microsoft Corporation | Inline handwriting recognition and correction |
JP2012216027A (ja) * | 2011-03-31 | 2012-11-08 | Panasonic Corp | 手書き文字入力装置 |
WO2012140935A1 (ja) * | 2011-04-11 | 2012-10-18 | Necカシオモバイルコミュニケーションズ株式会社 | 情報入力装置 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7078808B2 (ja) | リアルタイム手書き認識の管理 | |
US11182069B2 (en) | Managing real-time handwriting recognition | |
US9934430B2 (en) | Multi-script handwriting recognition using a universal recognizer | |
US20140363082A1 (en) | Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition | |
US20140361983A1 (en) | Real-time stroke-order and stroke-direction independent handwriting recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220124 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7078808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |