JP6991486B2 - 文字列に文字を挿入するための方法およびシステム - Google Patents

文字列に文字を挿入するための方法およびシステム Download PDF

Info

Publication number
JP6991486B2
JP6991486B2 JP2018545503A JP2018545503A JP6991486B2 JP 6991486 B2 JP6991486 B2 JP 6991486B2 JP 2018545503 A JP2018545503 A JP 2018545503A JP 2018545503 A JP2018545503 A JP 2018545503A JP 6991486 B2 JP6991486 B2 JP 6991486B2
Authority
JP
Japan
Prior art keywords
character
area
displayed
handwriting recognition
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545503A
Other languages
English (en)
Other versions
JP2019514096A5 (ja
JP2019514096A (ja
Inventor
クエリエ,ジョエル
デバージュ-クザン,ラエティティア
Original Assignee
マイスクリプト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイスクリプト filed Critical マイスクリプト
Publication of JP2019514096A publication Critical patent/JP2019514096A/ja
Publication of JP2019514096A5 publication Critical patent/JP2019514096A5/ja
Application granted granted Critical
Publication of JP6991486B2 publication Critical patent/JP6991486B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

関連出願の参照
本願は、2016年2月29日に出願された欧州特許出願第16 305 229.3号および2016年6月24日に出願された米国特許出願第15/192,252号に基づく優先権を主張し、その内容のすべてを参照としてここに援用する。
本開示は、概してユーザによって入力された手書きの種々の文字を認識できる電子デバイスの分野に関し、より具体的には、1以上の文字を文字列に挿入するためのシステムおよびそれに対応する方法に関する。
コンピュータデバイスは、日常生活への普及がますます広がっている。コンピュータデバイスは、種々の形態をとり得る。例えば、デスクトップコンピュータ、ラップトップ、タブレットPC、ハイブリッドコンピュータ(2in1)、電子ブックリーダ、携帯電話、スマートフォン、ウエラブルコンピュータ(スマートウォッチ、スマートグラス/ヘッドセットなど)、全地球測位システム(GPS)ユニット、業務用情報端末(EDA)、個人用情報端末(PDA)、ゲーム機などである。各種のコンピュータデバイスは、特定のコンピュータリソースを備え、特定の用途のために設計される。これらの種々のコンピュータデバイスおよびその使用において、ユーザがそのコンピュータデバイスを対話式操作(interact)できるようにするためには種々の入力デバイスが必要となる。
そのような入力デバイスの1つは、タッチスクリーンまたはタッチパッドなどのタッチセンサ式表面(surface)である。タッチセンサ式表面において、ユーザ入力は、ユーザの体の一部(例えば、指)またはユーザに保持された道具(例えば、ペンまたはスタイラス)とタッチセンサ式表面との間の接触を介して受け取られる。別の入力デバイスとして、ユーザが入力表面の上方で行ったジェスチャまたは動きを感知する入力表面がある。さらに別の入力デバイスとして、非接触の物理的または仮想的表面との接触もしくは非接触の相互作用(interaction)の相対位置を検出する位置検出システムがある。これらの方法はいずれも、例えばアルファベット、数、文法および記号文字などのテキスト内容を入力するためなど、一般に手描きまたは手書きのために使用され得る。ユーザが描くまたは書くことより入力した場合、そのユーザの手書きは、通常、リアルタイム式の手書き認識システムまたは方法を使用して解析される。そのために、オンラインシステム(例えば、クラウドベースの手段などを使用して認識が実行される)またはオフラインシステムのいずれを使用してもよい。
一般に、手書き認識システムまたは方法は、例えばユーザがタッチセンサ式表面に接触する(例えば、ペンを表面に下す)などのストロークの開始、例えばユーザがタッチセンサ式表面に接触することを止める(例えば、ペンを画面から上げる)などのストロークの終了、およびストロークの開始から終了までの間にユーザが指または道具を用いて生成するいずれのストロークまたはラインもモニタする。
コンピュータデバイスの形式によって、文字を入力するために使用されるユーザ入力インタフェースまたは方法が決定され得る。コンピュータデバイスが小型化されるにつれ、ユーザが直感的かつ簡単に内容を入力できるような様々な入力インタフェースおよび方法が開発されてきた。
ユーザが入力文字を描くコンピュータデバイスにおいて、現在のテキストへの文字の挿入を管理することなどは、一般にユーザが指または道具を用いて特定のジェスチャを行う必要があるので困難な課題である。従来のテキスト挿入技術は、一般に複雑または直感的でない対話式操作(interaction)をユーザがインタフェース表面に対して行う必要があるのでユーザフレンドリでない。ユーザは、特定のコンピュータデバイスに実装された挿入技術(実装されている場合)を理解しないか、または覚えていないことが非常に多い。従来の技術の中には、現在の内容を編集するための内容を通常の入力フィールドとは別の専用の編集フィールドに挿入することをユーザに要求し、それによって、より小さなインタフェースを有するデバイスに対する入力インタフェースおよびアプリケーションのエルゴノミクスを低減する技術がある。
したがって、上記のようなコンピュータデバイスを使用する際に現在の内容に対して内容を挿入することを可能にするためのより効率的でユーザフレンドリな入力方法およびシステムが求められている。
本開示は、タッチスクリーンを備えるデジタルデバイスによって行われる文字入力方法を提供する。前記タッチスクリーンは、認識領域および挿入領域を備える。前記方法は、
少なくとも前記認識領域に表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択するように、前記文字列をスクロールするための第一スクロールステップと、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第二スクロールステップと
を含む。
本開示によれば、ユーザは、文字を文字列に文字列内の適切な位置に、効率的かつユーザフレンドリに挿入できる。本開示によれば、自然かつ迅速なやり方で追加の文字を入力できる。特に、本教示によれば、挿入対象の位置を簡単に選択できる。本開示によれば、ユーザは、複雑なジェスチャを行う必要がなく、文字挿入を行うための手順を簡単に覚え得る。ユーザは、手書き入力用の入力領域に直接に追加の文字を挿入し得る。特に、本開示によれば、デジタルデバイスの入力領域とは別のテキストフィールドを使用して追加の文字を挿入する必要がなくなる。
特定の実施形態によれば、前記認識領域および前記挿入領域は、互いに隣接する。この特定の構成によって、ユーザは、追加の文字の文字列への自然な入力をより容易に行うことができる。
特定の実施形態によれば、前記第一スクロールステップにおいて、前記タッチスクリーン上に表示された挿入マーカによって、前記文字列内の前記位置が規定される。挿入マーカを表示することによって、ユーザは、文字挿入が行われることになる前記文字列内の前記位置をより容易に選択できる。
特定の実施形態によれば、前記挿入マーカは、前記第一スクロールステップ中に、前記認識領域と前記挿入領域との間の境界に静止して配置される。この特定の構成によって、ユーザは、入力領域において文字列を単純にスクロールすることによって文字列内の適切な位置を簡単に選択できる。
特定の実施形態によれば、前記第一スクロールステップは、前記認識領域に表示された前記文字列の各文字が前記挿入領域に入るまで前記認識領域内を移動するように、第一スクロールの方向に行われる。
特定の実施形態によれば、前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含む。前記方法は、
前記第一スクロールステップ中に、前記認識領域から前記挿入領域に全体が入った各単語を少なくとも部分的に隠しながら、前記認識領域に配置された各単語を表示するステップ
を含む。
この特定の構成によって、ユーザは、文字が挿入されることになる前記文字列内の前記位置を簡単に、精度よく、正確に特定できる。さらに、ユーザがストロークを入力領域に直接に入力することができるように前記挿入領域にスペースを設けてもよい。
特定の実施形態によれば、前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含む。ここで、前記第一スクロールステップにおいて、前記文字列内の前記選択された位置は、前記認識領域に少なくとも部分的に表示された前記文字列の最後の単語の直後に続く位置である。この特定の構成によって、ユーザは、文字挿入が行われることになる前記文字列の前記位置を簡単に選択できる。
特定の実施形態によれば、前記第二スクロールステップにおいて、前記認識領域に、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記文字列は、前記挿入領域から前記認識領域に向かう方向にスクロールされる。
特定の実施形態によれば、前記第二スクロールステップは、前記少なくとも1つの入力ストロークの前記検出の後に自動的に行われる。
特定の実施形態によれば、前記第二スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される。このように、追加の文字を文字列内に効率よくかつ自然に入力することができる。
特定の実施形態によれば、前記方法は、前記手書き認識が行われているときに、前記挿入領域において、前記検出された少なくとも1つの入力ストロークを表示するステップを含む。この特定の構成によって、前記挿入領域における手書き文字を一時的に表示することができる。
特定の実施形態によれば、前記第二スクロールステップは、
前記文字列内の前記位置に、前記検出された少なくとも1つの入力ストロークを挿入するステップと、
前記手書き認識が行われているときに、前記認識領域において、前記挿入された少なくとも1つの入力ストロークの少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするステップと
を含む。
この特定の構成によって、ユーザは、追加の文字を前記文字列に連続かつ自然なやり方で挿入することができる。
特定の実施形態によれば、前記第二スクロールステップは、
前記手書き認識が一旦完了したら、前記認識領域に表示されている前記挿入された少なくとも1つの入力ストロークを、前記少なくとも1つの認識された文字に置き換えるステップ
を含む。
特定の実施形態によれば、前記第二スクロールステップにおいて、前記少なくとも1つの挿入された文字は、前記認識領域にタイプセット(typeset)として表示される。
特定の実施形態によれば、前記方法は、前記第二スクロールステップの後に、前記第二スクロールステップと同じ方向にスクロールして、前記認識領域において、前記文字列内の前記挿入された少なくとも1文字の直後に続く少なくとも前記第二の文字を表示する第三スクロールステップを含む。このように、ユーザは、追加の文字が挿入された文字列全体をスクロールおよび可視化し得る。
本開示の特定の実施形態において、前記文字入力方法の前記種々のステップは、コンピュータプログラムの指示によって特定される。
したがって、本開示は、記録媒体上のコンピュータプログラムも提供する。このコンピュータプログラムは、デジタルデバイス、より一般にはプロセッサによって実施されるように構成される。このコンピュータプログラムは、上記のような文字入力方法を実施するために適合された指示を含む。
特に、本開示は、コンピュータ読み取り可能なプログラムコードが組み込まれた、非一時的なコンピュータ読み取り可能な媒体を提供する。前記コンピュータ読み取り可能なプログラムコードは、タッチスクリーンを備えるデジタルデバイスにおいて文字入力方法を実施するように実行されるように適合され、前記タッチスクリーンは、認識領域および挿入領域を備え、前記方法は、
少なくとも前記認識領域に表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択するように、前記文字列をスクロールするための第一スクロールステップと、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第二スクロールステップと
を含む。
本開示のコンピュータプログラム(またはコンピュータプログラム製品)は、いずれのプログラミング言語でも表現可能であり、ソースコード、オブジェクトコード、またはソースコードとオブジェクトコードとの間のいずれの中間コード(例えば部分的にコンパイルされた形態またはいずれの他の適切な形態など)の形態をとることも可能である。
また、本開示は、上記のようなコンピュータ読み取り可能なプログラムコードを提供する。
上記の非一時的なコンピュータ読み取り可能な媒体は、前記コンピュータプログラムを記憶することができるいずれの物(entity)またはデバイスでもあり得る。例えば、前記記録媒体は、ROMメモリ(CD-ROMまたはマイクロ電子回路に実装されたROM)などの記憶手段、またはフロッピーディスクまたはハードディスクなどの磁気記憶手段を備えることができる。
本開示の非一時的なコンピュータ読み取り可能な媒体は、電気または光信号などの伝達可能媒体に対応することができる。伝達可能媒体は、電気もしくは光ケーブルを介して、または無線もしくはいずれの他の適切な手段によっても伝搬され得る。本開示に係るコンピュータプログラムは、特にインターネットまたはネットワークなどからダウンロードされ得る。
あるいは、前記非一時的なコンピュータ読み取り可能な媒体は、コンピュータプログラムがロードされる集積回路に対応することができる。その回路は、本発明の方法を実行するように、またはその実行において使用されるように適合される。
また、本開示は、デジタルデバイスへの文字入力を提供するためのシステムに関する。そのデジタルデバイスは、プロセッサ、認識領域および文字入力を受け取るための挿入領域を含むタッチスクリーン、および少なくとも1つの非一時的なコンピュータ読み取り可能な媒体を備える。前記少なくとも1つの非一時的なコンピュータ読み取り可能な媒体は、前記プロセッサの制御下に、
第一スクロールステップとして、少なくとも前記認識領域に表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択するように、前記文字列をスクロールするためのスクロールモジュールと、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するための検出モジュールと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するための認識モジュールと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するための挿入モジュールと
を構成し、
前記スクロールモジュールは、第二スクロールステップとして、前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするように構成される。
また、本開示は、認識領域および挿入領域を含むタッチスクリーン、ならびに上記のようなスクロールモジュール、検出モジュール、認識モジュールおよび挿入モジュールを備えるデジタルデバイスを提供する。
本開示の文字入力方法に関連して上記に規定された種々の実施形態は、同様に本開示の非一時的なコンピュータ読み取り可能な媒体、システムおよびデジタルデバイスに適用される。
本開示の他の特徴および利点は、実施形態を示す添付の図面を参照する以下の記載から明らかとなる。本開示は、以下の実施形態に限定されない。
図1は、本開示の特定の実施形態に係るデジタルデバイスの図である。 図2は、特定の実施形態に係る、図1のデジタルデバイスを示す図である。 図3は、特定の実施形態に係る、デジタルデバイスのユーザインタフェースの入力領域を示す図である。 図4は、特定の実施形態に係る、図1のデジタルデバイスによって実装されたモジュールを示すブロック図である。 図5は、本開示の特定の実施形態に係る文字入力方法を示すフローチャートである。 図6は、本開示の特定の実施形態に係る文字入力方法を示す図である。 図7A~7Fは、本開示の特定の実施形態に係る、ユーザ入力を受け取る内容表示領域を含む、コンピュータデバイスのユーザインタフェースを例示する図である。 図8は、本開示の特定の実施形態に係る文字入力方法を示す図である。 図9Aおよび9Bは、本開示の特定の実施形態に係る、ユーザ入力を受け取る内容表示領域を含む、コンピュータデバイスのユーザインタフェースを示す図である。
図中の構成要素は、必ずしも正確な縮尺ではなく、その代わりに本開示の原理を例示することに重点を置いている。
簡潔で明瞭な図示となるように、特に断らない限り、同じまたは類似の構成要素は、図面全体にわたり同じ参照符号で示される。
以下の詳細な記載において、関連する教示を十分に理解できるように、例を用いて多くの具体的な詳細を説明する。しかし、本教示がそのような詳細がなくとも実施され得ることは、当業者には明らかである。他の例において、周知の方法、手順、および/または構成要素は、本教示の局面を不必要に不明瞭にしないように、詳細を記載せず、比較的大局的に説明する。
以下、添付の図面を参照して例示の実施形態を説明する。本発明は、以下の詳細な記載によって限定されない。代わりに、本発明の範囲は、付属の特許請求の範囲によって定義される。図示されるような種々の実施形態において、デジタルデバイス、文字入力方法およびそれらに対応するコンピュータ読み取り可能な媒体上のコンピュータプログラムを説明する。
上記のように、本開示は、概してユーザによって入力された手書きの種々の文字を認識できる電子デバイスの分野に関し、より具体的には、1以上の文字を文字列に挿入するためのデジタルデバイスおよびその対応の方法に関する。開示のデジタルデバイスおよび方法は、ユーザインタフェースに特異的に生じる問題を解決するコンピュータ技術に基づく。そのような問題は、例えば、どのように手書きの文字をデジタルデバイスのユーザインタフェース上に表示された現在のテキストに正確にかつ精度よく挿入するかという問題である。このように、本開示のデジタルデバイスおよび方法によって、文字情報を表示し、ユーザと対話(interact)するというコンピュータの機能が改善される。
本明細書において、「文字」は、いずれの種類の文字、記号なども指すと広義に理解され、2以上の文字を含む。文字は、例えば、アルファベット文字、字、数字、単語、文法記号、標識またはそれらのいずれの組み合わせでもあり得る。なお、他の種類の文字も考えられ得る。
図1および2は、本開示の特定の実施形態に係るコンピュータデバイスまたはデジタルデバイス2を模式的に示す。本例に記載のデバイス2は、タッチスクリーン10を備えるスマートフォンである。ユーザは、自身の指またはスタイラス24を使用してタッチスクリーン10を対話式操作(interact)して、手書きで文字34を入力する。
なお、デバイス2は、タッチセンサ式表面を備え、本開示に係る文字入力方法を実施するための適切ないずれの機器(携帯可能またはそうでないもの)(例えば、デスクトップPC、タブレットPC、個人用情報端末など)の形態であってもよい。
図1に示すように、デバイス2は、プロセッサ4、書き換え可能な不揮発性メモリ6(例えば、フラッシュメモリなど)、RAMメモリ8、および文字の入力や表示を可能にする入出力インタフェース10を有する。入出力インタフェース10は、文字を表示するためのディスプレイ10aおよびディスプレイ10a上で文字を入力するための入力(タッチセンサ式表面)10bを有してもよい。本実施形態において、入出力インタフェース10は、タッチスクリーンである。他の実施形態において、ディスプレイ10aおよび入力10b(例えば、タッチセンサ式表面)がデバイス2の別々の構成要素または互いに接続された別々のデバイスであってもよい。また、近接センサ式表面などの他の入力表面を利用してもよい。近接センサ式表面は、その近接センサ式表面の近く、または仮想「キー」(など)の配列をテーブルまたはホワイトボードなどのいずれかの適切な表面に投影するためのプロジェクタを使用して形成された投影表面の近くにおいて、体の一部(例えば、指)または道具(例えば、スタイラス)を検出し、ユーザが投影されたキー配列を対話式操作できるように構成される。
デバイス2の不揮発性メモリ6は、本開示の特定の実施形態に係るコンピュータ利用可能媒体(または記録媒体)を構成する。メモリ6は、本開示の特定の実施形態に係るコンピュータプログラム(またはコンピュータ読み取り可能なプログラムコードなど)PGを含む。このコンピュータプログラムは、本発明の特定の実施形態に係る方法または動作を実施するためのプロセッサ実行可能指示を有する。
コンピュータプログラムPGは、デバイス2に入力された手書きを認識するための指示を含んでもよい。あるいは、デバイス2は、入力された手書きを認識するリモートシステムに接続されてもよい。本システムおよび方法によって利用可能な手書き認識処理は、公知の手書き認識方法、または例えば本願と同じ出願人および譲受人の名の下に2014年4月24日に出願された国際出願PCT/FR2014/050991の国際公開WO2014/174219(その内容のすべてを参照としてここに援用する)に記載されるようなニューラルネットワークなどの特定の方法の形態をとってもよい。
図2に示すように、デバイス2のタッチスクリーン10は、第一の領域22(本例の内容表示フィールドまたはゾーン)および第二の領域20(内容入力フィールドまたはゾーン)である。入力領域20は、対話式操作可能であり、したがって、ユーザは、例えばスタイラス24を使用して、文字34を入力領域20に入力することによって、文字列32を形成する。本例において、文字34の列32は、文法記号を伴った複数の単語を有するテキストを形成する。本例において、文法記号は、コンマである。図から明らかなように、本例において、入力領域は、テキストの数個の文字または単語を一度に表示できるように構成される。本システムおよび方法を使用して入力を受け取ると、手書き入力は、よく理解されたやり方で、いわゆる「デジタルインク」(例えば、スタイラス24の動きをとらえて、手書きを入力時の形態で表示したインクオブジェクト)として入力領域20に描画される。デジタルインクは、ユーザによって入力されたストロークを表す。手書きストロークは、処理され、その内容が認識される。例えば、特定の文字が認識される。出力された認識結果は、よく理解されたやり方で、いわゆる「タイプセットインク」(例えば、タイプセットフォントテキストとして表示されるデジタルオブジェクト表示)として描画され、それまでデジタルインクバージョンで描画されていた認識された内容がタイプセットインクに置き換えられる。
例えば、図2に示すように、入力領域20に表示された文字列32において、単語「Hello」およびコンマ「,」を形成する手書き入力は、認識処理されており、その認識結果が文字34を表すタイプセットインクバージョンとして表示されている。しかし、文字「ho」を形成する手書き入力は、例えばまだペン上げイベントが起きていないので、まだ認識処理されておらず、したがって、入力文字36は、デジタルインクとして描画される。認識された内容を入力領域20においてユーザに対して表示することは、入力中に手書き認識フィードバックを与えるので有用であるが、本システムおよび方法は、入力をデジタルインクのみで表示してもよいし、または例えばユーザがジェスチャ入力やメニュー表示を介してデジタルインクまたはタイプセットインクの表示を選択できるようにしてもよい。
また、本実施形態において、内容表示フィールド22は、対話式操作可能となるように、タッチスクリーン10上に設けられる。内容表示フィールド22は、例えば、入力領域20よりも大きな領域において、例えばより小さなテキストフォントを使用して、入力領域20においてユーザによって入力された文字列32の一表現を表示するように構成される。
本例において、内容表示領域22は、例えば、単語および文を適切に再度流しつつ(reflow)、数行のテキストを一度に表示できるように構成される。このように、ユーザは、入力領域20の構成またはサイズに制限はあるが、入力内容の表示を与えられる。あるいは、内容表示領域22は、例えば入力領域20よりも小さなフォントで一行だけの内容を表示し、より多くの内容が入力された場合、またはジェスチャなどのユーザの対話式操作を介した場合に、内容の表示がスクロールされるようにしてもよい。本システムおよび方法によって手書き入力34から認識された場合と同様に、内容表示フィールド22におけるテキストは、一般によく理解されたやり方で、デジタルオブジェクトとして、例えばタイプセットインクで、描画される。
例えば、図2において、内容表示領域22に表示された文字列32において、単語「Hello」およびコンマ「,」を形成する認識された内容は、入力領域20においての表示と同様に、タイプセットインクバージョンの文字34として表示されるが、入力領域20において文字「ho」を形成する手書き入力は、まだ認識処理されておらず、したがって、対応する文字が内容表示領域22にまだ表示されていない。認識された内容をユーザに対して内容表示領域22において表示することは、継続中の入力に対して前後関係(context)を与えるので有用であるが、本開示に係るデジタルデバイスは、そのような(認識された)内容表示を含まずに実装され得る。あるいは、本システムおよび方法は、入力領域20に加えて、内容表示領域22にも表示するか否かをユーザが選択できるようにしてもよい。さらに、本システムおよび方法は、内容表示領域22における内容をタイプセットインクの代わりにデジタルインクとして表示してもよいし、またはデジタルインクまたはタイプセットインクの表示を、例えばジェスチャ入力またはメニュー表示を介して、ユーザが選択できるようにしてもよい。
特定の実施形態によれば、デバイス2は、挿入モードに従って動作し、ユーザが少なくとも1つの新しい文字を文字列内に挿入できるようにしてもよい。挿入モードは、例えば所定のコマンドの受け取りに応じてデバイス2によって実装される機能でもよい。いくつかの実装例において、所定のコマンドは、多位置対話式操作であってもよい。すなわち、多指押しまたはスワイプ(詳細は後述する)などのジェスチャ入力であってもよい。例えば、ユーザは、デバイス2を通常の入力モードで使用して、入力領域20において文字を手書きし、そして、タッチスクリーン10上でジェスチャを行ってデバイス2を挿入モードに切り換えて、それまでに入力された文字に少なくとも1つの追加の文字を挿入することによって編集するようにしてもよい。
図3は、特定の実施形態に係る、挿入モードにおいてデバイス2が動作している際の入力領域20を例示する。図3に示されるように、入力領域20は、認識領域28および挿入領域30を備える。さらなる詳細は後述するが、認識領域28に加えて挿入領域30をユーザに与えることにより、簡単かつ効率的に新しい文字を現在の文字列に挿入できるようになる。
認識領域28は、上記および図3に示すように、先の入力の認識された内容に略対応する文字列32の一部を表示するように構成される。挿入領域30は、入力領域20の一部として構成される。挿入領域30において、ユーザによって手書きで入力された少なくとも1つの新しいストローク36がデバイス2によって検出され、デジタルインクとして描画される。手書き認識が新しい入力ストローク36に対して一旦行われたとき、かつ/または挿入モードが終了した際は(デバイス2を入力モードに戻す)、認識領域28に、検出された入力ストローク36から認識された少なくとも1文字が挿入された状態の文字列32が表示され、挿入領域30におけるデジタルインクバージョンが表示から削除される(例えば、デジタルインクバージョンが挿入領域30から消える)。
種々の実装例において、挿入マーカ29が表示される。挿入マーカ29は、少なくとも1文字が挿入されることになる文字34の列32内のいずれかの所望の位置を定義するように構成されてもよい。挿入された文字は、検出された入力ストローク36から、またはそれに基づいて認識される。このようにユーザは、挿入マーカ29を使用して、文字34の列32内において、新しい文字を挿入するための特定の位置を選択してもよい。
図3に示す特定の例において、挿入マーカ29は、認識領域28と挿入領域30との間の境界に配置されるが、他の位置でもよい。挿入マーカ29は、ユーザが、例えば入力領域20においてスクロールすることによって、少なくとも1文字が挿入されることになる文字34の列32内の位置を選択できるようにするいずれの適切な形態をとってもよい。図3において、挿入マーカは、破線で表されるが、他の描画で表示されてもよい。挿入マーカ29は、例えば入力領域20に表示された線、カーソル、矢印などの標識であってもよい。他の実施形態において、挿入マーカ29を表示せずに、挿入位置の選択がなされてもよい。
図3に示す特定の例において、挿入マーカ29は、文字34の列32内の単語「how」の直後に続く位置を、少なくとも1つの新しい文字が挿入されることになる挿入位置として規定する。本例において、挿入対象の文字は、単語「good」を形成する。この単語は、挿入領域30に入力された際に検出された1つのストローク36の入力に対して行われた手書き認識に基づいて認識される。
図3に示すように、対話式スクロールアクチュエータ38(例えば、図3に示すようなスクロールバー、スクロールボタンなどの形態をとる)を例えば入力領域20内、またはその近傍に設けてもよい。これにより、入力領域20における文字34の列32を、例えばスワイプジェスチャなどのユーザジェスチャを介して、第一スクロールの方向D1(本例では、右方向)および反対の第二スクロールの方向D2(本例では、左方向)にスクロールできる。他の方法を用いて入力領域20におけるスクロールの命令を行ってもよい。
なお、図3に示すような認識領域28、挿入領域30、スクロールアクチュエータ38および挿入マーカ29を含む入力領域20の全体的なユーザインタフェースの特定の配置(フォーム、レイアウトなど)は、あくまでも例示であり、本開示の範囲を限定すると解釈されるべきでない。
特定の例において、認識領域28および挿入領域30は、互いに隣接する。本開示において、他の配置も可能である。特に、認識領域28および挿入領域30の相対配置は、コンピュータデバイスのフォームファクタ、デバイス2がテキストを表示および編集するために使用される場合の言語のタイプおよび/またはフォーマットなどの目的の使用に適合されてもよい。ユーザインタフェースの配置は、例えば文字が英語、日本語、中国語、またはある他の文字セットのいずれで入力されるかに応じて、ユーザとの対話を簡単かつ効率よくできるように適合されてもよい。
本実施形態において、メモリ6に記憶されたコンピュータプログラムPGを実行する際に、プロセッサ4は、図4に示す複数の処理モジュールを実施する。すなわち、スクロールモジュール(または表示コントロールモジュール)M2、検出モジュールM4、認識モジュールM6および挿入モジュールM8である。なお、これらの特定の処理モジュールM2~M8は、あくまで本開示の実施例である。当業者であれば、本開示に係る入力方法を実施するための処理モジュールの種々の実施例を想起し得る。
より詳細には、スクロールモジュールM2は、少なくとも1文字が挿入されることになる文字列32内の特定の位置を選択するように、入力領域20において文字34の列32をスクロールするように動作可能である。本実施形態において、スクロールは、図3において矢印で例示するように、互いに反対の2方向D1およびD2に行われてもよい。スクロールは、例えばプロセッサ4の制御下にスクロールモジュールM2によって自動的に行われ得るか、またはユーザから受け取ったスクロールコマンドに応答して(例えば、スクロールアクチュエータ38の対話式操作を介して、またはいずれかの他の適した対話式操作によって)行われ得るか、いずれでもよい。
検出モジュールM4は、挿入領域30における少なくとも1つの入力ストローク36を検出するように動作可能である。
認識モジュールM6は、少なくとも1つの認識された文字を生成するように、検出された入力ストローク36に基づいて手書き認識を行うか、または行われるように動作可能である。
挿入モジュールM8は、先に選択された文字列32内の特定の位置に、検出された入力ストローク36に基づいて認識モジュールM6によって認識された少なくとも1文字を挿入するように動作可能である。
特定の実施形態において
スクロールモジュールM2は、第一スクロールステップとして、少なくとも認識領域28に表示された文字列内の第一の文字と第一の文字に連続した第二の文字との間の位置を選択するように、その文字列をスクロールするためのモジュールである。
検出モジュールM4は、挿入領域30に手動で入力された(例えば、ユーザが自身の指、スタイラスなどによって入力した)少なくとも1つの入力ストローク36を検出するためのモジュールである。
認識モジュールM6は、手書き認識を行って、少なくとも1つの検出された入力ストローク36を少なくとも1つの認識された文字に変換するモジュールである。
挿入モジュールM8は、文字列内の位置に、少なくとも1つの認識された文字を挿入するためのモジュールである。
ここで、スクロールモジュールは、第二スクロールステップとして、認識領域28に、文字列32に挿入された少なくとも1つの認識された文字の少なくとも一部を表示するように、認識領域28において文字列32をスクロールするように構成される。
特定の実施形態において、本開示は、ソフトウエアおよび/またはハードウェア構成要素を使用して実施され得る。この状況において、用語「モジュール」は、本明細書において、ソフトウエア構成要素、ハードウェア構成要素、または複数のソフトウエアおよび/またはハードウェア構成要素もしくはそれらの組み合わせを指す。
以下、図5を参照して、図1~4に例示したデバイス2によって実施される、本開示の特定の実施形態に係る文字入力方法を説明する。より詳細には、デバイス2は、メモリ6に記憶されたコンピュータプログラムPGを実行することによってこの方法を実施する。この特定の実施形態の文字入力方法は、
少なくとも認識領域28に表示された文字34の列32内の第一の文字と第一の文字に連続した第二の文字との間の位置を選択するように、文字34の列32をスクロールするための第一スクロールステップ(S2)と、
挿入領域30に手動で入力された少なくとも1つの入力ストローク36を検出するステップ(S4)と、
手書き認識を行って、少なくとも1つの検出された入力ストローク36を少なくとも1つの認識された文字に変換するステップ(S6)と、
文字34の列32内の選択された位置に、少なくとも1つの認識された文字を挿入するステップ(S8)と、
認識領域28に、文字34の列32に挿入された少なくとも1つの認識された文字の少なくとも一部を表示するように、認識領域28において文字34の列32をスクロールするための第二スクロールステップ(S10)と
を含む。
図3~5を参照すると、第一スクロールステップS2は、スクロールモジュールM2によって第一スクロールの方向D1に行われ、選択対象の位置が文字列32の文字を通って左から右へ徐々に移動する。特定の実施形態において、挿入マーカ29は、第一スクロールステップが進行している間、リアルタイムに選択対象の位置を規定してもよい。
一方、前記第二スクロールステップS10は、本例において、スクロールモジュールM2によって第二スクロールの方向D2に行われる。特に、この第二スクロールステップにより、認識モジュールM6によって認識され、挿入モジュールM8によって文字34の列32に挿入された1以上の文字(または少なくともその一部)を表示するためのスペースを認識領域28に設けることができる。
以下、図6および図7A~7Fを参照して、図5に例示されるような文字入力方法の特定の実施形態をより詳細に説明する。より詳細には、デバイス2は、本例においてメモリ6に記憶されたコンピュータプログラムPGを実行することによってこの方法を実施する。
本例において、デバイス2は、テキスト文字の入力および編集をできるようにするが、他の種類の文字でもよい。
初期状態として、本例において、ユーザが以下の文字34の列32をデバイス2にあらかじめ入力したとする。
「Hello how are you ?」
例えば、図7Aの内容表示領域22に例示するように、文字列32は、単語40および文法記号「?」から構成され、各単語は、少なくとも1文字34から構成される。
本例において、例えば、ユーザは、自身の指、スタイラス24などを入力領域20に接触させて上記文字列32(または文)を入力したとしてもよい。そのためには、例えば、デバイス2は、通常の入力モードで動作し、ユーザがテキストなどの文字を入力するための適切ないずれかのユーザインタフェースを使用して入力領域20に文字を入力できるようにしてもよい。例えば、通常の入力モードにおいて、入力領域20が挿入領域30を有さず、より大きな認識領域28を表示して、ユーザがより簡単かつより正確に文字入力をできるようにしてもよい。
変形例において、文字34の列32は、いずれかの適切な方法または手段によってデバイス2にあらかじめ入力されていてもよい。文字列32は、デバイス2に、例えばメモリ6によって、あらかじめ記憶されていてもよい。別の例において、デバイス2は、いずれかの適切な送信技術によって、文字列32「Hello how are you ?」を他の端末またはデバイスから受け取るように構成されてもよい。
さらに、特定の実施形態において、デバイス2は、現在、挿入モードで動作し、1以上の文字を選択された位置で文字34の列32に挿入できるようにしているとする。
図7Aに示すように、初期状態において、文字列32は、ユーザが簡単に可視化したり、見たり、または読んだりできるようなフォーマットで、内容表示領域22に表示される。内容表示領域22にカーソル42を表示して、文字34の列32内の現在アクティブな位置を示すようにしてもよい。
図6のS20において、例えばスクロールモジュールM2によって第一スクロールステップが行われ、文字34の列32を認識領域28においてスクロールする。本例において、第一スクロールステップS20は、ユーザから受け取ったスクロールコマンドに応じて、第一スクロールの方向D1に行われる。そうするために、ユーザは、例えば多位置対話式操作をユーザインタフェースに対して行ってもよい。多位置対話式操作は、例えば方向D1を指す矢印の近傍の2つのドットを図7Aに表されるような2つの指でタッチすることである。第一スクロールステップS20中に、ユーザは、このように文字34の列32を逆向きにスクロールして、少なくとも1文字が挿入されることになる文字列32内の特定の位置を探してもよい。
図7Aは、第一スクロールステップS20中の入力領域20の第一の状態を示す。ここで、認識領域28には、文字列32の最後(すなわち、文字「u?」)だけが表示される。
詳細は後述するが、挿入マーカ29は、ユーザが1以上の文字を挿入したい文字列32の位置を規定するために使用され得る。カーソル42が示す内容フィールド22内の現在アクティブな位置は、入力領域20における文字34の列32に対する挿入マーカ29の位置に対応してもよい。また、他の実施形態においては、そのような挿入マーカを考えなくてもよい。
図7Bは、第一スクロールステップS20がまだ進行中であるときの入力領域20の第二の状態を示す。ここで、文字列32は、方向D1にさらにスクロールされている。図から明らかなように、認識領域28内に表示された文字列32の最後の文字「you?」は、挿入領域30に入って消えるまで、認識領域28内を方向D1に沿って移動されている。
本例において、文字列32は、複数の単語40を含む。それぞれの単語は、少なくとも1文字34を含む(単語「how」および「are」は、それぞれ40aおよび40bで示される)。スクロールモジュールM2は、第一スクロールステップS20において、認識領域28内に位置する各単語40を表示するが、認識領域28を出て挿入領域30に全体が入った各単語40は隠すように構成される。図7Bから明らかなように、単語「you」および「?」は、認識領域28から完全に出たので消えている。単語「are」は、まだ認識領域28と挿入領域30との間の境界を移動する処理の最中であるので、まだ表示されている。後述において明らかになるが、第一スクロールステップS20において挿入領域30内に完全に入った単語を見えないように隠すことは、挿入領域30内に空いたスペースを維持して、ユーザが文字を挿入できるようにするためである。
別の例において、スクロールモジュールM2は、第一スクロールステップS20において、認識領域28内に位置する各単語40を表示するとともに、全体が認識領域28から出て挿入領域30内に入った各単語を部分的に隠すように構成されてもよい。挿入領域30に位置する単語を隠すか、またはフェードアウトする方法は、種々考えられ得る。
上記例において説明したように、スクロールモジュールM2は、第一スクロールステップS20において、認識領域28内に少なくとも部分的に位置する各単語40を表示するとともに、全体が認識領域28を出て挿入領域30に入った各単語40を隠すように構成される。この構成は、「単語隠蔽ルール」と称することもある。本開示において、他の隠蔽ルールが実装されてもよい。
例えば、挿入領域28から認識領域30に入った文字を隠すための隠蔽ルールは、文字レベルで適用してもよい。そのような構成において、各個々の文字34は、認識領域28から挿入領域30に入るとすぐに消える(この場合、単語の境界を待つ必要はない)。「文字隠蔽ルール」と称することもあるこの隠蔽ルールは、文字を単語に挿入するのに便利である。一方、「単語隠蔽ルール」は、完全な単語同士の間に文字を挿入するのに便利である。図7Dを参照して以下にさらに説明する第二スクロールステップS10は、実施された隠蔽ルールに従って実行されてもよい。
図7Cに例示するように、スクロールステップ(S20)は、少なくとも1文字が挿入されることになる、文字列32内の2つの連続した文字と文字の間の位置Pを選択するように、方向D1に継続して行われる。第一スクロールステップS20中に挿入位置を規定するために種々の技術が使用され得る。
本例において、スクロールモジュールM2は、第一スクロールステップS20中に、文字34の列32内で選択された位置Pが認識領域28内で挿入マーカ29の近傍に少なくとも部分的に表示された文字列32の最後の単語40a(この場合、「how」)の直後に続く位置となるように構成される。文字隠蔽ルールが実施された別の例において、選択された位置Pは、認識領域28内で挿入マーカ29の近傍に表示された文字列32の最後の文字34の直後に続く位置である。
本例において、スクロールステップS20は、単語「how」(40aで示す)の最後にある第一の文字「w」(34aで示す)と単語「are」(40bで示す)の最初にある第二の文字「a」(34bで示す)との間の位置を、位置Pとして、選択するように、図7Cに示す状態で終了する。図7Cの本例において、内容フィールド22内のカーソル42は、文字列42内の同じ位置Pに配置され、文字が挿入され得る挿入位置Pのユーザによる可視化を容易にする。
この特定の例においては、スクロールステップS20が終了することによって位置Pが自動的に選択されるので、位置Pの選択が簡単にできる。ユーザは、挿入位置Pを選択するためにさらなる対話式操作をする必要がない。
上記のように、挿入マーカ29を使用して、文字列32を認識領域28にわたってスクロールしながら(S20)、ユーザが適切な位置Pを選択するのを補助してもよい。選択された位置Pは、文字34の列32内における挿入マーカ29の相対位置に基づいて決定できる。本例において、挿入マーカ29は、認識領域28と挿入領域30との間の境界としてライン(この場合、破線)を形成する。本例において、挿入マーカ29は、入力領域20内において静止しており、文字列32が第一スクロールステップS2中にスクロールされ、文字列32に対する挿入マーカ29の位置、または挿入マーカ29に対する文字列32の位置が制御される。
図7A~7Cの例において、第一スクロールステップS20は、方向D1に行われる。別の例において、第一スクロールステップは、方向D2のスクロールステップを含んでもよい。あるいは、第一スクロールステップは、ユーザが文字を挿入したい適切な位置Pを探しながら方向D1およびD2に行われてもよい。上記のような単語隠蔽ルール(または、文字隠蔽ルール)が実施される場合、各単語(または、文字)は、一旦認識領域30から挿入領域28に完全に入ると挿入領域28に現れる。
図7Dに例示するように、一旦適切なまたは所望の位置Pが選択されると、ユーザは、文字34の列32内の位置Pに挿入したい1以上の文字(この場合、単語「good」の4文字)に対応する少なくとも1つのストローク36を手動で入力する。したがって、本例において、S22において、検出モジュールM4は、挿入領域30に手動で入力された少なくとも1つの入力ストローク36を検出する。
ストローク検出ステップS22は、デバイス2によっていずれの適切な方法で行われてもよい。
次いで、図7Eの例に示すように、認識モジュールM6は、手書き認識を行って、検出されたストローク36を少なくとも1つの認識された文字50に変換する(S24)。本例において、認識モジュールM6は、単語「good」を形成する文字50を認識する。上記のように、手書き認識は、デバイス2によっていずれの適切な方法で行われてもよい。
この段階において、本開示の異なる実施例が考えられ得る。本例において、手書き認識S24の進行中に、検出された入力ストローク36が表示される(S26)。これにより、手書きテキスト36をデジタルインクとして挿入領域30に一時的に表示できる(図7Dを参照)。
S28において、挿入モジュールM8は、手書き認識S24が完了したか否かを検出する。この検出は、認識モジュールM6が挿入モジュールM8に認識が完了したことを直接または間接的に伝えた結果として、または例えば手書き認識器によって認識結果が出力された際に、起こり得る。
一旦手書き認識S24が完了したことが検出されたら(S28)、挿入モジュールM8は、少なくとも1つの認識された文字50を文字34の列32内の位置Pに挿入し(S30)、スクロールモジュールM2は、認識領域28において、認識された文字50(本例において、「good」)の少なくとも一部を、文字50が文字34の列32に挿入された位置で、表示するように、文字列32を認識領域28内で方向D2にスクロール(S32)する。例えば図7Eから明らかなように、文字列32は、左方向へ逆向きにスクロールされ、挿入された単語「good」の文字「ood」が認識領域28内に見えるようにする。方向D2のスクロールステップS32によって、挿入領域30内に挿入スペース52を設け、挿入領域30内に追加のストロークを入力できるようにする。
本例において、第二スクロールステップS32の結果により認識領域28内に配置された各認識された文字50は、上記のようにテキストまたはタイプセットインクとして表示される。
本例において、また、挿入された文字50は、内容フィールド22の文字列32内の位置Pに挿入される。
図7Fおよび7Gに例示するように、第二スクロールステップS32の後、第三スクロールステップ(S34)が第二スクロールステップ(すなわち、この場合、方向D2)と同じ方向に行われ、認識領域28において、文字34の列32内の挿入された文字50の直後に続く少なくとも第二の文字34b(すなわち、単語40b「are」の最初の文字「a」)が表示されてもよい。挿入された単語「good」に続く文字は、スクロールステップと同じ速さで現れてもよい。また、内容フィールド22内のカーソル42の位置は、最新の可視文字または単語を考慮して、連続して更新されてもよい。第三スクロールステップS34によって、文字列32を認識領域28内で逆向きにスクロールし、挿入された文字50に続く文字または単語を認識領域28に表示できる。このようにユーザは、単語「good」が挿入された文32の少なくとも一部を見るか、または可視化できる。ユーザは、S20~S32について上記した方法と同じ方法で追加の文字を挿入するための他の位置Pを選択してもよい。
以下に、図8および9A~9Bを参照して、図5に例示したような文字入力方法の他の特定の実施形態をより詳細に説明する。より詳細には、デバイス2は、メモリ6に記憶されたコンピュータプログラムPGを実行することによってこの方法を実施する。
本例においても、ユーザがデバイス2に文字34の列32「Hello how are you ?」をあらかじめ入力しているか、またはデバイス2がこの文字列32を例えばメモリ6に記憶しており、図6を参照して上記したようにS20、S22およびS24が実行されているとする。
図9Aに示すように、手書き認識S24が行われながら、スクロールモジュールM2は、文字34の列32内の位置Pに、検出された少なくとも1つの入力ストローク36を挿入する(S40)。次いで、スクロールモジュールM2は、手書き認識の進行中に、挿入された少なくとも1つの入力ストローク36の少なくとも一部を認識領域28に表示するように、第二スクロールステップとして、文字列32を認識領域28に入るように方向D2にスクロールする(S42)。これにより、ユーザは、認識領域28においてユーザが入力したばかりの内容を可視化できるとともに、挿入領域30内にさらに入力するためのさらなるスペースまたは余地を設けることができるという利点がある。
S44において、上記のように、挿入モジュールM8は、手書き認識S24が完了したか否かを検出する。
図9Bに示すように、一旦手書き認識S24が完了すると、スクロールモジュールM2は、認識領域28に表示中の挿入された入力ストローク36を対応する認識された文字50に置き換える(S46)。
次いで、図6を参照して上記した方法と同じ方法で第三スクロールステップS34が行われてもよい。
本開示のシステムおよび方法によって、追加の文字を現在の文字列の前、中、または後の適切な位置に効率よくかつユーザフレンドリに挿入できる。したがって、追加の文字を自然かつ比較的迅速なやり方で入力できる。
特に、本教示によれば、挿入対象の位置を簡単に選択できる。本開示のシステムおよび方法によれば、ユーザは、複雑なまたは覚えるのが難しいジェスチャを行う必要がなく、文字挿入を行う手順を簡単に覚え得る。ユーザは、追加の文字を手書き入力用の入力領域に直接入力してもよい。特に、本システムおよび方法は、デジタルデバイスの入力領域とは別の入力フィールドを使用して追加の文字を入力する必要がない。
なお、いくつかの別の実施例において、ブロックに記載の機能は、図示の順番どおりに行われなくてもよい。例えば、連続する2つのブロックが実際には実質的に同時に実行されてもよいし、または逆の順番で実行されてもよいこともあるし、または関連する機能に応じて、別の順番で実行されてもよい。
さらに、本原理の局面は、コンピュータ読み取り可能な記憶媒体の形態をとることができる。1以上のコンピュータ読み取り可能な記憶媒体のいずれの組み合わせを利用してもよい。コンピュータ読み取り可能な記憶媒体は、1以上のコンピュータ読み取り可能な媒体に組み込まれ、コンピュータによって実行可能な、その媒体上に組み込まれたコンピュータ読み取り可能なプログラムコードまたは指示を有するコンピュータ読み取り可能なプログラム製品の形態をとることができる。本明細書中に使用されるコンピュータ読み取り可能な記憶媒体は、情報をそれ自体に記憶する能力および情報をそれ自体から取り出す能力を本質的に備える非一時的な記憶媒体であると考えられる。コンピュータ読み取り可能な記憶媒体は、例えば、電子、磁気、光、電磁気、赤外線、または半導体システム、装置、もしくはデバイス、またはこれらのいずれの適した組み合わせでもあり得るが、それらに限定されない。
本開示の特定の実施形態を説明したが、多くの変更および実施形態が当業者の能力内で、発明能力を発揮せずになされ得ることが明らかである。したがって、本発明の範囲は、以下の特許請求の範囲によって定義される。

Claims (12)

  1. プロセッサおよび前記プロセッサに動作可能に接続されるタッチスクリーン表示デバイスを備えるコンピューティングデバイスによって行われる文字入力方法であって、前記タッチスクリーン表示デバイスは、水平方向に互いに隣接する手書き認識領域およびデジタルインク挿入領域を含む対話式ユーザインタフェースを備え、前記方法は、
    前記タッチスクリーン表示デバイスの少なくとも前記手書き認識領域に表示された文字列を、前記プロセッサによって、スクロールし、前記表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択する第一スクロールステップであって、前記表示された文字列は、複数の単語を含み、前記複数の単語のそれぞれは、少なくとも1文字を含み、前記第一スクロールステップは、前記手書き認識領域に表示された前記文字列の各文字を、前記手書き認識領域内で、前記デジタルインク挿入領域に入るまで移動させることによって、第一方向にスクロールするステップを含み、前記第一スクロールステップ中に、前記手書き認識領域に完全に表示されている状態から前記デジタルインク挿入領域に全体が入った各単語を少なくとも部分的に隠しながら、前記手書き認識領域に配置された各単語を表示するステップをさらに含む、ステップと、
    前記デジタルインク挿入領域に手動で入力された少なくとも1つのデジタルインク入力ストロークを、前記タッチスクリーン表示デバイスによって、検出するステップと、
    前記プロセッサによって、手書き認識を使用して、前記少なくとも1つの検出されたデジタルインク入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記表示された文字列内の前記選択された位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記手書き認識領域において、前記表示された文字列を、前記プロセッサによって自動的に、前記第一方向とは反対の第二方向に移動することによって、前記表示された文字列をスクロールし、前記デジタルインク挿入領域に水平方向に隣接する前記手書き認識領域において、前記デジタルインク挿入領域における前記表示された文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示する、第二スクロールステップと
    を含む、方法。
  2. 前記第一スクロールステップにおいて、前記タッチスクリーン表示デバイス上に表示された挿入マーカが前記表示された文字列内の前記位置を規定する、請求項1に記載の方法。
  3. 前記挿入マーカは、前記第一スクロールステップ中に、前記手書き認識領域と前記デジタルインク挿入領域との間の境界に静止して配置される、請求項2に記載の方法。
  4. 記第一スクロールステップにおいて、前記表示された文字列内の前記選択された位置は、前記手書き認識領域に少なくとも部分的に表示された前記複数の単語の最後の単語の直後に続く位置である、請求項1に記載の方法。
  5. 前記第二スクロールステップは、前記少なくとも1つのデジタルインク入力ストロークの前記検出の後に自動的に行われる、請求項1に記載の方法。
  6. 前記第二スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される、請求項5に記載の方法。
  7. 前記手書き認識を使用する前記変換ステップが行われているときに、前記デジタルインク挿入領域において、前記検出された少なくとも1つのデジタルインク入力ストロークを表示するステップ
    をさらに含む、請求項1に記載の方法。
  8. 前記第二スクロールステップの後に、前記第二スクロールステップと同じ方向に第三スクロールを行い、前記手書き認識領域において、前記表示された文字列内の挿入された前記少なくとも1つの認識された文字の直後に続く前記第二の文字を表示するステップ
    を含む、請求項1に記載の方法。
  9. プロセッサおよび前記プロセッサに動作可能に接続されるタッチスクリーン表示デバイスを備えるコンピューティングデバイスによって行われる文字入力方法であって、前記タッチスクリーン表示デバイスは、水平方向に互いに隣接する手書き認識領域およびデジタルインク挿入領域を含む対話式ユーザインタフェースを備え、前記方法は、
    前記タッチスクリーン表示デバイスの少なくとも前記手書き認識領域に表示された文字列を、前記プロセッサによって、スクロールし、前記表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択する第一スクロールステップであって、前記第一スクロールステップは、前記手書き認識領域に表示された前記文字列の各文字を、前記手書き認識領域内で、前記デジタルインク挿入領域に入るまで移動させることによって、第一方向にスクロールするステップを含む、ステップと、
    前記デジタルインク挿入領域に手動で入力された少なくとも1つのデジタルインク入力ストロークを、前記タッチスクリーン表示デバイスによって、検出するステップと、
    前記プロセッサによって、手書き認識を使用して、前記少なくとも1つの検出されたデジタルインク入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記表示された文字列内の前記選択された位置に、前記検出された少なくとも1つのデジタルインク入力ストロークを挿入するステップと、
    前記手書き認識領域において、前記表示された文字列を、前記プロセッサによって、前記第一方向とは反対の第二方向に移動することによって、前記表示された文字列をスクロールし、前記手書き認識を使用する前記変換ステップが行われているときに、前記デジタルインク挿入領域に水平方向に隣接する前記手書き認識領域において、前記表示された文字列に挿入された前記少なくとも1つのデジタルインク入力ストロークの少なくとも一部を表示する、第二スクロールステップと
    を含む、方法。
  10. 前記第二スクロールステップは、
    前記手書き認識領域に挿入されて表示された前記少なくとも1つのデジタルインク入力ストロークを、前記手書き認識が完了した後に、前記少なくとも1つの認識された文字に置き換えるステップ
    を含む、請求項9に記載の方法。
  11. コンピュータ読み取り可能なプログラムコードを記憶した、非一時的なコンピュータ読み取り可能な媒体であって、前記コンピュータ読み取り可能なプログラムコードは、タッチスクリーン表示デバイスを備えるコンピューティングデバイスにおいて文字入力方法を実施するように、プロセッサによって、実行されるように適合され、前記タッチスクリーン表示デバイスは、水平方向に互いに隣接する手書き認識領域およびデジタルインク挿入領域を含む対話式ユーザインタフェースを備え、前記文字入力方法は、
    前記タッチスクリーン表示デバイスの少なくとも前記手書き認識領域に表示された文字列を、前記プロセッサによって、スクロールし、前記表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択する第一スクロールステップであって、前記表示された文字列は、複数の単語を含み、前記複数の単語のそれぞれは、少なくとも1文字を含み、前記第一スクロールステップは、前記手書き認識領域に表示された前記文字列の各文字を、前記手書き認識領域内で、前記デジタルインク挿入領域に入るまで移動させることによって、第一方向にスクロールするステップを含み、前記第一スクロールステップ中に、前記手書き認識領域に完全に表示されている状態から前記デジタルインク挿入領域に全体が入った各単語を少なくとも部分的に隠しながら、前記手書き認識領域に配置された各単語を表示するステップをさらに含む、ステップと、
    前記デジタルインク挿入領域に手動で入力された少なくとも1つのデジタルインク入力ストロークを、前記タッチスクリーン表示デバイスによって、検出するステップと、
    前記プロセッサによって、手書き認識を使用して、前記少なくとも1つの検出されたデジタルインク入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記表示された文字列内の前記選択された位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記手書き認識領域において、前記表示された文字列を、前記プロセッサによって自動的に、前記第一方向とは反対の第二方向に移動することによって、前記表示された文字列をスクロールし、前記デジタルインク挿入領域に水平方向に隣接する前記手書き認識領域において、前記デジタルインク挿入領域における前記表示された文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示する、第二スクロールステップと
    を含む、非一時的なコンピュータ読み取り可能な媒体。
  12. 文字を入力するためのシステムであって、前記システムは、
    手書き認識領域および文字入力を受け取るためのデジタルインク挿入領域含む対話式ユーザインタフェースを備えるタッチスクリーン表示デバイスであって、前記手書き認識領域および前記デジタルインク挿入領域は、互いに水平方向に隣接する、タッチスクリーン表示デバイスと、
    指示を含む非一時的なコンピュータ読み取り可能な媒体と、
    前記タッチスクリーンおよび前記非一時的なコンピュータ読み取り可能な媒体に動作可能に接続され、前記指示を実行して、動作を行うプロセッサと
    を備え、前記動作は、
    前記タッチスクリーン表示デバイスの少なくとも前記手書き認識領域に表示された文字列を、前記プロセッサによって、スクロールし、前記表示された文字列内の第一の文字と前記第一の文字に連続した第二の文字との間の位置を選択する第一スクロールステップであって、前記表示された文字列は、複数の単語を含み、前記複数の単語のそれぞれは、少なくとも1文字を含み、前記第一スクロールステップは、前記手書き認識領域に表示された前記文字列の各文字を、前記手書き認識領域内で、前記デジタルインク挿入領域に入るまで移動させることによって、第一方向にスクロールするステップを含み、前記第一スクロールステップ中に、前記手書き認識領域に完全に表示されている状態から前記デジタルインク挿入領域に全体が入った各単語を少なくとも部分的に隠しながら、前記手書き認識領域に配置された各単語を表示するステップをさらに含む、ステップと、
    前記デジタルインク挿入領域に手動で入力された少なくとも1つのデジタルインク入力ストロークを、前記タッチスクリーン表示デバイスによって、検出するステップと、
    前記プロセッサによって、手書き認識を使用して、前記少なくとも1つの検出されたデジタルインク入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記表示された文字列内の前記選択された位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記手書き認識領域において、前記表示された文字列を、前記プロセッサによって自動的に、前記第一方向とは反対の第二方向に移動することによって、前記表示された文字列をスクロールし、前記デジタルインク挿入領域に水平方向に隣接する前記手書き認識領域において、前記デジタルインク挿入領域における前記表示された文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示する、第二スクロールステップと
    を含む、システム。
JP2018545503A 2016-02-29 2017-02-24 文字列に文字を挿入するための方法およびシステム Active JP6991486B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP16305229.3 2016-02-29
EP16305229 2016-02-29
US15/192,252 2016-06-24
US15/192,252 US10416868B2 (en) 2016-02-29 2016-06-24 Method and system for character insertion in a character string
PCT/EP2017/054401 WO2017148833A1 (en) 2016-02-29 2017-02-24 Method and system for character insertion in a character string

Publications (3)

Publication Number Publication Date
JP2019514096A JP2019514096A (ja) 2019-05-30
JP2019514096A5 JP2019514096A5 (ja) 2020-04-02
JP6991486B2 true JP6991486B2 (ja) 2022-01-12

Family

ID=55524274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545503A Active JP6991486B2 (ja) 2016-02-29 2017-02-24 文字列に文字を挿入するための方法およびシステム

Country Status (6)

Country Link
US (1) US10416868B2 (ja)
EP (1) EP3423928A1 (ja)
JP (1) JP6991486B2 (ja)
KR (1) KR20180119646A (ja)
CN (1) CN109074223A (ja)
WO (1) WO2017148833A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3005175B1 (fr) 2013-04-24 2018-07-27 Myscript Systeme de synchronisation permanente pour la saisie manuscrite
US10248635B2 (en) 2016-02-29 2019-04-02 Myscript Method for inserting characters in a character string and the corresponding digital service
US10769424B2 (en) * 2019-02-11 2020-09-08 Google Llc Interactive editing of electronic text
KR102279164B1 (ko) * 2019-03-27 2021-07-19 네이버 주식회사 인공지능 모델을 이용한 이미지 편집 방법 및 장치
US11295410B2 (en) * 2019-04-12 2022-04-05 Rocket Innovations, Inc. Writing surface boundary markers for computer vision
CN111063223B (zh) * 2020-01-07 2022-02-08 杭州大拿科技股份有限公司 英语单词拼写练习方法及装置
CN111459378A (zh) * 2020-03-23 2020-07-28 广州视源电子科技股份有限公司 笔迹的处理方法和装置
CN113779932A (zh) * 2021-08-24 2021-12-10 深圳市明源云科技有限公司 数字格式化方法、装置、终端设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090087095A1 (en) 2001-05-31 2009-04-02 Palmsource, Inc. Method and system for handwriting recognition with scrolling input history and in-place editing

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550930A (en) * 1991-06-17 1996-08-27 Microsoft Corporation Method and system for training a handwriting recognizer at the time of misrecognition
US5596350A (en) * 1993-08-02 1997-01-21 Apple Computer, Inc. System and method of reflowing ink objects
JP2939119B2 (ja) * 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
JPH0816313A (ja) 1994-07-04 1996-01-19 Sanyo Electric Co Ltd 手書き入力方法及び装置
US5838302A (en) 1995-02-24 1998-11-17 Casio Computer Co., Ltd. Data inputting devices for inputting typed and handwritten data in a mixed manner
JP3427692B2 (ja) 1996-11-20 2003-07-22 松下電器産業株式会社 文字認識方法および文字認識装置
US6408092B1 (en) 1998-08-31 2002-06-18 Adobe Systems Incorporated Handwritten input in a restricted area
US6256009B1 (en) 1999-02-24 2001-07-03 Microsoft Corporation Method for automatically and intelligently scrolling handwritten input
US6577296B2 (en) * 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US20030007018A1 (en) * 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US7158678B2 (en) * 2001-07-19 2007-01-02 Motorola, Inc. Text input method for personal digital assistants and the like
US6661409B2 (en) 2001-08-22 2003-12-09 Motorola, Inc. Automatically scrolling handwritten input user interface for personal digital assistants and the like
US7804489B1 (en) * 2001-08-29 2010-09-28 Palmsource Inc. Method and apparatus for displaying information in a display screen region identified by permanent printing
JP4654553B2 (ja) * 2001-09-07 2011-03-23 ブラザー工業株式会社 文字列編集装置及び文字列編集プログラム
US7380203B2 (en) 2002-05-14 2008-05-27 Microsoft Corporation Natural input recognition tool
US7174042B1 (en) 2002-06-28 2007-02-06 Microsoft Corporation System and method for automatically recognizing electronic handwriting in an electronic document and converting to text
US7251367B2 (en) 2002-12-20 2007-07-31 International Business Machines Corporation System and method for recognizing word patterns based on a virtual keyboard layout
US7193616B2 (en) * 2003-05-30 2007-03-20 Hewlett-Packard Development Company, L.P. Systems and methods for facilitating composition of handwritten documents
US7567239B2 (en) * 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
CN100407223C (zh) * 2004-04-02 2008-07-30 诺基亚公司 一种用于手写识别的设备和方法
AU2005251170B2 (en) * 2004-06-01 2009-08-27 Mattel, Inc. An electronic learning device with a graphic user interface for interactive writing
US20070094024A1 (en) 2005-10-22 2007-04-26 International Business Machines Corporation System and method for improving text input in a shorthand-on-keyboard interface
US8116569B2 (en) 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
EP2088536B1 (en) 2008-02-08 2021-08-11 Nokia Technologies Oy Text input system and method involving finger-based handwriting recognition and word prediction
US9355090B2 (en) * 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
US9367216B2 (en) * 2009-05-21 2016-06-14 Sony Interactive Entertainment Inc. Hand-held device with two-finger touch triggered selection and transformation of active elements
US20110320978A1 (en) 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120032877A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
WO2012054062A1 (en) 2010-10-22 2012-04-26 Hewlett-Packard Development Company, L.P. User interface for facilitating character input
US9141285B2 (en) * 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US20120216113A1 (en) 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
CN103547983B (zh) 2011-05-20 2016-04-06 微软技术许可有限责任公司 用于手写输入的用户界面
KR101976177B1 (ko) * 2012-07-09 2019-05-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US10838513B2 (en) 2012-08-06 2020-11-17 Nokia Technologies Oy Responding to selection of a displayed character string
US9846536B2 (en) * 2012-12-17 2017-12-19 Microsoft Technology Licensing, Llc Composition of handwritten messages on mobile computing devices
CN103970467A (zh) * 2013-02-04 2014-08-06 英华达(上海)科技有限公司 多重输入法手写辨识系统及其方法
CN104007914A (zh) * 2013-02-26 2014-08-27 北京三星通信技术研究有限公司 对输入字符进行操作的方法及装置
FR3005175B1 (fr) 2013-04-24 2018-07-27 Myscript Systeme de synchronisation permanente pour la saisie manuscrite
US9733716B2 (en) * 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9201592B2 (en) * 2013-08-09 2015-12-01 Blackberry Limited Methods and devices for providing intelligent predictive input for handwritten text
KR102162836B1 (ko) * 2013-08-30 2020-10-07 삼성전자주식회사 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
US9411508B2 (en) 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
US10248635B2 (en) 2016-02-29 2019-04-02 Myscript Method for inserting characters in a character string and the corresponding digital service
US10228839B2 (en) * 2016-11-10 2019-03-12 Dell Products L.P. Auto-scrolling input in a dual-display computing device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090087095A1 (en) 2001-05-31 2009-04-02 Palmsource, Inc. Method and system for handwriting recognition with scrolling input history and in-place editing

Also Published As

Publication number Publication date
KR20180119646A (ko) 2018-11-02
WO2017148833A1 (en) 2017-09-08
US20170249505A1 (en) 2017-08-31
JP2019514096A (ja) 2019-05-30
US10416868B2 (en) 2019-09-17
EP3423928A1 (en) 2019-01-09
CN109074223A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
JP6902234B2 (ja) 文字列に文字を挿入するための方法および対応するデジタルデバイス
US7002560B2 (en) Method of combining data entry of handwritten symbols with displayed character data
CN101506867B (zh) 带有输入敏感显示设备的键盘
KR102413461B1 (ko) 제스쳐들에 의한 노트 필기를 위한 장치 및 방법
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
US10996843B2 (en) System and method for selecting graphical objects
WO2013171919A1 (ja) 表示制御装置、制御プログラム、および表示装置の制御方法
US11209976B2 (en) System and method for editing input management
JP5925957B2 (ja) 電子機器および手書きデータ処理方法
JP2004342101A (ja) データ処理装置及び方法
JP6057441B2 (ja) 携帯装置およびその入力方法
EP4047465A1 (en) Modifying digital content
US20150347004A1 (en) Indic language keyboard interface
JP5213794B2 (ja) 情報処理装置及び情報処理方法
JP6251408B2 (ja) 電子機器、方法及びプログラム
JP6376953B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6991486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150