JP2019514097A - 文字列に文字を挿入するための方法および対応するデジタルデバイス - Google Patents

文字列に文字を挿入するための方法および対応するデジタルデバイス Download PDF

Info

Publication number
JP2019514097A
JP2019514097A JP2018545504A JP2018545504A JP2019514097A JP 2019514097 A JP2019514097 A JP 2019514097A JP 2018545504 A JP2018545504 A JP 2018545504A JP 2018545504 A JP2018545504 A JP 2018545504A JP 2019514097 A JP2019514097 A JP 2019514097A
Authority
JP
Japan
Prior art keywords
character
area
string
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018545504A
Other languages
English (en)
Other versions
JP2019514097A5 (ja
JP6902234B2 (ja
Inventor
クエリエ,ジョエル
デバージュ−クザン,ラエティティア
Original Assignee
マイスクリプト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/192,252 external-priority patent/US10416868B2/en
Application filed by マイスクリプト filed Critical マイスクリプト
Publication of JP2019514097A publication Critical patent/JP2019514097A/ja
Publication of JP2019514097A5 publication Critical patent/JP2019514097A5/ja
Application granted granted Critical
Publication of JP6902234B2 publication Critical patent/JP6902234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本開示は、入力面および出力面を含むデジタルデバイスを含み得る文字入力方法およびシステムに関する。この方法およびシステムは、出力面の認識領域(28)および挿入領域(30)を使用して文字列(32)を表示するステップと、文字列(32)内の位置を選択するステップと、前記認識領域(28)において、第一の文字(34)で終わる文字列(32)の部分を表示し、同時に挿入領域(30)において第二の、後続の文字で始まる文字列(32)の一部を隠すステップと、挿入領域に手動で入力された入力ストローク(36)を検出するステップと、手書き認識を行うステップと、文字(34)の文字列(32)内の位置に、認識された文字を挿入するステップと、前記認識領域(28)において、文字(34)の列(32)に挿入された、認識された文字を表示するように、前記認識領域(28)において、文字列(32)をスクロールするステップを含む動作を含むか、または行い得る。

Description

関連出願の参照
本出願は、2016年2月29日に出願された欧州特許出願第16 305 229.3号、2016年6月24日に出願された米国特許出願第15/192,252号、2016年5月11日に出願された欧州特許出願第16 305 550.2号、および2016年7月22日に出願された米国特許出願第15/217,697号に基づく優先権を主張し、その内容のすべてを参照としてここに援用する。
本開示は、概してユーザによって入力された手書きの種々の文字を認識できる電子デバイスの分野に関し、より具体的には、1以上の文字を文字列に挿入するためのシステムおよびそれに対応する方法に関する。
コンピュータデバイスは、日常生活への普及がますます広がっている。コンピュータデバイスは、種々の形態をとり得る。例えば、デスクトップコンピュータ、ラップトップ、タブレットPC、ハイブリッドコンピュータ(2in1)、電子ブックリーダ、携帯電話、スマートフォン、ウエラブルコンピュータ(スマートウォッチ、スマートグラス/ヘッドセットなど)、全地球測位システム(GPS)ユニット、業務用情報端末(EDA)、個人用情報端末(PDA)、ゲーム機などである。さらに、コンピュータデバイスは、自動車、トラック、農場設備、製造設備、建設環境制御(例えば、照明、HVAC)、ならびに家庭用および商用機器などの車両および設備にますます組み込まれてきている。各種のコンピュータデバイスは、特定のコンピュータリソースを備え、特定の用途のために設計される。これらの種々のコンピュータデバイスおよびその使用において、ユーザがそのコンピュータデバイスを対話式操作(interact)できるようにするためには種々の入力デバイスが必要となる。
そのような入力デバイスの1つは、タッチスクリーンまたはタッチパッドなどのタッチセンサ式表面(surface)である。タッチセンサ式表面において、ユーザ入力は、ユーザの体の一部(例えば、指)またはユーザに保持された道具(例えば、ペンまたはスタイラス)とタッチセンサ式表面との間の接触を介して受け取られる。別の入力デバイスとして、ユーザが入力面の上方で行ったジェスチャまたは動きを感知する入力面がある。さらに別の入力デバイスとして、非接触の物理的または仮想的表面との接触もしくは非接触の相互作用(interaction)の相対位置を検出する位置検出システムがある。これらの方法はいずれも、例えばアルファベット、数、文法および記号文字などのテキスト内容を入力するためなど、一般に手描きまたは手書きのために使用され得る。ユーザが描くまたは書くことより入力した場合、そのユーザの手書きは、通常、リアルタイム式の手書き認識システムまたは方法を使用して読み取られる。そのために、オンラインシステム(例えば、クラウドベースの手段などを使用して認識が実行される)またはオフラインシステムのいずれを使用してもよい。
一般に、手書き認識システムまたは方法は、例えばユーザがタッチセンサ式表面に接触する(例えば、ペンを表面に下す)などのストロークの開始、例えばユーザがタッチセンサ式表面に接触することを止める(例えば、ペンを画面から上げる)などのストロークの終了、およびストロークの開始から終了までの間にユーザが指または道具を用いて生成するいずれのストロークまたはラインもモニタする。
コンピュータデバイスの形式によって、文字を入力するために使用されるユーザ入力インタフェースまたは方法が決定され得る。コンピュータデバイスが小型化されるにつれ、ユーザが直感的かつ簡単に内容を入力できるような様々な入力インタフェースおよび方法が開発されてきた。
ユーザが入力文字を描くコンピュータデバイスにおいて、現在のテキストへの文字の挿入を管理することなどは、一般にユーザが指または道具を用いて特定のジェスチャを行う必要があるので困難な課題である。従来のテキスト挿入技術は、一般に複雑または直感的でない対話式操作(interaction)をユーザがインタフェース表面に対して行う必要があるのでユーザフレンドリでない。ユーザは、特定のコンピュータデバイスに実装された挿入技術(実装されている場合)を理解しないか、または覚えていないことが非常に多い。従来の技術の中には、現在の内容を編集するための内容を通常の入力フィールドとは別の専用の編集フィールドに挿入することをユーザに要求し、それによって、より小さなインタフェースを有するデバイスに対する入力インタフェースおよびアプリケーションのエルゴノミクスを低減する技術がある。
加えて、ユーザが内容挿入を行いたい現在の文字を表示するためのスペースがインタフェース表面上に常に十分にあるとは限らないので、内容が挿入されることになる位置を選択する処理が困難となる。
したがって、上記のようなコンピュータデバイスを使用する際に現在の内容に対して内容を挿入することを可能にするためのより効率的でユーザフレンドリな入力方法およびシステムが求められている。
特定の局面によると、本開示は、文字を入力するための入力面および文字を表示するための出力面を備えるデジタルデバイスによって行われる文字入力方法に関する。前記出力面は、認識領域および挿入領域を備える。前記方法は、
文字列を前記認識領域および前記挿入領域を使用して表示するための第一表示ステップであって、前記認識領域および前記挿入領域は、前記第一表示ステップのための表示領域として使用される、第一表示ステップと、
ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するステップであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、ステップと、
前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するための第二表示ステップと、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第一スクロールステップと
を含む。
本開示の方法によれば、追加の文字を現在の文字列の前、中または後の適切な位置に効率的かつユーザフレンドリに挿入できる。したがって、自然かつ比較的迅速なやり方による追加の文字の入力が提供される。
特に、タッチスクリーンのより大きな面積を使用して閲覧(inspect)中の文字列が表示されるので、ユーザは、文字を挿入すべきか(およびどこに挿入するか)を決定する際に、現在の文字列の内容を簡単に閲覧し得る。
さらに、本教示によれば、挿入対象の位置を簡単に選択できる。ユーザは、タッチスクリーンに対して簡単かつ直感的な対話式操作を行うことによって、現在の文字列内に文字を挿入する挿入手順(sequence)を開始してもよい。
文字挿入は、複雑なまたは覚えるのが難しいジェスチャを行う必要なく、行われ得る。本開示のシステムおよび方法によれば、ユーザは、文字挿入を行うための手順(procedure)を簡単に覚え得る。ユーザは、手書き入力用の入力領域に直接に追加の文字を挿入してもよい。特に、本開示のシステムおよび方法によれば、デジタルデバイスの入力領域とは別の入力フィールドを使用して追加の文字を挿入する必要がなくなる。
特定の実施形態において、前記方法は、前記対話式操作として、ユーザが前記入力面に接触することによって行われる対話式操作を検出するステップを含む。
特定の実施形態において、前記検出ステップは、
前記検出された対話式操作のパターンを少なくとも1つの所定の対話式操作パターンと比較するステップと、
前記検出された対話式操作のパターンが前記少なくとも1つの所定の対話式操作パターンのうちの1つと一致する場合、前記対話式操作に応答して、前記選択ステップおよび前記第二表示ステップを行うステップと
を含む。
特定の実施形態において、前記選択された位置は、前記第一表示ステップにおいて出力面に表示された前記文字に対する前記入力面上の前記対話式操作の位置に基づいて決定される。
特定の実施形態において、前記対話式操作は、次のうちの少なくとも1つにおいて検出される。
前記認識領域、
前記挿入領域、および
前記出力面上において、前記第一の文字および前記第二の文字を含む前記文字列の少なくとも一部を表示する内容表示フィールド。
特定の実施形態において、前記対話式操作は、前記入力面に接触して行われる所定のジェスチャ、または前記入力面上の所定のトグル入力(multi−tap)である。
特定の実施形態において、前記対話式操作は、前記第一表示ステップ中に前記入力面上の前記文字列の表示領域を交差するように、前記入力面と接触して行われる実質的に垂直な(縦方向の(vertical))ジェスチャを含む。
特定の実施形態において、前記第二表示ステップは、前記対話式操作に応答して、前記第一の文字を前記挿入領域に隣接する前記認識領域の一側部に移動させるように、前記文字列を自動的にスクロールするステップを含む。
特定の実施形態において、前記第二表示ステップは、前記対話式操作に応答して、
前記第一の文字が前記対話式操作の検出時に前記挿入領域内にある場合、前記第一の文字を前記挿入領域から前記認識領域中に移動させるように、前記文字列を自動的にスクロールするステップ
を含む。
特定の実施形態において、前記認識領域および前記挿入領域は、互いに隣接する。
特定の実施形態において、前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含む。前記方法は、
前記第一表示ステップ中に、前記認識領域に配置された各単語および前記認識領域に配置された各単語を表示するステップ
をさらに含む。
特定の実施形態において、前記第一スクロールステップにおいて、前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記文字列は、前記挿入領域から前記認識領域に向かう方向にスクロールされる。
特定の実施形態において、前記第一スクロールステップは、前記少なくとも1つの入力ストロークを検出するステップの後に自動的に行われる。
特定の実施形態において、前記第一スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される。
特定の実施形態において、前記方法は、前記手書き認識が行われているときに、前記挿入領域において、前記検出された少なくとも1つの入力ストロークを表示するための第三表示ステップを含む。
特定の実施形態において、前記第一スクロールステップは、
前記文字列内の前記位置に、前記検出された少なくとも1つの入力ストロークを挿入するステップと、
前記手書き認識が行われているときに、前記認識領域において、前記挿入された少なくとも1つの入力ストロークの少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするステップと
を含む。
特定の実施形態において、前記第一スクロールステップは、
前記手書き認識が一旦完了したら、前記認識領域に表示されている前記挿入された少なくとも1つの入力ストロークを、前記少なくとも1つの認識された文字に置き換えるステップ
を含む。
特定の実施形態において、前記第一スクロールステップにおいて、前記少なくとも1つの挿入された文字は、前記認識領域にタイプセット(typeset)テキストとして表示される。
特定の実施形態において、前記方法は、前記第一スクロールステップの後に、前記認識領域から前記挿入領域に伸びる前記文字列を表示させるための第二スクロールステップを含む。
特定の実施形態において、前記入力面および前記出力面は、前記デジタルデバイスを構成するタッチスクリーンによって形成される。
別の局面によると、本開示は、コンピュータ読み取り可能なプログラムコードが組み込まれた、非一時的なコンピュータ読み取り可能な媒体に関する。前記コンピュータ読み取り可能なプログラムコードは、文字を入力するための入力面と文字を表示するための出力面とを備えるデジタルデバイスにおいて文字入力方法を実施するように実行されるように適合される。前記出力面は、認識領域および挿入領域を備える。前記方法は、
文字列を前記認識領域および前記挿入領域を使用して表示するための第一表示ステップであって、前記認識領域および前記挿入領域は、前記第一表示ステップのための表示領域として使用される、第一表示ステップと、
ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するステップであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、ステップと、
前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するための第二表示ステップと、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第一スクロールステップと
を含む。
本開示のコンピュータプログラム(またはコンピュータプログラム製品)は、いずれのプログラミング言語でも表現可能であり、プロセッサ実行可能な指示、ソースコード、オブジェクトコード、またはソースコードとオブジェクトコードとの間のいずれの中間コード(例えば部分的にコンパイルされた形態またはいずれの他の適切な形態など)の形態をとることも可能である。
また、本開示は、上記のようなコンピュータ読み取り可能なプログラムコードを提供する。
上記の非一時的なコンピュータ読み取り可能な媒体は、前記コンピュータプログラムを記憶することができるいずれの物(entity)またはデバイスでもあり得る。例えば、前記記録媒体は、ROMメモリ(CD−ROMまたはマイクロ電子回路に実装されたROM)などの記憶手段、またはフロッピーディスクまたはハードディスクなどの磁気記憶手段を備えることができる。
本開示の非一時的なコンピュータ読み取り可能な媒体は、電気または光信号などの伝達可能媒体に対応することができる。伝達可能媒体は、電気もしくは光ケーブルを介して、または無線もしくはいずれの他の適切な手段によっても伝搬され得る。本開示に係るコンピュータプログラムは、特にインターネットまたはネットワークなどからダウンロードされ得る。
あるいは、前記非一時的なコンピュータ読み取り可能な媒体は、コンピュータプログラムがロードされる集積回路に対応することができる。その回路は、本発明の方法を実行するように、またはその実行において使用されるように適合される。
また、本開示は、デジタルデバイスへの文字入力を提供するためのシステムに関する。そのデジタルデバイスは、プロセッサ、文字を入力するための入力面および文字を表示するための出力面、ならびに少なくとも1つの非一時的なコンピュータ読み取り可能な媒体を備える。前記出力面は、認識領域および文字入力を受け取るための挿入領域を含む。前記少なくとも1つの非一時的なコンピュータ読み取り可能な媒体は、前記プロセッサの制御下に、
文字列を前記認識領域および前記挿入領域を使用して表示するための表示モジュールであって、前記認識領域および前記挿入領域は、前記第一表示ステップのための表示領域として使用される、表示モジュールと、
ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するための選択モジュールであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、選択モジュールと、
ここで、前記表示モジュールは、前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するように構成され、
前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するための検出モジュールと、
手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するための認識モジュールと、
前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するための挿入モジュールと
を構成し、
前記表示モジュールは、前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするように構成される。
特定の実施形態において、前記システムまたはデバイスは、タッチスクリーンを備える。前記タッチスクリーンによって、前記入力面および前記出力面が形成される。
本開示の文字入力方法に関連して上記に規定された種々の実施形態は、同様に本開示の非一時的なコンピュータ読み取り可能な媒体、システムおよびデジタルデバイスに適用される。
本明細書の一部をなす添付図面は、1以上の実施形態を描いたものであり、その記述と共にそれら実施形態を説明するものである。
図1は、本開示の特定の実施形態に係るデジタルデバイスの図である。 図2は、特定の実施形態に係る、図1のデジタルデバイスを示す図である。 図3は、特定の実施形態に係る、デジタルデバイスのユーザインタフェースの入力領域を示す図である。 図4は、特定の実施形態に係る、図1のデジタルデバイスによって実装されたモジュールを示すブロック図である。 図5は、本開示の特定の実施形態に係る文字入力方法を示すフローチャートである。 図6は、本開示の特定の実施形態に係る文字入力方法を示すフローチャートである。 図7Aは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。 図7Bは、本開示の特定の実施形態に係る文字入力方法中のコンピュータデバイスのユーザインタフェースを示す図である。 図7Cは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。 図7Dは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。 図7Eは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。 図7Fは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。 図7Gは、本開示の特定の実施形態に係る文字入力方法中のユーザインタフェースを示す図である。
図中の構成要素は、必ずしも正確な縮尺ではなく、その代わりに本開示の原理を例示することに重点を置いている。
簡潔で明瞭な図示となるように、特に断らない限り、同じまたは類似の構成要素は、図面全体にわたり同じ参照符号で示される。
以下の詳細な記載において、関連する教示を十分に理解できるように、例を用いて多くの具体的な詳細を説明する。しかし、本教示がそのような詳細がなくとも実施され得ることは、当業者には明らかである。他の例において、周知の方法、手順、および/または構成要素は、本教示の局面を不必要に不明瞭にしないように、詳細を記載せず、比較的大局的に説明する。
以下、添付の図面を参照して例示の実施形態を説明する。本発明は、以下の詳細な記載によって限定されない。代わりに、本発明の範囲は、付属の特許請求の範囲によって定義される。図示されるような種々の実施形態において、デジタルデバイス、文字入力方法およびそれらに対応するコンピュータ読み取り可能な媒体上のコンピュータプログラムを説明する。
上記のように、本開示は、概してユーザによって入力された手書きの種々の文字を認識できる電子デバイスの分野に関し、より具体的には、1以上の文字を文字列に挿入するためのデジタルデバイスおよびその対応の方法に関する。開示のデジタルデバイスおよび方法は、ユーザインタフェースに特異的に生じる問題を解決するコンピュータ技術に基づく。そのような問題は、例えば、どのように手書きの文字をデジタルデバイスのユーザインタフェース上に表示された現在のテキストに正確にかつ精度よく挿入するかという問題である。このように、本開示のデジタルデバイスおよび方法によって、文字情報を表示し、ユーザと対話(interact)するというコンピュータの機能が改善される。
本明細書において、「文字」は、いずれの種類のテキストまたは非テキストの文字、記号なども指すと広義に理解され、2以上の文字を含む。文字は、例えば、英数字、字、数字、単語、文法記号、標識、空白(スペース)文字、またはそれらのいずれの組み合わせでもあり得る。なお、他の種類の文字も考えられ得る。さらに、本明細書における用語「テキスト」の使用は、いずれの筆記言語におけるすべての英数字およびその文字列も含むと理解され、および筆記テキストに使用される一般の非英数字、例えば記号、を含むと理解される。さらに、本明細書における用語「非テキスト」は、非テキストの状況において使用される、自由形式の手書きまたは手描き内容ならびにレンダリングされたテキストおよび画像データ、さらには非英数字およびその文字列、ならびに英数字およびその文字列を含むと理解される。
上方、下方、上、下、最低、最高、水平、垂直などの方向についての特徴は、認識対象の入力がなされる入力面に適用されるようなデカルト座標系を基準にして、参照および記載される。さらに、左および右などの用語は、添付の図面を見る際の読者の基準系に基づいて規定される。図面に示す例は、左から右に書かれる言語を想定し、したがって、異なる向きの形式を有する筆記言語に合わせて、いずれの位置基準も適合させることができる。
本明細書において、用語「手書き」は、ユーザが自身の手または指を使用して、デジタルまたはデジタル接続の媒体(例えば、タッチスクリーン)に、直接にまたは手持ちのスタイラスなどの入力道具を介して、デジタル内容を生成することを意味する。本明細書において、用語「手」は、入力方法を簡潔に記載するために用いられるが、同様の入力を行うために足、口、目などのユーザの体の他の部位を使用することもこの定義に含まれる。
図1および2は、本開示の特定の実施形態に係るコンピュータデバイスまたはデジタルデバイス2を模式的に示す。本例に記載のデバイス2は、タッチスクリーン10を備えるスマートフォンである。ユーザは、自身の指またはスタイラス24などを使用してタッチスクリーン10を対話式操作(interact)して、手書きで文字34を入力する。
なお、デバイス2は、タッチセンサ式表面を備え、本開示に係る文字入力方法を実施するための適切ないずれの機器(携帯可能またはそうでないもの)(デスクトップPC、タブレットPC、個人用情報端末など)の形態であってもよい。
図1に示すように、デバイス2は、プロセッサ4、書き換え可能な不揮発性メモリ6(例えば、フラッシュメモリなど)、RAMメモリ8、および文字の入力や表示を可能にする入出力インタフェース10を有する。入出力インタフェース10は、文字の手書き入力および入力された文字のいずれか適切な形態での表示を可能にするユーザインタフェースである。図1の特定の実施形態において、入出力インタフェース10は、文字を表示するためのディスプレイ(または、出力面)10aおよびディスプレイ10a上で文字を入力するための入力面10bを有する。特定の実施形態において、入力面10bは、タッチセンサ式表面である。別の実施形態において、入力面10bは、近接センサ式表面である。近接センサ式表面は、表面10の近くにおいて、体の一部(例えば、指)または道具(例えば、スタイラス)を検出するように構成される。そのような近接センサ式表面を使用して、物理的な接触なしに、文字を入力できる。別の実施形態において、入力面10は、プロジェクタ(例えば、タッチプロジェクタ)を使用して形成された投影表面である。タッチプロジェクタは、例えば、仮想「キー」の配列をテーブルまたはホワイトボードなどのいずれかの適切な表面に投影し、ユーザが投影されたキー配列を対話式操作できるように構成され得る。本例において、入出力インタフェース10は、タッチスクリーンである。他の実施形態において、ディスプレイ10aおよび入力面10bは、デバイス2または別々の接続デバイスの別々の構成要素であってもよい。
デバイス2の不揮発性メモリ6は、本開示の特定の実施形態に係るコンピュータ利用可能媒体(または記録媒体)を構成する。メモリ6は、本開示の特定の実施形態に係るコンピュータプログラム(またはコンピュータ読み取り可能なプログラムコードなど)PGを含む。このコンピュータプログラムは、本発明の特定の実施形態に係る方法または動作を実施するためのプロセッサ実行可能指示を有する。
コンピュータプログラムPGは、デバイス2に入力された手書きを認識するための指示を含んでもよい。あるいは、デバイス2は、入力された手書きを認識するリモートシステムに接続されてもよい。本システムおよび方法によって利用可能な手書き認識処理は、公知の手書き認識方法、または例えば本願と同じ出願人および譲受人の名の下に2014年4月24日に出願された国際出願PCT/FR2014/050991の国際公開WO2014/174219(その内容のすべてを参照としてここに援用する)に記載されるようなニューラルネットワークなどの特定の方法の形態をとってもよい。
図2に示すように、デバイス2のタッチスクリーン10は、第一の領域22(本例の内容表示フィールドまたはゾーン)および第二の領域20(内容入力フィールドまたはゾーン)を含む。入力領域20は、対話式操作可能であり、したがって、ユーザは、例えばスタイラス24を使用して、文字34を入力領域20に入力することによって、文字列32を形成する。本例において、文字34の列32は、文法記号を伴った複数の単語を有するテキストを形成する。本例において、文法記号は、コンマである。図から明らかなように、本例において、入力領域は、テキストの数個の文字または単語を一度に表示できるように構成される。本システムおよび方法を使用して入力を受け取ると、手書き入力は、よく理解されたやり方で、いわゆる「デジタルインク」(例えば、スタイラス24の動きをとらえて、手書きを入力時の形態で表示したインクオブジェクト)として入力領域20にレンダリングされる。デジタルインクは、ユーザによって入力されたストロークを表す。手書きストロークは、処理され、その内容が認識される。例えば、特定の文字が認識される。出力された認識結果は、よく理解されたやり方で、いわゆる「タイプセットインク」(例えば、タイプセットフォントテキストとして表示されるデジタルオブジェクト表示)としてレンダリングされ、先にデジタルインクバージョンでレンダリングされていた認識された内容がタイプセットインクに置き換えられる。
例えば、図2に示すように、入力領域20に表示された文字列32において、単語「Hello」およびコンマ「,」を形成する手書き入力は、認識処理されており、その認識結果が文字34を表すタイプセットインクバージョンとして表示されている。しかし、文字「ho」を形成する手書き入力は、例えばまだペン上げイベントが起きていないので、まだ認識処理されておらず、したがって、入力文字35は、デジタルインクとしてレンダリングされる。認識された内容を入力領域20においてユーザに対して表示することは、入力中に手書き認識フィードバックを与えるので有用であるが、本システムおよび方法は、入力をデジタルインクのみで表示してもよいし、または例えばユーザがジェスチャ入力やメニュー表示を介してデジタルインクまたはタイプセットインクの表示を選択できるようにしてもよい。
後述するように、本例において、入力領域20は、2つの領域、すなわち認識領域28および挿入領域30、から形成される。
また、本実施形態において、内容表示フィールド22は、対話式操作可能となるように
タッチスクリーン10上に設けられる。内容表示フィールド22は、例えば、入力領域20よりも大きな領域において、例えばより小さなテキストフォントを使用して、入力領域20においてユーザによって入力された文字列32の一表現を表示するように構成される。
本例において、内容表示領域22は、例えば、単語および文を適切に再度流しつつ(reflow)、数行のテキストを一度に表示できるように構成される。このように、ユーザは、入力領域20の構成またはサイズに制限はあるが、入力内容の表示を与えられる。あるいは、内容表示領域22は、例えば入力領域20よりも小さなフォントで一行だけの内容を表示し、より多くの内容が入力された場合、またはジェスチャなどのユーザの対話式操作を介した場合に、内容の表示がスクロールされるようにしてもよい。本システムおよび方法によって手書き入力34から認識された場合と同様に、内容表示フィールド22におけるテキストは、一般によく理解されたやり方で、デジタルオブジェクトとして、例えばタイプセットインクで、レンダリングされる。
例えば、図2において、内容表示領域22に表示された文字列32において、単語「Hello」およびコンマ「,」を形成する認識された内容は、入力領域20においての表示と同様に、タイプセットインクバージョンの文字34として表示されるが、入力領域20において文字「ho」を形成する手書き入力は、まだ認識処理されておらず、したがって、対応する文字が内容表示領域22にまだ表示されていない。認識された内容をユーザに対して内容表示領域22において表示することは、継続中の入力に対して前後関係(context)を与えるので有用であるが、本開示に係るデジタルデバイスは、そのような(認識された)内容表示を含まずに実装され得る。あるいは、本システムおよび方法は、入力領域20に加えて、内容表示領域22にも表示するか否かをユーザが選択できるようにしてもよい。さらに、本システムおよび方法は、内容表示領域22における内容をタイプセットインクの代わりにデジタルインクとして表示してもよいし、またはデジタルインクまたはタイプセットインクの表示を、例えばジェスチャ入力またはメニュー表示を介して、ユーザが選択できるようにしてもよい。
特定の実施形態によれば、デバイス2は、挿入モードに従って動作し、ユーザが少なくとも1つの新しい文字を文字列内に挿入できるようにしてもよい。挿入モードは、例えば所定のコマンドの受け取りに応じてデバイス2によって実装される機能でもよい。いくつかの実装例において、所定のコマンドは、多位置対話式操作であってもよい。すなわち、多指押しまたはスワイプ(さらなる説明は後述する)などのジェスチャ入力であってもよい。例えば、ユーザは、デバイス2を通常の入力モードで使用して、入力領域20において文字を手書きし、そして、タッチスクリーン10上でジェスチャ(または、いずれか他の所定の対話式操作)を行ってデバイス2を挿入モードに切り換えて、それまでに入力された文字に少なくとも1つの追加の文字を挿入することによって編集するようにしてもよい。
図3は、特定の実施形態に係る、挿入モードにおいてデバイス2が動作している際の入力領域20を例示する。図3に示されるように、入力領域20は、認識領域28および挿入領域30によって形成される。さらなる詳細は後述するが、認識領域28に加えて挿入領域30をユーザに与えることにより、デバイス2が挿入モードで動作している際に簡単かつ効率的に新しい文字を現在の文字列に挿入できるようになる。
挿入モードにおいて、認識領域28は、上記および図3に示すように、先の入力の認識された内容に略対応する文字列32の一部を表示するように構成される。一方、挿入領域30は、入力の一部として構成される。その入力の一部において、ユーザによって手書きで入力された少なくとも1つの新しいストローク36がデバイス2によって検出され、デジタルインクとして挿入領域30にレンダリングされる。手書き認識が新しい入力ストローク36に対して一旦行われたとき、かつ/または挿入モードを終了させ、デバイス2を入力モードに戻した際に、認識領域28に、検出された入力ストローク36から認識された少なくとも1文字が挿入された状態の文字列32が表示され、挿入領域30におけるデジタルインクバージョンが表示から削除される。
デバイス2が挿入モードに従って動作する場合、分離マーカ29が表示され、この特定の例において、認識領域28と挿入領域30との間の境界に配置されてもよい。この分離マーカ29は、ユーザが認識領域28と挿入領域30との区切りを特定するのに役立ち得るが、本システムおよび方法は、この分離マーカ29を表示せずに実装または実施され得る。
図3において、分離マーカ29は、破線で表されるが、他のレンダリングで表示されてもよい。分離マーカ29は、例えば入力領域20に表示された線、カーソル、矢印などの標識であってもよい。
詳細は後述するが、少なくとも1つの新しい文字が挿入されることになる文字列32内の位置(いわゆる「挿入位置」)は、ユーザによるタッチスクリーン10に対する対話式操作に基づいて選択されてもよい。この特定のユーザの対話式操作を検出した際に、デバイス2は、図3に示す挿入モードに切り換わり、上記のように挿入領域30および認識領域28を使用して、ユーザが挿入位置に追加の文字を入力できるようにしてもよい。
図3に示すように、対話式スクロールアクチュエータ38(例えば、図3に示すようなスクロールバー、スクロールボタンなどの形態をとる)を例えば入力領域20内、またはその近傍に設けてもよい。これにより、入力領域20における文字34の列32を、例えばスワイプジェスチャなどのユーザジェスチャを介して、第一の方向D1(本例では、右方向)および反対の第二の方向D2(本例では、左方向)にスクロールできる。他の方法を用いて入力領域20におけるスクロールの命令を行ってもよい。
なお、図3に示すような認識領域28、挿入領域30、スクロールアクチュエータ38および分離マーカ29を含む入力領域20の全体的なユーザインタフェースの特定の配置(フォーム、レイアウトなど)は、あくまでも例示であり、本開示の範囲を限定すると解釈されるべきでない。
特定の例において、認識領域28および挿入領域30は、互いに隣接する。本開示において、他の配置も可能である。特に、認識領域28および挿入領域30の相対配置は、コンピュータデバイスのフォームファクタ、デバイス2がテキストを表示および編集するために使用される場合の言語のタイプおよび/またはフォーマットなどの目的の使用に適合されてもよい。ユーザインタフェースの配置は、例えば文字が英語、日本語、中国語、またはある他の文字セットのいずれで入力されるかに応じて、ユーザとの対話を簡単かつ効率よくできるように適合されてもよい。
本実施形態において、メモリ6に記憶されたコンピュータプログラムPGを実行する際に、プロセッサ4は、図4に示す複数の処理モジュールを実施する。すなわち、表示モジュール(または表示コントロールモジュール)M1、選択モジュールM2、検出モジュールM4、認識モジュールM6および挿入モジュールM8である。なお、これらの特定の処理モジュールM1〜M8は、あくまで本開示の実施例である。当業者であれば、本開示に係る入力方法を実施するための処理モジュールの種々の実施例を想起し得る。
本例において、表示モジュールM1は、タッチスクリーン10上の表示を制御するように構成され得る。より詳細には、デバイス2が通常の入力モードで動作する場合、表示モジュールM1は、認識領域28から挿入領域30中へ延びる現在の文字34の列32を表示するように動作可能であり得る。さらなる説明は後述するが、認識領域28および挿入領域30を使用することによって、文字列32を大きなスペース内に表示することができるので、少なくとも1文字が挿入されることになる文字列32内の挿入位置を探す処理を改善しやすくなる。
表示モジュールM1は、文字列32を入力領域内でスクロールするように構成され得る。本実施形態において、スクロールは、図3において矢印で例示するように、互いに反対の2方向D1およびD2に行われてもよい。スクロールは、例えばプロセッサ4の制御下に表示モジュールM1によって自動的に行われ得るか、またはユーザから受け取ったスクロールコマンドに応答して(例えば、スクロールアクチュエータ38の対話式操作を介して、またはいずれか他の適した対話式操作によって)行われ得るか、いずれでもよい。
デバイス2が入力モードで動作している際に、文字列32をスクロールすることによって、ユーザは、列32の文字34を探索し、少なくとも1文字が挿入されることになる文字列32の対象位置を、入力領域20において、表示させる命令を出してもよい。
選択モジュールM2は、ユーザのタッチスクリーン10に対する特定の対話式操作に応答して、タッチスクリーン10上に表示された第一の文字および第二の文字表示の間の文字34の列32内の位置(すなわち、「挿入位置」)を選択するよう動作可能であってもよい。ここで、第二の文字は、文字列32内で第一の文字に連続する。挿入位置を選択することによって、文字列内で文字挿入が行われることになる位置を規定することができる。
本実施形態において、この特定のユーザの対話式操作を検出した際に、デバイス2は、挿入モードに切り換わり、少なくとも1文字を選択された挿入位置に挿入することを可能にするように構成される。
さらなる説明は後述するが、文字列32内の特定の挿入位置の選択を開始するための、ユーザによるタッチスクリーン10に対する対話式操作は、種々可能である。このユーザの対話式操作は、タッチスクリーンに接触して、もしくはその近くで行われる所定のジェスチャ(例えば、スワイプなど)、またはタッチスクリーン上の所定の多位置対話式操作(例えば、ダブルまたはトリプルタップ)であってもよい。この対話式操作は、例えば認識領域28、挿入領域30、および/または内容表示フィールド22において行われてもよい。
表示モジュールM1は、上記のユーザの対話式操作に応答して、挿入領域30において、第二の文字で始まる文字列32の第二の部分(すなわち、選択された挿入位置の直後に続く列32の文字34)を隠しながら(または表示から削除しながら)、認識領域28において、第一の文字で終わる文字列32の第一の部分(すなわち、選択された挿入位置の直前に先行する文字34)を表示するようにさらに構成されてもよい。さらなる説明は後述するが、第二の文字およびそれに続く文字列32の文字(あれば)を隠すことによって、挿入領域30内でユーザが文字入力できるように、挿入領域30においてスペースを確保できる。
また、後述のように、一旦文字列32内の挿入位置が選択されると、表示モジュールM1は、文字列32を図3に示す方向D2(挿入領域30から認識領域28に向かう方向)にスクロールし、位置認識領域28内の前記第一の文字を、例えば挿入領域30に隣接する認識領域28の一側部に配置するように構成されてもよい。
検出モジュールM4は、デバイス2が挿入モードで動作している際に、挿入領域30における少なくとも1つの入力ストローク36を検出するように動作可能であってもよい。
認識モジュールM6は、少なくとも1つの認識された文字を生成するように、検出された入力ストローク36に基づいて手書き認識を行うか、または行われるように動作可能である。
挿入モジュールM8は、先に選択された文字列32内の挿入位置に、検出された入力ストローク36に基づいて認識モジュールM6によって認識された少なくとも1文字を挿入するように動作可能である。
また、表示モジュールM1は、認識領域28において、文字列32に挿入された1以上の認識された文字の少なくとも一部を表示するように、文字列32を認識領域28において自動的にスクロールするように構成されてもよい。さらなる説明は後述するが、この自動スクロールによって、挿入領域30に入力された検出された入力ストロークの手書き認識が一旦完了すると挿入領域30内にスペースが確保される。これにより、選択された挿入位置において、文字の連続入力が可能となる。
特定の実施形態において、開示の実施形態は、ソフトウエアおよび/またはハードウェア構成要素を使用して実施され得る。この状況において、用語「モジュール」は、本明細書において、ソフトウエア構成要素、ハードウェア構成要素、または複数のソフトウエアおよび/またはハードウェア構成要素もしくはそれらの組み合わせを指す。
以下、図5を参照して、図1〜4に例示したデバイス2によって実施される、本開示の特定の実施形態に係る文字入力方法を説明する。より詳細には、デバイス2は、メモリ6に記憶されたコンピュータプログラムPGを実行することによってこの方法を実施する。この特定の実施形態の文字入力方法は、
文字34の列32を認識領域28および挿入領域30を使用して表示するための第一表示ステップであって、認識領域28および挿入領域30は、第一表示ステップのための表示領域として使用される、第一表示ステップ(S2)と、
ユーザによるタッチスクリーンとの対話式操作に応答して、タッチスクリーン上に表示された第一の文字と第二の文字との間の文字列内の位置を選択するステップであって、第二の文字は、文字列内で第一の文字に連続する、ステップ(S6)と、
挿入領域において、第二の文字で始まる文字列の第二の部分を隠しながら、認識領域において、第一の文字で終わる文字列の第一の部分を表示するための第二表示ステップ(S8)と、
挿入領域30に手動で入力された少なくとも1つの入力ストロークを検出するステップ(S10)と、
手書き認識を行って、少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップ(S12)と、
文字列32内の挿入位置に、少なくとも1つの認識された文字を挿入するステップ(S14)と、
認識領域28において、文字列32に挿入された少なくとも1つの認識された文字の少なくとも一部を表示するように、認識領域28において文字列32をスクロールするための第一スクロールステップ(S16)と
を含む。
特定の実施形態において、分離マーカ29は、デバイス2が挿入モードに従って動作している際に、認識領域28と挿入領域30との分離をリアルタイムに規定してもよい。
以下、図6および7A〜7Gを参照して、図5に例示されるような文字入力方法の特定の実施形態をより詳細に説明する。より詳細には、デバイス2は、本例においてメモリ6に記憶されたコンピュータプログラムPGを実行することによってこの方法を実施する。
本例において、デバイス2は、テキスト文字の入力および編集をできるようにするが、他の種類の文字でもよい。
初期状態として、本例において、ユーザが以下の文字34の列32をデバイス2にあらかじめ入力したとする。
「Hello how are you ?」
例えば、図7Aの内容表示領域22に例示するように、文字列32は、単語40および文法記号「?」から構成され、各単語は、少なくとも1文字34から構成される。
本例において、例えば、ユーザは、自身の指、スタイラス24などを入力領域20に接触させて上記文字列32(または文)を入力したとしてもよい。そのためには、例えば、デバイス2は、通常の入力モードで動作し、ユーザがテキストなどの文字を入力するための適切ないずれかのユーザインタフェースを使用して入力領域20に文字を入力できるようにしてもよい。例えば、通常の入力モードにおいて、入力領域20が挿入領域30を有さず、より大きな認識領域28を表示して、ユーザがより簡単かつより正確に文字入力をできるようにしてもよい。
変形例において、文字34の列32は、いずれかの適切な方法または手段によってデバイス2にあらかじめ入力されていてもよい。文字列32は、デバイス2に、例えばメモリ6によって、あらかじめ記憶されていてもよい。別の例において、デバイス2は、いずれかの適切な送信技術によって、文字列32「Hello how are you ?」を他の端末またはデバイスから受け取るように構成されてもよい。
図7Aに示すように、初期状態において、文字列32は、ユーザが簡単に可視化したり、見たり、または読んだりできるようなフォーマットで、内容表示領域22またはフィールド22に表示される。内容表示領域22にカーソル42を表示して、文字34の列32内の現在アクティブな位置を示すようにしてもよい。
以下、ユーザが現在の文字列32の内容を閲覧し、1以上の追加の文字を文字列32に挿入するように編集すべきか否かを判断するとする。このユーザの閲覧に関して以下の記載において、挿入領域30および認識領域28を参照するが、これらの領域は、この段階では、デバイス2が入力モードに従って動作しているので、それぞれストロークの入力および入力されたストロークの認識のためには使用されない。
本例において、図7A〜7Cに示すように、文字列32の最初のスクロールステップ(S1)は、デバイス2が通常の入力モードで動作している際に行われる。前記認識領域28および挿入領域30(すなわち、入力領域20)は、最初のスクロールステップS1のための表示領域として使用される。そのような最初のスクロールステップS1は、例えば、認識領域28および挿入領域30に文字列32全体を同時に表示するのに十分なスペースがない場合、またはユーザが文字列32を入力領域で移動させたい場合に、必要となり得る。
デバイス2が入力モードで動作している際にS1で文字列32をスクロールさせることによって、ユーザは、入力領域20に表示された文字列32の内容をチェックし、1以上の追加の文字が挿入されることになる文字列32内の位置(以下、「挿入位置」と称す)を決定してもよい。
図7A〜7Cに示す本例において、最初のスクロールステップS1は、方向D1に行われるが、他の例において、最初のスクロールステップS1は、方向D2へのスクロールを含んでもよく、あるいは、ユーザが文字を挿入すべき適切な位置を探す際に方向D1およびD2へのスクロールを含んでもよい。
最初のスクロールステップS1は、例えばプロセッサ4の制御下に表示モジュールM1によって自動的に行われるか、または例えばスクロールアクチュエータ38に対する対話式操作またはいずれか他の適切な対話式操作によってユーザから受け取ったスクロールコマンドに応答して、行われてもよい。本例において、ユーザは、例えば多位置対話式操作をユーザインタフェースに対して行ってもよい。多位置対話式操作は、例えば方向D1を指す矢印の近傍の2つのドットを図7Aおよび7Bに表されるような2つの指でタッチすることである。最初のスクロールステップS1中に、ユーザは、このように文字34の列32を逆向きにスクロールして、少なくとも1文字が挿入されることになる文字列32内の特定の位置を探してもよい。
図7Aおよび7Cの特定の例に示すように、ユーザから受け取ったスクロールコマンドに応答して、デバイス2は、認識領域28および挿入領域30にわたり方向D1に文字列32の最初のスクロールステップS1を行う。図7Aは、認識領域28において文字列32の「u?」部分が現れているだけの状態を示す。図7Bおよび7Cに示すように、最初のスクロールステップS1は、文字列32が認識領域28から挿入領域30に伸びるよう、文字列32を方向D1に徐々に移動させる。
図7Cは、最初のスクロールステップS1の終了時の状態を示す。ここで、単語「Hello」および単語「how」の第一の部分は、認識領域28に表示され(S2)、同時に単語「how」の残りの部分およびその後の単語「are」は、挿入領域30に表示される(S2)。
なお、しかし、本方法およびシステムの他の実施形態において、最初のスクロールステップS1を行わないことも可能である。これが成立するのは、例えば文字挿入が行われることになる文字列32内の挿入位置が入力領域20において初期状態としてすでに表示され、最初のスクロールステップS1が必要でない場合である。この場合、方法は、S2から直接開始されてもよい。
図7Cに示す表示ステップS2において、入力モードで動作しているデバイス2は、認識領域28および挿入領域30(すなわち、入力領域20)を第一表示ステップS2のための表示領域として使用して、文字列32(または少なくともその一部)を表示する。上記のように、本例において、単語「Hello how are」が認識領域20および挿入領域30にわたり表示される(S2)。
表示ステップS2において、ユーザは、入力領域20に表示された現在の文字列32の内容をチェックし、文字列32の表示されている部分内の特定の位置に1以上の新しい文字を挿入すべきか否かを決定する。
S1およびS2において表示領域として認識領域28および挿入領域30(例えば、認識領域28のみの代わりに)を使用することにより、タッチスクリーン10上の表示に用いる面積が大きくなるので、ユーザは、より容易にかつ改善されたやり方で、現在の文字列32を見ることができる。文字列32が認識領域28から挿入領域30に(すなわち、認識領域28および挿入領域30にわたって)伸びるという利点があり得る。このように、ユーザは、少なくとも1つの追加の文字が挿入されることになる文字列32内の挿入位置を容易かつ効率よく決定し得る。
以下、図7Cに示すように、ユーザは、単語「how」の最後の第一の文字「w」(34aで示す)と単語「are」の最初の第二の文字「a」(34bで示す)との間の挿入位置Pにおいて少なくとも1文字を挿入すると決定するとする。本例において、第二の文字34bは、文字列32内で第一の文字34aに連続するとする(したがって、単語「how」と「are」とを分離するスペースは、本例において、説明を簡単にするために文字と見なさないが、他の実装例では、そう見なしてもよし、見なさなくてもよい)。
そのようにするためには、ユーザは、タッチスクリーン10に対して所定の対話式操作を行って、位置Pを文字列32内の挿入位置として選択する。本実施形態において、ユーザは、指、スタイラスなどを使用してタッチスクリーン10に接触することによってデバイス2に対して所定の対話式操作を行う。用語「所定の」は、本システムおよび方法自体の中の所与の規定、および/または例えばユーザインタフェース(UI)手段などを介してユーザが設定可能な規定を含むと理解される。
上記のように、入力面10bがタッチスクリーンの一部でないような他の実施形態が可能である。上記のように、入力面は、例えば表面上にプロジェクタによって形成された投影領域であってもよい。変形例において、入力面10bは、近接センサ式表面である。この場合、上記の位置Pを選択するための対話式操作は、指、スタイラスなどの存在が検出され得るために、タッチスクリーン10の表面の近くに指、スタイラスなどを置くことを含んでもよい。以下の記載において、「接触」は、変例として「表面の近く」も意味する。また、上記のように、本例において入力面10bおよび出力面10aがタッチスクリーンによって形成されるが、入力面10bおよび出力面10aがデバイス2または別々の接続されたデバイスの別々の構成要素であるような他の実施形態が考えられ得る。
タッチスクリーンに対して単純で直感的な対話式操作を行うことによって、文字列32内の挿入位置Pを簡単かつ効率よく選択できる。挿入位置Pの選択を可能にするために、ユーザはさらなる対話式操作をする必要がない。
さらなる説明は後述するが、文字列32内の挿入位置として特定の位置Pを選択するためのコマンドを入力するためにユーザが行う対話式操作は、種々可能である。ユーザによって行われる所定の対話式操作は、以下の少なくとも1つを含むタッチスクリーンのいずれか適切な部分で行われてもよい。
認識領域28、
挿入領域30、および
タッチスクリーン10上で、第一のおよび第二の文字34a、34bを含む文字34の列32の少なくとも一部分を表示する内容表示フィールド22。
特定の実施形態において、ユーザが挿入位置Pを選択するためのコマンドを入力するために行う所定の対話式操作は、タッチスクリーン10に接触して行われる所定のジェスチャ、またはタッチスクリーン10の適切な部分上での所定の多位置対話式操作(例えば、ダブルタップまたはトリプルタップ)である。
本例において、ユーザが挿入位置Pを選択するためのコマンドを入力するために行う所定の対話式操作は、入力領域20に接触することによって行われるジェスチャI1であるとする。
本システムおよび方法を実装または実施するために種々のジェスチャが予め規定されてもよい。図7Cの例に示すように、所定のジェスチャは、表示ステップS2中にタッチスクリーン10上で文字列32を表示する領域に交差するように、入力領域20と接触して行われる垂直な(または実質的に垂直な)ジェスチャ(スワイプなど)である。本例において、この垂直ジェスチャは、下向きに行われるが、上向きに同等なジェスチャが同様に実施され得る。
検出ステップS4において、デバイス2の選択モジュールM2は、所定のユーザの対話式操作I1が検出されたか否かを判断する。この判断が肯定の場合、上記方法は、S6に進む。
検出ステップS4を行うための実施形態が種々可能である。特定の実施形態において、デバイス2は、S4において、入力領域20にてユーザの対話式操作が検出されたか否かを判断する。そのようなユーザの対話式操作が検出された場合、選択モジュールM2は、検出されたユーザの対話式操作のパターンと少なくとも1つの所定の対話式操作パターンを比較する。そのような所定の対話式操作パターンは、デバイス2内に局所的に記憶されるか、またはデバイス2が後でアクセスするために遠隔に記憶され得る。パターンの比較は、いずれの従来の特徴解析技術に基づいて行われてもよい。検出された対話式操作I1が所定の対話式操作パターンに一致する場合、デバイス2は、ステップS6に進む。
本例において、選択モジュールM2は、例えば、S4において、ユーザの対話式操作I1が直線に沿ったジェスチャであるか否かを判断し、判断結果が肯定の場合、この直線の平均の方向を決定してもよい。デバイス2は、検出されたジェスチャが表示ステップS2中にタッチスクリーン10上の文字列32の表示領域と交差するように入力領域20に接触して行われた垂直な(または実質的に垂直な)ジェスチャ(例えば、下向きスワイプ)である場合にのみ、ステップS6に進んでもよい。
選択ステップS6において、S4において検出されたユーザの対話式操作I1に応答して、デバイス2は、挿入モードに切り換わり、選択モジュールM2は、少なくとも1文字が挿入されることになる文字列32内の挿入位置として先に規定された位置Pを選択する。
検出されたユーザの対話式操作I1に基づいて挿入位置Pを特定する実装例が種々可能である。特定の実施形態において、選択モジュールM2は、S6において、選択対象の挿入位置Pを、検出されたユーザの対話式操作I1のタッチスクリーン10上のS2において表示された文字34に対する位置に基づいて決定する。
本例において、選択モジュールM2は、例えば、S4で検出された垂直ジェスチャI1の文字列32の略方向に沿った横方向の位置を決定し、この横方向の位置に基づいて、どの文字34が選択対象の挿入位置Pを導くために垂直ジェスチャI1によって交差されたかを決定してもよい。
本例において、選択モジュールM2は、選択ステップS6において、文字列32内で選択された挿入位置PがS4において検出された垂直ジェスチャI1によって交差された文字34の直後に続く位置となるように構成される。別の例において、S6において選択された挿入位置Pは、S4において検出された垂直ジェスチャI1によって交差された単語の直後に続く位置である。
本例において、挿入位置Pは、2つの連続する単語の間のスペース、すなわち、単語「how」を後続の単語「are」から分離するスペース内に配置される。別の例において、S6にて選択された挿入位置Pは、単語内、すなわち、同じ単語の2つの連続する文字の間(例えば、単語「how」の文字「h」と文字「o」との間)に配置されてもよい。挿入位置Pの位置は、S4において検出されるユーザの対話式操作およびデバイス2の構成に応じて変化してもよい。
本例において、図7Cに示すように、選択モジュールM2は、S6において、連続する文字34aおよび34bの間の挿入位置Pを選択するとする。
本例において、内容フィールド22内のカーソル42は、文字列42内の同じ位置Pに配置され、文字が挿入され得る挿入位置Pのユーザによる可視化を容易にする。
S8において、表示モジュールM1は、挿入領域30において、第二の文字34bで始まる文字列32の第二の部分を隠しながら、認識領域28において、第一の文字34aで終わる文字列32の第一の部分を表示する。この第二表示ステップS8は、文字列32を自動的にスクロールして、入力領域内の文字列32の位置を調節するステップを含んでもよい。いくつかの特定の例において、そのようなスクロールステップは、さらなる詳細は後述するが、必要としなくてもよい。
本例において、ユーザの対話式操作I1は、S4において、挿入位置Pが最初に挿入領域30に配置されるように行われる(図7C)。他の例において、挿入位置Pは、どのようにユーザの対話式操作I1がS4においてタッチスクリーン10上で行われるかに応じて、認識領域30において最初に配置されてもよい。
図7Dに示す特定の例において、表示モジュールM1は、S8において、文字列32を方向D2(逆方向)にスクロールし、挿入領域30において、文字列32の第二の文字34b(すなわち、「a」)で始まる第二の部分「are」を隠しながら、認識領域28において、文字列32の第一の文字34a(すなわち、「w」)で終わる第一の部分「llo how」表示する。
S8において行われる上記のスクロールおよび隠蔽動作によって、後でユーザがストロークを入力できるように、挿入領域30内にスペースを確保することができる。
このように、S8において文字列がスクロールされるか否かは、ユーザの対話式操作I1を検出するステップS4が行われるときの認識領域28に対する選択された挿入位置Pの位置に応じて決まってもよい。第一の文字34aがユーザの対話式操作I1を検出するステップ(S4)が行われるときに偶然ながら認識領域28内にすでに位置する場合は、S6におけるスクロールステップは、必要でなくてもよい。しかし、S4においてユーザの対話式操作I1を検出するステップが行われるときに第一の文字34aが挿入領域30内にある場合は、第一の文字34aを挿入領域30から認識領域28中へ移動させるように、文字列32の自動スクロールステップが行われる。
特定の実施形態において、例えば図7Dに示すように、ステップS8は、第一の文字34aを挿入領域30に隣接する認識領域28の一側部に移動させるように、文字列を自動にスクロールするステップを含む。この自動スクロールステップは、S4においてユーザの対話式操作I1を検出するステップが行われるときの第一の文字34aの位置に応じて、方向D1またはD2に行われてもよい。さらなる説明は後述するが、この自動スクロールステップによって、後のS10においてユーザが挿入領域30に簡単にストロークを入力できるように、第一の文字34aで終わる文字列32の第一の部分を最適な位置に配置することができる。
一旦第二表示ステップS8が完了したら、上記方法は、S10に進む。
図7Eに例示するように、次いでユーザは、S10において、文字列32内の位置Pに挿入したい1以上の文字(この場合、手書きの単語「good」)に対応する少なくとも1つのストローク36を手動で入力する。したがって、本例において、S10において、検出モジュールM4は、挿入領域30に手動で入力された少なくとも1つの入力ストローク36を検出する。
ストローク検出ステップS10は、デバイス2によっていずれの適切な方法で行われてもよい。
上記のように、分離マーカ29は、認識領域28と挿入領域30との間を区切る印を付けるように表示されてもよいが、他の実施形態において、そのような分離マーカ29は使用されなくてもよい。S10においてストロークの入力中にこの分離マーカ29を表示することは、ユーザがタッチスクリーン10において挿入領域30の位置を特定するのに役立ち得る。
次いで、認識モジュールM6は、手書き認識を行って、検出されたストローク36を少なくとも1つの認識された文字50に変換する(S12)。本例において、認識モジュールM6は、単語「good」を形成する文字50を認識する。上記のように、手書き認識は、デバイス2によっていずれの適切な方法で行われてもよい。
この段階において、本開示の異なる実施例が考えられ得る。本例において、手書き認識S12の進行中に、検出された入力ストローク36が表示される(S20)。これにより、手書きテキスト36をデジタルインクとして挿入領域30に一時的に表示できる(図7Eを参照)。
S22において、挿入モジュールM8は、手書き認識S20が完了したか否かを検出する。この検出は、認識モジュールM6が挿入モジュールM8に認識が完了したことを直接または間接的に伝えた結果として、または例えば手書き認識器によって認識結果が出力された際に、起こり得る。
図7Fに示すように、一旦手書き認識S20が完了したことが検出されたら(S22)、挿入モジュールM8は、少なくとも1つの認識された文字50を文字34の列32内の挿入位置Pに挿入し(S14)、表示モジュールM1は、認識領域28において、認識された文字50(本例において、「good」)の少なくとも一部を、文字50が文字列32に挿入された位置で、表示するように、文字列32を認識領域28内で方向D2にスクロールする(S16)。
例えば図7Fから明らかなように、文字列32は、左方向へ逆向きにスクロールされ、単語「good」が認識領域28内に見えるようにする。方向D2の第一スクロールステップS16によって、挿入領域30内に挿入スペース52を設け、挿入領域30内に追加のストロークを入力できるようにする。
本例において、第一スクロールステップS16は、手書き認識S20が完了したことを検出した際(S22)に、表示モジュールM1によって自動的に行われる。
本例において、スクロールステップS16の結果により認識領域28内に配置された各認識された文字50は、上記のようにテキストまたはタイプセットインクとして表示される。
本例において、また、挿入された文字50は、内容フィールド22の文字列32内の挿入位置Pに挿入される。
特定の例において、デバイス2が挿入モードで動作しているとき、内容フィールド22においてカーソル位置は、最新の可視状態の文字または単語を考慮し、実質的に連続的に更新されてもよい。
図7Gに示すように、第一スクロールステップS16の後で、いずれかの方向(D1またはD2)への第二スクロールステップ(S24)を行って、デバイス2が入力モードに戻るように切り換えられるようにしてもよい。本例において、第二スクロールステップS24は、最初のスクロールステップS1を参照してすでに説明した方法と同様にして、ユーザによって受け取られたコマンドに応答して表示モジュールM1によって行われる。
第二スクロールステップS24に応答して、表示モジュールM1は、挿入領域30において、挿入モードにおいて先に隠されていた文字列32の部分、すなわち、認識領域28に存在する挿入された単語50(「good」)に直後に続く文字列32の部分を表示する。
本例において、図7Gに示すように、表示モジュールM1は、ここで、第二スクロールステップS24に応答して、単語「are」を挿入領域30に表示する。
表示モジュールM1は、ユーザから受け取ったスクロールコマンドに従って、文字列32にわたってスクロールを続けてもよい。
一旦デバイス2が入力モードに戻るように切り換わったら、ユーザは、逆方向または順方向にスクロールして、他の挿入位置Pを探すか、または文字列32の最後まで順方向にスクロールして、新しい文字が通常のやり方で入力できるようにしてもよい。
ユーザがデバイス2をS24において通常の入力モードに戻るように切り換えることを可能にするような他の実施形態が種々考えられ得る。別の例において、デバイス2は、内容表示フィールド22に対するタップ(または複数回のタップ)などのユーザの対話式操作を検出した際に、通常入力に戻るように切り換わるように構成される。
特定の例において、一旦第一スクロールステップS16が完了したら、ユーザは、内容表示フィールド22をいずれかの場所でタップし、文字列32にわたってスクロールし、そのタップの位置に応じて、上記と同じやり方で他の挿入手順を開始してもよい。
なお、上記実施形態は、本開示の方法およびシステムの実施または実装例に過ぎず、本開示に係る種々の変形例が可能である。
図7Fを参照して上記したように、一旦手書き認識S12、S20の完了が検出されたら(S22)、挿入モジュールM8は、少なくとも1つの認識された文字50を文字34の列32内の挿入位置Pに挿入し(S14)、表示モジュールM1は、認識領域28において、文字列32に挿入された認識された文字50(本例において、「good」)の少なくとも一部を表示するように、認識領域28において、文字列32を方向D2にスクロールする(S16)。
変形例において、手書き認識S12、S20が行われている際に、表示モジュールM1は、文字列32内の位置Pに、検出された少なくとも1つの入力ストローク36を挿入する(S14)。次いで、表示モジュールM1は、手書き認識の進行中に、挿入された少なくとも1つの入力ストローク36の少なくとも一部を認識領域28に表示するように、認識領域28において文字列32を方向D2にスクロールする。これにより、ユーザは、認識領域28においてユーザが入力したばかりの内容を可視化できるとともに、挿入領域30内にさらに入力するためのさらなるスペースまたは余地を設けることができるという利点がある。一旦S22において手書き認識が完了したら、表示モジュールM1は、認識領域28において表示されている挿入された入力ストローク36を対応する認識された文字50に置き換える。
さらに、上記のように、ユーザの対話式操作を検出するステップS4を行って、上記方法を選択ステップS6に進めるための実施形態は、種々可能である。特定の実施形態において、選択モジュールM2は、S4において、所定のユーザの対話式操作が内容表示フィールド22内で検出されたか否かを判断するように構成される。例えば、上記方法は、挿入モジュールM2によって、多位置対話式操作(ダブルまたはトリプルタップなど)が内容表示フィールド22内で行われたと検出されたときに選択ステップS6に進んでもよい。次いで、挿入モジュールM2は、内容表示フィールドに表示された文字34に対する、検出された多位置対話式操作の位置に基づいて、文字列32内の挿入位置Pを選択してもよい。
本開示のシステムおよび方法によって、追加の文字を現在の文字列の前、中、または後の適切な位置に改善されたやり方で、効率よく、かつユーザフレンドリに挿入できる。したがって、追加の文字を自然かつ比較的迅速なやり方で入力できる。
特に、文字を挿入すべきか(およびどこに挿入すべきか)を決定する際に、タッチスクリーンのより大きな面積を使用して閲覧中の文字を表示するので、ユーザは、現在の文字列の内容を簡単に閲覧し得る。ユーザが1以上の新しい文字が挿入されることになる文字列内の位置を探している際に、画面のより大きな入力領域を使用して、文字列を表示してもよい。
さらに、本教示によれば、挿入対象の位置を簡単に、効率よく、かつ改善されたやり方で選択できる。タッチスクリーンを用いて単純かつ直感的なユーザの対話式操作を行うことによって、ユーザは、挿入手順を開始して、現在の文字列内に文字を挿入してもよい。一旦挿入位置が選択されたら、入力領域は、挿入領域および認識領域に分割され、簡単かつ直感的なやり方で新しい文字を挿入位置に入力できるようにされる。
上記の改善された文字挿入は、複雑なまたは覚えるのが難しいジェスチャを必要とせずに行われ得る。本開示のシステムおよび方法によれば、ユーザは、複雑なまたは覚えるのが難しいジェスチャを行う必要がなく、文字挿入を行う手順を簡単に覚え得る。ユーザは、追加の文字を手書き入力用の入力領域に直接入力してもよい。特に、本システムおよび方法は、デジタルデバイスの入力領域とは別の入力フィールドを使用して追加の文字を入力する必要がない。
なお、いくつかの別の実施例において、ブロックに記載の機能は、図示の順番どおりに行われなくてもよい。例えば、連続する2つのブロックが実際には実質的に同時に実行されてもよいし、または逆の順番で実行されてもよいこともあるし、または関連する機能に応じて、別の順番で実行されてもよい。
さらに、本原理の局面は、コンピュータ読み取り可能な記憶媒体の形態をとることができる。1以上のコンピュータ読み取り可能な記憶媒体のいずれの組み合わせを利用してもよい。コンピュータ読み取り可能な記憶媒体は、1以上のコンピュータ読み取り可能な媒体に組み込まれ、コンピュータによって実行可能な、その媒体上に組み込まれたコンピュータ読み取り可能なプログラムコードまたは指示を有するコンピュータ読み取り可能なプログラム製品の形態をとることができる。本明細書中に使用されるコンピュータ読み取り可能な記憶媒体は、情報をそれ自体に記憶する能力および情報をそれ自体から取り出す能力を本質的に備える非一時的な記憶媒体であると考えられる。コンピュータ読み取り可能な記憶媒体は、例えば、電子、磁気、光、電磁気、赤外線、または半導体システム、装置、もしくはデバイス、またはこれらのいずれの適した組み合わせでもあり得るが、それらに限定されない。
本開示の特定の実施形態を説明したが、多くの変更および実施形態が当業者の能力内で、発明能力を発揮せずになされ得ることが明らかである。したがって、本発明の範囲は、以下の特許請求の範囲によって定義される。

Claims (60)

  1. プロセッサと、文字を入力するための入力面と、文字を表示するための出力面とを備えるデジタルデバイスによって行われる文字入力方法であって、前記出力面は、認識領域および挿入領域を備え、前記方法は、
    文字列を前記認識領域および前記挿入領域を使用して表示するための第一表示ステップであって、前記認識領域および前記挿入領域は、前記第一表示ステップのための表示領域として使用される、第一表示ステップと、
    ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するステップであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、ステップと、
    前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するための第二表示ステップと、
    前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
    手書き認識を行って、前記少なくとも1つの入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第一スクロールステップと
    を含む、方法。
  2. 前記方法は、
    前記対話式操作として、ユーザが前記入力面に接触することによって行われる対話式操作を検出するステップ
    をさらに含む、請求項1に記載の方法。
  3. 前記検出ステップは、
    前記検出された対話式操作のパターンを少なくとも1つの所定の対話式操作パターンと比較するステップと、
    前記検出された対話式操作のパターンが前記少なくとも1つの所定の対話式操作パターンのうちの1つと一致する場合、前記対話式操作に応答して、前記選択ステップおよび前記第二表示ステップを行うステップと
    を含む、請求項2に記載の方法。
  4. 前記選択された位置は、前記第一表示ステップにおいて表示された前記文字列に対する前記入力面上の前記対話式操作の位置に基づいて決定される、請求項1〜3のいずれか1つに記載の方法。
  5. 前記対話式操作は、
    前記認識領域、
    前記挿入領域、および
    前記出力面上において、前記第一の文字および前記第二の文字を含む前記文字列の少なくとも一部を表示する内容表示フィールド
    のうちの少なくとも1つにおいて生じる、請求項1〜4のいずれか1つに記載の方法。
  6. 前記対話式操作は、前記入力面に接触して行われる所定のジェスチャ、または前記入力面上の所定のトグル入力である、請求項1〜5のいずれか1つに記載の方法。
  7. 前記対話式操作は、前記第一表示ステップ中に前記表示領域において表示された前記文字列と交差するように、前記入力面と接触して行われる実質的に垂直なジェスチャを含む、請求項6に記載の方法。
  8. 第二表示ステップは、
    前記対話式操作に応答して、前記第一の文字を前記挿入領域に隣接する前記認識領域の一側部に移動させるように、前記文字列を自動的にスクロールするステップを含む、請求項1〜7のいずれか1つに記載の方法。
  9. 第二表示ステップは、
    前記第一の文字が前記対話式操作の検出時に前記挿入領域内にある場合、前記第一の文字を前記挿入領域から前記認識領域中に移動させるように、前記文字列を自動的にスクロールするステップ
    を含む、請求項1〜8のいずれか1つに記載の方法。
  10. 前記認識領域および前記挿入領域は、互いに隣接する、請求項1〜9のいずれか1つに記載の方法。
  11. 前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含み、
    前記方法は、
    前記第一表示ステップ中に、前記認識領域に配置された前記複数の単語のうちの各単語を表示し、かつ前記認識領域に配置された前記複数の単語のうちの各単語を表示するステップ
    を含む、請求項1〜10のいずれか1つに記載の方法。
  12. 前記第一スクロールステップは、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記文字列を前記挿入領域から前記認識領域に向かう方向にスクロールするステップ
    を含む、請求項1〜11のいずれか1つに記載の方法。
  13. 前記第一スクロールステップは、前記少なくとも1つの入力ストロークを検出するステップの後に自動的に行われる、請求項1〜12のいずれか1つに記載の方法。
  14. 前記第一スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される、請求項13に記載の方法。
  15. 前記方法は、
    前記手書き認識が行われているときに、前記挿入領域において、前記検出された少なくとも1つの入力ストロークを表示するための第三表示ステップ
    をさらに含む、請求項1〜14のいずれか1つに記載の方法。
  16. 前記第一スクロールステップは、
    前記文字列内の前記位置に、前記検出された少なくとも1つの入力ストロークを挿入するステップと、
    前記手書き認識が行われているときに、前記認識領域において、前記挿入された少なくとも1つの入力ストロークの少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするステップと
    を含む、請求項1〜15のいずれか1つに記載の方法。
  17. 前記第一スクロールステップは、
    前記手書き認識が完了したときに、前記認識領域に表示されている前記挿入された少なくとも1つの入力ストロークを、前記少なくとも1つの認識された文字に置き換えるステップ
    を含む、請求項16に記載の方法。
  18. 前記第一スクロールステップは、
    前記少なくとも1つの認識された文字を前記認識領域にタイプセットテキストとして表示するステップ
    を含む、請求項1〜17のいずれか1つに記載の方法。
  19. 前記方法は、
    前記第一スクロールステップの後に、前記認識領域から前記挿入領域に伸びる前記文字列を表示させるためにスクロールするための第二スクロールステップ
    を含む、請求項1〜18のいずれか1つに記載の方法。
  20. 前記デジタルデバイスは、
    タッチスクリーン
    をさらに備え、
    前記入力面および前記出力面は、前記タッチスクリーンによって形成される、請求項1〜19のいずれか1つに記載の方法。
  21. コンピュータ読み取り可能なプログラムコードが組み込まれた、非一時的なコンピュータ読み取り可能な媒体であって、前記コンピュータ読み取り可能なプログラムコードは、文字を入力するための入力面と文字を表示するための出力面とを備えるデジタルデバイスにおいて文字入力方法を実施するように実行されるように適合され、前記出力面は、認識領域および挿入領域を備え、前記文字入力方法は、
    文字列を前記認識領域および前記挿入領域を使用して表示するための第一表示ステップであって、前記認識領域および前記挿入領域は、前記第一表示ステップのための表示領域として使用される、第一表示ステップと、
    ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するステップであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、ステップと、
    前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するための第二表示ステップと、
    前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
    手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第一スクロールステップと
    を含む、非一時的なコンピュータ読み取り可能な媒体。
  22. 前記方法は、
    前記対話式操作として、ユーザが前記入力面に接触することによって行われる対話式操作を検出するステップ
    をさらに含む、請求項21に記載の非一時的なコンピュータ読み取り可能な媒体。
  23. 前記検出ステップは、
    前記検出された対話式操作のパターンを少なくとも1つの所定の対話式操作パターンと比較するステップと、
    前記検出された対話式操作のパターンが前記少なくとも1つの所定の対話式操作パターンのうちの1つと一致する場合、前記対話式操作に応答して、前記選択ステップおよび前記第二表示ステップを行うステップと
    を含む、請求項22に記載の非一時的なコンピュータ読み取り可能な媒体。
  24. 前記選択された位置は、前記第一表示ステップにおいて表示された前記文字列に対する前記入力面上の前記対話式操作の位置に基づいて決定される、請求項21〜23のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  25. 前記対話式操作は、
    前記認識領域、
    前記挿入領域、および
    前記出力面上において、前記第一の文字および前記第二の文字を含む前記文字列の少なくとも一部を表示する内容表示フィールド
    のうちの少なくとも1つにおいて生じる、請求項21〜24のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  26. 前記対話式操作は、前記入力面に接触して行われる所定のジェスチャ、または前記入力面上の所定のトグル入力である、請求項21〜25のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  27. 前記対話式操作は、前記第一表示ステップ中に前記表示領域において表示された前記文字列と交差するように、前記入力面と接触して行われる実質的に垂直なジェスチャを含む、請求項26に記載の非一時的なコンピュータ読み取り可能な媒体。
  28. 第二表示ステップは、
    前記対話式操作に応答して、前記第一の文字を前記挿入領域に隣接する前記認識領域の一側部に移動させるように、前記文字列を自動的にスクロールするステップ
    を含む、請求項21〜27のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  29. 第二表示ステップは、
    前記第一の文字が前記対話式操作の検出時に前記挿入領域内にある場合、前記第一の文字を前記挿入領域から前記認識領域中に移動させるように、前記文字列を自動的にスクロールするステップ
    を含む、請求項21〜28のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  30. 前記認識領域および前記挿入領域は、互いに隣接する、請求項21〜29のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  31. 前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含み、
    前記方法は、
    前記第一表示ステップ中に、前記認識領域に配置された前記複数の単語のうちの各単語を表示し、かつ前記認識領域に配置された前記複数の単語のうちの各単語を表示するステップ
    を含む、請求項21〜30のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  32. 前記第一スクロールステップは、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記文字列を前記挿入領域から前記認識領域に向かう方向にスクロールするステップ
    を含む、請求項21〜31のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  33. 前記第一スクロールステップは、前記少なくとも1つの入力ストロークを検出するステップの後に自動的に行われる、請求項21〜32のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  34. 前記第一スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される、請求項33に記載の非一時的なコンピュータ読み取り可能な媒体。
  35. 前記手書き認識が行われているときに、前記挿入領域において、前記検出された少なくとも1つの入力ストロークを表示するための第三表示ステップ
    をさらに含む、請求項21〜34のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  36. 前記第一スクロールステップは、
    前記文字列内の前記位置に、前記検出された少なくとも1つの入力ストロークを挿入するステップと、
    前記手書き認識が行われているときに、前記認識領域において、前記挿入された少なくとも1つの入力ストロークの少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするステップと
    を含む、請求項21〜35のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  37. 前記第一スクロールステップは、
    前記手書き認識が完了したときに、前記認識領域に表示されている前記挿入された少なくとも1つの入力ストロークを、前記少なくとも1つの認識された文字に置き換えるステップ
    を含む、請求項36に記載の非一時的なコンピュータ読み取り可能な媒体。
  38. 前記第一スクロールステップは、
    前記少なくとも1つの認識された文字を前記認識領域にタイプセットテキストとして表示するステップ
    を含む、請求項21〜37のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  39. 前記第一スクロールステップの後に、前記認識領域から前記挿入領域に伸びる前記文字列を表示させるためにスクロールするための第二スクロールステップ
    を含む、請求項21〜38のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  40. 前記デジタルデバイスは、
    タッチスクリーン
    をさらに備え、
    前記入力面および前記出力面は、前記タッチスクリーンによって形成される、請求項21〜39のいずれか1つに記載の非一時的なコンピュータ読み取り可能な媒体。
  41. 文字を入力するためのシステムであって、前記システムは、
    文字を入力するための入力面と、
    文字を表示するための出力面であって、認識領域と、文字入力を受け取るための挿入領域とを備える出力面と、
    指示を含む非一時的なコンピュータ読み取り可能な媒体と、
    前記入力面、前記出力面および前記非一時的なコンピュータ読み取り可能な媒体に動作可能に接続され、前記指示を実行して、動作を行うように構成されるプロセッサと
    を備え、前記動作は、
    文字列を前記出力面の前記認識領域および前記挿入領域を使用して表示するための第一表示ステップと、
    ユーザによる前記入力面との対話式操作に応答して、前記出力面上に表示された第一の文字と第二の文字との間の前記文字列内の位置を選択するステップであって、前記第二の文字は、前記文字列内で前記第一の文字に連続する、ステップと、
    前記挿入領域において、前記第二の文字で始まる前記文字列の第二の部分を隠しながら、前記認識領域において、前記第一の文字で終わる前記文字列の第一の部分を表示するための第二表示ステップと、
    前記挿入領域に手動で入力された少なくとも1つの入力ストロークを検出するステップと、
    手書き認識を行って、前記少なくとも1つの検出された入力ストロークを少なくとも1つの認識された文字に変換するステップと、
    前記文字列内の前記位置に、前記少なくとも1つの認識された文字を挿入するステップと、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするための第一スクロールステップと
    を含む、システム。
  42. 前記動作は、
    前記対話式操作として、ユーザが前記入力面に接触することによって行われる対話式操作を検出するステップ
    をさらに含む、請求項41に記載のシステム。
  43. 前記検出ステップは、
    前記検出された対話式操作のパターンを少なくとも1つの所定の対話式操作パターンと比較するステップと、
    前記検出された対話式操作のパターンが前記少なくとも1つの所定の対話式操作パターンのうちの1つと一致する場合、前記対話式操作に応答して、前記選択ステップおよび前記第二表示ステップを行うステップと
    を含む、請求項42に記載のシステム。
  44. 前記選択された位置は、前記第一表示ステップにおいて表示された前記文字列に対する前記入力面上の前記対話式操作の位置に基づいて決定される、請求項41〜43のいずれか1つに記載のシステム。
  45. 前記対話式操作は、
    前記認識領域、
    前記挿入領域、および
    前記出力面上において、前記第一の文字および前記第二の文字を含む前記文字列の少なくとも一部を表示する内容表示フィールド
    のうちの少なくとも1つにおいて生じる、請求項41〜44のいずれか1つに記載のシステム。
  46. 前記対話式操作は、前記入力面に接触して行われる所定のジェスチャ、または前記入力面上の所定のトグル入力である、請求項41〜45のいずれか1つに記載のシステム。
  47. 前記対話式操作は、前記第一表示ステップ中に前記表示領域において表示された前記文字列と交差するように、前記入力面と接触して行われる実質的に垂直なジェスチャを含む、請求項46に記載のシステム。
  48. 第二表示ステップは、
    前記対話式操作に応答して、前記第一の文字を前記挿入領域に隣接する前記認識領域の一側部に移動させるように、前記文字列を自動的にスクロールするステップ
    を含む、請求項41〜47のいずれか1つに記載のシステム。
  49. 第二表示ステップは、
    前記第一の文字が前記対話式操作の検出時に前記挿入領域内にある場合、前記第一の文字を前記挿入領域から前記認識領域中に移動させるように、前記文字列を自動的にスクロールするステップ
    を含む、請求項41〜48のいずれか1つに記載のシステム。
  50. 前記認識領域および前記挿入領域は、互いに隣接する、請求項41〜49のいずれか1つに記載のシステム。
  51. 前記文字列は、複数の単語を含み、各単語は、少なくとも1文字を含み、
    前記動作は、
    前記第一表示ステップ中に、前記認識領域に配置された前記複数の単語のうちの各単語を表示し、かつ前記認識領域に配置された前記複数の単語のうちの各単語を表示するステップ
    を含む、請求項41〜50のいずれか1つに記載のシステム。
  52. 前記第一スクロールステップは、
    前記認識領域において、前記文字列に挿入された前記少なくとも1つの認識された文字の少なくとも一部を表示するように、前記文字列を前記挿入領域から前記認識領域に向かう方向にスクロールするステップ
    を含む、請求項41〜51のいずれか1つに記載のシステム。
  53. 前記第一スクロールステップは、前記少なくとも1つの入力ストロークを検出するステップの後に自動的に行われる、請求項41〜52のいずれか1つに記載のシステム。
  54. 前記第一スクロールステップは、前記手書き認識が完了したことを検出した際に自動的に開始される、請求項53に記載のシステム。
  55. 前記動作は、
    前記手書き認識が行われているときに、前記挿入領域において、前記検出された少なくとも1つの入力ストロークを表示するための第三表示ステップ
    をさらに含む、請求項41〜54のいずれか1つに記載のシステム。
  56. 前記第一スクロールステップは、
    前記文字列内の前記位置に、前記検出された少なくとも1つの入力ストロークを挿入するステップと、
    前記手書き認識が行われているときに、前記認識領域において、前記挿入された少なくとも1つの入力ストロークの少なくとも一部を表示するように、前記認識領域において前記文字列をスクロールするステップと
    を含む、請求項41〜55のいずれか1つに記載のシステム。
  57. 前記第一スクロールステップは、
    前記手書き認識が完了したときに、前記認識領域に表示されている前記挿入された少なくとも1つの入力ストロークを、前記少なくとも1つの認識された文字に置き換えるステップ
    を含む、請求項56に記載のシステム。
  58. 前記第一スクロールステップは、
    前記少なくとも1つの認識された文字を前記認識領域にタイプセットテキストとして表示するステップ
    を含む、請求項41〜57のいずれか1つに記載のシステム。
  59. 前記動作は、
    前記第一スクロールステップの後に、前記認識領域から前記挿入領域に伸びる前記文字列を表示させるためにスクロールするための第二スクロールステップ
    を含む、請求項41〜58のいずれか1つに記載のシステム。
  60. システムは、タッチスクリーンをさらに備え、
    前記入力面および前記出力面は、前記タッチスクリーンによって形成される、請求項41〜59のいずれか1つに記載のシステム。
JP2018545504A 2016-02-29 2017-02-24 文字列に文字を挿入するための方法および対応するデジタルデバイス Active JP6902234B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
EP16305229 2016-02-29
EP16305229.3 2016-02-29
EP16305550 2016-05-11
EP16305550.2 2016-05-11
US15/192,252 2016-06-24
US15/192,252 US10416868B2 (en) 2016-02-29 2016-06-24 Method and system for character insertion in a character string
US15/217,697 2016-07-22
US15/217,697 US10248635B2 (en) 2016-02-29 2016-07-22 Method for inserting characters in a character string and the corresponding digital service
PCT/EP2017/054404 WO2017148834A1 (en) 2016-02-29 2017-02-24 A method for inserting characters in a character string and a corresponding digital device.

Publications (3)

Publication Number Publication Date
JP2019514097A true JP2019514097A (ja) 2019-05-30
JP2019514097A5 JP2019514097A5 (ja) 2020-04-02
JP6902234B2 JP6902234B2 (ja) 2021-07-14

Family

ID=59678974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545504A Active JP6902234B2 (ja) 2016-02-29 2017-02-24 文字列に文字を挿入するための方法および対応するデジタルデバイス

Country Status (6)

Country Link
US (1) US10248635B2 (ja)
EP (1) EP3423929A1 (ja)
JP (1) JP6902234B2 (ja)
KR (1) KR20180119647A (ja)
CN (1) CN109074224A (ja)
WO (1) WO2017148834A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022548494A (ja) * 2019-09-19 2022-11-21 マイスクリプト グラフィックオブジェクトを選択するための方法及び対応するデバイス

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3005175B1 (fr) 2013-04-24 2018-07-27 Myscript Systeme de synchronisation permanente pour la saisie manuscrite
US10416868B2 (en) 2016-02-29 2019-09-17 Myscript Method and system for character insertion in a character string
CN109035914B (zh) * 2018-08-20 2020-12-25 广东小天才科技有限公司 一种基于智能台灯的学习方法及智能台灯
JP7508766B2 (ja) * 2018-10-15 2024-07-02 株式会社リコー 入力装置、入力方法、プログラム、入力システム
KR20200103236A (ko) * 2019-02-22 2020-09-02 삼성전자주식회사 수기에 기반한 입력을 디스플레이하기 위한 방법 및 장치
EP3882757A1 (en) * 2020-03-20 2021-09-22 Ricoh Company, Ltd. Display device, display method, and program
JP2021152884A (ja) * 2020-03-20 2021-09-30 株式会社リコー 表示装置、表示方法、プログラム、情報処理装置
CN111459378A (zh) * 2020-03-23 2020-07-28 广州视源电子科技股份有限公司 笔迹的处理方法和装置
JP2021166000A (ja) * 2020-04-08 2021-10-14 富士フイルムビジネスイノベーション株式会社 情報処理装置、データ構造、文字認識システムおよびプログラム
KR20220109254A (ko) * 2021-01-28 2022-08-04 삼성전자주식회사 전자 장치 및 전자 장치에서 스트로크 분석 기반 도형 인식 방법
CN115328324A (zh) * 2022-07-26 2022-11-11 京东科技信息技术有限公司 移动端字符输入的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099223A (ja) * 1998-09-17 2000-04-07 Fujitsu Ltd 手書き文字入力インタフェースを有するデータ処理装置及び記録媒体
JP2013246633A (ja) * 2012-05-25 2013-12-09 Toshiba Corp 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
JP2014123205A (ja) * 2012-12-20 2014-07-03 Fuji Xerox Co Ltd 手書き情報処理装置及びプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816313A (ja) * 1994-07-04 1996-01-19 Sanyo Electric Co Ltd 手書き入力方法及び装置
US5838302A (en) 1995-02-24 1998-11-17 Casio Computer Co., Ltd. Data inputting devices for inputting typed and handwritten data in a mixed manner
JP3427692B2 (ja) * 1996-11-20 2003-07-22 松下電器産業株式会社 文字認識方法および文字認識装置
US6507678B2 (en) * 1998-06-19 2003-01-14 Fujitsu Limited Apparatus and method for retrieving character string based on classification of character
US6408092B1 (en) * 1998-08-31 2002-06-18 Adobe Systems Incorporated Handwritten input in a restricted area
US6256009B1 (en) * 1999-02-24 2001-07-03 Microsoft Corporation Method for automatically and intelligently scrolling handwritten input
JP3974359B2 (ja) * 2000-10-31 2007-09-12 株式会社東芝 オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム
US6577296B2 (en) 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US7571384B1 (en) * 2001-05-31 2009-08-04 Palmsource, Inc. Method and system for handwriting recognition with scrolling input history and in-place editing
US7158678B2 (en) * 2001-07-19 2007-01-02 Motorola, Inc. Text input method for personal digital assistants and the like
US6661409B2 (en) * 2001-08-22 2003-12-09 Motorola, Inc. Automatically scrolling handwritten input user interface for personal digital assistants and the like
US7380203B2 (en) * 2002-05-14 2008-05-27 Microsoft Corporation Natural input recognition tool
US7174042B1 (en) * 2002-06-28 2007-02-06 Microsoft Corporation System and method for automatically recognizing electronic handwriting in an electronic document and converting to text
US7251367B2 (en) * 2002-12-20 2007-07-31 International Business Machines Corporation System and method for recognizing word patterns based on a virtual keyboard layout
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
US20070094024A1 (en) 2005-10-22 2007-04-26 International Business Machines Corporation System and method for improving text input in a shorthand-on-keyboard interface
JP5123588B2 (ja) * 2007-07-17 2013-01-23 キヤノン株式会社 表示制御装置および表示制御方法
US8116569B2 (en) 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
EP2088536B1 (en) 2008-02-08 2021-08-11 Nokia Technologies Oy Text input system and method involving finger-based handwriting recognition and word prediction
US9996259B2 (en) * 2008-09-26 2018-06-12 General Algorithms Ltd. Methods for inputting text at a touchscreen
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120032877A1 (en) 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
WO2012054062A1 (en) * 2010-10-22 2012-04-26 Hewlett-Packard Development Company, L.P. User interface for facilitating character input
US8587540B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US20120216113A1 (en) 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
CN102135838A (zh) * 2011-05-05 2011-07-27 汉王科技股份有限公司 分区输入手写字符串的方法和系统
WO2012159243A1 (en) 2011-05-20 2012-11-29 Microsoft Corporation User interface for handwriting inputs
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
US10838513B2 (en) * 2012-08-06 2020-11-17 Nokia Technologies Oy Responding to selection of a displayed character string
FR3005175B1 (fr) 2013-04-24 2018-07-27 Myscript Systeme de synchronisation permanente pour la saisie manuscrite
US9411508B2 (en) 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
US10416868B2 (en) 2016-02-29 2019-09-17 Myscript Method and system for character insertion in a character string

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099223A (ja) * 1998-09-17 2000-04-07 Fujitsu Ltd 手書き文字入力インタフェースを有するデータ処理装置及び記録媒体
JP2013246633A (ja) * 2012-05-25 2013-12-09 Toshiba Corp 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
JP2014123205A (ja) * 2012-12-20 2014-07-03 Fuji Xerox Co Ltd 手書き情報処理装置及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022548494A (ja) * 2019-09-19 2022-11-21 マイスクリプト グラフィックオブジェクトを選択するための方法及び対応するデバイス
JP7388645B2 (ja) 2019-09-19 2023-11-29 マイスクリプト グラフィックオブジェクトを選択するための方法及び対応するデバイス

Also Published As

Publication number Publication date
US10248635B2 (en) 2019-04-02
EP3423929A1 (en) 2019-01-09
KR20180119647A (ko) 2018-11-02
WO2017148834A1 (en) 2017-09-08
US20170249293A1 (en) 2017-08-31
CN109074224A (zh) 2018-12-21
JP6902234B2 (ja) 2021-07-14

Similar Documents

Publication Publication Date Title
JP6902234B2 (ja) 文字列に文字を挿入するための方法および対応するデジタルデバイス
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
CN101506867B (zh) 带有输入敏感显示设备的键盘
US10996843B2 (en) System and method for selecting graphical objects
JP2009093291A (ja) ジェスチャー判定装置及び方法
EP2770443B1 (en) Method and apparatus for making contents through writing input on touch screen
JP5947887B2 (ja) 表示制御装置、制御プログラム、および表示装置の制御方法
US20140157182A1 (en) Method and apparatus for executing function executing command through gesture input
WO2004031933A1 (en) Method of combining data entry of handwritten symbols with displayed character data
KR20130116295A (ko) 이동 장치의 키보드 애플리케이션과 같은 키보드 애플리케이션에 명령하기 위한 제스처들의 사용
JP2015007946A (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
US11209976B2 (en) System and method for editing input management
WO2014147716A1 (ja) 電子機器および手書き文書処理方法
WO2017172548A1 (en) Ink input for browser navigation
KR20090055982A (ko) 터치스크린 상에서의 멀티레이어 기반의 문서 처리 방법 및시스템
JP2004342101A (ja) データ処理装置及び方法
TW201423563A (zh) 手寫輸入識別系統及方法
JP5165661B2 (ja) 制御装置、制御方法、制御プログラム、及び記録媒体
JP5213794B2 (ja) 情報処理装置及び情報処理方法
US20150347004A1 (en) Indic language keyboard interface
KR20160044194A (ko) 터치 스크린을 구비하는 전자기기 상의 복수객체에서 객체를 선택하는 방법 및 장치
JP6251408B2 (ja) 電子機器、方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6902234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250