JP6847127B2 - タッチスクリーントラック認識方法及び装置 - Google Patents

タッチスクリーントラック認識方法及び装置 Download PDF

Info

Publication number
JP6847127B2
JP6847127B2 JP2018556431A JP2018556431A JP6847127B2 JP 6847127 B2 JP6847127 B2 JP 6847127B2 JP 2018556431 A JP2018556431 A JP 2018556431A JP 2018556431 A JP2018556431 A JP 2018556431A JP 6847127 B2 JP6847127 B2 JP 6847127B2
Authority
JP
Japan
Prior art keywords
gesture
stylus
touch screen
command
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018556431A
Other languages
English (en)
Other versions
JP2019516189A (ja
Inventor
娟 胡
娟 胡
▲黄▼蘭花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kingsoft Office Software Inc
Zhuhai Kingsoft Office Software Co Ltd
Original Assignee
Beijing Kingsoft Office Software Inc
Zhuhai Kingsoft Office Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kingsoft Office Software Inc, Zhuhai Kingsoft Office Software Co Ltd filed Critical Beijing Kingsoft Office Software Inc
Publication of JP2019516189A publication Critical patent/JP2019516189A/ja
Application granted granted Critical
Publication of JP6847127B2 publication Critical patent/JP6847127B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願は、タッチスクリーン操作技術の分野に関し、特に、タッチスクリーン上の軌跡を識別する方法及び装置に関する。
近年、モバイル機器はますます普及しており、モバイル機器への書き込み/描画の需要が増えている。スタイラスはモバイル機器上での書き込み及び描画のニーズを十分に満たすことができるため、スタイラスは広く使用されている。
一般に、スタイラスの操作結果はジェスチャー操作の操作結果と一致するが、スタイラス及びジェスチャー操作はタッチスクリーンの操作状態において多くの制限を受ける。例えば、スタイラス及びジェスチャー操作によって引き起こされるカオス的な操作に起因して、操作が非常に煩雑な、単純ではない、実際の操作属性を区別することは困難であり、ユーザーエクスペリエンスが低いという技術的問題が生じる。
本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する方法及び装置は、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
本願の実施の形態によって提供されるタッチスクリーン上の軌跡を識別する方法は、前記タッチスクリーン上でトリガされたタッチ操作命令を検出し、前記タッチ操作命令の種類を判定し、前記タッチ操作命令がスタイラストリガ命令である場合、取得されたスタイラスの軌跡に応じて対応する処理を実行し、前記タッチ操作命令がジェスチャートリガ命令である場合、取得されたジェスチャーの軌跡に応じて対応する処理を実行する。
選択的に、前記タッチスクリーン上でトリガされたタッチ操作命令を検出することは、具体的には、
インク状態において、前記タッチスクリーンによって戻されたトリガモードを取得し、
前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定することを含む。
選択的に、前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定することは、具体的には、
前記トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、カプセル化されたapiに対応するタッチ操作命令を判定することを含む。
選択的に、取得された前記ジェスチャーの軌跡に応じて対応する処理を実行することは、具体的には、
取得された単指操作又は多指操作の前記ジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行することを含み、
前記ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。
選択的に、取得された前記スタイラスの軌跡に応じて対応する処理を実行することは、
取得された前記スタイラスの軌跡に応じて対応するスタイラスの処理を実行することを含み、
前記スタイラスの処理は、インク描画処理及び/又はレーザースタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理を含む。
選択的に、前記タッチスクリーン上の軌跡を識別する方法は、さらに、
前記タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含むと判定された場合、
予め設定された優先度に応じて、優先度順に対応する処理を実行するか、
又は、予め設定された優先度に基づいて前記タッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、前記優先度順を再調整するか、
又は、スタイラストリガ命令及びジェスチャートリガ命令に対応する操作を同時に実行することを含む。
本願の実施の形態によって提供されるタッチスクリーン上の軌跡を識別する装置は、
前記タッチスクリーン上でトリガされたタッチ操作命令を検出するように構成された検出ユニットと、
前記タッチ操作命令がスタイラス処理ユニットをトリガするスタイラストリガ命令であるか、前記タッチ操作命令がジェスチャー処理ユニットをトリガするジェスチャートリガ命令であるかの、前記タッチ操作命令の種類を判定する判定ユニットとを含み、
前記スタイラス処理ユニットは、取得したスタイラスの軌跡に応じて対応する処理を実行するように構成されており、
前記ジェスチャー処理ユニットは、取得したジェスチャーの軌跡に応じて対応する処理を行うよう構成されている。
選択的に、前記検出ユニットは、具体的には、
インク状態において、前記タッチスクリーンによって戻されたトリガモードを取得するように構成された戻りサブユニットと、
前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定するように構成された判定サブユニットと、
を含む。
選択的に、前記判定サブユニットは、前記トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、前記カプセル化されたapiに対応するタッチ操作命令を判定するように構成される。
選択的に、前記ジェスチャー処理ユニットは、取得された単指操作又は多指操作の前記ジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行するように構成され、
前記ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。
選択的に、前記スタイラス処理ユニットは、取得された前記スタイラスの軌跡に応じて対応するスタイラスの処理を実行するように構成され、
前記スタイラスの処理は、インク描画処理及び/又はレーザースタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理を含む。
選択的に、前記タッチスクリーン上の軌跡を識別するための装置は、さらに、
前記判定ユニットが、前記タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令との両方を含むと判定した場合、予め設定された優先度に応じて、優先度順に対応する処理を実行するか、又は、予め設定された前記優先度に基づいて前記タッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、前記優先度順を再調整するか、又は、スタイラストリガ命令とジェスチャートリガ命令に対応する操作を同時に実行するように構成された同時処理ユニットを含む。
本願の実施の形態によって提供される電子機器は、
プロセッサ、メモリ、通信インターフェース及び通信バスを備え、
前記プロセッサ、前記メモリ及び前記通信インターフェースは、前記通信バスを介して互いに接続され、通信し、
前記メモリは実行可能なプログラムコードを格納し、
前記プロセッサは、前記メモリに格納された前記実行可能なプログラムコードを読み出して、本願に記載のタッチスクリーン上の軌跡を識別する方法を実施し、前記実行可能なプログラムコードに対応するプログラムを実行する。
本願の実施の形態は記憶媒体を提供し、該記憶媒体は、実行可能なプログラムコードを格納するように構成され、前記実行可能なプログラムコードは、実行されると、本願に記載のタッチスクリーン上の軌跡を識別する方法を実施するように構成されている。
本願の実施の形態はアプリケーションプログラムを提供し、該アプリケーションプログラムは、本願に記載のタッチスクリーン上の軌跡を識別する方法を実行するように構成されている。
上記の技術的解決策から分かるように、本願の実施形態は以下の利点を有する。
本願の実施形態は、タッチスクリーン上の軌跡を識別する方法及び装置を提供する。
タッチスクリーン上の軌跡を識別する方法は、タッチスクリーン上でトリガされたタッチ操作命令を検出し、タッチ操作命令の種類を判定し、タッチ操作命令がスタイラストリガ命令である場合、取得されたスタイラスの軌跡に応じて対応する処理を実行し、タッチ操作命令がジェスチャートリガ命令である場合、取得されたジェスチャーの軌跡に応じて対応する処理を実行する。
本実施形態では、タッチ操作命令の種類を判定し、タッチ操作命令の種類がスタイラストリガ命令であれる場合、取得されたスタイラスの軌跡に応じて対応する処理を行い、タッチ操作命令の種類がジェスチャートリガ指示である場合、取得されたジェスチャーの軌跡に応じて対応する処理が行われるため、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
本願の実施形態及び従来技術における技術的解決策をより明確に説明するために、実施形態及び従来技術で用いられる必要がある図面について以下に簡単に説明する。明らかに、以下に説明する図面は、本願の一部の実施形態のみのものであり、当業者であれば、これらの図面に基づいて、創意工夫なく他の図面を得ることができる。
本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する方法の実施形態の概略フローチャート図である。 本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する方法の他の実施形態の概略フローチャート図である。 本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する装置の実施形態の構造概略図である。 本発明の実施形態によって提供されるタッチスクリーン上の軌跡を識別する装置の他の実施形態の構造概略図である。 図2の応用例の概略図である。
当業者が本願の実施形態における技術的解決策をよりよく理解できるようにするため、本願の実施形態における技術的解決策を、本願の実施形態の添付の図面と組み合わせて、以下、明瞭かつ完全に説明する。明らかに、記載された実施形態は、本願の実施形態の一部であり、実施形態の全てではない。創作工夫なく本願の実施形態に基づいて当業者によって得られる他の全ての実施形態は、本願の保護範囲内に収まるものとする。
図1を参照すると、本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する方法の実施形態は、以下のステップを含む。
101、タッチスクリーン上でトリガされたタッチ操作命令を検出する。
実施形態では、インク状態において、スタイラス又はジェスチャーの接触を判定する必要がある場合、まず、タッチスクリーン上でトリガーされたタッチ操作命令を検出する必要がある。
102、タッチ操作命令の種類を判定する。タッチ操作命令がスタイラストリガ命令である場合、ステップ103を実行し、タッチ操作命令がジェスチャートリガ命令である場合、ステップ104を実行する。
タッチスクリーン上でトリガされるタッチ操作命令を検出した後、タッチ操作命令の種類を判定する必要がある。タッチ操作命令がスタイラストリガ命令である場合、ステップ103が実行され、タッチ操作命令がジェスチャートリガ命令である場合、ステップ104が実行される。
103、取得されたスタイラスの軌跡に応じて対応する処理を実行する。
タッチ操作命令がスタイラストリガ命令であると判定された場合、取得されたスタイラスの軌跡に応じて対応する処理が実行される。
104、取得されたジェスチャーの軌跡に応じて対応する処理を実行する。
タッチ操作命令がジェスチャートリガ命令であると判定された場合、取得されたジェスチャーの軌跡に応じて対応する処理が実行される。
本実施形態では、タッチ操作命令の種類を判定し、タッチ操作命令がスタイラストリガ命令である場合、取得されたスタイラスの軌跡に応じて対応する処理が実行され、タッチ操作命令がジェスチャー操作命令である場合、取得されたジェスチャーの軌跡に応じて対応する処理が実行されるため、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
タッチスクリーン上の軌跡を識別する方法のプロセスは、上で詳細に説明されており、追加のプロセスは以下で詳細に説明される。図2を参照すると、本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する方法の他の実施形態は、以下のステップを含む。
201、タッチスクリーンによって戻されたトリガモード(trigger mode returned by the touch screen)を取得する。
この実施形態では、スタイラス又はジェスチャーの接触を判定する必要がある場合、まず、タッチスクリーンによって戻されたトリガモードが取得される。
202、トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定する。
タッチスクリーンによって戻されたトリガモードを取得した後、自動的にトリガモードを入力ソースと照合し、対応するタッチ操作命令を判定する必要がある。
入力ソースをトリガモードと自動的に照合し、対応するタッチ操作命令を判定することは、トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、カプセル化されたapiに応じて、対応するタッチ操作命令を判定することを含む。例えば、ios9システムには、指とスタイラスを区別するために使用できる属性タイプがある。入力ソースが異なる場合、システムにカプセル化されたapiジェスチャーは異なるであろう。例えば、ジェスチャーを受信する場合、UITouchジェスチャーソースは、カプセル化タイプを有し、これは、当技術分野で周知の技術であり、詳細には説明しない。
203、タッチ操作命令の種別を判定する。タッチ操作命令がスタイラストリガ命令である場合、ステップ204を実行し、タッチ操作命令がジェスチャートリガ命令である場合ステップ205を実行し、タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含む場合、ステップ206を実行する。
トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定した後、タッチ操作命令の種類を判定する必要がある。タッチ操作命令がスタイラストリガ命令である場合、ステップ204が実行され、タッチ操作命令がジェスチャートリガ命令である場合、ステップ205が実行され、タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含む場合、ステップ206が実行される。
204、取得されたスタイラスの軌跡応じて対応する処理を実行する。
タッチ操作命令がスタイラストリガ命令であると判定された場合、取得されたスタイラスの軌跡に応じて対応する処理が実行される。
なお、スタイラスの処理には、インク描画処理及び/又はレーザスタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理が含まれる。
205、取得されたジェスチャーの軌跡に応じて対応する処理を実行する。
タッチ操作命令がジェスチャートリガ命令であると判定された場合、取得されたジェスチャーの軌跡に応じて対応する処理が実行される。
取得されたジェスチャーの軌跡に応じて対応する処理を実行することは、取得された単指操作又は多指操作のジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行することを特に含むことができることに留意されたい。ここで、ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。実際には、ジェスチャーの処理の効果は限定されていない。
206、予め設定された優先度に応じて、優先度順に対応する処理を実行するか、又は、予め設定された優先度に基づいてタッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、優先度順を再調整するか、又は、スタイラストリガ命令及びジェスチャートリガ命令に対応する操作を同時に実行する。
タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含むと判定された場合、予め設定された優先度に対応する優先度順の処理が実行されるか、又は、予め設定された優先度に基づいてタッチ操作命令が特殊ケースであるかが判定され、特殊ケースであると判定された場合、優先順を再調整するか、又は、スタイラストリガ命令とジェスチャートリガ命令に対応する操作が同時に実行される。
上記の「再調整」は、同じ場面で実行されてもよい。例えば、予め設定された優先度の設定では、通常、手が最初にスクリーンにタッチした場合、スクリーンは最初に手に反応し、スタイラスが最初にスクリーンにタッチした場合、スクリーンは最初にスタイラスに反応する。しかし、手の接触面積が大きすぎる場合手に反応しないように、特別な判定を加えることができる。
スタイラスと手が同時にスクリーンにタッチした場合、いくつかの識別によって優先度の決定が行われることに留意されたい。例えば、手の接触面積が大きすぎたり、ある種の特性を満たしている場合、ユーザーがスタイラスを保持した状態にあり、手のひらや指が描画する画面を支持していると判定することができる。この場合、手の接触動作は自動的に無視される。スタイラスと手が同時にスクリーンに触れると、後続の処理は必ずしも互いに排他的ではない。2つの動作が矛盾しない場合、手とスタイラスの2つの動作が同時に実行されてもよい。指の動作は、他の動作にも拡張することができる。例えば、単指スリップ(single-finger slip)は、消去動作として定義することができる。スタイラスでインクを描画した後、指がインク位置で滑ると、指の動きのトラック内のインクの内容が消去され得る。さらに、スタイラスの動作は、必ずしも手書きの描画だけではなく、例えば、規則的な矩形や円などの描画や、スタイラスを消しゴムとして使用することもできる。
なお、上記予め設定された優先度は、スタイラストリガ命令に対応するスタイラス操作が最初に実行された後に、ジェスチャートリガ命令に対応するジェスチャー操作が実行されてもよいし、処理が逆であってもよいが、これについては詳細には説明しない。上記のジェスチャーの軌跡は、多指、単指操作であってもよく、特に限定されない。
図5は、同じインターフェースにおいてスタイラスとジェスチャーの操作を区別して示している。すなわち、スタイラス使用時にスタイラスの操作に応答し、その操作の結果が手書き効果を描画することであり、指使用時にジェスチャーの操作に応答し、インタフェースをスクロールしたり、インタフェースをズームしたり、テキストを選択したりするなどである。
本実施形態では、タッチ操作命令の種類を判定し、タッチ操作命令がスタイラストリガ命令である場合、取得されたスタイラスの軌跡に応じた対応する処理を行い、タッチ操作命令がジェスチャー操作命令である場合、取得されたジェスチャーの軌跡に応じて対応する処理が行われるため、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。同時に、スタイラスとジェスチャーの操作を区別することによって、スタイラスとジェスチャーに異なる操作フィードバックが与えられるので、ユーザーは頻繁に状態を切り替えることなく、より便利かつ迅速に操作タスクを完了することができ、スタイラスとジェスチャーとを区別することによって、インクの描画とインターフェースの操作の2つの動作の目的を区別することができる。達成される効果は、ユーザーが閲覧中にマークすることができるように、インターフェースをスクロールしたりズームしたりするなど、スタイラスを使用したマーキングプロセス中のジェスチャーによってインターフェースが操作され、ユーザーがマーキングプロセスを便利かつ迅速に完了するのを助けることである。
実際のアプリケーションでは、特定のインク状態に入ると、スタイラスを使用して直接描画又は書き込みすることができる。しかし、従来の指スワイプもまたインクを描画することであり、通常この場合、既存の解決法は複雑なジェスチャーをサポートすることであり、例えば、この時2本の指を用いてページを片面化する(be sided)ことができる(ユーザーがこのジェスチャーを見つけて習得することは難しい)。しかし、この処理には多くの制限を受け、主に最も直接的な単指スライドは直接ページをスクロールできず、単指はファイル要素を選択することもできない。
また、スタイラスの軌跡とジェスチャーの軌跡とを区別することにより、描画動作を他の動作と明確に区別し、ユーザーがスタイラスでインクを描画したり、単指でページ内容をスクロールしたりするなど、実際のデザインにおいてより多くの可能性を与えることができる。
図3を参照すると、本願の実施形態によって提供されるタッチスクリーン上の軌跡を識別する装置の実施形態は、以下を含む。
タッチスクリーン上でトリガされたタッチ操作命令を検出するように構成された検出ユニット301と、
タッチ操作命令の種類を判定するように構成された判定ユニット302であって、タッチ操作命令がスタイラストリガ命令である場合、スタイラス処理ユニット303をトリガし、タッチ操作命令がジェスチャートリガ命令である場合、ジェスチャー処理ユニット304をトリガし、
スタイラス処理ユニット303は、取得したスタイラスの軌跡に応じて対応する処理を実行するように構成されており、
ジェスチャー処理ユニット304は、取得したジェスチャーの軌跡に応じて対応する処理を行うよう構成されている。
本実施形態では、判定ユニット302によりタッチ操作命令の種類が判定され、タッチ操作命令がスタイラストリガ命令である場合、取得したスタイラスの軌跡に応じてスタイラス処理ユニット303により対応する処理が行われ、タッチ操作命令がジェスチャートリガ命令である場合、取得したジェスチャーの軌跡に応じてジェスチャー処理ユニット304により対応する処理が行われ、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
タッチスクリーン上の軌跡を識別するための装置の様々なユニットが上で詳細に説明されており、追加のユニットは以下で詳細に説明される。図4を参照すると、本願の実施形態で提供されるタッチスクリーン上の軌跡を識別する装置の他の実施形態は、
タッチスクリーン上でトリガされたタッチスクリーン上のタッチ操作命令を検出するように構成された検出ユニット401を含む。
検出ユニット401は、具体的には、
タッチスクリーンによって戻されたトリガモードを取得するように構成された戻りサブユニット4011と、
トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定するように構成された判定サブユニット4012とを含み、判定サブユニット4012は、トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、カプセル化されたapiに応じて、対応するタッチ操作命令を判定するように特に構成されている。
タッチ操作指示の種別を判定するように構成された判定ユニット402を含み、タッチ操作命令がスタイラストリガ命令である場合、スタイラス処理ユニット403をトリガし、タッチ操作命令がジェスチャートリガ命令である場合、ジェスチャー処理ユニット404をトリガする。
取得したスタイラスの軌跡に応じて対応する処理を実行するように構成されたスタイラス処理ユニット403を含む。スタイラス処理ユニットは、取得されたスタイラスの軌跡に応じて対応するスタイラスの処理を実行するように特に構成され、スタイラスの処理は、インク描画処理及び/又はレーザースタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理を含む。
取得したジェスチャーの軌跡に応じて対応する処理を行うよう構成されたジェスチャー処理ユニット404を含む。ジェスチャー処理ユニット404は、取得された単指操作又は多指操作のジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行するように特に構成され、ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。
判定ユニット402がタッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含むと判定した場合、予め設定された優先度に応じて優先度順に対応する処理を実行するか、又は、予め設定された優先度に基づいてタッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、優先度順を再調整するか、又はスタイラストリガ命令とジェスチャートリガ命令に対応する操作を同時に実行するように構成された同時処理ユニット405とを含む。

本実施形態では、判定ユニット402によりタッチ操作指示の種類が判定され、タッチ操作命令がスタイラストリガ命令である場合、取得したスタイラスの軌跡に応じてスタイラス処理ユニット403により対応する処理が行われ、タッチ操作命令がジェスチャートリガ命令である場合、取得したジェスチャーの軌跡に応じてジェスチャー処理部404により対応する処理が行われ、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。同時に、スタイラスとジェスチャーの操作を区別することによって、スタイラスとジェスチャーに異なる操作フィードバックが与えられるので、ユーザーは頻繁に状態を切り替えることなく、より便利かつ迅速に操作タスクを完了することができ、スタイラスとジェスチャーとを区別することによって、インクの描画とインターフェースの操作の2つの動作の目的を区別することができる。達成される効果は、ユーザーが閲覧中にマークすることができるように、インターフェースをスクロールしたりズームしたりするなど、スタイラスを使用したマーキングプロセス中のジェスチャーによってインターフェースが操作され、ユーザーがマーキングプロセスを便利かつ迅速に完了するのを助けることである。
これに対応して、本願の実施形態は、電子機器をさらに提供し、電子機器は、
プロセッサ、メモリ、通信インターフェース及び通信バスを備え、
プロセッサ、メモリ及び通信インターフェースは、通信バスを介して互いに接続され、通信し、
メモリは実行可能なプログラムコードを格納し、
プロセッサは、メモリに格納された実行可能なプログラムコードを読み出して、実行可能なプログラムコードに対応するプログラムを実行し、実行されたときに本願によって提供されるタッチスクリーン上の軌跡を識別する方法を実現する。
本実施形態では、タッチ操作命令の種類を判定し、タッチ操作命令がスタイラストリガ命令である場合、取得したスタイラスの軌跡に応じて対応する処理を行い、タッチ操作命令がジェスチャー操作命令である場合、取得したジェスチャーの軌跡に応じて対応する処理が行われ、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
これに対応して、本願の実施形態は、さらに記憶媒体を提供する。記憶媒体は、実行可能プログラムコードを格納するために用いられ、実行可能なプログラムコードは、実行されると、本願によって提供されるタッチスクリーン上の軌跡を識別する方法を実行するように構成される。
本実施形態では、タッチ操作命令の種類を判定し、タッチ操作命令がスタイラストリガ命令である場合、取得したスタイラスの軌跡に応じた対応する処理を行い、タッチ操作命令がジェスチャー操作命令である場合、取得したジェスチャーの軌跡に応じた対応する処理が行われ、スタイラスとジェスチャーの混同する(mix-up)操作に起因するタッチスクリーン上の識別不能な、複雑で間接な操作によって引き起こされる低いユーザーエクスペリエンスの技術的問題などの、タッチスクリーンの操作状態に現在存在するスタイラス及びジェスチャーによる操作における多くの制限を解決することができる。
これに対応して、本願の実施形態は、さらにアプリケーションプログラムを提供する。アプリケーションプログラムは、実行されると、本願によって提供されるタッチスクリーン上の軌跡を識別する方法を実行するように構成される。
本実施形態では、タッチ操作命令の種類を判定することにより、タッチ操作命令がスタイラストリガ命令である場合、取得したスタイラスの軌跡に応じた対応する処理を行い、タッチ操作命令がジェスチャー操作命令である場合、取得したジェスチャーの軌跡に応じた対応する処理が行われ、タッチスクリーンの操作状態において現在課されるスタイラス及びジェスチャー操作の多くの制限が解決される。例えば、スタイラス及びジェスチャー操作によって引き起こされるカオス的な操作に起因して、操作が非常に煩雑な、単純ではない、実際の操作属性を区別することは困難であり、ユーザーエクスペリエンスが低いという技術的問題が生じる。
装置/電子機器/記憶媒体/アプリケーションプログラムの実施形態は、本方法の実施形態と実質的に同様であるため、簡単に説明した。関連する内容は、本方法の実施形態の説明を参照することができる。
「第1」、「第2」などのここで用いられる関係用語は、1つの実体(entity)又は操作(operation)を他の実体又は操作と区別するためにのみ使用されるものであり、必ずしもこれらの実体又は操作の間に実際の関係又は順序が存在することを、必要とせず又は意味しないことに留意されたい。さらに、用語「含む(include)」、「備える(comprise)」、又はそれらの任意の変形は、非排他的な包含を含むことが意図され、一連の要素を含むプロセス、方法、物品又は装置は、記載された要素だけでなく、特に記載されていない他の要素又はこれらのプロセス、方法、物品又は装置に固有の要素も含む。さらなる制限なしに、「備える...(comprise(s) a/an…)」という文言によって定義される要素は、記載された要素を含むプロセス、方法、物品又は装置における追加の同一要素を除外しない。
説明における全ての実施形態は、相関した方法で記載され、様々な実施形態における同一又は類似の部分は、互いに参照することができる。さらに、各実施形態の説明は、他の実施形態との相違点に焦点を当てている。特に、装置の実施形態は、方法の実施形態と実質的に類似しており、関連する内容は方法の実施形態の説明を参照することができるので、簡潔に記載される。
当業者であれば、上記の方法の実施におけるステップの全部又は一部が、プログラムによって関連するハードウェアに指示することによって達成され得ることが理解できよう。これらのプログラムは、ROM/RAM、ディスク、光ディスクなどのコンピュータ可読記憶媒体に記憶されて得る。
上記の実施形態は、本願の簡単な好ましい実施形態であり、本願の保護の範囲を限定することを意図するものではない。本願の精神及び原理内の変更、代替、改良などは、本願の保護の範囲に含まれるものとする。
本願は、2016年4月28日に中国国家知的財産権局に提出された「タッチスクリーントラック認識方法及び装置」という名称の中国特許出願第201610281833.9号の優先権を主張し、その全体が参照により本明細書に組み込まれる。

Claims (13)

  1. タッチスクリーン上の軌跡を識別する方法であって、
    前記タッチスクリーン上でトリガされたタッチ操作命令を検出し、
    前記タッチ操作命令の種類を判定し、前記タッチ操作命令がスタイラストリガ命令である場合、取得されたスタイラスの軌跡に応じて対応する処理を実行し、前記タッチ操作命令がジェスチャートリガ命令である場合、取得されたジェスチャーの軌跡に応じて対応する処理を実行し、
    前記タッチスクリーン上の軌跡を識別する方法は、さらに、
    前記タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令の両方を含むと判定された場合、
    予め設定された優先度に基づいて前記タッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、前記優先度順を再調整することを備え
    前記予め設定された優先度は、前記スタイラストリガ命令に対応するスタイラス操作が最初に実行された後に、前記ジェスチャートリガ命令に対応するジェスチャー操作が実行されること、又は、前記ジェスチャートリガ命令に対応するジェスチャー操作が最初に実行された後に、前記スタイラストリガ命令に対応するスタイラス操作が実行されることである
  2. 請求項1に記載のタッチスクリーン上の軌跡を識別する方法であって、
    前記タッチスクリーン上でトリガされたタッチ操作命令を検出することは、
    インク状態において、前記タッチスクリーンによって戻されたトリガモードを取得し、
    前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定することを備える。
  3. 請求項2に記載のタッチスクリーン上の軌跡を識別する方法であって、
    前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定することは、
    前記トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、カプセル化されたapiに対応するタッチ操作命令を判定することを備える。
  4. 請求項1に記載のタッチスクリーン上の軌跡を識別する方法であって、
    取得された前記ジェスチャーの軌跡に応じて対応する処理を実行することは、
    取得された単指操作又は多指操作の前記ジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行することを備え、
    前記ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。
  5. 請求項1に記載のタッチスクリーン上の軌跡を識別する方法であって、
    取得された前記スタイラスの軌跡に応じて対応する処理を実行することは、
    取得された前記スタイラスの軌跡に応じて対応するスタイラスの処理を実行することを備え、
    前記スタイラスの処理は、インク描画処理及び/又はレーザースタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理を含む。
  6. タッチスクリーン上の軌跡を識別する装置であって、
    前記タッチスクリーン上でトリガされたタッチ操作命令を検出するように構成された検出ユニットと、
    前記タッチ操作命令がスタイラス処理ユニットをトリガするスタイラストリガ命令であるか、前記タッチ操作命令がジェスチャー処理ユニットをトリガするジェスチャートリガ命令であるかの、前記タッチ操作命令の種類を判定する判定ユニットとを備え、
    前記スタイラス処理ユニットは、取得したスタイラスの軌跡に応じて対応する処理を実行するように構成されており、
    前記ジェスチャー処理ユニットは、取得したジェスチャーの軌跡に応じて対応する処理を行うよう構成されており、
    前記タッチスクリーン上の軌跡を識別する装置は、さらに、
    前記判定ユニットが、前記タッチ操作命令がスタイラストリガ命令とジェスチャートリガ命令との両方を含むと判定した場合、予め設定された優先度に基づいて前記タッチ操作命令が特殊ケースであるかを判定し、特殊ケースであると判定された場合、前記優先度順を再調整するように構成された同時処理ユニットを備え
    前記予め設定された優先度は、前記スタイラストリガ命令に対応するスタイラス操作が最初に実行された後に、前記ジェスチャートリガ命令に対応するジェスチャー操作が実行されること、又は、前記ジェスチャートリガ命令に対応するジェスチャー操作が最初に実行された後に、前記スタイラストリガ命令に対応するスタイラス操作が実行されることである
  7. 請求項6に記載のタッチスクリーン上の軌跡を識別する装置であって、
    前記検出ユニットは、
    インク状態において、前記タッチスクリーンによって戻されたトリガモードを取得するように構成された戻りサブユニットと、
    前記トリガモードを入力ソースと自動的に照合し、対応するタッチ操作命令を判定するように構成された判定サブユニットと、
    を備える。
  8. 請求項7に記載のタッチスクリーン上の軌跡を識別する装置であって、
    前記判定サブユニットは、前記トリガモードを入力ソースに対応するカプセル化されたapiと自動的に照合し、前記カプセル化されたapiに対応するタッチ操作命令を判定するように構成される。
  9. 請求項6に記載のタッチスクリーン上の軌跡を識別する装置であって、
    前記ジェスチャー処理ユニットは、取得された単指操作又は多指操作の前記ジェスチャーの軌跡に応じて、対応するジェスチャーの処理を実行するように構成され、
    前記ジェスチャーの処理は、インターフェースのズーム及び/又はインターフェースのスクロール及び/又はテキストコンテンツの選択及び/又はジェスチャーによってスワイプされた領域の塗りつぶし(filling an area swept by a gesture)及び/又はジェスチャーによってスワイプされた領域のカット/コピーを含む。
  10. 請求項6に記載のタッチスクリーン上の軌跡を識別する装置であって、
    前記スタイラス処理ユニットは、取得された前記スタイラスの軌跡に応じて対応するスタイラスの処理を実行するように構成され、
    前記スタイラスの処理は、インク描画処理及び/又はレーザースタイラス処理及び/又は通常の画像/オブジェクト描画処理及び/又は消去処理を含む。
  11. 電子機器であって、
    プロセッサ、メモリ、通信インターフェース及び通信バスを備え、
    前記プロセッサ、前記メモリ及び前記通信インターフェースは、前記通信バスを介して互いに接続され、通信し、
    前記メモリは実行可能なプログラムコードを格納し、
    前記プロセッサは、前記メモリに格納された前記実行可能なプログラムコードを読み出して、請求項1〜5のいずれか1項に記載のタッチスクリーン上の軌跡を識別する方法を実施し、前記実行可能なプログラムコードに対応するプログラムを実行する。
  12. 実行可能なプログラムコードを格納するように構成された記憶媒体であって、前記実行可能なプログラムコードは、実行されると、請求項1〜5のいずれか1項に記載のタッチスクリーン上の軌跡を識別する方法を実施するように構成されている。
  13. 請求項1〜5のいずれか1項に記載のタッチスクリーン上の軌跡を識別する方法を実行するように構成されたアプリケーションプログラム。
JP2018556431A 2016-04-28 2016-08-30 タッチスクリーントラック認識方法及び装置 Active JP6847127B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610281833.9A CN107329602A (zh) 2016-04-28 2016-04-28 一种触摸屏轨迹识别方法及装置
CN201610281833.9 2016-04-28
PCT/CN2016/097316 WO2017185575A1 (zh) 2016-04-28 2016-08-30 一种触摸屏轨迹识别方法及装置

Publications (2)

Publication Number Publication Date
JP2019516189A JP2019516189A (ja) 2019-06-13
JP6847127B2 true JP6847127B2 (ja) 2021-03-24

Family

ID=60161829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018556431A Active JP6847127B2 (ja) 2016-04-28 2016-08-30 タッチスクリーントラック認識方法及び装置

Country Status (4)

Country Link
US (1) US11042290B2 (ja)
JP (1) JP6847127B2 (ja)
CN (1) CN107329602A (ja)
WO (1) WO2017185575A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
CN107832003B (zh) * 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10719230B2 (en) * 2018-09-27 2020-07-21 Atlassian Pty Ltd Recognition and processing of gestures in a graphical user interface using machine learning
US11922008B2 (en) 2021-08-09 2024-03-05 Samsung Electronics Co., Ltd. Electronic device processing input of stylus pen and method for operating the same
KR20230022766A (ko) * 2021-08-09 2023-02-16 삼성전자주식회사 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857385B2 (ja) 2010-01-12 2012-01-18 パナソニック株式会社 電子ペンシステム
CN101882042B (zh) * 2010-06-08 2011-10-12 苏州瀚瑞微电子有限公司 电容式触摸屏手掌判别方法
CN102063236A (zh) * 2010-12-29 2011-05-18 福州锐达数码科技有限公司 一种压感电子白板实现触摸识别的方法
CN103329066B (zh) * 2011-01-19 2017-03-29 惠普发展公司,有限责任合伙企业 用于多模式手势控制的方法和系统
CN102707861B (zh) * 2011-03-28 2014-09-03 联想(北京)有限公司 电子设备及其显示方法
US20140028605A1 (en) 2012-07-26 2014-01-30 Texas Instruments Incorporated Touch Profiling on Capacitive-Touch Screens
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
CN103207718B (zh) * 2013-03-18 2016-08-03 敦泰科技有限公司 一种互电容式触摸屏及其触摸感应方法
TWI514229B (zh) * 2013-11-22 2015-12-21 Elan Microelectronics Corp 圖形編輯方法以及電子裝置
JP6235349B2 (ja) 2014-01-16 2017-11-22 シャープ株式会社 タッチ操作機能付表示装置
US10101844B2 (en) * 2014-03-14 2018-10-16 Lg Electronics Inc. Mobile terminal and method of controlling the same based on type of touch object used to apply touch input

Also Published As

Publication number Publication date
CN107329602A (zh) 2017-11-07
WO2017185575A1 (zh) 2017-11-02
US20200210059A1 (en) 2020-07-02
JP2019516189A (ja) 2019-06-13
US11042290B2 (en) 2021-06-22

Similar Documents

Publication Publication Date Title
JP6847127B2 (ja) タッチスクリーントラック認識方法及び装置
US10152948B2 (en) Information display apparatus having at least two touch screens and information display method thereof
US9378573B2 (en) Information processing apparatus and control method thereof
CN109643213B (zh) 用于协同编辑工具的触摸屏用户界面的系统和方法
CN110058782B (zh) 基于交互式电子白板的触摸操作方法及其系统
US20140210797A1 (en) Dynamic stylus palette
US20160098186A1 (en) Electronic device and method for processing handwritten document
KR101156610B1 (ko) 터치 방식을 이용한 입력 제어 방법 및 이를 위한 입력 제어 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
KR101329584B1 (ko) 멀티터치 기반의 텍스트블록 설정에 따른 편집제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US10607574B2 (en) Information processing device and information processing method
US20140189482A1 (en) Method for manipulating tables on an interactive input system and interactive input system executing the method
US10416868B2 (en) Method and system for character insertion in a character string
CN109002201B (zh) 在电子呈现系统中拒绝无关触摸输入
JP5306528B1 (ja) 電子機器および手書き文書処理方法
US9733826B2 (en) Interacting with application beneath transparent layer
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same
US10222866B2 (en) Information processing method and electronic device
KR102078748B1 (ko) 플렉서블 디스플레이에서 문자를 입력하는 방법 및 그 전자 장치
US9950542B2 (en) Processing digital ink input subject to monitoring and intervention by an application program
JP2015022489A (ja) 情報処理装置及びプログラム
US9665769B2 (en) Handwriting recognition with natural user input on multitouch surfaces
JP6276630B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
US20160011671A1 (en) Information processing apparatus, information processing method, and storage medium
EP2763020A1 (en) Dynamic stylus palette
JP2010267014A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210302

R150 Certificate of patent or registration of utility model

Ref document number: 6847127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250