JP6237769B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6237769B2
JP6237769B2 JP2015518048A JP2015518048A JP6237769B2 JP 6237769 B2 JP6237769 B2 JP 6237769B2 JP 2015518048 A JP2015518048 A JP 2015518048A JP 2015518048 A JP2015518048 A JP 2015518048A JP 6237769 B2 JP6237769 B2 JP 6237769B2
Authority
JP
Japan
Prior art keywords
load amount
data
user
information processing
input operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015518048A
Other languages
English (en)
Other versions
JPWO2014188635A1 (ja
Inventor
川口 裕人
裕人 川口
古立 学
学 古立
宗毅 海老原
宗毅 海老原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014188635A1 publication Critical patent/JPWO2014188635A1/ja
Application granted granted Critical
Publication of JP6237769B2 publication Critical patent/JP6237769B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0442Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for transmitting changes in electrical potential to be received by the digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Description

本技術は、タッチセンサを有する情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。
従来から、情報処理装置において、タッチパネルやタッチパッドを用いて、ユーザが画面上にスタイラス等の筆記具により入力操作を行うこと(以下、ペン入力)が可能な情報処理装置が実用化されている(例えば、特許文献1参照)。このペン入力は、ペンの位置を検出し、その検出データを元に表示装置に画像を表示することで実現される。
特開2012−168993号公報
上記のような従来のペン入力技術は、もっぱらリアルタイムに文字や線画の入力結果を表示することに特化している。しかし、情報処理装置が画面上のペンの位置のみならず、ペンによる押圧力を高い精度で安定的に検出することができれば、筆跡のみならず筆圧や筆使いといった各ユーザのペン入力時のより詳細な特徴を記録することが可能となる。そして、それらの特徴データは、多彩なアプリケーションに利用可能となる。
以上のような事情に鑑み、本技術の目的は、筆記具による入力時の詳細な特徴をユーザ毎に記録し活用することが可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムを提供することにある。
上述の課題を解決するため、本技術の一形態に係る情報処理装置は、センサと、記憶部と、制御部とを有する。上記センサは、筆記具によるユーザの入力操作を受け付ける入力面を有し、上記入力操作があった位置の座標及び上記位置に加わる荷重量を検出可能である。上記制御部は、検出された上記座標を示す座標データ及び上記荷重量を示す荷重量データを所定の時間間隔で上記記憶部に上記ユーザの識別情報と関連付けて記憶させ、記憶された上記座標データ及び上記荷重量データを上記記憶部から上記識別情報と関連付けて読み出すことが可能である。
この構成によれば、情報処理装置は、筆記具によるセンサへの入力操作時の座標データのみならず荷重量データも検出することができるため、筆記具による入力操作時の詳細な特徴をユーザ毎に記録し、それを活用することができる。ここで筆記具には、例えばスタイラス、ペン、筆等、形状やインクの有無を問わず、筆記操作が可能なあらゆる用具を指す。
上記制御部は、上記所定の時間間隔で記憶された上記座標データから、上記座標の移動速度を示す移動速度データを算出可能であってもよい。
これにより情報処理装置は、座標データ及び荷重量データに加え移動速度データも算出することで、入力操作時の特徴をより詳細に記録し活用することができる。
上記制御部は、上記所定の時間間隔で記憶された上記荷重量データから、上記荷重量の時間的変化を示す荷重量変化データを算出可能であってもよい。
これにより情報処理装置は、座標データ及び荷重量データに加え荷重量変化データも算出することで、入力操作時の特徴をより詳細に記録し活用することができる。
上記制御部は、上記座標データ及び上記荷重量データの記憶後の上記筆記具による入力操作から検出された上記座標及び上記荷重量と、上記記憶された座標データ及び荷重量データとを比較し、差異の有無を判別可能であってもよい。
これにより情報処理装置は、座標データ及び荷重量データを基に、異なるユーザによる入力操作の特徴の差異を判別することができる。
上記制御部は、上記判別された差異の有無を元に上記ユーザを認証し、認証結果を出力可能であってもよい。
これにより情報処理装置は、座標データ及び荷重量データの差異を基に個人認証を行うことができる。
上記情報処理装置は、表示部をさらに具備してもよい。この場合上記制御部は、上記入力操作に応じて、上記座標データ及び上記荷重量データのうち、座標データのみを用いて上記入力操作の開始から終了までの軌跡を示す画像を表示するように上記表示部を制御可能であってもよい。
これにより情報処理装置は、認証処理においては座標データと荷重量データの双方を用いる一方、ユーザの入力操作の結果としての画像には荷重量データを反映させないことで、模倣者が他のユーザの入力操作を荷重量を含めて模倣するのを困難にすることができる。
上記情報処理装置は、出力部をさらに具備してもよい。この場合上記制御部は、上記判別された差異を示す情報を出力するように上記出力部を制御可能であってもよい。
これにより情報処理装置は、座標データ及び荷重量データの差異を基に、操作入力の差異をユーザに知らしめることができる。
上記情報処理装置は、表示部をさらに具備してもよい。この場合上記制御部は、上記記憶された座標データ及び荷重量データを基に、上記ユーザの入力操作の開始から終了までの軌跡を示す第1の画像を表示するように上記表示部を制御可能であってもよい。
これにより、座標データ及び荷重量データの記憶後に操作入力を行った他のユーザは、記憶例えば座標データ及び荷重量データが記憶されたユーザの操作入力の軌跡を、自らの手本として参照することができる。
上記センサは、上記画像の表示後、他のユーザの上記筆記具による入力操作から座標データ及び荷重量データを検出可能であってもよい。この場合制御部は、上記検出された座標データ及び荷重量データを基に、上記他のユーザの入力操作の開始から終了までの軌跡を示す第2の画像を、上記第1の画像に重畳させて表示するように上記表示部を制御してもよい。さらに制御部は、上記記憶された座標データ及び荷重量データと上記他のユーザの入力操作から検出された座標データ及び荷重量データとを比較し、上記第1の画像と上記第2の画像との差異を示す情報を表示するように上記表示部を制御してもよい。
これにより情報処理装置は、記憶された座標データ及び荷重量データを基に第1の画像を表示するとともに、当該第1の画像と、他のユーザが描画した第2の画像との差異を他のユーザに知らしめることで、例えばペン字、習字、絵画等の技術の上達を援助することができる。
上記制御部は、上記記憶された荷重量データ及び上記他のユーザの入力操作から検出された荷重量データに応じて、上記第1の画像及び上記第2の画像における線幅または濃淡を変化させてもよい。
これにより情報処理装置は、第1の画像及び第2の画像において、各ユーザの筆圧等の詳細な特徴を線幅または濃淡として表現し、両画像の差異をより詳細に知らしめることができる。
上記センサは、上記筆記具によるユーザの入力操作時に上記入力面へ上記ユーザの手が接触した場合に当該接触位置の座標及び当該接触位置に加わる荷重量を検出可能であってもよい。この場合上記制御部は、検出された上記接触位置の座標を示す座標データ及び上記接触位置に加わる荷重量を示す荷重量データを、上記入力操作から検出された座標データ及び荷重量データ並びに上記識別情報と関連付けて上記記憶部に記憶させてもよい。
これにより情報処理装置は、筆記具によるユーザの入力操作のユーザの特徴のみならず、入力操作時のユーザの手の置き方に関する特徴も記録することで、ユーザの特徴をより詳細に記録することができる。
上記情報処理装置は、通信部をさらに具備してもよい。この場合上記制御部は、上記記憶された座標データ及び荷重量データを他の情報処理装置へ送信するように上記通信部を制御してもよい。上記他の情報処理装置は、上記送信された座標データ及び荷重量データを基に、上記ユーザの入力操作の開始から終了までの軌跡を示す画像を表示してもよい。
これにより情報処理装置は、筆記具によるユーザの入力操作を他の情報処理装置で再現することができる。
本技術の他の形態に係る情報処理方法は、筆記具によるユーザの入力操作を受け付ける入力面を有するセンサにより、上記入力操作があった位置の座標及び上記位置に加わる荷重量を検出し、検出された上記座標を示す座標データ及び上記荷重量を示す荷重量データを所定の時間間隔で上記ユーザの識別情報と関連付けて記憶部に記憶し、記憶された上記座標データ及び上記荷重量データを上記記憶部から上記識別情報と関連付けて読み出すことを含む。
本技術のまた別の形態に係るプログラムは、情報処理装置に、検出ステップと、記憶ステップと、読み出しステップとを実行させる。上記検出ステップでは、筆記具によるユーザの入力操作を受け付ける入力面を有するセンサにより、上記入力操作があった位置の座標及び上記位置に加わる荷重量が検出される。上記記憶ステップでは、検出された上記座標を示す座標データ及び上記荷重量を示す荷重量データが所定の時間間隔で上記ユーザの識別情報と関連付けられて記憶部に記憶される。上記読み出しステップでは、記憶された上記座標データ及び上記荷重量データが上記記憶部から上記識別情報と関連付けて読み出される。
以上のように、本技術によれば、筆記具による入力時の詳細な特徴をユーザ毎に記録し活用することができる。
本技術の第1の実施形態に係るタブレットコンピュータの外観を示した図である。 上記タブレットコンピュータの構成を示したブロック図である。 上記タブレットコンピュータが有する入力装置の概略断面図である。 上記タブレットコンピュータによる座標データ、荷重量データ、移動速度データ、荷重量の時間的変化データの算出処理を説明するための図である。 上記タブレットコンピュータによる個人認証処理の流れを示したフローチャートである。 本技術の第1の実施形態において、異なるユーザのペン操作の例と、両者の比較処理について説明するための図である。 本技術の第1の実施形態において、あるユーザのペン操作の模倣者を判別する処理について説明するための図である。 本技術の第2の実施形態における、あるユーザの絵の描画操作と、その描画操作の記録データからの再生処理を示した図である。 本技術の第2の実施形態における、各種記録データを用いた描画操作の再生例を示した図である。 本技術の第2の実施形態における、絵画または習字の学習アプリケーションの実行時のタブレットコンピュータの動作の流れを示した図である。 上記絵画または習字の学習アプリケーションの処理の流れを示した図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
まず、本技術の第1の実施形態について説明する。本実施形態では、本技術がタブレットコンピュータに適用される。当該タブレットコンピュータは、例えば店舗並びにウェブ上での決済や、銀行での各種手続等において、署名により本人を認証することが必要なシステムに用いられる。当該タブレットコンピュータは、ユーザ個人が所有するものであっても、店舗等が所有するものであっても構わない。
[タブレットコンピュータの構成]
図1は、本実施形態に係るタブレットコンピュータ100(以下、単にタブレット100と称する)の外観を示した図である。また図2は、上記タブレット100の構成を示したブロック図である。
図1に示すように、タブレット100は、スタイラスS等の筆記具による入力操作(以下、ペン操作ともいう)を受け付ける入力装置150を有する。
入力装置150は、後述するセンサ1と、ペン操作に応じて文字や画像を表示するディスプレイ6とが一体化されて構成されている。ディスプレイ6の入力面に対してペン操作があると、スタイラスSの先端位置の軌跡Tに沿って、ディスプレイ6上に画像Iが表示される。
図2に示すように、タブレット100は、センサ1、センサIC2、CPU(Central Processing Unit)3、メモリ4、グラフィックドライバ5及びディスプレイ6を有する。上述のとおり、センサ1とディスプレイ6とが入力装置150を構成する。入力装置150の具体的な構成については後述する。
センサIC2は、所定の時間間隔でセンサ1が検出したセンサデータを受け取り、それを基に、スタイラスSの座標データ、荷重量データを算出する。またセンサICは、当該所定時間間隔の座標データから、スタイラスSの座標の移動速度を示すデータを算出し、所定時間間隔の荷重量データから、荷重量の時間的変化を示すデータ(以下、荷重変化データとも称する)を算出する。算出された各データは、CPU3に出力される。
CPU3は、上記センサIC2から出力された各センシングデータをメモリ4に書き込み、また当該書き込まれた各データをメモリ4から適宜読み出す。この際、各データは、上記ペン操作を行ったユーザと関連付けて記録される。そしてCPU3は、センサIC2から出力された、またはメモリ4から読み出された上記各センシングデータを基に、ディスプレイ6におけるデータの表示方法を決定し、グラフィックドライバ5へ表示を指示する。
メモリ4は、上記各センシングデータをユーザ毎の入力操作データとして記憶する。またメモリ4は、ペン操作の受け付けやペン操作データの再生等に必要なプログラム等、その他のデータも記憶する。
グラフィックドライバ5は、CPU3からの表示指令を基に、ペン操作に応じた画像(スタイラスSの軌跡を示す画像等)を生成し、ディスプレイ6へ出力して表示させる。
図示しないが、タブレット100は、他の情報処理装置と無線または有線を介して通信する通信部を有していてもよい。
[入力装置の構成]
次に、入力装置150の構成について説明する。図3は、上記入力装置150の概略断面図である。同図に示すように、入力装置150は、ペン操作を受け付けるディスプレイ6と、ユーザの操作を検出するセンサ1とを有する。入力装置150は、例えばフレキシブルなタッチパネルディスプレイとして構成され、上記タブレット100に組み込まれる。センサ1及びディスプレイ6は、Z軸に垂直な方向に延びる平板状に形成される。
ディスプレイ6は、第1の面110と、第1の面110の反対側の第2の面120とを有する。ディスプレイ6は、入力装置150における入力操作部としての機能と、表示部としての機能とを兼ね備える。すなわちディスプレイ6は、第1の面110を入力操作面及び表示面として機能させ、第1の面110からユーザによる操作に応じた画像をZ軸方向上方に向けて表示する。第1の面110には、スタイラスSによってユーザが筆記した文字や描画した画像、その他、例えばキーボードに対応する画像や、GUI(Graphical User Interface)等が表示される。
ディスプレイ6の具体的な構成は特に限定されない。例えば、ディスプレイ6として、いわゆる電子ペーパー、有機EL(Electro Luminescence)パネル、無機ELパネル、液晶パネル等を採用することができる。またディスプレイ6の厚みも特に限定されず、例えば0.1mm〜1mm程度である。
センサ1は、金属膜(第1の導体層)12と、導体層(第2の導体層)50と、電極基板20と、第1の支持体30と、第2の支持体40を有する。センサ1は、ディスプレイ6の第2の面120側に配置されている。
金属膜12は、変形可能なシート状に構成される。導体層50は、金属膜12に対向して配置される。電極基板20は、 複数の第1の電極線210と、複数の第1の電極線210に対向して配置され複数の第1の電極線210と交差する複数の第2の電極線220とを有し、金属膜12と導体層50との間に変形可能に配置され、金属膜12及び導体層50各々との距離の変化を静電的に検出することが可能である。第1の支持体30は、金属膜12と電極基板20との間を接続する複数の第1の構造体310と、複数の第1の構造体310の間に形成された第1の空間部330とを有する。第2の支持体40は、隣り合う複数の第1の構造体310間にそれぞれ配置され導体層50と電極基板20との間を接続する複数の第2の構造体410と、複数の第2の構造体410の間に形成された第2の空間部430とを有する。
本実施形態に係るセンサ1(入力装置150)は、ディスプレイ6の第1の面110上での入力操作による金属膜12及び電極基板20と、導体層50及び電極基板20との間の距離の変化を静電的に検出することで、当該入力操作があった位置の座標及びその位置に加わる荷重量を検出する。具体的な検出原理は以下の通りである。
すなわち、スタイラスSによる第1の面110に対する入力操作時の押圧力によって、金属膜12が撓む。それに伴い、第1の空間部330に隣接する第1の構造体310が力を受け、Z軸方向へ弾性変形して厚みが僅かに減少する。さらに、上記力により電極基板20にも力が加えられ、下方に撓む。これにより、2つの第1の構造体310の間に配置された第2の構造体410も力を受け、Z軸方向に弾性変形して厚みが僅かに減少する。
このように、第1及び第2の構造体310,410により厚み方向に力を伝達することができ、電極基板20を容易に変形させることができる。また、金属膜12及び電極基板20が撓み、面内方向(X軸方向及びY軸方向に平行な方向)に押圧力の影響が及ぶことにより、スタイラスSの直下の領域のみならず、その近傍の第1及び第2の構造体310,410にも力を及ぼすことができる。
また第1及び第2の空間部330,430により金属膜12及び電極基板20を容易に変形させることができる。さらに柱体等で構成された第1及び第2の構造体310,410により、スタイラスSの押圧力に対して電極基板20へ高い圧力を及ぼすことができ、電極基板20を効率的に撓ませることができる。
さらに、第1及び第2の構造体310,410がZ軸方向から見て重複して配置されていないため、第1の構造体310がその下の第2の空間部430を介して電極基板20を容易に撓ませることができる。
電極基板20は、第1の構造体310の弾性変形及び金属膜12の撓みにより、金属膜12と電極基板20との距離及び導体層50と電極基板20との距離が変化するのを検出することで、静電容量の変化量を得ることができる。
そして電極基板20は、複数の第1の電極線210及び複数の第2の電極線220の各位置における静電容量の変化量の比率に基づいて、ペン操作位置(スタイラスSの先端の位置)のXY座標を算出することができる。また電極基板20は、上記静電容量の変化量に基づいて、上記入力操作位置における荷重量(押圧力)も算出することができる。
[タブレットの動作]
次に、以上のように構成されたタブレット100の動作について説明する。本実施形態及び他の実施形態において、タブレット100の動作は、CPU3と、その制御下において実行されるソフトウェアとで協働して行われる。
(データ取得・算出処理)
まず、上記座標データ、荷重量データ、移動速度データ、荷重変化データの取得・算出処理について説明する。図4は、当該各データの算出処理を説明するための図である。
同図(A)は、上記座標データ及び荷重量データの算出処理を示す。センサ1は、ユーザによるペン操作の間、所定の時間間隔でスタイラスSの接触位置の座標データ((Xt1, Yt1),(Xt2, Yt2),...,(Xtn, Ytn),)及び加重量データ(Ft1,Ft2,...,Ftn)を出力し、CPU3はそれらのデータを随時メモリ4に書き込む。
同図(B)は、上記移動速度データ及び荷重変化データの算出処理を示す。センサIC2は、単位時間Δtあたりの座標データの差分((Xt2-Xt1)/Δt,(Yt2-Yt1)/Δt)から上記移動速度データを算出し、また単位時間Δtあたりの荷重量データの差分((Ft2-Ft1)/Δt)から上記荷重変化データを算出する。CPU3はそれらのデータも随時メモリ4に書き込む。
(記録データに基づく個人認証動作)
次に、上記記録されたデータに基づく個人認証処理について説明する。図5は、当該個人認証処理の流れを示したフローチャートである。以下の説明では、CPU3を動作主体として説明するが、この動作はセンサ1、センサIC2、メモリ4等のその他のハードウェア及びそれに関連するソフトウェアと協働して実行される。
同図に示すように、タブレット100のCPU3は、ユーザAのスタイラスSによるペン操作を受け付ける(ステップ51)。このペン操作は、例えばクレジットカード決済時や、コンピュータまたはネットワークへのログイン時等において署名を行う操作である。署名とは、正確な名前のみならず、個人を識別する目的で書かれた何らかの文字や図形等を含む。
続いてCPU3は、上記ペン操作があった位置の座標及び当該位置に加わる荷重量を検出する(ステップ52)。この際、CPU3は、図1に示すようにペン操作の軌跡をディスプレイ6に表示させる。しかし、この表示処理は省略されても構わない。
続いてCPU3は、上記座標データと荷重量データとを、操作主体であるユーザAと関連付けてメモリ4に記録する(ステップ53)。
続いてCPU3は、上記座標データから座標の移動速度データを算出し、荷重量データから荷重変化データを算出し(ステップ54)、それらデータをユーザAと関連付けてメモリ4に記録する(ステップ55)。ここまでの処理がユーザAのスタイラスSによる入力操作データの記録処理となる。
続いてCPU3は、上記記録した入力操作を活用した認証処理に移る。CPU3は、ユーザB(ユーザAと異なる人物か否かは問わない)のスタイラスSによるペン操作を受け付ける。
続いてCPU3は、上記ユーザBによる入力操作位置の座標及び荷重量を検出する(ステップ57)。
続いてCPU3は、上記座標データ及び荷重量データから、座標の移動速度データ及び荷重変化データを算出する(ステップ58)。
続いてCPU3は、上記記録されたユーザAの入力操作データをメモリ4から読み出し、そのデータと、ユーザBの入力操作データとを比較し、両者間の差異を判別する(ステップ59)。
そして、上記比較の結果、差異があった場合(ステップ60のYes)、CPU3は、認証の失敗を通知する情報をディスプレイ6に表示させる(ステップ61)。
一方、差異がなかった場合、または微差であった場合(ステップ60のNo)、CPU3は、認証成功を通知する情報をディスプレイ6に表示させる(ステップ62)。
図6は、上記ユーザAとユーザBのペン操作の例と、両者の比較処理について説明するための図である。
同図に示すように、ユーザAのペン操作時の力(荷重)の入れ方の癖に関して、例えば、ペン操作結果の表示画像に線幅を変更する等の処理を行わない場合、表示画像からはユーザの癖を判別することはできない(同図上部参照)。
しかしながら、本実施形態におけるペン操作の記録データには、ユーザの力の入れ具合の癖が荷重量データとして記録されているため、当該記録データとユーザBの力の入れ具合とを比較することで、個人認証率を高めることが可能となる(同図下部参照)。また一方で、表示画像を等幅な線により表現して力の入れ具合を反映させないことで、仮にユーザBがユーザAのペン操作の画像(署名)を見たとしても、力の入れ具合を含むユーザAのペン操作を模倣することは困難となる。
図7は、ユーザAのペン操作の模倣者を判別する処理について説明するための図である。
同図に示すように、ユーザAのペン操作時におけるスタイラスSの移動速度の癖に関して、移動速度の違いはペン操作結果の表示画像には表れないので、模倣者は表示画像からはユーザAの癖を知ることはできない。一方、ペン操作の記録データにはユーザAの速度の癖が移動速度データとして記録されているため、当該移動速度データを比較することで、個人認証率を高めることが可能となる。また、表示画像には速度を反映させないことで、模倣者が、速度を含むユーザAのペン操作を模倣することは困難となる。
このように、本実施形態では、タブレット100は、座標データ及び荷重量データを検出可能なセンサ1により、ユーザのペン操作を座標データ、荷重量データ、移動速度データ及び荷重変化データとして記録することで、その記録内容により個人認証処理を実行することができる。
<第2の実施形態>
次に、本技術の第2の実施形態について説明する。本実施形態においては、上記第1の実施形態と共通する点については説明を簡略化または省略し、異なる点を中心に説明する。
上記第1の実施形態では、タブレット100が、記録されたペン操作データを基に個人認証処理を実行する例が説明された。本実施形態においてタブレット100は、記録されたペン操作データを基に、字の書き方や絵の描き方の学習が可能なアプリケーションを実行する。
上記第1の実施形態では、入力操作にスタイラスSが用いられたが、本実施形態では、スタイラスに加えて、例えば習字用や絵画用の筆等の他の筆記具が用いられてもよい。
図8は、あるユーザの絵の描画操作と、その描画操作の記録データからの再生処理を示した図である。
同図に示すように、あるユーザが描画操作を入力すると、その描画結果がディスプレイ6に表示されると共に、その操作時の座標データ、荷重量データ、移動速度データ及び荷重変化データがメモリ4に記録される(同図上部、中部参照)。上記描画結果の表示処理においては、荷重量データに応じて線幅が変更される。
続いて、上記記録された描画操作データを用いて、描画操作が再生される(同図下部参照)。この再生処理は、上記描画操作データを用いている点において、従来の録画データに基づく再生処理とは根本的に異なる(再描画処理)。
この際、同図に示すように、タブレット100は、再生処理における速度を記録時の速度から変更しても構わない。
図9は、上記描画操作データを用いた再生処理の他の例を示した図である。
同図上部に示すように、タブレット100は、描画操作データのうち座標データのみ用いて描画操作を再生してもよい。また同図下部に示すように、タブレット100は、座標データに加えて、荷重量データを濃淡として表現して描画操作を再生しても構わない。
さらにタブレット100は、描画時の線幅や色を変更してもよいし、また複数の記録データを順番に再生しても構わない。
上記描画操作の記録時の装置(タブレット)と、再生時の装置(タブレット)とは異なる装置であってもよい。すなわち、ある装置で記録された描画操作データが、他の装置に送信されて再生されてもよい。
典型的には、ある著名な画家や書道家等の描画データが事前に記録され、それが例えばインターネット上のサーバ経由またはプリインストールの形態でタブレット100に記憶され、ユーザが当該描画データを手本に絵画や書道を学ぶといったソリューションが考えられる。
また、ユーザが自ら書いた字や描いた絵を上記描画履歴データとしてタブレット100に記録させ、それを後から見直して学習するといったソリューションも可能となる。
さらに本実施形態では、タブレット100は、あるユーザAの描画操作を記録データを用いて再生しながら、他のユーザBがそれを真似た描画操作をリアルタイムで記録し、ユーザAの記録データをユーザBの記録データと比較するような学習(教育)アプリケーションも実行可能である。
図10は、上記学習アプリケーションの実行時のタブレットコンピュータの動作の流れを示した図である。また図11は、上記学習アプリケーションの処理の流れを図式化したものである。
図10に示すように、タブレット100のCPU3はまず、ユーザAの描画操作入力を受け付ける(ステップ101)。
続いてCPU3は、描画操作の入力位置の座標及び当該入力位置に加わる荷重量を検出し(ステップ102)、座標データ及び荷重量データをユーザAと関連付けて記録する(ステップ103)。この際、ユーザAの描画操作の開始から終了までの軌跡を示す画像がディスプレイ6に表示される(図11の上部参照)。
続いてCPU3は、上記座標データ及び荷重量データから、上記移動速度データ及び荷重変化データを算出し(ステップ104)、それらデータをユーザAと関連付けてメモリ4に記録する(ステップ105)。
続いてCPU3は、上記ユーザAの描画操作の再生指示があったか否かを判断する(ステップ106)。
再生指示があった場合(Yes)、CPU3は、上記記録データを基に、ユーザAの描画操作をディスプレイ6上に再生する(ステップ107)。それと共にCPU3は、ユーザBが、再生されたまたは再生中のユーザAの描画操作をなぞるユーザBの描画操作を受け付ける(ステップ108)(図11の中部参照)。
続いてCPU3は、上記ユーザBの描画操作について、座標及び荷重量を検出し(ステップ109)、座標データ及び荷重量データをユーザBと関連付けてメモリ4に記録する(ステップ110)。
続いてCPU3は、上記座標データ及び荷重量データから、移動速度データ及び荷重変化データを算出して(ステップ111)、それらのデータをユーザBと関連付けてメモリ4に記録する(ステップ112)。
続いてCPU3は、上記記録したユーザAの描画操作データとユーザBの描画操作データを比較し、両者間の差異を判別する(ステップ113)。
そしてCPU3は、上記差異を示す情報を生成して、当該情報を、上記再生されたユーザAの描画操作データに重畳させてディスプレイ6に表示する(ステップ114)。
例えば、図11の下部に示すように、ある位置におけるユーザAの荷重量データよりもユーザBの荷重量データが小さい場合、すなわちユーザBの力加減が足りない場合には、その位置を指して「強く」といったメッセージが表示されてもよい。また、ユーザAの座標データとユーザBの座標データとにずれがある場合には、その箇所を指して「正確に」といったメッセージが表示されてもよい。このほか、ユーザBの描画速度が遅い場合や荷重量にムラがある場合等にもその旨のメッセージが表示されてもよい。
このように、本実施形態によれば、タブレット100は、ユーザAの描画操作とユーザBの描画操作との差異をユーザBに知らしめることができる。これにより、ユーザBは例えば毛筆描画での筆使いや筆の力加減の差等も知ることが出来る。つまり、ユーザBは、見本としているユーザAの描画能力を得る為の訓練をすることができる。このようなアプリケーションは、個人のユーザにも利用され得るし、学校等の教育機関でも利用され得る。
[変形例]
本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更され得る。
上述の各実施形態では、センサ1は筆記具による入力操作のみを検出していたが、センサ1は例えばユーザの指等による操作ももちろん検出可能である。さらにセンサ1は、筆記具による入力操作時にディスプレイ6の第1の面110に接触するユーザの手の座標及び荷重量も検出可能である。これによりタブレット100は、例えばペン操作時のユーザの手の置き方も含めてユーザの特徴として記録することで、個人認証処理における認証率を高めることができ、また上記学習アプリケーションにおいてはより詳細な手本を提供することができる。
上述の各実施形態では、入力操作の記録データを認証処理や学習アプリケーションに活用した例が示されたが、記録データは他にも様々なソリューションに活用することが可能である。
例えば、あるユーザのピアノ演奏時やドラム演奏時における鍵盤上またはドラム上の座標データや荷重量データが記録されれば、それを演奏学習アプリケーションに活用することができる。
また、画家等の芸術家が新たに作品を制作する際に、描画操作データを併せて記録しておくことで、後にその作品の贋作が出てきた場合に、その贋作の描画操作データも存在していれば、当該描画操作データを比較することで、贋作を見破ることが可能となる。
上述の第2の実施形態では、描画操作データが学習アプリケーションに用いられたが、描画操作データそのものに価値を生み出すことも可能である。例えば、芸術家の描画データが、ユーザの要求に応じてインターネット等を介してダウンロードされてもよい。これにより、単なる描画結果としてのデータではなく、芸術家の微妙な筆使い等も含んだデータであり、様々な応用が可能となるため、商品としての高い価値を付加することができる。
上述の各実施形態では、座標データ及び荷重量データに加えて移動速度データ及び荷重変化データも各種処理に用いられていたが、座標データ、荷重量データ、移動速度データ及び荷重変化データの少なくとも1つが必要に応じて適宜認証処理や再生処理に選択的に用いられてもよい。
上述の実施形態では、本技術がタブレットコンピュータに適用された例が示された。しかし、本技術は、ノート型PC、スマートフォン、PDA(Personal Digital Assistant)、電子書籍リーダー、ポータブルプレイヤー、カーナビゲーションシステム等、タッチセンサを搭載可能なあらゆる情報処理装置に適用可能である。
[その他]
本技術は以下のような構成も採ることができる。
(1)
筆記具によるユーザの入力操作を受け付ける入力面を有し、前記入力操作があった位置の座標及び前記位置に加わる荷重量を検出可能なセンサと、
記憶部と、
検出された前記座標を示す座標データ及び前記荷重量を示す荷重量データを所定の時間間隔で前記記憶部に前記ユーザの識別情報と関連付けて記憶させ、記憶された前記座標データ及び前記荷重量データを前記記憶部から前記識別情報と関連付けて読み出すことが可能な制御部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記所定の時間間隔で記憶された前記座標データから、前記座標の移動速度を示す移動速度データを算出可能である
情報処理装置。
(3)
上記(1)または(2)に記載の情報処理装置であって、
前記制御部は、前記所定の時間間隔で記憶された前記荷重量データから、前記荷重量の時間的変化を示す荷重量変化データを算出可能である
情報処理装置。
(4)
上記(1)〜(3)のいずれかに記載の情報処理装置であって、
前記制御部は、前記座標データ及び前記荷重量データの記憶後の前記筆記具による入力操作から検出された前記座標及び前記荷重量と、前記記憶された座標データ及び荷重量データとを比較し、差異の有無を判別可能である
情報処理装置。
(5)
上記(4)に記載の情報処理装置であって、
前記制御部は、前記判別された差異の有無を元に前記ユーザを認証し、認証結果を出力可能である
情報処理装置。
(6)
上記(5)に記載の情報処理装置であって、
表示部をさらに具備し、
前記制御部は、前記入力操作に応じて、前記座標データ及び前記荷重量データのうち、座標データのみを用いて前記入力操作の開始から終了までの軌跡を示す画像を表示するように前記表示部を制御可能である
情報処理装置。
(7)
上記(1)〜(6)のいずれかに記載の情報処理装置であって、
出力部をさらに具備し、
前記制御部は、前記判別された差異を示す情報を出力するように前記出力部を制御可能である
情報処理装置。
(8)
上記(1)〜(7)のいずれかに記載の情報処理装置であって、
表示部をさらに具備し、
前記制御部は、前記記憶された座標データ及び荷重量データを基に、前記ユーザの入力操作の開始から終了までの軌跡を示す第1の画像を表示するように前記表示部を制御可能である
情報処理装置。
(9)
上記(8)に記載の情報処理装置であって、
前記センサは、前記画像の表示後、他のユーザの前記筆記具による入力操作から座標データ及び荷重量データを検出可能であり、
前記制御部は、
前記検出された座標データ及び荷重量データを基に、前記他のユーザの入力操作の開始から終了までの軌跡を示す第2の画像を、前記第1の画像に重畳させて表示するように前記表示部を制御し、
前記記憶された座標データ及び荷重量データと前記他のユーザの入力操作から検出された座標データ及び荷重量データとを比較し、
前記第1の画像と前記第2の画像との差異を示す情報を表示するように前記表示部を制御することが可能である
情報処理装置。
(10)
上記(9)に記載の情報処理装置であって、
前記制御部は、前記記憶された荷重量データ及び前記他のユーザの入力操作から検出された荷重量データに応じて、前記第1の画像及び前記第2の画像における線幅または濃淡を変化させる
情報処理装置。
(11)
上記(1)〜(10)のいずれかに記載の情報処理装置であって、
前記センサは、前記筆記具によるユーザの入力操作時に前記入力面へ前記ユーザの手が接触した場合に当該接触位置の座標及び当該接触位置に加わる荷重量を検出可能であり、
前記制御部は、検出された前記接触位置の座標を示す座標データ及び前記接触位置に加わる荷重量を示す荷重量データを、前記入力操作から検出された座標データ及び荷重量データ並びに前記識別情報と関連付けて前記記憶部に記憶させる
情報処理装置。
(12)
上記(1)〜(11)のいずれかに記載の情報処理装置であって、
通信部をさらに具備し、
前記制御部は、前記記憶された座標データ及び荷重量データを他の情報処理装置へ送信するように前記通信部を制御し、
前記他の情報処理装置は、前記送信された座標データ及び荷重量データを基に、前記ユーザの入力操作の開始から終了までの軌跡を示す画像を表示する
情報処理装置。
1…センサ
2…センサIC
3…CPU
4…メモリ
5…グラフィックドライバ
6…ディスプレイ
100…タブレットコンピュータ
110…第1の面
150…入力装置

Claims (13)

  1. 筆記具によるユーザの入力操作を受け付ける入力面を有し、前記入力操作があった位置の座標及び前記位置に加わる荷重量を検出可能なセンサと、
    記憶部と、
    検出された前記座標を示す座標データ及び前記荷重量を示す荷重量データを所定の時間間隔で前記記憶部に前記ユーザの識別情報と関連付けて記憶させ、記憶された前記座標データ及び前記荷重量データを前記記憶部から前記識別情報と関連付けて読み出すことが可能な制御部と
    を具備し、
    前記センサは、前記筆記具によるユーザの入力操作時に前記入力面へ前記ユーザの手が接触した場合に当該接触位置の座標及び当該接触位置に加わる荷重量を検出可能であり、
    前記制御部は、検出された前記接触位置の座標を示す座標データ及び前記接触位置に加わる荷重量を示す荷重量データを、前記入力操作から検出された座標データ及び荷重量データ並びに前記識別情報と関連付けて前記記憶部に記憶させる
    情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記所定の時間間隔で記憶された前記座標データから、前記座標の移動速度を示す移動速度データを算出可能である
    情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記制御部は、前記所定の時間間隔で記憶された前記荷重量データから、前記荷重量の時間的変化を示す荷重量変化データを算出可能である
    情報処理装置。
  4. 請求項1〜3のいずれかに記載の情報処理装置であって、
    前記制御部は、前記座標データ及び前記荷重量データの記憶後の前記筆記具による入力操作から検出された前記座標及び前記荷重量と、前記記憶された座標データ及び荷重量データとを比較し、差異の有無を判別可能である
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記制御部は、前記判別された差異の有無を元に前記ユーザを認証し、認証結果を出力可能である
    情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    表示部をさらに具備し、
    前記制御部は、前記入力操作に応じて、前記座標データ及び前記荷重量データのうち、座標データのみを用いて前記入力操作の開始から終了までの軌跡を示す画像を表示するように前記表示部を制御可能である
    情報処理装置。
  7. 請求項4〜6のいずれかに記載の情報処理装置であって、
    出力部をさらに具備し、
    前記制御部は、前記判別された差異を示す情報を出力するように前記出力部を制御可能である
    情報処理装置。
  8. 請求項1〜7のいずれかに記載の情報処理装置であって、
    表示部をさらに具備し、
    前記制御部は、前記記憶された座標データ及び荷重量データを基に、前記ユーザの入力操作の開始から終了までの軌跡を示す第1の画像を表示するように前記表示部を制御可能である
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記センサは、前記画像の表示後、他のユーザの前記筆記具による入力操作から座標データ及び荷重量データを検出可能であり、
    前記制御部は、
    前記検出された座標データ及び荷重量データを基に、前記他のユーザの入力操作の開始から終了までの軌跡を示す第2の画像を、前記第1の画像に重畳させて表示するように前記表示部を制御し、
    前記記憶された座標データ及び荷重量データと前記他のユーザの入力操作から検出された座標データ及び荷重量データとを比較し、
    前記第1の画像と前記第2の画像との差異を示す情報を表示するように前記表示部を制御することが可能である
    情報処理装置。
  10. 請求項9に記載の情報処理装置であって、
    前記制御部は、前記記憶された荷重量データ及び前記他のユーザの入力操作から検出された荷重量データに応じて、前記第1の画像及び前記第2の画像における線幅または濃淡を変化させる
    情報処理装置。
  11. 請求項1〜10のいずれかに記載の情報処理装置であって、
    通信部をさらに具備し、
    前記制御部は、前記記憶された座標データ及び荷重量データを他の情報処理装置へ送信するように前記通信部を制御し、
    前記他の情報処理装置は、前記送信された座標データ及び荷重量データを基に、前記ユーザの入力操作の開始から終了までの軌跡を示す画像を表示する
    情報処理装置。
  12. 筆記具によるユーザの入力操作を受け付ける入力面を有するセンサにより、前記入力操作があった位置の座標及び前記位置に加わる荷重量を検出し、
    検出された前記座標を示す座標データ及び前記荷重量を示す荷重量データを所定の時間間隔で前記ユーザの識別情報と関連付けて記憶部に記憶し、
    記憶された前記座標データ及び前記荷重量データを前記記憶部から前記識別情報と関連付けて読み出し、
    前記センサにより、前記筆記具によるユーザの入力操作時に前記入力面へ前記ユーザの手が接触した場合に当該接触位置の座標及び当該接触位置に加わる荷重量を検出し、
    検出された前記接触位置の座標を示す座標データ及び前記接触位置に加わる荷重量を示す荷重量データを、前記入力操作から検出された座標データ及び荷重量データ並びに前記識別情報と関連付けて前記記憶部に記憶させる
    情報処理方法。
  13. 情報処理装置に、
    筆記具によるユーザの入力操作を受け付ける入力面を有するセンサにより、前記入力操作があった位置の座標及び前記位置に加わる荷重量を検出するステップと、
    検出された前記座標を示す座標データ及び前記荷重量を示す荷重量データを所定の時間間隔で前記ユーザの識別情報と関連付けて記憶部に記憶するステップと、
    記憶された前記座標データ及び前記荷重量データを前記記憶部から前記識別情報と関連付けて読み出すステップと
    前記センサにより、前記筆記具によるユーザの入力操作時に前記入力面へ前記ユーザの手が接触した場合に当該接触位置の座標及び当該接触位置に加わる荷重量を検出するステップと、
    検出された前記接触位置の座標を示す座標データ及び前記接触位置に加わる荷重量を示す荷重量データを、前記入力操作から検出された座標データ及び荷重量データ並びに前記識別情報と関連付けて前記記憶部に記憶させるステップと
    を実行させるプログラム。
JP2015518048A 2013-05-20 2014-02-12 情報処理装置、情報処理方法及びプログラム Expired - Fee Related JP6237769B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013105763 2013-05-20
JP2013105763 2013-05-20
PCT/JP2014/000715 WO2014188635A1 (ja) 2013-05-20 2014-02-12 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014188635A1 JPWO2014188635A1 (ja) 2017-02-23
JP6237769B2 true JP6237769B2 (ja) 2017-11-29

Family

ID=51933210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015518048A Expired - Fee Related JP6237769B2 (ja) 2013-05-20 2014-02-12 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (1) US9886107B2 (ja)
JP (1) JP6237769B2 (ja)
KR (1) KR102212846B1 (ja)
CN (1) CN105210014A (ja)
TW (1) TWI626569B (ja)
WO (1) WO2014188635A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173779A (ja) * 2015-03-18 2016-09-29 株式会社リコー 画像処理システム、画像処理装置およびプログラム
EP3502849A4 (en) * 2016-08-22 2020-04-08 Wacom Co., Ltd. ELECTRONIC PEN, POSITION DETECTION DEVICE, AND INFORMATION PROCESSING DEVICE
JP6261153B1 (ja) 2016-08-22 2018-01-17 株式会社ワコム 電子ペン、位置検出装置及び情報処理装置
WO2018176486A1 (zh) * 2017-04-01 2018-10-04 深圳市汇顶科技股份有限公司 触控笔、芯片、触控设备、电子设备和触控的方法
JP6784422B1 (ja) * 2019-09-05 2020-11-11 mui Lab株式会社 描画内容を記憶する操作表示パネル組込物品及びシステム
TWI748245B (zh) * 2019-09-23 2021-12-01 義隆電子股份有限公司 觸控顯示系統及其晶片
JP7312454B2 (ja) 2020-02-20 2023-07-21 学校法人早稲田大学 認証システム、認証プログラム及び認証方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3696365B2 (ja) * 1996-11-15 2005-09-14 株式会社リコー ペン型入力装置
JP2000194618A (ja) * 1998-12-24 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> 手書き認証通信システム、手書き認証通信方法、手書き認証サーバ及び手書き入力装置
JP4320818B2 (ja) * 1999-02-04 2009-08-26 富士通株式会社 手書き文字入力装置とその記録媒体
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
JP2004062251A (ja) * 2002-07-24 2004-02-26 Laboratories Of Image Information Science & Technology 手書きデータ記録装置および手書きデータ出力装置
JP3817627B2 (ja) * 2002-11-21 2006-09-06 有限会社山口ティー・エル・オー 書道用学習教材と書道用下敷と書道用半紙
KR100649442B1 (ko) * 2004-06-08 2006-11-27 (주) 아이.에스.브이. 무선 펜마우스장치 및 그것을 이용한 다중 처리시스템
US8297868B2 (en) * 2008-06-23 2012-10-30 Silverbrook Research Pty Ltd Retractable electronic pen comprising actuator button decoupled from force sensor
KR101590762B1 (ko) * 2009-07-28 2016-02-02 삼성전자주식회사 사용자의 동작에 따른 디스플레이 장치 및 방법
IN2012DN01870A (ja) * 2009-09-02 2015-08-21 Amazon Tech Inc
JP2012043029A (ja) 2010-08-13 2012-03-01 Yokohama System Kenkyusho:Kk タッチパネルおよびその入力判定方法
JP2012212410A (ja) * 2011-03-24 2012-11-01 Nitto Denko Corp 情報表示システム
JP2012168993A (ja) 2012-06-14 2012-09-06 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Also Published As

Publication number Publication date
US20160188014A1 (en) 2016-06-30
CN105210014A (zh) 2015-12-30
TW201445395A (zh) 2014-12-01
WO2014188635A1 (ja) 2014-11-27
JPWO2014188635A1 (ja) 2017-02-23
US9886107B2 (en) 2018-02-06
TWI626569B (zh) 2018-06-11
KR102212846B1 (ko) 2021-02-05
KR20160013009A (ko) 2016-02-03

Similar Documents

Publication Publication Date Title
JP6237769B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN102067153B (zh) 多模态学习系统
US10606474B2 (en) Touch screen finger tracing device
CN1758205B (zh) 轻击手势
CN106716317A (zh) 解决触摸不连续性的方法和装置
US10114539B2 (en) System and method for providing feedback associated with e-book in mobile device
US20130307829A1 (en) Haptic-acoustic pen
CN101933010A (zh) 具有触摸屏和数字触觉像素的手持装置
US9285903B1 (en) Stylus and electronic display
KR101945822B1 (ko) 단말기에서 페이지 표시 방법 및 장치
CN101334937A (zh) 电子计算器以及控制方法
CN106919333A (zh) 电子书写板上书写内容的记录方法和装置
CN104054046A (zh) 一种基于触控板的写字板和教学系统
CN104156163A (zh) 一种在pdf文件中显示笔迹的方法
CN109871117A (zh) 信息处理装置、显示装置及信息处理系统
JP2006012184A (ja) 表示装置、情報処理装置、及びその制御方法
EP2649505B1 (en) User interface
JP2014224876A (ja) 学習支援システム、学習支援方法、プログラム及び情報記憶媒体
KR102613361B1 (ko) 디지털 필적에 대한 진정성 감정방법
JP7472262B2 (ja) 入出力モデルを設定可能なペン状態検出回路
JP6244647B2 (ja) コンピュータ装置及びプログラム
JP5776382B2 (ja) コンピュータ装置及びプログラム、並びにノート
WO2021176609A1 (ja) 入出力モデルを設定可能なペン状態検出回路
Im Cho et al. Android-Based E-Board Smart Education Platform Using Digital Pen and Dot Pattern
JP2012033130A (ja) 電子筆記パッド

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R151 Written notification of patent or utility model registration

Ref document number: 6237769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees