JPWO2014103775A1 - 情報処理装置、情報処理方法、及び、プログラム記憶媒体 - Google Patents

情報処理装置、情報処理方法、及び、プログラム記憶媒体 Download PDF

Info

Publication number
JPWO2014103775A1
JPWO2014103775A1 JP2014554330A JP2014554330A JPWO2014103775A1 JP WO2014103775 A1 JPWO2014103775 A1 JP WO2014103775A1 JP 2014554330 A JP2014554330 A JP 2014554330A JP 2014554330 A JP2014554330 A JP 2014554330A JP WO2014103775 A1 JPWO2014103775 A1 JP WO2014103775A1
Authority
JP
Japan
Prior art keywords
input
graph
information processing
handwriting
handwritten input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014554330A
Other languages
English (en)
Other versions
JP6287861B2 (ja
Inventor
翼 塚原
翼 塚原
山野 郁男
郁男 山野
美和 市川
美和 市川
宏之 水沼
宏之 水沼
嘉人 大木
嘉人 大木
康之 古賀
康之 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014103775A1 publication Critical patent/JPWO2014103775A1/ja
Application granted granted Critical
Publication of JP6287861B2 publication Critical patent/JP6287861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)

Abstract

本技術は、図形作成時の作業効率を向上させることができるようにする情報処理装置、情報処理方法、及び、プログラム記憶媒体に関する。手書き入力内容取得部は、タッチパネルに対する手書き入力の内容を取得し、表示制御部は、手書き入力内容取得部により取得された手書き入力の内容に応じて、その手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する。本技術は、例えば、タッチパネルを有するタブレット端末装置に適用することができる。

Description

本技術は、情報処理装置、情報処理方法、及び、プログラム記憶媒体に関し、特に、図形作成時の作業効率を向上させることができるようにした情報処理装置、情報処理方法、及び、プログラム記憶媒体に関する。
近年、タブレット端末装置に代表される、タッチパネルと一体化された表示装置を備えた電子機器の普及に伴い、タッチパネルによって手書き入力された文字や絵柄などを認識するための技術が種々開発、実用化されている。
手書き入力された文字を認識するための技術としては、例えば、あらかじめ用意された判定基準文字のうち、手書き入力された文字と類似度が最も高い判定基準文字を、入力された文字として認識するなどの手法が用いられる。
また、本出願人は、手書き入力された文字を認識するための技術として、特許文献1を開示している。特許文献1では、文字認識技術を用いて、入力筆跡のストローク数や判定基準文字の画数データを用いて、その認識精度を向上させることを提案している。
一方、グラフや表を作成する機能を備えた表計算のソフトウェアや、プレゼンテーション用のソフトウェアが広く普及している。この種のソフトウェアでは、ユーザがマウスやキーボードを操作して、あらかじめ用意された枠内に数字を入力してグラフ作成の指示をし、さらにグラフに反映させる数字領域を指定することで、グラフが作成されるのが一般的である。
特開平9−50490号公報
ところで、タブレット端末装置などにおいては、入力方法としてマウスやキーボードを用いるのではなく、ユーザの指やペン形状の入力装置(以下、「タブレット用ペン」という)を用いることが多くなる。
このような指やタブレット用ペンを用いて前述のようにグラフを作成する場合に、表示装置の画面上に表示されたソフトウェアキーボードやアイコンを、指やタブレット用ペンを用いて操作していたのでは、操作の直観性と作業効率が著しく低下してしまう。
特に、グラフを作成するという行為は、傾向分析などの複雑な思考を伴う作業であり、他者と相談しながらの共同作業となることが多い。そういった作業においてタブレット端末装置などの操作性が悪いがゆえに作業効率が低下してしまうことは、作業の結果を左右しうることであるため、それを改善したいという要求があった。
本技術はこのような状況に鑑みてなされたものであり、タッチパネルと一体化された表示装置を備えた電子機器において、グラフなどの図形作成時の作業効率を向上させることができるようにするものである。
本技術の一側面の情報処理装置は、タッチパネルに対する手書き入力の内容を取得する取得部と、前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する表示制御部とを備える。
前記表示制御部は、前記手書き入力されるパラメータに応じた整形後の図形を表示させる。
前記表示制御部は、前記パラメータに基づき実行される所定の関数の演算結果が反映された整形後の図形を表示させる。
整形対象の図形と前記パラメータとは、前記手書き入力に用いられた線種によって関連付けられている。
前記表示制御部は、前記手書き入力から認識される図形を、前記パラメータに応じて補完して得られる補完後の図形を表示させる。
前記取得部は、前記タッチパネル上の手書き入力用の画面に対する前記手書き入力の内容を取得する。
前記表示制御部は、整形後の図形の表示を整形前の状態に戻すための指示がされた場合、整形前の前記手書き入力の内容を再度表示させる。
前記手書き入力の内容を認識する認識部と、前記認識部の認識の結果に応じて、前記手書き入力から認識される図形を整形する整形部とをさらに備える。
情報処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の一側面の情報処理方法又はプログラム記憶媒体は、前述の本技術の一側面の情報処理装置に対応する情報処理方法又はプログラム記憶媒体である。
本技術の一側面の情報処理装置、情報処理方法、及び、プログラム記憶媒体においては、タッチパネルに対する手書き入力の内容が取得され、前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示が制御される。
本技術の一側面によれば、図形作成時の作業効率を向上させることができる。
本技術を適用したタブレット端末装置の外観を示す図である。 本技術を適用したタブレット端末装置の内部構成を示す図である。 制御部の機能的構成例を示す図である。 タブレット端末装置の使用例1を説明するための図である。 タブレット端末装置の使用例2を説明するための図である。 グラフの整形変換の具体例を示す図である。 グラフの整形変換の具体例を示す図である。 タブレット端末装置の使用例3を説明するための図である。 グラフの整形変換の具体例を示す図である。 グラフの整形変換の具体例を示す図である。 タブレット端末装置の使用例4を説明するための図である。 タブレット端末装置の使用例5を説明するための図である。 その他の使用例を説明するための図である。 手書き入力整形変換処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。
<タブレット端末装置の外観と構成>
図1は、本技術を適用したタブレット端末装置の外観を示す図である。
図1に示すように、タブレット端末装置10は、板状の筐体からなり、持ち運びがしやすいサイズであるため、場所を選ばずに使用することができる。
また、タブレット端末装置10は、コンピュータ本体としての処理機能とともに、タッチセンサと表示部とが一体化されたタッチパネルを有している。このタッチパネルに対して、ユーザの指やタブレット用ペン20によって手書き入力が行われると、タブレット端末装置10では、当該手書き入力の内容に応じた各種の処理が行われる。
図2は、本技術を適用したタブレット端末装置の内部構成を示す図である。
図2に示すように、図1のタブレット端末装置10は、制御部101、メモリ部102、操作部103、タッチパネル104、スピーカ105、記録部106、通信部107、及び、電源部108から構成される。
制御部101は、タブレット端末装置10の各部の動作を制御する。メモリ部102は、制御部101からの制御に従い、各種のデータを一時的に保持する。
操作部103は、タブレット端末装置10に設けられたボタン等であり、ユーザの操作に応じて操作信号を制御部101に供給する。制御部101は、操作部103からの操作信号に応じて、各部の動作を制御する。
タッチパネル104は、表示部151と、その画面上に重畳されるタッチセンサ152とから構成される。表示部151は、液晶ディスプレイ(LCD:Liquid Crystal Display)等で構成され、制御部101からの制御に従い、各種の情報を表示する。また、タッチセンサ152は、タブレット用ペン20などを用いてタッチパネル104に対して行われる手書き入力操作を、その操作が行われた場所のタッチパネル104上での位置とともに検出し、その検出信号を制御部101に供給する。
ここで、タッチセンサ152によって検出される手書き入力操作には、例えば、タブレット用ペン20をタッチパネル104の表面に接触させる操作や、タブレット用ペン20をタッチパネル104の表面に接触させたまま移動させる操作、タブレット用ペン20をタッチパネル104の表面から離す操作などがある。
なお、タッチパネル104では、例えば、静電容量方式や電磁誘導方式などの各種の検出方式を採用することができる。
スピーカ105は、制御部101からの制御に従い、音声を出力する。記録部106は、例えばHDD(Hard Disk Drive)等から構成される。記録部106は、制御部101からの制御に従い、各種のデータを記録する。
通信部107は、制御部101からの制御に従い、ネットワークを介して各種のサーバ(不図示)と通信を行う。電源部108は、蓄電池又は外部電源から得られる電源電力を、制御部101を含む各部に供給する。
タブレット端末装置10は、以上のように構成される。
<制御部の機能的構成例>
図3は、図2の制御部101の機能的構成例を示す図である。
図3に示すように、制御部101は、手書き入力内容取得部171、手書き入力認識部172、演算処理部173、補完処理部174、整形変換処理部175、及び、表示制御部176から構成される。
手書き入力内容取得部171は、タッチセンサ152からの検出信号に基づいて、タッチパネル104に対する手書き入力の内容を取得し、手書き入力認識部172に供給する。
手書き入力認識部172は、手書き入力内容取得部171からの手書き入力の内容を認識し、その認識の結果を、演算処理部173、補完処理部174、及び、整形変換処理部175の各処理部に供給する。
演算処理部173は、手書き入力認識部172からの認識の結果に基づいて、所定の演算処理を行い、その演算の結果を、整形変換処理部175又は表示制御部176に供給する。
補完処理部174は、手書き入力認識部172からの認識の結果に基づいて、所定の補完処理を行い、その補完の結果を、整形変換処理部175に供給する。
整形変換処理部175は、手書き入力認識部172からの認識の結果に基づいて、手書き入力から認識されるグラフを整形し、表示制御部176に供給する。また、整形変換処理部175は、手書き入力認識部172からの認識の結果のほか、演算処理部173からの演算の結果、又は、補完処理部174からの補完の結果の少なくとも一方が供給された場合、それらの結果に基づいて、手書き入力から認識されるグラフを整形する。
表示制御部176は、整形変換処理部175からの整形後のグラフを、表示部151に表示させる。また、表示制御部176は、演算処理部173からの演算の結果を、表示部151に表示させる。
制御部101は、以上のように構成される。
<具体的な使用例>
次に、図4乃至図13を参照して、タブレット端末装置10の使用方法について説明する。ここでは、その具体的な使用方法として、プレゼンテーションを行った後に、タブレット端末装置10を使用した質疑応答などが行われる場面を想定している。その際、タブレット端末装置10では、プレゼンテーションソフトウェアが起動しており、プレゼンテーションで説明済みのグラフがタッチパネル104に表示されている。このような状況で、タッチパネル104に表示中のグラフに対する、タブレット用ペン20を用いた手書き入力が行われるものとする。
(使用例1)
図4は、タブレット端末装置10の使用例1を説明するための図である。
タブレット端末装置10では、プレゼンテーションソフトウェアが起動され、プレゼンテーションで説明済みのグラフが表示されている(S11)。この状態で、ユーザがタブレット用ペン20を用いて、円グラフを手書き入力すると、タッチパネル104上には、手書き入力に応じたグラフg1が表示される(S12)。
このグラフg1は3つの扇形の領域からなるが、タブレット用ペン20によって手書き入力されたものであるため、完全な円とはならず、さらに各扇形の円弧の長さは入力された数値の割合に比例するものでもない。つまり、ここでは、1つ目の扇形の領域にはその割合として「40」が入力され、2つ目の扇形の領域にはその割合として「52」が入力され、残りの扇形の領域には数値が入力されていないが、他の領域に入力された数値との関係から、その割合として「8」が入力されるべきであることが推定される。また、手書き入力された扇形の円弧の長さは、それらの数値の割合に比例にしていない。
ここで、タブレット端末装置10に対する所定の操作が行われると、タッチパネル104上には、手書き入力されたグラフの整形変換を指示するためのボタン211が表示される。ユーザは、タブレット用ペン20を用いて、タッチパネル104上のボタン211の操作を行う(S13)。
ボタン211の操作が行われると、タブレット端末装置10では、手書き入力された数値やグラフなどの認識処理と、数値に応じた演算処理とが行われ、さらに手書き入力されたグラフg1が整形変換される。これにより、タッチパネル104には、手書き入力されたグラフg1を整形変換して得られるグラフg2が表示される(S14)。
この整形変換後のグラフg2は、完全な円であって、各扇形の円弧の長さはその領域に入力された数値の割合に比例するものとなる。また、手書き入力されたグラフg1では、1つ目の扇形の領域に「40」、2つ目の扇形の領域に「52」がそれぞれ表示され、さらに残りの扇形の領域にも、「8」が補完されて表示される。
このように、使用例1では、タッチパネル104上に円グラフを手書き入力することで、その円グラフを整形変換して得られる円グラフを表示させることが可能となる。また、パラメータとして入力された数値が不足している場合には、それを補完した上で整形変換された円グラフが表示される。すなわち、ユーザとしては大雑把なグラフさえ手書き入力すれば、タブレット端末装置10側で清書されたグラフを表示してくれるので、グラフ作成時の作業効率を向上させることができる。
(使用例2)
図5は、タブレット端末装置10の使用例2を説明するための図である。
図5の使用例2のS21,S22においては、図4の使用例1のS13,S14と同様に、グラフg1が手書き入力された後にボタン211が操作され(S21)、整形変換後のグラフg2が表示される(S22)。
ここで、タブレット端末装置10に対する所定の操作が行われると、タッチパネル104上には、整形変換されたグラフを元の手書き入力の状態に戻すためのボタン221が表示される。ユーザは、タブレット用ペン20を用いて、タッチパネル104上のボタン221の操作を行う(S23)。
ボタン221の操作が行われると、タブレット端末装置10では、グラフg2の代わりに、グラフg1が再度表示される(S24)。すなわち、手書き入力されたグラフg1のデータは、メモリ部102に一時的に保持されているので、ボタン221が操作された場合にはそこからデータが読み出され、タッチパネル104上に再表示されることになる。
このように、使用例2では、ボタン221の操作によって、円グラフの表示状態を、整形変換後の状態から、手書き入力されたときの状態に戻すことが可能となる。すなわち、例えば、清書されたグラフg2を表示したあとに、グラフが間違っていたときや修正を加えたいときなどに、グラフg1を再表示して、再度手書き入力を加えることが可能となる。そして、修正後の円グラフを整形変換したい場合にはボタン211を再度操作すればよい。これにより、タブレット端末装置10におけるグラフ作成の精度を上げることができる。
以上をまとめると、図6に示すように、使用例1,2では、グラフg3を大雑把に手書き入力するだけで、清書されたグラフg4を表示させることができる。さらに、タッチパネル104の表示を、清書されたグラフg4から、手書き入力されたグラフg3に戻すことで、一度清書されたグラフg3に修正を加えたりすることもできる。
特に、プレゼンテーションの現場では、複数人が話し合いをしながら、共同作業でグラフを作成することが想定される。そういった場面では、タブレット端末装置10の操作性が重要となるが、タブレット端末装置10では、使用例1,2に示したように、大雑把な手書き入力と簡単な操作で、清書された円グラフを表示させることができ、さらに清書された円グラフの修正も可能なことから、グラフ作成時の作業効率を向上させることができる。その結果、プレゼンテーションでのコミュニケーションを円滑にすることが可能となる。また、ソフトウェアキーボードやアイコンを操作するのではなく、タブレット用ペン20を用いてグラフを作成することができるので、操作の直感性を向上させることもできる。
なお、使用例1,2の説明では、円グラフを例に説明したが、円グラフに限らず、他のグラフについても同様に整形変換することができる。すなわち、例えば、図7に示すように、タッチパネル104上に3本の棒グラフからなるグラフg5が手書き入力された場合には、ボタン211を操作することで、清書されたグラフg6を表示させることができる。また、前述の円グラフの場合と同様に、一度清書されたグラフg5に修正を加えることも可能である。
(使用例3)
図8は、タブレット端末装置10の使用例3を説明するための図である。
タブレット端末装置10では、プレゼンテーションソフトウェアが起動され、プレゼンテーションで説明済みのグラフが表示されている(S31)。
この状態で、ユーザがタブレット用ペン20を用いて、タッチパネル104上に表示された8本の棒グラフのうち、左から2番目の棒グラフの上側の所定の領域に「×2」を手書き入力すると、タッチパネル104上には手書き入力に応じた演算情報f1が表示される(S32)。ここで、演算情報は、例えば、演算子等の関数とそのパラメータからなるものであるが、あらかじめ所定の関数を設定しておくことで、パラメータのみを指定することも可能である。
ここで、タブレット端末装置10に対する所定の操作が行われると、タッチパネル104上には、グラフの整形変換を指示するためのボタン211が表示される。ユーザはタブレット用ペン20を用いて、タッチパネル104上のボタン211の操作を行う(S33)。
ボタン211の操作が行われると、タブレット端末装置10では、手書き入力された演算情報に応じた演算処理が行われ、さらにその演算結果がグラフに反映される。具体的には、左から2番目の棒グラフの上側の領域に「×2」が手書き入力されたので、左から2番目の棒グラフの値を2倍にする演算が行われ、その演算結果に応じてグラフが整形変換される。これにより、タッチパネル104上には、演算結果の反映されたグラフg7が表示される(S34)。
さらに、図9には、タッチパネル104上に表示された3本の棒グラフのうち、最も右側の棒グラフの上側の所定の領域に、「×2」が手書き入力された場合の具体例を示している。この場合には、演算情報f2に従い、最も右側の棒グラフの値を2倍する演算が行われ、その棒グラフの値が「25」から「50」に増加したグラフg8が表示される。
このように、使用例3では、タッチパネル104上に、所望の演算結果を得るための演算情報(例えば、「×2」)を手書き入力するだけで、その演算結果が反映されたグラフを表示させることができるため、グラフ作成時の作業効率を向上させることができる。
なお、前述の使用例3の説明では、あらかじめ用意されたグラフに対して演算結果を反映させるとして説明したが、手書き入力された棒グラフに対して演算結果を反映させるようにしてもよい。具体的には、図10に示すように、3本の棒グラフからなるグラフg9が手書き入力された場合に、最も右側の棒グラフに対応した所定の領域に、「×2」が手書き入力されたとき、演算情報f3に従い、最も右側の棒グラフの値を2倍にする演算が行われる。これにより、整形変換後のグラフg10では、その演算結果が反映され、最も右側のグラフの値が「25」から「50」に増加することになる。
(使用例4)
図11は、タブレット端末装置10の使用例4を説明するための図である。
タブレット端末装置10では、プレゼンテーションソフトウェアが起動され、プレゼンテーションで説明済みのグラフが表示されている(S41)。
この状態で、ユーザがタブレット用ペン20を用いて、タッチパネル104上に表示された8本の棒グラフのうち、左から2番目の棒グラフの上側の所定の領域に第1の線種で「×2」を手書き入力すると、タッチパネル104上には手書き入力に応じた演算情報f4が表示される。また、8本の棒グラフのうち、左から7番目の棒グラフの上側の所定の領域に第2の線種で「×2」を手書き入力すると、タッチパネル104上には手書き入力に応じた演算情報f5が表示される(S42)。このとき、第1の線種には、例えば黒色の線が用いられ、第2の線種には、例えば赤色の線が用いられており、それぞれ異なる線種が用いられている。
ここで、タブレット端末装置10に対する所定の操作が行われると、タッチパネル104上には、グラフの整形変換を指示するためのボタン211が表示される。ユーザはタブレット用ペン20を用いて、タッチパネル104上のボタン211の操作を行う(S43)。
ボタン211の操作が行われると、タブレット端末装置10では、手書き入力された複数の演算情報のうち、特定の線種で手書き入力された演算情報に応じた演算処理が行われ、さらにその演算結果がグラフに反映される。具体的には、特定の線種として、赤色の線が設定されている場合に、左から7番目の棒グラフの所定の領域に赤色の線で「×2」が手書き入力されたので、演算情報f5に従い、左から7番目の棒グラフの値を2倍にする演算が行われ、その演算結果に応じてグラフが整形変換される。これにより、タッチパネル104上には、演算結果の反映されたグラフg11が表示される(S44)。
なお、特定の線種は、色に限らず、例えば線の太さや、実線又は破線等の線の種類など、グラフと演算情報とを関連付けて、演算の対象を特定できるものであればよい。また、特定の線種は所定の設定画面により設定され、適宜変更することができる。
このように、使用例4では、タッチパネル104上に、特定の線種(例えば赤色の線)で、所望の演算結果を得るための演算情報(例えば「×2」)を手書き入力するだけで、その演算結果が反映されたグラフを表示させることができるため、グラフ作成時の作業効率を向上させることができる。
(使用例5)
図12は、タブレット端末装置10の使用例5を説明するための図である。
タブレット端末装置10では、プレゼンテーションソフトウェアが起動され、プレゼンテーションで説明済みのグラフが表示されている(S51)。
この状態で、ユーザがタッチパネル104上でフリック操作を行うと、手書き入力用のレイヤ231が表示される(S52)。ここで、手書き入力用のレイヤ231は半透明状で、プレゼンテーション用グラフの一部に重畳され、グラフなどを手書き入力することができる。なお、フリック操作とは、タッチパネル104上の所望の領域に指を載せて、その指を所定の方向にスライドさせるような操作をいう。図12の例では、タッチパネル104上の指を左方向にスライドさせているので、左フリック操作となる。
そして、ユーザがタブレット用ペン20を用いて、レイヤ231に、X方向とY方向の軸に対する3本の棒グラフからなるグラフを手書き入力すると、タッチパネル104上には手書き入力に応じたグラフg12が表示される(S53)。
ここで、タブレット端末装置10に対する所定の操作が行われると、タッチパネル104上には、グラフの整形変換を指示するためのボタン211が表示される。ユーザはタブレット用ペン20を用いて、タッチパネル104上のボタン211の操作を行う(S54)。
ボタン211の操作が行われると、タブレット端末装置10では、手書き入力された数値やグラフなどの認識処理と、数値に応じた演算処理とが行われ、さらに手書き入力されたグラフg12が整形変換される。これにより、タッチパネル104には、手書き入力されたグラフg12を整形変換して得られるグラフg13がレイヤ231上に表示される。
このように、使用例5では、タッチパネル104上に表示されたレイヤ231に、グラフを手書き入力することで、レイヤ231上に、整形変換されたグラフを表示させることが可能となる。すなわち、ユーザからすれば、新たなグラフを作成したい場合には、レイヤ231を表示させて、そのレイヤ231上に、大雑把なグラフさえ手書き入力すれば、タブレット端末装置10側で清書したものを表示してくれるので、グラフ作成時の作業効率を向上させることができる。また、タッチパネル104上にグラフを表示するためのスペースがない場合でも、レイヤ231上に手書き入力できるので、確実にグラフの手書き入力を行い、清書されたグラフを表示させることができる。
なお、レイヤ231は、図12に示したように所定の透過率を有するようにしてもよいが、全く透過せずにレイヤ231の下位の階層に表示されるグラフを視認できないようにしてもよい。その場合、レイヤ231には、手書き入力されたグラフのみが表示されることになる。
(その他の使用例)
前述の使用例では、整形変換の対象としてグラフを中心に説明したが、図13に示すように、所望の演算式が手書き入力された場合には、その演算結果が表示されるようにしてもよい。例えば、3×√2/2が手書き入力された場合には、その演算結果としての2.12・・・が、演算式とともに清書されて表示される。
なお、前述の使用例では、タブレット端末装置10が実行するグラフ作成用のソフトウェアとして、プレゼンテーション用のソフトウェアを例に説明したが、表計算のソフトウェアなどのグラフを作成可能な他のソフトウェアであってもよい。
<手書き入力整形変換処理>
次に、図14のフローチャートを参照して、図3の制御部101によって実行される、手書き入力整形変換処理について説明する。
ステップS111において、手書き入力内容取得部171は、タッチセンサ152からの検出信号に基づいて、タッチパネル104に対するタブレット用ペン20による手書き入力が開始したか否かを判定する。ただし、図12の使用例5に示したように、手書き入力は、手書き入力用のレイヤ231に対して行われる場合もある。ここでは、手書き入力の開始を待って、処理がステップS112に進められる。
ステップS112において、手書き入力内容取得部171は、タッチセンサ152からの検出信号に基づいて、手書き入力の内容を取得する。
ステップS113において、手書き入力内容取得部171は、タッチセンサ152からの検出信号に基づいて、タッチパネル104に対するタブレット用ペン20による手書き入力が終了したか否かを判定する。
ステップS113において、手書き入力が終了していないと判定された場合、処理はステップS112に戻され、それ以降の処理が繰り返される。すなわち、手書き入力内容取得部171は、手書き入力が開始されてから終了するまでの間、手書き入力の内容を取得し続けることになる。そして、手書き入力が終了した場合、処理はステップS114に進められる。
ステップS114において、制御部101は、タッチセンサ152からの検出信号に基づいて、手書き入力されたグラフの整形変換を指示するためのボタン211が操作されたか否かを判定する。
ステップS114において、ボタン211が操作されていないと判定された場合、さらなる手書き入力が行われるので、処理は、ステップS111に戻され、それ以降の処理が繰り返される。なお、手書き入力内容取得部171により取得された手書き入力のデータは、図5の使用例2に示したように、ボタン221の操作によって手書き入力状態の再表示が指示されるのに備えて、メモリ部102に保持しておく。また、ステップS114において、ボタン211が操作されたと判定された場合、処理はステップS115に進められる。
なお、ステップS114では、タッチパネル104上に表示されたボタン211の操作を判定条件としたが、ボタン211の操作に限らず、タブレット端末装置10に対する所定の操作に応じて、手書き入力されたグラフの整形変換の指示が行われるようにしてもよい。
ステップS115において、手書き入力認識部172は、手書き入力内容取得部171により取得された手書き入力の内容を認識する。
ここで、手書き入力の内容の認識処理では、例えば、文字とグラフを区別する処理、文字認識、個々の図形の認識、複数の図形からなる図の認識処理などが行われる。例えば、教師データとして与えておいた図形とユーザにより手書き入力された図形とを、共に特徴パラメータ空間にマッピングし、その空間上で手書き入力された図形に最も近い教師データの図形が認識結果として返されるようにする。この特徴量としては一般には、始点・終点での線の角度や始点と終点との距離、入力筆跡のストロークの全長などが用いられる(例えば、下記の非特許文献1参照)。
非特許文献1:Rubineのアルゴリズム Rubine,D. : Specifying Gestures by Example, In Proc. Of ACM SIGGRAPH ’91 (1991), pp. 329-337.
なお、手書き入力の内容の認識方法には、例えば、パターン認識による方法(例えば、特公平7−107708号公報参照)や、角度ヒストグラムの分布を計算する方法(例えば、特許第3046472号公報参照)などがあり、これらの公知の技術を用いるようにしてもよい。
ステップS116において、手書き入力認識部172は、ステップS115の認識の結果に基づいて、手書き入力の内容にグラフが含まれているか否かを判定する。ステップS116において、手書き入力の内容にグラフが含まれていると判定された場合、処理はステップS117に進められる。
ステップS117において、演算処理部173は、ステップS115の認識の結果に基づいて、手書き入力の内容に演算情報が含まれているか否かを判定する。ステップS117において、関数とそのパラメータなどの演算情報(例えば、「×2」)が含まれていると判定された場合、処理はステップS118に進められる。
ステップS118において、演算処理部173は、手書き入力された演算情報に基づいて、所定の演算処理を行う。例えば、図8の使用例3に示したように、タッチパネル104上の所定の領域に「×2」が入力された場合、対象の棒グラフの値を2倍にする演算が行われる。
ただし、図4の使用例4に示したように、複数の線種により「×2」が手書き入力された場合には、あらかじめ設定される特定の線種(例えば赤色の線)による手書き入力のみが採用されることになる。
ステップS118の演算処理が終了すると、処理はステップS119に進められる。また、ステップS117において、手書き入力の内容に演算情報が含まれていないと判定された場合、ステップS118の演算処理はスキップされ、処理はステップS119に進められる。
ステップS119において、補完処理部174は、ステップS115の認識の結果に基づいて、手書き入力されたグラフの補完が可能であるか否かを判定する。ステップS119において、グラフの補完が可能であると判定された場合、処理はステップS120に進められる。
ステップS120において、補完処理部174は、手書き入力されたグラフに対し、所定の補完処理を行う。例えば、図4の使用例1に示したように、手書き入力された円グラフの扇形の領域のうち、割合が入力されていない領域が存在する場合、その領域に入力されるべき割合を示す数値(例えば「8」)が補完される。
ステップS120の補完処理が終了すると、処理はステップS121に進められる。また、ステップS119において、グラフの補完が不可能であると判定された場合、ステップS120の補完処理はスキップされ、処理は、ステップS121に進められる。
ステップS121において、整形変換処理部175は、ステップS115の認識の結果に基づいて、手書き入力されたグラフの整形が可能であるか否かを判定する。ステップS121において、手書き入力されたグラフの整形が可能であると判定された場合、処理はステップS122に進められる。
ステップS122において、整形変換処理部175は、手書き入力されたグラフに対し、所定の整形変換処理を行う。例えば、図4の使用例1に示したように、手書き入力された円グラフが完全な円とはならず、さらに各扇形の円弧の長さが入力された数値の割合に比例するものではない場合、完全な円であって、各扇形の円弧の長さがその領域に入力された数値の割合に比例する円グラフに整形変換される。
ステップS122の整形変換処理が終了すると、処理はステップS123に進められる。また、ステップS121において、グラフの整形が不可能であると判定された場合、ステップS122の整形変換処理はスキップされ、処理はステップS123に進められる。
ステップS123において、表示制御部176は、各種の処理が施されたグラフを表示部151に表示する。すなわち、表示部151に表示されるグラフは、ステップS118の演算処理、ステップS120の補完処理、及び、ステップS122の整形変換処理のうち少なくとも1つの処理が施されたグラフとなる。
これにより、例えば、使用例1の整形変換後のグラフ(図4のS14)、使用例3の演算結果の反映されたグラフ(図8のS34)、使用例4の特定の線種で手書き入力された演算情報のみ演算結果の反映されたグラフ(図11のS44)、又は、使用例5の手書き入力用レイヤ231上の整形変換後のグラフ(図12のS55)などが、表示部151に表示されることになる。
なお、図5の使用例2に示したように、整形変換処理等が施されたグラフを表示中に、グラフを元の手書き入力の状態に戻すためのボタン221が操作された場合、表示制御部176は、メモリ部102に保持された手書き入力のデータを読み出し、手書き入力状態のグラフを表示部151に再表示させる。
また、ステップS116において、手書き入力の内容にグラフが含まれていないと判定された場合、処理はステップS124に進められる。ステップS124において、演算処理部173は、手書き入力の内容に演算情報が含まれるか否かを判定する。ステップS124において、手書き入力の内容に演算情報が含まれると判定された場合、処理は、ステップS125に進められる。
ステップS125において、演算処理部173は、手書き入力された演算情報に基づいて、所定の演算処理を行う。ステップS125の演算処理が終了すると、処理はステップS123に進められる。
ステップS123において、表示制御部176は、ステップS125の演算処理の結果を表示部151に表示する。これにより、図13に示すような、演算の結果がタッチパネル104上に表示されることになる。なお、ステップS124において、手書き入力の内容に演算情報が含まれていないと判定された場合、処理はステップS111に戻され、それ以降の処理が繰り返される。
以上で、図14の手書き入力整形変換処理の説明を終了する。
なお、制御部101により実行される処理のうち、手書き入力認識部172、演算処理部173、補完処理部174、及び、整形変換処理部175により実行される処理の少なくとも1つを、ネットワーク上の所定のサーバ(不図示)が実行するようにして、制御部101は、サーバによる処理結果のみをネットワークを介して取得するようにしてもよい。
以上のように、手書き入力整形変換処理では、手書き入力が行われた場合に、ステップS118の演算処理、ステップS120の補完処理、及び、ステップS122の整形変換処理のうち少なくとも1つの処理が行われ、清書されたグラフが表示されるので、グラフ作成時の作業効率を向上させることができる。
なお、前述の説明では、グラフとして、円グラフと、棒グラフを例に説明したが、それ以外にも、円柱、円錐、若しくはピラミッド形状の縦棒グラフ、横棒グラフ、折れ線グラフ、面グラフ、散布図、ローソク足チャート、バブルチャート、等高線グラフ、ドーナツチャート、レーダグラフなどを対象とすることができる。また、前述の説明では、グラフ等の図形を整形するためのパラメータとして数値や演算子を一例に説明したが、その他、例えば、文字若しくは記号、又はこれらの組み合わせからなるものが含まれるようにしてもよい。
また、前述の説明では、タブレット端末装置を一例に説明したが、それに限らず、本技術は、例えば、携帯電話機やスマートホン、パーソナルコンピュータなどのタッチパネルを有する電子機器に適用することができる。
<本技術を適用したコンピュータの説明>
前述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、前述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ300において、CPU(Central Processing Unit)311,ROM(Read Only Memory)312,RAM(Random Access Memory)313は、バス314により相互に接続されている。
バス314には、さらに、入出力インタフェース315が接続されている。入出力インタフェース315には、入力部316、出力部317、記録部318、通信部319、及びドライブ320が接続されている。
入力部316は、キーボード、マウス、マイクロフォンなどよりなる。出力部317は、ディスプレイ、スピーカなどよりなる。記録部318は、ハードディスクや不揮発性のメモリなどよりなる。通信部319は、ネットワークインタフェースなどよりなる。ドライブ320は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア321を駆動する。
以上のように構成されるコンピュータ300では、CPU311が、例えば、記録部318に記憶されているプログラムを、入出力インタフェース315及びバス314を介して、RAM313にロードして実行することにより、前述した一連の処理が行われる。
コンピュータ300(CPU311)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア321に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ300では、プログラムは、リムーバブルメディア321をドライブ320に装着することにより、入出力インタフェース315を介して、記録部318にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部319で受信し、記録部318にインストールすることができる。その他、プログラムは、ROM312や記録部318に、あらかじめインストールしておくことができる。
なお、コンピュータ300が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ここで、本明細書において、コンピュータ300に各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、前述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、前述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
タッチパネルに対する手書き入力の内容を取得する取得部と、
前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する表示制御部と
を備える情報処理装置。
(2)
前記表示制御部は、前記手書き入力されるパラメータに応じた整形後の図形を表示させる
(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記パラメータに基づき実行される所定の関数の演算結果が反映された整形後の図形を表示させる
(2)に記載の情報処理装置。
(4)
整形対象の図形と前記パラメータとは、前記手書き入力に用いられた線種によって関連付けられている
(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記手書き入力から認識される図形を、前記パラメータに応じて補完して得られる補完後の図形を表示させる
(2)に記載の情報処理装置。
(6)
前記取得部は、前記タッチパネル上の手書き入力用の画面に対する前記手書き入力の内容を取得する
(1)乃至(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、整形後の図形の表示を整形前の状態に戻すための指示がされた場合、整形前の前記手書き入力の内容を再度表示させる
(1)乃至(6)のいずれか一項に記載の情報処理装置。
(8)
前記手書き入力の内容を認識する認識部と、
前記認識部の認識の結果に応じて、前記手書き入力から認識される図形を整形する整形部と
をさらに備える(1)乃至(7)のいずれか一項に記載の情報処理装置。
(9)
情報処理装置の情報処理方法において、
前記情報処理装置が、
タッチパネルに対する手書き入力の内容を取得し、
前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する
ステップを含む情報処理方法。
(10)
コンピュータを、
タッチパネルに対する手書き入力の内容を取得する取得部と、
前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する表示制御部と
として機能させることを特徴とするプログラムを記憶したプログラム記憶媒体。
10 タブレット端末装置, 20 タブレット用ペン, 101 制御部, 104 タッチパネル, 151 表示部, 152 タッチセンサ, 171 手書き入力内容取得部, 172 手書き入力認識部, 173 演算処理部, 174 補完処理部, 175 整形変換処理部, 176 表示制御部, 300 コンピュータ, 311 CPU

Claims (10)

  1. タッチパネルに対する手書き入力の内容を取得する取得部と、
    前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する表示制御部と
    を備える情報処理装置。
  2. 前記表示制御部は、前記手書き入力されるパラメータに応じた整形後の図形を表示させる
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記パラメータに基づき実行される所定の関数の演算結果が反映された整形後の図形を表示させる
    請求項2に記載の情報処理装置。
  4. 整形対象の図形と前記パラメータとは、前記手書き入力に用いられた線種によって関連付けられている
    請求項3に記載の情報処理装置。
  5. 前記表示制御部は、前記手書き入力から認識される図形を、前記パラメータに応じて補完して得られる補完後の図形を表示させる
    請求項2に記載の情報処理装置。
  6. 前記取得部は、前記タッチパネル上の手書き入力用の画面に対する前記手書き入力の内容を取得する
    請求項1に記載の情報処理装置。
  7. 前記表示制御部は、整形後の図形の表示を整形前の状態に戻すための指示がされた場合、整形前の前記手書き入力の内容を再度表示させる
    請求項1に記載の情報処理装置。
  8. 前記手書き入力の内容を認識する認識部と、
    前記認識部の認識の結果に応じて、前記手書き入力から認識される図形を整形する整形部と
    をさらに備える請求項1に記載の情報処理装置。
  9. 情報処理装置の情報処理方法において、
    前記情報処理装置が、
    タッチパネルに対する手書き入力の内容を取得し、
    前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する
    ステップを含む情報処理方法。
  10. コンピュータを、
    タッチパネルに対する手書き入力の内容を取得する取得部と、
    前記手書き入力の内容に応じて、前記手書き入力から認識される図形を整形して得られる整形後の図形の表示を制御する表示制御部と
    として機能させることを特徴とするプログラムを記憶したプログラム記憶媒体。
JP2014554330A 2012-12-28 2013-12-16 情報処理装置、情報処理方法、及び、プログラム記憶媒体 Active JP6287861B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012286723 2012-12-28
JP2012286723 2012-12-28
PCT/JP2013/083599 WO2014103775A1 (ja) 2012-12-28 2013-12-16 情報処理装置、情報処理方法、及び、プログラム記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2014103775A1 true JPWO2014103775A1 (ja) 2017-01-12
JP6287861B2 JP6287861B2 (ja) 2018-03-07

Family

ID=51020863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554330A Active JP6287861B2 (ja) 2012-12-28 2013-12-16 情報処理装置、情報処理方法、及び、プログラム記憶媒体

Country Status (5)

Country Link
US (1) US10402085B2 (ja)
EP (1) EP2940559A4 (ja)
JP (1) JP6287861B2 (ja)
CN (1) CN103914174A (ja)
WO (1) WO2014103775A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150026095A (ko) * 2013-08-30 2015-03-11 삼성전자주식회사 전자 장치에서 차트를 표시하는 장치 및 방법
KR20150086646A (ko) * 2014-01-20 2015-07-29 삼성전자주식회사 프리뷰 이미지를 제공하는 화상형성장치, 그 프리뷰 이미지를 디스플레이하는 디스플레이 장치 및 그 방법들
JP6511860B2 (ja) * 2015-02-27 2019-05-15 富士通株式会社 表示制御システム、グラフ表示方法およびグラフ表示プログラム
CN110956674B (zh) * 2019-10-23 2022-01-21 广州视源电子科技股份有限公司 图形调整方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287417A (en) * 1992-09-10 1994-02-15 Microsoft Corporation Method and system for recognizing a graphic object's shape, line style, and fill pattern in a pen environment
JPH06175977A (ja) * 1992-12-08 1994-06-24 Canon Inc 電子機器
US20020109724A1 (en) * 2001-02-15 2002-08-15 Denny Jaeger Method for controlling electronic devices using digital recall tool
JP2003330606A (ja) * 2002-05-13 2003-11-21 Ricoh Co Ltd タッチパネル付きディスプレイ装置、タッチパネル付きディスプレイ装置の制御方法およびその方法をコンピュータに実行させるためのプログラム
US20100171754A1 (en) * 2009-01-07 2010-07-08 Microsoft Corporation Converting digital ink to shapes and text
JP2012063938A (ja) * 2010-09-15 2012-03-29 Hitachi Solutions Ltd 手書き図形認識システム、手書き図形認識方法及びプログラム
JP2012069085A (ja) * 2010-08-26 2012-04-05 Casio Comput Co Ltd 表示制御装置およびプログラム
US20120229468A1 (en) * 2011-03-07 2012-09-13 Microsoft Corporation Integration of sketch-based interaction and computer data analysis
JP2012190118A (ja) * 2011-03-09 2012-10-04 Seiko Epson Corp 画像生成装置、プロジェクター、プログラムおよび画像生成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4465683A (en) 1979-09-14 1984-08-14 Mead Johnson & Company Anti-psychotic agents
JPH07107708B2 (ja) 1986-09-26 1995-11-15 株式会社日立製作所 パタ−ン認識方法
US5465325A (en) * 1992-11-16 1995-11-07 Apple Computer, Inc. Method and apparatus for manipulating inked objects
JPH0950490A (ja) 1995-08-07 1997-02-18 Sony Corp 手書き文字認識装置
US20080104571A1 (en) * 2001-02-15 2008-05-01 Denny Jaeger Graphical object programming methods using graphical directional indicators
US7324691B2 (en) * 2003-09-24 2008-01-29 Microsoft Corporation System and method for shape recognition of hand-drawn objects
US9256360B2 (en) * 2010-08-25 2016-02-09 Sony Corporation Single touch process to achieve dual touch user interface

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287417A (en) * 1992-09-10 1994-02-15 Microsoft Corporation Method and system for recognizing a graphic object's shape, line style, and fill pattern in a pen environment
JPH06175977A (ja) * 1992-12-08 1994-06-24 Canon Inc 電子機器
US20020109724A1 (en) * 2001-02-15 2002-08-15 Denny Jaeger Method for controlling electronic devices using digital recall tool
JP2003330606A (ja) * 2002-05-13 2003-11-21 Ricoh Co Ltd タッチパネル付きディスプレイ装置、タッチパネル付きディスプレイ装置の制御方法およびその方法をコンピュータに実行させるためのプログラム
US20100171754A1 (en) * 2009-01-07 2010-07-08 Microsoft Corporation Converting digital ink to shapes and text
JP2012069085A (ja) * 2010-08-26 2012-04-05 Casio Comput Co Ltd 表示制御装置およびプログラム
JP2012063938A (ja) * 2010-09-15 2012-03-29 Hitachi Solutions Ltd 手書き図形認識システム、手書き図形認識方法及びプログラム
US20120229468A1 (en) * 2011-03-07 2012-09-13 Microsoft Corporation Integration of sketch-based interaction and computer data analysis
JP2012190118A (ja) * 2011-03-09 2012-10-04 Seiko Epson Corp 画像生成装置、プロジェクター、プログラムおよび画像生成方法

Also Published As

Publication number Publication date
US10402085B2 (en) 2019-09-03
EP2940559A4 (en) 2016-08-31
EP2940559A1 (en) 2015-11-04
WO2014103775A1 (ja) 2014-07-03
US20150355835A1 (en) 2015-12-10
JP6287861B2 (ja) 2018-03-07
CN103914174A (zh) 2014-07-09

Similar Documents

Publication Publication Date Title
US10749755B2 (en) Network topology self-adapting data visualization method, device, apparatus, and storage medium
US11262895B2 (en) Screen capturing method and apparatus
EP2919104B1 (en) Information processing device, information processing method, and computer-readable recording medium
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
CN103955339A (zh) 一种终端操作方法及终端设备
CN107608668B (zh) H5页面制作兼容显示的方法、装置、终端设备及存储介质
US9588673B2 (en) Method for manipulating a graphical object and an interactive input system employing the same
US20160092728A1 (en) Electronic device and method for processing handwritten documents
US9025878B2 (en) Electronic apparatus and handwritten document processing method
JP6287861B2 (ja) 情報処理装置、情報処理方法、及び、プログラム記憶媒体
US20160147436A1 (en) Electronic apparatus and method
WO2018233054A1 (zh) 功能控件的响应方法、电子装置及计算机可读存储介质
EP2960763A1 (en) Computerized systems and methods for cascading user interface element animations
JP5737229B2 (ja) オブジェクト共有システム及びオブジェクト入力支援プログラム
JP6595896B2 (ja) 電子機器及び表示制御方法
US9069391B2 (en) Method and medium for inputting Korean characters using a touch screen
CN102314287A (zh) 互动显示系统及方法
CN114063845A (zh) 显示方法、显示装置和电子设备
CN107391015B (zh) 一种智能平板的控制方法、装置、设备及存储介质
JP2016110604A (ja) ページめくりシステム及びページめくり方法
US9146666B2 (en) Touch sensor navigation
US10614152B2 (en) Exposing formatting properties of content for accessibility
JPWO2016024330A1 (ja) 情報を表示するための電子機器および方法
CN113870394A (zh) 一种动画生成方法、装置、设备及存储介质
US9787731B2 (en) Dynamically determining workspace bounds during a collaboration session

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6287861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151