JP2015125645A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2015125645A
JP2015125645A JP2013270352A JP2013270352A JP2015125645A JP 2015125645 A JP2015125645 A JP 2015125645A JP 2013270352 A JP2013270352 A JP 2013270352A JP 2013270352 A JP2013270352 A JP 2013270352A JP 2015125645 A JP2015125645 A JP 2015125645A
Authority
JP
Japan
Prior art keywords
screen
finger
gesture operation
stylus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013270352A
Other languages
English (en)
Inventor
克仁 岩波
Katsuhito Iwanami
克仁 岩波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2013270352A priority Critical patent/JP2015125645A/ja
Publication of JP2015125645A publication Critical patent/JP2015125645A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示手段の画面上でのジェスチャ操作によりどのような処理が実行されるのかを操作者に容易に理解させることができる情報処理装置を提供する。【解決手段】記憶手段30はジェスチャ操作に応じて実行される各処理の内容を暗示するナビゲーション画像を記憶する。基準位置決定手段42は、ジェスチャ操作が開始されると、指が接触した画面の位置のうち基準となる基準位置を決定し、領域特定情報生成手段43は、その基準位置に基づいて表示手段10の画面を、記憶手段30に記憶されているナビゲーション画像の数と同じ数の領域に区分し、その区分した複数の領域の各々をナビゲーション画像と関連付ける。判定手段44は指が現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、制御手段45はその判定手段44からの判定結果に基づいて当該領域と関連付けられたナビゲーション画像を画面に表示する。【選択図】図1

Description

本発明は、タッチパネル式の表示手段の画面上でジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートする情報処理装置に関するものである。
近年、タブレット端末やスマートフォン等の情報処理装置では、表示手段にタッチパネルが備えられており、操作者はその表示手段の画面上でジェスチャ操作を行うことにより、所定の処理を実行させることができる。例えば、下方向へのフリック操作や上方向へのフリック操作により現在表示されている画像のページを前後に切り替えることができる。かかるジェスチャ操作を利用するには、操作者は、どのジェスチャ操作によりどのような処理が行われるかについて予め知っておく必要がある。最近では、操作者がジェスチャ操作を容易に行うことができるようにするために、ジェスチャ操作の実行中にそのジェスチャ操作に関するガイダンスを表示する技術が提案されている(例えば、特許文献1参照。)。
特開2011−40008号公報
しかしながら、上記の特許文献1に記載された技術では、ジェスチャ操作が一定の条件を満たさなければガイダンスは表示されず、したがって、指の動き始めからすぐにガイダンスを表示することができなかった。また、ジェスチャ操作の実行中、そのジェスチャ操作により実行可能な処理の候補が複数ある場合には、それら複数の処理に対するガイダンスが表示されるため、操作者は当該ジェスチャ操作によりどのような処理が実行されるのかをすぐに理解することができないという問題があった。
本発明は上記事情に基づいてなされたものであり、表示手段の画面上でのジェスチャ操作によりどのような処理が実行されるのかを操作者に容易に理解させることができる情報処理装置を提供することを目的とするものである。
上記の目的を達成するための本発明に係る情報処理装置は、指又はスタイラスをタッチパネル式の表示手段の画面に接触させてそのまま指又はスタイラスを移動するというジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートする情報処理装置であって、ジェスチャ操作の態様に応じて実行される各種の処理に対応して設けられた、当該処理の内容を暗示するナビゲーション情報が記憶されている記憶手段と、指又はスタイラスが表示手段の画面に接触したときに指又はスタイラスが接触した画面の位置を検知し、その検知した位置を示す接触位置情報を出力する接触位置検知手段と、接触位置検知手段から出力される、ジェスチャ操作が開始されたときの接触位置情報に基づいて、指又はスタイラスが接触した画面の位置のうち基準となる基準位置を決定する基準位置決定手段と、基準位置決定手段によって基準位置が決定されたときに、その決定された基準位置に基づいて表示手段の画面を、所定数の領域に区分し、その区分した複数の領域の各々について当該領域を特定するための領域特定情報を生成して所定のナビゲーション情報と関連付けて記憶手段に記憶する領域特定情報生成手段と、接触位置検知手段から出力された接触位置情報と記憶手段に記憶されている各領域特定情報とに基づいて、ジェスチャ操作が継続している間、指又はスタイラスが移動したときに指又はスタイラスが現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、その判定結果を出力する判定手段と、判定手段から指又はスタイラスが現在接触している画面の位置が複数の領域のうちの一の領域に含まれていることを示す判定結果が送られたときに、その含まれている領域と関連付けられたナビゲーション情報を記憶手段から読み出して表示手段の画面上における所定位置に表示する制御手段と、を備えることを特徴とするものである。
本発明の情報処理装置では、判定手段は指又はスタイラスが現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、制御手段はその判定手段から送られる判定結果に基づいて当該領域と関連付けられたナビゲーション情報を表示手段の画面に表示することにより、ナビゲーション情報を表示する処理が簡単である。このため、制御手段は、指又はスタイラスが動き出せばすぐにナビゲーション情報を表示することができ、また、誤ったナビゲーション情報を表示してしまうことはない。しかも、ジェスチャ操作の継続中に指又はスタイラスがある領域から他の領域に移動すると、表示手段の画面に表示されるナビゲーション情報を当該他の領域と関連付けられたものに直ちに切り替えて表示することができる。したがって、操作者はジェスチャ操作の継続中に表示されるナビゲーション情報を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。
また、本発明の情報処理装置において、制御手段は、判定手段から指又はスタイラスが現在接触している画面の位置が複数の領域のうちの一の領域に含まれていることを示す判定結果が送られたときに、その含まれている領域と関連付けられたナビゲーション情報を、指又はスタイラスが現在接触している画面の位置を基準としてその近傍の位置に表示することが望ましい。これにより、制御手段は、ナビゲーション情報を、表示手段の画面上での指又はスタイラスの動きに連動して移動するように表示することができるので、操作者はナビゲーション情報の表示が自己の指又はスタイラスの動きに関係があることを容易に認識することができる。
更に、本発明の情報処理装置は、接触位置検知手段から出力された接触位置情報に基づいて、ジェスチャ操作が未だ行われていない場合にあってはジェスチャ操作が開始されたかどうかを監視し、ジェスチャ操作が開始された場合にあってはそのジェスチャ操作が継続中であるかそのジェスチャ操作が終了したかを監視し、その監視結果を出力する監視手段を更に備えていることが望ましい。この場合、基準位置決定手段は、監視手段からジェスチャ操作が開始されたことを示す監視結果が送られたときに、当該ジェスチャ操作が開始されたときの接触位置情報に基づいて基準位置を決定して、その決定した基準位置に関する情報を記憶手段に記憶し、判定手段は、監視手段からジェスチャ操作が継続中であることを示す監視結果が送られている間、接触位置検知手段から出力された接触位置情報と記憶手段に記憶されている基準位置に関する情報及び各領域特定情報とに基づいて、指又はスタイラスが現在接触している画面の位置に基準位置が含まれているかどうか、指又はスタイラスが現在接触している画面の位置に基準位置が含まれていない場合には指又はスタイラスが現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定して、その判定結果を出力し、そして、制御手段は、判定手段から指又はスタイラスが現在接触している画面の位置に基準位置が含まれていることを示す判定結果が送られたときに、複数のナビゲーション情報のいずれも表示手段の画面には表示せず、判定手段から指又はスタイラスが現在接触している画面の位置が複数の領域のうちの一の領域に含まれていることを示す判定結果が送られたときに、その含まれている領域と関連付けられたナビゲーション情報を表示手段の画面に表示し、一方、監視手段からジェスチャ操作が終了したことを示す監視結果が送られたときに、複数のナビゲーション情報のいずれも表示手段の画面に表示せず、当該監視結果が送られた際に表示手段の画面に表示されていたナビゲーション情報に対応する処理を実行する。このように、制御手段は、判定手段から指又はスタイラスが現在接触している画面の位置に基準位置が含まれていることを示す判定結果が送られたときに、複数のナビゲーション情報のいずれも表示手段の画面に表示しないことにより、操作者は、ジェスチャ操作の継続中に指又はスタイラスを基準位置に戻してナビゲーション情報を表示させないようにし、この間に指又はスタイラスを画面から離して当該ジェスチャ操作を終了すれば、処理の実行を簡単に回避することができる。
また、本発明の情報処理装置において、監視手段は、ジェスチャ操作が継続中である場合、接触位置検知手段から出力された接触位置情報に基づいて、指又はスタイラスが表示手段の画面から離れたと判断したとき、又は、指又はスタイラスが表示手段の画面の端に位置していると判断したときに、そのジェスチャ操作が終了したことを示す監視結果を出力するようにしてもよい。これにより、操作者は、ジェスチャ操作の継続中に、指又はスタイラスを表示手段の画面から離さずに、その画面の端まで移動させたときにも、当該ジェスチャ操作の終了を指示することができる。
また、上記の目的を達成するための本発明に係るプログラムは、コンピュータを利用して、指又はスタイラスをタッチパネル式の表示手段の画面に接触させてそのまま指又はスタイラスを移動するというジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートするプログラムであって、コンピュータが、ジェスチャ操作の態様に応じて実行される各種の処理に対応して設けられた、当該処理の内容を暗示するナビゲーション情報が記憶されている記憶手段と、指又はスタイラスが表示手段の画面に接触したときに指又はスタイラスが接触した画面の位置を検知し、その検知した位置を示す接触位置情報を出力する接触位置検知手段とを有する場合に、このコンピュータに、接触位置検知手段から出力される、ジェスチャ操作が開始されたときの接触位置情報に基づいて、指又はスタイラスが接触した画面の位置のうち基準となる基準位置を決定する基準位置決定機能と、基準位置決定機能によって基準位置が決定されたときに、その決定された基準位置に基づいて表示手段の画面を、所定数の領域に区分し、その区分した複数の領域の各々について当該領域を特定するための領域特定情報を生成して所定のナビゲーション情報と関連付けて記憶手段に記憶する領域特定情報生成機能と、接触位置検知手段から出力された接触位置情報と記憶手段に記憶されている各領域特定情報とに基づいて、ジェスチャ操作が継続している間、指又はスタイラスが移動したときに指又はスタイラスが現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、その判定結果を出力する判定機能と、指又はスタイラスが現在接触している画面の位置が複数の領域のうちの一の領域に含まれていることを示す判定結果を受けたときに、その含まれている領域と関連付けられたナビゲーション情報を記憶手段から読み出して表示手段の画面上における所定位置に表示する制御機能と、を実現させることを特徴とするものである。
本発明に係るプログラムをコンピュータに適用すると、このコンピュータでは、ナビゲーション情報を表示する処理が簡単であるので、指又はスタイラスが動き出せばすぐにナビゲーション情報を表示することができ、また、誤ったナビゲーション情報を表示してしまうことはない。しかも、ジェスチャ操作の継続中に指又はスタイラスがある領域から他の領域に移動すると、表示手段の画面に表示されるナビゲーション情報を当該他の領域と関連付けられたものに直ちに切り替えて表示することができる。したがって、操作者はジェスチャ操作の継続中に表示されるナビゲーション情報を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。
本発明に係る情報処理装置及びプログラムによれば、ナビゲーション情報を表示する処理が簡単であるので、指又はスタイラスが動き出せばすぐにナビゲーション情報を表示することができ、また、誤ったナビゲーション情報を表示してしまうことはない。しかも、ジェスチャ操作の継続中に指又はスタイラスがある領域から他の領域に移動すると、表示手段の画面に表示されるナビゲーション情報を当該他の領域と関連付けられたものに直ちに切り替えて表示することができる。したがって、操作者はジェスチャ操作の継続中に表示されるナビゲーション情報を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。
図1は本発明の一実施形態である情報処理装置の概略ブロック図である。 図2は基準位置を決定する方法の一例を説明するための図である。 図3は表示手段の領域を複数の領域に区分する方法の一例を説明するための図である。 図4は表示手段の画面を複数の領域に区分する方法の他の例を説明するための図である。 図5は本実施形態の情報処理装置においてあるアプリケーションプログラムの実行中に操作者がジェスチャ操作を行ったときに中央処理装置が行う処理の手順を説明するためのフローチャートである。 図6は各ナビゲーション画像を表示させるためのジェスチャ操作の仕方を説明するための図である。 図7は表示手段の画面に表示された各ナビゲーション画像の例を説明するための図である。
以下に、図面を参照して、本願に係る発明を実施するための最良の形態について説明する。図1は本発明の一実施形態である情報処理装置の概略ブロック図である。
本実施形態の情報処理装置は、各種の情報を携帯して扱うことができるスマートフォンである。この情報処理装置は、図1に示すように、表示手段10と、タッチパネル20と、記憶手段30と、中央処理装置40とを備える。
表示手段10は情報処理装置の正面側に設けられている。この表示手段10としては液晶表示装置が用いられ、その形状は略長方形状である。また、表示手段10の画面にはタッチパネル20が設けられている。このタッチパネル20には、指が表示手段10の画面に接触したときに指が接触した画面の位置を検知し、その検知した位置を示す接触位置情報を中央処理装置40に出力する接触位置検知手段21が備えられている。
記憶手段30には、OSや各種のアプリケーションプログラム等が格納されている。特に、本実施形態の情報処理装置は、所定のアプリケーションプログラムの実行中に、指を表示手段10の画面に接触させてそのまま指を移動するというジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートするナビゲーション機能を有している。かかるナビゲーション機能を本実施形態の情報処理装置に実現させるためのプログラムも記憶手段30に記憶されている。具体的に、このナビゲーション機能では、ジェスチャ操作の継続中にナビゲーション情報を表示手段10の画面に表示し、そのナビゲーション情報によって、当該ジェスチャ操作により実行される処理の内容を暗示する。このため、記憶手段30には、ジェスチャ操作の態様に応じて実行される各種の処理に対応して設けられた、当該処理の内容を暗示するナビゲーション情報が記憶されている。かかるナビゲーション情報の例としては、当該処理の内容に関連した図形やイラストを表す画像情報(ナビゲーション画像)、当該処理の内容を簡潔に表現したテキスト情報を挙げることができる。以下、本実施形態では、ナビゲーション情報としてナビゲーション画像を用いる場合を説明する。ここで、各ナビゲーション画像は所定の一の処理と対応付けられているものとする。
また、記憶手段30は作業用のメモリとして利用される。例えば、この記憶手段30には、ナビゲーション機能を実行する際に生成される各種の情報、例えば基準位置に関する情報や領域特定情報等が記憶されている。これら基準位置に関する情報や領域特定情報については後に詳述する。
中央処理装置40は、情報処理装置の各部を統括して制御するものである。以下では、中央処理装置40が行う処理の内容のうち、主として、ナビゲーション機能に関連する処理内容を説明することにする。この中央処理装置40は、図1に示すように、監視手段41と、基準位置決定手段42と、領域特定情報生成手段43と、判定手段44と、制御手段45とを備えている。
監視手段41は、接触位置検知手段21から出力された接触位置情報に基づいて、ジェスチャ操作が未だ行われていない場合にあっては、ジェスチャ操作が開始されたかどうかを監視し、ジェスチャ操作が開始された場合にあっては、そのジェスチャ操作が継続中であるか、そのジェスチャ操作が終了したかを監視し、その監視結果を出力するものである。具体的に、監視手段41は、ジェスチャ操作が開始されたことを認識すると、ジェスチャ操作が開始されたことを示す監視結果を基準位置決定手段42に出力する。また、監視手段41は、ジェスチャ操作が開始された後は、そのジェスチャ操作が継続中であるときに、ジェスチャ操作が継続中であることを示す監視結果を判定手段44に出力し、そのジェスチャ操作が終了したことを認識すると、ジェスチャ操作が終了したことを示す監視結果を制御手段45に出力する。ここで、監視手段41は、ジェスチャ操作が継続中である場合、接触位置検知手段21から出力された接触位置情報に基づいて、指が表示手段10の画面から離れたと判断したときだけでなく、指が表示手段10の画面の端に位置していると判断したときにも、そのジェスチャ操作が終了したことを示す監視結果を制御手段45に出力する。したがって、本実施形態では、操作者はジェスチャ操作の終了を指示するには、指を表示手段10の画面から離すか、若しくは、指を表示手段10の画面から離さずに、その画面の端まで移動させるかのいずれかの操作を行えばよい。
基準位置決定手段42は、監視手段41からジェスチャ操作が開始されたことを示す監視結果が送られたときに、当該ジェスチャ操作が開始されたときの接触位置情報に基づいて、指が接触した画面の位置のうち基準となる基準位置を決定し、その決定した基準位置に関する情報を記憶手段10に記憶するものである。指は一定の大きさを有しているため、指が接触した画面の位置は一定の範囲に拡がっている。この範囲の中から決定された一点が基準位置となる。
具体的に、基準位置は次のようにして決定される。図2は基準位置を決定する方法の一例を説明するための図である。この方法では、図2に示すように、表示手段10の画面上に設定されたxy座標系において、指が接触した画面の位置(範囲)Rの中で、最も大きい縦幅を示す位置のx座標と、最も大きな横幅を示す位置のy座標とを求める。そして、その求めたx座標とy座標とによって特定される一点Pを基準位置とする。この場合、その特定された座標(x,y)が基準位置に関する情報として記憶手段20に記憶されることになる。
尚、基準位置は、上記の方法に限らず、さまざまな方法で決定することができる。例えば、指が接触した画面の範囲の中で最も左端に位置する一点を基準位置として決定したり、指が接触した画面の範囲の中で任意に選んだ一点を基準位置として決定したりすることができる。
領域特定情報生成手段43は、基準位置決定手段42で基準位置が決定されたときに、その決定された基準位置に基づいて表示手段10の画面を、記憶手段30に記憶されているナビゲーション画像の数と同じ数の領域に区分し、その区分した複数の領域の各々について当該領域を特定するための領域特定情報を生成して所定の一のナビゲーション画像と関連付けて記憶手段30に記憶する。すなわち、この領域特定情報生成手段43は、各ナビゲーション画像と各領域とを一対一に対応付けるものである。
いま、表示手段10の画面を複数の領域に区分する具体的な方法を説明する。図3は表示手段10の領域を複数の領域に区分する方法の一例を説明するための図である。ここでは、記憶手段30にナビゲーション画像が四つ記憶されているものとする。この場合、表示手段10の画面を四つの領域に区分しなければならない。領域特定情報生成手段43は、まず、図3に示すように、基準位置Pから表示手段10の画面の四隅に向かって直線L11,L12,L13,L14を引く。そして、四つの直線L11,L12,L13,L14と表示手段10の画面の四つの辺とによって囲まれる四つの三角形T1,T2,T3,T4の領域を特定する。こうして特定した四つの三角形T1,T2,T3,T4の領域を、求める四つの領域として決定する。このとき、各三角形T1,T2,T3,T4の領域を特定する情報が領域特定情報となる。
また、表示手段10の画面を複数の領域に区分する他の方法を説明する。図4は表示手段10の画面を複数の領域に区分する方法の他の例を説明するための図である。この例でも、記憶手段30には四つのナビゲーション画像が記憶されているものとする。この場合、領域特定情報生成手段43は、図4に示すように、基準位置Pから表示手段10の画面の各辺の中点に向かって直線L21,L22,L23,L24を引き、四つの直線L21,L22,L23,L24と表示手段10の画面の四つの辺とによって囲まれる四つの四角形Q1,Q2,Q3,Q4の領域を、求める四つの領域として決定する。このとき、各四角形Q1,Q2,Q3,Q4の領域を特定する情報が領域特定情報となる。
尚、表示手段10の画面を複数の領域に区分する方法は、上記の各方法に限らず、さまざまな方法を用いることができる。
判定手段44は、監視手段41からジェスチャ操作が継続中であることを示す監視結果が送られている間、接触位置検知手段21から出力された接触位置情報と記憶手段20に記憶されている基準位置に関する情報及び各領域特定情報とに基づいて、指が現在接触している画面の位置に基準位置が含まれているかどうか、指が現在接触している画面の位置に基準位置が含まれていない場合には指が現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、その判定結果を制御手段45に出力する。ここで、指が現在接触している画面の位置(範囲)が複数の領域のうちのどの領域に含まれているかの判定は、例えば、基準位置を決定する場合と同様に、指が現在接触している画面の位置から一点を特定し、その特定した一点がどの領域に含まれているかに基づいて行うことができる。或いは、その判定は、指が現在接触している画面の位置(範囲)がどの領域に最も大きな割合で含まれているかに基づいて行うようにしてもよい。
制御手段45は、ナビゲーション画像の表示処理及びジェスチャ操作に対応した処理を行うものである。具体的に、制御手段45は、判定手段44から指が現在接触している画面の位置に基準位置が含まれていることを示す判定結果が送られたときに、複数のナビゲーション画像のいずれも表示手段10の画面には表示しないようにする。したがって、あるナビゲーション画像が表示されていたときに、操作者が指を基準位置に戻せば、どのナビゲーション画像も表示されなくなる。
また、制御手段45は、判定手段44から指が現在接触している画面の位置が複数の領域のうちの一の領域に含まれていることを示す判定結果が送られたときに、その含まれている領域と関連付けられたナビゲーション画像を記憶手段10から読み出して表示手段10の画面上における所定位置に表示する。ここで、ナビゲーション画像は半透明の状態で表示手段10の画面に表示される。これは、ナビゲーション画像を表示したことによって操作者が表示手段10の画面に元々表示されていた他の情報(文字情報、画像情報等)を認識できなくなることを回避するためである。また、このとき、制御手段45は、その読み出したナビゲーション画像を、指が現在接触している画面の位置を基準としてその近傍の位置に表示する。具体的には、ナビゲーション画像を、そのナビゲーション画像の中心位置と指が現在接触している画面の位置とが略一致するように表示手段10の画面に表示する。このため、操作者が指を表示手段10の画面に接触させた後、指を動かせば、直ちにナビゲーション画像が表示される。しかも、ナビゲーション画像は、表示手段10の画面上での指の動きに連動して移動するように表示される。また、ジェスチャ操作の継続中に指が一の領域から他の領域に移動すると、表示手段10の画面には、当該一の領域と関連付けられたナビゲーション画像から当該他の領域と関連付けられたナビゲーション画像に直ちに切り替えて表示されることになる。したがって、操作者はジェスチャ操作の継続中に表示されるナビゲーション画像を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。
更に、制御手段45は、監視手段43からジェスチャ操作が終了したことを示す監視結果が送られたときに、複数のナビゲーション画像のいずれも表示手段10の画面に表示せず、当該監視結果が送られた際に表示手段10の画面に表示されていたナビゲーション画像に対応する処理を実行する。このため、操作者は、所望の処理に対応するナビゲーション画像を表示させた状態でジェスチャ操作を終了すれば、その処理の実行を簡単に指示することができる。したがって、本実施形態の情報処理装置では、ジェスチャ操作がどの領域で終了したかというジェスチャ操作の終了態様に応じて各種の処理が実行される。
次に、本実施形態の情報処理装置においてあるアプリケーションプログラムの実行中に操作者がジェスチャ操作を行ったときに中央処理装置40が行う処理の手順について説明する。図5は本実施形態の情報処理装置においてあるアプリケーションプログラムの実行中に操作者がジェスチャ操作を行ったときに中央処理装置40が行う処理の手順を説明するためのフローチャートである。また、図6は各ナビゲーション画像を表示させるためのジェスチャ操作の仕方を説明するための図、図7は表示手段10の画面に表示された各ナビゲーション画像の例を説明するための図である。
ここでは、ジェスチャ操作により暗記カードの内容を覚えたかどうかを自己評価しながら暗記カードを順次表示するアプリケーションソフトに対して上記ナビゲーション機能を適用した場合を説明する。この暗記カードの例としては、英単語を覚えるためのカードを挙げることができる。暗記カードには表面と裏面とがあり、暗記カードの表面に英単語が記載され、その裏面にはその英単語の日本語訳が記載されている。この場合、ナビゲーション画像としては、「○」を表す画像N1と、「△」を表す画像N2と、「×」を表す画像N3と、Uターン矢印を表す画像N4とからなる合計四つの画像を用いる(図7参照)。「○」を表す画像N1は、現在の暗記カードの内容を完全に覚えているという評価を付けること及び次の暗記カードを表示することを暗示するものである。「△」を表す画像N2は、現在の暗記カードの内容を正確ではないが、ある程度覚えているという評価を付けること及び次の暗記カードを表示することを暗示するものである。「×」を表す画像N3は、現在の暗記カードの内容を覚えていないという評価を付けること及び次の暗記カードを表示することを暗示するものである。そして、Uターン矢印を表す画像N4は、前の暗記カードを表示することを暗示するものである。また、このアプリケーションソフトでは、操作者が各暗記カードに対して行った評価の内容はその暗記カードに関連付けて記憶される。但し、記憶対象となる評価は例えば過去五回分である。
操作者が表示手段10の画面に表示されたメニュー画面において暗記カードのアプリケーションソフトを選択すると、その暗記カードのアプリケーションプログラムが起動し、一枚目の暗記カードの表面が表示手段10の画面に表示される。ここで、表示手段10の画面に表示される暗記カードの所定位置(例えば、左下の位置)には、当該暗記カードに関連付けて記憶手段30に記憶されている評価の内容が表示される。これにより、操作者はこの評価の内容を見れば、当該暗記カードに対する理解度を容易に確認することができる。その後、中央処理装置40は、図5に示すフローチャートにしたがい、操作者によるジェスチャ操作に応じて所定の処理を実行することになる。
表示手段10の画面に表示された暗記カードの表面にはある英単語が記載されている。操作者は、その英単語を覚えているかどうかを評価する。そして、その評価の結果等に応じて所定の態様でジェスチャ操作を行う。まず、操作者は、指で表示手段10の画面の任意の位置を触れる。すると、タッチパネル20の接触位置検知手段21は、指が接触した表示手段10の画面の位置を検知し、その検知した位置を示す接触位置情報を中央処理装置40に出力する。中央処理装置40の監視手段41は、その接触位置情報を受け取ると、これまで接触位置情報が送られて来なかったのに、いま新たに接触位置情報が送られてきたことから、ジェスチャ操作が開始されたと判断し、そのことを示す監視結果を基準位置決定手段42及び制御手段45に出力する(S1)。
基準位置決定手段42は、監視手段41からジェスチャ操作が開始されたことを示す監視結果を受け取ると、上述の図2で説明した方法を用いることにより、そのときの接触位置情報に基づいて、指が接触した画面の位置の中から基準位置を決定する(S2)。例えば、図6に示すように、基準位置Pが決定される。そして、この決定した基準位置Pに関する情報を記憶手段30に記憶する。こうして基準位置Pが決定されると、次に、領域特定情報生成手段43は、上述の図3で説明した方法を用いることにより、その決定された基準位置Pに基づいて、表示手段10の画面を四つの領域A,B,C,Dに区分する(S3)。図6の例では、表示手段10の画面を、基準位置Pを頂点とする四つの三角形の範囲に分割し、画面の上側の三角形の範囲を領域Aとし、画面の左側の三角形の範囲を領域Bとし、画面の下側の三角形の範囲を領域Cとし、画面の右側の三角形の範囲を領域Dとしている。ここで、各領域A,B,C,Dの境界線は表示手段10の画面に表示されない。その後、領域特定情報生成手段43は、その区分した各領域A,B,C,Dを特定するための領域特定情報を生成して所定のナビゲーション画像と関連付けて記憶手段30に記憶する。ここでは、領域Aをナビゲーション画像N1と関連付け、領域Bをナビゲーション画像N2と関連付け、領域Cをナビゲーション画像N3と関連付け、そして、領域Dをナビゲーション画像N4と関連付ける。
一方、制御手段45は、監視手段41からジェスチャ操作が開始されたことを示す監視結果を受け取ると、表示手段10の画面に表示されている暗記カードについて、その表面に代えて、その裏面を表示する。これにより、操作者は、その暗記カードの裏面に記載されている日本語訳を見て、その表面に記載されていた英単語の意味を確認することができる。
ナビゲーション画像を表示手段10の画面に表示するには、操作者は、指が表示手段10の画面に触れた状態のまま、図6に示すように、指を四つの領域A,B,C,Dのうちいずれかの領域内に移動させればよい。すなわち、操作者は指を基準位置Pから上下左右のいずれかに向かうように移動させれば、その移動方向に応じて四つのナビゲーション画像のうちのいずれかを表示させることができる。このため、子供であっても、簡単なジェスチャ操作でナビゲーション画像を表示させて、どのような処理が行われるのかを容易に理解することが可能である。
具体的に、監視手段41は、一旦、ジェスチャ操作が開始された後は、接触位置検知手段21からの接触位置情報に基づいて、そのジェスチャ操作が継続中であるか、そのジェスチャ操作が終了したかを監視している。監視手段41は、ジェスチャ操作が継続中であると判断すると(S4)、そのことを示す監視結果を判定手段44に出力する。判定手段44は、監視手段41からジェスチャ操作が継続中であることを示す監視結果が送られると、接触位置検知手段21からの接触位置情報と記憶手段30に記憶されている基準位置Pに関する情報及び各領域特定情報とに基づいて、指が現在接触している画面の位置に基準位置Pが含まれているかどうかを判定する(S5)。判定手段44は、指が現在接触している画面の位置に基準位置Pが含まれていると判定すると、そのことを示す判定結果を制御手段45に出力する。そして、制御手段45は、指が現在接触している画面の位置に基準位置Pが含まれていることを示す判定結果を受け取ると、現在、あるナビゲーション画像が表示手段10の画面に表示されていたとしても、いずれのナビゲーション画像も表示手段10の画面に表示しないように画面表示の制御を行う(S6)。その後は、ステップS4に移行する。
また、判定手段44は、ステップS5において指が現在接触している画面の位置に基準位置Pが含まれていないと判定すると、指が現在接触している画面の位置が領域Aに含まれているかどうかを判定する(S7)。判定手段44は、指が現在接触している画面の位置が領域Aに含まれていると判定すると、そのことを示す判定結果を制御手段45に出力する。そして、制御手段45は、指が現在接触している画面の位置が領域Aに含まれていることを示す判定結果を受け取ると、領域Aと関連付けられたナビゲーション画像N1を記憶手段30から読み出して表示手段10の画面に表示する(S8)。これにより、操作者が指を領域A内に移動させたときには、図7(a)に示すように、ナビゲーション画像N1(「○」を表す画像)が表示手段10の画面に表示される。また、このとき、ナビゲーション画像N1は、指が現在接触している画面の位置を中心として表示される。その後は、ステップS4に移行する。
また、判定手段44は、ステップS7において指が現在接触している画面の位置が領域Aに含まれていないと判定すると、指が現在接触している画面の位置が領域Bに含まれているかどうかを判定する(S9)。判定手段44は、指が現在接触している画面の位置が領域Bに含まれていると判定すると、そのことを示す判定結果を制御手段45に出力する。そして、制御手段45は、指が現在接触している画面の位置が領域Bに含まれていることを示す判定結果を受け取ると、領域Bと関連付けられたナビゲーション画像N2を記憶手段30から読み出して表示手段10の画面に表示する(S10)。これにより、操作者が指を領域B内に移動させたときには、図7(b)に示すように、ナビゲーション画像N2(「△」を表す画像)が表示手段10の画面に表示される。また、このとき、ナビゲーション画像N2は、指が現在接触している画面の位置を中心として表示される。その後は、ステップS4に移行する。
また、判定手段44は、ステップS9において指が現在接触している画面の位置が領域Bに含まれていないと判定すると、指が現在接触している画面の位置が領域Cに含まれているかどうかを判定する(S11)。判定手段44は、指が現在接触している画面の位置が領域Cに含まれていると判定すると、そのことを示す判定結果を制御手段45に出力する。そして、制御手段45は、指が現在接触している画面の位置が領域Cに含まれていることを示す判定結果を受け取ると、領域Cと関連付けられたナビゲーション画像N3を記憶手段30から読み出して表示手段10の画面に表示する(S12)。これにより、操作者が指を領域C内に移動させたときには、図7(c)に示すように、ナビゲーション画像N3(「×」を表す画像)が表示手段10の画面に表示される。また、このとき、ナビゲーション画像N3は、指が現在接触している画面の位置を中心として表示される。その後は、ステップS4に移行する。
また、判定手段44は、ステップS11において指が現在接触している画面の位置が領域Cに含まれていないと判定すると、指が現在接触している画面の位置が領域Dに含まれていると認定し、そのことを示す判定結果を制御手段45に出力する。そして、制御手段45は、指が現在接触している画面の位置が領域Dに含まれていることを示す判定結果を受け取ると、領域Dと関連付けられたナビゲーション画像N4を記憶手段30から読み出して表示手段10の画面に表示する(S13)。これにより、操作者が指を領域D内に移動させたときには、図7(d)に示すように、ナビゲーション画像N4(Uターン矢印)が表示手段10の画面に表示される。また、このとき、ナビゲーション画像N4は、指が現在接触している画面の位置を中心として表示される。その後は、ステップS4に移行する。
このように、監視手段41が判定手段44に対してジェスチャ操作が継続中であることを示す監視結果を送っている間、判定手段44及び制御手段45は、ステップS4〜S13にしたがった処理を繰り返す。このため、例えば、操作者が指を領域A内で移動すれば、ナビゲーション画像N1はその指の動きに連動して移動することになる。また、操作者が指を領域Aから領域Bに移動すれば、指が領域Aにある間はナビゲーション画像N1が表示され、指が領域Bに入ると、そのナビゲーション画像N1が消えて、ナビゲーション画像N2が表示されることになる。
一方、監視手段41は、接触位置検知手段21から接触位置情報が送られて来なくなり、ジェスチャ操作が終了したと判断すると(S4)、そのことを示す監視結果を制御手段45に出力する。制御手段45は、監視手段41からジェスチャ操作が終了したことを示す監視結果を受け取ると、現在、あるナビゲーション画像が表示手段10の画面に表示されていたとしても、いずれのナビゲーション画像も表示手段10の画面に表示しないように画面表示の制御を行う(S14)。その後、制御手段45は、当該監視結果が送られた際に表示手段10の画面に表示されていたナビゲーション画像に対応する処理を実行する(S15)。
具体的に、ジェスチャ操作が終了した際に表示手段10の画面にナビゲーション画像N1が表示されていた場合には、制御手段45は、現在の暗記カードについて、当該暗記カードの内容を完全に覚えているという評価の内容を示すデータを記憶手段30に記憶すると共に、次の暗記カードを表示手段10の画面に表示する。ジェスチャ操作が終了した際に表示手段10の画面にナビゲーション画像N2が表示されていた場合には、制御手段45は、現在の暗記カードについて、当該暗記カードの内容をある程度覚えているという評価の内容を示すデータを記憶手段30に記憶すると共に、次の暗記カードを表示手段10の画面に表示する。ジェスチャ操作が終了した際に表示手段10の画面にナビゲーション画像N3が表示されていた場合には、制御手段45は、現在の暗記カードについて、当該暗記カードの内容を覚えていないという評価の内容を示すデータを記憶手段30に記憶すると共に、次の暗記カードを表示手段10の画面に表示する。ジェスチャ操作が終了した際に表示手段10の画面にナビゲーション画像N4が表示されていた場合には、制御手段45は、一つ前の暗記カードを表示手段10の画面に表示する。そして、ジェスチャ操作が終了した際に表示手段10の画面にいずれのナビゲーション画像も表示されていなかった場合には、制御手段45は何らの処理も行わない。以上で、図5に示すフローチャートに従った処理が終了するが、中央処理装置40は、この暗記カードのアプリケーションソフトが実行されている限り、この図5に示すフローチャートに従った処理を繰り返し実行する。
本実施形態の情報処理装置では、判定手段は指が現在接触している画面の位置が複数の領域のうちのどの領域に含まれているかを判定し、制御手段はその判定手段から送られる判定結果に基づいて当該領域と関連付けられたナビゲーション画像を表示手段の画面に表示することにより、ナビゲーション画像を表示する処理が簡単である。このため、制御手段は、指が動き出せばすぐにナビゲーション画像を表示することができ、また、誤ったナビゲーション画像を表示してしまうことはない。しかも、ジェスチャ操作の継続中に指がある領域から他の領域に移動すると、表示手段の画面に表示されるナビゲーション画像を当該他の領域と関連付けられたものに直ちに切り替えて表示することができる。したがって、操作者はジェスチャ操作の継続中に表示されるナビゲーション画像を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。
また、本実施形態の情報処理装置では、制御手段は、判定手段から指が現在接触している画面の位置に基準位置が含まれていることを示す判定結果が送られたときに、複数のナビゲーション画像のいずれも表示手段の画面に表示しないことにより、操作者は、ジェスチャ操作の継続中に指を基準位置に戻してナビゲーション画像を表示させないようにし、この間に指を画面から離して当該ジェスチャ操作を終了すれば、処理の実行を簡単に回避することができる。
更に、本実施形態の情報処理装置では、制御手段は、ナビゲーション画像を、そのナビゲーション画像の中心位置と指が現在接触している画面の位置とが略一致するように表示手段の画面に表示することにより、ナビゲーション画像を、表示手段の画面上での指の動きに連動して移動するように表示することができるので、操作者はナビゲーション画像の表示が自己の指の動きに関係があることを容易に認識することができる。
尚、本発明は上記の実施形態に限定されるものではなく、その要旨の範囲内において種々の変形が可能である。
例えば、上記の実施形態では、本発明の情報処理装置が、タッチパネル式の表示手段を有するスマートフォンである場合について説明したが、本発明の情報処理装置は、スマートフォンに限らず、タッチパネル式の表示手段を備えるものであれば、パーソナルコンピュータ、タブレット端末、デジタルカメラ、携帯用ゲーム機器、電子書籍リーダー等であってもよい。
また、上記の実施形態では、具体的に、暗記カードを順次表示するアプリケーションソフトの実行中にナビゲーション画像を表示する例について説明したが、本発明の適用例はこれに限定されるものではない。例えば、デジタルカメラにおいて撮影した画像を順次再生する際にナビゲーション画像を表示することも可能である。この場合、ナビゲーション画像としては、次の画像を表示することを暗示する画像、現在の画像が誤って削除されないようにプロテクトをかけること及び次の画像を表示することを暗示する画像、現在の画像を削除すること及び次の画像を表示することを暗示する画像、前の画像を表示することを暗示する画像を用いることができる。
更に、上記の実施形態では、一例として、四つのナビゲーション画像を記憶手段に記憶しておき、表示手段の画面を四つの領域に区分する場合について説明したが、二つ、三つ、又は五つ以上のナビゲーション画像を記憶手段に記憶しておき、表示手段の画面を記憶手段に記憶されているナビゲーション画像の数と同じ数の領域に区分するようにしてもよい。
また、上記の実施形態では、一つのナビゲーション画像が一つの処理に対応付けられている場合について説明したが、二以上のナビゲーション画像が一つの処理に対応づけられていてもよい。この場合、領域特定情報生成手段は、表示手段の画面を、ジェスチャ操作の態様に応じて実行される複数種類の処理の数と同じ数の領域に区分し、それらの領域のうち少なくとも一つに領域については当該領域を特定する領域特定情報を、同じ一つの処理に対応付けられた二以上のナビゲーション画像と関連付けて記憶手段に記憶する。これにより、指が当該領域に移動すると、当該二以上のナビゲーション画像が表示手段の画面に表示されることになる。
更に、上記の実施形態では、操作者が指をタッチパネル式の表示手段の画面に接触させてジェスチャ操作を行う場合について説明したが、操作者は、スタイラスを手に持ち、そのスタイラスをタッチパネル式の表示手段の画面に接触させてジェスチャ操作を行うようにしてもよい。
加えて、本発明は、コンピュータを、上記の実施形態における監視手段41、基準位置決定手段42、領域特定情報生成手段43、判定手段44、制御手段45として機能させるためのプログラムであってもよい。
以上説明したように、本発明に係る情報処理装置及びプログラムによれば、ナビゲーション情報を表示する処理が簡単であるので、指又はスタイラスが動き出せばすぐにナビゲーション情報を表示することができ、また、誤ったナビゲーション情報を表示してしまうことはない。しかも、ジェスチャ操作の継続中に指又はスタイラスがある領域から他の領域に移動すると、表示手段の画面に表示されるナビゲーション情報を当該他の領域と関連付けられたものに直ちに切り替えて表示することができる。このため、操作者はジェスチャ操作の継続中に表示されるナビゲーション情報を見て、当該ジェスチャ操作によりどのような処理が行われるかを容易に理解することができる。したがって、本発明は、タッチパネル式の表示手段を有するスマートフォン、タブレット端末、デジタルカメラ等に適用することができる。
10 表示手段
20 タッチパネル
21 接触位置検知手段
30 記憶手段
40 中央処理装置
41 監視手段
42 基準位置決定手段
43 領域特定情報生成手段
44 判定手段
45 制御手段

Claims (5)

  1. 指又はスタイラスをタッチパネル式の表示手段の画面に接触させてそのまま指又はスタイラスを移動するというジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートする情報処理装置であって、
    前記ジェスチャ操作の態様に応じて実行される各種の処理に対応して設けられた、当該処理の内容を暗示するナビゲーション情報が記憶されている記憶手段と、
    指又はスタイラスが前記表示手段の画面に接触したときに指又はスタイラスが接触した画面の位置を検知し、その検知した位置を示す接触位置情報を出力する接触位置検知手段と、
    前記接触位置検知手段から出力される、前記ジェスチャ操作が開始されたときの前記接触位置情報に基づいて、指又はスタイラスが接触した画面の位置のうち基準となる基準位置を決定する基準位置決定手段と、
    前記基準位置決定手段によって前記基準位置が決定されたときに、その決定された前記基準位置に基づいて前記表示手段の画面を、所定数の領域に区分し、その区分した複数の領域の各々について当該領域を特定するための領域特定情報を生成して所定の前記ナビゲーション情報と関連付けて前記記憶手段に記憶する領域特定情報生成手段と、
    前記接触位置検知手段から出力された前記接触位置情報と前記記憶手段に記憶されている前記各領域特定情報とに基づいて、前記ジェスチャ操作が継続している間、指又はスタイラスが移動したときに指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちのどの領域に含まれているかを判定し、その判定結果を出力する判定手段と、
    前記判定手段から指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちの一の領域に含まれていることを示す前記判定結果が送られたときに、その含まれている前記領域と関連付けられた前記ナビゲーション情報を前記記憶手段から読み出して前記表示手段の画面上における所定位置に表示する制御手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記制御手段は、前記判定手段から指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちの一の領域に含まれていることを示す前記判定結果が送られたときに、その含まれている前記領域と関連付けられた前記ナビゲーション情報を、指又はスタイラスが現在接触している画面の位置を基準としてその近傍の位置に表示することを特徴とする請求項1記載の情報処理装置。
  3. 前記接触位置検知手段から出力された前記接触位置情報に基づいて、前記ジェスチャ操作が未だ行われていない場合にあっては前記ジェスチャ操作が開始されたかどうかを監視し、前記ジェスチャ操作が開始された場合にあってはそのジェスチャ操作が継続中であるかそのジェスチャ操作が終了したかを監視し、その監視結果を出力する監視手段を更に備え、
    前記基準位置決定手段は、前記監視手段から前記ジェスチャ操作が開始されたことを示す前記監視結果が送られたときに、当該ジェスチャ操作が開始されたときの前記接触位置情報に基づいて前記基準位置を決定して、その決定した前記基準位置に関する情報を前記記憶手段に記憶し、
    前記判定手段は、前記監視手段から前記ジェスチャ操作が継続中であることを示す前記監視結果が送られている間、前記接触位置検知手段から出力された前記接触位置情報と前記記憶手段に記憶されている前記基準位置に関する情報及び前記各領域特定情報とに基づいて、指又はスタイラスが現在接触している画面の位置に前記基準位置が含まれているかどうか、指又はスタイラスが現在接触している画面の位置に前記基準位置が含まれていない場合には指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちのどの領域に含まれているかを判定して、その判定結果を出力し、
    前記制御手段は、前記判定手段から指又はスタイラスが現在接触している画面の位置に前記基準位置が含まれていることを示す前記判定結果が送られたときに、前記複数のナビゲーション情報のいずれも前記表示手段の画面には表示せず、前記判定手段から指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちの一の領域に含まれていることを示す前記判定結果が送られたときに、その含まれている前記領域と関連付けられた前記ナビゲーション情報を前記表示手段の画面に表示し、一方、前記監視手段から前記ジェスチャ操作が終了したことを示す前記監視結果が送られたときに、前記複数のナビゲーション情報のいずれも前記表示手段の画面に表示せず、当該監視結果が送られた際に前記表示手段の画面に表示されていた前記ナビゲーション情報に対応する処理を実行することを特徴とする請求項1又は2記載の情報処理装置。
  4. 前記監視手段は、前記ジェスチャ操作が継続中である場合、前記接触位置検知手段から出力された前記接触位置情報に基づいて、指又はスタイラスが前記表示手段の画面から離れたと判断したとき、又は、指又はスタイラスが前記表示手段の画面の端に位置していると判断したときに、そのジェスチャ操作が終了したことを示す前記監視結果を出力することを特徴とする請求項3記載の情報処理装置。
  5. コンピュータを利用して、指又はスタイラスをタッチパネル式の表示手段の画面に接触させてそのまま指又はスタイラスを移動するというジェスチャ操作が行われたときにそのジェスチャ操作によりどのような処理が実行されるのかをナビゲートするプログラムであって、
    前記コンピュータが、前記ジェスチャ操作の態様に応じて実行される各種の処理に対応して設けられた、当該処理の内容を暗示するナビゲーション情報が記憶されている記憶手段と、指又はスタイラスが前記表示手段の画面に接触したときに指又はスタイラスが接触した画面の位置を検知し、その検知した位置を示す接触位置情報を出力する接触位置検知手段とを有する場合に、
    このコンピュータに、
    前記接触位置検知手段から出力される、前記ジェスチャ操作が開始されたときの前記接触位置情報に基づいて、指又はスタイラスが接触した画面の位置のうち基準となる基準位置を決定する基準位置決定機能と、
    前記基準位置決定機能によって前記基準位置が決定されたときに、その決定された前記基準位置に基づいて前記表示手段の画面を、所定数の領域に区分し、その区分した複数の領域の各々について当該領域を特定するための領域特定情報を生成して所定の前記ナビゲーション情報と関連付けて前記記憶手段に記憶する領域特定情報生成機能と、
    前記接触位置検知手段から出力された前記接触位置情報と前記記憶手段に記憶されている前記各領域特定情報とに基づいて、前記ジェスチャ操作が継続している間、指又はスタイラスが移動したときに指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちのどの領域に含まれているかを判定し、その判定結果を出力する判定機能と、
    指又はスタイラスが現在接触している画面の位置が前記複数の領域のうちの一の領域に含まれていることを示す前記判定結果を受けたときに、その含まれている前記領域と関連付けられた前記ナビゲーション情報を前記記憶手段から読み出して前記表示手段の画面上における所定位置に表示する制御機能と、
    を実現させることを特徴とするプログラム。
JP2013270352A 2013-12-26 2013-12-26 情報処理装置 Pending JP2015125645A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270352A JP2015125645A (ja) 2013-12-26 2013-12-26 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270352A JP2015125645A (ja) 2013-12-26 2013-12-26 情報処理装置

Publications (1)

Publication Number Publication Date
JP2015125645A true JP2015125645A (ja) 2015-07-06

Family

ID=53536299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270352A Pending JP2015125645A (ja) 2013-12-26 2013-12-26 情報処理装置

Country Status (1)

Country Link
JP (1) JP2015125645A (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305535A (ja) * 1995-05-08 1996-11-22 Fuji Xerox Co Ltd 情報表示装置
US20070168890A1 (en) * 2006-01-13 2007-07-19 Microsoft Corporation Position-based multi-stroke marking menus
JP2008009669A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの文字認識方法及び文字入力方法
JP2008009668A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの駆動方法及び入力方法
JP2011238200A (ja) * 2010-04-15 2011-11-24 Tokyo Anagram Co Ltd 情報処理装置、オブジェクト処理方法及びプログラム
JP2011253230A (ja) * 2010-05-31 2011-12-15 Tokyo Anagram Co Ltd 検索装置、検索条件生成方法及びプログラム
JP2012123689A (ja) * 2010-12-09 2012-06-28 Stanley Electric Co Ltd タッチパネルを有する情報処理装置及び情報処理方法
JP2012128100A (ja) * 2010-12-14 2012-07-05 Aisin Aw Co Ltd 情報表示装置、情報表示方法及びプログラム
JP2012133481A (ja) * 2010-12-20 2012-07-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び端末装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305535A (ja) * 1995-05-08 1996-11-22 Fuji Xerox Co Ltd 情報表示装置
US20070168890A1 (en) * 2006-01-13 2007-07-19 Microsoft Corporation Position-based multi-stroke marking menus
JP2008009669A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの文字認識方法及び文字入力方法
JP2008009668A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの駆動方法及び入力方法
JP2011238200A (ja) * 2010-04-15 2011-11-24 Tokyo Anagram Co Ltd 情報処理装置、オブジェクト処理方法及びプログラム
JP2011253230A (ja) * 2010-05-31 2011-12-15 Tokyo Anagram Co Ltd 検索装置、検索条件生成方法及びプログラム
JP2012123689A (ja) * 2010-12-09 2012-06-28 Stanley Electric Co Ltd タッチパネルを有する情報処理装置及び情報処理方法
JP2012128100A (ja) * 2010-12-14 2012-07-05 Aisin Aw Co Ltd 情報表示装置、情報表示方法及びプログラム
JP2012133481A (ja) * 2010-12-20 2012-07-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び端末装置

Similar Documents

Publication Publication Date Title
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
JP5962085B2 (ja) 表示制御装置、その制御方法およびプログラム
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
US11435870B2 (en) Input/output controller and input/output control program
US9146667B2 (en) Electronic device, display system, and method of displaying a display screen of the electronic device
KR102252807B1 (ko) 가상 객체를 조작하기 위한 방법 및 디바이스, 및 저장 매체
JP6022807B2 (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法
JP2008065504A (ja) タッチパネル制御装置およびタッチパネル制御方法
JP2016057759A (ja) 電子機器、方法およびプログラム
JP5984722B2 (ja) 情報処理装置
US20170351423A1 (en) Information processing apparatus, information processing method and computer-readable storage medium storing program
US10019141B2 (en) Information processing apparatus, information display program, and information display method for controlling a cursor position in a text region and a display region
JPWO2018179552A1 (ja) タッチパネル装置を備えた分析装置、その表示制御方法、及びプログラム
US9996215B2 (en) Input device, display control method, and integrated circuit device
JP5908326B2 (ja) 表示装置および表示プログラム
JP2015125645A (ja) 情報処理装置
EP2296081A1 (en) Image processing apparatus and method of controlling the same
JPWO2013089012A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6087602B2 (ja) 電子黒板
JP6872883B2 (ja) 表示制御装置、表示システム、表示方法及びプログラム
JP2009301523A (ja) タッチパネル式操作電子機器
JP2015049837A (ja) 携帯端末装置
JP6032982B2 (ja) 入力支援装置、入力支援方法、入力支援プログラム及び記録媒体
JP6121272B2 (ja) 波形表示装置、波形表示方法および波形表示プログラム
JP2015176483A (ja) 画像処理プログラム、画像処理方法、及び情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180918