JP2005044026A - Instruction execution method, instruction execution program and instruction execution device - Google Patents
Instruction execution method, instruction execution program and instruction execution device Download PDFInfo
- Publication number
- JP2005044026A JP2005044026A JP2003201016A JP2003201016A JP2005044026A JP 2005044026 A JP2005044026 A JP 2005044026A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2005044026 A JP2005044026 A JP 2005044026A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- objects
- operator
- displayed
- instruction execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムおよび命令実行装置に関する。
【0002】
【従来の技術】
画面上のオブジェクト(ボタン、アイコンなど)に指で触れることで、文字入力やメニュー選択などの各種命令(コマンド)を実行できるタッチパネルは、操作者がキーボードに不慣れであったり、キーボードを設置する物理的スペースがなかったりする場合の入力手段として、パーソナル・コンピュータのほかPDA、ATM、カーナビゲーションシステムなどに広く利用されている。
【0003】
そしてこのタッチパネルについては、従来から、入力を容易化するためのさまざまな工夫が提案されてきた。たとえば、タッチパネルのキー入力に対応するキー画像を拡大する、というものである(たとえば、特許文献1参照。)。
【0004】
また、タッチパネルでは複数のキーを同時に押下してしまう場合が多いため、押下された複数のシンボル領域を拡大するもの(たとえば、特許文献2参照。)、表示されている画像情報の大きさを変更するもの(たとえば、特許文献3参照。)、最初に押下されたキーを中心に拡大表示し指を離すと元に戻るもの(たとえば、特許文献4参照。)、押下された複数のキーを含む分割キーボードを拡大表示するもの(たとえば、特許文献5参照。)、あらかじめ複数キー配列から入力しやすいものを選択したり、押下された複数のキーの周辺を拡大したり、あるいは電卓などの機能単位で拡大したりするもの(たとえば、特許文献6参照。)がある。
【0005】
さらに、操作者の指示により拡大画像を表示する際の工夫については、拡大画像を原画像全体と重ならない位置に表示するものがある(たとえば、特許文献7参照。)。
【0006】
【特許文献1】
特許第2595045号公報
【特許文献2】
特許第2531416号公報
【特許文献3】
特開昭63−004322号公報
【特許文献4】
特開2002−91677号公報
【特許文献5】
特開平8−234909号公報
【特許文献6】
特許第3235480号公報
【特許文献7】
特開2000−250681号公報
【0007】
【発明が解決しようとする課題】
しかしながら上記例のように、押下された複数のオブジェクトを単純に拡大表示する方式では、画面イメージが大幅に変化するため、それまで表示できていた必要情報が隠れてしまうことがある。また、拡大された領域が依然として入力しづらいものであった場合、拡大画像のどの部分に触れたらよいのかを認識するのに時間がかかる。
【0008】
さらに、拡大画像を原画像にかからない位置に表示する方式では、原画像の全体表示にこだわるあまり、拡大画像を表示するための十分な領域が確保できず、依然として操作性の問題が残ってしまうという問題があった。
【0009】
この発明は上記従来技術による問題を解決するため、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、この発明にかかる命令実行方法、命令実行プログラムまたは命令実行装置は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムまたは命令実行装置において、画面上で押圧された位置の座標から操作者が指定したオブジェクトを特定し、オブジェクトが一つに特定できないときは上記オブジェクトの候補となる複数のオブジェクトの強調画像を表示して、その状態で画面上の任意の場所が押圧された場合に、その時点で選択中のオブジェクト(フォーカスが位置しているオブジェクト)に対応する命令を実行する。
【0011】
上記発明によれば、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができる。
【0012】
なお、本発明でいう「押圧」の意味は、実際にタッチパネルなどに圧力を加える場合のみをいうものではなく、人の指などの接触や接近を感知し、それによってオブジェクトを選択する場合の「接触」や「接近」を含むものとする。
【0013】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる命令実行方法、命令実行プログラムおよび命令実行装置の好適な実施の形態を詳細に説明する。
【0014】
図1は、本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。本発明の実施の形態による命令実行装置は、具体的にはタッチパネル100を具備したパーソナル・コンピュータである。そしてそのHD(ハードディスク)には、電卓機能すなわち仮想的な計算機を表示して、操作者の指示によりリアルタイムに四則演算などを行うプログラムが保持されている。
【0015】
図示する各部のうち、記憶部103は上記HDによって実現され、また表示制御部102、入力座標算出部104、出力座標算出部105および命令実行部106は、CPU(プロセッサ)がHDからRAMに読み出した上記プログラムを実行することにより実現される。なお、このプログラムはHDのほか、FD、CD−RW、MOなどの各種の記録媒体に格納して配布することができ、ネットワークを介して配布することも可能である。
【0016】
また、図2は本発明の実施の形態による命令実行装置における、命令実行処理(タッチパネル100からの入力を受け付けて各種命令を実行する処理)の手順を示すフローチャートである。以下、図2に示す手順に沿って、図1に示した各部の機能を順次説明する。
【0017】
上記装置はまず表示制御部102の画像読み出し部102aにより、たとえば図3に示すような操作画面のデータを記憶部103から読み出して、出力座標算出部105に出力する。出力座標算出部105は、ディスプレイ101上で上記画面を表示すべき位置(出力座標)を算出するとともに、当該位置に当該画面を出力(表示)する(ステップS201)。
【0018】
この状態でディスプレイ101の前面のタッチパネル100が指などにより押圧されると(ステップS202:Yes)、タッチパネル100から所定の入力信号が入力座標算出部104に出力され、入力座標算出部104は上記信号から、押圧された画面位置(入力座標)を算出する(ステップS203)。
【0019】
ここで算出された入力座標は、入力座標算出部104から表示制御部102のオブジェクト特定部102bに出力され、オブジェクト特定部102bにより、入力座標とディスプレイ101に表示中の各オブジェクトの座標(後者の座標は出力座標算出部105が管理している)とが照合される。
【0020】
そしてオブジェクト特定部102bは、押圧されたオブジェクトが一つに特定できない場合、たとえば入力座標がオブジェクトAの表示領域とオブジェクトBの表示領域の双方にまたがっている場合に(ステップS204:No)、画像読み出し部102aに指示して、記憶部103から上記各オブジェクトの強調画像を読み出させる(ステップS205)。
【0021】
たとえば図3に示した操作画面で、指でタッチされた位置が「9」ボタン300と「÷」ボタン301の双方にまたがっていた場合、上記で取り出される強調画像は、具体的には図4に示すような2つの画像(「9」ボタン300と「÷」ボタン301の拡大画像)である。すなわち、どれと一つには特定できないが、操作者が意図したオブジェクトである可能性のある複数の候補の、それぞれの強調画像が読み出される。
【0022】
なお、強調の具体的な形態はここでは拡大であるが、拡大に限定しない何らかの変形、色や輝度の変更、点滅や明滅、あるいは自動音声によるオブジェクト名の読み上げなど強調の形態は任意である。要するに通常の表示形態よりも「目立つ」形態であれば何であってもよい。
【0023】
また、ここではあらかじめ記憶部103に各オブジェクトの強調画像を用意しておくようにしたが、複数のオブジェクトが押圧される都度、それぞれの強調画像を通常の画像から作成するようにしてもよい。
【0024】
上記各画像は、画像読み出し部102aから出力座標算出部105に出力され、出力座標算出部105は、ディスプレイ101上で当該画像を表示すべき位置(出力座標)を算出する(ステップS206)。この出力座標は、たとえば入力座標の平均値(中央)を中心として、その周囲に各オブジェクトの強調画像が等間隔に配置されるよう決められる。あるいは、現在表示中の各オブジェクト(通常サイズ)の表示領域の中心と、再表示後の各オブジェクト(拡大サイズ)の表示領域の中心とが一致するように決めてもよい。
【0025】
ただしこのとき、再表示後のオブジェクトの表示領域があらかじめ指定された領域に重なってしまう場合は(ステップS207:Yes)、出力座標算出部105は上記で算出した出力座標を、当該領域と重複しないように補正する(ステップS208)。
【0026】
この領域とは、ここではたとえば入力文字領域302(タッチパネル100から入力された文字がエコー表示される領域)であるものとする。ステップS206で算出した座標のままだと、拡大後のオブジェクトの上端が入力文字領域302にかかってしまう場合、ステップS208で強調画像の出力座標を、その背後に入力文字が隠れてしまわない位置まで下方向に補正する。その後ディスプレイ101の、上記で算出(必要に応じて補正)した位置に、上記各画像を出力(表示)する(ステップS209)。
【0027】
一方、表示制御部102のフォーカス制御部102cは、強調表示された複数のオブジェクトのうち一つをフォーカスの位置するオブジェクトとして選択するとともに(ステップS210)、当該オブジェクトの識別情報、すなわちどのオブジェクトを選択したかを出力座標算出部105に通知する。
【0028】
そして出力座標算出部105では、選択されたオブジェクト(強調表示中)の現在の表示領域から、たとえばその外縁もしくは外枠にあたる領域の座標を算出し(ステップS211)、ディスプレイ101の当該位置にカーソルを出力(表示)する(ステップS212)。
【0029】
図5は、このステップS212の直後の操作画面の一例を示す説明図である。図示するように、図3に示したボタン300・301がそれぞれボタン500・501に拡大されるとともに(ボタン500・501は入力文字領域502を避けて表示されていることに注意)、選択されたボタン500の周囲にカーソル503が表示されている。
【0030】
一方、表示制御部102の時間計測部102dはステップS210の選択の時点から経過時間の計測を開始し、何の入力もないまま所定時間(たとえば1秒)が経過すると(ステップS213:No、ステップS214:Yes)、その旨の信号をフォーカス制御部102cに出力する。
【0031】
これを受けたフォーカス制御部102cでは、前回選択したのとは別のオブジェクトを一つ選択し(ステップS210)、この結果たとえば図5の画面でボタン500に位置していたカーソル503が、ボタン501の位置に再表示(移動)される(ステップS211・S212)。
【0032】
なお、時間計測部102dにより計測される所定時間は、あらかじめ操作者が自由に設定できる。一般に、パーソナル・コンピュータやPDAなどではこの時間は短めでよいが、カーナビゲーションシステムのように、操作者が入力に集中できるとは限らない装置では、より長めに設定しておくほうが使いやすい。
【0033】
また、ここでは強調表示中に何らかの入力がない限り、フォーカスは各オブジェクトをサイクリックに巡回してゆくようにしたが、たとえばあらかじめ設定した回数だけステップS210〜S214を繰り返しても何の入力もなかった場合は、ステップS209で表示した強調画像を消去して、図3の操作画面に戻るようにしてもよい。
【0034】
また、フォーカスの巡回順序はどのようであってもよく、左上隅→右上隅→左下隅→右下隅のようなZ型の移動のほか、操作者が意図したオブジェクトである可能性がより高いオブジェクト(たとえば入力座標の大半がそのオブジェクトの表示領域に含まれるようなオブジェクト)を、優先的にフォーカスするようにしてもよい。
【0035】
一方、図5の画面が表示された状態でタッチパネル100のどこか(場所は問わない)が押圧されると(ステップS213:Yes)、入力座標算出部104により算出された入力座標が、表示制御部102のオブジェクト特定部102bに出力される。
【0036】
そしてオブジェクト特定部102bは、現在フォーカスが位置しているオブジェクトがどれであるかをフォーカス制御部102cに問い合わせ、当該オブジェクトの識別情報を命令実行部106(上記識別情報に対応する命令の実行を制御する機能部)に出力する(ステップS215)。
【0037】
なお、ステップS204でオブジェクトを一意に特定できる場合は(ステップS204:Yes)、ステップS205〜S214を省略して直接ステップS215で、当該オブジェクトの識別情報を出力する。
【0038】
以上説明した実施の形態によれば、誤って同時に複数のオブジェクトに触れてしまった場合、それら複数のオブジェクトが強調表示(たとえば拡大表示)されるとともに、いずれか一つに位置するフォーカスが一定の時間間隔で順次移動してゆく。そして、あるオブジェクトにフォーカスが位置している間に、タッチパネル100の任意の場所に触れるだけで、当該オブジェクトに対応する入力を行うことができる。
【0039】
このように、画面全体や入力座標の周辺領域でなく、ボタンなどのオブジェクトのみを強調表示するので、画面がちらついて入力しづらくなることはない。また、強調表示中はタッチパネル100のどこに触れても、フォーカスのあるオブジェクトに対する入力とみなされるので、強調後の画面で触れるべき場所を改めて探す必要もなく、迅速かつ正確に入力を行うことができる。
【0040】
したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができるので、これによって、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能となる。
【0041】
さらに、入力結果や入力に不可欠な情報を表示していて、オブジェクトの背後に隠れてしまうのは望ましくない領域、具体的にはたとえば入力文字領域502は避けるようにしてオブジェクトが拡大されるので、強調によりかえって入力がしづらくなることもない。
【0042】
なお、上述した実施の形態は押圧されたオブジェクトが2つの例であるが、この個数はいくつであってもよい。たとえば図6はソフトウエアキーボードの画面の一例、図7は図6の画面で、入力座標が「I」「O」「K]「L」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。「O」に位置しているフォーカスの表現が、上述した実施の形態と若干異なる(外縁上のカーソルのほか、オブジェクトそのものにも網掛けがなされている)以外は、基本的に図5と同様である。
【0043】
また、フォーカスは上記のほか、オブジェクトの点滅などによっても表現することができる。たとえば図8はスクロールバーを備えたウィンドウの一例、図9は図8の画面で、入力座標が上スクロールボタン800と下スクロールボタン801の双方にまたがっていた場合の強調表示の一例である。ボタン800・801がそれぞれボタン900・901に拡大されるとともに、フォーカス中のボタン900は点滅表示になっている。
【0044】
なお、上記例では強調後のオブジェクトが、ウィンドウ内のデータ(スクロールされる領域内のデータ)を隠してしまわないように、ウィンドウの外側方向へ向かってボタン800・801が拡大されている。
【0045】
また、上記はいずれもパーソナル・コンピュータの画面例であるが、本発明はタッチパネル100とディスプレイ101を備えたどんな機器にも応用することができる。たとえば図10はカレンダーの表示機能を備えた携帯電話の画面の一例、図11は図10の画面で、入力座標が「8」「9」「15」「16」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。図11の画面も本質的に、図5や図7、図9の画面と変わるところがない。
【0046】
特にディスプレイ101が小さい携帯電話のような機器では、誤って一度に複数のオブジェクトを押してしまいがちであるが、本発明によればその場合も、目的のオブジェクトにフォーカスが巡回してくるのを待って、画面上の適当な場所に触れればよいだけなので、誤操作を容易に修正できる。
【0047】
なお、本実施の形態における命令実行方法は、あらかじめ用意されたコンピュータ読み取り可能なプログラムであってもよく、またそのプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現される。このプログラムは、HD(ハードディスク)、FD(フレキシブルディスク)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
【0048】
(付記1)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。
【0049】
(付記2)前記操作者により指定されたオブジェクトが一つに特定できない場合が、前記入力座標算出工程で算出された座標が前記画面上に表示された複数のオブジェクトの表示領域にまたがっている場合であることを特徴とする前記付記1に記載の命令実行方法。
【0050】
(付記3)前記強調画像表示工程では、前記画面上で所定の情報が表示されている表示領域を避けて前記強調画像を表示することを特徴とする前記付記1または付記2に記載の命令実行方法。
【0051】
(付記4)前記オブジェクト選択工程では、前回の選択から所定時間を経過すると前記複数のオブジェクトのうち前回選択したオブジェクトに代えて別のオブジェクトを選択することを特徴とする前記付記1〜付記3のいずれか一つに記載の命令実行方法。
【0052】
(付記5)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。
【0053】
(付記6)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
【0054】
【発明の効果】
以上説明したように本発明によれば、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置が得られるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。
【図2】本発明の実施の形態による命令実行装置における、命令実行処理の手順を示すフローチャートである。
【図3】本発明の実施の形態による命令実行装置の操作画面(通常表示画面)の一例を示す説明図である。
【図4】図3に示した操作画面中のオブジェクト300・301の強調画像の一例を示す説明図である。
【図5】本発明の実施の形態による命令実行装置の操作画面(強調表示画面)の一例を示す説明図である。
【図6】操作画面(通常表示画面)の他の一例を示す説明図である。
【図7】操作画面(強調表示画面)の他の一例を示す説明図である。
【図8】操作画面(通常表示画面)の他の一例を示す説明図である。
【図9】操作画面(強調表示画面)の他の一例を示す説明図である。
【図10】操作画面(通常表示画面)の他の一例を示す説明図である。
【図11】操作画面(強調表示画面)の他の一例を示す説明図である。
【符号の説明】
100 タッチパネル
101 ディスプレイ
102 表示制御部
102a 画像読み出し部
102b オブジェクト特定部
102c フォーカス制御部
102d 時間計測部
103 記憶部
104 入力座標算出部
105 出力座標算出部
106 命令実行部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an instruction execution method, an instruction execution program, and an instruction execution apparatus that specify an object designated by an operator from among a plurality of objects displayed on a screen and execute an instruction corresponding to the object.
[0002]
[Prior art]
A touch panel that can execute various commands (commands) such as character input and menu selection by touching an object (button, icon, etc.) on the screen with a finger is not familiar with the keyboard or is physically installed on the keyboard. As an input means when there is not enough space, it is widely used in personal computers, PDAs, ATMs, car navigation systems, and the like.
[0003]
And about this touch panel, conventionally, various devices for facilitating input have been proposed. For example, the key image corresponding to the key input on the touch panel is enlarged (for example, see Patent Document 1).
[0004]
In addition, since a plurality of keys are often pressed simultaneously on the touch panel, a plurality of pressed symbol areas are enlarged (see, for example, Patent Document 2), and the size of displayed image information is changed. Including a plurality of pressed keys (for example, see Patent Document 3), an enlarged display centered on a key pressed first, and returning to the original when the finger is released (for example, see Patent Document 4). A unit that displays a divided keyboard in an enlarged manner (see, for example, Patent Document 5), an item that can be easily input from a plurality of key arrangements, a region around a plurality of pressed keys, or a functional unit such as a calculator (For example, refer to Patent Document 6).
[0005]
Further, as a device for displaying an enlarged image according to an instruction from an operator, there is one that displays an enlarged image at a position that does not overlap the entire original image (see, for example, Patent Document 7).
[0006]
[Patent Document 1]
Japanese Patent No. 2595045 [Patent Document 2]
Japanese Patent No. 2531416 [Patent Document 3]
JP-A 63-004322 [Patent Document 4]
JP 2002-91677 A [Patent Document 5]
JP-A-8-234909 [Patent Document 6]
Japanese Patent No. 3235480 [Patent Document 7]
Japanese Patent Laid-Open No. 2000-250681
[Problems to be solved by the invention]
However, in the method of simply enlarging and displaying a plurality of pressed objects as in the above example, since the screen image changes significantly, necessary information that has been displayed until then may be hidden. Also, if the enlarged area is still difficult to input, it takes time to recognize which part of the enlarged image should be touched.
[0008]
Furthermore, in the method of displaying the enlarged image at a position that does not cover the original image, it is not possible to secure a sufficient area for displaying the enlarged image because the entire original image is displayed, and operability problems still remain. There was a problem.
[0009]
In order to solve the above-described problems caused by the prior art, the present invention provides an instruction execution method capable of assisting an operator so that an object on a screen can be specified accurately and easily in order to instruct various processes including character input. An object is to provide an instruction execution program and an instruction execution device.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems and achieve the object, an instruction execution method, an instruction execution program, or an instruction execution apparatus according to the present invention specifies a plurality of objects displayed on a screen that are designated by an operator. In the command execution method, command execution program, or command execution device that executes the command corresponding to the object, the object specified by the operator is identified from the coordinates of the pressed position on the screen, and the object is identified as one. When it is not possible, a highlighted image of a plurality of objects that are candidates for the above object is displayed, and when an arbitrary place on the screen is pressed in that state, the currently selected object (the focus is located) The instruction corresponding to the (object) is executed.
[0011]
According to the above invention, even when a plurality of objects are accidentally touched at the same time, the focus can be placed at any place on the screen at the timing when the focused object (specifically, enlarged) is focused. Just by touching, an instruction corresponding to the object can be executed in the same manner as when only the target object is touched.
[0012]
Note that the meaning of “press” in the present invention does not only refer to the case where pressure is actually applied to the touch panel or the like, but “sense” when a person's finger or the like is touched or approached to thereby select an object. Includes “contact” and “approach”.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an instruction execution method, an instruction execution program, and an instruction execution apparatus according to the present invention will be explained below in detail with reference to the accompanying drawings.
[0014]
FIG. 1 is an explanatory diagram functionally showing the configuration of the instruction execution device according to the embodiment of the present invention. The instruction execution apparatus according to the embodiment of the present invention is specifically a personal computer provided with a
[0015]
Among the units shown in the figure, the
[0016]
FIG. 2 is a flowchart showing a procedure of command execution processing (processing for receiving various inputs from touch panel 100) in the command execution device according to the embodiment of the present invention. In the following, the function of each unit shown in FIG. 1 will be described in order according to the procedure shown in FIG.
[0017]
First, the apparatus reads out, for example, operation screen data as shown in FIG. 3 from the
[0018]
When the
[0019]
The input coordinates calculated here are output from the input coordinate
[0020]
Then, when the pressed object cannot be identified as one object, for example, when the input coordinates extend over both the display area of the object A and the display area of the object B (step S204: No), the image is displayed. The
[0021]
For example, when the position touched with the finger on the operation screen shown in FIG. 3 extends over both the “9”
[0022]
Although the specific form of emphasis is enlargement here, the form of emphasis is arbitrary, such as some deformation not limited to enlargement, change of color and brightness, blinking or blinking, or reading out the object name by automatic voice. In short, any form may be used as long as it is more conspicuous than the normal display form.
[0023]
In addition, here, the emphasis image of each object is prepared in advance in the
[0024]
Each image is output from the
[0025]
However, at this time, when the display area of the object after re-displaying overlaps the area designated in advance (step S207: Yes), the output coordinate
[0026]
Here, it is assumed that this area is, for example, an input character area 302 (an area where characters input from the
[0027]
On the other hand, the
[0028]
Then, the output coordinate
[0029]
FIG. 5 is an explanatory diagram showing an example of the operation screen immediately after step S212. As shown in the figure, the
[0030]
On the other hand, the
[0031]
In response to this, the
[0032]
The predetermined time measured by the
[0033]
Here, unless there is any input during highlighting, the focus is cyclically circulated through each object. However, for example, there is no input even if steps S210 to S214 are repeated a preset number of times. In such a case, the highlighted image displayed in step S209 may be deleted and the operation screen of FIG. 3 may be returned.
[0034]
In addition, the order of the focus may be any order. In addition to Z-shaped movement such as upper left corner → upper right corner → lower left corner → lower right corner, an object that is more likely to be an object intended by the operator (For example, an object in which most of the input coordinates are included in the display area of the object) may be focused preferentially.
[0035]
On the other hand, when somewhere on the touch panel 100 (regardless of location) is pressed while the screen of FIG. 5 is displayed (step S213: Yes), the input coordinates calculated by the input coordinate
[0036]
Then, the
[0037]
If the object can be uniquely identified in step S204 (step S204: Yes), steps S205 to S214 are omitted, and the identification information of the object is directly output in step S215.
[0038]
According to the embodiment described above, when a plurality of objects are accidentally touched at the same time, the plurality of objects are highlighted (for example, enlarged display) and the focus located in any one of them is constant. Move sequentially at time intervals. Then, while the focus is on a certain object, an input corresponding to the object can be performed only by touching an arbitrary place on the
[0039]
As described above, since only the object such as the button is highlighted instead of the entire screen or the peripheral area of the input coordinates, the screen does not flicker and it is difficult to input. Further, any part of the
[0040]
Therefore, if you accidentally touch multiple objects at the same time, just touch anywhere on the screen when the highlighted object (specifically, enlargement) reaches the focus, Since it is possible to execute a command corresponding to the object as if only the target object was touched, it is possible to specify the object on the screen accurately and easily when instructing various processes including character input. It is possible to assist the operator so that it can be performed easily.
[0041]
In addition, since the input result and information essential for input are displayed and the object is enlarged so as to avoid an area that is not desirable to hide behind the object, specifically, for example, the
[0042]
In addition, although embodiment mentioned above is an example with two pressed objects, this number may be any number. For example, FIG. 6 shows an example of the screen of the software keyboard, and FIG. 7 shows an example of highlighting when the input coordinates span four objects of “I”, “O”, “K”, and “L” in the screen of FIG. It is. Basically the same as FIG. 5 except that the expression of the focus located at “O” is slightly different from the above-described embodiment (the object itself is shaded in addition to the cursor on the outer edge). It is.
[0043]
In addition to the above, the focus can be expressed by blinking of an object. For example, FIG. 8 is an example of a window having a scroll bar, and FIG. 9 is an example of highlighting when the input coordinates extend over both the up
[0044]
In the above example, the
[0045]
Although the above are examples of personal computer screens, the present invention can be applied to any device including the
[0046]
In particular, a device such as a mobile phone with a
[0047]
The instruction execution method in the present embodiment may be a computer-readable program prepared in advance, and is realized by executing the program on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as HD (hard disk), FD (flexible disk), CD-ROM, MO, and DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.
[0048]
(Supplementary note 1) In an instruction execution method for specifying an object designated by an operator from among a plurality of objects displayed on a screen and executing an instruction corresponding to the object,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution method comprising:
[0049]
(Supplementary Note 2) When the object specified by the operator cannot be specified as one, the coordinates calculated in the input coordinate calculation step span the display areas of a plurality of objects displayed on the screen The instruction execution method according to
[0050]
(Additional remark 3) In the said emphasized image display process, the said emphasized image is displayed avoiding the display area where the predetermined information is displayed on the said screen, The command execution of the said
[0051]
(Appendix 4) In the
[0052]
(Additional remark 5) It is the command execution program used when identifying the thing designated by the operator among the some objects displayed on the screen, and executing the command corresponding to the said object,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution program for causing a processor to execute the program.
[0053]
(Additional remark 6) In the command execution apparatus which specifies what was specified by the operator among the several objects displayed on the screen, and performs the command corresponding to the said object,
Input coordinate calculation means for calculating the coordinates of the position pressed on the screen;
Object specifying means for specifying the object specified by the operator from the coordinates calculated by the input coordinate calculating means;
An emphasized image display means for displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator when the object specifying means cannot identify one object;
An object selecting means for selecting one of a plurality of objects on which the emphasized image is displayed by the emphasized image display means;
A command execution unit that executes a command corresponding to the object selected by the object selection unit when an arbitrary place on the screen on which the highlight image is displayed by the highlight image display unit is pressed;
An instruction execution device comprising:
[0054]
【The invention's effect】
As described above, according to the present invention, a command execution method and command capable of assisting an operator so that an object on a screen can be specified accurately and easily when instructing various processes including character input. There is an effect that an execution program and an instruction execution device can be obtained.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram functionally showing the configuration of an instruction execution device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a procedure of instruction execution processing in the instruction execution apparatus according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram showing an example of an operation screen (normal display screen) of the instruction execution device according to the embodiment of the present invention.
4 is an explanatory diagram illustrating an example of an emphasized image of
FIG. 5 is an explanatory diagram showing an example of an operation screen (highlight display screen) of the instruction execution device according to the embodiment of the present invention.
FIG. 6 is an explanatory diagram showing another example of the operation screen (normal display screen).
FIG. 7 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
FIG. 8 is an explanatory diagram illustrating another example of the operation screen (normal display screen).
FIG. 9 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
FIG. 10 is an explanatory diagram illustrating another example of the operation screen (normal display screen).
FIG. 11 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。In an instruction execution method for executing an instruction corresponding to an object specified by an operator among a plurality of objects displayed on the screen,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution method comprising:
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。An instruction execution program used when executing an instruction corresponding to an object specified by an operator among a plurality of objects displayed on the screen,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution program for causing a processor to execute
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。In an instruction execution device that identifies an object specified by an operator among a plurality of objects displayed on the screen and executes an instruction corresponding to the object,
Input coordinate calculation means for calculating the coordinates of the position pressed on the screen;
Object specifying means for specifying the object specified by the operator from the coordinates calculated by the input coordinate calculating means;
An emphasized image display means for displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator when the object specifying means cannot identify one object;
An object selecting means for selecting one of a plurality of objects on which the emphasized image is displayed by the emphasized image display means;
A command execution unit that executes a command corresponding to the object selected by the object selection unit when an arbitrary place on the screen on which the highlight image is displayed by the highlight image display unit is pressed;
An instruction execution device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003201016A JP2005044026A (en) | 2003-07-24 | 2003-07-24 | Instruction execution method, instruction execution program and instruction execution device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003201016A JP2005044026A (en) | 2003-07-24 | 2003-07-24 | Instruction execution method, instruction execution program and instruction execution device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005044026A true JP2005044026A (en) | 2005-02-17 |
Family
ID=34261227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003201016A Pending JP2005044026A (en) | 2003-07-24 | 2003-07-24 | Instruction execution method, instruction execution program and instruction execution device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005044026A (en) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244231A (en) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | Input control unit, and input control method |
JP2006285598A (en) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | Touch panel device, operation support method for touch panel device, and operation support program for touch panel device |
JP2006340355A (en) * | 2005-05-30 | 2006-12-14 | Samsung Electronics Co Ltd | Method and system for inputting data |
JP2006338490A (en) * | 2005-06-03 | 2006-12-14 | Just Syst Corp | Input auxiliary device, input auxiliary method, input auxiliary program and computer readable recording medium |
JP2008059030A (en) * | 2006-08-29 | 2008-03-13 | Kyocera Mita Corp | Electronic device and program |
JP2009176227A (en) * | 2008-01-28 | 2009-08-06 | Panasonic Electric Works Co Ltd | Display device |
JP2009217687A (en) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | Touch panel input device and processing execution method |
JP2010049654A (en) * | 2008-08-25 | 2010-03-04 | Casio Hitachi Mobile Communications Co Ltd | Terminal device and program |
WO2010047048A1 (en) * | 2008-10-20 | 2010-04-29 | 三菱電機株式会社 | Touch panel device |
EP2252926A2 (en) * | 2008-03-11 | 2010-11-24 | Microsoft Corporation | Interpreting ambiguous inputs on a touch-screen |
JP2010271982A (en) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | Portable terminal device and program |
JP2010282311A (en) * | 2009-06-03 | 2010-12-16 | Fuji Xerox Co Ltd | Display controller, image processor, and program |
JP2011081678A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011081677A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011081676A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011107803A (en) * | 2009-11-13 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Information processor |
US7969421B2 (en) | 2003-10-29 | 2011-06-28 | Samsung Electronics Co., Ltd | Apparatus and method for inputting character using touch screen in portable terminal |
JP2011238294A (en) * | 2011-08-19 | 2011-11-24 | Clarion Co Ltd | Display device |
JP2011258241A (en) * | 2011-09-26 | 2011-12-22 | Kyocera Corp | Mobile electronic device and method of controlling the same |
JP2012058839A (en) * | 2010-09-06 | 2012-03-22 | Fuji Xerox Co Ltd | Information processor and program |
KR101127349B1 (en) | 2009-09-07 | 2012-03-29 | 이상용 | A method of inputting letters, numbers or marks using a touchscreen in a portable device |
US8151007B2 (en) | 2007-08-24 | 2012-04-03 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
JP2012094054A (en) * | 2010-10-28 | 2012-05-17 | Kyocera Mita Corp | Operation device and image forming apparatus |
JP2012094008A (en) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | Portable electronic equipment |
JP2012113725A (en) * | 2010-02-26 | 2012-06-14 | Copcom Co Ltd | Computer program and computer device |
CN102902474A (en) * | 2011-07-26 | 2013-01-30 | 柯尼卡美能达商用科技株式会社 | Image processing apparatus having touch panel |
CN102981707A (en) * | 2011-11-14 | 2013-03-20 | 微软公司 | Self-adaptive area cursor |
JP2013131181A (en) * | 2011-12-22 | 2013-07-04 | Kyocera Document Solutions Inc | Input device and processing apparatus |
WO2013128935A1 (en) * | 2012-03-01 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing device, operation condition notification method and non-temporary computer-readable medium |
US8854310B2 (en) | 2006-08-25 | 2014-10-07 | Kyocera Corporation | Portable electronic apparatus and operation detecting method of portable electronic apparatus |
JP2014215639A (en) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | Information processing device and control program |
US9170719B2 (en) | 2011-12-20 | 2015-10-27 | Sharp Kabushiki Kaisha | Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded |
EP2699986B1 (en) * | 2011-04-19 | 2019-03-20 | Hewlett-Packard Development Company, L.P. | Touch screen selection |
-
2003
- 2003-07-24 JP JP2003201016A patent/JP2005044026A/en active Pending
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9342156B2 (en) | 2003-10-29 | 2016-05-17 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9098120B2 (en) | 2003-10-29 | 2015-08-04 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9710162B2 (en) | 2003-10-29 | 2017-07-18 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US9891819B2 (en) | 2003-10-29 | 2018-02-13 | Samsung Electronics Co., Ltd. | Apparatus and method for inputting character using touch screen in portable terminal |
US7969421B2 (en) | 2003-10-29 | 2011-06-28 | Samsung Electronics Co., Ltd | Apparatus and method for inputting character using touch screen in portable terminal |
JP4530881B2 (en) * | 2005-03-04 | 2010-08-25 | クラリオン株式会社 | Input control device and input control method |
JP2006244231A (en) * | 2005-03-04 | 2006-09-14 | Xanavi Informatics Corp | Input control unit, and input control method |
JP2006285598A (en) * | 2005-03-31 | 2006-10-19 | Fujitsu Ten Ltd | Touch panel device, operation support method for touch panel device, and operation support program for touch panel device |
JP2006340355A (en) * | 2005-05-30 | 2006-12-14 | Samsung Electronics Co Ltd | Method and system for inputting data |
JP4553797B2 (en) * | 2005-06-03 | 2010-09-29 | 株式会社ジャストシステム | Input auxiliary device, input auxiliary method, input auxiliary program, and computer-readable recording medium |
JP2006338490A (en) * | 2005-06-03 | 2006-12-14 | Just Syst Corp | Input auxiliary device, input auxiliary method, input auxiliary program and computer readable recording medium |
US8854310B2 (en) | 2006-08-25 | 2014-10-07 | Kyocera Corporation | Portable electronic apparatus and operation detecting method of portable electronic apparatus |
JP4690272B2 (en) * | 2006-08-29 | 2011-06-01 | 京セラミタ株式会社 | Electronic device and program |
JP2008059030A (en) * | 2006-08-29 | 2008-03-13 | Kyocera Mita Corp | Electronic device and program |
US10071309B2 (en) | 2007-08-24 | 2018-09-11 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
US9616337B2 (en) | 2007-08-24 | 2017-04-11 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
US8151007B2 (en) | 2007-08-24 | 2012-04-03 | Nintendo Co., Ltd. | Information processing program and information processing apparatus |
JP2009176227A (en) * | 2008-01-28 | 2009-08-06 | Panasonic Electric Works Co Ltd | Display device |
EP2252926A2 (en) * | 2008-03-11 | 2010-11-24 | Microsoft Corporation | Interpreting ambiguous inputs on a touch-screen |
EP2252926A4 (en) * | 2008-03-11 | 2014-08-06 | Microsoft Corp | Interpreting ambiguous inputs on a touch-screen |
JP2011513880A (en) * | 2008-03-11 | 2011-04-28 | マイクロソフト コーポレーション | How to interpret ambiguous input on a touch screen |
JP2009217687A (en) * | 2008-03-12 | 2009-09-24 | Alpine Electronics Inc | Touch panel input device and processing execution method |
JP2010049654A (en) * | 2008-08-25 | 2010-03-04 | Casio Hitachi Mobile Communications Co Ltd | Terminal device and program |
JPWO2010047048A1 (en) * | 2008-10-20 | 2012-03-15 | 三菱電機株式会社 | Touch panel device |
WO2010047048A1 (en) * | 2008-10-20 | 2010-04-29 | 三菱電機株式会社 | Touch panel device |
JP2010271982A (en) * | 2009-05-22 | 2010-12-02 | Nec Casio Mobile Communications Ltd | Portable terminal device and program |
JP2010282311A (en) * | 2009-06-03 | 2010-12-16 | Fuji Xerox Co Ltd | Display controller, image processor, and program |
KR101127349B1 (en) | 2009-09-07 | 2012-03-29 | 이상용 | A method of inputting letters, numbers or marks using a touchscreen in a portable device |
JP2011081676A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011081677A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011081678A (en) * | 2009-10-08 | 2011-04-21 | Kyocera Corp | Input device |
JP2011107803A (en) * | 2009-11-13 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Information processor |
JP2016006651A (en) * | 2010-02-26 | 2016-01-14 | 株式会社カプコン | Computer program and computer device |
JP2012113725A (en) * | 2010-02-26 | 2012-06-14 | Copcom Co Ltd | Computer program and computer device |
JP2012058839A (en) * | 2010-09-06 | 2012-03-22 | Fuji Xerox Co Ltd | Information processor and program |
JP2012094008A (en) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | Portable electronic equipment |
JP2012094054A (en) * | 2010-10-28 | 2012-05-17 | Kyocera Mita Corp | Operation device and image forming apparatus |
EP2699986B1 (en) * | 2011-04-19 | 2019-03-20 | Hewlett-Packard Development Company, L.P. | Touch screen selection |
CN102902474A (en) * | 2011-07-26 | 2013-01-30 | 柯尼卡美能达商用科技株式会社 | Image processing apparatus having touch panel |
JP2011238294A (en) * | 2011-08-19 | 2011-11-24 | Clarion Co Ltd | Display device |
JP2011258241A (en) * | 2011-09-26 | 2011-12-22 | Kyocera Corp | Mobile electronic device and method of controlling the same |
WO2013074333A1 (en) * | 2011-11-14 | 2013-05-23 | Microsoft Corporation | Adaptive area cursor |
CN102981707A (en) * | 2011-11-14 | 2013-03-20 | 微软公司 | Self-adaptive area cursor |
US9170719B2 (en) | 2011-12-20 | 2015-10-27 | Sharp Kabushiki Kaisha | Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded |
JP2013131181A (en) * | 2011-12-22 | 2013-07-04 | Kyocera Document Solutions Inc | Input device and processing apparatus |
WO2013128935A1 (en) * | 2012-03-01 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing device, operation condition notification method and non-temporary computer-readable medium |
JP2014215639A (en) * | 2013-04-22 | 2014-11-17 | シャープ株式会社 | Information processing device and control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005044026A (en) | Instruction execution method, instruction execution program and instruction execution device | |
JP6965319B2 (en) | Character input interface provision method and device | |
JP5790805B2 (en) | Information processing apparatus and program | |
US7415676B2 (en) | Visual field changing method | |
JP4849412B2 (en) | Information input display device | |
US20110157028A1 (en) | Text entry for a touch screen | |
EP2701044A1 (en) | Information processing device, information processing method, and computer-readable recording medium which records program | |
JP4818036B2 (en) | Touch panel control device and touch panel control method | |
KR20110109551A (en) | Touch screen device and method for processing input of the same | |
JP5664147B2 (en) | Information processing apparatus, information processing method, and program | |
KR20060118811A (en) | Apparatus and method for displaying input panel without hiding the title of input fields | |
JP5119763B2 (en) | Information device provided with touch panel, icon selection method and program used therefor | |
US9001055B2 (en) | Portable device and method for operating portable device | |
CN103140826B (en) | Information terminal device and the display methods of contact panel | |
JP2008065504A (en) | Touch panel control device and touch panel control method | |
KR20160004590A (en) | Method for display window in electronic device and the device thereof | |
JP2010287121A (en) | Information processor, program, recording medium and display controller | |
JPWO2011152335A1 (en) | Electronic device using touch panel input and operation reception method using the same | |
JP5622270B2 (en) | INPUT DISPLAY CONTROL DEVICE, INPUT DISPLAY CONTROL METHOD, AND PROGRAM | |
JP4856136B2 (en) | Movement control program | |
JP2007079947A (en) | Display device and program for use therewith | |
JP6800714B2 (en) | Electronic equipment and display control method | |
JP2012146017A (en) | Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor | |
JP2009514119A (en) | Terminal having a button having a display function and display method therefor | |
JP2001195170A (en) | Portable electronic equipment, input controller and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080226 |