JP2005044026A - Instruction execution method, instruction execution program and instruction execution device - Google Patents

Instruction execution method, instruction execution program and instruction execution device Download PDF

Info

Publication number
JP2005044026A
JP2005044026A JP2003201016A JP2003201016A JP2005044026A JP 2005044026 A JP2005044026 A JP 2005044026A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2003201016 A JP2003201016 A JP 2003201016A JP 2005044026 A JP2005044026 A JP 2005044026A
Authority
JP
Japan
Prior art keywords
screen
objects
operator
displayed
instruction execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003201016A
Other languages
Japanese (ja)
Inventor
Shinobu Yamakawa
忍 山川
Shuichi Satake
修一 佐竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2003201016A priority Critical patent/JP2005044026A/en
Publication of JP2005044026A publication Critical patent/JP2005044026A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To support an operator to accurately and easily designate an object(button, icon or the like) on a screen at the time of designating various processing such as character input to equipment having a touch panel. <P>SOLUTION: When depressed positions on a screen stride over the display area of a plurality of objects, and those objects cannot be specified as one, the plurality of objects are emphasis-displayed(that is, enlarged) on the screen. Then, when an arbitrary position on the screen is depressed in that status, an instruction corresponding to the object where focus is positioned at that point of time is executed. Therefore, even when simultaneously touching a plurality of objects by mistake, an operator is able to obtain the same result as that when the operator accurately touches the target object from the beginning only by touching the arbitrary place on the screen in a timing when focus comes around to the emphasis-displayed target object. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムおよび命令実行装置に関する。
【0002】
【従来の技術】
画面上のオブジェクト(ボタン、アイコンなど)に指で触れることで、文字入力やメニュー選択などの各種命令(コマンド)を実行できるタッチパネルは、操作者がキーボードに不慣れであったり、キーボードを設置する物理的スペースがなかったりする場合の入力手段として、パーソナル・コンピュータのほかPDA、ATM、カーナビゲーションシステムなどに広く利用されている。
【0003】
そしてこのタッチパネルについては、従来から、入力を容易化するためのさまざまな工夫が提案されてきた。たとえば、タッチパネルのキー入力に対応するキー画像を拡大する、というものである(たとえば、特許文献1参照。)。
【0004】
また、タッチパネルでは複数のキーを同時に押下してしまう場合が多いため、押下された複数のシンボル領域を拡大するもの(たとえば、特許文献2参照。)、表示されている画像情報の大きさを変更するもの(たとえば、特許文献3参照。)、最初に押下されたキーを中心に拡大表示し指を離すと元に戻るもの(たとえば、特許文献4参照。)、押下された複数のキーを含む分割キーボードを拡大表示するもの(たとえば、特許文献5参照。)、あらかじめ複数キー配列から入力しやすいものを選択したり、押下された複数のキーの周辺を拡大したり、あるいは電卓などの機能単位で拡大したりするもの(たとえば、特許文献6参照。)がある。
【0005】
さらに、操作者の指示により拡大画像を表示する際の工夫については、拡大画像を原画像全体と重ならない位置に表示するものがある(たとえば、特許文献7参照。)。
【0006】
【特許文献1】
特許第2595045号公報
【特許文献2】
特許第2531416号公報
【特許文献3】
特開昭63−004322号公報
【特許文献4】
特開2002−91677号公報
【特許文献5】
特開平8−234909号公報
【特許文献6】
特許第3235480号公報
【特許文献7】
特開2000−250681号公報
【0007】
【発明が解決しようとする課題】
しかしながら上記例のように、押下された複数のオブジェクトを単純に拡大表示する方式では、画面イメージが大幅に変化するため、それまで表示できていた必要情報が隠れてしまうことがある。また、拡大された領域が依然として入力しづらいものであった場合、拡大画像のどの部分に触れたらよいのかを認識するのに時間がかかる。
【0008】
さらに、拡大画像を原画像にかからない位置に表示する方式では、原画像の全体表示にこだわるあまり、拡大画像を表示するための十分な領域が確保できず、依然として操作性の問題が残ってしまうという問題があった。
【0009】
この発明は上記従来技術による問題を解決するため、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、この発明にかかる命令実行方法、命令実行プログラムまたは命令実行装置は、画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法、命令実行プログラムまたは命令実行装置において、画面上で押圧された位置の座標から操作者が指定したオブジェクトを特定し、オブジェクトが一つに特定できないときは上記オブジェクトの候補となる複数のオブジェクトの強調画像を表示して、その状態で画面上の任意の場所が押圧された場合に、その時点で選択中のオブジェクト(フォーカスが位置しているオブジェクト)に対応する命令を実行する。
【0011】
上記発明によれば、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができる。
【0012】
なお、本発明でいう「押圧」の意味は、実際にタッチパネルなどに圧力を加える場合のみをいうものではなく、人の指などの接触や接近を感知し、それによってオブジェクトを選択する場合の「接触」や「接近」を含むものとする。
【0013】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかる命令実行方法、命令実行プログラムおよび命令実行装置の好適な実施の形態を詳細に説明する。
【0014】
図1は、本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。本発明の実施の形態による命令実行装置は、具体的にはタッチパネル100を具備したパーソナル・コンピュータである。そしてそのHD(ハードディスク)には、電卓機能すなわち仮想的な計算機を表示して、操作者の指示によりリアルタイムに四則演算などを行うプログラムが保持されている。
【0015】
図示する各部のうち、記憶部103は上記HDによって実現され、また表示制御部102、入力座標算出部104、出力座標算出部105および命令実行部106は、CPU(プロセッサ)がHDからRAMに読み出した上記プログラムを実行することにより実現される。なお、このプログラムはHDのほか、FD、CD−RW、MOなどの各種の記録媒体に格納して配布することができ、ネットワークを介して配布することも可能である。
【0016】
また、図2は本発明の実施の形態による命令実行装置における、命令実行処理(タッチパネル100からの入力を受け付けて各種命令を実行する処理)の手順を示すフローチャートである。以下、図2に示す手順に沿って、図1に示した各部の機能を順次説明する。
【0017】
上記装置はまず表示制御部102の画像読み出し部102aにより、たとえば図3に示すような操作画面のデータを記憶部103から読み出して、出力座標算出部105に出力する。出力座標算出部105は、ディスプレイ101上で上記画面を表示すべき位置(出力座標)を算出するとともに、当該位置に当該画面を出力(表示)する(ステップS201)。
【0018】
この状態でディスプレイ101の前面のタッチパネル100が指などにより押圧されると(ステップS202:Yes)、タッチパネル100から所定の入力信号が入力座標算出部104に出力され、入力座標算出部104は上記信号から、押圧された画面位置(入力座標)を算出する(ステップS203)。
【0019】
ここで算出された入力座標は、入力座標算出部104から表示制御部102のオブジェクト特定部102bに出力され、オブジェクト特定部102bにより、入力座標とディスプレイ101に表示中の各オブジェクトの座標(後者の座標は出力座標算出部105が管理している)とが照合される。
【0020】
そしてオブジェクト特定部102bは、押圧されたオブジェクトが一つに特定できない場合、たとえば入力座標がオブジェクトAの表示領域とオブジェクトBの表示領域の双方にまたがっている場合に(ステップS204:No)、画像読み出し部102aに指示して、記憶部103から上記各オブジェクトの強調画像を読み出させる(ステップS205)。
【0021】
たとえば図3に示した操作画面で、指でタッチされた位置が「9」ボタン300と「÷」ボタン301の双方にまたがっていた場合、上記で取り出される強調画像は、具体的には図4に示すような2つの画像(「9」ボタン300と「÷」ボタン301の拡大画像)である。すなわち、どれと一つには特定できないが、操作者が意図したオブジェクトである可能性のある複数の候補の、それぞれの強調画像が読み出される。
【0022】
なお、強調の具体的な形態はここでは拡大であるが、拡大に限定しない何らかの変形、色や輝度の変更、点滅や明滅、あるいは自動音声によるオブジェクト名の読み上げなど強調の形態は任意である。要するに通常の表示形態よりも「目立つ」形態であれば何であってもよい。
【0023】
また、ここではあらかじめ記憶部103に各オブジェクトの強調画像を用意しておくようにしたが、複数のオブジェクトが押圧される都度、それぞれの強調画像を通常の画像から作成するようにしてもよい。
【0024】
上記各画像は、画像読み出し部102aから出力座標算出部105に出力され、出力座標算出部105は、ディスプレイ101上で当該画像を表示すべき位置(出力座標)を算出する(ステップS206)。この出力座標は、たとえば入力座標の平均値(中央)を中心として、その周囲に各オブジェクトの強調画像が等間隔に配置されるよう決められる。あるいは、現在表示中の各オブジェクト(通常サイズ)の表示領域の中心と、再表示後の各オブジェクト(拡大サイズ)の表示領域の中心とが一致するように決めてもよい。
【0025】
ただしこのとき、再表示後のオブジェクトの表示領域があらかじめ指定された領域に重なってしまう場合は(ステップS207:Yes)、出力座標算出部105は上記で算出した出力座標を、当該領域と重複しないように補正する(ステップS208)。
【0026】
この領域とは、ここではたとえば入力文字領域302(タッチパネル100から入力された文字がエコー表示される領域)であるものとする。ステップS206で算出した座標のままだと、拡大後のオブジェクトの上端が入力文字領域302にかかってしまう場合、ステップS208で強調画像の出力座標を、その背後に入力文字が隠れてしまわない位置まで下方向に補正する。その後ディスプレイ101の、上記で算出(必要に応じて補正)した位置に、上記各画像を出力(表示)する(ステップS209)。
【0027】
一方、表示制御部102のフォーカス制御部102cは、強調表示された複数のオブジェクトのうち一つをフォーカスの位置するオブジェクトとして選択するとともに(ステップS210)、当該オブジェクトの識別情報、すなわちどのオブジェクトを選択したかを出力座標算出部105に通知する。
【0028】
そして出力座標算出部105では、選択されたオブジェクト(強調表示中)の現在の表示領域から、たとえばその外縁もしくは外枠にあたる領域の座標を算出し(ステップS211)、ディスプレイ101の当該位置にカーソルを出力(表示)する(ステップS212)。
【0029】
図5は、このステップS212の直後の操作画面の一例を示す説明図である。図示するように、図3に示したボタン300・301がそれぞれボタン500・501に拡大されるとともに(ボタン500・501は入力文字領域502を避けて表示されていることに注意)、選択されたボタン500の周囲にカーソル503が表示されている。
【0030】
一方、表示制御部102の時間計測部102dはステップS210の選択の時点から経過時間の計測を開始し、何の入力もないまま所定時間(たとえば1秒)が経過すると(ステップS213:No、ステップS214:Yes)、その旨の信号をフォーカス制御部102cに出力する。
【0031】
これを受けたフォーカス制御部102cでは、前回選択したのとは別のオブジェクトを一つ選択し(ステップS210)、この結果たとえば図5の画面でボタン500に位置していたカーソル503が、ボタン501の位置に再表示(移動)される(ステップS211・S212)。
【0032】
なお、時間計測部102dにより計測される所定時間は、あらかじめ操作者が自由に設定できる。一般に、パーソナル・コンピュータやPDAなどではこの時間は短めでよいが、カーナビゲーションシステムのように、操作者が入力に集中できるとは限らない装置では、より長めに設定しておくほうが使いやすい。
【0033】
また、ここでは強調表示中に何らかの入力がない限り、フォーカスは各オブジェクトをサイクリックに巡回してゆくようにしたが、たとえばあらかじめ設定した回数だけステップS210〜S214を繰り返しても何の入力もなかった場合は、ステップS209で表示した強調画像を消去して、図3の操作画面に戻るようにしてもよい。
【0034】
また、フォーカスの巡回順序はどのようであってもよく、左上隅→右上隅→左下隅→右下隅のようなZ型の移動のほか、操作者が意図したオブジェクトである可能性がより高いオブジェクト(たとえば入力座標の大半がそのオブジェクトの表示領域に含まれるようなオブジェクト)を、優先的にフォーカスするようにしてもよい。
【0035】
一方、図5の画面が表示された状態でタッチパネル100のどこか(場所は問わない)が押圧されると(ステップS213:Yes)、入力座標算出部104により算出された入力座標が、表示制御部102のオブジェクト特定部102bに出力される。
【0036】
そしてオブジェクト特定部102bは、現在フォーカスが位置しているオブジェクトがどれであるかをフォーカス制御部102cに問い合わせ、当該オブジェクトの識別情報を命令実行部106(上記識別情報に対応する命令の実行を制御する機能部)に出力する(ステップS215)。
【0037】
なお、ステップS204でオブジェクトを一意に特定できる場合は(ステップS204:Yes)、ステップS205〜S214を省略して直接ステップS215で、当該オブジェクトの識別情報を出力する。
【0038】
以上説明した実施の形態によれば、誤って同時に複数のオブジェクトに触れてしまった場合、それら複数のオブジェクトが強調表示(たとえば拡大表示)されるとともに、いずれか一つに位置するフォーカスが一定の時間間隔で順次移動してゆく。そして、あるオブジェクトにフォーカスが位置している間に、タッチパネル100の任意の場所に触れるだけで、当該オブジェクトに対応する入力を行うことができる。
【0039】
このように、画面全体や入力座標の周辺領域でなく、ボタンなどのオブジェクトのみを強調表示するので、画面がちらついて入力しづらくなることはない。また、強調表示中はタッチパネル100のどこに触れても、フォーカスのあるオブジェクトに対する入力とみなされるので、強調後の画面で触れるべき場所を改めて探す必要もなく、迅速かつ正確に入力を行うことができる。
【0040】
したがって、誤って同時に複数のオブジェクトに触れてしまった場合でも、強調表示(具体的には拡大など)された目的のオブジェクトにフォーカスが巡ってきたタイミングで画面上の任意の場所に触れるだけで、目的のオブジェクトだけに触れた場合と同様に当該オブジェクトに対応する命令を実行させることができるので、これによって、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能となる。
【0041】
さらに、入力結果や入力に不可欠な情報を表示していて、オブジェクトの背後に隠れてしまうのは望ましくない領域、具体的にはたとえば入力文字領域502は避けるようにしてオブジェクトが拡大されるので、強調によりかえって入力がしづらくなることもない。
【0042】
なお、上述した実施の形態は押圧されたオブジェクトが2つの例であるが、この個数はいくつであってもよい。たとえば図6はソフトウエアキーボードの画面の一例、図7は図6の画面で、入力座標が「I」「O」「K]「L」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。「O」に位置しているフォーカスの表現が、上述した実施の形態と若干異なる(外縁上のカーソルのほか、オブジェクトそのものにも網掛けがなされている)以外は、基本的に図5と同様である。
【0043】
また、フォーカスは上記のほか、オブジェクトの点滅などによっても表現することができる。たとえば図8はスクロールバーを備えたウィンドウの一例、図9は図8の画面で、入力座標が上スクロールボタン800と下スクロールボタン801の双方にまたがっていた場合の強調表示の一例である。ボタン800・801がそれぞれボタン900・901に拡大されるとともに、フォーカス中のボタン900は点滅表示になっている。
【0044】
なお、上記例では強調後のオブジェクトが、ウィンドウ内のデータ(スクロールされる領域内のデータ)を隠してしまわないように、ウィンドウの外側方向へ向かってボタン800・801が拡大されている。
【0045】
また、上記はいずれもパーソナル・コンピュータの画面例であるが、本発明はタッチパネル100とディスプレイ101を備えたどんな機器にも応用することができる。たとえば図10はカレンダーの表示機能を備えた携帯電話の画面の一例、図11は図10の画面で、入力座標が「8」「9」「15」「16」の4つのオブジェクトにまたがっていた場合の強調表示の一例である。図11の画面も本質的に、図5や図7、図9の画面と変わるところがない。
【0046】
特にディスプレイ101が小さい携帯電話のような機器では、誤って一度に複数のオブジェクトを押してしまいがちであるが、本発明によればその場合も、目的のオブジェクトにフォーカスが巡回してくるのを待って、画面上の適当な場所に触れればよいだけなので、誤操作を容易に修正できる。
【0047】
なお、本実施の形態における命令実行方法は、あらかじめ用意されたコンピュータ読み取り可能なプログラムであってもよく、またそのプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現される。このプログラムは、HD(ハードディスク)、FD(フレキシブルディスク)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。
【0048】
(付記1)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。
【0049】
(付記2)前記操作者により指定されたオブジェクトが一つに特定できない場合が、前記入力座標算出工程で算出された座標が前記画面上に表示された複数のオブジェクトの表示領域にまたがっている場合であることを特徴とする前記付記1に記載の命令実行方法。
【0050】
(付記3)前記強調画像表示工程では、前記画面上で所定の情報が表示されている表示領域を避けて前記強調画像を表示することを特徴とする前記付記1または付記2に記載の命令実行方法。
【0051】
(付記4)前記オブジェクト選択工程では、前回の選択から所定時間を経過すると前記複数のオブジェクトのうち前回選択したオブジェクトに代えて別のオブジェクトを選択することを特徴とする前記付記1〜付記3のいずれか一つに記載の命令実行方法。
【0052】
(付記5)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。
【0053】
(付記6)画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
【0054】
【発明の効果】
以上説明したように本発明によれば、文字入力をはじめとする各種処理の指示にあたって、画面上のオブジェクトの指定を正確かつ容易に行えるよう操作者を支援することが可能な命令実行方法、命令実行プログラムおよび命令実行装置が得られるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の実施の形態による命令実行装置の構成を機能的に示す説明図である。
【図2】本発明の実施の形態による命令実行装置における、命令実行処理の手順を示すフローチャートである。
【図3】本発明の実施の形態による命令実行装置の操作画面(通常表示画面)の一例を示す説明図である。
【図4】図3に示した操作画面中のオブジェクト300・301の強調画像の一例を示す説明図である。
【図5】本発明の実施の形態による命令実行装置の操作画面(強調表示画面)の一例を示す説明図である。
【図6】操作画面(通常表示画面)の他の一例を示す説明図である。
【図7】操作画面(強調表示画面)の他の一例を示す説明図である。
【図8】操作画面(通常表示画面)の他の一例を示す説明図である。
【図9】操作画面(強調表示画面)の他の一例を示す説明図である。
【図10】操作画面(通常表示画面)の他の一例を示す説明図である。
【図11】操作画面(強調表示画面)の他の一例を示す説明図である。
【符号の説明】
100 タッチパネル
101 ディスプレイ
102 表示制御部
102a 画像読み出し部
102b オブジェクト特定部
102c フォーカス制御部
102d 時間計測部
103 記憶部
104 入力座標算出部
105 出力座標算出部
106 命令実行部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an instruction execution method, an instruction execution program, and an instruction execution apparatus that specify an object designated by an operator from among a plurality of objects displayed on a screen and execute an instruction corresponding to the object.
[0002]
[Prior art]
A touch panel that can execute various commands (commands) such as character input and menu selection by touching an object (button, icon, etc.) on the screen with a finger is not familiar with the keyboard or is physically installed on the keyboard. As an input means when there is not enough space, it is widely used in personal computers, PDAs, ATMs, car navigation systems, and the like.
[0003]
And about this touch panel, conventionally, various devices for facilitating input have been proposed. For example, the key image corresponding to the key input on the touch panel is enlarged (for example, see Patent Document 1).
[0004]
In addition, since a plurality of keys are often pressed simultaneously on the touch panel, a plurality of pressed symbol areas are enlarged (see, for example, Patent Document 2), and the size of displayed image information is changed. Including a plurality of pressed keys (for example, see Patent Document 3), an enlarged display centered on a key pressed first, and returning to the original when the finger is released (for example, see Patent Document 4). A unit that displays a divided keyboard in an enlarged manner (see, for example, Patent Document 5), an item that can be easily input from a plurality of key arrangements, a region around a plurality of pressed keys, or a functional unit such as a calculator (For example, refer to Patent Document 6).
[0005]
Further, as a device for displaying an enlarged image according to an instruction from an operator, there is one that displays an enlarged image at a position that does not overlap the entire original image (see, for example, Patent Document 7).
[0006]
[Patent Document 1]
Japanese Patent No. 2595045 [Patent Document 2]
Japanese Patent No. 2531416 [Patent Document 3]
JP-A 63-004322 [Patent Document 4]
JP 2002-91677 A [Patent Document 5]
JP-A-8-234909 [Patent Document 6]
Japanese Patent No. 3235480 [Patent Document 7]
Japanese Patent Laid-Open No. 2000-250681
[Problems to be solved by the invention]
However, in the method of simply enlarging and displaying a plurality of pressed objects as in the above example, since the screen image changes significantly, necessary information that has been displayed until then may be hidden. Also, if the enlarged area is still difficult to input, it takes time to recognize which part of the enlarged image should be touched.
[0008]
Furthermore, in the method of displaying the enlarged image at a position that does not cover the original image, it is not possible to secure a sufficient area for displaying the enlarged image because the entire original image is displayed, and operability problems still remain. There was a problem.
[0009]
In order to solve the above-described problems caused by the prior art, the present invention provides an instruction execution method capable of assisting an operator so that an object on a screen can be specified accurately and easily in order to instruct various processes including character input. An object is to provide an instruction execution program and an instruction execution device.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problems and achieve the object, an instruction execution method, an instruction execution program, or an instruction execution apparatus according to the present invention specifies a plurality of objects displayed on a screen that are designated by an operator. In the command execution method, command execution program, or command execution device that executes the command corresponding to the object, the object specified by the operator is identified from the coordinates of the pressed position on the screen, and the object is identified as one. When it is not possible, a highlighted image of a plurality of objects that are candidates for the above object is displayed, and when an arbitrary place on the screen is pressed in that state, the currently selected object (the focus is located) The instruction corresponding to the (object) is executed.
[0011]
According to the above invention, even when a plurality of objects are accidentally touched at the same time, the focus can be placed at any place on the screen at the timing when the focused object (specifically, enlarged) is focused. Just by touching, an instruction corresponding to the object can be executed in the same manner as when only the target object is touched.
[0012]
Note that the meaning of “press” in the present invention does not only refer to the case where pressure is actually applied to the touch panel or the like, but “sense” when a person's finger or the like is touched or approached to thereby select an object. Includes “contact” and “approach”.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an instruction execution method, an instruction execution program, and an instruction execution apparatus according to the present invention will be explained below in detail with reference to the accompanying drawings.
[0014]
FIG. 1 is an explanatory diagram functionally showing the configuration of the instruction execution device according to the embodiment of the present invention. The instruction execution apparatus according to the embodiment of the present invention is specifically a personal computer provided with a touch panel 100. The HD (hard disk) holds a program that displays a calculator function, that is, a virtual computer, and performs four arithmetic operations in real time according to an operator's instruction.
[0015]
Among the units shown in the figure, the storage unit 103 is realized by the HD, and the display control unit 102, the input coordinate calculation unit 104, the output coordinate calculation unit 105, and the instruction execution unit 106 are read by the CPU (processor) from the HD to the RAM. This is realized by executing the above program. In addition to HD, this program can be stored and distributed in various recording media such as FD, CD-RW, and MO, and can also be distributed via a network.
[0016]
FIG. 2 is a flowchart showing a procedure of command execution processing (processing for receiving various inputs from touch panel 100) in the command execution device according to the embodiment of the present invention. In the following, the function of each unit shown in FIG. 1 will be described in order according to the procedure shown in FIG.
[0017]
First, the apparatus reads out, for example, operation screen data as shown in FIG. 3 from the storage unit 103 by the image reading unit 102 a of the display control unit 102, and outputs it to the output coordinate calculation unit 105. The output coordinate calculation unit 105 calculates a position (output coordinates) at which the screen should be displayed on the display 101, and outputs (displays) the screen at the position (step S201).
[0018]
When the touch panel 100 on the front surface of the display 101 is pressed with a finger or the like in this state (step S202: Yes), a predetermined input signal is output from the touch panel 100 to the input coordinate calculation unit 104, and the input coordinate calculation unit 104 outputs the above signal. From this, the pressed screen position (input coordinates) is calculated (step S203).
[0019]
The input coordinates calculated here are output from the input coordinate calculation unit 104 to the object specifying unit 102b of the display control unit 102, and the object specifying unit 102b inputs the input coordinates and the coordinates of each object being displayed on the display 101 (the latter). The coordinates are managed by the output coordinate calculation unit 105).
[0020]
Then, when the pressed object cannot be identified as one object, for example, when the input coordinates extend over both the display area of the object A and the display area of the object B (step S204: No), the image is displayed. The reading unit 102a is instructed to read the emphasized image of each object from the storage unit 103 (step S205).
[0021]
For example, when the position touched with the finger on the operation screen shown in FIG. 3 extends over both the “9” button 300 and the “÷” button 301, the emphasized image taken out above is specifically shown in FIG. These are two images (enlarged images of the “9” button 300 and the “÷” button 301). In other words, each of the highlighted images of a plurality of candidates that cannot be specified as one but may be an object intended by the operator is read out.
[0022]
Although the specific form of emphasis is enlargement here, the form of emphasis is arbitrary, such as some deformation not limited to enlargement, change of color and brightness, blinking or blinking, or reading out the object name by automatic voice. In short, any form may be used as long as it is more conspicuous than the normal display form.
[0023]
In addition, here, the emphasis image of each object is prepared in advance in the storage unit 103, but each time a plurality of objects are pressed, each emphasis image may be created from a normal image.
[0024]
Each image is output from the image reading unit 102a to the output coordinate calculation unit 105, and the output coordinate calculation unit 105 calculates a position (output coordinate) at which the image should be displayed on the display 101 (step S206). The output coordinates are determined so that, for example, the emphasized images of the respective objects are arranged at equal intervals around the average value (center) of the input coordinates. Alternatively, it may be determined so that the center of the display area of each object (normal size) currently displayed matches the center of the display area of each object (enlarged size) after redisplay.
[0025]
However, at this time, when the display area of the object after re-displaying overlaps the area designated in advance (step S207: Yes), the output coordinate calculation unit 105 does not overlap the output coordinates calculated above. (Step S208).
[0026]
Here, it is assumed that this area is, for example, an input character area 302 (an area where characters input from the touch panel 100 are echoed). If the coordinates calculated in step S206 remain as they are, the upper end of the enlarged object falls on the input character area 302. In step S208, the output coordinates of the emphasized image are moved to a position where the input characters are not hidden behind them. Correct downward. Thereafter, each image is output (displayed) to the position calculated on the display 101 (corrected as necessary) (step S209).
[0027]
On the other hand, the focus control unit 102c of the display control unit 102 selects one of the highlighted objects as the object at the focus (step S210), and selects identification information of the object, that is, which object. The output coordinate calculation unit 105 is notified of whether it has been performed.
[0028]
Then, the output coordinate calculation unit 105 calculates, for example, the coordinates of the area corresponding to the outer edge or outer frame from the current display area of the selected object (highlighted) (step S211), and moves the cursor to the position on the display 101. Output (display) (step S212).
[0029]
FIG. 5 is an explanatory diagram showing an example of the operation screen immediately after step S212. As shown in the figure, the buttons 300 and 301 shown in FIG. 3 are enlarged to the buttons 500 and 501, respectively (note that the buttons 500 and 501 are displayed avoiding the input character area 502) and selected. A cursor 503 is displayed around the button 500.
[0030]
On the other hand, the time measuring unit 102d of the display control unit 102 starts measuring the elapsed time from the time of selection in step S210, and when a predetermined time (for example, 1 second) elapses without any input (step S213: No, step (S214: Yes), a signal to that effect is output to the focus control unit 102c.
[0031]
In response to this, the focus control unit 102c selects one object different from the previously selected object (step S210). As a result, for example, the cursor 503 located on the button 500 on the screen of FIG. Is redisplayed (moved) to the position (steps S211 and S212).
[0032]
The predetermined time measured by the time measuring unit 102d can be freely set in advance by the operator. In general, this time may be shorter in a personal computer, PDA, etc., but it is easier to use a longer setting in an apparatus such as a car navigation system where the operator cannot always concentrate on input.
[0033]
Here, unless there is any input during highlighting, the focus is cyclically circulated through each object. However, for example, there is no input even if steps S210 to S214 are repeated a preset number of times. In such a case, the highlighted image displayed in step S209 may be deleted and the operation screen of FIG. 3 may be returned.
[0034]
In addition, the order of the focus may be any order. In addition to Z-shaped movement such as upper left corner → upper right corner → lower left corner → lower right corner, an object that is more likely to be an object intended by the operator (For example, an object in which most of the input coordinates are included in the display area of the object) may be focused preferentially.
[0035]
On the other hand, when somewhere on the touch panel 100 (regardless of location) is pressed while the screen of FIG. 5 is displayed (step S213: Yes), the input coordinates calculated by the input coordinate calculation unit 104 are displayed. The data is output to the object specifying unit 102b of the unit 102.
[0036]
Then, the object specifying unit 102b inquires to the focus control unit 102c which object is currently focused, and controls the identification information of the object to be executed by the instruction execution unit 106 (execution of a command corresponding to the identification information). To the functional unit) (step S215).
[0037]
If the object can be uniquely identified in step S204 (step S204: Yes), steps S205 to S214 are omitted, and the identification information of the object is directly output in step S215.
[0038]
According to the embodiment described above, when a plurality of objects are accidentally touched at the same time, the plurality of objects are highlighted (for example, enlarged display) and the focus located in any one of them is constant. Move sequentially at time intervals. Then, while the focus is on a certain object, an input corresponding to the object can be performed only by touching an arbitrary place on the touch panel 100.
[0039]
As described above, since only the object such as the button is highlighted instead of the entire screen or the peripheral area of the input coordinates, the screen does not flicker and it is difficult to input. Further, any part of the touch panel 100 that is touched during highlighting is regarded as an input to the focused object, so that it is possible to input quickly and accurately without having to search again for a place to touch on the screen after highlighting. .
[0040]
Therefore, if you accidentally touch multiple objects at the same time, just touch anywhere on the screen when the highlighted object (specifically, enlargement) reaches the focus, Since it is possible to execute a command corresponding to the object as if only the target object was touched, it is possible to specify the object on the screen accurately and easily when instructing various processes including character input. It is possible to assist the operator so that it can be performed easily.
[0041]
In addition, since the input result and information essential for input are displayed and the object is enlarged so as to avoid an area that is not desirable to hide behind the object, specifically, for example, the input character area 502, The emphasis does not make it difficult to input.
[0042]
In addition, although embodiment mentioned above is an example with two pressed objects, this number may be any number. For example, FIG. 6 shows an example of the screen of the software keyboard, and FIG. 7 shows an example of highlighting when the input coordinates span four objects of “I”, “O”, “K”, and “L” in the screen of FIG. It is. Basically the same as FIG. 5 except that the expression of the focus located at “O” is slightly different from the above-described embodiment (the object itself is shaded in addition to the cursor on the outer edge). It is.
[0043]
In addition to the above, the focus can be expressed by blinking of an object. For example, FIG. 8 is an example of a window having a scroll bar, and FIG. 9 is an example of highlighting when the input coordinates extend over both the up scroll button 800 and the down scroll button 801 in the screen of FIG. The buttons 800 and 801 are enlarged to the buttons 900 and 901, respectively, and the focused button 900 is blinking.
[0044]
In the above example, the buttons 800 and 801 are enlarged toward the outside of the window so that the emphasized object does not hide the data in the window (data in the scrolled area).
[0045]
Although the above are examples of personal computer screens, the present invention can be applied to any device including the touch panel 100 and the display 101. For example, FIG. 10 shows an example of a mobile phone screen having a calendar display function, and FIG. 11 shows the screen of FIG. 10, which covers four objects whose input coordinates are “8”, “9”, “15”, and “16”. It is an example of the highlight display in a case. The screen of FIG. 11 is essentially the same as the screens of FIG. 5, FIG. 7, and FIG.
[0046]
In particular, a device such as a mobile phone with a small display 101 tends to accidentally press a plurality of objects at a time, but according to the present invention, it waits for the focus to go around the target object. Since it is only necessary to touch an appropriate place on the screen, erroneous operations can be easily corrected.
[0047]
The instruction execution method in the present embodiment may be a computer-readable program prepared in advance, and is realized by executing the program on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as HD (hard disk), FD (flexible disk), CD-ROM, MO, and DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.
[0048]
(Supplementary note 1) In an instruction execution method for specifying an object designated by an operator from among a plurality of objects displayed on a screen and executing an instruction corresponding to the object,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution method comprising:
[0049]
(Supplementary Note 2) When the object specified by the operator cannot be specified as one, the coordinates calculated in the input coordinate calculation step span the display areas of a plurality of objects displayed on the screen The instruction execution method according to appendix 1, wherein
[0050]
(Additional remark 3) In the said emphasized image display process, the said emphasized image is displayed avoiding the display area where the predetermined information is displayed on the said screen, The command execution of the said additional remark 1 or Additional remark 2 characterized by the above-mentioned Method.
[0051]
(Appendix 4) In the appendix 1 to appendix 3, the object selection step selects another object instead of the previously selected object among the plurality of objects when a predetermined time elapses from the previous selection. The instruction execution method according to any one of the above.
[0052]
(Additional remark 5) It is the command execution program used when identifying the thing designated by the operator among the some objects displayed on the screen, and executing the command corresponding to the said object,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution program for causing a processor to execute the program.
[0053]
(Additional remark 6) In the command execution apparatus which specifies what was specified by the operator among the several objects displayed on the screen, and performs the command corresponding to the said object,
Input coordinate calculation means for calculating the coordinates of the position pressed on the screen;
Object specifying means for specifying the object specified by the operator from the coordinates calculated by the input coordinate calculating means;
An emphasized image display means for displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator when the object specifying means cannot identify one object;
An object selecting means for selecting one of a plurality of objects on which the emphasized image is displayed by the emphasized image display means;
A command execution unit that executes a command corresponding to the object selected by the object selection unit when an arbitrary place on the screen on which the highlight image is displayed by the highlight image display unit is pressed;
An instruction execution device comprising:
[0054]
【The invention's effect】
As described above, according to the present invention, a command execution method and command capable of assisting an operator so that an object on a screen can be specified accurately and easily when instructing various processes including character input. There is an effect that an execution program and an instruction execution device can be obtained.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram functionally showing the configuration of an instruction execution device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a procedure of instruction execution processing in the instruction execution apparatus according to the embodiment of the present invention.
FIG. 3 is an explanatory diagram showing an example of an operation screen (normal display screen) of the instruction execution device according to the embodiment of the present invention.
4 is an explanatory diagram illustrating an example of an emphasized image of objects 300 and 301 on the operation screen illustrated in FIG. 3;
FIG. 5 is an explanatory diagram showing an example of an operation screen (highlight display screen) of the instruction execution device according to the embodiment of the present invention.
FIG. 6 is an explanatory diagram showing another example of the operation screen (normal display screen).
FIG. 7 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
FIG. 8 is an explanatory diagram illustrating another example of the operation screen (normal display screen).
FIG. 9 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
FIG. 10 is an explanatory diagram illustrating another example of the operation screen (normal display screen).
FIG. 11 is an explanatory diagram illustrating another example of the operation screen (highlight display screen).
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 Touch panel 101 Display 102 Display control part 102a Image reading part 102b Object specific part 102c Focus control part 102d Time measurement part 103 Storage part 104 Input coordinate calculation part 105 Output coordinate calculation part 106 Instruction execution part

Claims (3)

画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行方法において、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
を含んだことを特徴とする命令実行方法。
In an instruction execution method for executing an instruction corresponding to an object specified by an operator among a plurality of objects displayed on the screen,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution method comprising:
画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行するときに用いる命令実行プログラムであって、
前記画面上で押圧された位置の座標を算出する入力座標算出工程と、
前記入力座標算出工程で算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定工程と、
前記オブジェクト特定工程でオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示工程と、
前記強調画像表示工程で強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択工程と、
前記強調画像表示工程で強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択工程で選択されたオブジェクトに対応する命令を実行する命令実行工程と、
をプロセッサに実行させることを特徴とする命令実行プログラム。
An instruction execution program used when executing an instruction corresponding to an object specified by an operator among a plurality of objects displayed on the screen,
An input coordinate calculation step of calculating the coordinates of the pressed position on the screen;
An object specifying step for specifying an object specified by the operator from the coordinates calculated in the input coordinate calculating step;
An emphasized image display step of displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator, when an object cannot be specified as one in the object specifying step;
An object selection step of selecting one of a plurality of objects on which the emphasized image is displayed in the emphasized image display step;
A command execution step of executing a command corresponding to the object selected in the object selection step when an arbitrary place on the screen on which the highlight image is displayed in the highlight image display step is pressed;
An instruction execution program for causing a processor to execute
画面上に表示された複数のオブジェクトのうち操作者により指定されたものを特定して当該オブジェクトに対応する命令を実行する命令実行装置において、
前記画面上で押圧された位置の座標を算出する入力座標算出手段と、
前記入力座標算出手段により算出された座標から前記操作者により指定されたオブジェクトを特定するオブジェクト特定手段と、
前記オブジェクト特定手段によりオブジェクトが一つに特定できない場合に、前記操作者により指定されたオブジェクトの候補となる複数のオブジェクトの強調画像を前記画面上に表示する強調画像表示手段と、
前記強調画像表示手段により強調画像を表示された複数のオブジェクトのうち一つを選択するオブジェクト選択手段と、
前記強調画像表示手段により強調画像を表示された前記画面上の任意の場所が押圧された場合に、前記オブジェクト選択手段により選択されたオブジェクトに対応する命令を実行する命令実行手段と、
を備えたことを特徴とする命令実行装置。
In an instruction execution device that identifies an object specified by an operator among a plurality of objects displayed on the screen and executes an instruction corresponding to the object,
Input coordinate calculation means for calculating the coordinates of the position pressed on the screen;
Object specifying means for specifying the object specified by the operator from the coordinates calculated by the input coordinate calculating means;
An emphasized image display means for displaying, on the screen, an emphasized image of a plurality of objects that are candidates for the object specified by the operator when the object specifying means cannot identify one object;
An object selecting means for selecting one of a plurality of objects on which the emphasized image is displayed by the emphasized image display means;
A command execution unit that executes a command corresponding to the object selected by the object selection unit when an arbitrary place on the screen on which the highlight image is displayed by the highlight image display unit is pressed;
An instruction execution device comprising:
JP2003201016A 2003-07-24 2003-07-24 Instruction execution method, instruction execution program and instruction execution device Pending JP2005044026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003201016A JP2005044026A (en) 2003-07-24 2003-07-24 Instruction execution method, instruction execution program and instruction execution device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003201016A JP2005044026A (en) 2003-07-24 2003-07-24 Instruction execution method, instruction execution program and instruction execution device

Publications (1)

Publication Number Publication Date
JP2005044026A true JP2005044026A (en) 2005-02-17

Family

ID=34261227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003201016A Pending JP2005044026A (en) 2003-07-24 2003-07-24 Instruction execution method, instruction execution program and instruction execution device

Country Status (1)

Country Link
JP (1) JP2005044026A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244231A (en) * 2005-03-04 2006-09-14 Xanavi Informatics Corp Input control unit, and input control method
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device
JP2006340355A (en) * 2005-05-30 2006-12-14 Samsung Electronics Co Ltd Method and system for inputting data
JP2006338490A (en) * 2005-06-03 2006-12-14 Just Syst Corp Input auxiliary device, input auxiliary method, input auxiliary program and computer readable recording medium
JP2008059030A (en) * 2006-08-29 2008-03-13 Kyocera Mita Corp Electronic device and program
JP2009176227A (en) * 2008-01-28 2009-08-06 Panasonic Electric Works Co Ltd Display device
JP2009217687A (en) * 2008-03-12 2009-09-24 Alpine Electronics Inc Touch panel input device and processing execution method
JP2010049654A (en) * 2008-08-25 2010-03-04 Casio Hitachi Mobile Communications Co Ltd Terminal device and program
WO2010047048A1 (en) * 2008-10-20 2010-04-29 三菱電機株式会社 Touch panel device
EP2252926A2 (en) * 2008-03-11 2010-11-24 Microsoft Corporation Interpreting ambiguous inputs on a touch-screen
JP2010271982A (en) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd Portable terminal device and program
JP2010282311A (en) * 2009-06-03 2010-12-16 Fuji Xerox Co Ltd Display controller, image processor, and program
JP2011081678A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011081677A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011081676A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011107803A (en) * 2009-11-13 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd Information processor
US7969421B2 (en) 2003-10-29 2011-06-28 Samsung Electronics Co., Ltd Apparatus and method for inputting character using touch screen in portable terminal
JP2011238294A (en) * 2011-08-19 2011-11-24 Clarion Co Ltd Display device
JP2011258241A (en) * 2011-09-26 2011-12-22 Kyocera Corp Mobile electronic device and method of controlling the same
JP2012058839A (en) * 2010-09-06 2012-03-22 Fuji Xerox Co Ltd Information processor and program
KR101127349B1 (en) 2009-09-07 2012-03-29 이상용 A method of inputting letters, numbers or marks using a touchscreen in a portable device
US8151007B2 (en) 2007-08-24 2012-04-03 Nintendo Co., Ltd. Information processing program and information processing apparatus
JP2012094054A (en) * 2010-10-28 2012-05-17 Kyocera Mita Corp Operation device and image forming apparatus
JP2012094008A (en) * 2010-10-27 2012-05-17 Kyocera Corp Portable electronic equipment
JP2012113725A (en) * 2010-02-26 2012-06-14 Copcom Co Ltd Computer program and computer device
CN102902474A (en) * 2011-07-26 2013-01-30 柯尼卡美能达商用科技株式会社 Image processing apparatus having touch panel
CN102981707A (en) * 2011-11-14 2013-03-20 微软公司 Self-adaptive area cursor
JP2013131181A (en) * 2011-12-22 2013-07-04 Kyocera Document Solutions Inc Input device and processing apparatus
WO2013128935A1 (en) * 2012-03-01 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 Information processing device, operation condition notification method and non-temporary computer-readable medium
US8854310B2 (en) 2006-08-25 2014-10-07 Kyocera Corporation Portable electronic apparatus and operation detecting method of portable electronic apparatus
JP2014215639A (en) * 2013-04-22 2014-11-17 シャープ株式会社 Information processing device and control program
US9170719B2 (en) 2011-12-20 2015-10-27 Sharp Kabushiki Kaisha Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded
EP2699986B1 (en) * 2011-04-19 2019-03-20 Hewlett-Packard Development Company, L.P. Touch screen selection

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342156B2 (en) 2003-10-29 2016-05-17 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9098120B2 (en) 2003-10-29 2015-08-04 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9710162B2 (en) 2003-10-29 2017-07-18 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US9891819B2 (en) 2003-10-29 2018-02-13 Samsung Electronics Co., Ltd. Apparatus and method for inputting character using touch screen in portable terminal
US7969421B2 (en) 2003-10-29 2011-06-28 Samsung Electronics Co., Ltd Apparatus and method for inputting character using touch screen in portable terminal
JP4530881B2 (en) * 2005-03-04 2010-08-25 クラリオン株式会社 Input control device and input control method
JP2006244231A (en) * 2005-03-04 2006-09-14 Xanavi Informatics Corp Input control unit, and input control method
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device
JP2006340355A (en) * 2005-05-30 2006-12-14 Samsung Electronics Co Ltd Method and system for inputting data
JP4553797B2 (en) * 2005-06-03 2010-09-29 株式会社ジャストシステム Input auxiliary device, input auxiliary method, input auxiliary program, and computer-readable recording medium
JP2006338490A (en) * 2005-06-03 2006-12-14 Just Syst Corp Input auxiliary device, input auxiliary method, input auxiliary program and computer readable recording medium
US8854310B2 (en) 2006-08-25 2014-10-07 Kyocera Corporation Portable electronic apparatus and operation detecting method of portable electronic apparatus
JP4690272B2 (en) * 2006-08-29 2011-06-01 京セラミタ株式会社 Electronic device and program
JP2008059030A (en) * 2006-08-29 2008-03-13 Kyocera Mita Corp Electronic device and program
US10071309B2 (en) 2007-08-24 2018-09-11 Nintendo Co., Ltd. Information processing program and information processing apparatus
US9616337B2 (en) 2007-08-24 2017-04-11 Nintendo Co., Ltd. Information processing program and information processing apparatus
US8151007B2 (en) 2007-08-24 2012-04-03 Nintendo Co., Ltd. Information processing program and information processing apparatus
JP2009176227A (en) * 2008-01-28 2009-08-06 Panasonic Electric Works Co Ltd Display device
EP2252926A2 (en) * 2008-03-11 2010-11-24 Microsoft Corporation Interpreting ambiguous inputs on a touch-screen
EP2252926A4 (en) * 2008-03-11 2014-08-06 Microsoft Corp Interpreting ambiguous inputs on a touch-screen
JP2011513880A (en) * 2008-03-11 2011-04-28 マイクロソフト コーポレーション How to interpret ambiguous input on a touch screen
JP2009217687A (en) * 2008-03-12 2009-09-24 Alpine Electronics Inc Touch panel input device and processing execution method
JP2010049654A (en) * 2008-08-25 2010-03-04 Casio Hitachi Mobile Communications Co Ltd Terminal device and program
JPWO2010047048A1 (en) * 2008-10-20 2012-03-15 三菱電機株式会社 Touch panel device
WO2010047048A1 (en) * 2008-10-20 2010-04-29 三菱電機株式会社 Touch panel device
JP2010271982A (en) * 2009-05-22 2010-12-02 Nec Casio Mobile Communications Ltd Portable terminal device and program
JP2010282311A (en) * 2009-06-03 2010-12-16 Fuji Xerox Co Ltd Display controller, image processor, and program
KR101127349B1 (en) 2009-09-07 2012-03-29 이상용 A method of inputting letters, numbers or marks using a touchscreen in a portable device
JP2011081676A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011081677A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011081678A (en) * 2009-10-08 2011-04-21 Kyocera Corp Input device
JP2011107803A (en) * 2009-11-13 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd Information processor
JP2016006651A (en) * 2010-02-26 2016-01-14 株式会社カプコン Computer program and computer device
JP2012113725A (en) * 2010-02-26 2012-06-14 Copcom Co Ltd Computer program and computer device
JP2012058839A (en) * 2010-09-06 2012-03-22 Fuji Xerox Co Ltd Information processor and program
JP2012094008A (en) * 2010-10-27 2012-05-17 Kyocera Corp Portable electronic equipment
JP2012094054A (en) * 2010-10-28 2012-05-17 Kyocera Mita Corp Operation device and image forming apparatus
EP2699986B1 (en) * 2011-04-19 2019-03-20 Hewlett-Packard Development Company, L.P. Touch screen selection
CN102902474A (en) * 2011-07-26 2013-01-30 柯尼卡美能达商用科技株式会社 Image processing apparatus having touch panel
JP2011238294A (en) * 2011-08-19 2011-11-24 Clarion Co Ltd Display device
JP2011258241A (en) * 2011-09-26 2011-12-22 Kyocera Corp Mobile electronic device and method of controlling the same
WO2013074333A1 (en) * 2011-11-14 2013-05-23 Microsoft Corporation Adaptive area cursor
CN102981707A (en) * 2011-11-14 2013-03-20 微软公司 Self-adaptive area cursor
US9170719B2 (en) 2011-12-20 2015-10-27 Sharp Kabushiki Kaisha Information processing device, method for controlling information processing device, and recording medium on which information processing device control program is recorded
JP2013131181A (en) * 2011-12-22 2013-07-04 Kyocera Document Solutions Inc Input device and processing apparatus
WO2013128935A1 (en) * 2012-03-01 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 Information processing device, operation condition notification method and non-temporary computer-readable medium
JP2014215639A (en) * 2013-04-22 2014-11-17 シャープ株式会社 Information processing device and control program

Similar Documents

Publication Publication Date Title
JP2005044026A (en) Instruction execution method, instruction execution program and instruction execution device
JP6965319B2 (en) Character input interface provision method and device
JP5790805B2 (en) Information processing apparatus and program
US7415676B2 (en) Visual field changing method
JP4849412B2 (en) Information input display device
US20110157028A1 (en) Text entry for a touch screen
EP2701044A1 (en) Information processing device, information processing method, and computer-readable recording medium which records program
JP4818036B2 (en) Touch panel control device and touch panel control method
KR20110109551A (en) Touch screen device and method for processing input of the same
JP5664147B2 (en) Information processing apparatus, information processing method, and program
KR20060118811A (en) Apparatus and method for displaying input panel without hiding the title of input fields
JP5119763B2 (en) Information device provided with touch panel, icon selection method and program used therefor
US9001055B2 (en) Portable device and method for operating portable device
CN103140826B (en) Information terminal device and the display methods of contact panel
JP2008065504A (en) Touch panel control device and touch panel control method
KR20160004590A (en) Method for display window in electronic device and the device thereof
JP2010287121A (en) Information processor, program, recording medium and display controller
JPWO2011152335A1 (en) Electronic device using touch panel input and operation reception method using the same
JP5622270B2 (en) INPUT DISPLAY CONTROL DEVICE, INPUT DISPLAY CONTROL METHOD, AND PROGRAM
JP4856136B2 (en) Movement control program
JP2007079947A (en) Display device and program for use therewith
JP6800714B2 (en) Electronic equipment and display control method
JP2012146017A (en) Electronic blackboard system, electronic blackboard system control method, program and recording medium therefor
JP2009514119A (en) Terminal having a button having a display function and display method therefor
JP2001195170A (en) Portable electronic equipment, input controller and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080226