JP2004252720A - Information processor, information processing method and computer program - Google Patents

Information processor, information processing method and computer program Download PDF

Info

Publication number
JP2004252720A
JP2004252720A JP2003042548A JP2003042548A JP2004252720A JP 2004252720 A JP2004252720 A JP 2004252720A JP 2003042548 A JP2003042548 A JP 2003042548A JP 2003042548 A JP2003042548 A JP 2003042548A JP 2004252720 A JP2004252720 A JP 2004252720A
Authority
JP
Japan
Prior art keywords
pointer
information
moving
determined
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003042548A
Other languages
Japanese (ja)
Other versions
JP3848269B2 (en
Inventor
Makoto Yoshida
吉田  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIRAIMU KK
Original Assignee
MIRAIMU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIRAIMU KK filed Critical MIRAIMU KK
Priority to JP2003042548A priority Critical patent/JP3848269B2/en
Publication of JP2004252720A publication Critical patent/JP2004252720A/en
Application granted granted Critical
Publication of JP3848269B2 publication Critical patent/JP3848269B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform predetermined information processing such as activating an application program through a simple operation. <P>SOLUTION: This information processor has a pointing device for inputting a position on a display part. The information processor includes a position information acquiring part 21 for acquiring the position information of the pointing device, a moving direction determining part 22 for determining the moving direction of the pointing device according to the position information, and a route pattern display part 28 for displaying both a direction pointer which moves according to the moving direction of the pointing device and a route pattern showing a route through which the direction pointer can move. Further, the information processor includes a route determining part 23 for determining whether or not the direction pointer is movable; a direction pointer display part 24 for moving and displaying the position of the direction pointer; and a direction list storage part 29 for storing a list of directions storing the moving direction. Based on the list of directions, the information processor executes information processing such as activating an application. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置、情報処理方法並びにコンピュータプログラムに関する。
【0002】
【従来の技術】
近年、パーソナルコンピューター(PC)等の情報処理装置では、多数のアプリケーションプログラムを備えるようになっている。このアプリケーションプログラムの起動はマウス等のポインティングデバイスを用いて行う。アプリケーションを起動するためには、PCのOS(オペレーティングシステム)が持つプログラム探索メニューに従い、起動させたいアプリケーションプログラムに該当するアイコンにマウス等のポインティングデバイスを用いてポインタを移動させ、マウス・クリックなどの選択行為をしなければならない。また、頻繁に利用するアプリケーションプログラムは画面上にショートカットアイコンを作成し、そのショートカットアイコンにポインタを移動させクリックすることによって、起動させている。そしてアプリケーションプログラムを起動させることにより、所定のウィンドウが開く。このウィンドウ上で操作者は作業を行うことができるようになる。
【0003】
しかし、アプリケーションプログラムやファイル数が増加し、フォルダーの階層化が進むと、プログラム探索メニューでは操作が複雑となり、迅速にアプリケーションプログラムを起動することができないといった問題点がある。またショートカットアイコンを作成した場合、多数のショートカットアイコンを作成すると画面の表示が煩雑になってしまっていた。特に小型のPCでは表示画面が小さいため、あまり多くのショートカットアイコンを一度に表示画面上に表示させることができない。また、多数のウィンドウを開いている状態でウィンドウの後ろに隠れているアイコンをクリックするためには手間を要する。
【0004】
この問題を解決するために、別のアプリケーション起動方法が開示されている(例えば、特許文献1)。特許文献1に示されている方法では、まずPCのオペレーティングシステム(OS)上で所定のキー操作により、アプリケーション起動モードにする。そして方向キーを例えば、「上」、「上」、「右」と押下する。これにより、この方向キーが押される順番に対応した所定のアプリケーションプログラムを起動することができる。しかし、この方法ではマウスからキーボードの方向キーへの手を移動させる必要があり、操作が手間であった。
【0005】
また、本件の発明者により、マウスゼスチャー(マウスアクション)によってアプリケーションプログラムを起動させるソフトが開発されている(例えば、非特許文献1)。このマウスゼスチャーを用いる方法では、予め所定のアプリケーションプログラムを起動させるためのマウスゼスチャーを登録しておく。例えば、マウスを上→下→右と移動させた場合、アプリケーションプログラムAを起動させるよう登録する。マウスゼスチャーソフトを起動させた状態で、所定のトリガーキー(例えば、キーボードのShiftキー+Ctrlキー)を押した状態でマウスを上→下→右と移動させることにより、アプリケーションプログラムAを起動させることができる。また、このソフトでは、アプリケーションプログラムの起動以外にも、OSの終了やアプリケーションウィンドウのサイズ変更等といった処理も実行することが出来る。
【0006】
しかし、このソフトでは自分が移動させたポインティングデバイスの方向を、所望の方向に移動させているかどうか把握できないという問題点があった。例えば、自分がポインティングデバイスを移動させたい方向と実際に移動させたポインティングデバイスの方向が異なっていることがあった。何回か連続してポインティングデバイスを移動させる場合、その順番を間違えることや移動させる回数を間違えることがあった。このような操作ミスをした場合、異なるアプリケーションプログラムが起動されたり、異なる処理が行われたりすることがあるため、時間の無駄となり操作者に煩わしさを感じさせてしまっていた。特にこの誤操作は、マウスの移動方向が上下左右の4方向以外に斜め方向があり全8方向に移動させる場合に頻繁に起こってしまう。
【0007】
このように、従来の情報処理装置においてアプリケーション起動等の情報処理を簡易な操作で実行しようとすると、表示画面が煩雑になり、誤操作してしまうという問題点があった。
【0008】
【特許文献1】
特開2001−175402号公報
【非特許文献1】
吉田誠、ソフト名「Tact」、[online]、1994年、[平成15年1月22日検索]、インターネット〈URL:http://www.vector.co.jp/soft/win95/util/se048162.html?site=n〉
【0009】
【発明が解決しようとする課題】
本発明は、上記従来技術に鑑みてなされたものであって、アプリケーションプログラムの起動等の情報処理を簡単に誤操作することなく行うことが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供することを一つの目的とする。
【0010】
【課題を解決するための手段】
本発明の第1の態様にかかる情報処理装置は、経路パターンと、前記経路パターン上の経路を移動可能な方向ポインタとを表示する表示部と、前記方向ポインタの移動方向を特定する移動指示情報を入力する入力部と、前記方向ポインタの移動方向を、前記移動指示情報と経路パターンに基づいて決定する決定部と、前記決定された移動方向に、前記方向ポインタが前記経路パターン上を移動するように、前記表示部に表示させる方向ポインタ表示部と、前記方向ポインタの移動方向に基づく情報を格納する方向情報格納部とを備え、格納された前記方向情報に基づいて情報処理がなされる。これにより、簡易な操作でアプリケーションプログラム起動等の情報処理を行うことができ、操作性を向上することができる。
【0011】
上述の情報処理装置において、前記入力部はポインティングデバイスであり、さらに、前記ポインティングデバイスによって特定される位置情報を取得する位置情報取得部と、前記位置情報に基づいて、ポインティングデバイスの移動方向を判断する移動方向判断部とを備え、前記決定部は、前記移動方向判断手段によって判断された移動方向に基づいて、前記方向ポインタの前記経路パターン上の移動が可能か否かを判断し、前記表示部は、前記決定部によって移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示することが望ましい。これにより、ポインティングデバイスを動かす操作により、アプリケーションプログラム起動等の情報処理を行うことができ、操作性を向上することができる。
【0012】
上記の情報処理装置において、前記方向ポインタの移動方向の1つ、あるいは2つ以上の組み合わせからなる方向情報と実行する処理を対応させて記憶するコマンド情報記憶部をさらに備え、前記方向情報格納部に格納された情報と前記コマンド情報記憶部に記憶された方向情報が一致した場合に、前記方向情報に対応するコマンドを実行することが好ましい。これにより、簡易な操作で多数のコマンドの中から特定のコマンドを実行することができる。
【0013】
上記の情報処理装置における、前記経路パターンにおいて、前記方向ポインタが移動可能な方向は、上下方向と左右方向以外の方向を有さないことが望ましい。これにより、操作ミスを少なくすることができる。
【0014】
上記の情報処理装置において、前記入力部はキーボードであり、前記方向ポインタの移動方向に対応したキーを押下することによって、前記方向ポインタが移動するものとすることができる。
【0015】
本発明の第2の態様に係るコンピュータプログラムは、コンピュータに、情報処理を実行させるコンピュータプログラムであって、前記処理は、経路パターンと前記経路パターン上を移動可能な方向ポインタとを表示させるステップと、前記方向ポインタの移動方向を特定する移動指示情報を取得するステップと、前記方向ポインタの移動方向を、前記移動指示情報と経路パターンに基づいて決定するステップと、前記決定された移動方向に、前記方向ポインタが前記経路パターン上を移動するように表示させるステップと、前記方向ポインタの移動方向に基づく方向情報を格納するステップと、格納された前記方向情報に基づいて特定の処理を実行させるステップと、を備える。これにより、簡易な操作でアプリケーションプログラム起動等の情報処理を行うことができる。
【0016】
上記コンピュータプログラムにおいて、前記方向ポインタと前記経路パターンを表示させるためのトリガー操作を検出するステップをさらに備えることが好ましい。これにより、操作性を向上することができる。
【0017】
上記コンピュータプログラムにおいて、前記入力部によって、前記方向ポインタが移動することができない方向へ移動させるための操作が、予め定められた回数以上入力された場合、処理を中断することが好ましい。これにより入力部による誤入力を抑制することができる。
【0018】
上記コンピュータプログラムにおける、前記格納するステップにおいて格納された方向情報と、前記決定するステップにおいて決定された移動方向とに基づき、前記実行される処理として選択可能な処理を特定するリストを表示させることができる。これにより、操作性を向上することができる。
【0019】
上記コンピュータプログラムにおいて、前記経路パターンは、経路上に前記方向ポインタが停止する複数の停止点を備え、前記方向ポインタは、一つの停止点から隣接する他の停止点へ移動可能であり、前記複数の停止点の一つの停止点から他の停止点へ前記移動ポインタが移動した場合、前記方向情報が格納されることが好ましい。これにより、操作者が移動方向を容易に確認することができる。
【0020】
上記コンピュータプログラムにおいて、前記移動指示情報を取得するステップは、ポインティングデバイスにより特定される位置情報を取得するステップと、前記位置情報に基づいて、ポインティングデバイスの移動方向を判断するステップとを備え、前記決定するステップは、前記判断された移動方向に基づいて、前記方向ポインタが経路パターン上を移動可能か否か判断するステップを備え、前記方向ポインタが前記経路パターン上を移動するように表示させるステップは、前記決定するステップにおいて移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示させるステップを備え、前記格納するステップは、前記決定するステップにおいて移動可能と判断された方向を格納することが好ましい。これにより、ポインティングデバイスを動かす操作により、アプリケーションプログラム起動等の情報処理を行うことができ、操作性を向上することができる。
【0021】
前記ポインティングデバイスの移動方向が上下方向及び左右方向のいずれか一方であるか否かを判断するステップをさらに備え、上下方向及び左右方向のいずれでもないと判断した場合、前記方向ポインタが経路パターン上を移動不可能と判断することが好ましい。これにより、操作ミスを防ぐことができ、操作性を向上することができる。
【0022】
前記ポインティングデバイスが同一方向の移動を続けているか否かを判断するステップをさらに備え、同一方向に移動を続けていると判断した場合、前記方向ポインタが経路パターン上を移動不可能と判断することが好ましい。これにより、操作性を向上することができる。
【0023】
前記ポインティングデバイスにより特定される位置情報に基づき、ポインティングデバイスの移動量を決定するステップをさらに備え、前記移動量が所定値よりも小さい場合、前記方向ポインタを移動させないことが好ましい。これにより、ポインティングデバイスが移動開始する際の手ぶれによる誤操作を無くすことができ、操作を確実に行うことができる。
【0024】
本発明の他の態様にかかる情報処理方法は、表示部上の位置を入力するポインティングデバイスを用いた情報処理装置において、前記ポインティングデバイスの移動方向に基づいて移動する方向ポインタを表示するステップと、前記方向ポインタが移動可能な経路を示す経路パターンを表示するステップと、前記ポインティングデバイスの位置情報を取得するステップと、前記位置情報に基づいて、ポインティングデバイスの移動方向を判断するステップと、前記判断された移動方向に基づいて、前記方向ポインタが経路パターン上を移動可能か否か判断するステップと、前記移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示するステップと、前記移動可能と判断された方向を方向リストに格納するステップを備え、前記方向リストに格納された情報に基づいて情報を処理する。これにより、簡易な操作でアプリケーションプログラム起動等の情報処理を行うことができる。
【0025】
上記情報処理方法において、前記ポインティングデバイスの移動方向が上下方向及び左右方向のいずれか一方であるか否かを判断するステップをさらに備え、上下方向及び左右方向のいずれにも該当でしないと判断した場合、前記方向ポインタが移動不可能と決定することが好ましい。これにより、操作性を向上することができる。
【0026】
【発明の実施の形態】
発明の実施の形態1.
本実施の形態にかかる情報処理装置について図1を用いて説明する。図1は情報処理装置の全体の構成を示す構成図である。1はパーソナルコンピューター(以下、PC)、2は表示部、3はマウス、4はキーボードである。PC1はCPU等によって構成され様々な情報処理を行う演算処理部、ROM(Read Only Memory)RAM(Random Access Memory)、ハードディスク等の内部又は外部の記憶手段を備えている。マウス3やキーボード4の入力手段によって入力された情報に基づいて、演算処理部が処理を行いその結果を表示部2に表示させ、あるいは、記憶手段に記憶させることが可能となる。ハードディスクには本実施の形態にかかるオペレーティングシステム、情報処理プログラム及び多数のアプリケーションプログラムがインストールされている。表示部2にはCRTや液晶ディスプレイ等の表示装置を用いることができる。本形態のマウス3は2ボタン式のマウスであり、左右のボタンを備えている。もちろん、1ボタンあるいは3ボタン以上のマウス、トラックボール、タッチパッド、あるいはスティック状のポインティングデバイス等、マウス以外のポインティングデバイスも用いることが可能である。このマウス3を移動することによって、表示部2に表示されたマウスポインタが移動する。本実施の形態のプログラムを実行させた状態でマウスを操作することによって、アプリケーションプログラムの起動、ウィンドウの表示サイズ変更及び位置変更またはアイコン等の選択、フォルダーの選択等の所定の情報処理を行うことができる。なお、アプリケーションプログラムの起動、ウィンドウの表示サイズの変更、位置変更、アイコンの選択等の情報処理を実行させるための指示を与えるものをコマンドと総称することとする。このコマンドはアプリケーションの起動、ウィンドウの表示サイズの変更、位置変更、アイコンの選択に限られるものでなく、表示部2に表示されないPCの内部的な処理でもよい。
【0027】
本実施の形態にかかる情報処理プログラムの操作手順について図2を用いて説明する。図2は本実施の形態にかかる情報処理プログラムが動作している状態での表示部2に表示される表示画面の一例を示している。図1で付した符号と同一の符号は同一の構成を示すため、説明を省略する。5はアイコン、6は矢印状のポインタ、10は経路パターン、11はナビゲーションパネルである。本形態のプログラムを使用しない場合、通常は、マウス3を操作してポインタ6を移動させる。そして、アイコンを選択し、マウス3のボタンをクリックすることでアイコンに対応する情報処理がなされる。アイコン5はアプリケーションプログラムの起動やファイル探索メニューの起動、所定のフォルダーへのショートカット等の処理がそれぞれ割り当てられている。
【0028】
本実施の形態にかかる情報処理プログラムをロードした状態にして、トリガーとなる操作を実行すると、情報処理プログラムの処理が開始し、経路パターン10を有するナビゲーションパネル11が表示部2に表示される。本実施の形態では、例えば、キーボードのCtrlキーが押下された状態を維持することによりトリガーがかかる。このように、トリガーに関するキー及び操作を、それぞれ、トリガーキー及びトリガー操作と呼ぶ。例えば、このCtrlキーがトリガーキーであり、Ctrlキーが押下された状態を維持する操作がトリガー操作である。もちろん、トリガーキーはキーボードの他のキー、マウスの左右ボタン、あるいはその他の入力手段でもよい。さらには2つのキー(例えば、ShiftキーとCtrlキー)又は3つ以上のキーをトリガーキーとしてもよい。トリガー操作はトリガーキーを1回又は2回以上連続して押下すること、トリガーキーを一定時間以上押下した状態に維持すること、あるいはマウスを連続して左右に移動させること等とすることができる。トリガーをOFFとするための操作としては、押下状態のキーを放すこと、他のキーを押下すること、一定時間以上マウス3の操作をしないこと等がある。この操作をトリガーOFF操作とする。このトリガーキー、トリガー操作及びトリガーOFF操作は操作者によって設定可能である。2つ以上の操作がトリガー操作として設定された場合、いずれか一方の操作を行うことによってトリガーがかかる。トリガーがONになると、経路パターン10がトリガー操作を行う直前のポインタ6の位置に表示される。すなわち、図2に示されているようにポインタ6が表示されている位置にナビゲーションパネル11の中心が表示される。もちろん、ナビゲーションパネル11が表示される位置はこの位置に限定されるものでなく、予め定められた位置とすることもできる。
【0029】
次にナビゲーションパネル11の表示動作について図3を用いて詳細に説明する。図3はナビゲーションパネル11の構成を示す図である。図1、図2で付した符号と同一の符号は同一の構成を示すため説明を省略する。12は方向ポインタである。13を含む符号を付された要素は、経路パターン10中に設けられた移動ポイントを示している。13Cは中央ポイント、13Rは右ポイント、13Lは左ポイント、13Uは上ポイント、13Dは下ポイントである。すなわち、13の後のC、U、D、R、L、がそれぞれ経路パターン10における位置を示している。経路パターン10は方向ポインタ12が移動可能な経路を示し、方向ポインタ12は表示部2に表示された経路パターン10上の移動ポイント13を段階的に移動する。
【0030】
経路パターン10と方向ポインタ12の動作によって、マウス3の上下左右の動きを視覚的に確認できる。本実施の形態では、本プログラムのトリガー後の処理開始時において、図3(a)に示すように上下方向に延びる経路部と、左右方向に延びる経路部を備えた十字の経路パターン10が表示されている。各経路部が交差する交差部であるその中央に、方向ポインタ12が表示される。各経路部の端部には、停止点として移動ポイントが設けられている。具体的には、方向ポインタ12の上下左右のそれぞれには、方向ポインタ12が移動可能な上ポイント13U、下ポイント13D、左ポイント13L、右ポイント13Rが表示されている。経路パターン10の中央には方向ポインタ12が移動可能な中央ポイント13Cが設けられているが、図3(a)においては、方向ポインタ12が中央に重なって表示されているために隠れている。移動ポイント13は方向ポインタ12が重なっている場合、表示部2上には表示されないものとする。また、説明のために方向ポインタ12の移動方向の履歴を示す方向リスト14を図示している。なお、この方向リスト14は本実施の形態では表示部2上に表示されていないが、表示部2上に表示されるようにしても良い。方向リスト14に格納される方向に関する履歴情報によって、実行されるコマンドが決定される。
【0031】
方向ポインタ12は、移動指示のための移動指示情報を入力可能なマウス3によって、操作することができる。トリガーがかかっている状態、すなわちナビゲーションパネル11が表示されている状態でマウス3を左に移動すると、図3(b)に示すように方向ポインタ12は、中央ポイント13Cから左ポイント13Lの位置まで移動する。そして方向リスト14には左に移動したことを示すLが入力される。なお、方向ポインタ12が移動したことによって、方向ポインタ12が表示されていた経路パターン10の中央には、中央ポイント13Cが表示される。なお、マウス操作においては、手ぶれにより、方向ポインタ12を移動させたい方向とは異なる方向に、マウスが微小に移動してしまう場合がある。このような微小移動をした場合、操作者による積極的な移動指示操作と認識すると、実行したいコマンドとは異なるコマンドが実行されることがある。従って、本実施の形態では、一定距離以上マウスを移動させた場合に、初めてその方向が方向リスト14に入力されるようになっている。これにより、マウス操作の誤認識を防ぎ、マウス操作の確実性を向上することができる。又、方向ポインタが、左ポイントに移動した後、マウスの左方向への移動操作を続けても、方向ポインタは移動せず、左ポイントにとどまる。例えば、方向ポインタ12が左ポイント13Lにある状態で、右方向以外の左、上、下方向にマウス3を移動させても方向ポインタ12の位置は移動せずに左ポイント13Lの位置にある。この操作では方向リスト14にはLが入力されたままで、L、U、Dは続けて入力されない。これにより、マウス操作の確実性を向上することができる。
【0032】
次にマウス3を右方向に移動させると、方向ポインタ12は経路パターン10の中央に戻り、図3(c)に示す状態となる。方向リスト14にはマウス3が左に移動した後に右に移動したことを示すLRが入力される。さらにマウス3を上方向に移動させると、方向ポインタ12は経路パターン10の上ポイント13Uの位置に移動する(図3(d))。また方向リスト14にはマウス3が左→右→上の順番で移動したことを示すLRUが入力される。この状態でトリガーキーを離すことによってトリガーがOFF状態となり、方向リスト14への入力が終了し、ナビゲーションパネル11の表示が消える。
【0033】
一方、PC1の記憶手段には、複数のコマンドと、各コマンドに対応する方向情報とを格納するテーブルが記憶されている。コマンド及び対応する方向情報の組をコマンド情報と呼ぶ。移動方向(L、R、U、D)の1つ又は2つ以上の組み合わせからなる方向情報と、アプリケーション起動等のコマンドが対応付けられて記憶されている。方向リスト14内の方向情報とPC1の記憶手段に記憶された方向情報が一致した場合、その方向情報に対応するコマンドが実行される。先の例においては、「LRU」に対応するコマンドが実行される。このように本実施の形態では、コマンドと対応づけたマウス3の動作を、移動距離、移動時間に関係なく上下左右の動きの組み合わせに限定し判断している。さらにこの経路パターン及び方向ポインタを表示させることにより、操作者が視覚的に現在の位置を把握可能となり、次に移動させるべき方向が示されるので操作性を向上することができる。あるいは、単純なインターフェースにより、操作者は、マウス移動によるコマンド実行を容易に習得することができる。
【0034】
また、コマンドと対応付けられるマウス3の移動方向を、上下左右の4方向に限定することによって、斜め方向にマウス3を移動させる必要がなくなり、移動方向の誤入力を防ぐことができる。このようにしてPCなどの情報処理装置の操作性を向上することができる。なお、本形態において斜めにマウス3を移動させた場合、上下左右いずれの方向とも認識されないため、方向ポインタ12は移動せず、方向リスト14にはL、R、U、Dのいずれも入力されない。
【0035】
コマンド情報、つまり、方向情報及びそれに対応するコマンドは、予め操作者が登録することができる。例えば、方向情報がLRにはアプリケーションプログラム1が、RLにはアプリケーションプログラム2が対応して起動されるように登録することができる。もちろん、方向ポインタ12の移動回数は1回以上であればよい。頻繁に起動するアプリケーションプログラムに対応する方向情報は方向ポインタ12の移動回数を少なくすれば、マウス3の操作回数を少なくすることができ、利便性を向上することができる。なお、方向リスト14と同一の方向情報がない場合、そのままナビゲーションパネル11は閉じて、実行プログラムは終了する。さらに同じ方向情報に2以上のコマンドを対応させて記憶することが可能であり、この場合2つ以上のコマンドを1回のマウス操作で実行することが出来る。
【0036】
本実施の形態では操作性を向上させるため、プログラムにタイマー処理を設けて、全体の処理時間が一定時間を超えた場合、あるいは、操作者による所定時間以上操作がない場合には、プログラムを自動的に終了する。このタイマー処理においては、操作全体(トリガーONからトリガーOFFまで)の許容時間、方向ポインタ12が方向を変更するまでの許容時間がそれぞれ予め設定されている。そして、この許容時間を経過した場合には、自動的にプログラムが終了する。なお、自動的に終了するまでの間に、既に方向リスト14に入力されているデータがある場合、そのデータに対応するコマンドは実行されない。もちろん、これを実行する形態も可能である。さらに、本形態においては、方向リスト14に一定数以上の移動方向のデータが入力された場合あるいは、経路パターン10上移動できない方向に一定回数以上マウスを移動させた場合も、同様にプログラムが自動的に終了する。このように、特異な操作をした場合、あるいは、所定時間以上操作をしなかった場合には、プログラムを自動的に終了させることにより、コマンド情報を知らない者が誤ってトリガー操作をした場合でも誤ってコマンドが実行されることがなくなり、利便性を向上させることができる。
【0037】
上述の経路パターン10上のどの方向に移動できるかを判断するための経路マップについて図4を用いて説明する。図4は経路マップの原理を説明するための図である。経路マップはプログラムによるアクション処理中に抽出された方向属性(移動方向U、D、L、R)と照らし合わせ論理上、移動できる方向か否かを判断するために使用する。経路マップは、例えば図4に示すように、7×7の表によって構成することができる。説明のため、行と列のそれぞれを示す、1〜7とA〜Gが付されている。なお、マップ上の場所を特定するため、例えば2とDの交点の場所を2D、3とDの交点を3Dとして表すものとする。従って、図4に示される場所は1A〜7Gで表すことができる。なお、7×7以外の表を用いることが可能であり、3×7等といった非対称の表を利用してもよい。
【0038】
例えば、図3(b)の状態では、方向ポインタ12は左ポイント13Lにある。そのため、方向ポインタ12をさらに左に、もしくは上下に移動させることが出来ない。すなわち、方向ポインタ12が左ポイント13Lにある状態においては、右方向しか移動させることができない。このように方向ポインタ12が移動不可能な方向、あるいは移動可能な方向が経路パターン10によって示されている。この経路パターン10及び方向ポインタ12は、経路マップの情報に従って表示される。
【0039】
図4の経路マップについて、具体的に説明する。2D、4B、4F、6Dには黒丸(●)が付されている。この●は方向ポインタ12の停止場所を示すものである。すなわち、2D、4B、4F、6Dはそれぞれ図3における上ポイント13U、左ポイント13L、右ポイント13R、下ポイント13Dに対応する。4DにはNが付されている。このNは方向ポインタ12の移動開始位置を示すものであり、図3における中央ポイント13Cに対応する。すなわち、トリガーがかかった時、Nがある場所に方向ポインタ12は表示され、アクションの処理が開始される。このNの位置は黒丸と同様に方向ポインタ12の停止場所となる。3D、4C、4E、5Dには白丸(○)が付されている。この○は方向ポインタ12が通過する移動経路を示すものである。すなわち、白丸(○)が付されている場所は方向ポインタ12が停止しないで通過する場所を示している。N、白丸、黒丸のいずれも付されていない場所は方向ポインタ12が移動できない領域となる。このような経路マップのデータはプログラムの処理に先立ち準備され、RAMに読み込まれるものとする。
【0040】
トリガーがかかると方向ポインタ12は、経路パターン10上においては、Nに対応する位置に表示される。そして、ポインタ位置からみて移動方向に○又は●がある場合、移動可能方向と判断する。移動できた場合は方向リスト14に移動方向を示す属性(UDLR)を格納すると同時に、方向ポインタ12をその方向に移動させて表示する。例えば、方向ポインタ12がD2にある場合、L、R、U方向には○、●、Nがないので移動できないが、D方向には○があり移動できると判断する。同様に方向ポインタがB4にある場合L、U、D方向には移動できないがR方向には移動できると判断する。この移動できない方向にマウスを移動させても方向リスト14にはデータは格納されず、方向ポインタは経路パターン上を移動しない。移動方向に○が連続している場合、方向ポインタ12は停止することなく、次のN又は●が出現する位置まで移動して停止する。この場合、1つのアクションに対応するデータを方向リスト14に格納する。例えば、D2に方向ポインタ12がある場合、下方向に1度マウスを移動させると方向ポインタ12はD3の○を通過してD4の位置に移動する。この場合、方向リスト14にDが1つ格納される。なお、図4に示す経路マップ上にはないが、移動する方向に○はあるが、Nや●がない場合は、移動方向の端の○まで移動して停止する。この場合、例えば、方向リスト14に移動方向に対応するデータが格納することができ、あるいは、格納しない態様も可能である。
【0041】
この経路マップは、移動可能経路に相当するデータと、Nから移動して行くことができない禁止エリアに相当するデータとを備える。移動可能経路は、アクションの開始位置であるNから、上下もしくは左右方向へ隣接する場所へ移動することによって、○や●を辿ることが出来る領域である。Nから辿ることができない場所(図4における1A、7A等)に○や●がある場合、それらの上下左右方向の隣接位置に○や●がないので、方向ポインタ12はその位置へは移動できない。この経路マップはメモリ内などに確保したエリアを利用して記憶させておく。そしてトリガー操作がなされると、経路マップに基づくナビゲーションパネル11を画面に表示し、経路マップ上の論理的な位置を、経路パターン上の方向ポインタの位置として表示し、操作のガイドとして利用する。
【0042】
上記の経路マップの原理に従い方向ポインタ12が移動した場合、移動方向を示す方向データの属性(L、R、U、D)を方向リスト14に入力する。入力されたデータは順番にスタックされる。方向リスト14はアクション開始時に(トリガー操作が行われた時)初期化され、図3(a)に示すように空の状態である。D4から開始されたアクションによる方向情報が方向リスト14に格納されていく。例えば、上方向にマウス3を移動した場合、方向ポインタ12はD2の場所に移動し方向リスト14にはUが格納される。さらに下方向にマウス3を移動した場合、方向ポインタ12はD4の位置に戻り、方向リスト14にはUDが格納される。このように格納順番により方向の上下左右の出現順を判断することができる。そして方向リスト14に格納されたデータと一致する方向情報を有するコマンド情報があるか否かを判断し、ある場合はそのコマンドを実行する。この方向リスト14もメモリ内に確保したエリアを利用して記憶される。
【0043】
この経路マップを利用してコマンドを実行するための論理構成及びフローについて図5乃至図14を用いて説明する。図5は本形態の情報処理装置の論理構成を示すブロック図である。図5に示す論理構成は、必要に応じて、ハードウェアあるいはソフトウェアを利用して構成することができる。図6はトリガーがかかる前のイニシャル処理を示すフローチャートである。図7は本形態における情報処理の全体処理を示すフローチャートである。図8〜図14は図7で示した全体の処理における一部の処理を示すフローチャートである。図5において21は位置情報取得部、22は移動方向判断部、23は経路判断部、24は方向ポインタ表示部、25は経路パターン記憶部、26はコマンド情報記憶部、27は方向リスト判断部、28は経路パターン表示部、29は方向リスト記憶部、30は経路マップ生成部、31はトリガー処理部、32は処理時間判断部である。
【0044】
経路パターンが経路パターン記憶部25に、コマンド情報がコマンド情報記憶部26に予め記憶されている。操作者は、これらのデータを設定することが可能である。例えば、操作者は、マトリックス状の経路マップに、○や●などのデータを入力することによって、移動可能経路と禁止領域を定義することができる。又、コマンド情報についても、方向情報とそれに対応するコマンド情報を自由に設定することができる。これらの情報は、ハードディスクなどの外部記憶手段に記憶することができる。経路マップ生成部30は、経路パターン記憶部25のデータに基づき経路マップを生成することができる。マウス3やキーボード4によってトリガー操作がされると、トリガー処理部31によるトリガー処理が行われ、プログラムが所定の処理を開始する。トリガー処理部31は、複数の異なるトリガー操作のそれぞれに対して、トリガー処理を行うことができる。例えば、図5において、トリガー処理1、2、nは、複数のトリガー操作のそれぞれに対応するトリガー処理を示している。いずれか1つのトリガー処理が行われると、常駐している本実施の形態にかかるプログラムが実行され、所定の処理を開始する。このプログラムのアクション処理に係る部分は、図5のAの内部で実行される。さらに、トリガーがONした時、経路パターン表示部28は、経路マップ生成部30が生成した経路マップに基づき、経路パターン10と方向ポインタ12を画面上に表示する。
【0045】
トリガー操作により本実施の形態にかかるプログラムが処理を開始すると、まず位置情報取得部21がマウスポインタの現在置情報を取得する。マウス3の現在位置に基づいて、移動方向判断部22はマウスが移動した方向を判断する。すなわち、現在のマウスポインタの位置と、直前の位置判断されたときのマウスポインタの位置を比較して、上下左右どちらの方向にマウスが移動したかを判断する。なお、本実施の形態ではキーボードの方向キーを押下することによっても移動方向を入力できるようになっており、キーボード4の上方向のキーを押下した場合はマウス3を上に移動させたことと同じ動作をしたことになる。もちろん下、左、右についても同様である。内部メモリには、経路マップと方向ポインタ情報が記憶されている。方向ポインタ情報は方向ポインタの経路マップ上の論理的位置情報であり、トリガー時にはNの位置情報を有している。経路判断部23は、移動方向判断部22によって決定されたマウス3の移動方向、取得した経路マップのデータ及び方向ポインタ情報から、方向ポインタ12が移動可能か否かを判断する。すなわち、前述の経路マップでの処理原理に基づき、経路マップ上で方向ポインタが移動する経路があるか否かを判断する。この判断結果に基づいて、方向ポインタ表示部24は経路パターン10上の方向ポインタ12を表示する。方向ポインタ12が移動可能なマウス操作をした場合、方向ポインタ表示部24は経路パターン10上の方向ポインタ12の位置を変更して、表示部2に表示させる。そして、その結果は方向リスト記憶部29にスタックされ、さらに方向ポインタ情報が移動先の場所情報に更新される。一方、方向ポインタ12が移動不可能なマウス操作をした場合、経路パターン10上の方向ポインタ12の位置が変わらずに画面表示される。以上のように、経路判断部23によって判断された方向ポインタ12の論理的な位置は方向ポインタ情報として一時的に記憶され、方向ポインタ12が移動するたび順次更新される。そして方向リスト記憶部29には順次移動方向のデータが格納され、方向リスト14内の方向情報が記憶される。
【0046】
操作者による入力が終了し、トリガーがOFFになると、方向リスト14に格納された方向情報は方向リスト判断部27に渡される。経路パターン表示部28、方向ポインタ表示部24は、それぞれ、経路マップ10と方向ポインタ12の表示処理を終了する。方向リスト判断部27は、コマンド情報記憶部26に記憶されていた方向情報と方向リスト14に格納されているデータと一致するか否かを判断する。一致すると判断した場合は、実処理部が対応するコマンドの実処理を行う。一致しないと判断した場合はコマンドが実行されずに終了する。このようにして、経路マップを用いたコマンドの実行が可能になる。
【0047】
次に図6〜図14に示すフローチャートを用いて詳細に説明する。なお、説明のため図2に示した画面上の位置をXY座標として表し、画面の左上を原点(0、0)とし右下の座標を(1024、768)とする。すなわち、X座標の値が大きいほど、画面の右の位置を示し、Y座標の値が大きいほど画面の下の位置を示す。図6はイニシャル処理のフローを示している。トリガーONによる処理開始前に、図6に示すようにイニシャル処理を行い、所定の値が設定されている(S601〜S605)。
【0048】
イニシャル処理は、まずMX値、MY値を設定する(S601)。MX値はX軸の移動誤差許容値であり、MY値はY軸の移動誤差許容値である。すなわち、操作者によるアクション開始時におけるマウスの移動距離がMX及びMY値以下であるときは手ぶれによる誤差と判断する。そして誤差と判断された場合は上述のように上下左右への移動によるアクションとはみなされず、方向ポインタ12は移動しない。言い換えるとアクション開始時におけるマウスの移動距離がMX値又はMY値を越えた時に方向ポインタが移動し、方向リスト14にデータが格納される。MX値、MY値は操作者が決定しても良いし、予め決定されていても良い。
【0049】
同様にATT値(S602)、WDT値(S603)、OV値(S604)を設定する。ATT値は前述したように全体の処理時間が一定時間以上の場合、プログラムを中断するための値である。WDT値は一定時間以上操作が無い時にプログラムを中断するための設定時間の値であり、マウス3の方向を変更するときに停止する時間の許容値である。ATTはアクション全体の操作許容時間である。プログラムのタイマーを用いてこれら操作時の時間をモニターし、ATT値、WDT値を越えた場合はプログラムを中断させる。OV値はマウスを斜めに移動させたか、あるいは縦横(上下左右)(UDLR)方向に移動させたかを判断する斜め判断値である。このOV値に基づいて斜め方向の移動か縦横方向の移動かを判断する。これらのMX,MY、ATT、WDT、OVの値は予め決定されていてもよいし、操作者が決定出来るようにしてもよい。
【0050】
そして、経路マップをセットする(S605)。経路マップは前述のように十字のマップのほかに、それ以外のマップを用いることができる。また、複数の経路マップから1つの経路マップを操作者が選択できるようにしてもよい。
【0051】
図6に示した処理はトリガー処理を開始する前又は、本機能をリセットする場合に実施される。例えば、本実施の形態にかかるプログラムを起動させたときに、この処理を行う。そして、操作者が設定を更新して保存した場合に、再度図6に示す処理を実行する。これにより、トリガー操作を行ったときに本実施の形態にかかるプログラムが実行される。
【0052】
次にイニシャル処理後の、全体の処理について図7を用いて説明する。本実施の形態にかかるプログラムを起動させた状態、すなわち図6の処理が完了した状態では、トリガー操作の入力を待っており、トリガーキーが押されたか否かの判断を行っている(S701)。トリガー操作がなされた場合、トリガー押し判断がONとなり、アクション前処理(処理0)を実行する(S702)。アクション前処理では、アクションの前に行われる方向リスト14の初期化等が実行される。アクション前処理が完了したらアクションプロセス処理(プロセス2)を実行する(S703)。このアクションプロセス処理ではマウス3の移動方向に基づいて、方向リスト14に方向情報を格納する処理等を行う。このアクションプロセス処理の実行中はトリガー状態の判断を行っており、トリガーのON/OFFを判断している(S704)。トリガーがON状態のままであると、アクションプロセス処理の実行を続ける。トリガーOFFになるとアクションプロセス処理を終了し、アクション後処理(処理4)を実行する(S705)。アクション後処理はナビゲーションパネルの表示消去等の処理を実行する。さらにアクションプロセス処理が中断したかを判別している。処理が中断していると判断した場合はそのまま終了する。処理が完了している場合は、処理判断を実行する(S706)。処理判断では方向リスト14に格納されているデータとコマンド情報の方向情報を比較して所定のコマンドを実行する。
【0053】
以下にステップS702〜ステップS706の処理について詳細に説明する。まず、アクション前処理(S702)について図8を用いて説明する。アクション前処理では、方向リスト14の初期化を行う(S801)。次に経路パターン10を有するナビゲーションパネル11と方向ポインタ12を表示する(S802)。このナビゲーションパネルは前述したように図5における経路パターン表示部28によって表示される。次にSTEPを0とする(S803)。STEPとはアクションプロセス処理において最初の処理(最初の方向が確定されるまでの処理)か、それ以降の処理を切り分けるフラグである。STEP=0の時は最初の処理と判断され、STEP=1の時はそれ以降の処理と判断する。次にトリガー処理がなされた時のマウスポインタの位置からWX、WYをセットする(S804)。WX、WYはマウスポインタの現在位置CX、CYと比較して、マウスの移動方向を判断するための値である。WX、WYは後述する処理1(図9)に示すループが実行されている間において、1回前のループのマウスポインタ位置を示している。そして、ループの前後のマウスポインタ位置情報を比較して移動方向を判断する。このWX、WYを前回位置と呼ぶ。ステップS805において、方向ポインタの経路マップ(図4)上の論理位置情報である方向ポインタ情報(HX、HY)をセットする。方向ポインタ情報(HX、HY)は、経路マップ上の方向ポインタの現在位置を表す。ステップS806では、処理中断フラグABORT_FLGを0とする。この処理中断フラグABORT_FLG=1となった場合、トリガーOFF後の処理で中断と判断できる。
【0054】
次に経路脱線カウンタDCを0にする(S807)。経路脱線カウンタDCは経路パターンで移動できない方向にマウスを移動させた回数をカウントするカウンタである。DCが一定以上の値になった場合に上述のABORT_FLGを1とすることにより、トリガーOFF後の処理で中断したことを判断できる。さらに、アクション開始時間AST=SYSTIME()を設定する(S808)。ASTはアクションを開始した時間を示している。SYSTIME()はPC上の現在時間を1/1000秒単位まで示す関数と仮定する。このASTをアクション処理中の現在時間と比較して、その差がATT以上となった場合、ABORT_FLGを1とすることにより、後続処理で中断したことを判断することができる。
【0055】
アクションプロセス処理(プロセス2)(S703)について図9を用いて説明する。アクションプロセス処理は主処理であるアクション処理を一定時間間隔で実行する。例えば、後述するアクション処理(処理1)(S902)を0.1秒毎に実行する場合、PC1の内部タイマーを利用して0.1秒間隔でプロセス実行タイミングはYesと判断される(S901)。これにより、0.1秒間隔でアクション処理が実行される。このアクション処理を実行するタイミングはPC1の処理速度に合わせて調整できるものとする。例えば、0.01秒〜0.1秒のタイミングで実行するのが望ましい。このタイミングは、アクション処理の処理時間より、長い時間を設定するようにする。アクション処理の処理時間より短く設定した場合、アクション処理の途中で次処理が最初から実行されることとなるためである。またタイミングを長くすると使用者が行うマウス3の移動操作時間が長くなり、マウスから返される位置情報の差を大きくすることも可能である。ただし、あまり長くすると位置情報を取得する時間が遅れてしまい、操作性が低下してしまうおそれがある。このプロセス実行タイミングは予め設定されていてもよいし、PCの処理速度等に応じて変更可能にしてもよい。
【0056】
次に移動方向の判断を行うアクション処理(処理1)(S902)について図10を用いて詳細に説明する。このアクション処理が一定時間間隔で実行されることにより、方向リスト14に方向属性(L,R、U、D)が入力される。トリガー操作がなされ、経路パターン10が表示された状態で、キーボードのキー情報を取得する(S1001)。ステップS1001ではキーボードの方向キーの押下情報を取得する。方向キーが押された場合、K_AIRTに方向属性(U、D、L、R)を入力する。方向キーが押されていない場合、K_AIRTにNonを入力する。なお、K_AIRTはキーボードの方向キー押下用変数であり、K_AIRTに入力された情報が移動方向判断部22で判断される。次に位置情報取得部21が、マウスポインタの位置から画面上の位置情報を取得する(S1002)。マウスのX軸の値を取得しCXに、Y軸の値を取得しCYに入力する。
【0057】
次に、処理時間判断部32が全体の処理時間を判断する(S1003)。具体的には現在時間SYSTIME()とアクション開始時間ASTの差が許容時間ATTより大きいか否かによって判断する。ATTの値より大きい時、処理時間が許容時間を超えていると判断し、処理時間越え処理を行う(S1016)。処理時間越え処理において、処理中断フラグABORT_FLGを1にする。これにより、一定時間以上経過した場合、後続処理(トリガーOFF後の処理)で中断したことを判断することができる。尚、処理時間越え処理(S1016)は、本形態においてオプション処理であり、以下の説明においては、適宜、この処理がないものとして説明する。
【0058】
許容時間内であるとき(S1003)は、最初のSTEPであるか否かを判断する(S1004)。すなわち最初のステップ(トリガーON後、一番最初に方向を抽出するタイミング)か、それ以降であるか判断する。トリガーON後、最初に方向(LRUD)を抽出する場合は、STEP=0なので移動開始前誤差内か否かの判断を行う(S1005)。ここでは、アクション開始前の微妙な動きは手ぶれなどの誤差範囲と判断する処理を行う。具体的には前回位置WX、WYと現在位置CX、CYの差の絶対値が手ぶれ誤差許容値MX、MYよりそれぞれ大きいか否かを判断する。さらにキーボードの方向キーが入力されているか否かすなわち、K_AIRT=Nonであるかを判断する。誤差許容値以上である場合又はK_AIRT=Nonでない場合は方向決定(処理3)を行う(S1006)。処理3では上下左右いずれの方向に移動したかを現在位置CX、CY及び前回位置WX、WYに基づいて決定する。この方向決定の処理は移動方向判断部22で行われる。なお方向決定の処理の詳細については後述する。方向決定の処理によって決定した方向はAIRTに入力される。このAIRTは方向を示す変数であり、L、R、U、Dが入力される。
【0059】
処理3(S1006)によって、方向が確定したら経路マップに基づいて移動できるか否かを、経路判断部23が判断する(S1008)。ここではAIRTに格納された方向、(HX、HY)に格納された方向ポインタ情報、及び前述の経路マップの原理に基づいて経路パターンの経路に沿って移動できないと判断した場合、経路脱線処理を行う(S1017)。経路脱線処理では操作のケアレスミスを回避するため、経路パターン上を移動可能な経路から外れた回数をカウントアップする。この回数が所定の値より多い場合はABORT_FLGを1にセットし、トリガーOFF後の処理で中断と判断される。AIRTに格納された方向、(HX、HY)に格納された方向ポインタ情報及び前述の経路マップの原理に基づいて経路マップの経路に沿って移動できると判断した場合、方向リスト14に方向情報を追加する。方向リスト14は方向リスト記憶部29に記憶されており、変数L_AIRTによって表される。方向リスト14に方向情報を追加する処理として、L_AIRTにAIRTのデータを追加する。(S1009)。この結果に基づいて経路パターン上の方向ポインタ12を移動させて表示する(S1010)。さらに、AIRTのデータをW_AIRTに入力する(S1011)。W_AIRTはアクション処理時に前回処理のAIRTを保持する変数である。このW_AIRTに基づいて後述する同一方向か否かを判断するための処理が行われる。さらに経路パターン上の現在の方向ポインタ12の位置(HX、HY)を更新する(S1012)。
【0060】
そして最初のSTEPか否かの判断がされる(S1013)。最初のSTEPである場合は一度処理が行われたので、次回は2回目以降の処理となり、STEP=1となる(S1014)。さらに次のアクション処理を実行するため、1回目のアクション処理で用いられた現在位置CX、CYの値が前回位置WX、WYに入力され、位置情報保持が行われる(S1015)。このようにループ処理が行われる毎に現在位置CX、CYの位置を前回位置WX、WYに代入して一定時間間隔で更新する。そしてWX、WYを次のループで取得される現在位置CX、CYと比較して移動方向の判断を行っていく。なお、処理時間判断ステップ(S1003)で処理時間が許容時間を越えていると判断された場合、方向決定ステップ(S1006)で斜め方向に移動していると判断された場合及び経路判断ステップ(S1008)で経路から脱線していると判断した場合、ステップS1014までの処理を行う必要がないため位置情報保持が行われるステップS1015に移行する。これらの場合ではSTEP=0のままであるのでSTEP=1となるまで(1度、移動可能と判断されるまで)同様の処理がなされる。このようにしてアクション処理のSTEP=0の場合のループが終了する。
【0061】
一度、移動方向が確定した後のアクション処理では、前回のアクション処理のステップS1014でSTEP1が1になっているため、最初のSTEPか否かの判断(S1004)から、同一方向か否かを判断するステップに移動する(S1007)。同一方向か否かを判断するステップでは前回のループで移動した方向と同一の方向に移動したか否か等を判断する。同一である場合、あるいは斜め方向に移動した場合、停止している場合はステップS1015に移行する。この場合、方向リストL_AIRTにデータが格納されず、前回位置WX、WYの更新のみが行われる。移動方向が変更したと判断した場合は経路判断(S1008)に移行する。アクション処理のループ時間は、プロセス実行タイミング(S901)において0.1〜0.01秒と指定され、マウスを実際に移動させている時間よりも非常に短いため、1方向に連続して移動させている間に多数のアクション処理が実行されることになる。マウスの移動を一端停止するまでの方向を1つの方向として方向リストL_AIRTに格納するために同一方向か否か等の判断を行っている。これにより、アクション処理の処理時間よりも長い時間1方向にマウスを継続して移動させた場合でも、1つの方向として方向リストL_AIRTに格納される。同一方向か否かの処理の詳細については後述する。
【0062】
経路判断?(S1008)の後は前述の処理と同様の処理が行われるが、既にSTEP=1となっているため、STEP=1の処理(S1014)を経ずに処理が行われる。このようにしてSTEP=1となった後のアクション処理が行われる。これ以降のアクション処理も同様に行われる。この処理がトリガーOFFになるまで繰り返される。
【0063】
図10のステップS1007で示した同一方向か否かの処理(処理2)について図11を用いて説明する。処理2ではまず移動が停止しているか否かを判断する(S1101)。ここでは前回位置WX、WYと現在位置CX、CYを比較して同じ値であれば停止していると判断する。停止していると判断した場合は停止時間内か否かを判断するステップS1105に移行する。停止時間が許容時間WDTより長い場合、停止時間越え処理を行う(S1107)。具体的には現在時間SYSTEMTIME()と前回方向変更をした時間CDTの差と許容時間WDTを比較する。停止時間越え処理は図10で示した処理時間越え処理と同様にABORT_FLG=1とする。一定時間以上マウス3の操作を停止した場合は、このようにして処理を中断する。停止時間が設定した許容時間WDTより短い場合、停止処理W_AIRT=Sを行う(S1106)。W_AIRTにU、D、L、R以外のSを入力することにより、一旦停止したことが記憶される。そして処理2において停止していると判断される。
【0064】
ステップS1101で停止していないと判断した場合、すなわち前回位置WX、WYと現在位置CX、CYが異なる場合は方向決定(処理3)を行う(S1102)。この方向決定は図10で示したアクション処理で行う方向決定の処理(S1006)と同じ処理である。この処理については後述する。
【0065】
方向決定の処理によって斜め移動と判断された場合は斜め時の処理を行う(S1108)。斜め時の処理において、経路脱線カウンタDCがカウントアップされる。例えば、所定回数以上斜め方向にマウスが移動され、DCカウンタが一定値以上の値になると、ABORT_FLG=1とする。方向決定によってU、D、R、L(縦横方向)のいずれかの移動であると判断された場合、前回と同じ方向か否かを判断する(S1103)。前回と同じ方向と判断された時、すなわち連続してマウスを同じ方向に移動させている時は処理2が終了する。前回と同じ方向でないと判断された時、すなわちマウスが方向変更された場合は停止時間リセットを行う(S1104)。具体的にはCDTに現在時間SYSTEMTIME()を入力する。一度、移動方向が変わることによって、停止時間がリセットされ、停止時間内か否かの判断(S1105)を適切に行うことができる。方向変更された場合は図10で示した所定の処理(S1008等)を行う。また、斜め移動と判断された場合、同じ方向と判断された場合、停止していると判断された場合は前記の所定の処理(S1008等)は行われない。
【0066】
次に図10のステップS1006及び図11のステップS1102で示した方向決定の処理(処理3)について図12を用いて説明する。方向決定の処理では、マウス3の移動量によって、上下左右のどの方向に移動したかを決定する。処理3ではまずキーボード方向キーを押下したか否かを判断し(S1201)、押下されている場合はAIRT=K_AIRTとし、方向キーに対応する方向をセットし(S1211)方向が確定する。方向キーが押されていない場合は、マウス3の位置からX軸、Y軸の移動量の絶対値を求める(S1202)。具体的には現在位置CX、CYと前回位置WX、WYの差の絶対値をX軸、Y軸についてそれぞれ計算する。このX軸、Y軸の絶対値がX軸、Y軸それぞれのマウスの移動量になる。なお、図中のABSは絶対値を示すものとする。このX軸とY軸の絶対値の差を求め、この差の絶対値がOVよりも小さいときはX軸の移動量とY軸の移動量の差が小さく斜め方向に移動したものと判断する(S1203)。このX軸とY軸の絶対値の差がOVよりも大きいときは縦方向又は横方向に移動したものと判断し、縦横移動判断を行う(S1204)。X軸の移動量(絶対値)がY軸の移動量(絶対値)よりも大きい時は横移動(左右移動)と判断し、左右移動判断に移行する(S1205)。左右移動判断ではX軸の現在位置CXと前回位置WXを比較する。現在位置CXの方が前回位置WXより大きい場合は右方向移動と判断し、AIRTにRをセットする(S1207)。反対に現在位置CXの方が前回位置WXより小さい場合は左方向移動と判断し、AIRTにLをセットする(S1208)。
【0067】
一方、X軸の移動量(絶対値)がY軸の移動量(絶対値)よりも小さい時は縦移動(上下移動)と判断し、上下移動判断に移行する(S1206)。上下移動判断ではY軸の現在位置CYと前回位置WYを比較する。現在位置CYの方が前回位置WYより大きい場合は下方向移動と判断し、AIRTにDをセットする(S1209)。反対に現在位置CYの方が前回位置WYより小さい場合は上方向移動と判断し、AIRTにUをセットする(S1210)。このようにして、方向確定が行われ、移動方向を示すAIRTにU、D、L、Rのいずれかが入力される。この結果に基づいてステップS1008で経路判断が行われることになる。
【0068】
なお、同一方向に方向ポイント12を連続して動かす処理も上述の処理によって可能となる。例えば図3(b)の左ポイント13Lに方向ポイント12がある場合において、中央ポイント13Cを介して右ポイント13Rに連続して移動させる場合である。この場合、中央ポイント13Cに方向ポインタ12が移動しそこで停止した状態において、マウスの動作を停止させる。これにより、ステップS1106でW_AIRTにSが入力される。一旦停止後、さらにマウスを右方向に移動させ、AIRTにRが入力された場合、W_AIRTとAIRTが異なるのでステップS1103で方向が変更されたと判断される。このようにして、連続して同じ方向に移動させる場合であっても、途中でマウスを一旦停止させることによって方向ポインタの移動処理が可能になる。マウスの移動時間や移動量に基づいて、方向ポインタを同一方向に連続移動させる処理を行う場合に比べて、個人差等に影響されることなく正確に処理を行うことができる。
【0069】
このようにして、アクション処理(処理1)(S902)が実行される。そして、このアクション処理を複数回繰り返して行い、方向リスト記憶部29に記憶された方向リストL_AIRTに方向属性を格納していく。この方向リストL_AIRTに格納された情報に基づいて、図7で示す様にアクション後処理(処理4)(S705)及び処理判断(処理5)(S706)が実行される。
【0070】
アクション後処理(処理4)(S705)では図13に示すように経路パターン10と方向ポインタ12の非表示を行う。すなわち、方向ポインタ表示部24と経路パターン表示部28によって、表示部2の画面上に表示されていたナビゲーションパネル11と方向ポインタ12の表示が消される。なお、上述のアクション処理で処理中断フラグABORT_FLG=1となった場合、後述する処理判断(処理5)(S706)は実行されず、コマンドが実行されないまま処理が終了する。また、アクション処理実行中に処理中断フラグABORT_FLG=1となった場合、その時点で処理を終了するようにしてもよい。さらに、ESCボタンを押下する等、特定のキー押下により、処理中断フラグABORT_FLG=1とするようにしてもよい。
【0071】
図14に示す処理判断では方向リストL_AIRTにデータがあるか否かを方向リスト判断部27が判断し、方向リストL_AIRTにデータが格納されている場合は、実行部によって、そのデータに対応するコマンドが実行される。方向リストL_AIRTに格納されているデータに対応する方向情報を有するコマンド情報がない場合はそのまま処理を終了する。このようにして、トリガーONからトリガーOFFまでの処理が実行され、アプリケーションの起動などのコマンド実行に代表される情報処理を、容易な操作で行うことができる。また、経路パターンが画面上に表示された状態でマウスを移動させているので、移動させたい方向にマウスを移動させたかを視覚的に把握することができ、操作ミスが少なくなる。さらに、個人差がある斜め方向の移動を排除して、上下左右方向に方向ポインタの移動操作を限定させているので、操作者の違いによる操作ミスを排除することが出来る。これにより、情報処理装置の操作性を向上することができる。
【0072】
発明の実施の形態2.
実施の形態1では十字の経路パターンに中央ポイント13C、左ポイント13L、右ポイント13R、上ポイント13U、下ポイント13Dを有していたが、本発明はこの経路パターンに限定されるものではない。例えば、図15(a)に示す様な経路パターンを用いることが可能である。この経路パターンでは中央ポイント13Cと左ポイント13L、右ポイント13R、上ポイント13U、下ポイント13Dの間に別の移動ポイント13を備えている。実施の形態1と同様に中央ポイント13Cから右方向にマウスを移動させると右ポイント13Rと中央ポイント13Cの中間の移動ポイント13に方向ポインタ12が停止する。この時方向リスト14にはRが格納される。そして一定時間マウス3を停止させた後にもう一度右方向に移動させると、ポイント13Rに方向ポインタ12が停止する。この時方向リスト14には右→右と移動したことを示すRRが格納される。上、下、左方向についても同様に方向ポインタ12は移動することができるようになっている。このような経路パターン10を用いることにより、少ないマウスの移動回数で実行できるコマンド数を増やすことができる。
【0073】
さらに、本発明は図15(b)や図15(c)に示した経路パターンを用いることができる。もちろん、図示した経路パターンに限定されるものではない。この経路パターンは図4で示した経路マップの白丸、黒丸、Nの配置を変更することによって作成することが可能になる。経路パターンは予め複数記憶され、操作者の熟練度に応じて選択できるようにしてもよい。すなわち、初心者又は操作に慣れていない者は図4に示したような簡単な経路パターンを選択するようにして、操作になれている者は図15(c)に示すような複雑な経路パターンを選択するようにしてもよい。もちろん、経路マップの原理に基づいて、任意に経路パターンを作成できるようにしてもよい。さらに、方向ポインタ12の移動方向は縦横方向に限定されるものではないが、縦横方向に限定することによって、操作ミスを少なくすることが可能になる。
【0074】
又、方向リスト14に方向情報が順次格納される度に、コマンド処理の選択リストを表示部2に表示することができる。選択リストは、入力された方向情報をその一部として含む一つもしくは複数のコマンド情報、あるいはそのコマンド情報に含まれるコマンドを、表示部に表示することができる。例えば、アプリケーションプログラムA、BまたはCの実行コマンドであるコマンドA、B又はCが登録されているとする。コマンドA、B又はCのそれぞれには、(LRU)、(UDD)そして、(LRD)の方向情報が対応して登録されているとする。方向ポインタが、開始位置Nから、L方向へ移動した場合、コマンドリストが表示され、コマンドリストには、コマンドA及びC、そしてそれぞれの対応方向情報を表示することができる。コマンドBは方向リスト14にLが入力された時点で選択される可能性がないことが決定され、コマンドリストには表示されない。このように、方向ポインタの移動方向が決定され、方向リスト14に方向情報が入力されると、方向リスト14の方向情報に基づいて可能な一つまたは複数のコマンドが決定され、そのコマンドを表示部に表示することができる。これによって、操作者による操作をより容易なものとすることができる。尚、コマンドリストは、例えば、起動すべきプログラムのショートカットを表示する等してもよい。
【0075】
その他の実施の形態.
本実施の形態における情報処理プログラムは常駐することなく、操作者のプログラム起動アクションによって起動するようにしてもよい。また、ナビゲーションパネル11の表示サイズは変更可能である。ナビゲーションパネル11は、操作者の操作によって、表示/非表示を選択することができるように構成してもよい。経路パターン表示部28と方向ポインタ表示部24のそれぞれが、操作者からの選択入力にしたがって、表示/非表示の選択処理を実行することができる。さらにはキーボードの方向キーによって方向リストを入力可能にしたが、方向キー以外のキーを用いて方向リストを入力してもよい。例えばテンキーの8、2、4、6を押下することによって、上下左右のそれぞれの移動処理を行っても良い。もちろん、方向キーによる操作を排除して、マウスのみの操作で処理を行ってもよい。
【0076】
本発明は上述した実施例だけに限られず、様々な変更が可能である。例えば図1で示したデスクトップタイプのPCのみならず、ワークステーション、汎用機、FAコンピュータ、ノートパソコンやPDA(Personal Data Assistant)に利用することができる。図16は、本形態において使用されるPCの一例を示す。図16は、中央処理装置(CPU)1601とメモリ1604とを含んでいる。CPUとメモリとは、バスを介して補助記憶装置としてのハードディスク装置1613に接続される。フレキシビルディスク装置1620、ハードディスク装置1613、CD−ROMドライブ1629等の記憶媒体駆動装置は、フレキシビルディスク・コントローラ1619、IDEコントローラ1625、SCSIコントローラ1627などの各種コントローラを介してバスに接続される。
【0077】
フレキシビルディスク装置等の記憶媒体駆動装置には、フレキシビルディスク等の可搬型記憶媒体が挿入される。記憶媒体にはオペレーティングシステムと共同してCPU1601等に命令を与え、本実施形態を実施するためのコンピュータプログラムを記憶することができる。コンピュータプログラムは、メモリ1604にロードされることによって実行される。コンピュータプログラムは圧縮し、又、複数に分割して記憶媒体に記憶することができる。ハードウェア構成は、さらに、ユーザ・インターフェース・ハードウェアを備えたシステムであることができる。ユーザ・インターフェース・ハードウェアとしては、例えば、入力をするためのポインティングデバイス(マウス3、ジョイスティック等)またはキーボード4や視覚データをユーザに提示するためのディスプレイ2があり、又、パラレルポート1616を介してプリンタを接続することもできる。シリアルポートを介してモデムを接続することが可能であり、シリアルポート、モデムまたはトークンリングや通信アダプタ1618を介してネットワークに接続し、他のコンピュータ・システムと通信を行っている。これらの構成は例示であり、そのすべての構成が本実施の形態に必須というものではない。
【0078】
当業者であれば、図5等を参照して説明された論理構成に対応するプログラムモジュールを含むコンピュータプログラムを、図16に示されたハードウェア構成を有するユーザ端末にインストールすることによって、容易に本発明を実現することが可能である。本発明を構成するためにコンピュータにインストールされる各種のプログラムは記録媒体に格納することも可能であり、また通信媒体を介して伝達されることも可能である。この記録媒体は、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等である。
【0079】
【発明の効果】
本発明によれば、簡易な操作で情報処理を行うことができる情報処理装置、情報処理方法及び情報処理プログラムを提供することができる。
【図面の簡単な説明】
【図1】本発明にかかる情報処理装置の構成を示す構成図である。
【図2】本発明にかかる表示部に表示される画面の一例を示す図である。
【図3】本発明にかかる情報処理方法で用いられる経路パターンの動作を示す図である。
【図4】本発明にかかる経路マップの原理を説明する図である。
【図5】本発明にかかる情報処理装置の構成を示すブロック図である。
【図6】本発明の情報処理方法におけるイニシャル処理を示すフローチャートである。
【図7】本発明の情報処理方法における全体の処理を示すフローチャートである。
【図8】本発明の情報処理方法におけるアクション前処理を示すフローチャートである。
【図9】本発明の情報処理方法におけるアクションプロセス処理を示すフローチャートである。
【図10】本発明の情報処理方法におけるアクション処理を示すフローチャートである。
【図11】本発明の情報処理方法における同一方向の判定処理を示すフローチャートである。
【図12】本発明の情報処理方法における方向決定処理を示すフローチャートである。
【図13】本発明の情報処理方法におけるアクション後処理を示すフローチャートである。
【図14】本発明の情報処理方法における処理判断を示すフローチャートである。
【図15】本発明の情報処理方法における経路パターンの別の実施の形態を示す図である。
【図16】本発明を適用可能な、情報処理装置のハードウェア構成の概略を示すブロック図である。
【符号の説明】
1 パーソナルコンピューター(PC)、2 表示部、3 マウス、4 キーボード、5 アイコン、6 ポインタ、10 経路パターン、11 ナビゲーションパネル、12 方向ポインタ、13C 中央ポイント、13U 上ポイント、13D 下ポイント、13L 左ポイント、13R 右ポイント、14 方向リスト、21 位置情報取得部、22 移動方向判断部、23 経路判断部、24方向ポインタ表示部、25 経路パターン記憶部、26 コマンド情報記憶部、27 方向リスト判断部、28 経路パターン表示部、29 方向リスト記憶部、30 経路マップ生成部、31 トリガー処理部、32処理時間判断部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing device, an information processing method, and a computer program.
[0002]
[Prior art]
2. Description of the Related Art In recent years, information processing apparatuses such as personal computers (PCs) are equipped with a large number of application programs. The application program is activated using a pointing device such as a mouse. In order to start an application, a pointer is moved to an icon corresponding to an application program to be started using a pointing device such as a mouse, and a mouse click or the like is performed according to a program search menu of the OS (operating system) of the PC. You have to make a choice. In addition, frequently used application programs create shortcut icons on the screen, activate the cursor by moving the pointer to the shortcut icon and clicking the icon. Then, by activating the application program, a predetermined window is opened. The operator can perform work on this window.
[0003]
However, as the number of application programs and files increases and the hierarchy of folders advances, there is a problem that the operation in the program search menu becomes complicated, and the application program cannot be started quickly. In addition, when shortcut icons are created, the screen display becomes complicated when a large number of shortcut icons are created. In particular, a small PC has a small display screen, so that too many shortcut icons cannot be displayed on the display screen at once. In addition, when many windows are open, it takes time and effort to click an icon hidden behind the windows.
[0004]
To solve this problem, another application activation method has been disclosed (for example, Patent Document 1). In the method disclosed in Patent Literature 1, an application start mode is first set by operating a predetermined key on an operating system (OS) of a PC. Then, the direction keys are pressed, for example, as “up”, “up”, and “right”. Thus, a predetermined application program corresponding to the order in which the direction keys are pressed can be started. However, in this method, it is necessary to move the hand from the mouse to the direction key of the keyboard, and the operation is troublesome.
[0005]
In addition, the inventor of the present application has developed software that starts an application program by mouse gesture (mouse action) (for example, Non-Patent Document 1). In the method using the mouse gesture, a mouse gesture for starting a predetermined application program is registered in advance. For example, when the mouse is moved up → down → right, registration is made to activate the application program A. With the mouse gesture software activated, the application program A can be activated by moving the mouse upward, downward, and right while pressing a predetermined trigger key (for example, Shift key + Ctrl key on the keyboard). it can. In addition, this software can execute processes such as terminating the OS and changing the size of the application window, in addition to starting the application program.
[0006]
However, this software has a problem in that it is not possible to determine whether the user has moved the pointing device in the desired direction. For example, the direction in which the user wants to move the pointing device may be different from the direction of the pointing device actually moved. When the pointing device is moved several times in succession, the order may be wrong or the number of times of movement may be wrong. When such an operation mistake is made, a different application program may be started or a different process may be performed, so that time is wasted and the operator feels troublesome. In particular, this erroneous operation frequently occurs when the mouse is moved in all eight directions because the mouse has a diagonal direction other than the four directions of up, down, left, and right.
[0007]
As described above, when the conventional information processing apparatus attempts to execute information processing such as application startup by a simple operation, the display screen becomes complicated and there is a problem that an erroneous operation is performed.
[0008]
[Patent Document 1]
JP 2001-175402 A
[Non-patent document 1]
Makoto Yoshida, software name “Tact”, [online], 1994, [searched on January 22, 2003], Internet <URL: http: // www. vector. co. jp / soft / win95 / util / se048162. html? site = n>
[0009]
[Problems to be solved by the invention]
The present invention has been made in view of the above conventional technology, and provides an information processing apparatus, an information processing method, and an information processing program that can easily perform information processing such as activation of an application program without erroneous operation. One purpose.
[0010]
[Means for Solving the Problems]
An information processing apparatus according to a first aspect of the present invention includes a display unit that displays a route pattern, a direction pointer that can move along a route on the route pattern, and movement instruction information that specifies a moving direction of the direction pointer. An input unit for inputting the direction pointer; a determining unit for determining a moving direction of the direction pointer based on the movement instruction information and the path pattern; and the direction pointer moving on the path pattern in the determined moving direction. Thus, a direction pointer display section to be displayed on the display section, and a direction information storage section for storing information based on the moving direction of the direction pointer are provided, and information processing is performed based on the stored direction information. Thus, information processing such as application program activation can be performed with a simple operation, and operability can be improved.
[0011]
In the above information processing apparatus, the input unit is a pointing device, and further, a position information acquisition unit that acquires position information specified by the pointing device, and determines a moving direction of the pointing device based on the position information. A moving direction determining unit that determines whether or not the direction pointer can move on the path pattern based on the moving direction determined by the moving direction determining unit. Preferably, the unit moves the position of the direction pointer on the route pattern in a direction determined to be movable by the determination unit and displays the position pointer. Accordingly, information processing such as application program activation can be performed by an operation of moving the pointing device, and operability can be improved.
[0012]
In the above information processing apparatus, the information processing apparatus further includes a command information storage unit that stores direction information including one or a combination of two or more movement directions of the direction pointer in association with a process to be executed. When the information stored in the command information matches the direction information stored in the command information storage unit, it is preferable to execute a command corresponding to the direction information. Thus, a specific command can be executed from a large number of commands by a simple operation.
[0013]
In the above-mentioned information processing apparatus, it is preferable that the direction in which the direction pointer can move in the route pattern has no direction other than the vertical direction and the horizontal direction. As a result, operation errors can be reduced.
[0014]
In the above information processing apparatus, the input unit may be a keyboard, and the direction pointer may be moved by pressing a key corresponding to a moving direction of the direction pointer.
[0015]
A computer program according to a second aspect of the present invention is a computer program for causing a computer to execute information processing, the processing comprising: displaying a path pattern and a direction pointer movable on the path pattern. Acquiring the movement instruction information specifying the movement direction of the direction pointer, determining the movement direction of the direction pointer based on the movement instruction information and the path pattern, and in the determined movement direction, Displaying the direction pointer so as to move on the route pattern; storing direction information based on a moving direction of the direction pointer; and executing a specific process based on the stored direction information. And. As a result, information processing such as application program activation can be performed with a simple operation.
[0016]
It is preferable that the computer program further includes a step of detecting a trigger operation for displaying the direction pointer and the route pattern. Thereby, operability can be improved.
[0017]
In the computer program, it is preferable that the process be interrupted when an operation for moving the direction pointer in a direction in which the direction pointer cannot be moved is input by the input unit a predetermined number of times or more. Thereby, erroneous input by the input unit can be suppressed.
[0018]
In the computer program, based on the direction information stored in the storing step and the moving direction determined in the determining step, it is possible to display a list specifying a process selectable as the process to be executed. it can. Thereby, operability can be improved.
[0019]
In the above computer program, the path pattern includes a plurality of stop points on the path where the direction pointer stops, and the direction pointer is movable from one stop point to another adjacent stop point; Preferably, when the movement pointer moves from one stop point to another stop point, the direction information is stored. Thereby, the operator can easily confirm the moving direction.
[0020]
In the computer program, the step of acquiring the movement instruction information includes a step of acquiring position information specified by a pointing device, and a step of determining a movement direction of the pointing device based on the position information, The step of deciding includes a step of judging whether or not the direction pointer can move on the path pattern based on the determined moving direction, and a step of displaying the direction pointer so as to move on the path pattern. Moving the position of the direction pointer on the path pattern in the direction determined to be movable in the determining step, and displaying the position pointer. The storing step includes determining that the position pointer is movable in the determining step. It is preferable to store the set direction. Accordingly, information processing such as application program activation can be performed by an operation of moving the pointing device, and operability can be improved.
[0021]
The method further comprises determining whether the moving direction of the pointing device is one of the vertical direction and the horizontal direction. If it is determined that the moving direction of the pointing device is neither the vertical direction nor the horizontal direction, the direction pointer moves on the path pattern. Is preferably determined to be immovable. As a result, operation errors can be prevented, and operability can be improved.
[0022]
Determining that the pointing device is moving in the same direction; and determining that the pointing device is unable to move on the path pattern when determining that the pointing device is moving in the same direction. Is preferred. Thereby, operability can be improved.
[0023]
It is preferable that the method further includes a step of determining a moving amount of the pointing device based on the position information specified by the pointing device, and when the moving amount is smaller than a predetermined value, it is preferable that the direction pointer is not moved. Accordingly, it is possible to eliminate an erroneous operation due to camera shake when the pointing device starts moving, and it is possible to reliably perform the operation.
[0024]
An information processing method according to another aspect of the present invention, in an information processing apparatus using a pointing device for inputting a position on a display unit, displaying a direction pointer that moves based on a moving direction of the pointing device, Displaying a route pattern indicating a route to which the direction pointer can move; obtaining position information of the pointing device; determining a moving direction of the pointing device based on the position information; Determining whether or not the direction pointer can move on a path pattern based on the moved direction, and moving and displaying the position of the direction pointer on the path pattern in the direction determined to be movable. And storing the direction determined to be movable in a direction list. Comprising the step, to process the information based on the information stored in the direction list. As a result, information processing such as application program activation can be performed with a simple operation.
[0025]
The information processing method may further include a step of determining whether the moving direction of the pointing device is one of the up-down direction and the left-right direction. In this case, it is preferable to determine that the direction pointer cannot be moved. Thereby, operability can be improved.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
First Embodiment of the Invention
An information processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram showing the overall configuration of the information processing apparatus. 1 is a personal computer (hereinafter, PC), 2 is a display unit, 3 is a mouse, and 4 is a keyboard. The PC 1 is provided with an internal or external storage means such as a CPU (Read Only Memory), a RAM (Random Access Memory), and a hard disk. Based on the information input by the input means of the mouse 3 and the keyboard 4, the processing unit performs the processing, and the result can be displayed on the display unit 2 or stored in the storage unit. The operating system, the information processing program, and a number of application programs according to the present embodiment are installed on the hard disk. A display device such as a CRT or a liquid crystal display can be used for the display unit 2. The mouse 3 of the present embodiment is a two-button mouse, and has left and right buttons. Of course, a pointing device other than a mouse, such as a mouse with one or three or more buttons, a trackball, a touch pad, or a stick-shaped pointing device, can also be used. By moving the mouse 3, the mouse pointer displayed on the display unit 2 moves. By operating the mouse while the program of the present embodiment is being executed, predetermined information processing such as starting an application program, changing the display size and position of a window or selecting an icon, and selecting a folder is performed. Can be. A command that gives an instruction to execute information processing, such as starting an application program, changing the display size of a window, changing a position, and selecting an icon, is collectively referred to as a command. This command is not limited to starting the application, changing the display size of the window, changing the position, and selecting an icon, but may be an internal process of the PC that is not displayed on the display unit 2.
[0027]
The operation procedure of the information processing program according to the present embodiment will be described with reference to FIG. FIG. 2 shows an example of a display screen displayed on the display unit 2 while the information processing program according to the present embodiment is operating. Since the same reference numerals as those shown in FIG. 1 indicate the same configuration, description thereof will be omitted. 5 is an icon, 6 is an arrow-shaped pointer, 10 is a path pattern, and 11 is a navigation panel. When the program of the present embodiment is not used, usually, the mouse 3 is operated to move the pointer 6. Then, by selecting an icon and clicking a button of the mouse 3, information processing corresponding to the icon is performed. The icons 5 are assigned processes such as activation of an application program, activation of a file search menu, and shortcut to a predetermined folder.
[0028]
When an operation serving as a trigger is executed with the information processing program according to the present embodiment loaded, the processing of the information processing program starts, and the navigation panel 11 having the route pattern 10 is displayed on the display unit 2. In the present embodiment, for example, a trigger is activated by maintaining a state in which the Ctrl key of the keyboard is pressed. The keys and operations related to the trigger are called a trigger key and a trigger operation, respectively. For example, the Ctrl key is a trigger key, and an operation for maintaining a state in which the Ctrl key is pressed is a trigger operation. Of course, the trigger key may be another key on the keyboard, a left / right mouse button, or other input means. Further, two keys (for example, Shift key and Ctrl key) or three or more keys may be used as trigger keys. The trigger operation can be pressing the trigger key one or more times continuously, maintaining the trigger key pressed for a certain time or more, or moving the mouse continuously left and right. . Operations for turning off the trigger include releasing a key in a pressed state, pressing another key, and not operating the mouse 3 for a certain period of time. This operation is referred to as a trigger OFF operation. The trigger key, trigger operation, and trigger OFF operation can be set by the operator. When two or more operations are set as trigger operations, the trigger is activated by performing one of the operations. When the trigger is turned on, the path pattern 10 is displayed at the position of the pointer 6 immediately before performing the trigger operation. That is, the center of the navigation panel 11 is displayed at the position where the pointer 6 is displayed as shown in FIG. Of course, the position where the navigation panel 11 is displayed is not limited to this position, and may be a predetermined position.
[0029]
Next, the display operation of the navigation panel 11 will be described in detail with reference to FIG. FIG. 3 is a diagram showing a configuration of the navigation panel 11. 1 and 2 denote the same components, and a description thereof will not be repeated. Reference numeral 12 denotes a direction pointer. Elements denoted by reference numerals including 13 indicate moving points provided in the route pattern 10. 13C is a center point, 13R is a right point, 13L is a left point, 13U is an upper point, and 13D is a lower point. That is, C, U, D, R, and L after 13 indicate positions in the path pattern 10, respectively. The route pattern 10 indicates a route to which the direction pointer 12 can move, and the direction pointer 12 moves the moving point 13 on the route pattern 10 displayed on the display unit 2 stepwise.
[0030]
The movement of the mouse 3 up, down, left and right can be visually confirmed by the movement of the path pattern 10 and the direction pointer 12. In the present embodiment, at the start of the processing after the trigger of the present program, as shown in FIG. 3A, a cross-shaped path pattern 10 having a path extending in the vertical direction and a path extending in the horizontal direction is displayed. Have been. A direction pointer 12 is displayed at the center of the intersection where each route intersects. A moving point is provided at the end of each path as a stop point. Specifically, an upper point 13U, a lower point 13D, a left point 13L, and a right point 13R to which the direction pointer 12 can move are displayed on the upper, lower, left, and right of the direction pointer 12, respectively. A center point 13C at which the direction pointer 12 can move is provided at the center of the route pattern 10, but is hidden in FIG. 3A because the direction pointer 12 is displayed overlapping the center. The moving point 13 is not displayed on the display unit 2 when the direction pointer 12 is overlapped. In addition, a direction list 14 indicating the history of the moving direction of the direction pointer 12 is illustrated for explanation. Although the direction list 14 is not displayed on the display unit 2 in the present embodiment, it may be displayed on the display unit 2. The command to be executed is determined by the history information on the direction stored in the direction list 14.
[0031]
The direction pointer 12 can be operated by the mouse 3 capable of inputting movement instruction information for a movement instruction. When the mouse 3 is moved to the left while the trigger is being applied, that is, the navigation panel 11 is displayed, the direction pointer 12 moves from the center point 13C to the position of the left point 13L as shown in FIG. Moving. Then, L indicating that it has moved to the left is input to the direction list 14. The center point 13C is displayed at the center of the route pattern 10 on which the direction pointer 12 was displayed due to the movement of the direction pointer 12. In the mouse operation, the mouse may slightly move in a direction different from the direction in which the direction pointer 12 is to be moved due to camera shake. When such a minute movement is performed, when it is recognized that the operation is an active movement instruction operation by the operator, a command different from the command to be executed may be executed. Therefore, in this embodiment, when the mouse is moved over a certain distance, the direction is input to the direction list 14 for the first time. Thereby, erroneous recognition of the mouse operation can be prevented, and the reliability of the mouse operation can be improved. Further, even after the direction pointer has moved to the left point, if the mouse continues to move in the left direction, the direction pointer does not move and remains at the left point. For example, even if the mouse 3 is moved left, up, and down except for the right direction while the direction pointer 12 is at the left point 13L, the position of the direction pointer 12 does not move and is at the left point 13L. In this operation, L is input to the direction list 14, and L, U, and D are not input continuously. Thereby, the reliability of the mouse operation can be improved.
[0032]
Next, when the mouse 3 is moved rightward, the direction pointer 12 returns to the center of the path pattern 10, and the state shown in FIG. In the direction list 14, LR indicating that the mouse 3 has moved to the right after moving to the left is input. When the mouse 3 is further moved upward, the direction pointer 12 moves to the position of the upper point 13U of the path pattern 10 (FIG. 3D). Also, an LRU indicating that the mouse 3 has moved in the order of left → right → up is input to the direction list 14. When the trigger key is released in this state, the trigger is turned off, the input to the direction list 14 ends, and the display on the navigation panel 11 disappears.
[0033]
On the other hand, the storage means of the PC 1 stores a table for storing a plurality of commands and direction information corresponding to each command. A set of commands and corresponding direction information is referred to as command information. Direction information consisting of one or a combination of two or more movement directions (L, R, U, D) is associated with a command for starting an application and stored. When the direction information in the direction list 14 matches the direction information stored in the storage unit of the PC 1, a command corresponding to the direction information is executed. In the above example, the command corresponding to “LRU” is executed. As described above, in the present embodiment, the operation of the mouse 3 associated with the command is limited to the combination of the up, down, left, and right movements regardless of the moving distance and the moving time. Further, by displaying the route pattern and the direction pointer, the operator can visually grasp the current position, and the direction to be moved next is indicated, so that the operability can be improved. Alternatively, with a simple interface, the operator can easily learn command execution by moving the mouse.
[0034]
In addition, by limiting the moving direction of the mouse 3 associated with the command to four directions of up, down, left, and right, it is not necessary to move the mouse 3 in an oblique direction, and erroneous input of the moving direction can be prevented. Thus, the operability of the information processing device such as a PC can be improved. In this embodiment, when the mouse 3 is moved diagonally, the direction pointer 12 does not move because none of the directions is recognized in the up, down, left, and right directions, and none of L, R, U, and D is input to the direction list 14. .
[0035]
The command information, that is, the direction information and the command corresponding thereto can be registered in advance by the operator. For example, registration can be performed such that the application program 1 is started corresponding to the direction information LR and the application program 2 is started corresponding to the direction information RL. Of course, the number of movements of the direction pointer 12 may be one or more. As for the direction information corresponding to the frequently activated application program, if the number of movements of the direction pointer 12 is reduced, the number of operations of the mouse 3 can be reduced, and the convenience can be improved. If there is no direction information identical to the direction list 14, the navigation panel 11 is closed and the execution program ends. Further, it is possible to store two or more commands in correspondence with the same direction information. In this case, two or more commands can be executed by one mouse operation.
[0036]
In this embodiment, in order to improve operability, a timer process is provided in the program, and when the entire processing time exceeds a certain time, or when the operator does not perform an operation for a predetermined time or more, the program is automatically executed. End. In this timer process, an allowable time for the entire operation (from trigger ON to trigger OFF) and an allowable time until the direction pointer 12 changes the direction are set in advance. Then, when the allowable time has elapsed, the program is automatically terminated. If there is data already input to the direction list 14 before the process is automatically terminated, the command corresponding to the data is not executed. Of course, a form for executing this is also possible. Furthermore, in the present embodiment, the program is also automatically executed when data of a certain number of movement directions or more is input to the direction list 14 or when the mouse is moved a certain number of times in a direction in which movement on the route pattern 10 is impossible. End. As described above, when a peculiar operation is performed, or when no operation is performed for a predetermined time or more, the program is automatically terminated, so that even if a person who does not know the command information performs a trigger operation by mistake. The command is not executed by mistake, and the convenience can be improved.
[0037]
A route map for determining which direction on the route pattern 10 can be moved will be described with reference to FIG. FIG. 4 is a diagram for explaining the principle of the route map. The route map is used to judge whether or not it is possible to move logically according to direction attributes (moving directions U, D, L, R) extracted during the action processing by the program. The route map can be configured by a 7 × 7 table, for example, as shown in FIG. For the purpose of explanation, 1 to 7 and A to G are shown to indicate the rows and columns, respectively. In order to specify the location on the map, for example, the location of the intersection of 2 and D is represented as 2D, and the intersection of 3 and D is represented as 3D. Thus, the locations shown in FIG. 4 can be represented by 1A-7G. Note that a table other than 7 × 7 can be used, and an asymmetric table such as 3 × 7 may be used.
[0038]
For example, in the state of FIG. 3B, the direction pointer 12 is at the left point 13L. Therefore, the direction pointer 12 cannot be moved further left or up and down. That is, in the state where the direction pointer 12 is at the left point 13L, it can be moved only to the right. The direction in which the direction pointer 12 cannot move or the direction in which the direction pointer 12 can move is indicated by the path pattern 10. The route pattern 10 and the direction pointer 12 are displayed according to the information on the route map.
[0039]
The route map of FIG. 4 will be specifically described. 2D, 4B, 4F, and 6D are marked with black circles (•). This black circle indicates the stop position of the direction pointer 12. That is, 2D, 4B, 4F, and 6D correspond to the upper point 13U, the left point 13L, the right point 13R, and the lower point 13D in FIG. 3, respectively. N is attached to 4D. This N indicates the movement start position of the direction pointer 12, and corresponds to the center point 13C in FIG. That is, when the trigger is activated, the direction pointer 12 is displayed at a position where N is present, and the processing of the action is started. The position of N is a stop position of the direction pointer 12 as in the case of the black circle. 3D, 4C, 4E, and 5D are marked with white circles (O). The circle indicates a moving path through which the direction pointer 12 passes. That is, the places with white circles (○) indicate the places where the direction pointer 12 passes without stopping. Locations where none of N, white circles, and black circles are attached are areas where the direction pointer 12 cannot move. It is assumed that such route map data is prepared prior to the processing of the program and is read into the RAM.
[0040]
When a trigger is applied, the direction pointer 12 is displayed on the route pattern 10 at a position corresponding to N. If there is a circle or a circle in the movement direction as viewed from the pointer position, it is determined that the movement is possible. If the movement is successful, the attribute (UDLR) indicating the movement direction is stored in the direction list 14, and at the same time, the direction pointer 12 is moved and displayed in that direction. For example, when the direction pointer 12 is at D2, it cannot be moved because there are no 、, ●, and N in the L, R, and U directions, but it is determined that there is a ○ in the D direction and it can be moved. Similarly, when the direction pointer is located at B4, it is determined that it cannot move in the L, U, and D directions but can move in the R direction. Even if the mouse is moved in the direction in which it cannot be moved, no data is stored in the direction list 14, and the direction pointer does not move on the path pattern. When the circles continue in the moving direction, the direction pointer 12 does not stop but moves to the position where the next N or ● appears and stops. In this case, data corresponding to one action is stored in the direction list 14. For example, when the direction pointer 12 is located at D2, if the mouse is moved once downward, the direction pointer 12 passes through the circle of D3 and moves to the position of D4. In this case, one D is stored in the direction list 14. In addition, when there is no circle in the moving direction, but not in the route map shown in FIG. 4, but there is no N or ●, the robot moves to the end of the moving direction and stops. In this case, for example, data corresponding to the moving direction can be stored in the direction list 14, or a mode in which the data is not stored is also possible.
[0041]
This route map includes data corresponding to a movable route and data corresponding to a prohibited area to which the user cannot travel from N. The movable route is an area in which a circle or a circle can be traced by moving from N, which is the start position of the action, to a vertically or horizontally adjacent location. If there is a circle or a circle in a place that cannot be traced from N (1A, 7A, etc. in FIG. 4), there is no circle or a circle in an adjacent position in the vertical and horizontal directions, and the direction pointer 12 cannot move to that position. . This route map is stored using an area secured in a memory or the like. When the trigger operation is performed, the navigation panel 11 based on the route map is displayed on the screen, and the logical position on the route map is displayed as the position of the direction pointer on the route pattern, and is used as an operation guide.
[0042]
When the direction pointer 12 moves according to the principle of the above route map, the attributes (L, R, U, D) of the direction data indicating the moving direction are input to the direction list 14. Input data is stacked in order. The direction list 14 is initialized at the start of an action (when a trigger operation is performed), and is empty as shown in FIG. The direction information based on the action started from D4 is stored in the direction list 14. For example, when the mouse 3 is moved upward, the direction pointer 12 moves to the location of D2, and U is stored in the direction list 14. When the mouse 3 is moved further downward, the direction pointer 12 returns to the position of D4, and UD is stored in the direction list 14. In this way, the order of appearance in the upper, lower, left, and right directions can be determined from the storage order. Then, it is determined whether or not there is command information having direction information that matches the data stored in the direction list 14, and if so, the command is executed. The direction list 14 is also stored using the area secured in the memory.
[0043]
A logical configuration and a flow for executing a command using this route map will be described with reference to FIGS. FIG. 5 is a block diagram illustrating a logical configuration of the information processing apparatus according to the present embodiment. The logical configuration shown in FIG. 5 can be configured using hardware or software as needed. FIG. 6 is a flowchart showing initial processing before a trigger is applied. FIG. 7 is a flowchart showing the overall processing of the information processing in the present embodiment. 8 to 14 are flowcharts showing a part of the entire processing shown in FIG. In FIG. 5, reference numeral 21 denotes a position information acquisition unit, 22 denotes a moving direction judgment unit, 23 denotes a path judgment unit, 24 denotes a direction pointer display unit, 25 denotes a path pattern storage unit, 26 denotes a command information storage unit, and 27 denotes a direction list judgment unit. , 28 is a route pattern display unit, 29 is a direction list storage unit, 30 is a route map generation unit, 31 is a trigger processing unit, and 32 is a processing time determination unit.
[0044]
The route pattern is stored in the route pattern storage unit 25, and the command information is stored in the command information storage unit 26 in advance. The operator can set these data. For example, the operator can define a movable route and a prohibited area by inputting data such as や or ● into a matrix-like route map. As for the command information, the direction information and the corresponding command information can be set freely. These pieces of information can be stored in external storage means such as a hard disk. The route map generator 30 can generate a route map based on the data in the route pattern storage 25. When a trigger operation is performed by the mouse 3 or the keyboard 4, a trigger process is performed by the trigger processing unit 31, and the program starts a predetermined process. The trigger processing unit 31 can perform a trigger process for each of a plurality of different trigger operations. For example, in FIG. 5, trigger processes 1, 2, and n indicate trigger processes corresponding to a plurality of trigger operations, respectively. When any one of the trigger processes is performed, the resident program according to the present embodiment is executed, and a predetermined process is started. The part related to the action processing of this program is executed inside A in FIG. Further, when the trigger is turned on, the route pattern display unit 28 displays the route pattern 10 and the direction pointer 12 on the screen based on the route map generated by the route map generation unit 30.
[0045]
When the program according to the present embodiment starts processing by a trigger operation, first, the position information acquisition unit 21 acquires the current position information of the mouse pointer. Based on the current position of the mouse 3, the moving direction determining unit 22 determines the direction in which the mouse has moved. That is, the current position of the mouse pointer is compared with the position of the mouse pointer at the time of the immediately preceding position determination to determine which direction the mouse has moved up, down, left, or right. In this embodiment, the moving direction can be input by pressing the direction key of the keyboard. When the upper key of the keyboard 4 is pressed, the mouse 3 is moved upward. This is the same operation. Of course, the same applies to the lower, left and right sides. The internal memory stores a route map and direction pointer information. The direction pointer information is logical position information on the route map of the direction pointer, and has N position information at the time of trigger. The route determining unit 23 determines whether the direction pointer 12 can be moved based on the moving direction of the mouse 3 determined by the moving direction determining unit 22, the acquired data of the route map, and the direction pointer information. That is, it is determined whether or not there is a route on which the direction pointer moves on the route map based on the processing principle of the above-described route map. Based on this determination result, the direction pointer display unit 24 displays the direction pointer 12 on the route pattern 10. When the direction pointer 12 is operated by a movable mouse, the direction pointer display unit 24 changes the position of the direction pointer 12 on the route pattern 10 and causes the display unit 2 to display the position. Then, the result is stacked in the direction list storage unit 29, and further, the direction pointer information is updated to the destination location information. On the other hand, when the direction pointer 12 performs an immovable mouse operation, the position of the direction pointer 12 on the route pattern 10 is displayed on the screen without change. As described above, the logical position of the direction pointer 12 determined by the route determination unit 23 is temporarily stored as direction pointer information, and is sequentially updated each time the direction pointer 12 moves. The direction list storage unit 29 sequentially stores the data of the moving direction, and stores the direction information in the direction list 14.
[0046]
When the input by the operator is completed and the trigger is turned off, the direction information stored in the direction list 14 is passed to the direction list determination unit 27. The route pattern display unit 28 and the direction pointer display unit 24 end the display processing of the route map 10 and the direction pointer 12, respectively. The direction list determination unit 27 determines whether or not the direction information stored in the command information storage unit 26 matches the data stored in the direction list 14. If it is determined that they match, the actual processing unit performs the actual processing of the corresponding command. If it is determined that they do not match, the process ends without executing the command. In this way, it is possible to execute a command using the route map.
[0047]
Next, a detailed description will be given with reference to flowcharts shown in FIGS. For the sake of explanation, the position on the screen shown in FIG. 2 is represented as XY coordinates, the upper left of the screen is the origin (0, 0), and the lower right coordinate is (1024, 768). That is, a larger value of the X coordinate indicates a position on the right side of the screen, and a larger value of the Y coordinate indicates a position below the screen. FIG. 6 shows a flow of the initial processing. Before the start of the process by the trigger ON, an initial process is performed as shown in FIG. 6, and a predetermined value is set (S601 to S605).
[0048]
In the initial processing, first, an MX value and a MY value are set (S601). The MX value is an X-axis movement error allowable value, and the MY value is a Y-axis movement error allowable value. That is, when the moving distance of the mouse at the time of the start of the action by the operator is smaller than the MX and MY values, it is determined that the error is caused by camera shake. If it is determined that there is an error, the action is not regarded as an action by moving up, down, left and right as described above, and the direction pointer 12 does not move. In other words, when the moving distance of the mouse at the start of the action exceeds the MX value or the MY value, the direction pointer moves, and the data is stored in the direction list 14. The MX value and the MY value may be determined by the operator or may be determined in advance.
[0049]
Similarly, an ATT value (S602), a WDT value (S603), and an OV value (S604) are set. The ATT value is a value for interrupting the program when the entire processing time is equal to or longer than a predetermined time as described above. The WDT value is a value of a set time for interrupting the program when there is no operation for a fixed time or more, and is an allowable value of a time to stop when changing the direction of the mouse 3. ATT is the operation allowable time of the entire action. The time during these operations is monitored using a program timer, and if the ATT value or WDT value is exceeded, the program is interrupted. The OV value is an oblique judgment value for judging whether the mouse has been moved obliquely or vertically and horizontally (up, down, left and right) (UDLR). Based on the OV value, it is determined whether the movement is in the diagonal direction or in the vertical and horizontal directions. These values of MX, MY, ATT, WDT, and OV may be determined in advance, or may be determined by the operator.
[0050]
Then, a route map is set (S605). As the route map, in addition to the cross map as described above, other maps can be used. The operator may be allowed to select one route map from a plurality of route maps.
[0051]
The processing shown in FIG. 6 is performed before the trigger processing is started or when this function is reset. For example, this process is performed when the program according to the present embodiment is activated. Then, when the operator updates and saves the settings, the processing shown in FIG. 6 is executed again. Thus, when the trigger operation is performed, the program according to the present embodiment is executed.
[0052]
Next, the overall processing after the initial processing will be described with reference to FIG. In a state where the program according to the present embodiment is activated, that is, a state in which the processing in FIG. 6 is completed, an input of a trigger operation is awaited, and it is determined whether a trigger key is pressed (S701). . When the trigger operation is performed, the trigger push determination is turned ON, and pre-action processing (processing 0) is executed (S702). In the pre-action processing, initialization of the direction list 14 performed before the action is performed. When the pre-action processing is completed, action process processing (process 2) is executed (S703). In this action process processing, processing for storing direction information in the direction list 14 based on the moving direction of the mouse 3 is performed. During the execution of the action process, the trigger state is determined, and ON / OFF of the trigger is determined (S704). If the trigger remains ON, the execution of the action process is continued. When the trigger is turned off, the action process process ends, and post-action process (process 4) is executed (S705). The post-action processing executes processing such as display erasure of the navigation panel. Further, it is determined whether the action process has been interrupted. If it is determined that the processing has been interrupted, the process ends. If the processing has been completed, a processing determination is performed (S706). In the processing determination, a predetermined command is executed by comparing the data stored in the direction list 14 with the direction information of the command information.
[0053]
Hereinafter, the processing of steps S702 to S706 will be described in detail. First, the pre-action processing (S702) will be described with reference to FIG. In the pre-action processing, the direction list 14 is initialized (S801). Next, the navigation panel 11 having the route pattern 10 and the direction pointer 12 are displayed (S802). This navigation panel is displayed by the route pattern display section 28 in FIG. 5 as described above. Next, STEP is set to 0 (S803). STEP is a flag for separating the first processing (processing until the first direction is determined) or the subsequent processing in the action process processing. When STEP = 0, it is determined to be the first process, and when STEP = 1, it is determined to be the subsequent process. Next, WX and WY are set from the position of the mouse pointer when the trigger processing is performed (S804). WX and WY are values for comparing the current position CX and CY of the mouse pointer to determine the moving direction of the mouse. WX and WY indicate the mouse pointer positions of the previous loop while the loop shown in processing 1 (FIG. 9) described later is being executed. Then, the moving direction is determined by comparing the mouse pointer position information before and after the loop. These WX and WY are called previous positions. In step S805, direction pointer information (HX, HY), which is logical position information on the path map of the direction pointer (FIG. 4), is set. The direction pointer information (HX, HY) indicates the current position of the direction pointer on the route map. In step S806, the process interruption flag ABORT_FLG is set to 0. When the processing interruption flag ABORT_FLG = 1, it can be determined that the processing is interrupted in the processing after the trigger is turned off.
[0054]
Next, the path derailment counter DC is set to 0 (S807). The path derailment counter DC is a counter that counts the number of times the mouse is moved in a direction that cannot be moved in the path pattern. By setting the above-mentioned ABORT_FLG to 1 when DC becomes a certain value or more, it is possible to determine that the processing has been interrupted in the processing after the trigger is turned off. Further, the action start time AST = SYSTIME () is set (S808). AST indicates the time at which the action was started. It is assumed that SYSTEM () is a function indicating the current time on the PC to the nearest 1/1000 second. This AST is compared with the current time during the action processing, and if the difference is equal to or more than ATT, by setting ABORT_FLG to 1, it can be determined that the processing has been interrupted in the subsequent processing.
[0055]
The action process process (process 2) (S703) will be described with reference to FIG. The action process process executes the action process, which is the main process, at regular time intervals. For example, when an action process (process 1) (S902) described later is executed every 0.1 seconds, the process execution timing is determined to be Yes at 0.1 second intervals using the internal timer of the PC 1 (S901). . As a result, the action process is executed at 0.1 second intervals. The timing at which this action processing is executed can be adjusted according to the processing speed of the PC 1. For example, it is desirable to execute at a timing of 0.01 seconds to 0.1 seconds. This timing is set to be longer than the processing time of the action processing. This is because if the processing time is set shorter than the processing time of the action processing, the next processing is executed from the beginning during the action processing. In addition, if the timing is lengthened, the moving operation time of the mouse 3 performed by the user is lengthened, and the difference in the position information returned from the mouse can be increased. However, if the length is too long, the time for acquiring the position information is delayed, and the operability may be reduced. This process execution timing may be set in advance, or may be changeable according to the processing speed of the PC.
[0056]
Next, the action process (process 1) (S902) for determining the moving direction will be described in detail with reference to FIG. The direction attribute (L, R, U, D) is input to the direction list 14 by executing this action processing at regular time intervals. With the trigger operation performed and the path pattern 10 displayed, key information of the keyboard is acquired (S1001). In step S1001, information about pressing a direction key on the keyboard is acquired. When the direction key is pressed, the direction attribute (U, D, L, R) is input to K_AIRT. If the arrow key has not been pressed, enter Non in K_AIRT. Note that K_AIRT is a variable for pressing a direction key on the keyboard, and the information input to K_AIRT is determined by the moving direction determination unit 22. Next, the position information acquisition unit 21 acquires position information on the screen from the position of the mouse pointer (S1002). The value of the X axis of the mouse is obtained and input to CX, and the value of the Y axis is input to CY.
[0057]
Next, the processing time determination unit 32 determines the entire processing time (S1003). Specifically, the determination is made based on whether or not the difference between the current time SYSTEM_ () and the action start time AST is larger than the allowable time ATT. If the value is larger than the value of ATT, it is determined that the processing time exceeds the allowable time, and the processing time is exceeded (S1016). In the processing time exceeding processing, the processing interruption flag ABORT_FLG is set to 1. Thus, when the predetermined time has elapsed, it can be determined that the processing has been interrupted in the subsequent processing (processing after the trigger is turned off). Note that the processing time excess processing (S1016) is an optional processing in the present embodiment, and in the following description, it is assumed that this processing is not performed as appropriate.
[0058]
If it is within the allowable time (S1003), it is determined whether or not it is the first STEP (S1004). That is, it is determined whether it is the first step (the timing at which the direction is first extracted after the trigger is turned ON) or later. When the direction (LRUD) is first extracted after the trigger is turned on, since STEP = 0, it is determined whether or not the error is within the error before the start of movement (S1005). Here, a process of determining a subtle movement before the start of the action as an error range such as a camera shake is performed. Specifically, it is determined whether or not the absolute values of the differences between the previous positions WX, WY and the current positions CX, CY are larger than the camera shake error allowable values MX, MY, respectively. Further, it is determined whether or not the direction key of the keyboard is input, that is, whether or not K_AIRT = Non. If the difference is equal to or larger than the error allowable value or if K_AIRT = Non, the direction is determined (process 3) (S1006). In the process 3, it is determined in which direction, up, down, left, or right, the movement has been made based on the current positions CX, CY and the previous positions WX, WY. This direction determination processing is performed by the moving direction determination unit 22. The details of the direction determination process will be described later. The direction determined by the direction determination processing is input to the AIRT. This AIRT is a variable indicating the direction, and L, R, U, and D are input.
[0059]
When the direction is determined by the process 3 (S1006), the route determination unit 23 determines whether or not the vehicle can move based on the route map (S1008). Here, based on the direction stored in the AIRT, the direction pointer information stored in (HX, HY), and the route map principle described above, if it is determined that it is not possible to move along the route of the route pattern, the route derailing process is performed. Perform (S1017). In the route derailment process, in order to avoid a careless mistake in the operation, the number of times of deviating from the route movable on the route pattern is counted up. If this number is larger than a predetermined value, ABORT_FLG is set to 1, and it is determined that the process is interrupted in the process after the trigger is turned off. If it is determined that it is possible to move along the route of the route map based on the direction stored in the AIRT, the direction pointer information stored in (HX, HY), and the principle of the route map described above, the direction information is added to the direction list 14. to add. The direction list 14 is stored in the direction list storage unit 29 and is represented by a variable L_AIRT. As a process of adding direction information to the direction list 14, data of AIRT is added to L_AIRT. (S1009). The direction pointer 12 on the route pattern is moved and displayed based on the result (S1010). Further, the data of the AIRT is input to W_AIRT (S1011). W_AIRT is a variable that holds the AIRT of the previous processing during the action processing. Based on the W_AIRT, a process for determining whether the direction is the same as described later is performed. Further, the current position (HX, HY) of the direction pointer 12 on the route pattern is updated (S1012).
[0060]
Then, it is determined whether or not it is the first STEP (S1013). In the case of the first STEP, since the processing has been performed once, the next processing is the second and subsequent processing, and STEP = 1 is set (S1014). In order to execute the next action process, the values of the current positions CX and CY used in the first action process are input to the previous positions WX and WY, and the position information is held (S1015). Each time the loop processing is performed in this manner, the positions of the current positions CX and CY are substituted for the previous positions WX and WY and updated at regular time intervals. Then, the moving direction is determined by comparing WX and WY with the current positions CX and CY acquired in the next loop. Note that when it is determined in the processing time determination step (S1003) that the processing time exceeds the allowable time, when it is determined in the direction determination step (S1006) that it is moving in an oblique direction, and when the route determination step (S1008) If it is determined that the vehicle is derailing from the route in step ()), the process proceeds to step S1015 in which the position information is held because the process up to step S1014 does not need to be performed. In these cases, since STEP = 0 remains, the same process is performed until STEP = 1 (until it is determined that the mobile terminal is movable). Thus, the loop of the action processing when STEP = 0 is ended.
[0061]
In the action processing after the moving direction is once determined, since STEP1 is 1 in step S1014 of the previous action processing, it is determined from the first STEP whether or not (S1004) whether it is the same direction. Move to the step to be performed (S1007). In the step of determining whether or not the movement is in the same direction, it is determined whether or not the movement has been performed in the same direction as the movement in the previous loop. If they are the same, move in an oblique direction, or have stopped, the flow shifts to step S1015. In this case, no data is stored in the direction list L_AIRT, and only the previous positions WX and WY are updated. If it is determined that the moving direction has changed, the flow shifts to route determination (S1008). The loop time of the action process is specified as 0.1 to 0.01 seconds in the process execution timing (S901), and is much shorter than the time when the mouse is actually moved, so that the mouse is continuously moved in one direction. During this time, many action processes will be executed. It is determined whether or not the directions are the same so as to store in the direction list L_AIRT the direction until the mouse movement stops once as one direction. Thereby, even if the mouse is continuously moved in one direction for a longer time than the processing time of the action processing, the mouse is stored in the direction list L_AIRT as one direction. The details of the process for determining whether the directions are the same will be described later.
[0062]
Path decision? After (S1008), the same processing as the above-described processing is performed, but since STEP = 1 has already been performed, the processing is performed without going through the processing of STEP = 1 (S1014). In this way, the action processing after STEP = 1 is performed. The subsequent action processing is performed in the same manner. This process is repeated until the trigger is turned off.
[0063]
The process (process 2) for determining whether the directions are the same in step S1007 in FIG. 10 will be described with reference to FIG. In process 2, it is first determined whether or not the movement has stopped (S1101). Here, the previous positions WX, WY are compared with the current positions CX, CY, and if they are the same value, it is determined that the vehicle has stopped. If it is determined that the vehicle has stopped, the flow shifts to step S1105 to determine whether it is within the stop time. If the stop time is longer than the allowable time WDT, a stop time exceeding process is performed (S1107). Specifically, a difference between the current time SYSTEMTIME () and the time CDT at which the direction was changed last time is compared with the allowable time WDT. ABORT_FLG = 1 is set for the stop time exceeding process as in the processing time exceeding process shown in FIG. When the operation of the mouse 3 is stopped for a predetermined time or more, the processing is interrupted in this way. If the stop time is shorter than the set allowable time WDT, stop processing W_AIRT = S is performed (S1106). By inputting S other than U, D, L, and R to W_AIRT, it is stored that the operation has been temporarily stopped. Then, it is determined in process 2 that the operation has stopped.
[0064]
If it is determined in step S1101 that the vehicle has not stopped, that is, if the previous positions WX, WY and the current positions CX, CY are different, direction determination (process 3) is performed (S1102). This direction determination is the same processing as the direction determination processing (S1006) performed in the action processing shown in FIG. This processing will be described later.
[0065]
When it is determined by the direction determination processing that the movement is diagonal, the processing for the diagonal movement is performed (S1108). In the diagonal process, the path derailment counter DC is counted up. For example, when the mouse is moved in a diagonal direction a predetermined number of times or more and the DC counter becomes a value equal to or more than a predetermined value, ABORT_FLG = 1 is set. When the direction is determined to be any of U, D, R, and L (vertical and horizontal directions), it is determined whether the movement is the same as the previous direction (S1103). When it is determined that the direction is the same as that of the previous time, that is, when the mouse is continuously moved in the same direction, the process 2 ends. When it is determined that the direction is not the same as the previous time, that is, when the direction of the mouse is changed, the stop time is reset (S1104). Specifically, the current time SYSTEMTIME () is input to the CDT. Once the moving direction changes, the stop time is reset, and it is possible to appropriately determine whether or not the stop time is within the stop time (S1105). If the direction has been changed, the predetermined processing (S1008 and the like) shown in FIG. 10 is performed. In addition, when it is determined that the movement is diagonal, when it is determined that the movement is the same direction, or when it is determined that the vehicle is stopped, the above-described predetermined processing (S1008 and the like) is not performed.
[0066]
Next, the direction determination processing (processing 3) shown in step S1006 in FIG. 10 and step S1102 in FIG. 11 will be described with reference to FIG. In the direction determination process, it is determined in which direction, up, down, left, or right, the mouse 3 has been moved based on the amount of movement. In process 3, it is determined whether or not the keyboard direction key has been pressed (S1201). If the key has been pressed, AIRT = K_AIRT is set, the direction corresponding to the direction key is set (S1211), and the direction is determined. If the direction key has not been pressed, the absolute value of the movement amount of the X axis and the Y axis is obtained from the position of the mouse 3 (S1202). Specifically, the absolute values of the differences between the current positions CX, CY and the previous positions WX, WY are calculated for the X axis and the Y axis, respectively. The absolute values of the X-axis and the Y-axis are the movement amounts of the mouse on the X-axis and the Y-axis. Note that ABS in the figure indicates an absolute value. The difference between the absolute value of the X axis and the absolute value of the Y axis is obtained. If the absolute value of the difference is smaller than OV, it is determined that the difference between the amount of movement of the X axis and the amount of movement of the Y axis is small and the object moves in an oblique direction. (S1203). When the difference between the absolute values of the X axis and the Y axis is larger than OV, it is determined that the image has moved in the vertical direction or the horizontal direction, and the vertical and horizontal movement is determined (S1204). When the movement amount (absolute value) of the X axis is larger than the movement amount (absolute value) of the Y axis, it is determined that the movement is lateral movement (left / right movement), and the process proceeds to left / right movement determination (S1205). In the left / right movement determination, the current position CX of the X axis is compared with the previous position WX. If the current position CX is larger than the previous position WX, it is determined that the movement is to the right, and R is set to AIRT (S1207). On the other hand, if the current position CX is smaller than the previous position WX, it is determined that the movement is to the left, and L is set to AIRT (S1208).
[0067]
On the other hand, when the moving amount (absolute value) of the X axis is smaller than the moving amount (absolute value) of the Y axis, it is determined to be vertical movement (vertical movement), and the process shifts to vertical movement determination (S1206). In the vertical movement determination, the current position CY of the Y axis is compared with the previous position WY. If the current position CY is larger than the previous position WY, it is determined to be a downward movement, and D is set in AIRT (S1209). Conversely, if the current position CY is smaller than the previous position WY, it is determined that the current position CY is moving upward, and U is set in AIRT (S1210). In this way, the direction is determined, and one of U, D, L, and R is input to the AIRT indicating the moving direction. Based on this result, the route is determined in step S1008.
[0068]
In addition, the process of continuously moving the direction point 12 in the same direction can be performed by the above-described process. For example, in the case where the direction point 12 is located at the left point 13L in FIG. 3B, the direction point 12 is moved continuously to the right point 13R via the center point 13C. In this case, the operation of the mouse is stopped in a state where the direction pointer 12 moves to the center point 13C and stops there. Thereby, S is input to W_AIRT in step S1106. If the mouse is further moved rightward after the pause, and R is input to the AIRT, it is determined that the direction has been changed in step S1103 because W_AIRT and AIRT are different. In this way, even when the mouse is continuously moved in the same direction, the moving process of the direction pointer can be performed by temporarily stopping the mouse on the way. Based on the moving time and the moving amount of the mouse, the processing can be accurately performed without being affected by individual differences or the like, as compared with the case of performing the processing of continuously moving the direction pointer in the same direction.
[0069]
In this way, the action processing (processing 1) (S902) is performed. This action process is repeated a plurality of times, and the direction attribute is stored in the direction list L_AIRT stored in the direction list storage unit 29. Based on the information stored in this direction list L_AIRT, post-action processing (processing 4) (S705) and processing determination (processing 5) (S706) are executed as shown in FIG.
[0070]
In the post-action processing (processing 4) (S705), non-display of the path pattern 10 and the direction pointer 12 is performed as shown in FIG. That is, the directions of the navigation panel 11 and the direction pointer 12 displayed on the screen of the display unit 2 are erased by the direction pointer display unit 24 and the route pattern display unit 28. If the processing interruption flag ABORT_FLG = 1 in the above-described action processing, the processing determination (processing 5) (S706) described later is not executed, and the processing ends without executing the command. Further, if the processing interruption flag ABORT_FLG = 1 during the execution of the action processing, the processing may be terminated at that time. Further, the processing interruption flag ABORT_FLG may be set to 1 by pressing a specific key such as pressing an ESC button.
[0071]
In the processing determination shown in FIG. 14, the direction list determination unit 27 determines whether or not there is data in the direction list L_AIRT. If the data is stored in the direction list L_AIRT, the execution unit issues a command corresponding to the data. Is executed. If there is no command information having direction information corresponding to the data stored in the direction list L_AIRT, the process ends. In this way, the processes from the trigger ON to the trigger OFF are executed, and information processing represented by command execution such as activation of an application can be performed by an easy operation. Further, since the mouse is moved while the route pattern is displayed on the screen, it is possible to visually grasp whether the mouse has been moved in the direction in which the mouse is to be moved, and operation errors are reduced. Furthermore, since the movement of the direction pointer is limited in the up, down, left, and right directions by eliminating the movement in the oblique direction having individual differences, it is possible to eliminate the operation error due to the difference between the operators. Thereby, the operability of the information processing device can be improved.
[0072]
Embodiment 2 of the invention
In the first embodiment, the cross route pattern has the center point 13C, the left point 13L, the right point 13R, the upper point 13U, and the lower point 13D, but the present invention is not limited to this route pattern. For example, it is possible to use a route pattern as shown in FIG. In this route pattern, another moving point 13 is provided between the center point 13C and the left point 13L, the right point 13R, the upper point 13U, and the lower point 13D. As in the first embodiment, when the mouse is moved rightward from the center point 13C, the direction pointer 12 stops at the movement point 13 between the right point 13R and the center point 13C. At this time, R is stored in the direction list 14. Then, when the mouse 3 is stopped for a certain time and then moved to the right again, the direction pointer 12 stops at the point 13R. At this time, the direction list 14 stores RR indicating that the movement has been made from right to right. The direction pointer 12 can be similarly moved in the upward, downward, and left directions. By using such a path pattern 10, the number of commands that can be executed with a small number of mouse movements can be increased.
[0073]
Further, the present invention can use the route patterns shown in FIGS. 15B and 15C. Of course, the present invention is not limited to the illustrated route pattern. This route pattern can be created by changing the arrangement of white circles, black circles, and N in the route map shown in FIG. A plurality of route patterns may be stored in advance, and may be selected according to the skill level of the operator. In other words, a beginner or a person who is not used to the operation selects the simple route pattern as shown in FIG. 4, and a person who is familiar with the operation selects a complicated route pattern as shown in FIG. You may make it select. Of course, a route pattern may be arbitrarily created based on the principle of the route map. Furthermore, the moving direction of the direction pointer 12 is not limited to the vertical and horizontal directions, but by limiting it to the vertical and horizontal directions, it is possible to reduce operation errors.
[0074]
Further, each time the direction information is sequentially stored in the direction list 14, a selection list of the command processing can be displayed on the display unit 2. The selection list can display one or a plurality of pieces of command information including the input direction information as a part thereof, or commands included in the command information on the display unit. For example, assume that a command A, B, or C, which is an execution command of the application program A, B, or C, is registered. It is assumed that the direction information of (LRU), (UDD), and (LRD) is registered in correspondence with each of the commands A, B, and C. When the direction pointer moves from the start position N in the L direction, a command list is displayed, and the command list can display commands A and C and corresponding direction information of each. It is determined that the command B is not likely to be selected when L is input to the direction list 14, and is not displayed in the command list. As described above, when the moving direction of the direction pointer is determined and the direction information is input to the direction list 14, one or more possible commands are determined based on the direction information of the direction list 14, and the command is displayed. Section. Thereby, the operation by the operator can be made easier. The command list may display, for example, a shortcut of a program to be started.
[0075]
Other embodiments.
The information processing program in the present embodiment may be started by a program start action of the operator without being resident. The display size of the navigation panel 11 can be changed. The navigation panel 11 may be configured so that display / non-display can be selected by an operation of the operator. Each of the route pattern display unit 28 and the direction pointer display unit 24 can execute a display / non-display selection process according to a selection input from the operator. Further, although the direction list can be input by using the direction keys of the keyboard, the direction list may be input using keys other than the direction keys. For example, each of the up, down, left, and right movement processes may be performed by pressing the ten keys 8, 2, 4, and 6. Of course, the processing may be performed by operation of only the mouse, excluding the operation by the direction key.
[0076]
The present invention is not limited to the above-described embodiment, and various modifications are possible. For example, the present invention can be used not only for the desktop PC shown in FIG. 1, but also for a workstation, a general-purpose machine, an FA computer, a notebook computer, and a PDA (Personal Data Assistant). FIG. 16 shows an example of a PC used in the present embodiment. FIG. 16 includes a central processing unit (CPU) 1601 and a memory 1604. The CPU and the memory are connected to a hard disk device 1613 as an auxiliary storage device via a bus. A storage medium drive such as a flexibil disk device 1620, a hard disk device 1613, and a CD-ROM drive 1629 is connected to the bus via various controllers such as a flexibil disk controller 1619, an IDE controller 1625, and a SCSI controller 1627.
[0077]
A portable storage medium such as a flexibil disk is inserted into a storage medium drive such as a flexibil disk device. The storage medium can give instructions to the CPU 1601 and the like in cooperation with the operating system, and can store a computer program for implementing the present embodiment. The computer program is executed by being loaded into the memory 1604. The computer program can be compressed or divided into a plurality of parts and stored in a storage medium. The hardware configuration can also be a system with user interface hardware. The user interface hardware includes, for example, a pointing device (mouse 3, joystick, etc.) for inputting or a keyboard 4, a display 2 for presenting visual data to the user, and a parallel port 1616. You can also connect a printer. It is possible to connect a modem via a serial port, and connect to a network via a serial port, a modem or a token ring or a communication adapter 1618 to communicate with other computer systems. These configurations are examples, and not all configurations are essential to the present embodiment.
[0078]
Those skilled in the art can easily install a computer program including a program module corresponding to the logical configuration described with reference to FIG. 5 and the like in a user terminal having the hardware configuration illustrated in FIG. It is possible to implement the invention. Various programs installed on the computer to configure the present invention can be stored in a recording medium, and can be transmitted via a communication medium. This recording medium is, for example, a flexible disk, hard disk, magnetic disk, magneto-optical disk, CD-ROM, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory cartridge, nonvolatile RAM cartridge, and the like.
[0079]
【The invention's effect】
According to the present invention, it is possible to provide an information processing apparatus, an information processing method, and an information processing program that can perform information processing with a simple operation.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a configuration of an information processing apparatus according to the present invention.
FIG. 2 is a diagram illustrating an example of a screen displayed on a display unit according to the present invention.
FIG. 3 is a diagram showing an operation of a route pattern used in the information processing method according to the present invention.
FIG. 4 is a diagram illustrating the principle of a route map according to the present invention.
FIG. 5 is a block diagram illustrating a configuration of an information processing apparatus according to the present invention.
FIG. 6 is a flowchart showing initial processing in the information processing method of the present invention.
FIG. 7 is a flowchart showing an entire process in the information processing method of the present invention.
FIG. 8 is a flowchart showing pre-action processing in the information processing method of the present invention.
FIG. 9 is a flowchart showing action process processing in the information processing method of the present invention.
FIG. 10 is a flowchart showing an action process in the information processing method of the present invention.
FIG. 11 is a flowchart showing a determination process in the same direction in the information processing method of the present invention.
FIG. 12 is a flowchart showing a direction determination process in the information processing method of the present invention.
FIG. 13 is a flowchart showing post-action processing in the information processing method of the present invention.
FIG. 14 is a flowchart showing a process determination in the information processing method of the present invention.
FIG. 15 is a diagram showing another embodiment of the route pattern in the information processing method of the present invention.
FIG. 16 is a block diagram schematically illustrating a hardware configuration of an information processing apparatus to which the present invention can be applied.
[Explanation of symbols]
1 Personal computer (PC), 2 display, 3 mouse, 4 keyboard, 5 icons, 6 pointer, 10 route pattern, 11 navigation panel, 12 direction pointer, 13C center point, 13U upper point, 13D lower point, 13L left point , 13R right point, 14 direction list, 21 position information acquisition unit, 22 moving direction judgment unit, 23 route judgment unit, 24 direction pointer display unit, 25 route pattern storage unit, 26 command information storage unit, 27 direction list judgment unit, 28 route pattern display unit, 29 direction list storage unit, 30 route map generation unit, 31 trigger processing unit, 32 processing time judgment unit

Claims (17)

経路パターンと、前記経路パターン上の経路を移動可能な方向ポインタと、を表示する表示部と、
前記方向ポインタの移動方向を特定する移動指示情報を入力する、入力部と、
前記方向ポインタの移動方向を、前記移動指示情報と経路パターンに基づいて決定する決定部と、
前記決定された移動方向に、前記方向ポインタが前記経路パターン上を移動するように、前記表示部に表示させる、方向ポインタ表示部と、
前記方向ポインタの移動方向に基づく情報を格納する、方向情報格納部と、を備え、
格納された前記方向情報に基づいて情報処理がなされる、情報処理装置。
A display unit that displays a route pattern and a direction pointer that can move the route on the route pattern,
An input unit for inputting movement instruction information for specifying a movement direction of the direction pointer,
A determining unit that determines the moving direction of the direction pointer based on the moving instruction information and the route pattern,
A direction pointer display unit, which is displayed on the display unit so that the direction pointer moves on the path pattern in the determined moving direction,
A direction information storage unit that stores information based on the moving direction of the direction pointer,
An information processing device for performing information processing based on the stored direction information.
前記入力部は、ポインティングデバイスであり、
さらに、
前記ポインティングデバイスによって特定される位置情報を取得する位置情報取得部と、
前記位置情報に基づいて、ポインティングデバイスの移動方向を判断する移動方向判断部と、を備え
前記決定部は、前記移動方向判断手段によって判断された移動方向に基づいて、前記方向ポインタの前記経路パターン上の移動が可能か否か判断し、
前記表示部は、前記決定部によって移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示する、請求項1に記載の情報処理装置。
The input unit is a pointing device,
further,
A position information acquisition unit that acquires position information specified by the pointing device,
A moving direction determining unit that determines a moving direction of a pointing device based on the position information, wherein the determining unit determines the path pattern of the direction pointer based on the moving direction determined by the moving direction determining unit. Judge whether it is possible to move up,
The information processing apparatus according to claim 1, wherein the display unit moves and displays a position of the direction pointer on the route pattern in a direction determined to be movable by the determination unit.
前記方向ポインタの移動方向の1つ、あるいは2つ以上の組み合わせからなる方向情報と実行する処理を対応させて記憶するコマンド情報記憶部をさらに備え、
前記方向情報格納部に格納された情報と前記コマンド情報記憶部に記憶された方向情報が一致した場合に、前記方向情報に対応するコマンドを実行する、請求項1又は請求項2に記載の情報処理装置。
A command information storage unit configured to store direction information including one or a combination of two or more of the movement directions of the direction pointer and a process to be executed in association with each other;
3. The information according to claim 1, wherein a command corresponding to the direction information is executed when the information stored in the direction information storage unit matches the direction information stored in the command information storage unit. 4. Processing equipment.
前記経路パターンにおいて、前記方向ポインタが移動可能な方向は、上下方向と左右方向以外の方向を有さない、請求項1又は2記載の情報処理装置。The information processing apparatus according to claim 1, wherein in the path pattern, a direction in which the direction pointer can move has no direction other than a vertical direction and a horizontal direction. 前記入力部はキーボードであり、
前記方向ポインタの移動方向に対応したキーを押下することによって、前記方向ポインタが移動する、請求項1乃至4いずれかに記載の情報処理装置。
The input unit is a keyboard,
The information processing apparatus according to claim 1, wherein the direction pointer moves by pressing a key corresponding to a moving direction of the direction pointer.
コンピュータに、情報処理を実行させるコンピュータプログラムであって、前記処理は、
経路パターンと前記経路パターン上を移動可能な方向ポインタとを表示させるステップと、
前記方向ポインタの移動方向を特定する移動指示情報を取得するステップと、
前記方向ポインタの移動方向を、前記移動指示情報と経路パターンに基づいて決定するステップと、
前記決定された移動方向に、前記方向ポインタが前記経路パターン上を移動するように表示させるステップと、
前記方向ポインタの移動方向に基づく方向情報を格納するステップと、
格納された前記方向情報に基づいて特定の処理を実行させるステップと、
を備える、コンピュータプログラム。
A computer program for causing a computer to execute information processing, wherein the processing includes:
Displaying a route pattern and a direction pointer movable on the route pattern;
Obtaining movement instruction information for specifying a movement direction of the direction pointer;
Determining the moving direction of the direction pointer based on the moving instruction information and the route pattern;
Displaying the direction pointer so as to move on the path pattern in the determined moving direction;
Storing direction information based on the moving direction of the direction pointer;
Executing a specific process based on the stored direction information;
A computer program comprising:
前記移動指示情報を取得するステップは、ポインティングデバイスにより特定される位置情報を取得するステップと、前記位置情報に基づいて、ポインティングデバイスの移動方向を判断するステップとを備え、
前記決定するステップは、前記判断された移動方向に基づいて、前記方向ポインタが経路パターン上を移動可能か否か判断するステップを備え、
前記方向ポインタが前記経路パターン上を移動するように表示させるステップは、前記決定するステップにおいて移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示させるステップを備え、
前記格納するステップは、前記決定するステップにおいて移動可能と判断された方向を格納する、請求項6に記載のコンピュータプログラム。
The step of obtaining the movement instruction information includes a step of obtaining position information specified by a pointing device, and a step of determining a moving direction of the pointing device based on the position information,
The determining step includes a step of determining whether or not the direction pointer can move on a path pattern based on the determined moving direction,
The step of displaying the direction pointer so as to move on the path pattern includes the step of moving and displaying the position of the direction pointer on the path pattern in the direction determined to be movable in the determining step. ,
7. The computer program according to claim 6, wherein said storing step stores a direction determined to be movable in said determining step.
前記ポインティングデバイスの移動方向が上下方向及び左右方向のいずれか一方であるか否かを判断するステップをさらに備え、
上下方向及び左右方向のいずれでもないと判断した場合、前記方向ポインタが経路パターン上を移動不可能と判断する、請求項7記載のコンピュータプログラム。
It further comprises a step of determining whether the moving direction of the pointing device is one of the up-down direction and the left-right direction,
The computer program according to claim 7, wherein when it is determined that the direction pointer is neither the vertical direction nor the horizontal direction, the direction pointer determines that it cannot move on the path pattern.
前記ポインティングデバイスが同一方向の移動を続けているか否かを判断するステップをさらに備え、
同一方向に移動を続けていると判断した場合、前記方向ポインタが経路パターン上を移動不可能と判断する、請求項7又は8記載のコンピュータプログラム。
It further comprises a step of determining whether the pointing device continues to move in the same direction,
9. The computer program according to claim 7, wherein when it is determined that the direction pointer continues to move in the same direction, it is determined that the direction pointer cannot move on the path pattern. 10.
前記方向情報に基づく情報処理がアプリケーションプログラムの起動処理である、請求項6乃至9いずれかに記載の情報処理プログラム。The information processing program according to claim 6, wherein the information processing based on the direction information is an activation process of an application program. 前記方向ポインタと前記経路パターンを表示させるためのトリガー操作検出するステップをさらに備える、請求項6乃至10記載のコンピュータプログラム。The computer program according to claim 6, further comprising detecting a trigger operation for displaying the direction pointer and the route pattern. 前記ポインティングデバイスにより特定される位置情報に基づき、ポインティングデバイスの移動量を決定するステップをさらに備え、
前記移動量が所定値よりも小さい場合、前記方向ポインタを移動させない、請求項7乃至11いずれかに記載のコンピュータプログラム。
Based on the position information specified by the pointing device, further comprising the step of determining the amount of movement of the pointing device,
12. The computer program according to claim 7, wherein the direction pointer is not moved when the movement amount is smaller than a predetermined value.
前記入力部によって、前記方向ポインタが移動することができない方向へ移動させるための操作が、予め定められた回数以上入力された場合、処理を中断する、請求項6乃至12いずれかに記載のコンピュータプログラム。The computer according to any one of claims 6 to 12, wherein the processing is interrupted when an operation for moving the direction pointer in a direction in which the direction pointer cannot move is input by a predetermined number of times or more by the input unit. program. 前記格納するステップにおいて格納された方向情報と、前記決定するステップにおいて決定された移動方向とに基づき、前記実行される処理として選択可能な処理を特定するリストを表示させる、請求項6乃至13に記載のコンピュータプログラム。14. The method according to claim 6, further comprising: displaying a list that specifies a process that can be selected as the process to be executed based on the direction information stored in the storing step and the moving direction determined in the determining step. Computer program as described. 前記経路パターンは、経路上に前記方向ポインタが停止する複数の停止点を備え、
前記方向ポインタは、一つの停止点から隣接する他の停止点へ移動可能であり、
前記複数の停止点の一つの停止点から他の停止点へ前記移動ポインタが移動した場合、前記方向情報が格納される、請求項6乃至14いずれかに記載のコンピュータプログラム。
The route pattern includes a plurality of stop points on the route where the direction pointer stops,
The direction pointer is movable from one stop point to another adjacent stop point,
15. The computer program according to claim 6, wherein the direction information is stored when the movement pointer moves from one stop point of the plurality of stop points to another stop point.
表示部上の位置を入力するポインティングデバイスを用いた情報処理装置において、
前記ポインティングデバイスの移動方向に基づいて移動する方向ポインタを表示するステップと、
前記方向ポインタが移動可能な経路を示す経路パターンを表示するステップと、
前記ポインティングデバイスの位置情報を取得するステップと、
前記位置情報に基づいて、ポインティングデバイスの移動方向を判断するステップと、
前記判断された移動方向に基づいて、前記方向ポインタが経路パターン上を移動可能か否か判断するステップと、
前記移動可能と判断された方向に前記経路パターン上の前記方向ポインタの位置を移動させて表示するステップと、
前記移動可能と判断された方向を方向リストに格納するステップを備え、
前記方向リストに格納された情報に基づいて情報を処理する情報処理方法。
In an information processing apparatus using a pointing device for inputting a position on a display unit,
Displaying a direction pointer that moves based on the moving direction of the pointing device;
Displaying a route pattern indicating a route to which the direction pointer can move;
Obtaining position information of the pointing device;
Judging the moving direction of the pointing device based on the position information;
Based on the determined moving direction, determining whether the direction pointer can move on the path pattern,
Moving and displaying the position of the direction pointer on the route pattern in the direction determined to be movable; and
Storing a direction determined to be movable in a direction list,
An information processing method for processing information based on the information stored in the direction list.
前記ポインティングデバイスの移動方向が上下方向及び左右方向のいずれ一方であるか否かを判断するステップをさらに備え、
上下方向及び左右方向のいずれにも該当でしないと判断した場合、前記方向ポインタが移動不可能と決定する、請求項16記載の情報処理方法。
It further comprises a step of determining whether the moving direction of the pointing device is one of the up and down direction and the left and right direction,
17. The information processing method according to claim 16, wherein if it is determined that the direction pointer does not correspond to any of the vertical direction and the horizontal direction, the direction pointer is determined to be immovable.
JP2003042548A 2003-02-20 2003-02-20 Information processing apparatus, information processing method, and computer program Expired - Fee Related JP3848269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003042548A JP3848269B2 (en) 2003-02-20 2003-02-20 Information processing apparatus, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003042548A JP3848269B2 (en) 2003-02-20 2003-02-20 Information processing apparatus, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2004252720A true JP2004252720A (en) 2004-09-09
JP3848269B2 JP3848269B2 (en) 2006-11-22

Family

ID=33025802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003042548A Expired - Fee Related JP3848269B2 (en) 2003-02-20 2003-02-20 Information processing apparatus, information processing method, and computer program

Country Status (1)

Country Link
JP (1) JP3848269B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113845A (en) * 2006-11-02 2008-05-22 Konami Digital Entertainment:Kk Game device, method for correcting amount of displacement, and program
JP2009521753A (en) * 2005-12-23 2009-06-04 アップル インコーポレイテッド Unlocking a device by making a gesture on the unlock image
JP2009156779A (en) * 2007-12-27 2009-07-16 Fujitsu Ltd Motion sensing device, motion sensing method, and motion sensing circuit
US8528072B2 (en) 2010-07-23 2013-09-03 Apple Inc. Method, apparatus and system for access mode control of a device
US8782775B2 (en) 2007-09-24 2014-07-15 Apple Inc. Embedded authentication systems in an electronic device
US9128614B2 (en) 2010-11-05 2015-09-08 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9213822B2 (en) 2012-01-20 2015-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US11165963B2 (en) 2011-06-05 2021-11-02 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127800A (en) * 2005-12-23 2013-06-27 Apple Inc Unlocking of device by gesturing on unlocked image
US10754538B2 (en) 2005-12-23 2020-08-25 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8527903B2 (en) 2005-12-23 2013-09-03 Apple Inc. Unlocking a device by performing gestures on an unlock image
US11669238B2 (en) 2005-12-23 2023-06-06 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8046721B2 (en) 2005-12-23 2011-10-25 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8209637B2 (en) 2005-12-23 2012-06-26 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP2012181847A (en) * 2005-12-23 2012-09-20 Apple Inc Unlocking device by performing gestures on unlock image
US8286103B2 (en) 2005-12-23 2012-10-09 Apple Inc. Unlocking a device by performing gestures on an unlock image
US11086507B2 (en) 2005-12-23 2021-08-10 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP2009521753A (en) * 2005-12-23 2009-06-04 アップル インコーポレイテッド Unlocking a device by making a gesture on the unlock image
US10078439B2 (en) 2005-12-23 2018-09-18 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP2013232198A (en) * 2005-12-23 2013-11-14 Apple Inc Unlocking device by performing gestures on unlock image
US8627237B2 (en) 2005-12-23 2014-01-07 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8640057B2 (en) 2005-12-23 2014-01-28 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8694923B2 (en) 2005-12-23 2014-04-08 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8745544B2 (en) 2005-12-23 2014-06-03 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4588689B2 (en) * 2006-11-02 2010-12-01 株式会社コナミデジタルエンタテインメント Game device and program
JP2008113845A (en) * 2006-11-02 2008-05-22 Konami Digital Entertainment:Kk Game device, method for correcting amount of displacement, and program
US8782775B2 (en) 2007-09-24 2014-07-15 Apple Inc. Embedded authentication systems in an electronic device
US9274647B2 (en) 2007-09-24 2016-03-01 Apple Inc. Embedded authentication systems in an electronic device
US9038167B2 (en) 2007-09-24 2015-05-19 Apple Inc. Embedded authentication systems in an electronic device
US9134896B2 (en) 2007-09-24 2015-09-15 Apple Inc. Embedded authentication systems in an electronic device
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
US8943580B2 (en) 2007-09-24 2015-01-27 Apple Inc. Embedded authentication systems in an electronic device
US9250795B2 (en) 2007-09-24 2016-02-02 Apple Inc. Embedded authentication systems in an electronic device
US9128601B2 (en) 2007-09-24 2015-09-08 Apple Inc. Embedded authentication systems in an electronic device
US9304624B2 (en) 2007-09-24 2016-04-05 Apple Inc. Embedded authentication systems in an electronic device
US9329771B2 (en) 2007-09-24 2016-05-03 Apple Inc Embedded authentication systems in an electronic device
US10956550B2 (en) 2007-09-24 2021-03-23 Apple Inc. Embedded authentication systems in an electronic device
US9495531B2 (en) 2007-09-24 2016-11-15 Apple Inc. Embedded authentication systems in an electronic device
US9519771B2 (en) 2007-09-24 2016-12-13 Apple Inc. Embedded authentication systems in an electronic device
US10275585B2 (en) 2007-09-24 2019-04-30 Apple Inc. Embedded authentication systems in an electronic device
US9953152B2 (en) 2007-09-24 2018-04-24 Apple Inc. Embedded authentication systems in an electronic device
JP2009156779A (en) * 2007-12-27 2009-07-16 Fujitsu Ltd Motion sensing device, motion sensing method, and motion sensing circuit
US8528072B2 (en) 2010-07-23 2013-09-03 Apple Inc. Method, apparatus and system for access mode control of a device
US9740832B2 (en) 2010-07-23 2017-08-22 Apple Inc. Method, apparatus and system for access mode control of a device
US9146673B2 (en) 2010-11-05 2015-09-29 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9128614B2 (en) 2010-11-05 2015-09-08 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US11165963B2 (en) 2011-06-05 2021-11-02 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US10007802B2 (en) 2012-01-20 2018-06-26 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US10867059B2 (en) 2012-01-20 2020-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9372978B2 (en) 2012-01-20 2016-06-21 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9213822B2 (en) 2012-01-20 2015-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device

Also Published As

Publication number Publication date
JP3848269B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
US7415676B2 (en) Visual field changing method
CN109643210B (en) Device manipulation using hovering
KR101531363B1 (en) Method of controlling virtual object or view point on two dimensional interactive display
KR101892630B1 (en) Touch display apparatus and method for displaying thereof
EP1821182B1 (en) 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program
KR101277256B1 (en) Apparatus and method for user interface
EP2715499B1 (en) Invisible control
JP5659586B2 (en) Display control device, display control method, display control program, and recording medium
US20110246933A1 (en) Information processing apparatus, information processing program, storage medium storing an information processing program and window controlling method
US20110107272A1 (en) Method and apparatus for controlling and displaying contents in a user interface
JP3982288B2 (en) 3D window display device, 3D window display method, and 3D window display program
JP2009205685A (en) Simulation of multi-point gesture by single pointing device
EP1969450A1 (en) Mobile device and operation method control available for using touch and drag
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
KR20100125703A (en) System and method of gesture-based user interface
JP2018027231A (en) Program, control method, and information processing apparatus
JP4743602B2 (en) Image processing apparatus, image processing program, game apparatus, and game program
JP3848269B2 (en) Information processing apparatus, information processing method, and computer program
KR100348181B1 (en) A computer system and a method for dynamic information display
KR102181499B1 (en) Method and system for authoring virtual reality contents with two hands motion input
JPH03129513A (en) Function selecting system
KR101390083B1 (en) User inerface method for selecting graphic button based on pointer movement and electronic device using the same
KR102113525B1 (en) Apparatus and Method for User Interface for Controlling Lists Based on Acceleration Type Jog-Shuttle
KR101219292B1 (en) Hand-held device including a display and method for navigating objects on the display
JP5611649B2 (en) Information processing apparatus and input control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110901

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120901

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees