JP2007272708A - Portable device, and input support method and program - Google Patents
Portable device, and input support method and program Download PDFInfo
- Publication number
- JP2007272708A JP2007272708A JP2006099524A JP2006099524A JP2007272708A JP 2007272708 A JP2007272708 A JP 2007272708A JP 2006099524 A JP2006099524 A JP 2006099524A JP 2006099524 A JP2006099524 A JP 2006099524A JP 2007272708 A JP2007272708 A JP 2007272708A
- Authority
- JP
- Japan
- Prior art keywords
- input
- processing
- shape
- pointer
- locus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、所定の入力によって所定の機能を実行可能な携帯装置、入力支援方法及びプログラムに関するものである。 The present invention relates to a portable device capable of executing a predetermined function by a predetermined input, an input support method, and a program.
従来、特開2006−048722号公報(特許文献1)にも示されるように、携帯電話機、PHS(Personal Handyphone System)、PDA(Personal Data Assistance,Personal
Digital Assistans:個人向け携帯型情報通信機器)等の携帯端末装置の多くは、文字、画像、動画の編集を行うことができる。
Conventionally, as disclosed in Japanese Patent Application Laid-Open No. 2006-048722 (Patent Document 1), a cellular phone, a PHS (Personal Handyphone System), a PDA (Personal Data Assistance, Personal
Many portable terminal devices such as Digital Assistans (personal portable information communication devices) can edit characters, images, and moving images.
従来の携帯端末装置における様々な入力操作においては、ファンクションキーやテンキーや十字キーを用いる方法が一般的であり、例えば、テキストの編集作業においては、編集キー押下、メニューから編集内容を選択、編集範囲選択、決定ボタン押下等の入力操作によってテキストの編集を行う。 For various input operations in a conventional portable terminal device, a method using a function key, a numeric keypad, or a cross key is generally used. For example, in text editing work, an editing key is pressed, and editing contents are selected and edited from a menu. The text is edited by an input operation such as range selection or pressing the enter button.
また、従来の携帯電話等の携帯端末装置は、特有の操作方法によって通話をすることができる。具体的には、携帯端末装置のマイクを耳に近付け、スピーカを口に近付けることによって通話をすることができる。
しかしながら、従来の携帯端末装置においては次のような課題がある。 However, the conventional portable terminal device has the following problems.
第1の課題は、編集等の作業において時間が掛かり、入力効率が良くないということである。 The first problem is that it takes time in editing and the like, and the input efficiency is not good.
その理由は、編集等の作業において数多くのキーを押す必要があるためである。 The reason is that it is necessary to press a large number of keys in operations such as editing.
第2の課題は、通話中においてキー入力をする際に会話を中断して表示部を見る必要があり、不便であることである。 The second problem is that it is inconvenient because it is necessary to interrupt the conversation and look at the display when performing key input during a call.
その理由は、編集等の作業はキー操作による入力内容を表示画面で確認しながら行う必要があるが、ユーザは通話中に表示部を見ることができないからである。 The reason for this is that editing or the like needs to be performed while confirming the input contents by the key operation on the display screen, but the user cannot see the display unit during a call.
第3の課題は、目の不自由なユーザがキー操作による入力内容を確認することが困難であることである。 A third problem is that it is difficult for a visually impaired user to confirm the input content by key operation.
その理由は、編集等の作業はキー操作による入力内容を表示画面で確認しながら行う必要があるが、入力を行うキーがほぼ同様の形状・材質によって構成されているため、表示部を見ることができないユーザがキー操作によって入力された内容が何であるかを確認することが困難であるからである。 The reason for this is that editing needs to be performed while confirming the input contents by key operation on the display screen, but the keys to be input are composed of almost the same shape and material, so look at the display section. This is because it is difficult for a user who is unable to check what the content input by the key operation is.
(目的)
本発明の目的は、上記課題を解決し、ユーザが表示画面で確認しなくても入力内容を認識できる携帯装置、入力支援方法及び入力入力支援プログラムを提供することにある。
(the purpose)
An object of the present invention is to solve the above-described problems and provide a portable device, an input support method, and an input input support program that can recognize input contents without a user confirming on a display screen.
本発明の携帯装置は、実行可能な処理機能を備える携帯装置において、所定の位置の任意方向の移動を検出可能な入力手段と、前記移動した位置の軌跡形状を判定する判定手段と、判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行手段とを備えることを特徴とする。 The portable device of the present invention is determined in a portable device having an executable processing function, an input means capable of detecting a movement of a predetermined position in an arbitrary direction, and a determination means for determining a trajectory shape of the moved position. And executing means for executing processing contents associated with each locus shape.
(作用)
本発明は、上記構成によって、入力された軌跡形状毎に対応付けられた処理内容を実行する。
(Function)
The present invention executes the processing contents associated with each input trajectory shape by the above configuration.
本発明によれば、以下に示す効果を奏する。 The present invention has the following effects.
第1に、入力された軌跡形状毎に対応付けられた処理内容を実行するので、携帯装置のユーザのジェスチャに基づいて処理を実行することができ、携帯装置の操作効率が向上することである。 First, since the processing content associated with each input trajectory shape is executed, the processing can be executed based on the gesture of the user of the mobile device, and the operation efficiency of the mobile device is improved. .
第2に、携帯装置のユーザのジェスチャに基づいて処理を実行することができるので、ユーザは、携帯装置の表示画面を確認することなく操作できることである。 Secondly, since the process can be executed based on the gesture of the user of the portable device, the user can operate without checking the display screen of the portable device.
(第1の実施の形態)
図1〜図8を用いて、本発明の第1の実施の形態による携帯電話機を説明する。
(First embodiment)
A mobile phone according to a first embodiment of the present invention will be described with reference to FIGS.
(第1の実施の形態の構成)
まず、本発明の第1の実施の形態による携帯電話機を具体的に表した全体構成の説明を行い、その構成要素の詳細な構成を示すブロック図を用いて説明する。
(Configuration of the first embodiment)
First, an overall configuration that specifically represents the mobile phone according to the first embodiment of the present invention will be described, and a detailed configuration of the components will be described using a block diagram.
図1は、本発明の第1の実施の形態による携帯電話機の外観を示す斜視図である。 FIG. 1 is a perspective view showing an appearance of a mobile phone according to the first embodiment of the present invention.
図1を参照すると、携帯電話機1は、音声信号を変換して音声を出力する機能を有するスピーカ2と、音声を音声信号に変換して入力する機能を有するマイク3と、テキスト、動画、静止画等を表示する機能を有する表示画面4と、動作モードの変更や文字入力等を行う機能を有するテンキー5と、ポインティングデバイス6とを備えている。
Referring to FIG. 1, a mobile phone 1 includes a
ポインティングデバイス6は、表示画面4上の操作対象を縦横自由に360度任意の方向に移動させる機能を有し、ユーザの操作によって入力されるジェスチャの入力を受け付ける。 The pointing device 6 has a function of moving an operation target on the display screen 4 freely in any direction in 360 degrees, and accepts an input of a gesture input by a user operation.
なお、ポインティングデバイス6は、例えば、タッチパネル、タッチボード、トラックボール、トラックポイント等であってもよい。 Note that the pointing device 6 may be, for example, a touch panel, a touch board, a track ball, a track point, or the like.
図2は、本実施の形態による携帯端末装置の一例である携帯電話機の回路構成の要部を示すブロック図である。 FIG. 2 is a block diagram showing a main part of a circuit configuration of a mobile phone which is an example of the mobile terminal device according to the present embodiment.
図2を参照すると、本実施の形態による携帯電話機は、バス9を介して送受信部8と、ROM(Read Only Memory)10と、RAM(Random Access Memory)11と、入力部12と、表示部13と接続する制御部14を搭載する。
Referring to FIG. 2, the mobile phone according to the present embodiment includes a transmission /
送受信部8は、通信のための電波の送受を行うアンテナ7を備え、メール機能や音声信号や画像データ等を用いてメール及び添付ファイルを送受信する送受信機能や、ブラウザ機能を用いて画像データ等を通信する通信機能を備える。
The transmission /
ROM10は、制御部14が実行するための各種の制御用のプログラムを格納する機能を有する。
The
また、あらかじめROM10には、制御部14の入力処理手段15(後述)から送られる入力軌跡データ(後述)がいかなる形状であるか判定される際に用いられる一般的な形状判定データ(不図示)や、円の形状がコピー処理を行う、ジグザグの形状がクリア処理を行う、四角の形状がカット処理を行う等、入力軌跡データが示す所定の形状と処理を対応付ける対応情報161が保存されている。
Further, general shape determination data (not shown) used in the
図3は、対応情報161の構成を示す図であり、図3を参照すると、対応情報161は、以下に示すように構成されている。 FIG. 3 is a diagram showing the configuration of the correspondence information 161. Referring to FIG. 3, the correspondence information 161 is configured as follows.
(処理の種類:処理の内容:ユーザが入力する形状(ジェスチャ))
コピー:画面上に表示されている文字列や画像の一部を指定し、その部分を複写する操作:円を描く
ペースト:コピー部分を貼り付ける:山を描く
クリア:画面上に表示されている文字列や画像の一部を指定し、その部分を消去する:ジグザグを描く
カット:画面上に表示されている文字列や画像の一部を指定し、その部分を消去し、かつコピーする:四角を描く
アンドゥ:ある操作を行う一つ前の段階へ戻る:アルファベットのUを描く
コール:電話をかける:アルファベットのCを描く
メール:メールを起動する:アルファベットのMを描く
iモード(登録商標):Webに接続を行う:アルファベットのWを描く
パイメニュー表記:パイメニューから編集を行える:ポインティングデバイスの長押し
(Processing type: Processing content: Shape input by user (gesture))
Copy: Specify a part of the text or image displayed on the screen and copy that part: Draw a circle Paste: Paste the copied part: Draw a mountain Clear: Displayed on the screen Specify a part of a character string or image and delete that part: Draw a zigzag Cut: Specify a part of the character string or image displayed on the screen, delete that part, and copy: Draw a square Undo: Go back to the previous stage where you perform an operation: Draw the letter U Call: Make a call: Draw the letter C Mail: Start mail: Draw the letter M
i-mode (registered trademark): Connect to the Web: Draw the alphabet W Pie menu notation: Edit from the pie menu: Press and hold the pointing device
図4は、パイメニューを示す図であり、パイメニュー26は、カーソル27の先に示されるポップアップの各メニューを矩形ではなく円内の扇形領域28に表示する。
FIG. 4 is a diagram showing a pie menu. The
従って、矩形のメニュー表示からボタン操作によって順繰りにメニューを選ぶ場合にはメニューを選択する手間がかるが、パイメニューからカーソル26でメニューを選択する場合には各メニューを示す扇形領域27がパイメニューの中心から等距離に配置されているので、各メニューを容易に選択できる。
Therefore, it takes time to select a menu in order from the rectangular menu display by button operation, but when selecting a menu with the
なお、パイメニューはメニュー表示の一例であり、円形ではなく多角形からなるメニュー表記であってもよい。 Note that the pie menu is an example of a menu display, and may be a menu notation including a polygon instead of a circle.
RAM11は、制御部14がプログラムを実行する上で一時的に必要とされるデータを格納する作業用メモリの機能を備える。また、制御部14の入力処理手段15(後述)から送られる入力軌跡データ(後述)もこのRAM11の所定領域に格納される。
The
入力部12は、テンキー5、ポインティングデバイス6、ファンクションキー等からのキー入力を受け付ける入力回路であり、例えば、ユーザの操作によって入力されるジェスチャの入力を受け付ける。
The
表示部13は、白黒あるいはカラーの液晶パネルあるいは有機EL(電子蛍光)等によって構成されており、テキスト、動画、静止画等を表示する機能を備えることから、入力部12から入力された文字等も表示する。
The
制御部14は、入力処理手段15、処理内容判定処理手段16、文字処理手段17を備え、これらの構成要素及び上記各構成要素を制御することによって、本実施の形態による携帯電話機の動作を制御する機能を備える。
The
入力処理手段15は、入力部12によって入力されたデータをRAM11や処理内容判定処理手段16や文字処理手段17に送る機能を備える。
The
特に、入力処理手段15は、ポインティングデバイス6によって入力されたジェスチャの軌跡を検出し、X,Y座標上の位置データ(入力軌跡データ)に変換する機能と、入力軌跡データを処理内容判定処理手段16に送る機能とを備える。 In particular, the input processing means 15 detects a gesture trajectory input by the pointing device 6 and converts it into position data (input trajectory data) on the X and Y coordinates, and processing contents determination processing means for the input trajectory data. 16 is provided.
より具体的には、入力処理手段15は、入力部12(ポインティングデバイス6)によって入力された入力の軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換し、RAM11に転送、格納すると共に、ポインティングデバイス6よって入力されるX,Y座標が変更される度に動作し、動作した時間を示す時間情報を合わせて用いることによって、ポインティングデバイス6よって入力されるデータを入力軌跡データに変換し、当該入力軌跡データを処理内容判定処理手段16に送る。
More specifically, the input processing means 15 detects the input trajectory input by the input unit 12 (pointing device 6), converts it into position data (input trajectory data) on the X and Y coordinates, and stores it in the
処理内容判定処理手段16は、入力処理手段15から入力軌跡データを受け取ると、ROM10の対応情報161に基づいて、受け取った入力軌跡データが、あらかじめROM10又はRAM11に保存された処理に対応付けられた所定の形状を示す入力軌跡データであるか否かを判定する機能と、受け取った入力軌跡データに対応する処理を判定結果として文字処理手段17に通知する機能とを備える。
When the processing content
例えば、処理内容判定処理手段16は、入力処理手段15から受け取った入力軌跡データが、あらかじめROM10又はRAM11に保存されたコピー、ペースト、カット等といった処理に対応付けられた入力軌跡データであるか否かを判定し、判定結果として、コピー、ペースト、カット等といった処理を文字処理手段17に通知する。
For example, the processing content
文字処理手段17は、入力処理手段15より受け取ったデータに基づいて、処理の対象となる文字列データに対し処理を行う機能を備える。この処理は、例えば、テンキー5等で入力された文字を既に登録や入力等された文字列に追加して表示部13に通知するといった処理である。
The
また、文字処理手段17は、処理内容判定処理手段16から通知された判定結果に基づいて、入力軌跡データに対応するコピー、クリア、カット等といった処理を行う。
Further, the
なお、本実施の形態では一例として携帯電話機として記載しているが、ポインティングデバイス6を備える装置であればこれに限定されず、PDA、小型機、移動機、ノートパソコンなどでもよい。 Note that although a mobile phone is described as an example in this embodiment, the present invention is not limited to this as long as the apparatus includes the pointing device 6, and a PDA, a small machine, a mobile machine, a notebook personal computer, or the like may be used.
ここで、携帯電話機のハードウェア構成の説明をする。 Here, the hardware configuration of the mobile phone will be described.
図5は、本実施の形態による携帯電話機1のハードウェア構成を示すブロック図である。 FIG. 5 is a block diagram showing a hardware configuration of mobile phone 1 according to the present embodiment.
図5を参照すると、本発明による携帯電話機1は、一般的なコンピュータ処理装置と同様のハードウェア構成によって実現することができ、CPU(Central Processing Unit)501(制御部14)、RAM(Random Access Memory)等のメインメモリであり、データの作業領域やデータの一時退避領域に用いられる主記憶部502(RAM11)、インターネットを介してデータの送受信を行う通信制御部503(送受信部8)、液晶ディスプレイ、スピーカ等の提示部504(表示部13)、キーボードやマウス等の入力部505(入力部12)、周辺機器と接続してデータの送受信を行うインタフェース部506、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリから構成されるハードディスク装置である補助記憶部507(ROM10)、本情報処理装置の上記各構成要素を相互に接続するシステムバス508(バス8)等を備えている。
Referring to FIG. 5, the mobile phone 1 according to the present invention can be realized by a hardware configuration similar to that of a general computer processing device, and includes a CPU (Central Processing Unit) 501 (control unit 14), a RAM (Random Access). A main memory unit 502 (RAM 11) used for a data work area and a temporary data save area, a communication control unit 503 (transmission / reception unit 8) for transmitting and receiving data via the Internet, and a liquid crystal A display unit 504 (display unit 13) such as a display and a speaker, an input unit 505 (input unit 12) such as a keyboard and a mouse, an
本発明による携帯電話機1は、その動作を、携帯電話機1内部にそのような機能を実現するプログラムを組み込んだ、LSI(Large Scale Integration)等のハードウェア部品からなる回路部品を実装してハードウェア的に実現することは勿論として、上記した各構成要素の各機能を提供するプログラムを、コンピュータ処理装置上のCPU501で実行することにより、ソフトウェア的に実現することができる。
The cellular phone 1 according to the present invention is implemented by mounting circuit components composed of hardware components such as LSI (Large Scale Integration) in which a program for realizing such functions is incorporated in the cellular phone 1. As a matter of course, it can be realized in software by executing a program for providing each function of each component described above by the
すなわち、CPU501は、補助記憶部507に格納されているプログラムを、主記憶部502にロードして実行し、携帯電話機1の動作を制御することにより、上述した各機能をソフトウェア的に実現する。
That is, the
(第1の実施の形態の動作)
次いで、図6〜図8を用いて本発明の第1の実施の形態による携帯電話機の動作を説明する。
(Operation of the first embodiment)
Next, the operation of the mobile phone according to the first embodiment of the present invention will be described with reference to FIGS.
ここで、図6は、第1の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。 Here, FIG. 6 is a flowchart showing a control procedure when a predetermined process is performed by an input from the pointing device of the mobile phone according to the first embodiment.
携帯電話機のユーザ(図示しない)は、メール入力、電話、メモ帳作成などのアプリケーションを起動し、入力部12のポインティングデバイス6を用いて入力操作を行うことができる。
A user (not shown) of the mobile phone can start an application such as mail input, telephone call, and memo pad creation, and perform an input operation using the pointing device 6 of the
入力処理手段15は、ポインティングデバイス6によって入力された入力の軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換し、RAM11に転送、格納すると共に、ポインティングデバイス6よって入力されるX,Y座標が変更される度に動作し、動作した時間を示す時間情報を合わせて用いることによって、ポインティングデバイス6よって入力されるデータ(ジェスチャ)を入力軌跡データに変換する(ステップS601(入力処理))。
The input processing means 15 detects the locus of the input inputted by the pointing device 6, converts it into position data (input locus data) on the X and Y coordinates, transfers it to the
次いで、処理内容判定処理手段16は、前記入力軌跡データを、あらかじめROM10又はRAM11に格納されていた対応情報161の入力軌跡データと照合し、対応付けられている処理を判定する(ステップS602(処理内容判定処理))。
Next, the processing content determination processing means 16 collates the input trajectory data with the input trajectory data of the correspondence information 161 stored in advance in the
より具体的には、処理内容判定処理手段16は、ステップS602において、入力処理手段15から通知された入力軌跡データに対応する処理がコピーを表すのか、クリアを表すのか、カットを表すのか等を判定することにより、ユーザの操作が要求する処理を判定する。
More specifically, in step S602, the processing content
文字処理手段17は、処理内容判定処理手段16から通知された判定結果に基づいて、入力軌跡データに対応するコピー、クリア、カット等といった処理を行う(ステップS603(文字処理))。
The
図7は、ポインティングデバイスからの入力によって所定の処理を行う際の入力された軌跡の形状を判断する処理及び入力された軌跡に対応する所定の処理を行う際の制御手順を表したフローチャートであり、図6のステップS602(処理内容判定処理)、ステップS603(文字処理)を詳細に述べたものである。 FIG. 7 is a flowchart showing processing for determining the shape of an input locus when performing predetermined processing by input from a pointing device, and a control procedure when performing predetermined processing corresponding to the input locus. Step S602 (processing content determination processing) and step S603 (character processing) in FIG. 6 are described in detail.
まず、処理内容判定処理手段16は、入力処理手段15から受け取った入力軌跡データがいかなる形状を示すデータなのかの判定(形状認識)の一例としてパターンマッチングを行い、入力処理手段15から受け取った入力軌跡データのX,Y座標とあらかじめ保存している入力軌跡データのX,Y座標との照合を行う(ステップS701)。
First, the processing content
より具体的には、処理内容判定処理手段16は、この形状認識において、入力処理手段15から受け取った入力軌跡データに最も似ている形状を、ユーザが入力した形状として判定(形状認識)する。
More specifically, the processing content
例えば、ユーザがコピー処理を要求するためにポインティングデバイス6を円の形状に操作した場合、入力処理手段15が、ポインティングデバイス6によって入力された軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換してこの入力軌跡データを処理内容判定処理手段16に送ると、処理内容判定処理手段16は、ステップS701において、当該入力軌跡データがいかなる形状であるかの判定を行い、円の形状であることを認識する。 For example, when the user operates the pointing device 6 in the shape of a circle in order to request a copy process, the input processing means 15 detects the locus input by the pointing device 6 and detects position data (X, Y coordinates) When the input trajectory data is converted to input trajectory data and sent to the processing content determination processing means 16, the processing content determination processing means 16 determines what shape the input trajectory data is in step S701, Recognize the shape of a circle.
ステップS701において、処理内容判定処理手段16は、照合できた場合ステップS702に進み、一方、照合できなかった場合始めに戻る。
In step S701, the processing content
次いで、処理内容判定処理手段16は、形状認識できた入力軌跡データと、対応情報161に基づいて、ユーザの操作によって要求される処理を判定する(ステップS702)。
Next, the processing content
ステップS702において、処理内容判定処理手段16は、対応情報161に基づいて、あらかじめ対応付けられた処理を判定できた場合ステップS703に進み、一方、あらかじめ対応付けられた処理を判定できなかった場合始めに戻る。
In step S702, the process content
次いで、処理内容判定処理手段16は、対応情報161に基づいて判定した形状に対応する処理を文字処理手段17に通知する(ステップS703)。 Next, the processing content determination processing means 16 notifies the character processing means 17 of processing corresponding to the shape determined based on the correspondence information 161 (step S703).
例えば、対応情報161において円の形状を示す入力軌跡データにコピー処理が対応付けられている場合、処理内容判定処理手段16は、形状認識において円の形状であると判定すると、要求する処理としてコピー処理を文字処理手段17に通知する。
For example, when the copy information is associated with the input trajectory data indicating the shape of the circle in the correspondence information 161, the processing content
文字処理手段17は、入力処理手段15から入力処理(図6のステップS601)における入力軌跡データ(ユーザに入力されたジェスチャのX,Y座標のデータ)を受け取り、処理内容判定処理手段16から処理内容判定処理(図6のステップS602)における処理内容の指示を受け取り、入力軌跡データ及び処理内容の指示に対応した処理を実行する(ステップS704)。
The
例えば、文字処理手段17は、処理内容判定処理手段16から受け取った指示がコピー指示の場合、入力処理手段15から受け取った入力軌跡データのX,Y座標に基づいて、囲まれた部分の文字をコピーしてRAM11に保存する。
For example, when the instruction received from the processing content
すなわち、この場合、文字処理手段17は、コピーをするという指示とコピーする範囲とを受け取っているため、これらに基づいてコピーを実行する。
That is, in this case, since the
次いで、起動されたアプリケーションが終了しているか否かを判定する(ステップS705)。アプリケーションが終了しているならば処理を終了し、アプリケーションが終了していないならば処理が始めに戻る。 Next, it is determined whether or not the activated application has been terminated (step S705). If the application has ended, the process ends. If the application has not ended, the process returns to the beginning.
ここで、処理の対象として文字列データを例として挙げたが、入力軌跡データと処理を対応付けることによって、処理の対象を画像データ、音声データ、動画データとしても同様に処理することできる。 Here, although the character string data is given as an example of the processing target, the processing target can be similarly processed as image data, audio data, and moving image data by associating the input trajectory data with the processing.
ここで、図8を用いて、本実施の形態による携帯端末装置100に対するユーザの操作例及び、当該操作に対応する本実施の形態による携帯端末装置100の動作例について説明する。
Here, with reference to FIG. 8, a user operation example for the mobile
図8は、本実施の形態による携帯端末装置100における特徴的な処理を説明するための表示画面4(表示部13)を示す図である。
FIG. 8 is a diagram showing a display screen 4 (display unit 13) for explaining characteristic processing in the mobile
すでに、携帯電話機1はユーザによって文字を入力され、そのためRAM11にはある程度の文字データが格納されており、その文字データが表示部13(表示画面4)に表示されているものとする。
It is assumed that the mobile phone 1 has already been inputted with characters by the user, and therefore a certain amount of character data is stored in the
携帯電話機1が、ユーザによって入力部12(テンキ5、ポインティングデバイス6)から「明日は晴れ」22という文字を入力され、表示部13に「明日は晴れ」22と表示されている場合において、表示されている「明日は晴れ」22のうち、「明日」という部分の文字をコピーする例について説明する。
Displayed when the mobile phone 1 is inputted with the characters “Tomorrow is sunny” 22 by the user from the input unit 12 (Tenki 5, pointing device 6), and “Tomorrow is sunny” 22 is displayed on the
まず、入力部12からカーソル19を操作されることによって、表示部13に表示された文字である「明日は晴れ」22のうち、「明日」という部分の文字を円の形状で取り囲むジェスチャ20を入力されると、入力されたジェスチャ20による入力の軌跡(円の形状)を制御部14がRAM11に格納し、入力処理手段15が当該入力の軌跡(円の形状)をRAM11から検出して入力軌跡データに変換し、処理内容判定処理手段16は、当該入力軌跡データがいかなる形状を示すか分析し、対応情報161に基づいて、当該入力軌跡データが示す所定の形状(円の形状)に対応付けられている処理(コピー)を判定する。
First, by operating the
ここで、入力部12から行うカーソル19の操作は、ポインティングデバイス6によって行うことが好ましい。ジェスチャの入力において、ポインティングデバイス6上をワンストロークでなぞることができる円の形状やジグザグの形状等によってジェスチャの入力を行うことが好ましいが、通常の十字キーでは円等の曲線の形状やジグザグの形状などの入力を素早く行えないからである。
Here, the operation of the
文字処理手段17は、処理内容判定手段16によって判定された処理の指示に基づいて、入力部12から入力されたジェスチャ20に対応した処理を行う。
The
本実施の形態による対応情報161において、文字を円の形状で囲むジェスチャに対応する処理はコピーであるため、ジェスチャ20によって円の形状で取り囲まれた「明日」という部分の文字がコピーされる。
In the correspondence information 161 according to the present embodiment, the process corresponding to the gesture that encloses the character in a circle shape is a copy. Therefore, the character “tomorrow” surrounded by the circle shape by the
なお、本実施の形態による表示部13は、ユーザによって入力されたジェスチャに対応する処理の種類を示すアイコン21を表示する。これにより、ユーザは、入力したジェスチャがどのような種類の処理であったのかを視覚的に容易に確認することができる。
Note that the
次いで、表示部13の所定の位置を指定する入力がなされ、ペーストの処理に対応するジェスチャ23が入力されると、表示部13にペーストの処理を示すアイコン25が表示され、指定された所定の位置に「明日」24という文字がペーストされる。
Next, when an input for specifying a predetermined position on the
表示画面に表示されている文字を従来のボタンキーの操作によってコピーをする場合は、編集キー押下、メニューから編集内容を選択、編集範囲選択、決定ボタン押下と4ストロークかかる。これに対し本発明は、本実施の形態によるポインティングデバイス6と、ポインティングデバイス6で入力された入力の軌跡の形状を判断する処理と、入力の軌跡の形状に処理を対応付けた対応情報161とを用いることによって、ユーザは文字を円の形状で囲む1ストロークでコピーをすることができるため、入力操作の効率が向上する。 When copying the characters displayed on the display screen by the operation of the conventional button keys, it takes 4 strokes of pressing the edit key, selecting the editing content from the menu, selecting the editing range, pressing the enter button. The present invention, on the other hand, includes the pointing device 6 according to the present embodiment, processing for determining the shape of the input trajectory input by the pointing device 6, and correspondence information 161 that associates the processing with the shape of the input trajectory. By using, the user can make a copy with one stroke that encloses the character in a circle, thereby improving the efficiency of the input operation.
(第1の実施の形態の効果)
以上説明したように、本実施の形態においては、以下に記載するような効果を奏する。
(Effects of the first embodiment)
As described above, the present embodiment has the following effects.
第1の効果は、ユーザから要求された処理を効率よく実行できることである。 The first effect is that the processing requested by the user can be executed efficiently.
その理由は、所定のジェスチャである円の形状に表示画面4上の文字をコピーする処理が対応付けられて対応情報161に設定され、所定のジェスチャとして円の形状がユーザに入力されるだけで、端末制御手段28が、処理内容判定処理手段16から通知された判定結果及び対応情報161に基づいて、ユーザに入力された所定のジェスチャ(円の形状)に対応する処理(表示画面4上の文字をコピーする処理)を行うため、ユーザの操作手順を省略することができるからである。
The reason is that the process of copying characters on the display screen 4 is associated with the shape of a circle that is a predetermined gesture and is set in the correspondence information 161, and the shape of the circle is simply input to the user as the predetermined gesture. Based on the determination result notified from the processing content
第2の効果は、ユーザは、通話中でも携帯電話機の表示画面を見ないで当該携帯電話機に所定の処理を実行させることができることである。 The second effect is that the user can cause the mobile phone to execute a predetermined process without looking at the display screen of the mobile phone even during a call.
その理由は、所定のジェスチャが入力されるだけでユーザの要求する処理が実行されるため、ユーザに要求された所定の処理の実行に関する画面を表示画面4に表示してからユーザの要求の詳細を受け付けるような必要がないからである。 The reason is that the process requested by the user is executed only by inputting a predetermined gesture, and therefore, a screen related to execution of the predetermined process requested by the user is displayed on the display screen 4 and then the details of the user request are displayed. It is because it is not necessary to accept.
(第2の実施の形態)
本発明の第2の実施の形態は、その基本的構成及び動作は上記第1の実施の形態の通りであるが、対応情報161の設定において、所定の処理に対応する形状の設定をさらに工夫をしている。
(Second Embodiment)
The basic configuration and operation of the second embodiment of the present invention are the same as those of the first embodiment, but the setting of the shape corresponding to the predetermined processing is further devised in the setting of the correspondence information 161. I am doing.
例えば、対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理が対応付けられている。 For example, in the setting of the correspondence information 161, the call origination processing for the telephone number displayed on the display screen 4 (display unit 14) is associated with the gesture for drawing “C”.
(第2の実施の形態の効果)
対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理が対応付けられている場合、ユーザは、表示画面4(表示部14)のテキスト内に電話番号が示されている状態で、ポインティングデバイス6から「C」描くジェスチャを入力すると直接その電話番号に電話を掛けることができるため、電話をかける操作を省略することができる。
(Effect of the second embodiment)
In the setting of the correspondence information 161, when the call origination process for the telephone number displayed on the display screen 4 (display unit 14) is associated with the gesture for drawing “C”, the user can display the display screen 4 (
また、例えば、対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理を対応付けるほかに、「M」を描くジェスチャにメールアプリケーションの起動または停止処理を対応付けたり、「W」を描くジェスチャにネットワークに接続する接続処理を対応付けたりしてもよい。 Further, for example, in the setting of the correspondence information 161, in addition to associating the call origination process for the telephone number displayed on the display screen 4 (display unit 14) with the gesture for drawing “C”, the mail application for the gesture for drawing “M” Or a connection process for connecting to a network may be associated with a gesture for drawing “W”.
(第3の実施の形態)
本発明の第3の実施の形態は、その基本的構成及び動作は上記第1の実施の形態の通りであるが、携帯電話機の制御についてさらに工夫をしている。
(Third embodiment)
The basic configuration and operation of the third embodiment of the present invention are the same as those of the first embodiment, but the device of the mobile phone is further devised.
(第3の実施の形態の構成)
図9は、本実施の形態による携帯電話機の構成を示すブロック図であり、図9を参照すると、本実施の形態による携帯電話機は、図2に示す第1の実施の形態による携帯電話機のRAM11が通話時間データを格納し、文字処理手段17を、端末制御手段29に変えたものである。
(Configuration of the third embodiment)
FIG. 9 is a block diagram showing the configuration of the mobile phone according to the present embodiment. Referring to FIG. 9, the mobile phone according to the present embodiment is the
通話時間データは、携帯電話機が通話機能を実行している通話時間を示す一般的なデータであるため、説明を省略する。
また、対応情報161には、所定のジェスチャに通話時間を調べる処理が対応付けられて設定されている。
Since the call time data is general data indicating the call time during which the mobile phone is executing the call function, description thereof is omitted.
In addition, the correspondence information 161 is set so that a predetermined gesture is associated with a process for examining the call time.
端末制御手段29は、処理内容判定処理手段16から通知された判定結果に基づいて、所定のジェスチャに対応する処理を行う機能を有する。
The
(第3の実施の形態の動作)
図10を用いて、第1の実施の形態による携帯電話機の動作との差分を中心に説明する。
(Operation of the third embodiment)
The difference from the operation of the mobile phone according to the first embodiment will be mainly described with reference to FIG.
図10は、第3の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。 FIG. 10 is a flowchart showing a control procedure when a predetermined process is performed by an input from the pointing device of the mobile phone according to the third embodiment.
本実施の形態による携帯電話機の動作の1例を、ユーザが、携帯電話機1を用いて通話している際に通話を継続したまま通話時間を確認する方法を例に説明する。 An example of the operation of the mobile phone according to the present embodiment will be described by taking as an example a method in which the user confirms the call time while continuing the call when the user is making a call using the mobile phone 1.
まず、入力部12(ポインティングデバイス6)から通話時間を調べるジェスチャが入力されると、入力処理手段15が、入力されたジェスチャを入力軌跡データに変換して処理内容判定処理手段16に送る(ステップS1001)。 First, when a gesture for checking a call duration is input from the input unit 12 (pointing device 6), the input processing means 15 converts the input gesture into input trajectory data and sends it to the processing content determination processing means 16 (step) S1001).
処理内容判定処理手段16は、入力軌跡データをあらかじめROM10に登録されている形状と照合し、当該入力軌跡データに対応する処理を判定し、判定結果として通話時間を調べる等の処理を端末制御手段29に指示する(ステップS1002)。
The processing content determination processing means 16 collates the input trajectory data with a shape registered in the
端末制御手段29は、処理内容判定処理手段16からの指示に基づいて、ユーザが通話を開始してからの通話時間のデータ(通話時間データ)をRAM11から読み出し、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせる処理をする(ステップS1003(端末制御処理))。
Based on the instruction from the processing content
(第3の実施の形態の効果)
このように、本実施の形態の1例では、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、通話を開始してからの通話時間を確認することができる。
(Effect of the third embodiment)
As described above, in one example of the present embodiment, the user can confirm the call time after starting the call without looking at the display screen 4 during the call and without interrupting the call. it can.
その理由は、所定のジェスチャに通話時間を調べる処理が対応付けられて対応情報161に設定され、端末制御手段29は、処理内容判定処理手段16から通知された判定結果及び対応情報161に基づいて、所定のジェスチャに対応する処理を行う機能を有するため、所定のジェスチャを入力されることによって、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせることができるからである。
The reason is that the processing for checking the call time is associated with a predetermined gesture and set in the correspondence information 161, and the
また、本実施の形態の1例では、通話時間を確認するための画面を表示することを防止できるため、通話中に携帯電話機内のアプリケーションの実行によって表示されている画面が通話時間を確認するための画面によって見えなくなることを防止できる。 In addition, in one example of the present embodiment, it is possible to prevent a screen for confirming the call time from being displayed. Therefore, the screen displayed by executing the application in the mobile phone during the call confirms the call time. Therefore, it is possible to prevent the screen from becoming invisible.
すなわち、アプリケーションの実行によって表示されている画面がユーザに要求された所定の処理の実行によって見えなくなることを防止できる。 In other words, it is possible to prevent the screen displayed by executing the application from becoming invisible by executing the predetermined process requested by the user.
その理由は、所定のジェスチャを入力されるだけで、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせること等ができるため、ユーザに要求された所定の処理の実行に関する画面を表示画面4に表示してからユーザの要求の詳細を受け付けるような必要がないからである。 The reason is that a predetermined process requested by the user can be performed because the user can be informed of the call time after the user started the call by voice during the user's call simply by inputting a predetermined gesture. This is because it is not necessary to receive the details of the user request after displaying the screen relating to the execution of the above on the display screen 4.
従来、携帯電話機に一般的なマイク付きヘッドフォンを用いる場合、本実施の形態のように、ユーザは通話中であっても携帯電話機の表示画面を見ながら所定の処理を要求する操作が可能であった。しかし、この場合、携帯電話機内のアプリケーションを実行中にユーザに要求された所定の処理の実行に関する画面が表示画面に表示されるため当該アプリケーションの実行による画面が見えなくなるという課題があったが、上述のように、本実施の形態による携帯電話機では、このような課題も解決することができる。 Conventionally, when a general headphone with a microphone is used for a mobile phone, the user can perform an operation to request a predetermined process while looking at the display screen of the mobile phone even during a call as in the present embodiment. It was. However, in this case, there is a problem that the screen due to the execution of the application becomes invisible because the screen related to the execution of the predetermined process requested by the user during the execution of the application in the mobile phone is displayed on the display screen. As described above, the mobile phone according to the present embodiment can solve such a problem.
また、本実施の形態の他の例において、所定のジェスチャに電池の残量を調べる処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電池の残量を調べる処理に関する画面を表示することなく、電池の残量を確認することができる。 In another example of the present embodiment, a process for checking the remaining battery level is associated with a predetermined gesture and set in the correspondence information 161, so that the user views the display screen 4 during a call. The remaining battery level can be confirmed without interruption, without interrupting the call, and without displaying a screen related to the process for checking the remaining battery level.
また、本実施の形態の他の例において、所定のジェスチャに電波状況を調べる処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電波状況を調べる処理に関する画面を表示することなく、電波状況を確認することができる。 In another example of the present embodiment, a process for examining the radio wave condition is associated with a predetermined gesture and set in the correspondence information 161, so that the user does not see the display screen 4 during a call. In addition, the radio wave condition can be confirmed without interrupting the call and without displaying a screen related to the process for checking the radio wave condition.
また、本実施の形態の他の例において、所定のジェスチャに電波を止める等の処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電波を止める等の処理に関する画面を表示することなく、電波を止める等の処理を実行することができる。 In another example of the present embodiment, a process of stopping radio waves or the like is associated with a predetermined gesture and set in the correspondence information 161, so that the user views the display screen 4 during a call. In addition, it is possible to execute processing such as stopping radio waves without interrupting a call and without displaying a screen relating to processing such as stopping radio waves.
(第4の実施の形態)
本発明の第4の実施の形態は、その基本的構成及び動作は上記第3の実施の形態の通りであるが、ポインティングデバイス6の代わりに携帯電話機1内にジャイロ機構(加速度センサ)を備え、携帯電話機1自体の位置が移動させられることによって、ジャイロ機構(加速度センサ)がその位置の移動の軌跡をジェスチャとして入力し、入力処理手段15が当該入力されたジェスチャを入力軌跡データに変換し、処理内容判定処理手段16が当該入力軌跡データに基づいて処理内容を判定し、端末制御手段28が、処理内容判定処理手段16から通知された判定結果に基づいて、所定のジェスチャに対応する処理を行う。
(Fourth embodiment)
The basic configuration and operation of the fourth embodiment of the present invention are the same as those of the third embodiment, but a gyro mechanism (acceleration sensor) is provided in the mobile phone 1 instead of the pointing device 6. When the position of the mobile phone 1 itself is moved, the gyro mechanism (acceleration sensor) inputs the movement locus of the position as a gesture, and the input processing means 15 converts the input gesture into input locus data. The processing content
(第4の実施の形態の効果)
本実施の形態によれば、三次元によって構成されるジェスチャに携帯電話機1の所定の処理を対応付けることができるので、上記第3の実施の形態の効果に加え、さらに自由度の高いジェスチャの設定及び所定の処理との対応付けを行うことができる。
(Effect of the fourth embodiment)
According to the present embodiment, since the predetermined processing of the mobile phone 1 can be associated with the gesture configured by three dimensions, in addition to the effect of the third embodiment, setting of a gesture having a higher degree of freedom. In addition, it is possible to perform association with a predetermined process.
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも、上記実施の形態に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。 Although the present invention has been described with reference to the preferred embodiments, the present invention is not necessarily limited to the above embodiments, and various modifications can be made within the scope of the technical idea. .
例えば、本発明による対応情報161に対しては、ユーザがジェスチャを入力しやすいように、ポインティングデバイス6上等をワンストロークでなぞることができるジェスチャをあらかじめ登録することが望ましい。 For example, for the correspondence information 161 according to the present invention, it is desirable to register in advance a gesture that can be traced on the pointing device 6 or the like with one stroke so that the user can easily input the gesture.
その理由は、ユーザが通話中に表示画面4を見なくてもワンストロークならば簡単に入力できるからである。 The reason is that a user can easily input with one stroke without looking at the display screen 4 during a call.
また、例えば、ユーザが紙に書かれた文字を消す処理を行う際には筆記具等で当該文字の上からぐしゃぐしゃと書いて消すように、対応情報161に登録されるジェスチャは、実際にユーザが行う処理における動作に対応していることが望ましい。 In addition, for example, when the user performs a process of erasing characters written on paper, the gesture registered in the correspondence information 161 is actually written by the user so that the character is written and erased from above the characters with a writing tool or the like. It is desirable to correspond to the operation in the processing to be performed.
あるいは、例えば、ユーザがコピーを行う場合には「CO」、ユーザがカットを行う場合には「CU」のように、実際にユーザが行う処理の処理名の頭文字をジェスチャとして対応情報161に登録してもよい。 Alternatively, for example, “CO” when the user performs copying, and “CU” when the user performs cutting, such as “CU”, the initial name of the processing name actually performed by the user is used as the gesture in the correspondence information 161. You may register.
その理由は、ユーザ間で処理における動作が異なるようなときにも、処理名はユーザ間で同一に設定できるため、ユーザは混乱することなく容易にジェスチャを覚えることができるからである。 The reason is that even when the operation in the process differs among users, the process name can be set the same between users, so that the user can easily learn a gesture without being confused.
携帯電話機、PHS(Personal Handyphone
System)、PDA(Personal Data Assistance,Personal Digital Assistans:個人向け携帯型情報通信機器)等の携帯端末装置であってポインティングデバイスや加速度センサを搭載している装置に適用できる。
Mobile phone, PHS (Personal Handyphone
System) and PDA (Personal Data Assistance, Personal Digital Assistans) and the like, which can be applied to devices equipped with pointing devices and acceleration sensors.
1:携帯電話機
2:マイク
3:スピーカ
4:表示画面
5:テンキー
6:ポインティングデバイス
7:アンテナ
8:送受信部
9:バス
10:ROM
11:RAM
12:入力部
13:表示部
14:制御部
15:入力処理手段
16:処理内容判定処理手段
17:文字処理手段
19:カーソル
20、23:ジェスチャ
21、25:アイコン
26:パイメニュー
27:カーソル
28:扇形領域
29: 端末制御手段
501:CPU
502:主記憶部
503:通信制御部
504:提示部
505:入力部
506:インタフェース部
507:補助記憶部
508:システムバス
1: Mobile phone 2: Microphone 3: Speaker 4: Display screen 5: Numeric keypad 6: Pointing device 7: Antenna 8: Transmitter / receiver 9: Bus 10: ROM
11: RAM
12: Input unit 13: Display unit 14: Control unit 15: Input processing unit 16: Processing content determination processing unit 17: Character processing unit 19:
502: Main storage unit 503: Communication control unit 504: Presentation unit 505: Input unit 506: Interface unit 507: Auxiliary storage unit 508: System bus
Claims (31)
所定の位置の任意方向の移動を検出可能な入力手段と、
前記移動した位置の軌跡形状を判定する判定手段と、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行手段とを備えることを特徴とする携帯装置。 In a portable device having an executable processing function,
Input means capable of detecting movement of a predetermined position in an arbitrary direction;
Determining means for determining a trajectory shape of the moved position;
A portable device comprising: execution means for executing processing contents associated with each determined trajectory shape.
前記実行手段は、判定された前記軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項1に記載の携帯装置。 A table in which the trajectory shape and the processing content are defined in association with each other;
The portable device according to claim 1, wherein the execution unit executes the processing content set in the table corresponding to the determined locus shape.
前記判定手段は、前記ポインタの軌跡形状を判定し、
前記実行手段は、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項1から請求項4の何れか1項に記載の携帯装置。 The input means includes pointing means capable of moving the pointer in an arbitrary direction on the screen,
The determination means determines a trajectory shape of the pointer,
5. The mobile device according to claim 1, wherein the execution unit executes processing contents associated with each determined locus shape of the pointer.
前記実行手段は、判定された前記ポインタの軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項5に記載の携帯装置。 The table is defined by associating the locus shape of the pointer with the processing content,
The portable device according to claim 5, wherein the execution unit executes the processing content set in the table corresponding to the determined locus shape of the pointer.
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項5から請求項8の何れか1項に記載の携帯装置。 Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
The portable device according to any one of claims 5 to 8, wherein processing contents executed by positioning the pointer are associated for each range of the predetermined angle of the menu.
前記テーブルは、前記自身についての位置の軌跡形状と前記処理内容とが対応付けて定義されており、
前記実行手段は、判定された前記自身についての位置の軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項1から請求項4の何れか1項に記載の携帯装置。 The input means includes a gyro mechanism using an acceleration sensor capable of detecting movement in an arbitrary direction of the position of itself,
The table is defined by associating the trajectory shape of the position of the self with the processing content,
5. The method according to claim 1, wherein the execution unit executes the processing content set in the table in correspondence with the determined locus shape of the position of itself. The portable device described.
所定の位置の任意方向の移動を検出可能な入力ステップと、
前記移動した位置の軌跡形状を判定する判定ステップと、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行ステップとを有することを特徴とする入力支援方法。 An input support method for a portable device having an executable processing function,
An input step capable of detecting movement in an arbitrary direction of a predetermined position;
A determination step of determining a trajectory shape of the moved position;
And an execution step of executing processing contents associated with each of the determined trajectory shapes.
前記判定ステップにおいて、前記ポインタの軌跡形状を判定し、
前記実行ステップにおいて、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項12から請求項15の何れか1項に記載の入力支援方法。 In the input step, the pointing step of detecting movement of the pointer in any direction on the screen,
In the determination step, the locus shape of the pointer is determined,
The input support method according to any one of claims 12 to 15, wherein in the execution step, processing contents associated with each determined trajectory shape of the pointer are executed.
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項16から請求項19の何れか1項に記載の入力支援方法。 Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
20. The input support method according to claim 16, wherein processing contents to be executed by positioning the pointer are associated with each predetermined angle range of the menu.
前記実行ステップにおいて、前記携帯装置の軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記携帯装置の軌跡形状に対応した前記処理内容を実行することを特徴とする請求項12から請求項15の何れか1項に記載の入力支援方法。 In the input step, the movement of the position of the portable device is detected by a gyro mechanism using an acceleration sensor capable of detecting the movement of the position of the portable device in an arbitrary direction;
In the execution step, the processing content corresponding to the trajectory shape of the mobile device determined in the determination step is executed based on a table defined by associating the trajectory shape of the mobile device with the processing content. 16. The input support method according to any one of claims 12 to 15, wherein:
所定の位置の任意方向の移動を検出可能な入力機能と、
前記移動した位置の軌跡形状を判定する判定機能と、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行機能とを実行させることを特徴とする入力支援プログラム。 An input support program in a portable device having an executable processing function, the computer constituting the portable device,
An input function capable of detecting movement of a predetermined position in an arbitrary direction;
A determination function for determining a trajectory shape of the moved position;
An input support program for executing an execution function for executing processing contents associated with each determined trajectory shape.
前記判定機能において、前記ポインタの軌跡形状を判定し、
前記実行機能において、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項22から請求項25の何れか1項に記載の入力支援プログラム。 In the input function, a pointing function for detecting movement of the pointer in any direction on the screen is provided,
In the determination function, the trajectory shape of the pointer is determined,
The input support program according to any one of claims 22 to 25, wherein the execution function executes processing contents associated with each determined locus shape of the pointer.
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項26から請求項29の何れか1項に記載の入力支援プログラム。 Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
30. The input support program according to claim 26, wherein processing contents executed by positioning the pointer are associated with each predetermined angle range of the menu.
前記実行機能において、前記携帯装置の軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記携帯装置の軌跡形状に対応した前記処理内容を実行することを特徴とする請求項22から請求項25の何れか1項に記載の入力支援方法。 In the input function, the movement of the position of the portable device is detected by a gyro mechanism using an acceleration sensor capable of detecting the movement of the position of the portable device in an arbitrary direction;
In the execution function, the processing content corresponding to the trajectory shape of the mobile device determined in the determination step is executed based on a table defined by associating the trajectory shape of the mobile device with the processing content. The input support method according to any one of claims 22 to 25, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006099524A JP2007272708A (en) | 2006-03-31 | 2006-03-31 | Portable device, and input support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006099524A JP2007272708A (en) | 2006-03-31 | 2006-03-31 | Portable device, and input support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007272708A true JP2007272708A (en) | 2007-10-18 |
JP2007272708A5 JP2007272708A5 (en) | 2009-04-02 |
Family
ID=38675428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006099524A Pending JP2007272708A (en) | 2006-03-31 | 2006-03-31 | Portable device, and input support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007272708A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013504103A (en) * | 2009-09-07 | 2013-02-04 | 上海合合信息科技発展有限公司 | Multi-touch character input method and system |
JP2014222363A (en) * | 2014-07-30 | 2014-11-27 | オリンパス株式会社 | Microscope system comprising microscope controller |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744311A (en) * | 1993-07-31 | 1995-02-14 | Sony Corp | Handwritten information processor |
JPH07200126A (en) * | 1993-12-21 | 1995-08-04 | Xerox Corp | User interface device, graphic keyboard device and usage method of graphic keyboard |
JP2003334389A (en) * | 2002-05-20 | 2003-11-25 | National Institute Of Advanced Industrial & Technology | Controller by gesture recognition, method thereof and recording medium |
WO2004099903A2 (en) * | 2003-05-01 | 2004-11-18 | Gyration, Inc. | Multimedia user interface |
JP2005275652A (en) * | 2004-03-24 | 2005-10-06 | Canon Inc | Apparatus and method for processing input trajectory |
-
2006
- 2006-03-31 JP JP2006099524A patent/JP2007272708A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744311A (en) * | 1993-07-31 | 1995-02-14 | Sony Corp | Handwritten information processor |
JPH07200126A (en) * | 1993-12-21 | 1995-08-04 | Xerox Corp | User interface device, graphic keyboard device and usage method of graphic keyboard |
JP2003334389A (en) * | 2002-05-20 | 2003-11-25 | National Institute Of Advanced Industrial & Technology | Controller by gesture recognition, method thereof and recording medium |
WO2004099903A2 (en) * | 2003-05-01 | 2004-11-18 | Gyration, Inc. | Multimedia user interface |
JP2006526844A (en) * | 2003-05-01 | 2006-11-24 | トムソン ライセンシング | Multimedia user interface |
JP2005275652A (en) * | 2004-03-24 | 2005-10-06 | Canon Inc | Apparatus and method for processing input trajectory |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013504103A (en) * | 2009-09-07 | 2013-02-04 | 上海合合信息科技発展有限公司 | Multi-touch character input method and system |
JP2014222363A (en) * | 2014-07-30 | 2014-11-27 | オリンパス株式会社 | Microscope system comprising microscope controller |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101526881B (en) | Text selection by gesture | |
US8209063B2 (en) | Navigation tool with audible feedback on a handheld communication device | |
JP5184528B2 (en) | Portable information terminal | |
CN101529368B (en) | Methods for determining a cursor position from a finger contact with a touch screen display | |
US20020036623A1 (en) | Information processing apparatus, information inputting device, and information processing main unit | |
JP5091180B2 (en) | Mobile terminal device | |
US20070192027A1 (en) | Navigation tool with audible feedback on a wireless handheld communication device | |
US20070192028A1 (en) | Navigation tool with audible feedback on a handheld communication device having a full alphabetic keyboard | |
US8525795B2 (en) | Apparatus and method for inputting characters in a terminal | |
JP5846887B2 (en) | Mobile terminal, edit control program, and edit control method | |
US20130293479A1 (en) | Apparatus and method for inputting characters in a terminal | |
JP6088356B2 (en) | Mobile terminal, display control program, and display control method | |
JP2009026155A (en) | Input display apparatus and mobile wireless terminal apparatus | |
JP5777645B2 (en) | Character input method for portable terminal and portable terminal supporting the same | |
US20070192699A1 (en) | Navigation tool with audible feedback on a handheld communication device having a reduced alphabetic keyboard | |
JP2013127692A (en) | Electronic apparatus, delete program, and method for control delete | |
US20170115861A1 (en) | Terminal apparatus and display control method | |
US8635559B2 (en) | On-screen cursor navigation delimiting on a handheld communication device | |
US20080163132A1 (en) | Streamlined navigation of a handheld elecronic device | |
US20140195959A1 (en) | Apparatus and method for providing a virtual keypad | |
JP4796131B2 (en) | Method, electronic device and computer-readable recording medium for data management in an electronic device in response to user instructions by writing and / or audible sound | |
US20090104928A1 (en) | Portable electronic device and a method for entering data on such a device | |
JP2007272708A (en) | Portable device, and input support method and program | |
KR101463804B1 (en) | Mobile communication device and display control method | |
JP2008090680A (en) | Portable terminal device, and function activation method for portable terminal device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110627 |