JP2007272708A - Portable device, and input support method and program - Google Patents

Portable device, and input support method and program Download PDF

Info

Publication number
JP2007272708A
JP2007272708A JP2006099524A JP2006099524A JP2007272708A JP 2007272708 A JP2007272708 A JP 2007272708A JP 2006099524 A JP2006099524 A JP 2006099524A JP 2006099524 A JP2006099524 A JP 2006099524A JP 2007272708 A JP2007272708 A JP 2007272708A
Authority
JP
Japan
Prior art keywords
input
processing
shape
pointer
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006099524A
Other languages
Japanese (ja)
Other versions
JP2007272708A5 (en
Inventor
Atsushi Shimizu
敦司 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006099524A priority Critical patent/JP2007272708A/en
Publication of JP2007272708A publication Critical patent/JP2007272708A/en
Publication of JP2007272708A5 publication Critical patent/JP2007272708A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to recognize input contents without confirming the input contents on a display screen. <P>SOLUTION: This portable device is provided with an input processing means 15 for detecting an input track inputted by a pointing device 6, converting the input track into position data (input track data) on X and Y coordinates, transferring and storing the position data to/in a RAM 11, operating each time X and Y coordinates inputted by the pointing device 6 are changed and converting data (gesture) inputted by the pointing device 6 into input track data by additionally using time information showing an operating time, a processing content determination processing means 16 for collating the input track data with input track data of correspondence information 161 stored beforehand in a ROM 10 or the RAM 11 to determine associated processing, and a character processing means 17 for performing processing, such as copying, clearing and cutting corresponding to the input track data on the basis of a determination result notified from the processing content determination processing means 16. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、所定の入力によって所定の機能を実行可能な携帯装置、入力支援方法及びプログラムに関するものである。   The present invention relates to a portable device capable of executing a predetermined function by a predetermined input, an input support method, and a program.

従来、特開2006−048722号公報(特許文献1)にも示されるように、携帯電話機、PHS(Personal Handyphone System)、PDA(Personal Data Assistance,Personal
Digital Assistans:個人向け携帯型情報通信機器)等の携帯端末装置の多くは、文字、画像、動画の編集を行うことができる。
Conventionally, as disclosed in Japanese Patent Application Laid-Open No. 2006-048722 (Patent Document 1), a cellular phone, a PHS (Personal Handyphone System), a PDA (Personal Data Assistance, Personal
Many portable terminal devices such as Digital Assistans (personal portable information communication devices) can edit characters, images, and moving images.

従来の携帯端末装置における様々な入力操作においては、ファンクションキーやテンキーや十字キーを用いる方法が一般的であり、例えば、テキストの編集作業においては、編集キー押下、メニューから編集内容を選択、編集範囲選択、決定ボタン押下等の入力操作によってテキストの編集を行う。   For various input operations in a conventional portable terminal device, a method using a function key, a numeric keypad, or a cross key is generally used. For example, in text editing work, an editing key is pressed, and editing contents are selected and edited from a menu. The text is edited by an input operation such as range selection or pressing the enter button.

また、従来の携帯電話等の携帯端末装置は、特有の操作方法によって通話をすることができる。具体的には、携帯端末装置のマイクを耳に近付け、スピーカを口に近付けることによって通話をすることができる。
特開2006−048722号公報
In addition, a conventional mobile terminal device such as a mobile phone can make a call by a specific operation method. Specifically, it is possible to talk by bringing the microphone of the mobile terminal device close to the ear and bringing the speaker close to the mouth.
JP 2006-048722 A

しかしながら、従来の携帯端末装置においては次のような課題がある。   However, the conventional portable terminal device has the following problems.

第1の課題は、編集等の作業において時間が掛かり、入力効率が良くないということである。   The first problem is that it takes time in editing and the like, and the input efficiency is not good.

その理由は、編集等の作業において数多くのキーを押す必要があるためである。   The reason is that it is necessary to press a large number of keys in operations such as editing.

第2の課題は、通話中においてキー入力をする際に会話を中断して表示部を見る必要があり、不便であることである。   The second problem is that it is inconvenient because it is necessary to interrupt the conversation and look at the display when performing key input during a call.

その理由は、編集等の作業はキー操作による入力内容を表示画面で確認しながら行う必要があるが、ユーザは通話中に表示部を見ることができないからである。   The reason for this is that editing or the like needs to be performed while confirming the input contents by the key operation on the display screen, but the user cannot see the display unit during a call.

第3の課題は、目の不自由なユーザがキー操作による入力内容を確認することが困難であることである。   A third problem is that it is difficult for a visually impaired user to confirm the input content by key operation.

その理由は、編集等の作業はキー操作による入力内容を表示画面で確認しながら行う必要があるが、入力を行うキーがほぼ同様の形状・材質によって構成されているため、表示部を見ることができないユーザがキー操作によって入力された内容が何であるかを確認することが困難であるからである。   The reason for this is that editing needs to be performed while confirming the input contents by key operation on the display screen, but the keys to be input are composed of almost the same shape and material, so look at the display section. This is because it is difficult for a user who is unable to check what the content input by the key operation is.

(目的)
本発明の目的は、上記課題を解決し、ユーザが表示画面で確認しなくても入力内容を認識できる携帯装置、入力支援方法及び入力入力支援プログラムを提供することにある。
(the purpose)
An object of the present invention is to solve the above-described problems and provide a portable device, an input support method, and an input input support program that can recognize input contents without a user confirming on a display screen.

本発明の携帯装置は、実行可能な処理機能を備える携帯装置において、所定の位置の任意方向の移動を検出可能な入力手段と、前記移動した位置の軌跡形状を判定する判定手段と、判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行手段とを備えることを特徴とする。   The portable device of the present invention is determined in a portable device having an executable processing function, an input means capable of detecting a movement of a predetermined position in an arbitrary direction, and a determination means for determining a trajectory shape of the moved position. And executing means for executing processing contents associated with each locus shape.

(作用)
本発明は、上記構成によって、入力された軌跡形状毎に対応付けられた処理内容を実行する。
(Function)
The present invention executes the processing contents associated with each input trajectory shape by the above configuration.

本発明によれば、以下に示す効果を奏する。   The present invention has the following effects.

第1に、入力された軌跡形状毎に対応付けられた処理内容を実行するので、携帯装置のユーザのジェスチャに基づいて処理を実行することができ、携帯装置の操作効率が向上することである。   First, since the processing content associated with each input trajectory shape is executed, the processing can be executed based on the gesture of the user of the mobile device, and the operation efficiency of the mobile device is improved. .

第2に、携帯装置のユーザのジェスチャに基づいて処理を実行することができるので、ユーザは、携帯装置の表示画面を確認することなく操作できることである。   Secondly, since the process can be executed based on the gesture of the user of the portable device, the user can operate without checking the display screen of the portable device.

(第1の実施の形態)
図1〜図8を用いて、本発明の第1の実施の形態による携帯電話機を説明する。
(First embodiment)
A mobile phone according to a first embodiment of the present invention will be described with reference to FIGS.

(第1の実施の形態の構成)
まず、本発明の第1の実施の形態による携帯電話機を具体的に表した全体構成の説明を行い、その構成要素の詳細な構成を示すブロック図を用いて説明する。
(Configuration of the first embodiment)
First, an overall configuration that specifically represents the mobile phone according to the first embodiment of the present invention will be described, and a detailed configuration of the components will be described using a block diagram.

図1は、本発明の第1の実施の形態による携帯電話機の外観を示す斜視図である。   FIG. 1 is a perspective view showing an appearance of a mobile phone according to the first embodiment of the present invention.

図1を参照すると、携帯電話機1は、音声信号を変換して音声を出力する機能を有するスピーカ2と、音声を音声信号に変換して入力する機能を有するマイク3と、テキスト、動画、静止画等を表示する機能を有する表示画面4と、動作モードの変更や文字入力等を行う機能を有するテンキー5と、ポインティングデバイス6とを備えている。   Referring to FIG. 1, a mobile phone 1 includes a speaker 2 having a function of converting a sound signal and outputting a sound, a microphone 3 having a function of converting a sound into a sound signal and inputting the sound, a text, a moving image, and a still image. A display screen 4 having a function of displaying an image, a numeric keypad 5 having a function of changing an operation mode, inputting characters, and the like, and a pointing device 6 are provided.

ポインティングデバイス6は、表示画面4上の操作対象を縦横自由に360度任意の方向に移動させる機能を有し、ユーザの操作によって入力されるジェスチャの入力を受け付ける。   The pointing device 6 has a function of moving an operation target on the display screen 4 freely in any direction in 360 degrees, and accepts an input of a gesture input by a user operation.

なお、ポインティングデバイス6は、例えば、タッチパネル、タッチボード、トラックボール、トラックポイント等であってもよい。   Note that the pointing device 6 may be, for example, a touch panel, a touch board, a track ball, a track point, or the like.

図2は、本実施の形態による携帯端末装置の一例である携帯電話機の回路構成の要部を示すブロック図である。   FIG. 2 is a block diagram showing a main part of a circuit configuration of a mobile phone which is an example of the mobile terminal device according to the present embodiment.

図2を参照すると、本実施の形態による携帯電話機は、バス9を介して送受信部8と、ROM(Read Only Memory)10と、RAM(Random Access Memory)11と、入力部12と、表示部13と接続する制御部14を搭載する。   Referring to FIG. 2, the mobile phone according to the present embodiment includes a transmission / reception unit 8, a ROM (Read Only Memory) 10, a RAM (Random Access Memory) 11, an input unit 12, and a display unit via a bus 9. 13 is mounted.

送受信部8は、通信のための電波の送受を行うアンテナ7を備え、メール機能や音声信号や画像データ等を用いてメール及び添付ファイルを送受信する送受信機能や、ブラウザ機能を用いて画像データ等を通信する通信機能を備える。   The transmission / reception unit 8 includes an antenna 7 that transmits and receives radio waves for communication. The transmission / reception function transmits / receives mail and attached files using a mail function, a voice signal, image data, and the like, and image data and the like using a browser function It has a communication function to communicate.

ROM10は、制御部14が実行するための各種の制御用のプログラムを格納する機能を有する。   The ROM 10 has a function of storing various control programs to be executed by the control unit 14.

また、あらかじめROM10には、制御部14の入力処理手段15(後述)から送られる入力軌跡データ(後述)がいかなる形状であるか判定される際に用いられる一般的な形状判定データ(不図示)や、円の形状がコピー処理を行う、ジグザグの形状がクリア処理を行う、四角の形状がカット処理を行う等、入力軌跡データが示す所定の形状と処理を対応付ける対応情報161が保存されている。   Further, general shape determination data (not shown) used in the ROM 10 in advance for determining what shape the input locus data (described later) sent from the input processing means 15 (described later) of the control unit 14 is. Corresponding information 161 for associating a predetermined shape indicated by the input trajectory data with processing, such as a copy process for the shape of a circle, a clear process for a zigzag shape, or a cut process for a square shape, is stored. .

図3は、対応情報161の構成を示す図であり、図3を参照すると、対応情報161は、以下に示すように構成されている。   FIG. 3 is a diagram showing the configuration of the correspondence information 161. Referring to FIG. 3, the correspondence information 161 is configured as follows.

(処理の種類:処理の内容:ユーザが入力する形状(ジェスチャ))
コピー:画面上に表示されている文字列や画像の一部を指定し、その部分を複写する操作:円を描く
ペースト:コピー部分を貼り付ける:山を描く
クリア:画面上に表示されている文字列や画像の一部を指定し、その部分を消去する:ジグザグを描く
カット:画面上に表示されている文字列や画像の一部を指定し、その部分を消去し、かつコピーする:四角を描く
アンドゥ:ある操作を行う一つ前の段階へ戻る:アルファベットのUを描く
コール:電話をかける:アルファベットのCを描く
メール:メールを起動する:アルファベットのMを描く
iモード(登録商標):Webに接続を行う:アルファベットのWを描く
パイメニュー表記:パイメニューから編集を行える:ポインティングデバイスの長押し
(Processing type: Processing content: Shape input by user (gesture))
Copy: Specify a part of the text or image displayed on the screen and copy that part: Draw a circle Paste: Paste the copied part: Draw a mountain Clear: Displayed on the screen Specify a part of a character string or image and delete that part: Draw a zigzag Cut: Specify a part of the character string or image displayed on the screen, delete that part, and copy: Draw a square Undo: Go back to the previous stage where you perform an operation: Draw the letter U Call: Make a call: Draw the letter C Mail: Start mail: Draw the letter M
i-mode (registered trademark): Connect to the Web: Draw the alphabet W Pie menu notation: Edit from the pie menu: Press and hold the pointing device

図4は、パイメニューを示す図であり、パイメニュー26は、カーソル27の先に示されるポップアップの各メニューを矩形ではなく円内の扇形領域28に表示する。   FIG. 4 is a diagram showing a pie menu. The pie menu 26 displays the pop-up menus shown at the tip of the cursor 27 in a sector area 28 in a circle instead of a rectangle.

従って、矩形のメニュー表示からボタン操作によって順繰りにメニューを選ぶ場合にはメニューを選択する手間がかるが、パイメニューからカーソル26でメニューを選択する場合には各メニューを示す扇形領域27がパイメニューの中心から等距離に配置されているので、各メニューを容易に選択できる。   Therefore, it takes time to select a menu in order from the rectangular menu display by button operation, but when selecting a menu with the cursor 26 from the pie menu, the sector area 27 indicating each menu is the pie menu. Since they are arranged at the same distance from the center, each menu can be easily selected.

なお、パイメニューはメニュー表示の一例であり、円形ではなく多角形からなるメニュー表記であってもよい。   Note that the pie menu is an example of a menu display, and may be a menu notation including a polygon instead of a circle.

RAM11は、制御部14がプログラムを実行する上で一時的に必要とされるデータを格納する作業用メモリの機能を備える。また、制御部14の入力処理手段15(後述)から送られる入力軌跡データ(後述)もこのRAM11の所定領域に格納される。   The RAM 11 has a function of a working memory that stores data temporarily required for the control unit 14 to execute the program. Further, input trajectory data (described later) sent from the input processing means 15 (described later) of the control unit 14 is also stored in a predetermined area of the RAM 11.

入力部12は、テンキー5、ポインティングデバイス6、ファンクションキー等からのキー入力を受け付ける入力回路であり、例えば、ユーザの操作によって入力されるジェスチャの入力を受け付ける。   The input unit 12 is an input circuit that receives key inputs from the numeric keypad 5, the pointing device 6, function keys, and the like. For example, the input unit 12 receives an input of a gesture input by a user operation.

表示部13は、白黒あるいはカラーの液晶パネルあるいは有機EL(電子蛍光)等によって構成されており、テキスト、動画、静止画等を表示する機能を備えることから、入力部12から入力された文字等も表示する。   The display unit 13 is composed of a monochrome or color liquid crystal panel or an organic EL (electrofluorescence), and has a function of displaying text, moving images, still images, etc., so that characters input from the input unit 12 are displayed. Is also displayed.

制御部14は、入力処理手段15、処理内容判定処理手段16、文字処理手段17を備え、これらの構成要素及び上記各構成要素を制御することによって、本実施の形態による携帯電話機の動作を制御する機能を備える。   The control unit 14 includes an input processing unit 15, a processing content determination processing unit 16, and a character processing unit 17, and controls the operation of the mobile phone according to the present embodiment by controlling these components and each of the above components. It has a function to do.

入力処理手段15は、入力部12によって入力されたデータをRAM11や処理内容判定処理手段16や文字処理手段17に送る機能を備える。   The input processing unit 15 has a function of sending data input by the input unit 12 to the RAM 11, the processing content determination processing unit 16, and the character processing unit 17.

特に、入力処理手段15は、ポインティングデバイス6によって入力されたジェスチャの軌跡を検出し、X,Y座標上の位置データ(入力軌跡データ)に変換する機能と、入力軌跡データを処理内容判定処理手段16に送る機能とを備える。   In particular, the input processing means 15 detects a gesture trajectory input by the pointing device 6 and converts it into position data (input trajectory data) on the X and Y coordinates, and processing contents determination processing means for the input trajectory data. 16 is provided.

より具体的には、入力処理手段15は、入力部12(ポインティングデバイス6)によって入力された入力の軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換し、RAM11に転送、格納すると共に、ポインティングデバイス6よって入力されるX,Y座標が変更される度に動作し、動作した時間を示す時間情報を合わせて用いることによって、ポインティングデバイス6よって入力されるデータを入力軌跡データに変換し、当該入力軌跡データを処理内容判定処理手段16に送る。   More specifically, the input processing means 15 detects the input trajectory input by the input unit 12 (pointing device 6), converts it into position data (input trajectory data) on the X and Y coordinates, and stores it in the RAM 11. Transfers, stores, operates every time the X and Y coordinates input by the pointing device 6 are changed, and uses the time information indicating the operating time together to input data input by the pointing device 6 The data is converted into trajectory data, and the input trajectory data is sent to the processing content determination processing means 16.

処理内容判定処理手段16は、入力処理手段15から入力軌跡データを受け取ると、ROM10の対応情報161に基づいて、受け取った入力軌跡データが、あらかじめROM10又はRAM11に保存された処理に対応付けられた所定の形状を示す入力軌跡データであるか否かを判定する機能と、受け取った入力軌跡データに対応する処理を判定結果として文字処理手段17に通知する機能とを備える。   When the processing content determination processing unit 16 receives the input trajectory data from the input processing unit 15, the received input trajectory data is associated with the processing stored in advance in the ROM 10 or the RAM 11 based on the correspondence information 161 in the ROM 10. A function for determining whether or not the input trajectory data indicates a predetermined shape, and a function for notifying the character processing means 17 of processing corresponding to the received input trajectory data as a determination result are provided.

例えば、処理内容判定処理手段16は、入力処理手段15から受け取った入力軌跡データが、あらかじめROM10又はRAM11に保存されたコピー、ペースト、カット等といった処理に対応付けられた入力軌跡データであるか否かを判定し、判定結果として、コピー、ペースト、カット等といった処理を文字処理手段17に通知する。   For example, the processing content determination processing unit 16 determines whether or not the input trajectory data received from the input processing unit 15 is input trajectory data associated with processing such as copy, paste, and cut stored in advance in the ROM 10 or the RAM 11. The character processing unit 17 is notified of processing such as copying, pasting, and cutting as a result of the determination.

文字処理手段17は、入力処理手段15より受け取ったデータに基づいて、処理の対象となる文字列データに対し処理を行う機能を備える。この処理は、例えば、テンキー5等で入力された文字を既に登録や入力等された文字列に追加して表示部13に通知するといった処理である。   The character processing unit 17 has a function of processing the character string data to be processed based on the data received from the input processing unit 15. This process is, for example, a process in which a character input with the numeric keypad 5 or the like is added to a character string that has already been registered or input and notified to the display unit 13.

また、文字処理手段17は、処理内容判定処理手段16から通知された判定結果に基づいて、入力軌跡データに対応するコピー、クリア、カット等といった処理を行う。   Further, the character processing unit 17 performs processing such as copying, clearing, and cutting corresponding to the input trajectory data based on the determination result notified from the processing content determination processing unit 16.

なお、本実施の形態では一例として携帯電話機として記載しているが、ポインティングデバイス6を備える装置であればこれに限定されず、PDA、小型機、移動機、ノートパソコンなどでもよい。   Note that although a mobile phone is described as an example in this embodiment, the present invention is not limited to this as long as the apparatus includes the pointing device 6, and a PDA, a small machine, a mobile machine, a notebook personal computer, or the like may be used.

ここで、携帯電話機のハードウェア構成の説明をする。   Here, the hardware configuration of the mobile phone will be described.

図5は、本実施の形態による携帯電話機1のハードウェア構成を示すブロック図である。   FIG. 5 is a block diagram showing a hardware configuration of mobile phone 1 according to the present embodiment.

図5を参照すると、本発明による携帯電話機1は、一般的なコンピュータ処理装置と同様のハードウェア構成によって実現することができ、CPU(Central Processing Unit)501(制御部14)、RAM(Random Access Memory)等のメインメモリであり、データの作業領域やデータの一時退避領域に用いられる主記憶部502(RAM11)、インターネットを介してデータの送受信を行う通信制御部503(送受信部8)、液晶ディスプレイ、スピーカ等の提示部504(表示部13)、キーボードやマウス等の入力部505(入力部12)、周辺機器と接続してデータの送受信を行うインタフェース部506、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリから構成されるハードディスク装置である補助記憶部507(ROM10)、本情報処理装置の上記各構成要素を相互に接続するシステムバス508(バス8)等を備えている。   Referring to FIG. 5, the mobile phone 1 according to the present invention can be realized by a hardware configuration similar to that of a general computer processing device, and includes a CPU (Central Processing Unit) 501 (control unit 14), a RAM (Random Access). A main memory unit 502 (RAM 11) used for a data work area and a temporary data save area, a communication control unit 503 (transmission / reception unit 8) for transmitting and receiving data via the Internet, and a liquid crystal A display unit 504 (display unit 13) such as a display and a speaker, an input unit 505 (input unit 12) such as a keyboard and a mouse, an interface unit 506 that transmits and receives data by connecting to peripheral devices, a ROM (Read Only Memory), Magnetic disk, semiconductor memo A hard disk device formed of a non-volatile memory is an auxiliary storage unit 507 etc. (ROM 10), and a system bus 508 (bus 8) for connecting the above components of the information processing apparatus to each other.

本発明による携帯電話機1は、その動作を、携帯電話機1内部にそのような機能を実現するプログラムを組み込んだ、LSI(Large Scale Integration)等のハードウェア部品からなる回路部品を実装してハードウェア的に実現することは勿論として、上記した各構成要素の各機能を提供するプログラムを、コンピュータ処理装置上のCPU501で実行することにより、ソフトウェア的に実現することができる。   The cellular phone 1 according to the present invention is implemented by mounting circuit components composed of hardware components such as LSI (Large Scale Integration) in which a program for realizing such functions is incorporated in the cellular phone 1. As a matter of course, it can be realized in software by executing a program for providing each function of each component described above by the CPU 501 on the computer processing apparatus.

すなわち、CPU501は、補助記憶部507に格納されているプログラムを、主記憶部502にロードして実行し、携帯電話機1の動作を制御することにより、上述した各機能をソフトウェア的に実現する。   That is, the CPU 501 loads the program stored in the auxiliary storage unit 507 to the main storage unit 502 and executes it, and controls the operation of the mobile phone 1 to realize each function described above in software.

(第1の実施の形態の動作)
次いで、図6〜図8を用いて本発明の第1の実施の形態による携帯電話機の動作を説明する。
(Operation of the first embodiment)
Next, the operation of the mobile phone according to the first embodiment of the present invention will be described with reference to FIGS.

ここで、図6は、第1の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。   Here, FIG. 6 is a flowchart showing a control procedure when a predetermined process is performed by an input from the pointing device of the mobile phone according to the first embodiment.

携帯電話機のユーザ(図示しない)は、メール入力、電話、メモ帳作成などのアプリケーションを起動し、入力部12のポインティングデバイス6を用いて入力操作を行うことができる。   A user (not shown) of the mobile phone can start an application such as mail input, telephone call, and memo pad creation, and perform an input operation using the pointing device 6 of the input unit 12.

入力処理手段15は、ポインティングデバイス6によって入力された入力の軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換し、RAM11に転送、格納すると共に、ポインティングデバイス6よって入力されるX,Y座標が変更される度に動作し、動作した時間を示す時間情報を合わせて用いることによって、ポインティングデバイス6よって入力されるデータ(ジェスチャ)を入力軌跡データに変換する(ステップS601(入力処理))。   The input processing means 15 detects the locus of the input inputted by the pointing device 6, converts it into position data (input locus data) on the X and Y coordinates, transfers it to the RAM 11, stores it, and inputs it by the pointing device 6. Each time the X and Y coordinates are changed, the time information indicating the operating time is used together with the time information to convert the data (gesture) input by the pointing device 6 into input trajectory data (step S601). (Input processing)).

次いで、処理内容判定処理手段16は、前記入力軌跡データを、あらかじめROM10又はRAM11に格納されていた対応情報161の入力軌跡データと照合し、対応付けられている処理を判定する(ステップS602(処理内容判定処理))。   Next, the processing content determination processing means 16 collates the input trajectory data with the input trajectory data of the correspondence information 161 stored in advance in the ROM 10 or the RAM 11, and determines the associated processing (Step S602 (Processing) Content determination processing)).

より具体的には、処理内容判定処理手段16は、ステップS602において、入力処理手段15から通知された入力軌跡データに対応する処理がコピーを表すのか、クリアを表すのか、カットを表すのか等を判定することにより、ユーザの操作が要求する処理を判定する。   More specifically, in step S602, the processing content determination processing unit 16 determines whether the process corresponding to the input trajectory data notified from the input processing unit 15 represents copying, clearing, or cutting. By determining, the process requested by the user operation is determined.

文字処理手段17は、処理内容判定処理手段16から通知された判定結果に基づいて、入力軌跡データに対応するコピー、クリア、カット等といった処理を行う(ステップS603(文字処理))。   The character processing unit 17 performs processing such as copying, clearing, cutting, etc. corresponding to the input trajectory data based on the determination result notified from the processing content determination processing unit 16 (step S603 (character processing)).

図7は、ポインティングデバイスからの入力によって所定の処理を行う際の入力された軌跡の形状を判断する処理及び入力された軌跡に対応する所定の処理を行う際の制御手順を表したフローチャートであり、図6のステップS602(処理内容判定処理)、ステップS603(文字処理)を詳細に述べたものである。   FIG. 7 is a flowchart showing processing for determining the shape of an input locus when performing predetermined processing by input from a pointing device, and a control procedure when performing predetermined processing corresponding to the input locus. Step S602 (processing content determination processing) and step S603 (character processing) in FIG. 6 are described in detail.

まず、処理内容判定処理手段16は、入力処理手段15から受け取った入力軌跡データがいかなる形状を示すデータなのかの判定(形状認識)の一例としてパターンマッチングを行い、入力処理手段15から受け取った入力軌跡データのX,Y座標とあらかじめ保存している入力軌跡データのX,Y座標との照合を行う(ステップS701)。   First, the processing content determination processing unit 16 performs pattern matching as an example of determination (shape recognition) indicating what shape the input trajectory data received from the input processing unit 15 represents, and the input received from the input processing unit 15 The X and Y coordinates of the trajectory data are collated with the X and Y coordinates of the input trajectory data stored in advance (step S701).

より具体的には、処理内容判定処理手段16は、この形状認識において、入力処理手段15から受け取った入力軌跡データに最も似ている形状を、ユーザが入力した形状として判定(形状認識)する。   More specifically, the processing content determination processing unit 16 determines (shape recognition) the shape most similar to the input trajectory data received from the input processing unit 15 as the shape input by the user in this shape recognition.

例えば、ユーザがコピー処理を要求するためにポインティングデバイス6を円の形状に操作した場合、入力処理手段15が、ポインティングデバイス6によって入力された軌跡を検出してX,Y座標上の位置データ(入力軌跡データ)に変換してこの入力軌跡データを処理内容判定処理手段16に送ると、処理内容判定処理手段16は、ステップS701において、当該入力軌跡データがいかなる形状であるかの判定を行い、円の形状であることを認識する。   For example, when the user operates the pointing device 6 in the shape of a circle in order to request a copy process, the input processing means 15 detects the locus input by the pointing device 6 and detects position data (X, Y coordinates) When the input trajectory data is converted to input trajectory data and sent to the processing content determination processing means 16, the processing content determination processing means 16 determines what shape the input trajectory data is in step S701, Recognize the shape of a circle.

ステップS701において、処理内容判定処理手段16は、照合できた場合ステップS702に進み、一方、照合できなかった場合始めに戻る。   In step S701, the processing content determination processing unit 16 proceeds to step S702 if the collation is successful, and returns to the beginning if the collation is not possible.

次いで、処理内容判定処理手段16は、形状認識できた入力軌跡データと、対応情報161に基づいて、ユーザの操作によって要求される処理を判定する(ステップS702)。   Next, the processing content determination processing unit 16 determines processing requested by the user's operation based on the input trajectory data whose shape has been recognized and the correspondence information 161 (step S702).

ステップS702において、処理内容判定処理手段16は、対応情報161に基づいて、あらかじめ対応付けられた処理を判定できた場合ステップS703に進み、一方、あらかじめ対応付けられた処理を判定できなかった場合始めに戻る。   In step S702, the process content determination processing unit 16 proceeds to step S703 when it can determine the process associated in advance based on the correspondence information 161, and starts when the process associated with the process cannot be determined in advance. Return to.

次いで、処理内容判定処理手段16は、対応情報161に基づいて判定した形状に対応する処理を文字処理手段17に通知する(ステップS703)。   Next, the processing content determination processing means 16 notifies the character processing means 17 of processing corresponding to the shape determined based on the correspondence information 161 (step S703).

例えば、対応情報161において円の形状を示す入力軌跡データにコピー処理が対応付けられている場合、処理内容判定処理手段16は、形状認識において円の形状であると判定すると、要求する処理としてコピー処理を文字処理手段17に通知する。   For example, when the copy information is associated with the input trajectory data indicating the shape of the circle in the correspondence information 161, the processing content determination processing unit 16 copies the requested processing when determining that the shape is a circular shape in the shape recognition. The processing is notified to the character processing means 17.

文字処理手段17は、入力処理手段15から入力処理(図6のステップS601)における入力軌跡データ(ユーザに入力されたジェスチャのX,Y座標のデータ)を受け取り、処理内容判定処理手段16から処理内容判定処理(図6のステップS602)における処理内容の指示を受け取り、入力軌跡データ及び処理内容の指示に対応した処理を実行する(ステップS704)。   The character processing unit 17 receives the input trajectory data (X and Y coordinate data of the gesture input by the user) in the input processing (step S601 in FIG. 6) from the input processing unit 15, and performs processing from the processing content determination processing unit 16. The processing content instruction in the content determination processing (step S602 in FIG. 6) is received, and processing corresponding to the input trajectory data and the processing content instruction is executed (step S704).

例えば、文字処理手段17は、処理内容判定処理手段16から受け取った指示がコピー指示の場合、入力処理手段15から受け取った入力軌跡データのX,Y座標に基づいて、囲まれた部分の文字をコピーしてRAM11に保存する。   For example, when the instruction received from the processing content determination processing unit 16 is a copy instruction, the character processing unit 17 determines the enclosed portion of the character based on the X and Y coordinates of the input trajectory data received from the input processing unit 15. Copy and save in RAM 11.

すなわち、この場合、文字処理手段17は、コピーをするという指示とコピーする範囲とを受け取っているため、これらに基づいてコピーを実行する。   That is, in this case, since the character processing unit 17 has received an instruction to copy and a range to be copied, the character processing unit 17 executes copying based on these.

次いで、起動されたアプリケーションが終了しているか否かを判定する(ステップS705)。アプリケーションが終了しているならば処理を終了し、アプリケーションが終了していないならば処理が始めに戻る。   Next, it is determined whether or not the activated application has been terminated (step S705). If the application has ended, the process ends. If the application has not ended, the process returns to the beginning.

ここで、処理の対象として文字列データを例として挙げたが、入力軌跡データと処理を対応付けることによって、処理の対象を画像データ、音声データ、動画データとしても同様に処理することできる。   Here, although the character string data is given as an example of the processing target, the processing target can be similarly processed as image data, audio data, and moving image data by associating the input trajectory data with the processing.

ここで、図8を用いて、本実施の形態による携帯端末装置100に対するユーザの操作例及び、当該操作に対応する本実施の形態による携帯端末装置100の動作例について説明する。   Here, with reference to FIG. 8, a user operation example for the mobile terminal device 100 according to the present embodiment and an operation example of the mobile terminal device 100 according to the present embodiment corresponding to the operation will be described.

図8は、本実施の形態による携帯端末装置100における特徴的な処理を説明するための表示画面4(表示部13)を示す図である。   FIG. 8 is a diagram showing a display screen 4 (display unit 13) for explaining characteristic processing in the mobile terminal device 100 according to the present embodiment.

すでに、携帯電話機1はユーザによって文字を入力され、そのためRAM11にはある程度の文字データが格納されており、その文字データが表示部13(表示画面4)に表示されているものとする。   It is assumed that the mobile phone 1 has already been inputted with characters by the user, and therefore a certain amount of character data is stored in the RAM 11, and the character data is displayed on the display unit 13 (display screen 4).

携帯電話機1が、ユーザによって入力部12(テンキ5、ポインティングデバイス6)から「明日は晴れ」22という文字を入力され、表示部13に「明日は晴れ」22と表示されている場合において、表示されている「明日は晴れ」22のうち、「明日」という部分の文字をコピーする例について説明する。   Displayed when the mobile phone 1 is inputted with the characters “Tomorrow is sunny” 22 by the user from the input unit 12 (Tenki 5, pointing device 6), and “Tomorrow is sunny” 22 is displayed on the display unit 13. An example of copying the character “Tomorrow” in “Tomorrow is sunny” 22 will be described.

まず、入力部12からカーソル19を操作されることによって、表示部13に表示された文字である「明日は晴れ」22のうち、「明日」という部分の文字を円の形状で取り囲むジェスチャ20を入力されると、入力されたジェスチャ20による入力の軌跡(円の形状)を制御部14がRAM11に格納し、入力処理手段15が当該入力の軌跡(円の形状)をRAM11から検出して入力軌跡データに変換し、処理内容判定処理手段16は、当該入力軌跡データがいかなる形状を示すか分析し、対応情報161に基づいて、当該入力軌跡データが示す所定の形状(円の形状)に対応付けられている処理(コピー)を判定する。   First, by operating the cursor 19 from the input unit 12, a gesture 20 that surrounds the character of “tomorrow” in the shape of a circle among the characters “Tomorrow is sunny” 22 displayed on the display unit 13. When input, the control unit 14 stores the input trajectory (circle shape) by the input gesture 20 in the RAM 11, and the input processing means 15 detects the input trajectory (circle shape) from the RAM 11 and inputs it. After converting to locus data, the processing content determination processing means 16 analyzes what shape the input locus data indicates, and corresponds to a predetermined shape (circle shape) indicated by the input locus data based on the correspondence information 161. The attached process (copy) is determined.

ここで、入力部12から行うカーソル19の操作は、ポインティングデバイス6によって行うことが好ましい。ジェスチャの入力において、ポインティングデバイス6上をワンストロークでなぞることができる円の形状やジグザグの形状等によってジェスチャの入力を行うことが好ましいが、通常の十字キーでは円等の曲線の形状やジグザグの形状などの入力を素早く行えないからである。   Here, the operation of the cursor 19 performed from the input unit 12 is preferably performed by the pointing device 6. In the gesture input, it is preferable to input the gesture by a circle shape or zigzag shape that can be traced on the pointing device 6 with a single stroke. However, with a normal cross key, a curve shape such as a circle or zigzag This is because the shape and the like cannot be input quickly.

文字処理手段17は、処理内容判定手段16によって判定された処理の指示に基づいて、入力部12から入力されたジェスチャ20に対応した処理を行う。   The character processing unit 17 performs processing corresponding to the gesture 20 input from the input unit 12 based on the processing instruction determined by the processing content determination unit 16.

本実施の形態による対応情報161において、文字を円の形状で囲むジェスチャに対応する処理はコピーであるため、ジェスチャ20によって円の形状で取り囲まれた「明日」という部分の文字がコピーされる。   In the correspondence information 161 according to the present embodiment, the process corresponding to the gesture that encloses the character in a circle shape is a copy. Therefore, the character “tomorrow” surrounded by the circle shape by the gesture 20 is copied.

なお、本実施の形態による表示部13は、ユーザによって入力されたジェスチャに対応する処理の種類を示すアイコン21を表示する。これにより、ユーザは、入力したジェスチャがどのような種類の処理であったのかを視覚的に容易に確認することができる。   Note that the display unit 13 according to the present embodiment displays an icon 21 indicating the type of processing corresponding to the gesture input by the user. Thus, the user can easily visually confirm what kind of processing the input gesture is.

次いで、表示部13の所定の位置を指定する入力がなされ、ペーストの処理に対応するジェスチャ23が入力されると、表示部13にペーストの処理を示すアイコン25が表示され、指定された所定の位置に「明日」24という文字がペーストされる。   Next, when an input for specifying a predetermined position on the display unit 13 is made and a gesture 23 corresponding to the paste process is input, an icon 25 indicating the paste process is displayed on the display unit 13, and the specified predetermined The character “Tomorrow” 24 is pasted at the position.

表示画面に表示されている文字を従来のボタンキーの操作によってコピーをする場合は、編集キー押下、メニューから編集内容を選択、編集範囲選択、決定ボタン押下と4ストロークかかる。これに対し本発明は、本実施の形態によるポインティングデバイス6と、ポインティングデバイス6で入力された入力の軌跡の形状を判断する処理と、入力の軌跡の形状に処理を対応付けた対応情報161とを用いることによって、ユーザは文字を円の形状で囲む1ストロークでコピーをすることができるため、入力操作の効率が向上する。   When copying the characters displayed on the display screen by the operation of the conventional button keys, it takes 4 strokes of pressing the edit key, selecting the editing content from the menu, selecting the editing range, pressing the enter button. The present invention, on the other hand, includes the pointing device 6 according to the present embodiment, processing for determining the shape of the input trajectory input by the pointing device 6, and correspondence information 161 that associates the processing with the shape of the input trajectory. By using, the user can make a copy with one stroke that encloses the character in a circle, thereby improving the efficiency of the input operation.

(第1の実施の形態の効果)
以上説明したように、本実施の形態においては、以下に記載するような効果を奏する。
(Effects of the first embodiment)
As described above, the present embodiment has the following effects.

第1の効果は、ユーザから要求された処理を効率よく実行できることである。   The first effect is that the processing requested by the user can be executed efficiently.

その理由は、所定のジェスチャである円の形状に表示画面4上の文字をコピーする処理が対応付けられて対応情報161に設定され、所定のジェスチャとして円の形状がユーザに入力されるだけで、端末制御手段28が、処理内容判定処理手段16から通知された判定結果及び対応情報161に基づいて、ユーザに入力された所定のジェスチャ(円の形状)に対応する処理(表示画面4上の文字をコピーする処理)を行うため、ユーザの操作手順を省略することができるからである。   The reason is that the process of copying characters on the display screen 4 is associated with the shape of a circle that is a predetermined gesture and is set in the correspondence information 161, and the shape of the circle is simply input to the user as the predetermined gesture. Based on the determination result notified from the processing content determination processing unit 16 and the correspondence information 161, the terminal control unit 28 performs a process (on the display screen 4) corresponding to a predetermined gesture (circle shape) input to the user. This is because the user's operation procedure can be omitted because the process of copying characters) is performed.

第2の効果は、ユーザは、通話中でも携帯電話機の表示画面を見ないで当該携帯電話機に所定の処理を実行させることができることである。   The second effect is that the user can cause the mobile phone to execute a predetermined process without looking at the display screen of the mobile phone even during a call.

その理由は、所定のジェスチャが入力されるだけでユーザの要求する処理が実行されるため、ユーザに要求された所定の処理の実行に関する画面を表示画面4に表示してからユーザの要求の詳細を受け付けるような必要がないからである。   The reason is that the process requested by the user is executed only by inputting a predetermined gesture, and therefore, a screen related to execution of the predetermined process requested by the user is displayed on the display screen 4 and then the details of the user request are displayed. It is because it is not necessary to accept.

(第2の実施の形態)
本発明の第2の実施の形態は、その基本的構成及び動作は上記第1の実施の形態の通りであるが、対応情報161の設定において、所定の処理に対応する形状の設定をさらに工夫をしている。
(Second Embodiment)
The basic configuration and operation of the second embodiment of the present invention are the same as those of the first embodiment, but the setting of the shape corresponding to the predetermined processing is further devised in the setting of the correspondence information 161. I am doing.

例えば、対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理が対応付けられている。   For example, in the setting of the correspondence information 161, the call origination processing for the telephone number displayed on the display screen 4 (display unit 14) is associated with the gesture for drawing “C”.

(第2の実施の形態の効果)
対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理が対応付けられている場合、ユーザは、表示画面4(表示部14)のテキスト内に電話番号が示されている状態で、ポインティングデバイス6から「C」描くジェスチャを入力すると直接その電話番号に電話を掛けることができるため、電話をかける操作を省略することができる。
(Effect of the second embodiment)
In the setting of the correspondence information 161, when the call origination process for the telephone number displayed on the display screen 4 (display unit 14) is associated with the gesture for drawing “C”, the user can display the display screen 4 (display unit 14). ) When a phone number is indicated in the text of (), if a gesture “C” is input from the pointing device 6, it is possible to make a call directly to the phone number, so that the operation of making a call can be omitted. .

また、例えば、対応情報161の設定において、「C」を描くジェスチャに表示画面4(表示部14)表示された電話番号への呼発信処理を対応付けるほかに、「M」を描くジェスチャにメールアプリケーションの起動または停止処理を対応付けたり、「W」を描くジェスチャにネットワークに接続する接続処理を対応付けたりしてもよい。   Further, for example, in the setting of the correspondence information 161, in addition to associating the call origination process for the telephone number displayed on the display screen 4 (display unit 14) with the gesture for drawing “C”, the mail application for the gesture for drawing “M” Or a connection process for connecting to a network may be associated with a gesture for drawing “W”.

(第3の実施の形態)
本発明の第3の実施の形態は、その基本的構成及び動作は上記第1の実施の形態の通りであるが、携帯電話機の制御についてさらに工夫をしている。
(Third embodiment)
The basic configuration and operation of the third embodiment of the present invention are the same as those of the first embodiment, but the device of the mobile phone is further devised.

(第3の実施の形態の構成)
図9は、本実施の形態による携帯電話機の構成を示すブロック図であり、図9を参照すると、本実施の形態による携帯電話機は、図2に示す第1の実施の形態による携帯電話機のRAM11が通話時間データを格納し、文字処理手段17を、端末制御手段29に変えたものである。
(Configuration of the third embodiment)
FIG. 9 is a block diagram showing the configuration of the mobile phone according to the present embodiment. Referring to FIG. 9, the mobile phone according to the present embodiment is the RAM 11 of the mobile phone according to the first embodiment shown in FIG. Stores the call time data, and the character processing means 17 is changed to the terminal control means 29.

通話時間データは、携帯電話機が通話機能を実行している通話時間を示す一般的なデータであるため、説明を省略する。
また、対応情報161には、所定のジェスチャに通話時間を調べる処理が対応付けられて設定されている。
Since the call time data is general data indicating the call time during which the mobile phone is executing the call function, description thereof is omitted.
In addition, the correspondence information 161 is set so that a predetermined gesture is associated with a process for examining the call time.

端末制御手段29は、処理内容判定処理手段16から通知された判定結果に基づいて、所定のジェスチャに対応する処理を行う機能を有する。   The terminal control unit 29 has a function of performing processing corresponding to a predetermined gesture based on the determination result notified from the processing content determination processing unit 16.

(第3の実施の形態の動作)
図10を用いて、第1の実施の形態による携帯電話機の動作との差分を中心に説明する。
(Operation of the third embodiment)
The difference from the operation of the mobile phone according to the first embodiment will be mainly described with reference to FIG.

図10は、第3の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。   FIG. 10 is a flowchart showing a control procedure when a predetermined process is performed by an input from the pointing device of the mobile phone according to the third embodiment.

本実施の形態による携帯電話機の動作の1例を、ユーザが、携帯電話機1を用いて通話している際に通話を継続したまま通話時間を確認する方法を例に説明する。   An example of the operation of the mobile phone according to the present embodiment will be described by taking as an example a method in which the user confirms the call time while continuing the call when the user is making a call using the mobile phone 1.

まず、入力部12(ポインティングデバイス6)から通話時間を調べるジェスチャが入力されると、入力処理手段15が、入力されたジェスチャを入力軌跡データに変換して処理内容判定処理手段16に送る(ステップS1001)。   First, when a gesture for checking a call duration is input from the input unit 12 (pointing device 6), the input processing means 15 converts the input gesture into input trajectory data and sends it to the processing content determination processing means 16 (step) S1001).

処理内容判定処理手段16は、入力軌跡データをあらかじめROM10に登録されている形状と照合し、当該入力軌跡データに対応する処理を判定し、判定結果として通話時間を調べる等の処理を端末制御手段29に指示する(ステップS1002)。   The processing content determination processing means 16 collates the input trajectory data with a shape registered in the ROM 10 in advance, determines processing corresponding to the input trajectory data, and performs processing such as examining the call time as a determination result. 29 is instructed (step S1002).

端末制御手段29は、処理内容判定処理手段16からの指示に基づいて、ユーザが通話を開始してからの通話時間のデータ(通話時間データ)をRAM11から読み出し、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせる処理をする(ステップS1003(端末制御処理))。   Based on the instruction from the processing content determination processing unit 16, the terminal control unit 29 reads out the call time data (call time data) from the RAM 11 after the user started the call, and after the user starts the call The process of notifying the user of the call time by voice during the call is performed (step S1003 (terminal control process)).

(第3の実施の形態の効果)
このように、本実施の形態の1例では、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、通話を開始してからの通話時間を確認することができる。
(Effect of the third embodiment)
As described above, in one example of the present embodiment, the user can confirm the call time after starting the call without looking at the display screen 4 during the call and without interrupting the call. it can.

その理由は、所定のジェスチャに通話時間を調べる処理が対応付けられて対応情報161に設定され、端末制御手段29は、処理内容判定処理手段16から通知された判定結果及び対応情報161に基づいて、所定のジェスチャに対応する処理を行う機能を有するため、所定のジェスチャを入力されることによって、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせることができるからである。   The reason is that the processing for checking the call time is associated with a predetermined gesture and set in the correspondence information 161, and the terminal control unit 29 is based on the determination result and the correspondence information 161 notified from the processing content determination processing unit 16. Since it has a function to perform processing corresponding to a predetermined gesture, by inputting the predetermined gesture, it is possible to inform the user of the call time after the user starts the call by voice during the user's call Because.

また、本実施の形態の1例では、通話時間を確認するための画面を表示することを防止できるため、通話中に携帯電話機内のアプリケーションの実行によって表示されている画面が通話時間を確認するための画面によって見えなくなることを防止できる。   In addition, in one example of the present embodiment, it is possible to prevent a screen for confirming the call time from being displayed. Therefore, the screen displayed by executing the application in the mobile phone during the call confirms the call time. Therefore, it is possible to prevent the screen from becoming invisible.

すなわち、アプリケーションの実行によって表示されている画面がユーザに要求された所定の処理の実行によって見えなくなることを防止できる。   In other words, it is possible to prevent the screen displayed by executing the application from becoming invisible by executing the predetermined process requested by the user.

その理由は、所定のジェスチャを入力されるだけで、ユーザが通話を開始してからの通話時間をユーザの通話中に音声でユーザに知らせること等ができるため、ユーザに要求された所定の処理の実行に関する画面を表示画面4に表示してからユーザの要求の詳細を受け付けるような必要がないからである。   The reason is that a predetermined process requested by the user can be performed because the user can be informed of the call time after the user started the call by voice during the user's call simply by inputting a predetermined gesture. This is because it is not necessary to receive the details of the user request after displaying the screen relating to the execution of the above on the display screen 4.

従来、携帯電話機に一般的なマイク付きヘッドフォンを用いる場合、本実施の形態のように、ユーザは通話中であっても携帯電話機の表示画面を見ながら所定の処理を要求する操作が可能であった。しかし、この場合、携帯電話機内のアプリケーションを実行中にユーザに要求された所定の処理の実行に関する画面が表示画面に表示されるため当該アプリケーションの実行による画面が見えなくなるという課題があったが、上述のように、本実施の形態による携帯電話機では、このような課題も解決することができる。   Conventionally, when a general headphone with a microphone is used for a mobile phone, the user can perform an operation to request a predetermined process while looking at the display screen of the mobile phone even during a call as in the present embodiment. It was. However, in this case, there is a problem that the screen due to the execution of the application becomes invisible because the screen related to the execution of the predetermined process requested by the user during the execution of the application in the mobile phone is displayed on the display screen. As described above, the mobile phone according to the present embodiment can solve such a problem.

また、本実施の形態の他の例において、所定のジェスチャに電池の残量を調べる処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電池の残量を調べる処理に関する画面を表示することなく、電池の残量を確認することができる。   In another example of the present embodiment, a process for checking the remaining battery level is associated with a predetermined gesture and set in the correspondence information 161, so that the user views the display screen 4 during a call. The remaining battery level can be confirmed without interruption, without interrupting the call, and without displaying a screen related to the process for checking the remaining battery level.

また、本実施の形態の他の例において、所定のジェスチャに電波状況を調べる処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電波状況を調べる処理に関する画面を表示することなく、電波状況を確認することができる。   In another example of the present embodiment, a process for examining the radio wave condition is associated with a predetermined gesture and set in the correspondence information 161, so that the user does not see the display screen 4 during a call. In addition, the radio wave condition can be confirmed without interrupting the call and without displaying a screen related to the process for checking the radio wave condition.

また、本実施の形態の他の例において、所定のジェスチャに電波を止める等の処理が対応付けられて対応情報161に設定されていることにより、ユーザは、通話中に表示画面4を見ることなく、また、通話を中断することなく、また、電波を止める等の処理に関する画面を表示することなく、電波を止める等の処理を実行することができる。   In another example of the present embodiment, a process of stopping radio waves or the like is associated with a predetermined gesture and set in the correspondence information 161, so that the user views the display screen 4 during a call. In addition, it is possible to execute processing such as stopping radio waves without interrupting a call and without displaying a screen relating to processing such as stopping radio waves.

(第4の実施の形態)
本発明の第4の実施の形態は、その基本的構成及び動作は上記第3の実施の形態の通りであるが、ポインティングデバイス6の代わりに携帯電話機1内にジャイロ機構(加速度センサ)を備え、携帯電話機1自体の位置が移動させられることによって、ジャイロ機構(加速度センサ)がその位置の移動の軌跡をジェスチャとして入力し、入力処理手段15が当該入力されたジェスチャを入力軌跡データに変換し、処理内容判定処理手段16が当該入力軌跡データに基づいて処理内容を判定し、端末制御手段28が、処理内容判定処理手段16から通知された判定結果に基づいて、所定のジェスチャに対応する処理を行う。
(Fourth embodiment)
The basic configuration and operation of the fourth embodiment of the present invention are the same as those of the third embodiment, but a gyro mechanism (acceleration sensor) is provided in the mobile phone 1 instead of the pointing device 6. When the position of the mobile phone 1 itself is moved, the gyro mechanism (acceleration sensor) inputs the movement locus of the position as a gesture, and the input processing means 15 converts the input gesture into input locus data. The processing content determination processing unit 16 determines the processing content based on the input trajectory data, and the terminal control unit 28 performs processing corresponding to a predetermined gesture based on the determination result notified from the processing content determination processing unit 16. I do.

(第4の実施の形態の効果)
本実施の形態によれば、三次元によって構成されるジェスチャに携帯電話機1の所定の処理を対応付けることができるので、上記第3の実施の形態の効果に加え、さらに自由度の高いジェスチャの設定及び所定の処理との対応付けを行うことができる。
(Effect of the fourth embodiment)
According to the present embodiment, since the predetermined processing of the mobile phone 1 can be associated with the gesture configured by three dimensions, in addition to the effect of the third embodiment, setting of a gesture having a higher degree of freedom. In addition, it is possible to perform association with a predetermined process.

以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも、上記実施の形態に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。   Although the present invention has been described with reference to the preferred embodiments, the present invention is not necessarily limited to the above embodiments, and various modifications can be made within the scope of the technical idea. .

例えば、本発明による対応情報161に対しては、ユーザがジェスチャを入力しやすいように、ポインティングデバイス6上等をワンストロークでなぞることができるジェスチャをあらかじめ登録することが望ましい。   For example, for the correspondence information 161 according to the present invention, it is desirable to register in advance a gesture that can be traced on the pointing device 6 or the like with one stroke so that the user can easily input the gesture.

その理由は、ユーザが通話中に表示画面4を見なくてもワンストロークならば簡単に入力できるからである。   The reason is that a user can easily input with one stroke without looking at the display screen 4 during a call.

また、例えば、ユーザが紙に書かれた文字を消す処理を行う際には筆記具等で当該文字の上からぐしゃぐしゃと書いて消すように、対応情報161に登録されるジェスチャは、実際にユーザが行う処理における動作に対応していることが望ましい。   In addition, for example, when the user performs a process of erasing characters written on paper, the gesture registered in the correspondence information 161 is actually written by the user so that the character is written and erased from above the characters with a writing tool or the like. It is desirable to correspond to the operation in the processing to be performed.

あるいは、例えば、ユーザがコピーを行う場合には「CO」、ユーザがカットを行う場合には「CU」のように、実際にユーザが行う処理の処理名の頭文字をジェスチャとして対応情報161に登録してもよい。   Alternatively, for example, “CO” when the user performs copying, and “CU” when the user performs cutting, such as “CU”, the initial name of the processing name actually performed by the user is used as the gesture in the correspondence information 161. You may register.

その理由は、ユーザ間で処理における動作が異なるようなときにも、処理名はユーザ間で同一に設定できるため、ユーザは混乱することなく容易にジェスチャを覚えることができるからである。   The reason is that even when the operation in the process differs among users, the process name can be set the same between users, so that the user can easily learn a gesture without being confused.

携帯電話機、PHS(Personal Handyphone
System)、PDA(Personal Data Assistance,Personal Digital Assistans:個人向け携帯型情報通信機器)等の携帯端末装置であってポインティングデバイスや加速度センサを搭載している装置に適用できる。
Mobile phone, PHS (Personal Handyphone
System) and PDA (Personal Data Assistance, Personal Digital Assistans) and the like, which can be applied to devices equipped with pointing devices and acceleration sensors.

本発明の第1の実施の形態による携帯電話機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the mobile telephone by the 1st Embodiment of this invention. 第1の実施の形態による携帯端末装置の一例である携帯電話機の回路構成の要部を示すブロック図である。It is a block diagram which shows the principal part of the circuit structure of the mobile telephone which is an example of the portable terminal device by 1st Embodiment. 第1の実施の形態による対応情報161の構成を示す図である。It is a figure which shows the structure of the correspondence information 161 by 1st Embodiment. 第1の実施の形態によるパイメニューを説明するための図である。It is a figure for demonstrating the pie menu by 1st Embodiment. 第1の実施の形態による携帯端末装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the portable terminal device by 1st Embodiment. 第1の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。It is a flowchart showing the control procedure at the time of performing a predetermined | prescribed process by the input from the pointing device of the mobile telephone by 1st Embodiment. 第1の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の入力された軌跡の形状を判断する処理及び入力された軌跡に対応する所定の処理を行う際の制御手順を表したフローチャートである。A process for determining the shape of an input locus when performing a predetermined process by an input from a pointing device of the mobile phone according to the first embodiment and a control procedure when performing a predetermined process corresponding to the input locus It is a flowchart showing. 第1の実施の形態による携帯端末装置100における特徴的な処理を説明するための表示画面4(表示部13)を示す図である。It is a figure which shows the display screen 4 (display part 13) for demonstrating the characteristic process in the portable terminal device 100 by 1st Embodiment. 第3の実施の形態による携帯電話機の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone by 3rd Embodiment. 第3の実施の形態による携帯電話機のポインティングデバイスからの入力によって所定の処理を行う際の制御手順を表したフローチャートである。It is a flowchart showing the control procedure at the time of performing a predetermined | prescribed process by the input from the pointing device of the mobile telephone by 3rd Embodiment.

符号の説明Explanation of symbols

1:携帯電話機
2:マイク
3:スピーカ
4:表示画面
5:テンキー
6:ポインティングデバイス
7:アンテナ
8:送受信部
9:バス
10:ROM
11:RAM
12:入力部
13:表示部
14:制御部
15:入力処理手段
16:処理内容判定処理手段
17:文字処理手段
19:カーソル
20、23:ジェスチャ
21、25:アイコン
26:パイメニュー
27:カーソル
28:扇形領域
29: 端末制御手段
501:CPU
502:主記憶部
503:通信制御部
504:提示部
505:入力部
506:インタフェース部
507:補助記憶部
508:システムバス
1: Mobile phone 2: Microphone 3: Speaker 4: Display screen 5: Numeric keypad 6: Pointing device 7: Antenna 8: Transmitter / receiver 9: Bus 10: ROM
11: RAM
12: Input unit 13: Display unit 14: Control unit 15: Input processing unit 16: Processing content determination processing unit 17: Character processing unit 19: Cursor 20, 23: Gesture 21, 25: Icon 26: Pie menu 27: Cursor 28 : Fan-shaped area 29: Terminal control means 501: CPU
502: Main storage unit 503: Communication control unit 504: Presentation unit 505: Input unit 506: Interface unit 507: Auxiliary storage unit 508: System bus

Claims (31)

実行可能な処理機能を備える携帯装置において、
所定の位置の任意方向の移動を検出可能な入力手段と、
前記移動した位置の軌跡形状を判定する判定手段と、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行手段とを備えることを特徴とする携帯装置。
In a portable device having an executable processing function,
Input means capable of detecting movement of a predetermined position in an arbitrary direction;
Determining means for determining a trajectory shape of the moved position;
A portable device comprising: execution means for executing processing contents associated with each determined trajectory shape.
前記軌跡形状と前記処理内容とを対応付けて定義したテーブルを備え、
前記実行手段は、判定された前記軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項1に記載の携帯装置。
A table in which the trajectory shape and the processing content are defined in association with each other;
The portable device according to claim 1, wherein the execution unit executes the processing content set in the table corresponding to the determined locus shape.
前記軌跡形状を、文字列の入力編集処理に対応付けたことを特徴とする請求項1又は請求項2に記載の携帯装置。 The portable device according to claim 1, wherein the locus shape is associated with a character string input editing process. 文字列の前記入力編集処理が、コピー処理、カット処理、削除処理の少なくとも一つを含むことを特徴とする請求項3に記載の携帯装置。 The portable device according to claim 3, wherein the input editing process of a character string includes at least one of a copy process, a cut process, and a delete process. 前記入力手段は、画面上でポインタを任意の方向に移動可能なポインティング手段を備え、
前記判定手段は、前記ポインタの軌跡形状を判定し、
前記実行手段は、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項1から請求項4の何れか1項に記載の携帯装置。
The input means includes pointing means capable of moving the pointer in an arbitrary direction on the screen,
The determination means determines a trajectory shape of the pointer,
5. The mobile device according to claim 1, wherein the execution unit executes processing contents associated with each determined locus shape of the pointer.
前記テーブルは、前記ポインタの軌跡形状と前記処理内容とが対応付けて定義されており、
前記実行手段は、判定された前記ポインタの軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項5に記載の携帯装置。
The table is defined by associating the locus shape of the pointer with the processing content,
The portable device according to claim 5, wherein the execution unit executes the processing content set in the table corresponding to the determined locus shape of the pointer.
前記画面上における前記ポインタの軌跡の位置と軌跡の形状とに対応付けて前記処理内容を設定することを特徴とする請求項5又は請求項6に記載の携帯装置。 The portable device according to claim 5 or 6, wherein the processing content is set in association with a position of a locus of the pointer on the screen and a shape of the locus. 前記文字列を囲む前記ポインタの軌跡形状を、前記囲まれた文字列のコピー処理又はカット処理に対応付けたことを特徴とする請求項5から請求項7の何れか1項に記載の携帯装置。 The portable device according to any one of claims 5 to 7, wherein a trajectory shape of the pointer surrounding the character string is associated with copy processing or cut processing of the enclosed character string. . 前記ポインタの軌跡形状に従って前記画面上に円形又は多角形状のメニューを表示させ、
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項5から請求項8の何れか1項に記載の携帯装置。
Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
The portable device according to any one of claims 5 to 8, wherein processing contents executed by positioning the pointer are associated for each range of the predetermined angle of the menu.
前記入力手段は、自身についての位置の任意方向の移動を検出可能な加速度センサを用いたジャイロ機構を備え、
前記テーブルは、前記自身についての位置の軌跡形状と前記処理内容とが対応付けて定義されており、
前記実行手段は、判定された前記自身についての位置の軌跡形状に対応して前記テーブルに設定された前記処理内容を実行することを特徴とする請求項1から請求項4の何れか1項に記載の携帯装置。
The input means includes a gyro mechanism using an acceleration sensor capable of detecting movement in an arbitrary direction of the position of itself,
The table is defined by associating the trajectory shape of the position of the self with the processing content,
5. The method according to claim 1, wherein the execution unit executes the processing content set in the table in correspondence with the determined locus shape of the position of itself. The portable device described.
請求項1から請求項10の携帯装置を適用したことを特徴とする携帯電話装置。 11. A mobile phone device to which the mobile device according to claim 1 is applied. 実行可能な処理機能を備える携帯装置の入力支援方法であって、
所定の位置の任意方向の移動を検出可能な入力ステップと、
前記移動した位置の軌跡形状を判定する判定ステップと、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行ステップとを有することを特徴とする入力支援方法。
An input support method for a portable device having an executable processing function,
An input step capable of detecting movement in an arbitrary direction of a predetermined position;
A determination step of determining a trajectory shape of the moved position;
And an execution step of executing processing contents associated with each of the determined trajectory shapes.
前記実行ステップにおいて、前記軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記軌跡形状に対応した前記処理内容を実行することを特徴とする請求項12に記載の入力支援方法。 The said execution step performs the said process content corresponding to the said locus | trajectory shape determined by the said determination step based on the table which matched and defined the said locus | trajectory shape and the said process content. 12. The input support method according to 12. 前記軌跡形状が、文字列の入力編集処理に対応付けられたことを特徴とする請求項12又は請求項13に記載の入力支援方法。 The input support method according to claim 12 or 13, wherein the locus shape is associated with input editing processing of a character string. 文字列の前記入力編集処理が、コピー処理、カット処理、削除処理の少なくとも一つを含むことを特徴とする請求項14に記載の入力支援方法。 The input support method according to claim 14, wherein the input editing process of a character string includes at least one of a copy process, a cut process, and a delete process. 前記入力ステップにおいて、画面上でのポインタの任意方向の移動を検出するポインティングステップを備え、
前記判定ステップにおいて、前記ポインタの軌跡形状を判定し、
前記実行ステップにおいて、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項12から請求項15の何れか1項に記載の入力支援方法。
In the input step, the pointing step of detecting movement of the pointer in any direction on the screen,
In the determination step, the locus shape of the pointer is determined,
The input support method according to any one of claims 12 to 15, wherein in the execution step, processing contents associated with each determined trajectory shape of the pointer are executed.
前記実行ステップにおいて、前記ポインタの軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記ポインタの軌跡形状に対応した前記処理内容を実行することを特徴とする請求項16に記載の入力支援方法。 In the execution step, the processing content corresponding to the trajectory shape of the pointer determined in the determination step is executed based on a table defined in association with the trajectory shape of the pointer and the processing content. The input support method according to claim 16. 前記画面上における前記ポインタの軌跡の位置と軌跡の形状とに対応付けて前記処理内容を設定することを特徴とする請求項16又は請求項17に記載の入力支援方法。 18. The input support method according to claim 16, wherein the processing content is set in association with a position of the pointer locus on the screen and a shape of the locus. 前記文字列を囲む前記ポインタの軌跡形状を、前記囲まれた文字列のコピー処理又はカット処理に対応付けたことを特徴とする請求項16から請求項18の何れか1項に記載の入力支援方法。 The input support according to any one of claims 16 to 18, wherein a trajectory shape of the pointer surrounding the character string is associated with copy processing or cut processing of the enclosed character string. Method. 前記ポインタの軌跡形状に従って前記画面上に円形又は多角形状のメニューを表示させ、
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項16から請求項19の何れか1項に記載の入力支援方法。
Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
20. The input support method according to claim 16, wherein processing contents to be executed by positioning the pointer are associated with each predetermined angle range of the menu.
前記入力ステップにおいて、前記携帯装置の位置の任意方向の移動を検出可能な加速度センサを用いたジャイロ機構によって前記携帯装置の位置の任意方向の移動を検出し、
前記実行ステップにおいて、前記携帯装置の軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記携帯装置の軌跡形状に対応した前記処理内容を実行することを特徴とする請求項12から請求項15の何れか1項に記載の入力支援方法。
In the input step, the movement of the position of the portable device is detected by a gyro mechanism using an acceleration sensor capable of detecting the movement of the position of the portable device in an arbitrary direction;
In the execution step, the processing content corresponding to the trajectory shape of the mobile device determined in the determination step is executed based on a table defined by associating the trajectory shape of the mobile device with the processing content. 16. The input support method according to any one of claims 12 to 15, wherein:
実行可能な処理機能を備える携帯装置における入力支援プログラムであって、前記携帯装置を構成するコンピュータに、
所定の位置の任意方向の移動を検出可能な入力機能と、
前記移動した位置の軌跡形状を判定する判定機能と、
判定された前記軌跡形状毎に対応付けられた処理内容を実行する実行機能とを実行させることを特徴とする入力支援プログラム。
An input support program in a portable device having an executable processing function, the computer constituting the portable device,
An input function capable of detecting movement of a predetermined position in an arbitrary direction;
A determination function for determining a trajectory shape of the moved position;
An input support program for executing an execution function for executing processing contents associated with each determined trajectory shape.
前記実行機能において、前記軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定機能で判定された前記軌跡形状に対応した前記処理内容を実行することを特徴とする請求項22に記載の入力支援プログラム。 The execution function executes the processing content corresponding to the trajectory shape determined by the determination function based on a table that defines the trajectory shape and the processing content in association with each other. The input support program according to 22. 前記軌跡形状が、文字列の入力編集処理に対応付けられたことを特徴とする請求項22又は請求項23に記載の入力支援プログラム。 The input support program according to claim 22 or 23, wherein the locus shape is associated with an input editing process of a character string. 文字列の前記入力編集処理が、コピー処理、カット処理、削除処理の少なくとも一つを含むことを特徴とする請求項24に記載の入力支援プログラム。 The input support program according to claim 24, wherein the input editing process of a character string includes at least one of a copy process, a cut process, and a delete process. 前記入力機能において、画面上でのポインタの任意方向の移動を検出するポインティング機能を備え、
前記判定機能において、前記ポインタの軌跡形状を判定し、
前記実行機能において、判定された前記ポインタの軌跡形状毎に対応付けられた処理内容を実行することを特徴とする請求項22から請求項25の何れか1項に記載の入力支援プログラム。
In the input function, a pointing function for detecting movement of the pointer in any direction on the screen is provided,
In the determination function, the trajectory shape of the pointer is determined,
The input support program according to any one of claims 22 to 25, wherein the execution function executes processing contents associated with each determined locus shape of the pointer.
前記実行機能において、前記ポインタの軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定機能で判定された前記ポインタの軌跡形状に対応した前記処理内容を実行することを特徴とする請求項26に記載の入力支援プログラム。 In the execution function, the processing content corresponding to the trajectory shape of the pointer determined by the determination function is executed based on a table defined by associating the trajectory shape of the pointer with the processing content. An input support program according to claim 26. 前記画面上における前記ポインタの軌跡の位置と軌跡の形状とに対応付けて前記処理内容を設定することを特徴とする請求項26又は請求項27に記載の入力支援プログラム。 28. The input support program according to claim 26, wherein the processing content is set in association with a position of the pointer locus on the screen and a shape of the locus. 前記文字列を囲む前記ポインタの軌跡形状を、前記囲まれた文字列のコピー処理又はカット処理に対応付けたことを特徴とする請求項26から請求項28の何れか1項に記載の入力支援プログラム。 The input support according to any one of claims 26 to 28, wherein a trajectory shape of the pointer surrounding the character string is associated with copy processing or cut processing of the enclosed character string. program. 前記ポインタの軌跡形状に従って前記画面上に円形又は多角形状のメニューを表示させ、
前記メニューの所定角度の範囲毎に、前記ポインタを位置させることで実行する処理内容を関連付けたことを特徴とする請求項26から請求項29の何れか1項に記載の入力支援プログラム。
Display a circular or polygonal menu on the screen according to the pointer trajectory shape,
30. The input support program according to claim 26, wherein processing contents executed by positioning the pointer are associated with each predetermined angle range of the menu.
前記入力機能において、前記携帯装置の位置の任意方向の移動を検出可能な加速度センサを用いたジャイロ機構によって前記携帯装置の位置の任意方向の移動を検出し、
前記実行機能において、前記携帯装置の軌跡形状と前記処理内容とを対応付けて定義したテーブルに基づいて、前記判定ステップで判定された前記携帯装置の軌跡形状に対応した前記処理内容を実行することを特徴とする請求項22から請求項25の何れか1項に記載の入力支援方法。
In the input function, the movement of the position of the portable device is detected by a gyro mechanism using an acceleration sensor capable of detecting the movement of the position of the portable device in an arbitrary direction;
In the execution function, the processing content corresponding to the trajectory shape of the mobile device determined in the determination step is executed based on a table defined by associating the trajectory shape of the mobile device with the processing content. The input support method according to any one of claims 22 to 25, wherein:
JP2006099524A 2006-03-31 2006-03-31 Portable device, and input support method and program Pending JP2007272708A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006099524A JP2007272708A (en) 2006-03-31 2006-03-31 Portable device, and input support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006099524A JP2007272708A (en) 2006-03-31 2006-03-31 Portable device, and input support method and program

Publications (2)

Publication Number Publication Date
JP2007272708A true JP2007272708A (en) 2007-10-18
JP2007272708A5 JP2007272708A5 (en) 2009-04-02

Family

ID=38675428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006099524A Pending JP2007272708A (en) 2006-03-31 2006-03-31 Portable device, and input support method and program

Country Status (1)

Country Link
JP (1) JP2007272708A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013504103A (en) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 Multi-touch character input method and system
JP2014222363A (en) * 2014-07-30 2014-11-27 オリンパス株式会社 Microscope system comprising microscope controller

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744311A (en) * 1993-07-31 1995-02-14 Sony Corp Handwritten information processor
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
JP2003334389A (en) * 2002-05-20 2003-11-25 National Institute Of Advanced Industrial & Technology Controller by gesture recognition, method thereof and recording medium
WO2004099903A2 (en) * 2003-05-01 2004-11-18 Gyration, Inc. Multimedia user interface
JP2005275652A (en) * 2004-03-24 2005-10-06 Canon Inc Apparatus and method for processing input trajectory

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744311A (en) * 1993-07-31 1995-02-14 Sony Corp Handwritten information processor
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
JP2003334389A (en) * 2002-05-20 2003-11-25 National Institute Of Advanced Industrial & Technology Controller by gesture recognition, method thereof and recording medium
WO2004099903A2 (en) * 2003-05-01 2004-11-18 Gyration, Inc. Multimedia user interface
JP2006526844A (en) * 2003-05-01 2006-11-24 トムソン ライセンシング Multimedia user interface
JP2005275652A (en) * 2004-03-24 2005-10-06 Canon Inc Apparatus and method for processing input trajectory

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013504103A (en) * 2009-09-07 2013-02-04 上海合合信息科技発展有限公司 Multi-touch character input method and system
JP2014222363A (en) * 2014-07-30 2014-11-27 オリンパス株式会社 Microscope system comprising microscope controller

Similar Documents

Publication Publication Date Title
CN101526881B (en) Text selection by gesture
US8209063B2 (en) Navigation tool with audible feedback on a handheld communication device
JP5184528B2 (en) Portable information terminal
CN101529368B (en) Methods for determining a cursor position from a finger contact with a touch screen display
US20020036623A1 (en) Information processing apparatus, information inputting device, and information processing main unit
JP5091180B2 (en) Mobile terminal device
US20070192027A1 (en) Navigation tool with audible feedback on a wireless handheld communication device
US20070192028A1 (en) Navigation tool with audible feedback on a handheld communication device having a full alphabetic keyboard
US8525795B2 (en) Apparatus and method for inputting characters in a terminal
JP5846887B2 (en) Mobile terminal, edit control program, and edit control method
US20130293479A1 (en) Apparatus and method for inputting characters in a terminal
JP6088356B2 (en) Mobile terminal, display control program, and display control method
JP2009026155A (en) Input display apparatus and mobile wireless terminal apparatus
JP5777645B2 (en) Character input method for portable terminal and portable terminal supporting the same
US20070192699A1 (en) Navigation tool with audible feedback on a handheld communication device having a reduced alphabetic keyboard
JP2013127692A (en) Electronic apparatus, delete program, and method for control delete
US20170115861A1 (en) Terminal apparatus and display control method
US8635559B2 (en) On-screen cursor navigation delimiting on a handheld communication device
US20080163132A1 (en) Streamlined navigation of a handheld elecronic device
US20140195959A1 (en) Apparatus and method for providing a virtual keypad
JP4796131B2 (en) Method, electronic device and computer-readable recording medium for data management in an electronic device in response to user instructions by writing and / or audible sound
US20090104928A1 (en) Portable electronic device and a method for entering data on such a device
JP2007272708A (en) Portable device, and input support method and program
KR101463804B1 (en) Mobile communication device and display control method
JP2008090680A (en) Portable terminal device, and function activation method for portable terminal device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110627