JP2013242630A - Input device, control method thereof, and control program thereof - Google Patents
Input device, control method thereof, and control program thereof Download PDFInfo
- Publication number
- JP2013242630A JP2013242630A JP2012114004A JP2012114004A JP2013242630A JP 2013242630 A JP2013242630 A JP 2013242630A JP 2012114004 A JP2012114004 A JP 2012114004A JP 2012114004 A JP2012114004 A JP 2012114004A JP 2013242630 A JP2013242630 A JP 2013242630A
- Authority
- JP
- Japan
- Prior art keywords
- input
- area
- character
- display
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、タッチ入力を受け付け可能な入力装置、その制御方法、およびその制御プログラムに関する。 The present invention relates to an input device that can accept a touch input, a control method thereof, and a control program thereof.
タッチ機能付きの表示画面を有する携帯端末装置は、直感的な操作で情報の入出力を行なうことができるため、近年注目されている。タッチ機能付きの表示画面には、透明なタッチパネルが設けられており、ユーザが表示画面に表示された画像などを指やペンで触れることで情報を入力したりすることができる。例えば、携帯端末装置の表示画面に、文字等の入力手段としてのキーボードをソフトウェアによって表示するソフトウェアキーボードを適用した技術がある。 A mobile terminal device having a display screen with a touch function has been attracting attention in recent years because it can input and output information by an intuitive operation. A display screen with a touch function is provided with a transparent touch panel, and a user can input information by touching an image displayed on the display screen with a finger or a pen. For example, there is a technique in which a software keyboard for displaying a keyboard as a means for inputting characters or the like with software is applied to a display screen of a mobile terminal device.
例えば、特開2011−192215号公報(特許文献1)には、文字入力装置が開示されている。文字入力装置は、画像を表示する表示部と、表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、表示部にソフトウェアキーボードを表示させ、入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行う制御部とを含む。 For example, Japanese Patent Laying-Open No. 2011-192215 (Patent Document 1) discloses a character input device. The character input device includes a display unit that displays an image, an input detection unit that is arranged so as to overlap the display unit, detects an operator's touch input, and displays a software keyboard on the display unit. And a control unit that performs enlarged key display for enlarging and displaying at least one image of one key image and its surrounding keys.
特開2011−154573号公報(特許文献2)には、携帯電子機器が開示されている。携帯電子機器は、タッチパネルを用いたソフトキー入力において、文字種や、英単語入力のように先行する入力文字によって後続の操作対象キーが限定される場合に、選択可能性のある少なくとも1つのキーを拡大表示し、それ以外のキーを縮小表示する。 Japanese Unexamined Patent Application Publication No. 2011-154573 (Patent Document 2) discloses a portable electronic device. In the case of soft key input using a touch panel, a portable electronic device selects at least one key that can be selected when a subsequent operation target key is limited by a character type or an input character that precedes like an English word input. Zooms in and zooms out other keys.
特開2010−165146号公報(特許文献3)には、携帯情報端末装置が開示されている。携帯情報端末装置は、ローマ字入力による日本語入力モードが選択されたときに、英文字キーからなるソフトウェアキーボードを表示部に表示し、キーの入力を受け付ける。そして、携帯情報端末装置は、キー入力規則テーブルを読み込むと、キー入力規則テーブルに次入力候補キーが存在するか否かを判定する。携帯情報端末装置は、次入力候補キーが存在する場合には、当該次入力候補キーの入力を受け付け可能に設定すると共に、次入力候補キー以外のキーの入力を受け付けないように設定し、表示部に次入力候補キーを表示する。 Japanese Unexamined Patent Application Publication No. 2010-165146 (Patent Document 3) discloses a portable information terminal device. The portable information terminal device displays a software keyboard composed of English character keys on the display unit when a Japanese input mode using Roman characters is selected, and accepts key input. Then, when the portable information terminal device reads the key input rule table, it determines whether or not a next input candidate key exists in the key input rule table. When there is a next input candidate key, the portable information terminal device is set so as to accept the input of the next input candidate key, and set so as not to accept the input of any key other than the next input candidate key The next input candidate key is displayed in the section.
特開2008−257551号公報(特許文献4)には、情報処理装置が開示されている。情報処理装置は、淡い色を用いて文字を配列させたソフトウェアキーボードを表示画面に表示して、その上に文字入力欄を表示する。情報処理装置は、ソフトウェアキーボード内の各文字に対して表示画面上からのタッチ状態に応じて文字選択を検出し、タッチ状態の間、選択文字を濃い色を用いて拡大表示する。情報処理装置は、非タッチ状態への移行に伴って選択文字を文字入力の状態として判断し、文字入力欄に表示する。 Japanese Patent Laying-Open No. 2008-257551 (Patent Document 4) discloses an information processing apparatus. The information processing apparatus displays a software keyboard in which characters are arranged using a light color on a display screen, and displays a character input field thereon. The information processing apparatus detects character selection for each character in the software keyboard according to the touch state from the display screen, and enlarges and displays the selected character using a dark color during the touch state. The information processing apparatus determines the selected character as a character input state in accordance with the transition to the non-touch state, and displays it in the character input field.
特開2004−38407号公報(特許文献5)には、文字入力装置が開示されている。文字入力装置において、仮想キーボード出力手段は、タッチスクリーンなどのディスプレイ上に、文字入力用の複数の仮想キーを含む仮想キーボード等を表示する。仮確定手段は、仮想キーボードに接触する操作者の選択行為を受けて、接触した座標位置に基づいて選択候補となる文字を認識する。拡大出力手段は、認識された文字にかかる拡大画像をディスプレイに出力する。確定手段は、仮想キーボードに非接触となる操作者の選択行為を受けて、直前に認識した文字を入力文字として確定する。 Japanese Patent Laying-Open No. 2004-38407 (Patent Document 5) discloses a character input device. In the character input device, the virtual keyboard output means displays a virtual keyboard including a plurality of virtual keys for character input on a display such as a touch screen. The provisional confirmation means receives a selection act of an operator who touches the virtual keyboard and recognizes a character as a selection candidate based on the coordinate position touched. The enlarged output means outputs an enlarged image relating to the recognized character to the display. The confirming means confirms the character recognized immediately before as an input character in response to the selection action of the operator who makes no contact with the virtual keyboard.
近年、タッチ機能付きの携帯端末装置の表示解像度が向上したことにより、表示画面に表示される文字等を従来よりも小さく表示することが可能となっている。そのため、一つの文字のキーに割り当てられる入力領域も小さくなり、ユーザは指等でタッチ操作がしにくいという問題がある。上記の各技術によると、タッチ操作性を向上させるためにキー(文字)を拡大したり、色を濃くしたりしているものの、ユーザがキーの入力間違いをした場合には、再度正しい入力をやり直す必要がある。 In recent years, the display resolution of a mobile terminal device with a touch function has been improved, so that characters and the like displayed on the display screen can be displayed smaller than before. For this reason, the input area assigned to a single character key is also reduced, and there is a problem that the user cannot easily perform a touch operation with a finger or the like. According to each of the above technologies, the keys (characters) have been enlarged or darkened to improve touch operability, but if the user makes a key input error, the correct input is made again. I need to start over.
本発明は、上記のような問題点を解決するためになされたものであって、タッチ操作をするユーザの利便性を向上させることが可能な入力装置、その制御方法、およびその制御プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides an input device capable of improving the convenience of a user who performs a touch operation, a control method thereof, and a control program thereof The purpose is to do.
ある実施の形態に従う入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルと、ディスプレイの表示領域における表示を制御するとともに、タッチパネルの検出結果に応答して処理を実行するプロセッサとを含む。プロセッサは、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示させる。第1の入力領域は、複数の領域を含む。プロセッサは、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定し、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示させるように構成されている。 An input device according to an embodiment controls a display in a display area having a display area, a touch panel capable of detecting a touch position with respect to the display area, and a process in response to a detection result of the touch panel. Processor. The processor displays a first object having a first input area for receiving a first input on the display area. The first input area includes a plurality of areas. The processor specifies a region to which the touch position in the first input region based on the first input belongs from a plurality of regions, and receives a second input based on the specified region It is comprised so that the 2nd object which has may be displayed on a display area.
好ましくは、プロセッサは、第1の入力領域に第1の文字を配置し、第1の文字に関連付けられた複数の第2の文字をそれぞれ複数の第2の入力領域に配置するように構成されている。 Preferably, the processor is configured to place the first character in the first input area, and to place a plurality of second characters associated with the first character in the plurality of second input areas, respectively. ing.
好ましくは、第1の入力に応答して表示された第2のオブジェクトにおいて、第2の入力領域に配置された第2の文字が第2の入力に基づいて選択されることにより、第2の文字の入力を受け付けるように構成されている。 Preferably, in the second object displayed in response to the first input, the second character arranged in the second input area is selected based on the second input, whereby the second object It is configured to accept input of characters.
好ましくは、第2のオブジェクトを表示領域に表示させるときに、第1の入力に基づく第1の入力領域におけるタッチ位置に、タッチ位置に対応する特定された領域に関連付けられた第2の文字を配置するように構成されている。 Preferably, when the second object is displayed in the display area, the second character associated with the specified area corresponding to the touch position is displayed at the touch position in the first input area based on the first input. It is configured to place.
好ましくは、プロセッサは、第2のオブジェクトを表示領域に表示させるときに、第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域に、第1の文字を拡大した文字が配置された領域を重ねて表示するように構成されている。 Preferably, when the processor displays the second object in the display area, the processor inputs the first input to the plurality of second input areas in which the plurality of second characters associated with the first character are respectively arranged. It is configured to display the area where the enlarged characters are arranged in an overlapping manner.
好ましくは、第2の入力に基づいて選択された第2の文字の入力は、タッチ位置から物体が離れることに応答して第2の文字を入力することを含む。 Preferably, the input of the second character selected based on the second input includes inputting the second character in response to the object moving away from the touch position.
好ましくは、第1および第2のオブジェクトのうち少なくとも1つのオブジェクトは、ソフトウェアキーボードを示す画像を含む。 Preferably, at least one of the first and second objects includes an image showing a software keyboard.
別の実施の形態に従うと、入力装置の制御方法が提供される。入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルとを含む。制御方法は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示するステップを含む。第1の入力領域は、複数の領域を有する。制御方法は、さらに、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定するステップと、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示するステップと含む。 According to another embodiment, a method for controlling an input device is provided. The input device includes a display having a display area and a touch panel capable of detecting a touch position with respect to the display area. The control method includes a step of displaying a first object having a first input area for receiving a first input on the display area. The first input area has a plurality of areas. The control method further includes: specifying a region to which the touch position in the first input region based on the first input belongs from a plurality of regions; and accepting the second input based on the specified region Displaying a second object having a second input area in the display area.
さらに別の実施の形態に従うと、入力装置のコンピュータに実行させる制御プログラムが提供される。入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルとを含む。制御プログラムは、コンピュータに、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示するステップを実行させる。第1の入力領域は、複数の領域を有する。制御プログラムは、さらにコンピュータに、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定するステップと、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示するステップとを実行させる。 According to yet another embodiment, a control program to be executed by a computer of an input device is provided. The input device includes a display having a display area and a touch panel capable of detecting a touch position with respect to the display area. The control program causes the computer to execute a step of displaying the first object having the first input area for receiving the first input in the display area. The first input area has a plurality of areas. The control program further receives, from the plurality of areas, a step of specifying an area to which the touch position in the first input area based on the first input belongs, and a second input based on the specified area. And displaying a second object having a second input area for displaying in the display area.
以上のように、ある局面によれば、タッチ操作をするユーザの利便性を向上させることが可能となる。 As described above, according to a certain aspect, it is possible to improve convenience for a user who performs a touch operation.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<A.外観>
まず、本実施の形態に従う入力装置10の外観について説明する。
<A. Appearance>
First, the appearance of
図1は、本実施の形態に従う入力装置10の外観を示す模式図である。以下の説明では、入力装置10がスマートフォンである場合について説明する。但し、本実施の形態に従う入力装置10は、表示部に対するタッチ入力を受け付け可能な装置であれば、種類を問わず任意の装置として実現できる。例えば、入力装置10は、携帯電話、タブレット端末装置、PDA(Personal Digital Assistance)、PC(Personal Computer)などとして実装することもできる。
FIG. 1 is a schematic diagram showing an appearance of
図1を参照して、入力装置10は、表示部としてのディスプレイ140と、ディスプレイ140に対してタッチ入力された位置(タッチ位置)を検出可能な位置検出部としてのタッチパネル130と、各種の操作を行なうためのボタン160とを含む。ディスプレイ140には、アプリケーションのコンテンツやデータなどが表示される。ディスプレイ140は、例えば、液晶ディスプレイあるいは有機EL(Electro-Luminescence)ディスプレイである。また、ディスプレイ140には透明なタッチパネル130が取り付けられており、入力装置10は、ユーザからのタッチ操作に伴う各種の指示を受け付けることが可能である。
Referring to FIG. 1, an
入力装置10は、基本的に、ユーザが片手または両手で把持して使用することが想定される。また、ユーザが入力装置10の長手方向および短手方向のいずれを把持した場合であっても、その把持方向に適した方向に画面表示を切替えるようにしてもよい。本願明細書において、画面の「上下方向」および「左右方向」という表現をする場合には、原則として、ユーザが入力装置10を把持した状態におけるユーザから見たそれぞれの方向を意味するものとする。言い換えれば、ディスプレイ140に表示される画像を基準として、「上下方向」および「左右方向」が決定される。
It is assumed that the
入力装置10のディスプレイ140には、ユーザによる直感的な操作が可能となるように1つまたは複数のオブジェクトが表示される。本願明細書において、「オブジェクト」は、ユーザの操作を受け付ける機能またはユーザへ何らかの情報を提示する機能、あるいは両者を併せた機能を発揮するための、ディスプレイ140に表示される各種の画像を意味する。以下では、「オブジェクト」が、ソフトウェアキーボード画像である場合について説明する。ユーザは、ディスプレイ140に表示されたソフトウェアキーボード画像において、所望のキーの画像をタッチすることで文字入力を行なう。
One or more objects are displayed on the
<B.ハードウェア構成>
次に、入力装置10のハードウェア構成について説明する。
<B. Hardware configuration>
Next, the hardware configuration of the
図2は、本実施の形態に従う入力装置10のハードウェア構成を示すブロック図である。
FIG. 2 is a block diagram showing a hardware configuration of
図2を参照して、入力装置10は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、タッチパネル130と、ディスプレイ140と、スピーカ150と、ボタン160と、メモリインターフェイス(I/F)170と、通信インターフェイス(I/F)180と、無線通信部190と、通信アンテナ192と、加速度センサ194とを含む。
Referring to FIG. 2, an
CPU110は、メモリ120に格納されたプログラムを読み出して実行することで、入力装置10の各部の動作を制御する。より詳細にはCPU110は、当該プログラムを実行することによって、後述する入力装置10の処理(ステップ)の各々を実現する。CPU110は、例えば、マイクロプロセッサ(Microprocessor)である。なお、当該ハードウェアは、CPU以外のFPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびその他の演算機能を有する回路などであってもよい。
The
メモリ120は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ120は、CPU110によって実行されるプログラム、データ、通信相手のアドレス帳などを記憶する。
The
タッチパネル130は、表示部としての機能を有するディスプレイ140上に設けられており、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル130は、光センサ液晶を含んでもよい。タッチパネル130は、所定時間毎に外部の物体によるタッチパネル130へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU110に入力する。すなわち、CPU110は、タッチパネル130からタッチ座標を取得する。
The
スピーカ150は、CPU110からの命令に基づいて、音声を出力する。例えば、CPU110は、音声データに基づいて、スピーカ150に音声を出力させる。
The
ボタン160は、入力装置10の表面に配置されており、ユーザからの命令を受け付けて、当該命令をCPU110に入力する。ボタン160は、例えば、表示画面を遷移させる画面遷移ボタン、確定ボタン、キャンセルボタンなどを含む。
The
メモリインターフェイス(I/F)170は、外部の記憶媒体172からデータを読み出す。すなわち、CPU110は、メモリインターフェイス170を介して外部の記憶媒体172に格納されているデータを読み出して、当該データをメモリ120に格納する。CPU110は、メモリ120からデータを読み出して、メモリインターフェイス170を介して当該データを外部の記憶媒体172に格納する。
A memory interface (I / F) 170 reads data from an
なお、記憶媒体172としては、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
The
通信インターフェイス(I/F)180は、入力装置10と外部装置との間で各種データをやり取りするための通信インターフェイスであり、アダプタやコネクタなどによって実現される。なお、通信方式としては、Bluetooth(登録商標)、無線LAN(Local Area Network)などによる無線通信であってもよいし、USBバスなどを利用した有線通信であってもよい。
A communication interface (I / F) 180 is a communication interface for exchanging various data between the
無線通信部190は、通信アンテナ192を介して通信のための信号を送受信する。すなわち、無線通信部190は、CPU110からの通信データを通信信号に変換し、その通信信号を通信アンテナ192を介して通信相手に送信したり、通信アンテナ192を介して通信相手から受信した通信信号を通信データに変換し、その通信データをCPU110に入力したりする。これにより、入力装置10は、たとえば、第3世代移動通信システム(3G)、LTE(Long Term Evolution)などの無線通信網を介してインターネットなどに接続することが可能となる。
The
加速度センサ194は、たとえば、MEMS(Micro-Electro-Mechanical Systems)の3軸加速度センサによって実現され、入力装置10の動きを検知する。加速度センサ194は、入力装置10自体の移動方向や加速度などを検知する。たとえば、CPU110は、加速度センサ194からのセンサ信号に基づいて入力装置10の姿勢を特定し、それによってディスプレイ140の表示される画面の表示方向を決定する。具体的には、CPU110は、入力装置10が縦向きである場合(ユーザが入力装置10を縦向きで把持している場合)には、ディスプレイ140に表示画面を同じ縦向きに表示するよう表示方向を決定する。入力装置10が横向きである場合には、CPU110は、ディスプレイ140に表示画面を同じ横向きに表示するよう表示方向を決定する。
The
<C.動作例>
次に、本実施の形態に従う入力装置10においてユーザが文字を入力する際の動作例について説明する。ここでは、ディスプレイ140の表示画面(表示領域)の下側付近に、オブジェクトとして、一般的なQWERTY配列のソフトウェアキーボード画像(第1のソフトウェアキーボード)が表示されている場合について説明する。
<C. Example of operation>
Next, an operation example when the user inputs characters in
概略として、入力装置10は、表示画面に第1の入力(第1の文字の入力)を受け付けるための第1の入力領域(第1の文字キー領域)を有する第1のソフトウェアキーボードを表示する。入力装置10は、ユーザから第1の文字の選択に伴うタッチ入力を受け付けると、ユーザのタッチ位置に基づいて、第1の文字に関連付けられた第2の入力(第2の文字の入力)を受け付けるための第2の入力領域(第2の文字キー領域)を有する第2のソフトウェアキーボードを表示する。そして、入力装置10は、第2のソフトウェアキーボードにおいて選択された第2の文字の入力を受け付けて、入力文字が表示される領域である文字表示領域に当該選択された第2の文字を表示する。
As an outline, the
以下、入力装置10の詳細な動作例について説明する。
図3は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その1)を説明するための図である。
Hereinafter, a detailed operation example of the
FIG. 3 is a diagram for describing a touch position (part 1) of the user on the first software keyboard provided by
図3を参照して、入力装置10がディスプレイ140の表示画面に表示する第1のソフトウェアキーボードは、QWERTY配列で複数の第1の文字がそれぞれ配置された複数の第1の入力領域(第1の文字キー領域)を有する。そして、第1の文字「G」が配置された第1の入力領域(「G」の文字キー領域)の右上付近が、ユーザによってタッチされたことがわかる。また、図3における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X9,Y5)、(X9,Y6)、(X10,Y5)、(X10,Y6)で囲まれた領域(以下、「領域A」とも称す。)に属することがわかる。このとき、入力装置10は、第1の入力領域(「G」の文字キー領域)に含まれる複数の領域から、当該タッチ位置が属する領域を特定して(タッチ位置が領域Aに属することを特定して)、当該特定された領域Aに基づいて、第2のソフトウェアキーボードを表示する。具体的には、以下の図4のように表示する。
Referring to FIG. 3, the first software keyboard displayed on the display screen of the
図4は、図3におけるタッチ位置(その1)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。 FIG. 4 is a diagram showing a display example of the second software keyboard displayed based on the touch position (part 1) in FIG.
図4を参照して、第2のソフトウェアキーボードは、第1のソフトウェアキーボードにおける第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域(第2の文字キー領域)を有する。より具体的には、例えば、第1の文字「G」に関連付けられた複数の第2の文字は、「が」、「ぎ」などの仮名文字、「ガ」、「ギ」などの片仮名文字、「G」、「g」などの英文字を含む。そして、第2のソフトウェアキーボードは、上記のような複数の第2の文字がそれぞれ配置された複数の第2の入力領域(第2の文字キー領域)を含む。また、第1の文字「G」の周辺に位置する別の第1の文字「T」、「Y」、「H」、「N」、「B」に関連付けられた複数の第2の文字は、図4に示すように、第1の文字「G」に関連付けられた複数の第2の文字(「が」、「ガ」、「G」など)の周辺に配置される。 Referring to FIG. 4, the second software keyboard includes a plurality of second input areas (second areas) in which a plurality of second characters associated with the first characters in the first software keyboard are respectively arranged. Character key area). More specifically, for example, a plurality of second characters associated with the first character “G” are kana characters such as “ga” and “gi”, and katakana characters such as “ga” and “gi”. , “G”, “g” and the like. The second software keyboard includes a plurality of second input areas (second character key areas) each having a plurality of second characters as described above. In addition, a plurality of second characters associated with other first characters “T”, “Y”, “H”, “N”, “B” located around the first character “G” are As shown in FIG. 4, it is arranged around a plurality of second characters (“GA”, “GA”, “G”, etc.) associated with the first character “G”.
入力装置10は、第2のソフトウェアキーボードを表示画面に表示させるときに、例えば、複数の第2の文字「が」、「ガ」、「G」などが配置された複数の第2の入力領域(第2の文字キー領域)によって占められる領域に、当該第2の文字に関連付けられた第1の文字「G」を拡大した淡色文字が配置された領域を重ねて表示する。これにより、ユーザは、第1の文字に関連付けられている第2の文字を視覚的に認識することができる。
When the
また、図4では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2のソフトウェアキーボードにおける第2の文字「ご」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Aに関連付けられた第2の文字「ご」を配置するように、第2のソフトウェアキーボードを表示する。
Further, FIG. 4 shows that the second character “go” on the second software keyboard is displayed at the position touched by the user on the first software keyboard. In other words, the
そして、入力装置10は、第2のソフトウェアキーボードにおいて、第2の文字が選択されることにより、第2の文字の入力を受け付ける。具体的には、ユーザが第2の文字が配置された第2の入力領域(第2の文字キー領域)を指でタッチした状態から、指を離すと、入力装置10は、第2の文字の入力を受け付けて、文字表示領域500に当該受け付けた第2の文字を表示する。
Then, the
このように、第2の文字の選択により文字が入力される(文字表示領域500に入力文字が表示される)ことから、当該第2の文字はユーザによってより正確に選択される必要がある。したがって、第2の文字の入力を受け付ける第2の入力領域(第2の文字キー領域)を、第1の入力領域(第1の文字キー領域)と比較してより大きい領域とすることで、ユーザは第2の文字をより正確に選択することが可能となる。 Thus, since a character is input by selection of a 2nd character (an input character is displayed on the character display area 500), the said 2nd character needs to be selected more correctly by the user. Therefore, by setting the second input area (second character key area) for accepting the input of the second character as a larger area compared to the first input area (first character key area), The user can select the second character more accurately.
次に、第1のソフトウェアキーボードにおけるユーザのタッチ位置に基づいて、第2のソフトウェアキーボードが表示されることについて、別の例を示して説明する。 Next, the display of the second software keyboard based on the touch position of the user on the first software keyboard will be described with another example.
図5は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その2)を説明するための図である。
FIG. 5 is a diagram for describing a touch position (part 2) of the user on the first software keyboard provided by
図5を参照すると、第1の文字「G」が配置された第1の入力領域(「G」の文字キー領域)の中央上付近が、ユーザによってタッチされたことがわかる。また、図5における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X7,Y5)、(X7,Y6)、(X8,Y5)、(X8,Y6)で囲まれた領域(以下、「領域B」とも称す。)に属することがわかる。そして、入力装置10は、第1の入力領域(「G」の文字キー領域)におけるタッチ位置が領域Bに属することを特定し、当該特定された領域Bに基づいて、第2のソフトウェアキーボードを表示する。
Referring to FIG. 5, it can be seen that the vicinity of the upper center of the first input area (character key area “G”) where the first character “G” is arranged is touched by the user. Further, referring to the enlarged view in the vicinity of the touch position of the user in FIG. 5, the touch position corresponds to the coordinates (X 7 , Y 5 ), (X 7 , Y 6 ), (X 8 , Y 5 ), (X 8 , Y 6 ) (hereinafter also referred to as “region B”). Then, the
図6は、図5におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。第2のソフトウェアキーボードの表示方式における、図4と同様な箇所については、その詳細は繰り返さない。 FIG. 6 is a diagram illustrating a display example of the second software keyboard displayed based on the touch position (part 2) in FIG. Details of the second software keyboard display method similar to those in FIG. 4 will not be repeated.
図6では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「ぐ」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Bに関連付けられた第2の文字「ぐ」を配置するように、第2のソフトウェアキーボードを表示する。したがって、第2のソフトウェアキーボードの文字キー配置は、図4に示された文字キー配置と比較して、画面の右方向にずれていることがわかる。
FIG. 6 shows that the second character “gu” is displayed at the position touched by the user on the first software keyboard. That is, the
次に、第1のソフトウェアキーボードにおけるユーザのタッチ位置に基づいて、第2のソフトウェアキーボードが表示されることについて、さらに別の例を示して説明する。 Next, the display of the second software keyboard based on the user's touch position on the first software keyboard will be described with another example.
図7は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その3)を説明するための図である。
FIG. 7 is a diagram for describing a touch position (part 3) of the user on the first software keyboard provided by
図7を参照すると、第1の文字「G」が配置された第1の入力領域の中央付近が、ユーザによってタッチされたことがわかる。また、図7における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X7,Y4)、(X7,Y5)、(X8,Y4)、(X8,Y5)で囲まれた領域(以下、「領域C」とも称す。)に属することがわかる。そして、入力装置10は、第1の入力領域(「G」の文字キー領域)におけるタッチ位置が領域Cに属することを特定し、当該特定された領域Cに基づいて、第2のソフトウェアキーボードを表示する。
Referring to FIG. 7, it can be seen that the vicinity of the center of the first input area where the first character “G” is arranged is touched by the user. In addition, referring to the enlarged view of the vicinity of the touch position of the user in FIG. 7, the touch position has coordinates (X 7 , Y 4 ), (X 7 , Y 5 ), (X 8 , Y 4 ), (X 8 , Y 5 ) (hereinafter also referred to as “region C”). Then, the
図8は、図7におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。第2のソフトウェアキーボードの表示方式における、図4と同様な箇所については、その詳細は繰り返さない。 FIG. 8 is a diagram illustrating a display example of the second software keyboard displayed based on the touch position (part 2) in FIG. Details of the second software keyboard display method similar to those in FIG. 4 will not be repeated.
図8では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「グ」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Cに関連付けられた第2の文字「グ」を配置するように、第2のソフトウェアキーボードを表示する。したがって、第2のソフトウェアキーボードの文字キー配置は、図4に示された文字キー配置と比較して、画面の上方向および右方向にずれていることがわかる。
FIG. 8 shows that the second character “G” is displayed at the position touched by the user on the first software keyboard. In other words, the
上記の動作を実現する入力装置10では、ユーザが、文字「ぐ」を入力しようとして、第1のソフトウェアキーボードにおいて文字「G」を選択したつもりであったが、誤って文字「H」が選択されてしまった場合であっても、第2のソフトウェアキーボードにおいて、ユーザが入力しようとした文字「ぐ」が表示されている。したがって、ユーザは、指等をスライド操作して文字「ぐ」を選択することで、文字「ぐ」を入力することが可能となる。
In the
また、第2のソフトウェアキーボードには、第1の文字に関連付けられた複数の第2の文字として、仮名文字、片仮名文字および英文字が表示されるため、文字種別の切り替え操作を行なうことなく、ユーザの所望の文字を入力することができる。 Further, the second software keyboard displays kana characters, katakana characters, and English characters as a plurality of second characters associated with the first character, so that the character type switching operation is not performed. A user's desired character can be input.
上記では、第1のソフトウェアキーボードにおいて文字「G」を選択した場合について説明したが、その他の文字を選択した場合にも同様に考えることができる。例えば、ユーザが第1のソフトウェアキーボードにおいて文字「T」を選択した(タッチした)場合であって、タッチ位置が、座標(X5,Y7)、(X5,Y8)、(X6,Y7)、(X6,Y8)で囲まれた領域に属するときを想定する。このとき、入力装置10は、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「タ」を配置するように第2のソフトウェアキーボードを表示する。
In the above description, the case where the character “G” is selected on the first software keyboard has been described, but the same can be considered when other characters are selected. For example, when the user selects (touches) the letter “T” on the first software keyboard, the touch position has coordinates (X 5 , Y 7 ), (X 5 , Y 8 ), (X 6 , Y 7 ), (X 6 , Y 8 ) is assumed to belong to the region enclosed. At this time, the
<D.機能構成>
次に、上述のような本実施の形態に従う入力装置10が提供する動作例を実現するための機能構成について説明する。
<D. Functional configuration>
Next, a functional configuration for realizing an operation example provided by
図9は、本実施の形態に従う入力装置10の機能ブロック図である。
図9を参照すると、入力装置10は、主たる機能構成として、位置検出部202と、表示制御部204と、領域特定部206と、文字入力部208とを含む。表示制御部204と、領域特定部206と、文字入力部208とは、基本的には、入力装置10のCPU110がメモリ120に格納されたプログラムを実行し、入力装置10の構成要素へ指令を与えることなどによって実現される。すなわち、CPU110は入力装置10の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部はハードウェアで実現されていてもよい。
FIG. 9 is a functional block diagram of
Referring to FIG. 9, the
位置検出部202は、ユーザからのタッチ入力を受け付けると、タッチ位置の検出結果を順次、表示制御部204に出力する。具体的には、位置検出部202は、ユーザによるタッチ操作の起点となるタッチ位置(検出されたタッチ位置の初期位置)を示すタッチ座標から、当該タッチ操作の終点となるタッチ座標までのタッチ座標を順次出力する。また、位置検出部202は、同時に複数点タッチされていることを検出した場合には、これらのタッチ座標を出力してもよい。位置検出部202は、主として、タッチパネル130によって実現される機能である。
When the
表示制御部204は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトをディスプレイ140に表示させる。表示制御部204は、後述する領域特定部206において特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトをディスプレイ140に表示させる。
The
より具体的には、表示制御部204は、第1の入力領域に第1の文字を配置し、第1の文字に関連付けられた複数の第2の文字をそれぞれ複数の第2の入力領域に配置するようにディスプレイ140の表示を制御する。表示制御部204は、第2のオブジェクトを表示領域に表示させるときに、第1の入力に基づく第1の入力領域におけるタッチ位置に、当該タッチ位置に対応する特定された領域に関連付けられた第2の文字を配置するようにディスプレイ140の表示を制御する。また、表示制御部204は、第2のオブジェクトをディスプレイ140に表示させるときに、第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域に、第1の文字を拡大した文字が配置された領域を重ねて表示するように制御する。
More specifically, the
領域特定部206は、第1の入力領域に含まれる予め定められた複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定する。そして、領域特定部206は、特定結果を表示制御部204に出力する。
The
文字入力部208は、第1の入力に応答して表示された第2のオブジェクトにおいて、第2の入力領域に配置された第2の文字が第2の入力に基づいて選択されることにより、第2の文字の入力を受け付ける。文字入力部208は、入力を受け付けた当該第2の文字を文字表示領域に表示するように表示制御部204に指示する。
In the second object displayed in response to the first input, the
次に、上述のような動作例を実現するために入力装置10が実行する処理手順について説明する。
Next, a processing procedure executed by the
図10は、本実施の形態に従う入力装置10が実行する文字入力処理手順を示すフローチャートである。
FIG. 10 is a flowchart showing a character input processing procedure executed by
図10を参照して、CPU110は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトをディスプレイ140に表示させる(ステップS102)。例えば、CPU110は、図3に示すような第1のソフトウェアキーボードをディスプレイ140に表示させる。
Referring to FIG. 10,
次に、CPU110は、タッチパネル130を介してユーザからタッチ入力を受け付けたか否かを判断する(ステップS104)。CPU110は、タッチ入力を受け付けていない場合(ステップS104においてNOの場合)には、ステップS104の処理を繰り返す。
Next,
これに対して、CPU110は、タッチ入力を受け付けた場合(ステップS104においてYESの場合)には、第1の入力領域に配置された第1の文字が選択されたか否かを判断する(ステップS106)。より具体的には、CPU110は、第1のソフトウェアキーボードにおいて、第1の文字が配置された第1の入力領域(第1の文字キー領域)がタッチされたか否かを判断する。
On the other hand, when the touch input is received (YES in step S104),
CPU110は、第1の文字が選択されていないと判断すると(ステップS106においてNOの場合)、ステップS104からの処理を繰り返す。これに対して、CPU110は、第1の文字が選択されたと判断すると(ステップS106においてYESの場合)、当該選択された第1の文字が配置された第1の入力領域におけるタッチ位置を特定する(ステップS108)。より具体的には、CPU110は、第1の入力領域に含まれる予め定められている複数の領域から、当該タッチ位置が属する領域を特定する。換言すると、CPU110は、当該複数の領域のうちいずれの領域に、当該タッチ位置が属するのかを判断する。
When
次に、CPU110は、当該特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示する(ステップS110)。より具体的には、CPU110は、当該特定された領域に関連付けられた第2の文字を配置するように第2のオブジェクトを表示する。例えば、図4の例に従うと、CPU110は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、特定された領域Aに関連付けられた第2の文字「ご」を配置するように、第2のソフトウェアキーボードを表示する。また、CPU110は、複数の第2の文字「が」、「ガ、「G」などが配置された複数の第2の入力領域によって占められた領域に、第1の文字「G」を拡大した淡色の文字が配置された領域を重ねて表示してもよい。
Next, CPU110 displays the 2nd object which has the 2nd input area for receiving the 2nd input based on the specified field (Step S110). More specifically,
次に、CPU110は、第2の入力領域に配置された第2の文字が選択されたか否かを判断する(ステップS112)。より具体的には、CPU110は、第2のソフトウェアキーボードにおいて、第2の文字(仮名文字、片仮名文字および英文字)が配置された第2の入力領域(第2の文字キー領域)が指等でタッチされた状態から、指等が離れたか否かを判断する。
Next, the
第2の入力領域に配置された第2の文字が選択されていない場合(ステップS112においてNOの場合)には、CPU110は、ステップS112の処理を繰り返す。これに対して、第2の入力領域に配置された第2の文字が選択された場合(ステップS112においてYESの場合)には、CPU110は、選択された第2の文字の入力を受け付けるとともに、当該受け付けた第2の文字を所定の文字表示領域に表示する(ステップS114)。そして、処理は終了する。
When the second character arranged in the second input area is not selected (NO in step S112),
<E.その他の実施の形態>
上記の実施例においては、第1のソフトウェアキーボードとしてQWERTY配列のソフトウェアキーボードを用いた場合について説明したが、これに限られず、他の配列、例えば、Dvorak配列のソフトウェアキーボードであってもよい。また、ユーザによって任意に配列が設定されたソフトウェアキーボードであってもよい。
<E. Other Embodiments>
In the above-described embodiment, the case where a software keyboard having a QWERTY layout is used as the first software keyboard has been described. However, the present invention is not limited to this. Also, a software keyboard whose arrangement is arbitrarily set by the user may be used.
また、第2のソフトウェアキーボードの文字キー配列は、上記の例に限られず、仮名文字、片仮名文字、英文字の配置が上記の実施例と異なっていてもよい。予め設定されたいくつかの配列パターンから、ユーザによって選択された配列パターンで文字キーが配置される場合であってもよい。ユーザが所望の配列パターンを登録でき、当該配列パターンで文字キーが配置される場合であってもよい。 Further, the character key arrangement of the second software keyboard is not limited to the above example, and the arrangement of kana characters, katakana characters, and English characters may be different from the above embodiment. The character keys may be arranged in an arrangement pattern selected by the user from several arrangement patterns set in advance. There may be a case where the user can register a desired arrangement pattern and character keys are arranged in the arrangement pattern.
なお、コンピュータを機能させて、上述のフローチャートで説明したような制御を実行させるプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。 It is also possible to provide a program that causes a computer to function and execute control as described in the above flowchart. Such a program is recorded on a non-temporary computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card, and the program product Can also be provided. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.
プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本実施の形態にかかるプログラムに含まれ得る。 The program may be a program module that is provided as a part of an operating system (OS) of a computer and that calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present embodiment.
また、本実施の形態にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本実施の形態にかかるプログラムに含まれ得る。 Further, the program according to the present embodiment may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. A program incorporated in such another program can also be included in the program according to the present embodiment.
<F.利点>
本実施の形態とすることで、ユーザは、第1のソフトウェアキーボードにおいて、文字の選択を間違った場合(選択しようとしたキーに隣接したキーを選択してしまった場合など)であっても、選択し間違えて入力された文字を削除して、再度正しい文字を選択するなどのやり直しの操作をすることなく、所望の文字を入力することができる。
<F. Advantage>
With this embodiment, even if the user selects the wrong character on the first software keyboard (such as when a key adjacent to the key to be selected is selected), It is possible to input a desired character without performing a redo operation such as selecting a correct character again by deleting a character that has been selected and input by mistake.
また、ユーザが第1のソフトウェアキーボードに配置された文字を選択すると、選択された文字に関連する文字(仮名文字、片仮名文字および英文字)が表示される。そのため、ユーザは、文字種別の切り替え操作を行なう必要なく、所望の文字を入力することができる。 When the user selects a character arranged on the first software keyboard, characters (kana characters, katakana characters and English characters) related to the selected characters are displayed. Therefore, the user can input a desired character without having to perform a character type switching operation.
したがって、ユーザの手間を省き、タッチ操作をするユーザの利便性を向上させることができる。 Therefore, it is possible to save the user's trouble and improve the convenience of the user who performs the touch operation.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
10 入力装置、110 CPU、120 メモリ、130 タッチパネル、140 ディスプレイ、150 スピーカ、160 ボタン、170 メモリインターフェイス、172 記憶媒体、180 通信インターフェイス、190 無線通信部、192 通信アンテナ、194 加速度センサ、202 位置検出部、204 表示制御部、206 領域特定部、208 文字入力部。 10 input device, 110 CPU, 120 memory, 130 touch panel, 140 display, 150 speaker, 160 button, 170 memory interface, 172 storage medium, 180 communication interface, 190 wireless communication unit, 192 communication antenna, 194 acceleration sensor, 202 position detection Part, 204 display control part, 206 area specifying part, 208 character input part.
Claims (9)
前記表示領域に対するタッチ位置を検出可能なタッチパネルと、
前記ディスプレイの前記表示領域における表示を制御するとともに、前記タッチパネルの検出結果に応答して処理を実行するプロセッサとを備え、
前記プロセッサは、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示させ、
前記第1の入力領域は、複数の領域を含み、
前記プロセッサは、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定し、
前記特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示させるように構成されている、入力装置。 A display having a display area;
A touch panel capable of detecting a touch position with respect to the display area;
A processor for controlling display in the display area of the display and executing processing in response to a detection result of the touch panel,
The processor displays a first object having a first input area for receiving a first input in the display area,
The first input area includes a plurality of areas;
The processor is
From the plurality of regions, specify a region to which a touch position in the first input region based on the first input belongs,
An input device configured to display, in the display area, a second object having a second input area for receiving a second input based on the specified area.
前記入力装置は、表示領域を有するディスプレイと、前記表示領域に対するタッチ位置を検出可能なタッチパネルとを含み、
前記制御方法は、
第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示するステップを含み、前記第1の入力領域は、複数の領域を有し、
前記制御方法は、さらに、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定するステップと、
前記特定された前記領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示するステップと含む、入力装置の制御方法。 An input device control method comprising:
The input device includes a display having a display area, and a touch panel capable of detecting a touch position with respect to the display area,
The control method is:
Displaying a first object having a first input area for accepting a first input in the display area, wherein the first input area has a plurality of areas;
The control method further includes:
Identifying a region to which a touch position in the first input region based on the first input belongs from the plurality of regions;
And displaying a second object having a second input area for receiving a second input on the display area based on the identified area.
前記入力装置は、表示領域を有するディスプレイと、前記表示領域に対するタッチ位置を検出可能なタッチパネルとを含み、
前記制御プログラムは、前記コンピュータに、
第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示するステップを実行させ、前記第1の入力領域は、複数の領域を有し、
前記制御プログラムは、さらに前記コンピュータに、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定するステップと、
前記特定された前記領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示するステップとを実行させる、入力装置の制御プログラム。 A control program to be executed by a computer of an input device,
The input device includes a display having a display area, and a touch panel capable of detecting a touch position with respect to the display area,
The control program is stored in the computer.
Displaying a first object having a first input area for receiving a first input on the display area, wherein the first input area has a plurality of areas;
The control program is further stored in the computer.
Identifying a region to which a touch position in the first input region based on the first input belongs from the plurality of regions;
A control program for an input device, which executes a step of displaying, in the display area, a second object having a second input area for receiving a second input based on the specified area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012114004A JP2013242630A (en) | 2012-05-18 | 2012-05-18 | Input device, control method thereof, and control program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012114004A JP2013242630A (en) | 2012-05-18 | 2012-05-18 | Input device, control method thereof, and control program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013242630A true JP2013242630A (en) | 2013-12-05 |
Family
ID=49843476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012114004A Pending JP2013242630A (en) | 2012-05-18 | 2012-05-18 | Input device, control method thereof, and control program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013242630A (en) |
-
2012
- 2012-05-18 JP JP2012114004A patent/JP2013242630A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101449781B1 (en) | Apparatus and method for inputing characters in terminal | |
US9483172B2 (en) | Information processing device, information processing method, and computer-readable recording medium which records program | |
JP4741983B2 (en) | Electronic device and method of operating electronic device | |
JP5599741B2 (en) | Electronic device, content display method, and content display program | |
JP2013238935A (en) | Input device, input device controlling method, controlling program, and recording medium | |
US20140351725A1 (en) | Method and electronic device for operating object | |
KR20140073245A (en) | Method for inputting back surface and an electronic device thereof | |
US10572148B2 (en) | Electronic device for displaying keypad and keypad displaying method thereof | |
JP2014029686A (en) | Information processing device, control method for information processing device, control program, and computer-readable recording medium | |
US20160170636A1 (en) | Method and apparatus for inputting information by using on-screen keyboard | |
KR102466990B1 (en) | Apparatus and method for displaying a muliple screen in electronic device | |
US9274632B2 (en) | Portable electronic device, touch operation processing method, and program | |
US20220276756A1 (en) | Display device, display method, and program | |
JP2014016743A (en) | Information processing device, information processing device control method and information processing device control program | |
KR20160004590A (en) | Method for display window in electronic device and the device thereof | |
CN106201301B (en) | Mobile terminal and control method thereof | |
US20150123916A1 (en) | Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device | |
KR20090049153A (en) | Terminal with touchscreen and method for inputting letter | |
WO2013047023A1 (en) | Display apparatus, display method, and program | |
US20170010791A1 (en) | Information processing apparatus, non-transitory computer readable storage medium, and information display method | |
JP6800714B2 (en) | Electronic equipment and display control method | |
JP5907270B2 (en) | Electronic device, display control method and program | |
JP6429692B2 (en) | Electronics | |
JP2013182342A (en) | Input device, method and program of controlling input device, and recording medium | |
JP5855481B2 (en) | Information processing apparatus, control method thereof, and control program thereof |