JP2013242630A - Input device, control method thereof, and control program thereof - Google Patents

Input device, control method thereof, and control program thereof Download PDF

Info

Publication number
JP2013242630A
JP2013242630A JP2012114004A JP2012114004A JP2013242630A JP 2013242630 A JP2013242630 A JP 2013242630A JP 2012114004 A JP2012114004 A JP 2012114004A JP 2012114004 A JP2012114004 A JP 2012114004A JP 2013242630 A JP2013242630 A JP 2013242630A
Authority
JP
Japan
Prior art keywords
input
area
character
display
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012114004A
Other languages
Japanese (ja)
Inventor
Takehiro Tsuda
雄大 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012114004A priority Critical patent/JP2013242630A/en
Publication of JP2013242630A publication Critical patent/JP2013242630A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an input device capable of improving convenience for a user who performs a touch operation.SOLUTION: An input device includes: a display having a display area; a touch panel capable of detecting a touch position with respect to the display area; and a processor for controlling displaying in the display area of the display and also performing processing in response to the detection result of the touch panel. The processor allows a first object having a first input area for receiving a first input to be displayed in the display area. The first input area includes multiple areas. The processor identifies an area to which a touch position belongs in the first input area on the basis of the first input among multiple areas, and allows a second object having a second input area for receiving a second input to be displayed in the display area on the basis of the identified area.

Description

本発明は、タッチ入力を受け付け可能な入力装置、その制御方法、およびその制御プログラムに関する。   The present invention relates to an input device that can accept a touch input, a control method thereof, and a control program thereof.

タッチ機能付きの表示画面を有する携帯端末装置は、直感的な操作で情報の入出力を行なうことができるため、近年注目されている。タッチ機能付きの表示画面には、透明なタッチパネルが設けられており、ユーザが表示画面に表示された画像などを指やペンで触れることで情報を入力したりすることができる。例えば、携帯端末装置の表示画面に、文字等の入力手段としてのキーボードをソフトウェアによって表示するソフトウェアキーボードを適用した技術がある。   A mobile terminal device having a display screen with a touch function has been attracting attention in recent years because it can input and output information by an intuitive operation. A display screen with a touch function is provided with a transparent touch panel, and a user can input information by touching an image displayed on the display screen with a finger or a pen. For example, there is a technique in which a software keyboard for displaying a keyboard as a means for inputting characters or the like with software is applied to a display screen of a mobile terminal device.

例えば、特開2011−192215号公報(特許文献1)には、文字入力装置が開示されている。文字入力装置は、画像を表示する表示部と、表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、表示部にソフトウェアキーボードを表示させ、入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行う制御部とを含む。   For example, Japanese Patent Laying-Open No. 2011-192215 (Patent Document 1) discloses a character input device. The character input device includes a display unit that displays an image, an input detection unit that is arranged so as to overlap the display unit, detects an operator's touch input, and displays a software keyboard on the display unit. And a control unit that performs enlarged key display for enlarging and displaying at least one image of one key image and its surrounding keys.

特開2011−154573号公報(特許文献2)には、携帯電子機器が開示されている。携帯電子機器は、タッチパネルを用いたソフトキー入力において、文字種や、英単語入力のように先行する入力文字によって後続の操作対象キーが限定される場合に、選択可能性のある少なくとも1つのキーを拡大表示し、それ以外のキーを縮小表示する。   Japanese Unexamined Patent Application Publication No. 2011-154573 (Patent Document 2) discloses a portable electronic device. In the case of soft key input using a touch panel, a portable electronic device selects at least one key that can be selected when a subsequent operation target key is limited by a character type or an input character that precedes like an English word input. Zooms in and zooms out other keys.

特開2010−165146号公報(特許文献3)には、携帯情報端末装置が開示されている。携帯情報端末装置は、ローマ字入力による日本語入力モードが選択されたときに、英文字キーからなるソフトウェアキーボードを表示部に表示し、キーの入力を受け付ける。そして、携帯情報端末装置は、キー入力規則テーブルを読み込むと、キー入力規則テーブルに次入力候補キーが存在するか否かを判定する。携帯情報端末装置は、次入力候補キーが存在する場合には、当該次入力候補キーの入力を受け付け可能に設定すると共に、次入力候補キー以外のキーの入力を受け付けないように設定し、表示部に次入力候補キーを表示する。   Japanese Unexamined Patent Application Publication No. 2010-165146 (Patent Document 3) discloses a portable information terminal device. The portable information terminal device displays a software keyboard composed of English character keys on the display unit when a Japanese input mode using Roman characters is selected, and accepts key input. Then, when the portable information terminal device reads the key input rule table, it determines whether or not a next input candidate key exists in the key input rule table. When there is a next input candidate key, the portable information terminal device is set so as to accept the input of the next input candidate key, and set so as not to accept the input of any key other than the next input candidate key The next input candidate key is displayed in the section.

特開2008−257551号公報(特許文献4)には、情報処理装置が開示されている。情報処理装置は、淡い色を用いて文字を配列させたソフトウェアキーボードを表示画面に表示して、その上に文字入力欄を表示する。情報処理装置は、ソフトウェアキーボード内の各文字に対して表示画面上からのタッチ状態に応じて文字選択を検出し、タッチ状態の間、選択文字を濃い色を用いて拡大表示する。情報処理装置は、非タッチ状態への移行に伴って選択文字を文字入力の状態として判断し、文字入力欄に表示する。   Japanese Patent Laying-Open No. 2008-257551 (Patent Document 4) discloses an information processing apparatus. The information processing apparatus displays a software keyboard in which characters are arranged using a light color on a display screen, and displays a character input field thereon. The information processing apparatus detects character selection for each character in the software keyboard according to the touch state from the display screen, and enlarges and displays the selected character using a dark color during the touch state. The information processing apparatus determines the selected character as a character input state in accordance with the transition to the non-touch state, and displays it in the character input field.

特開2004−38407号公報(特許文献5)には、文字入力装置が開示されている。文字入力装置において、仮想キーボード出力手段は、タッチスクリーンなどのディスプレイ上に、文字入力用の複数の仮想キーを含む仮想キーボード等を表示する。仮確定手段は、仮想キーボードに接触する操作者の選択行為を受けて、接触した座標位置に基づいて選択候補となる文字を認識する。拡大出力手段は、認識された文字にかかる拡大画像をディスプレイに出力する。確定手段は、仮想キーボードに非接触となる操作者の選択行為を受けて、直前に認識した文字を入力文字として確定する。   Japanese Patent Laying-Open No. 2004-38407 (Patent Document 5) discloses a character input device. In the character input device, the virtual keyboard output means displays a virtual keyboard including a plurality of virtual keys for character input on a display such as a touch screen. The provisional confirmation means receives a selection act of an operator who touches the virtual keyboard and recognizes a character as a selection candidate based on the coordinate position touched. The enlarged output means outputs an enlarged image relating to the recognized character to the display. The confirming means confirms the character recognized immediately before as an input character in response to the selection action of the operator who makes no contact with the virtual keyboard.

特開2011−192215号公報JP 2011-192215 A 特開2011−154573号公報JP 2011-154573 A 特開2010−165146号公報JP 2010-165146 A 特開2008−257551号公報JP 2008-257551A 特開2004−38407号公報JP 2004-38407 A

近年、タッチ機能付きの携帯端末装置の表示解像度が向上したことにより、表示画面に表示される文字等を従来よりも小さく表示することが可能となっている。そのため、一つの文字のキーに割り当てられる入力領域も小さくなり、ユーザは指等でタッチ操作がしにくいという問題がある。上記の各技術によると、タッチ操作性を向上させるためにキー(文字)を拡大したり、色を濃くしたりしているものの、ユーザがキーの入力間違いをした場合には、再度正しい入力をやり直す必要がある。   In recent years, the display resolution of a mobile terminal device with a touch function has been improved, so that characters and the like displayed on the display screen can be displayed smaller than before. For this reason, the input area assigned to a single character key is also reduced, and there is a problem that the user cannot easily perform a touch operation with a finger or the like. According to each of the above technologies, the keys (characters) have been enlarged or darkened to improve touch operability, but if the user makes a key input error, the correct input is made again. I need to start over.

本発明は、上記のような問題点を解決するためになされたものであって、タッチ操作をするユーザの利便性を向上させることが可能な入力装置、その制御方法、およびその制御プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an input device capable of improving the convenience of a user who performs a touch operation, a control method thereof, and a control program thereof The purpose is to do.

ある実施の形態に従う入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルと、ディスプレイの表示領域における表示を制御するとともに、タッチパネルの検出結果に応答して処理を実行するプロセッサとを含む。プロセッサは、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示させる。第1の入力領域は、複数の領域を含む。プロセッサは、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定し、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示させるように構成されている。   An input device according to an embodiment controls a display in a display area having a display area, a touch panel capable of detecting a touch position with respect to the display area, and a process in response to a detection result of the touch panel. Processor. The processor displays a first object having a first input area for receiving a first input on the display area. The first input area includes a plurality of areas. The processor specifies a region to which the touch position in the first input region based on the first input belongs from a plurality of regions, and receives a second input based on the specified region It is comprised so that the 2nd object which has may be displayed on a display area.

好ましくは、プロセッサは、第1の入力領域に第1の文字を配置し、第1の文字に関連付けられた複数の第2の文字をそれぞれ複数の第2の入力領域に配置するように構成されている。   Preferably, the processor is configured to place the first character in the first input area, and to place a plurality of second characters associated with the first character in the plurality of second input areas, respectively. ing.

好ましくは、第1の入力に応答して表示された第2のオブジェクトにおいて、第2の入力領域に配置された第2の文字が第2の入力に基づいて選択されることにより、第2の文字の入力を受け付けるように構成されている。   Preferably, in the second object displayed in response to the first input, the second character arranged in the second input area is selected based on the second input, whereby the second object It is configured to accept input of characters.

好ましくは、第2のオブジェクトを表示領域に表示させるときに、第1の入力に基づく第1の入力領域におけるタッチ位置に、タッチ位置に対応する特定された領域に関連付けられた第2の文字を配置するように構成されている。   Preferably, when the second object is displayed in the display area, the second character associated with the specified area corresponding to the touch position is displayed at the touch position in the first input area based on the first input. It is configured to place.

好ましくは、プロセッサは、第2のオブジェクトを表示領域に表示させるときに、第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域に、第1の文字を拡大した文字が配置された領域を重ねて表示するように構成されている。   Preferably, when the processor displays the second object in the display area, the processor inputs the first input to the plurality of second input areas in which the plurality of second characters associated with the first character are respectively arranged. It is configured to display the area where the enlarged characters are arranged in an overlapping manner.

好ましくは、第2の入力に基づいて選択された第2の文字の入力は、タッチ位置から物体が離れることに応答して第2の文字を入力することを含む。   Preferably, the input of the second character selected based on the second input includes inputting the second character in response to the object moving away from the touch position.

好ましくは、第1および第2のオブジェクトのうち少なくとも1つのオブジェクトは、ソフトウェアキーボードを示す画像を含む。   Preferably, at least one of the first and second objects includes an image showing a software keyboard.

別の実施の形態に従うと、入力装置の制御方法が提供される。入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルとを含む。制御方法は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示するステップを含む。第1の入力領域は、複数の領域を有する。制御方法は、さらに、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定するステップと、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示するステップと含む。   According to another embodiment, a method for controlling an input device is provided. The input device includes a display having a display area and a touch panel capable of detecting a touch position with respect to the display area. The control method includes a step of displaying a first object having a first input area for receiving a first input on the display area. The first input area has a plurality of areas. The control method further includes: specifying a region to which the touch position in the first input region based on the first input belongs from a plurality of regions; and accepting the second input based on the specified region Displaying a second object having a second input area in the display area.

さらに別の実施の形態に従うと、入力装置のコンピュータに実行させる制御プログラムが提供される。入力装置は、表示領域を有するディスプレイと、表示領域に対するタッチ位置を検出可能なタッチパネルとを含む。制御プログラムは、コンピュータに、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを表示領域に表示するステップを実行させる。第1の入力領域は、複数の領域を有する。制御プログラムは、さらにコンピュータに、複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定するステップと、特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示領域に表示するステップとを実行させる。   According to yet another embodiment, a control program to be executed by a computer of an input device is provided. The input device includes a display having a display area and a touch panel capable of detecting a touch position with respect to the display area. The control program causes the computer to execute a step of displaying the first object having the first input area for receiving the first input in the display area. The first input area has a plurality of areas. The control program further receives, from the plurality of areas, a step of specifying an area to which the touch position in the first input area based on the first input belongs, and a second input based on the specified area. And displaying a second object having a second input area for displaying in the display area.

以上のように、ある局面によれば、タッチ操作をするユーザの利便性を向上させることが可能となる。   As described above, according to a certain aspect, it is possible to improve convenience for a user who performs a touch operation.

本実施の形態に従う入力装置の外観を示す模式図である。It is a schematic diagram which shows the external appearance of the input device according to this Embodiment. 本実施の形態に従う入力装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the input device according to this Embodiment. 本実施の形態に従う入力装置が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その1)を説明するための図である。It is a figure for demonstrating the user's touch position (the 1) in the 1st software keyboard which the input device according to this Embodiment provides. 図3におけるタッチ位置(その1)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。It is a figure which shows the example of a display of the 2nd software keyboard displayed based on the touch position (the 1) in FIG. 本実施の形態に従う入力装置が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その2)を説明するための図である。It is a figure for demonstrating a user's touch position (the 2) in the 1st software keyboard which the input device according to this Embodiment provides. 図5におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。It is a figure which shows the example of a display of the 2nd software keyboard displayed based on the touch position (the 2) in FIG. 本実施の形態に従う入力装置が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その3)を説明するための図である。It is a figure for demonstrating the user's touch position (the 3) in the 1st software keyboard which the input device according to this Embodiment provides. 図7におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。It is a figure which shows the example of a display of the 2nd software keyboard displayed based on the touch position (the 2) in FIG. 本実施の形態に従う入力装置の機能ブロック図である。It is a functional block diagram of the input device according to this Embodiment. 本実施の形態に従う入力装置が実行する文字入力処理手順を示すフローチャートである。It is a flowchart which shows the character input processing procedure which the input device according to this Embodiment performs.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<A.外観>
まず、本実施の形態に従う入力装置10の外観について説明する。
<A. Appearance>
First, the appearance of input device 10 according to the present embodiment will be described.

図1は、本実施の形態に従う入力装置10の外観を示す模式図である。以下の説明では、入力装置10がスマートフォンである場合について説明する。但し、本実施の形態に従う入力装置10は、表示部に対するタッチ入力を受け付け可能な装置であれば、種類を問わず任意の装置として実現できる。例えば、入力装置10は、携帯電話、タブレット端末装置、PDA(Personal Digital Assistance)、PC(Personal Computer)などとして実装することもできる。   FIG. 1 is a schematic diagram showing an appearance of input device 10 according to the present embodiment. In the following description, a case where the input device 10 is a smartphone will be described. However, the input device 10 according to the present embodiment can be realized as an arbitrary device as long as it is a device that can accept a touch input to the display unit. For example, the input device 10 can be implemented as a mobile phone, a tablet terminal device, a PDA (Personal Digital Assistance), a PC (Personal Computer), or the like.

図1を参照して、入力装置10は、表示部としてのディスプレイ140と、ディスプレイ140に対してタッチ入力された位置(タッチ位置)を検出可能な位置検出部としてのタッチパネル130と、各種の操作を行なうためのボタン160とを含む。ディスプレイ140には、アプリケーションのコンテンツやデータなどが表示される。ディスプレイ140は、例えば、液晶ディスプレイあるいは有機EL(Electro-Luminescence)ディスプレイである。また、ディスプレイ140には透明なタッチパネル130が取り付けられており、入力装置10は、ユーザからのタッチ操作に伴う各種の指示を受け付けることが可能である。   Referring to FIG. 1, an input device 10 includes a display 140 as a display unit, a touch panel 130 as a position detection unit capable of detecting a position (touch position) touch-inputted to the display 140, and various operations. And a button 160 for performing the operation. The display 140 displays application content, data, and the like. The display 140 is, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display. In addition, a transparent touch panel 130 is attached to the display 140, and the input device 10 can accept various instructions accompanying a touch operation from the user.

入力装置10は、基本的に、ユーザが片手または両手で把持して使用することが想定される。また、ユーザが入力装置10の長手方向および短手方向のいずれを把持した場合であっても、その把持方向に適した方向に画面表示を切替えるようにしてもよい。本願明細書において、画面の「上下方向」および「左右方向」という表現をする場合には、原則として、ユーザが入力装置10を把持した状態におけるユーザから見たそれぞれの方向を意味するものとする。言い換えれば、ディスプレイ140に表示される画像を基準として、「上下方向」および「左右方向」が決定される。   It is assumed that the input device 10 is basically used by a user holding with one hand or both hands. Further, even when the user holds either the longitudinal direction or the short direction of the input device 10, the screen display may be switched in a direction suitable for the holding direction. In the present specification, when the expressions “vertical direction” and “horizontal direction” of the screen are used, in principle, the respective directions viewed from the user when the user is holding the input device 10 are meant. . In other words, the “vertical direction” and “horizontal direction” are determined based on the image displayed on the display 140.

入力装置10のディスプレイ140には、ユーザによる直感的な操作が可能となるように1つまたは複数のオブジェクトが表示される。本願明細書において、「オブジェクト」は、ユーザの操作を受け付ける機能またはユーザへ何らかの情報を提示する機能、あるいは両者を併せた機能を発揮するための、ディスプレイ140に表示される各種の画像を意味する。以下では、「オブジェクト」が、ソフトウェアキーボード画像である場合について説明する。ユーザは、ディスプレイ140に表示されたソフトウェアキーボード画像において、所望のキーの画像をタッチすることで文字入力を行なう。   One or more objects are displayed on the display 140 of the input device 10 so that the user can perform intuitive operations. In the present specification, “object” means various images displayed on the display 140 for performing a function of accepting a user's operation, a function of presenting some information to the user, or a function of a combination of both. . Hereinafter, a case where the “object” is a software keyboard image will be described. The user performs character input by touching a desired key image on the software keyboard image displayed on the display 140.

<B.ハードウェア構成>
次に、入力装置10のハードウェア構成について説明する。
<B. Hardware configuration>
Next, the hardware configuration of the input device 10 will be described.

図2は、本実施の形態に従う入力装置10のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram showing a hardware configuration of input device 10 according to the present embodiment.

図2を参照して、入力装置10は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、タッチパネル130と、ディスプレイ140と、スピーカ150と、ボタン160と、メモリインターフェイス(I/F)170と、通信インターフェイス(I/F)180と、無線通信部190と、通信アンテナ192と、加速度センサ194とを含む。   Referring to FIG. 2, an input device 10 includes, as main components, a CPU (Central Processing Unit) 110, a memory 120, a touch panel 130, a display 140, a speaker 150, a button 160, a memory interface (I). / F) 170, a communication interface (I / F) 180, a wireless communication unit 190, a communication antenna 192, and an acceleration sensor 194.

CPU110は、メモリ120に格納されたプログラムを読み出して実行することで、入力装置10の各部の動作を制御する。より詳細にはCPU110は、当該プログラムを実行することによって、後述する入力装置10の処理(ステップ)の各々を実現する。CPU110は、例えば、マイクロプロセッサ(Microprocessor)である。なお、当該ハードウェアは、CPU以外のFPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)およびその他の演算機能を有する回路などであってもよい。   The CPU 110 controls the operation of each unit of the input device 10 by reading and executing a program stored in the memory 120. More specifically, the CPU 110 realizes each process (step) of the input device 10 to be described later by executing the program. The CPU 110 is, for example, a microprocessor. The hardware may be an FPGA (Field Programmable Gate Array) other than the CPU, an ASIC (Application Specific Integrated Circuit), a circuit having other arithmetic functions, or the like.

メモリ120は、RAM(Random Access Memory)、ROM(Read-Only Memory)、ハードディスクなどによって実現される。メモリ120は、CPU110によって実行されるプログラム、データ、通信相手のアドレス帳などを記憶する。   The memory 120 is realized by a RAM (Random Access Memory), a ROM (Read-Only Memory), a hard disk, or the like. The memory 120 stores a program executed by the CPU 110, data, an address book of communication partners, and the like.

タッチパネル130は、表示部としての機能を有するディスプレイ140上に設けられており、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などのいずれのタイプであってもよい。タッチパネル130は、光センサ液晶を含んでもよい。タッチパネル130は、所定時間毎に外部の物体によるタッチパネル130へのタッチ操作を検知して、タッチ座標(タッチ位置)をCPU110に入力する。すなわち、CPU110は、タッチパネル130からタッチ座標を取得する。   The touch panel 130 is provided on a display 140 having a function as a display unit, and may be any type such as a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. . The touch panel 130 may include an optical sensor liquid crystal. The touch panel 130 detects a touch operation on the touch panel 130 by an external object every predetermined time, and inputs touch coordinates (touch position) to the CPU 110. That is, the CPU 110 acquires touch coordinates from the touch panel 130.

スピーカ150は、CPU110からの命令に基づいて、音声を出力する。例えば、CPU110は、音声データに基づいて、スピーカ150に音声を出力させる。   The speaker 150 outputs sound based on a command from the CPU 110. For example, the CPU 110 causes the speaker 150 to output sound based on the sound data.

ボタン160は、入力装置10の表面に配置されており、ユーザからの命令を受け付けて、当該命令をCPU110に入力する。ボタン160は、例えば、表示画面を遷移させる画面遷移ボタン、確定ボタン、キャンセルボタンなどを含む。   The button 160 is disposed on the surface of the input device 10, receives a command from the user, and inputs the command to the CPU 110. The button 160 includes, for example, a screen transition button for changing the display screen, a confirmation button, a cancel button, and the like.

メモリインターフェイス(I/F)170は、外部の記憶媒体172からデータを読み出す。すなわち、CPU110は、メモリインターフェイス170を介して外部の記憶媒体172に格納されているデータを読み出して、当該データをメモリ120に格納する。CPU110は、メモリ120からデータを読み出して、メモリインターフェイス170を介して当該データを外部の記憶媒体172に格納する。   A memory interface (I / F) 170 reads data from an external storage medium 172. That is, the CPU 110 reads data stored in the external storage medium 172 via the memory interface 170 and stores the data in the memory 120. CPU 110 reads data from memory 120 and stores the data in external storage medium 172 via memory interface 170.

なお、記憶媒体172としては、CD(Compact Disc)、DVD(Digital Versatile Disk)、BD(Blu-ray Disc)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   The storage medium 172 includes a CD (Compact Disc), a DVD (Digital Versatile Disk), a BD (Blu-ray Disc), a USB (Universal Serial Bus) memory, a memory card, an FD (Flexible Disk), a hard disk, and a magnetic tape. , Cassette tapes, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) cards (excluding memory cards), optical cards, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory), etc., non-volatile And a medium for storing the program.

通信インターフェイス(I/F)180は、入力装置10と外部装置との間で各種データをやり取りするための通信インターフェイスであり、アダプタやコネクタなどによって実現される。なお、通信方式としては、Bluetooth(登録商標)、無線LAN(Local Area Network)などによる無線通信であってもよいし、USBバスなどを利用した有線通信であってもよい。   A communication interface (I / F) 180 is a communication interface for exchanging various data between the input device 10 and an external device, and is realized by an adapter, a connector, or the like. Note that the communication method may be wireless communication using Bluetooth (registered trademark), wireless LAN (Local Area Network), or the like, or wired communication using a USB bus or the like.

無線通信部190は、通信アンテナ192を介して通信のための信号を送受信する。すなわち、無線通信部190は、CPU110からの通信データを通信信号に変換し、その通信信号を通信アンテナ192を介して通信相手に送信したり、通信アンテナ192を介して通信相手から受信した通信信号を通信データに変換し、その通信データをCPU110に入力したりする。これにより、入力装置10は、たとえば、第3世代移動通信システム(3G)、LTE(Long Term Evolution)などの無線通信網を介してインターネットなどに接続することが可能となる。   The wireless communication unit 190 transmits and receives signals for communication via the communication antenna 192. That is, the wireless communication unit 190 converts communication data from the CPU 110 into a communication signal, transmits the communication signal to the communication partner via the communication antenna 192, or receives a communication signal received from the communication partner via the communication antenna 192. Is converted into communication data, and the communication data is input to the CPU 110. Thereby, the input device 10 can be connected to the Internet or the like via a wireless communication network such as a third generation mobile communication system (3G) or LTE (Long Term Evolution).

加速度センサ194は、たとえば、MEMS(Micro-Electro-Mechanical Systems)の3軸加速度センサによって実現され、入力装置10の動きを検知する。加速度センサ194は、入力装置10自体の移動方向や加速度などを検知する。たとえば、CPU110は、加速度センサ194からのセンサ信号に基づいて入力装置10の姿勢を特定し、それによってディスプレイ140の表示される画面の表示方向を決定する。具体的には、CPU110は、入力装置10が縦向きである場合(ユーザが入力装置10を縦向きで把持している場合)には、ディスプレイ140に表示画面を同じ縦向きに表示するよう表示方向を決定する。入力装置10が横向きである場合には、CPU110は、ディスプレイ140に表示画面を同じ横向きに表示するよう表示方向を決定する。   The acceleration sensor 194 is realized by, for example, a three-axis acceleration sensor of MEMS (Micro-Electro-Mechanical Systems), and detects the movement of the input device 10. The acceleration sensor 194 detects the moving direction and acceleration of the input device 10 itself. For example, the CPU 110 specifies the attitude of the input device 10 based on the sensor signal from the acceleration sensor 194, and thereby determines the display direction of the screen displayed on the display 140. Specifically, when the input device 10 is in the portrait orientation (when the user is holding the input device 10 in the portrait orientation), the CPU 110 displays the display screen on the display 140 so as to display the same portrait orientation. Determine the direction. When the input device 10 is in the landscape orientation, the CPU 110 determines the display direction so that the display screen is displayed on the display 140 in the same landscape orientation.

<C.動作例>
次に、本実施の形態に従う入力装置10においてユーザが文字を入力する際の動作例について説明する。ここでは、ディスプレイ140の表示画面(表示領域)の下側付近に、オブジェクトとして、一般的なQWERTY配列のソフトウェアキーボード画像(第1のソフトウェアキーボード)が表示されている場合について説明する。
<C. Example of operation>
Next, an operation example when the user inputs characters in input device 10 according to the present embodiment will be described. Here, a case where a software keyboard image (first software keyboard) having a general QWERTY layout is displayed as an object near the lower side of the display screen (display area) of the display 140 will be described.

概略として、入力装置10は、表示画面に第1の入力(第1の文字の入力)を受け付けるための第1の入力領域(第1の文字キー領域)を有する第1のソフトウェアキーボードを表示する。入力装置10は、ユーザから第1の文字の選択に伴うタッチ入力を受け付けると、ユーザのタッチ位置に基づいて、第1の文字に関連付けられた第2の入力(第2の文字の入力)を受け付けるための第2の入力領域(第2の文字キー領域)を有する第2のソフトウェアキーボードを表示する。そして、入力装置10は、第2のソフトウェアキーボードにおいて選択された第2の文字の入力を受け付けて、入力文字が表示される領域である文字表示領域に当該選択された第2の文字を表示する。   As an outline, the input device 10 displays a first software keyboard having a first input area (first character key area) for receiving a first input (input of a first character) on the display screen. . When the input device 10 receives a touch input associated with the selection of the first character from the user, the input device 10 performs a second input (second character input) associated with the first character based on the touch position of the user. A second software keyboard having a second input area (second character key area) for receiving is displayed. Then, the input device 10 receives an input of the second character selected on the second software keyboard, and displays the selected second character in a character display area that is an area where the input character is displayed. .

以下、入力装置10の詳細な動作例について説明する。
図3は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その1)を説明するための図である。
Hereinafter, a detailed operation example of the input device 10 will be described.
FIG. 3 is a diagram for describing a touch position (part 1) of the user on the first software keyboard provided by input device 10 according to the present embodiment.

図3を参照して、入力装置10がディスプレイ140の表示画面に表示する第1のソフトウェアキーボードは、QWERTY配列で複数の第1の文字がそれぞれ配置された複数の第1の入力領域(第1の文字キー領域)を有する。そして、第1の文字「G」が配置された第1の入力領域(「G」の文字キー領域)の右上付近が、ユーザによってタッチされたことがわかる。また、図3における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X,Y)、(X,Y)、(X10,Y)、(X10,Y)で囲まれた領域(以下、「領域A」とも称す。)に属することがわかる。このとき、入力装置10は、第1の入力領域(「G」の文字キー領域)に含まれる複数の領域から、当該タッチ位置が属する領域を特定して(タッチ位置が領域Aに属することを特定して)、当該特定された領域Aに基づいて、第2のソフトウェアキーボードを表示する。具体的には、以下の図4のように表示する。 Referring to FIG. 3, the first software keyboard displayed on the display screen of the display 140 by the input device 10 includes a plurality of first input areas (first areas) each having a plurality of first characters arranged in a QWERTY layout. Character key area). Then, it can be seen that the vicinity of the upper right of the first input area (character key area of “G”) where the first character “G” is arranged is touched by the user. Further, referring to the enlarged view near the touch position of the user in FIG. 3, the touch position corresponds to the coordinates (X 9 , Y 5 ), (X 9 , Y 6 ), (X 10 , Y 5 ), (X 10 , Y 6 ) (hereinafter also referred to as “region A”). At this time, the input device 10 identifies an area to which the touch position belongs from a plurality of areas included in the first input area (character key area “G”) (the touch position belongs to the area A). Based on the identified area A, the second software keyboard is displayed. Specifically, it is displayed as shown in FIG.

図4は、図3におけるタッチ位置(その1)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。   FIG. 4 is a diagram showing a display example of the second software keyboard displayed based on the touch position (part 1) in FIG.

図4を参照して、第2のソフトウェアキーボードは、第1のソフトウェアキーボードにおける第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域(第2の文字キー領域)を有する。より具体的には、例えば、第1の文字「G」に関連付けられた複数の第2の文字は、「が」、「ぎ」などの仮名文字、「ガ」、「ギ」などの片仮名文字、「G」、「g」などの英文字を含む。そして、第2のソフトウェアキーボードは、上記のような複数の第2の文字がそれぞれ配置された複数の第2の入力領域(第2の文字キー領域)を含む。また、第1の文字「G」の周辺に位置する別の第1の文字「T」、「Y」、「H」、「N」、「B」に関連付けられた複数の第2の文字は、図4に示すように、第1の文字「G」に関連付けられた複数の第2の文字(「が」、「ガ」、「G」など)の周辺に配置される。   Referring to FIG. 4, the second software keyboard includes a plurality of second input areas (second areas) in which a plurality of second characters associated with the first characters in the first software keyboard are respectively arranged. Character key area). More specifically, for example, a plurality of second characters associated with the first character “G” are kana characters such as “ga” and “gi”, and katakana characters such as “ga” and “gi”. , “G”, “g” and the like. The second software keyboard includes a plurality of second input areas (second character key areas) each having a plurality of second characters as described above. In addition, a plurality of second characters associated with other first characters “T”, “Y”, “H”, “N”, “B” located around the first character “G” are As shown in FIG. 4, it is arranged around a plurality of second characters (“GA”, “GA”, “G”, etc.) associated with the first character “G”.

入力装置10は、第2のソフトウェアキーボードを表示画面に表示させるときに、例えば、複数の第2の文字「が」、「ガ」、「G」などが配置された複数の第2の入力領域(第2の文字キー領域)によって占められる領域に、当該第2の文字に関連付けられた第1の文字「G」を拡大した淡色文字が配置された領域を重ねて表示する。これにより、ユーザは、第1の文字に関連付けられている第2の文字を視覚的に認識することができる。   When the input device 10 displays the second software keyboard on the display screen, for example, a plurality of second input areas in which a plurality of second characters “GA”, “GA”, “G”, and the like are arranged. An area where a light color character obtained by enlarging the first character “G” associated with the second character is overlaid on the area occupied by the (second character key area) is displayed. Thereby, the user can visually recognize the second character associated with the first character.

また、図4では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2のソフトウェアキーボードにおける第2の文字「ご」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Aに関連付けられた第2の文字「ご」を配置するように、第2のソフトウェアキーボードを表示する。   Further, FIG. 4 shows that the second character “go” on the second software keyboard is displayed at the position touched by the user on the first software keyboard. In other words, the input device 10 displays the second software keyboard so as to place the second character “go” associated with the identified area A at the touch position of the user on the first software keyboard. To do.

そして、入力装置10は、第2のソフトウェアキーボードにおいて、第2の文字が選択されることにより、第2の文字の入力を受け付ける。具体的には、ユーザが第2の文字が配置された第2の入力領域(第2の文字キー領域)を指でタッチした状態から、指を離すと、入力装置10は、第2の文字の入力を受け付けて、文字表示領域500に当該受け付けた第2の文字を表示する。   Then, the input device 10 accepts input of the second character by selecting the second character on the second software keyboard. Specifically, when the user lifts his / her finger from a state where the user touches the second input area (second character key area) where the second character is arranged, the input device 10 receives the second character. Is received, and the received second character is displayed in the character display area 500.

このように、第2の文字の選択により文字が入力される(文字表示領域500に入力文字が表示される)ことから、当該第2の文字はユーザによってより正確に選択される必要がある。したがって、第2の文字の入力を受け付ける第2の入力領域(第2の文字キー領域)を、第1の入力領域(第1の文字キー領域)と比較してより大きい領域とすることで、ユーザは第2の文字をより正確に選択することが可能となる。   Thus, since a character is input by selection of a 2nd character (an input character is displayed on the character display area 500), the said 2nd character needs to be selected more correctly by the user. Therefore, by setting the second input area (second character key area) for accepting the input of the second character as a larger area compared to the first input area (first character key area), The user can select the second character more accurately.

次に、第1のソフトウェアキーボードにおけるユーザのタッチ位置に基づいて、第2のソフトウェアキーボードが表示されることについて、別の例を示して説明する。   Next, the display of the second software keyboard based on the touch position of the user on the first software keyboard will be described with another example.

図5は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その2)を説明するための図である。   FIG. 5 is a diagram for describing a touch position (part 2) of the user on the first software keyboard provided by input device 10 according to the present embodiment.

図5を参照すると、第1の文字「G」が配置された第1の入力領域(「G」の文字キー領域)の中央上付近が、ユーザによってタッチされたことがわかる。また、図5における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X,Y)、(X,Y)、(X,Y)、(X,Y)で囲まれた領域(以下、「領域B」とも称す。)に属することがわかる。そして、入力装置10は、第1の入力領域(「G」の文字キー領域)におけるタッチ位置が領域Bに属することを特定し、当該特定された領域Bに基づいて、第2のソフトウェアキーボードを表示する。 Referring to FIG. 5, it can be seen that the vicinity of the upper center of the first input area (character key area “G”) where the first character “G” is arranged is touched by the user. Further, referring to the enlarged view in the vicinity of the touch position of the user in FIG. 5, the touch position corresponds to the coordinates (X 7 , Y 5 ), (X 7 , Y 6 ), (X 8 , Y 5 ), (X 8 , Y 6 ) (hereinafter also referred to as “region B”). Then, the input device 10 specifies that the touch position in the first input area (the character key area “G”) belongs to the area B, and uses the second software keyboard based on the specified area B. indicate.

図6は、図5におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。第2のソフトウェアキーボードの表示方式における、図4と同様な箇所については、その詳細は繰り返さない。   FIG. 6 is a diagram illustrating a display example of the second software keyboard displayed based on the touch position (part 2) in FIG. Details of the second software keyboard display method similar to those in FIG. 4 will not be repeated.

図6では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「ぐ」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Bに関連付けられた第2の文字「ぐ」を配置するように、第2のソフトウェアキーボードを表示する。したがって、第2のソフトウェアキーボードの文字キー配置は、図4に示された文字キー配置と比較して、画面の右方向にずれていることがわかる。   FIG. 6 shows that the second character “gu” is displayed at the position touched by the user on the first software keyboard. That is, the input device 10 displays the second software keyboard so as to place the second character “gu” associated with the identified area B at the touch position of the user on the first software keyboard. To do. Therefore, it can be seen that the character key layout of the second software keyboard is shifted to the right of the screen as compared to the character key layout shown in FIG.

次に、第1のソフトウェアキーボードにおけるユーザのタッチ位置に基づいて、第2のソフトウェアキーボードが表示されることについて、さらに別の例を示して説明する。   Next, the display of the second software keyboard based on the user's touch position on the first software keyboard will be described with another example.

図7は、本実施の形態に従う入力装置10が提供する第1のソフトウェアキーボードにおける、ユーザのタッチ位置(その3)を説明するための図である。   FIG. 7 is a diagram for describing a touch position (part 3) of the user on the first software keyboard provided by input device 10 according to the present embodiment.

図7を参照すると、第1の文字「G」が配置された第1の入力領域の中央付近が、ユーザによってタッチされたことがわかる。また、図7における、ユーザのタッチ位置付近の拡大図を参照すると、当該タッチ位置が、座標(X,Y)、(X,Y)、(X,Y)、(X,Y)で囲まれた領域(以下、「領域C」とも称す。)に属することがわかる。そして、入力装置10は、第1の入力領域(「G」の文字キー領域)におけるタッチ位置が領域Cに属することを特定し、当該特定された領域Cに基づいて、第2のソフトウェアキーボードを表示する。 Referring to FIG. 7, it can be seen that the vicinity of the center of the first input area where the first character “G” is arranged is touched by the user. In addition, referring to the enlarged view of the vicinity of the touch position of the user in FIG. 7, the touch position has coordinates (X 7 , Y 4 ), (X 7 , Y 5 ), (X 8 , Y 4 ), (X 8 , Y 5 ) (hereinafter also referred to as “region C”). Then, the input device 10 specifies that the touch position in the first input area (character key area “G”) belongs to the area C, and uses the second software keyboard based on the specified area C. indicate.

図8は、図7におけるタッチ位置(その2)に基づいて表示される第2のソフトウェアキーボードの表示例を示す図である。第2のソフトウェアキーボードの表示方式における、図4と同様な箇所については、その詳細は繰り返さない。   FIG. 8 is a diagram illustrating a display example of the second software keyboard displayed based on the touch position (part 2) in FIG. Details of the second software keyboard display method similar to those in FIG. 4 will not be repeated.

図8では、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「グ」が表示されていることを示している。すなわち、入力装置10は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、上述の特定された領域Cに関連付けられた第2の文字「グ」を配置するように、第2のソフトウェアキーボードを表示する。したがって、第2のソフトウェアキーボードの文字キー配置は、図4に示された文字キー配置と比較して、画面の上方向および右方向にずれていることがわかる。   FIG. 8 shows that the second character “G” is displayed at the position touched by the user on the first software keyboard. In other words, the input device 10 displays the second software keyboard so as to arrange the second character “G” associated with the specified area C at the touch position of the user on the first software keyboard. To do. Therefore, it can be seen that the character key layout of the second software keyboard is shifted upward and to the right of the screen as compared with the character key layout shown in FIG.

上記の動作を実現する入力装置10では、ユーザが、文字「ぐ」を入力しようとして、第1のソフトウェアキーボードにおいて文字「G」を選択したつもりであったが、誤って文字「H」が選択されてしまった場合であっても、第2のソフトウェアキーボードにおいて、ユーザが入力しようとした文字「ぐ」が表示されている。したがって、ユーザは、指等をスライド操作して文字「ぐ」を選択することで、文字「ぐ」を入力することが可能となる。   In the input device 10 that realizes the above operation, the user intends to input the character “G” and selects the character “G” on the first software keyboard, but the character “H” is selected by mistake. Even if it has been done, the character “gu” that the user tried to input is displayed on the second software keyboard. Therefore, the user can input the character “gu” by selecting the character “gu” by sliding the finger or the like.

また、第2のソフトウェアキーボードには、第1の文字に関連付けられた複数の第2の文字として、仮名文字、片仮名文字および英文字が表示されるため、文字種別の切り替え操作を行なうことなく、ユーザの所望の文字を入力することができる。   Further, the second software keyboard displays kana characters, katakana characters, and English characters as a plurality of second characters associated with the first character, so that the character type switching operation is not performed. A user's desired character can be input.

上記では、第1のソフトウェアキーボードにおいて文字「G」を選択した場合について説明したが、その他の文字を選択した場合にも同様に考えることができる。例えば、ユーザが第1のソフトウェアキーボードにおいて文字「T」を選択した(タッチした)場合であって、タッチ位置が、座標(X,Y)、(X,Y)、(X,Y)、(X,Y)で囲まれた領域に属するときを想定する。このとき、入力装置10は、第1のソフトウェアキーボードにおいてユーザがタッチした位置に、第2の文字「タ」を配置するように第2のソフトウェアキーボードを表示する。 In the above description, the case where the character “G” is selected on the first software keyboard has been described, but the same can be considered when other characters are selected. For example, when the user selects (touches) the letter “T” on the first software keyboard, the touch position has coordinates (X 5 , Y 7 ), (X 5 , Y 8 ), (X 6 , Y 7 ), (X 6 , Y 8 ) is assumed to belong to the region enclosed. At this time, the input device 10 displays the second software keyboard so as to arrange the second character “T” at the position touched by the user on the first software keyboard.

<D.機能構成>
次に、上述のような本実施の形態に従う入力装置10が提供する動作例を実現するための機能構成について説明する。
<D. Functional configuration>
Next, a functional configuration for realizing an operation example provided by input device 10 according to the present embodiment as described above will be described.

図9は、本実施の形態に従う入力装置10の機能ブロック図である。
図9を参照すると、入力装置10は、主たる機能構成として、位置検出部202と、表示制御部204と、領域特定部206と、文字入力部208とを含む。表示制御部204と、領域特定部206と、文字入力部208とは、基本的には、入力装置10のCPU110がメモリ120に格納されたプログラムを実行し、入力装置10の構成要素へ指令を与えることなどによって実現される。すなわち、CPU110は入力装置10の動作全体を制御する制御部としての機能を有する。なお、これらの機能構成の一部または全部はハードウェアで実現されていてもよい。
FIG. 9 is a functional block diagram of input device 10 according to the present embodiment.
Referring to FIG. 9, the input device 10 includes a position detection unit 202, a display control unit 204, a region specifying unit 206, and a character input unit 208 as main functional configurations. Basically, the display control unit 204, the region specifying unit 206, and the character input unit 208 execute a program stored in the memory 120 by the CPU 110 of the input device 10, and give commands to the components of the input device 10. It is realized by giving. That is, the CPU 110 has a function as a control unit that controls the entire operation of the input device 10. Note that some or all of these functional configurations may be realized by hardware.

位置検出部202は、ユーザからのタッチ入力を受け付けると、タッチ位置の検出結果を順次、表示制御部204に出力する。具体的には、位置検出部202は、ユーザによるタッチ操作の起点となるタッチ位置(検出されたタッチ位置の初期位置)を示すタッチ座標から、当該タッチ操作の終点となるタッチ座標までのタッチ座標を順次出力する。また、位置検出部202は、同時に複数点タッチされていることを検出した場合には、これらのタッチ座標を出力してもよい。位置検出部202は、主として、タッチパネル130によって実現される機能である。   When the position detection unit 202 receives a touch input from the user, the position detection unit 202 sequentially outputs the detection result of the touch position to the display control unit 204. Specifically, the position detection unit 202 touch coordinates from a touch coordinate indicating a touch position (initial position of the detected touch position) serving as a starting point of the touch operation by the user to a touch coordinate serving as an end point of the touch operation. Are output sequentially. Further, when the position detection unit 202 detects that a plurality of points are touched at the same time, the position detection unit 202 may output these touch coordinates. The position detection unit 202 is a function mainly realized by the touch panel 130.

表示制御部204は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトをディスプレイ140に表示させる。表示制御部204は、後述する領域特定部206において特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトをディスプレイ140に表示させる。   The display control unit 204 causes the display 140 to display a first object having a first input area for receiving a first input. The display control unit 204 causes the display 140 to display a second object having a second input area for accepting a second input based on the area specified by the area specifying unit 206 described later.

より具体的には、表示制御部204は、第1の入力領域に第1の文字を配置し、第1の文字に関連付けられた複数の第2の文字をそれぞれ複数の第2の入力領域に配置するようにディスプレイ140の表示を制御する。表示制御部204は、第2のオブジェクトを表示領域に表示させるときに、第1の入力に基づく第1の入力領域におけるタッチ位置に、当該タッチ位置に対応する特定された領域に関連付けられた第2の文字を配置するようにディスプレイ140の表示を制御する。また、表示制御部204は、第2のオブジェクトをディスプレイ140に表示させるときに、第1の文字に関連付けられた複数の第2の文字がそれぞれ配置された複数の第2の入力領域に、第1の文字を拡大した文字が配置された領域を重ねて表示するように制御する。   More specifically, the display control unit 204 places the first character in the first input area, and places the plurality of second characters associated with the first character in the plurality of second input areas, respectively. The display on the display 140 is controlled to be arranged. When displaying the second object in the display area, the display control unit 204 sets the touch position in the first input area based on the first input to the first area associated with the specified area corresponding to the touch position. The display 140 is controlled so that two characters are arranged. In addition, when the display control unit 204 displays the second object on the display 140, the display control unit 204 sets the second input region in which the plurality of second characters associated with the first character are respectively arranged in the second input area. Control is performed so that the area where the enlarged characters of one character are arranged is displayed.

領域特定部206は、第1の入力領域に含まれる予め定められた複数の領域から、第1の入力に基づく第1の入力領域におけるタッチ位置が属する領域を特定する。そして、領域特定部206は、特定結果を表示制御部204に出力する。   The area specifying unit 206 specifies an area to which the touch position in the first input area based on the first input belongs, from a plurality of predetermined areas included in the first input area. Then, the area specifying unit 206 outputs the specifying result to the display control unit 204.

文字入力部208は、第1の入力に応答して表示された第2のオブジェクトにおいて、第2の入力領域に配置された第2の文字が第2の入力に基づいて選択されることにより、第2の文字の入力を受け付ける。文字入力部208は、入力を受け付けた当該第2の文字を文字表示領域に表示するように表示制御部204に指示する。   In the second object displayed in response to the first input, the character input unit 208 selects the second character arranged in the second input area based on the second input, The input of the second character is accepted. The character input unit 208 instructs the display control unit 204 to display the received second character in the character display area.

次に、上述のような動作例を実現するために入力装置10が実行する処理手順について説明する。   Next, a processing procedure executed by the input device 10 to realize the above operation example will be described.

図10は、本実施の形態に従う入力装置10が実行する文字入力処理手順を示すフローチャートである。   FIG. 10 is a flowchart showing a character input processing procedure executed by input device 10 according to the present embodiment.

図10を参照して、CPU110は、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトをディスプレイ140に表示させる(ステップS102)。例えば、CPU110は、図3に示すような第1のソフトウェアキーボードをディスプレイ140に表示させる。   Referring to FIG. 10, CPU 110 causes display 140 to display a first object having a first input area for receiving a first input (step S102). For example, the CPU 110 causes the display 140 to display a first software keyboard as shown in FIG.

次に、CPU110は、タッチパネル130を介してユーザからタッチ入力を受け付けたか否かを判断する(ステップS104)。CPU110は、タッチ入力を受け付けていない場合(ステップS104においてNOの場合)には、ステップS104の処理を繰り返す。   Next, CPU 110 determines whether or not a touch input is received from the user via touch panel 130 (step S104). CPU110 repeats the process of step S104, when the touch input is not received (in the case of NO in step S104).

これに対して、CPU110は、タッチ入力を受け付けた場合(ステップS104においてYESの場合)には、第1の入力領域に配置された第1の文字が選択されたか否かを判断する(ステップS106)。より具体的には、CPU110は、第1のソフトウェアキーボードにおいて、第1の文字が配置された第1の入力領域(第1の文字キー領域)がタッチされたか否かを判断する。   On the other hand, when the touch input is received (YES in step S104), CPU 110 determines whether or not the first character arranged in the first input area is selected (step S106). ). More specifically, CPU 110 determines whether or not the first input area (first character key area) where the first character is arranged is touched on the first software keyboard.

CPU110は、第1の文字が選択されていないと判断すると(ステップS106においてNOの場合)、ステップS104からの処理を繰り返す。これに対して、CPU110は、第1の文字が選択されたと判断すると(ステップS106においてYESの場合)、当該選択された第1の文字が配置された第1の入力領域におけるタッチ位置を特定する(ステップS108)。より具体的には、CPU110は、第1の入力領域に含まれる予め定められている複数の領域から、当該タッチ位置が属する領域を特定する。換言すると、CPU110は、当該複数の領域のうちいずれの領域に、当該タッチ位置が属するのかを判断する。   When CPU 110 determines that the first character is not selected (NO in step S106), CPU 110 repeats the processing from step S104. On the other hand, when CPU 110 determines that the first character has been selected (YES in step S106), CPU 110 identifies the touch position in the first input area where the selected first character is arranged. (Step S108). More specifically, CPU 110 specifies an area to which the touch position belongs from a plurality of predetermined areas included in the first input area. In other words, the CPU 110 determines to which area of the plurality of areas the touch position belongs.

次に、CPU110は、当該特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを表示する(ステップS110)。より具体的には、CPU110は、当該特定された領域に関連付けられた第2の文字を配置するように第2のオブジェクトを表示する。例えば、図4の例に従うと、CPU110は、第1のソフトウェアキーボードにおけるユーザのタッチ位置に、特定された領域Aに関連付けられた第2の文字「ご」を配置するように、第2のソフトウェアキーボードを表示する。また、CPU110は、複数の第2の文字「が」、「ガ、「G」などが配置された複数の第2の入力領域によって占められた領域に、第1の文字「G」を拡大した淡色の文字が配置された領域を重ねて表示してもよい。   Next, CPU110 displays the 2nd object which has the 2nd input area for receiving the 2nd input based on the specified field (Step S110). More specifically, CPU 110 displays the second object so as to arrange the second character associated with the specified area. For example, according to the example of FIG. 4, the CPU 110 arranges the second software “go” associated with the identified area A at the touch position of the user on the first software keyboard. Display the keyboard. In addition, the CPU 110 expands the first character “G” to an area occupied by a plurality of second input areas in which a plurality of second characters “GA”, “GA”, “G”, and the like are arranged. An area where light-colored characters are arranged may be displayed in an overlapping manner.

次に、CPU110は、第2の入力領域に配置された第2の文字が選択されたか否かを判断する(ステップS112)。より具体的には、CPU110は、第2のソフトウェアキーボードにおいて、第2の文字(仮名文字、片仮名文字および英文字)が配置された第2の入力領域(第2の文字キー領域)が指等でタッチされた状態から、指等が離れたか否かを判断する。   Next, the CPU 110 determines whether or not the second character arranged in the second input area has been selected (step S112). More specifically, in the second software keyboard, the CPU 110 has a second input area (second character key area) where a second character (kana character, katakana character and English character) is arranged as a finger or the like. From the touched state, it is determined whether or not the finger or the like has been removed.

第2の入力領域に配置された第2の文字が選択されていない場合(ステップS112においてNOの場合)には、CPU110は、ステップS112の処理を繰り返す。これに対して、第2の入力領域に配置された第2の文字が選択された場合(ステップS112においてYESの場合)には、CPU110は、選択された第2の文字の入力を受け付けるとともに、当該受け付けた第2の文字を所定の文字表示領域に表示する(ステップS114)。そして、処理は終了する。   When the second character arranged in the second input area is not selected (NO in step S112), CPU 110 repeats the process of step S112. On the other hand, when the second character arranged in the second input area is selected (YES in step S112), CPU 110 accepts input of the selected second character, The received second character is displayed in a predetermined character display area (step S114). Then, the process ends.

<E.その他の実施の形態>
上記の実施例においては、第1のソフトウェアキーボードとしてQWERTY配列のソフトウェアキーボードを用いた場合について説明したが、これに限られず、他の配列、例えば、Dvorak配列のソフトウェアキーボードであってもよい。また、ユーザによって任意に配列が設定されたソフトウェアキーボードであってもよい。
<E. Other Embodiments>
In the above-described embodiment, the case where a software keyboard having a QWERTY layout is used as the first software keyboard has been described. However, the present invention is not limited to this. Also, a software keyboard whose arrangement is arbitrarily set by the user may be used.

また、第2のソフトウェアキーボードの文字キー配列は、上記の例に限られず、仮名文字、片仮名文字、英文字の配置が上記の実施例と異なっていてもよい。予め設定されたいくつかの配列パターンから、ユーザによって選択された配列パターンで文字キーが配置される場合であってもよい。ユーザが所望の配列パターンを登録でき、当該配列パターンで文字キーが配置される場合であってもよい。   Further, the character key arrangement of the second software keyboard is not limited to the above example, and the arrangement of kana characters, katakana characters, and English characters may be different from the above embodiment. The character keys may be arranged in an arrangement pattern selected by the user from several arrangement patterns set in advance. There may be a case where the user can register a desired arrangement pattern and character keys are arranged in the arrangement pattern.

なお、コンピュータを機能させて、上述のフローチャートで説明したような制御を実行させるプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどの一時的でないコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。   It is also possible to provide a program that causes a computer to function and execute control as described in the above flowchart. Such a program is recorded on a non-temporary computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card, and the program product Can also be provided. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.

プログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本実施の形態にかかるプログラムに含まれ得る。   The program may be a program module that is provided as a part of an operating system (OS) of a computer and that calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present embodiment.

また、本実施の形態にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本実施の形態にかかるプログラムに含まれ得る。   Further, the program according to the present embodiment may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. A program incorporated in such another program can also be included in the program according to the present embodiment.

<F.利点>
本実施の形態とすることで、ユーザは、第1のソフトウェアキーボードにおいて、文字の選択を間違った場合(選択しようとしたキーに隣接したキーを選択してしまった場合など)であっても、選択し間違えて入力された文字を削除して、再度正しい文字を選択するなどのやり直しの操作をすることなく、所望の文字を入力することができる。
<F. Advantage>
With this embodiment, even if the user selects the wrong character on the first software keyboard (such as when a key adjacent to the key to be selected is selected), It is possible to input a desired character without performing a redo operation such as selecting a correct character again by deleting a character that has been selected and input by mistake.

また、ユーザが第1のソフトウェアキーボードに配置された文字を選択すると、選択された文字に関連する文字(仮名文字、片仮名文字および英文字)が表示される。そのため、ユーザは、文字種別の切り替え操作を行なう必要なく、所望の文字を入力することができる。   When the user selects a character arranged on the first software keyboard, characters (kana characters, katakana characters and English characters) related to the selected characters are displayed. Therefore, the user can input a desired character without having to perform a character type switching operation.

したがって、ユーザの手間を省き、タッチ操作をするユーザの利便性を向上させることができる。   Therefore, it is possible to save the user's trouble and improve the convenience of the user who performs the touch operation.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 入力装置、110 CPU、120 メモリ、130 タッチパネル、140 ディスプレイ、150 スピーカ、160 ボタン、170 メモリインターフェイス、172 記憶媒体、180 通信インターフェイス、190 無線通信部、192 通信アンテナ、194 加速度センサ、202 位置検出部、204 表示制御部、206 領域特定部、208 文字入力部。   10 input device, 110 CPU, 120 memory, 130 touch panel, 140 display, 150 speaker, 160 button, 170 memory interface, 172 storage medium, 180 communication interface, 190 wireless communication unit, 192 communication antenna, 194 acceleration sensor, 202 position detection Part, 204 display control part, 206 area specifying part, 208 character input part.

Claims (9)

表示領域を有するディスプレイと、
前記表示領域に対するタッチ位置を検出可能なタッチパネルと、
前記ディスプレイの前記表示領域における表示を制御するとともに、前記タッチパネルの検出結果に応答して処理を実行するプロセッサとを備え、
前記プロセッサは、第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示させ、
前記第1の入力領域は、複数の領域を含み、
前記プロセッサは、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定し、
前記特定された領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示させるように構成されている、入力装置。
A display having a display area;
A touch panel capable of detecting a touch position with respect to the display area;
A processor for controlling display in the display area of the display and executing processing in response to a detection result of the touch panel,
The processor displays a first object having a first input area for receiving a first input in the display area,
The first input area includes a plurality of areas;
The processor is
From the plurality of regions, specify a region to which a touch position in the first input region based on the first input belongs,
An input device configured to display, in the display area, a second object having a second input area for receiving a second input based on the specified area.
前記プロセッサは、前記第1の入力領域に第1の文字を配置し、前記第1の文字に関連付けられた複数の第2の文字をそれぞれ複数の前記第2の入力領域に配置するように構成されている、請求項1に記載の入力装置。   The processor is configured to arrange a first character in the first input area and arrange a plurality of second characters associated with the first character in the plurality of second input areas, respectively. The input device according to claim 1. 前記プロセッサは、前記第1の入力に応答して表示された前記第2のオブジェクトにおいて、前記第2の入力領域に配置された前記第2の文字が前記第2の入力に基づいて選択されることにより、前記第2の文字の入力を受け付けるように構成されている、請求項2に記載の入力装置。   In the second object displayed in response to the first input, the processor selects the second character arranged in the second input area based on the second input. The input device according to claim 2, wherein the input device is configured to receive an input of the second character. 前記プロセッサは、前記第2のオブジェクトを前記表示領域に表示させるときに、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置に、前記タッチ位置に対応する前記特定された領域に関連付けられた前記第2の文字を配置するように構成されている、請求項2または3に記載の入力装置。   When the processor displays the second object in the display area, the processor associates the touch position in the first input area based on the first input with the specified area corresponding to the touch position. The input device according to claim 2, wherein the input device is configured to arrange the second character. 前記プロセッサは、前記第2のオブジェクトを前記表示領域に表示させるときに、前記第1の文字に関連付けられた複数の前記第2の文字がそれぞれ配置された複数の前記第2の入力領域に、前記第1の文字を拡大した文字が配置された領域を重ねて表示するように構成されている、請求項2〜4のいずれか1項に記載の入力装置。   When the processor displays the second object in the display area, a plurality of the second characters associated with the first character are respectively arranged in the plurality of second input areas. The input device according to any one of claims 2 to 4, wherein the input device is configured to overlap and display an area where a character obtained by enlarging the first character is arranged. 前記第2の入力に基づいて選択された前記第2の文字の入力は、タッチ位置から物体が離れることに応答して前記第2の文字を入力することを含む、請求項2〜5のいずれか1項に記載の入力装置。   The input of the second character selected based on the second input includes inputting the second character in response to the object moving away from the touch position. The input device according to claim 1. 前記第1および前記第2のオブジェクトのうち少なくとも1つのオブジェクトは、ソフトウェアキーボードを示す画像を含む、請求項1〜6のいずれか1項に記載の入力装置。   The input device according to claim 1, wherein at least one of the first and second objects includes an image indicating a software keyboard. 入力装置の制御方法であって、
前記入力装置は、表示領域を有するディスプレイと、前記表示領域に対するタッチ位置を検出可能なタッチパネルとを含み、
前記制御方法は、
第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示するステップを含み、前記第1の入力領域は、複数の領域を有し、
前記制御方法は、さらに、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定するステップと、
前記特定された前記領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示するステップと含む、入力装置の制御方法。
An input device control method comprising:
The input device includes a display having a display area, and a touch panel capable of detecting a touch position with respect to the display area,
The control method is:
Displaying a first object having a first input area for accepting a first input in the display area, wherein the first input area has a plurality of areas;
The control method further includes:
Identifying a region to which a touch position in the first input region based on the first input belongs from the plurality of regions;
And displaying a second object having a second input area for receiving a second input on the display area based on the identified area.
入力装置のコンピュータに実行させる制御プログラムであって、
前記入力装置は、表示領域を有するディスプレイと、前記表示領域に対するタッチ位置を検出可能なタッチパネルとを含み、
前記制御プログラムは、前記コンピュータに、
第1の入力を受け付けるための第1の入力領域を有する第1のオブジェクトを前記表示領域に表示するステップを実行させ、前記第1の入力領域は、複数の領域を有し、
前記制御プログラムは、さらに前記コンピュータに、
前記複数の領域から、前記第1の入力に基づく前記第1の入力領域におけるタッチ位置が属する領域を特定するステップと、
前記特定された前記領域に基づいて、第2の入力を受け付けるための第2の入力領域を有する第2のオブジェクトを前記表示領域に表示するステップとを実行させる、入力装置の制御プログラム。
A control program to be executed by a computer of an input device,
The input device includes a display having a display area, and a touch panel capable of detecting a touch position with respect to the display area,
The control program is stored in the computer.
Displaying a first object having a first input area for receiving a first input on the display area, wherein the first input area has a plurality of areas;
The control program is further stored in the computer.
Identifying a region to which a touch position in the first input region based on the first input belongs from the plurality of regions;
A control program for an input device, which executes a step of displaying, in the display area, a second object having a second input area for receiving a second input based on the specified area.
JP2012114004A 2012-05-18 2012-05-18 Input device, control method thereof, and control program thereof Pending JP2013242630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012114004A JP2013242630A (en) 2012-05-18 2012-05-18 Input device, control method thereof, and control program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012114004A JP2013242630A (en) 2012-05-18 2012-05-18 Input device, control method thereof, and control program thereof

Publications (1)

Publication Number Publication Date
JP2013242630A true JP2013242630A (en) 2013-12-05

Family

ID=49843476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012114004A Pending JP2013242630A (en) 2012-05-18 2012-05-18 Input device, control method thereof, and control program thereof

Country Status (1)

Country Link
JP (1) JP2013242630A (en)

Similar Documents

Publication Publication Date Title
KR101449781B1 (en) Apparatus and method for inputing characters in terminal
US9483172B2 (en) Information processing device, information processing method, and computer-readable recording medium which records program
JP4741983B2 (en) Electronic device and method of operating electronic device
JP5599741B2 (en) Electronic device, content display method, and content display program
JP2013238935A (en) Input device, input device controlling method, controlling program, and recording medium
US20140351725A1 (en) Method and electronic device for operating object
KR20140073245A (en) Method for inputting back surface and an electronic device thereof
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
JP2014029686A (en) Information processing device, control method for information processing device, control program, and computer-readable recording medium
US20160170636A1 (en) Method and apparatus for inputting information by using on-screen keyboard
KR102466990B1 (en) Apparatus and method for displaying a muliple screen in electronic device
US9274632B2 (en) Portable electronic device, touch operation processing method, and program
US20220276756A1 (en) Display device, display method, and program
JP2014016743A (en) Information processing device, information processing device control method and information processing device control program
KR20160004590A (en) Method for display window in electronic device and the device thereof
CN106201301B (en) Mobile terminal and control method thereof
US20150123916A1 (en) Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device
KR20090049153A (en) Terminal with touchscreen and method for inputting letter
WO2013047023A1 (en) Display apparatus, display method, and program
US20170010791A1 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
JP6800714B2 (en) Electronic equipment and display control method
JP5907270B2 (en) Electronic device, display control method and program
JP6429692B2 (en) Electronics
JP2013182342A (en) Input device, method and program of controlling input device, and recording medium
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof