JP6099537B2 - Electronic apparatus, method, and program - Google Patents

Electronic apparatus, method, and program Download PDF

Info

Publication number
JP6099537B2
JP6099537B2 JP2013204133A JP2013204133A JP6099537B2 JP 6099537 B2 JP6099537 B2 JP 6099537B2 JP 2013204133 A JP2013204133 A JP 2013204133A JP 2013204133 A JP2013204133 A JP 2013204133A JP 6099537 B2 JP6099537 B2 JP 6099537B2
Authority
JP
Japan
Prior art keywords
key object
character
smartphone
cursor
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013204133A
Other languages
Japanese (ja)
Other versions
JP2015069487A (en
Inventor
陽士 山田
陽士 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013204133A priority Critical patent/JP6099537B2/en
Publication of JP2015069487A publication Critical patent/JP2015069487A/en
Application granted granted Critical
Publication of JP6099537B2 publication Critical patent/JP6099537B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、電子機器、方法、及びプログラムに関する。特に、本出願は、タッチスクリーンディスプレイを有する電子機器、その電子機器を制御する方法、及びその電子機器を制御するためのプログラムに関する。   The present application relates to an electronic device, a method, and a program. In particular, the present application relates to an electronic device having a touch screen display, a method for controlling the electronic device, and a program for controlling the electronic device.

タッチスクリーンディスプレイを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンディスプレイを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices with a touch screen display are known. Touch screen devices include, but are not limited to, for example, smartphones and tablets. Touch screen devices detect finger, pen, or stylus pen gestures via a touch screen display. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンデバイスの多くは、複数のキーオブジェクトが配置された仮想的なキーボードをタッチスクリーンディスプレイに表示し、タッチスクリーンディスプレイを介して検出される操作に応じて、文字の入力を受け付ける。タッチスクリーンディスプレイを用いた文字入力は、様々な場面で利用される。このような理由から、タッチスクリーンディスプレイを用いた文字入力の操作性を向上させることができる電子機器、方法、及びプログラムに対するニーズがある。   Many touch screen devices display a virtual keyboard on which a plurality of key objects are arranged on a touch screen display, and accept input of characters according to operations detected via the touch screen display. Character input using a touch screen display is used in various situations. For these reasons, there is a need for electronic devices, methods, and programs that can improve the operability of character input using a touch screen display.

1つの態様に係る電子機器は、カーソルを移動させるためのキーオブジェクトを表示するタッチスクリーンディスプレイと、前記キーオブジェクトへの操作を検出すると、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するコントローラとを備える。   An electronic apparatus according to one aspect includes a touch screen display that displays a key object for moving a cursor, and a controller that displays an amount of movement of the cursor in the vicinity of the key object when an operation on the key object is detected With.

1つの態様に係る方法は、タッチスクリーンディスプレイを備える電子機器を制御する方法であって、カーソルを移動させるためのキーオブジェクトを前記タッチスクリーンディスプレイに表示するステップと、前記キーオブジェクトへの操作を検出すると、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するステップとを含む。   A method according to one aspect is a method of controlling an electronic device including a touch screen display, the step of displaying a key object for moving a cursor on the touch screen display, and detecting an operation on the key object. And displaying the amount of movement of the cursor in the vicinity of the key object.

1つの態様に係るプログラムは、タッチスクリーンディスプレイを備える電子機器に、カーソルを移動させるためのキーオブジェクトを前記タッチスクリーンディスプレイに表示するステップと、前記キーオブジェクトへの操作を検出すると、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するステップとを実行させる。   A program according to one aspect displays a key object for moving a cursor on an electronic device including a touch screen display on the touch screen display, and moves the cursor when an operation on the key object is detected. Displaying a quantity in the vicinity of the key object.

図1は、実施形態に係るスマートフォンの斜視図である。FIG. 1 is a perspective view of the smartphone according to the embodiment. 図2は、スマートフォンの正面図である。FIG. 2 is a front view of the smartphone. 図3は、スマートフォンの背面図である。FIG. 3 is a rear view of the smartphone. 図4は、スマートフォンのブロック図である。FIG. 4 is a block diagram of the smartphone. 図5は、スマートフォンが行う制御の例を示す図である。FIG. 5 is a diagram illustrating an example of control performed by the smartphone. 図6は、スマートフォンが行う制御の他の例を示す図である。FIG. 6 is a diagram illustrating another example of control performed by the smartphone. 図7は、スマートフォンが行う制御の他の例を示す図である。FIG. 7 is a diagram illustrating another example of control performed by the smartphone. 図8は、スマートフォンによる文字入力処理の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of character input processing by the smartphone. 図9は、スマートフォンによる文字編集処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure of character editing processing by the smartphone.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンを備える装置の例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an apparatus provided with a touch screen.

(実施形態)
図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the smartphone 1 according to the embodiment will be described with reference to FIGS. 1 to 3. As shown in FIGS. 1 to 3, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a speaker 11 and a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. In the example of FIG. 1, the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this. Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle. In the example of FIG. 1, the display 2 </ b> A and the touch screen 2 </ b> B are overlapped, but the arrangement of the display 2 </ b> A and the touch screen 2 </ b> B is not limited to this. For example, the display 2A and the touch screen 2B may be arranged side by side or may be arranged apart from each other. In the example of FIG. 1, the long side of the display 2A is along the long side of the touch screen 2B, and the short side of the display 2A is along the short side of the touch screen 2B, but the display 2A and the touch screen 2B are overlapped. Is not limited to this. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B. In the following description, a finger, pen, stylus pen, or the like that contacts the touch screen 2B may be referred to as a “contact object” or “contact object”.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。   The smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture. The gesture is an operation performed on the touch screen 2B. Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B for longer than a certain time as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。   “Flick” is a gesture in which a finger leaves the touch screen 2B while moving after touching the touch screen 2B. In other words, “flick” is a gesture in which a release is performed while a finger moves following a touch. The smartphone 1 determines, as a flick, a gesture in which the finger leaves the touch screen 2B while moving after touching the touch screen 2B. The flick is often performed while the finger moves in one direction. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction. The movement of a finger in a flick is often quicker than the movement of a finger in a swipe.

「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。   “Pinch-in” is a gesture of swiping in a direction in which a plurality of fingers approach each other. The smartphone 1 determines, as a pinch-in, a gesture in which the distance between the position of a finger detected by the touch screen 2B and the position of another finger is shortened. “Pinch out” is a gesture of swiping a plurality of fingers away from each other. The smartphone 1 determines, as a pinch-out, a gesture that increases the distance between the position of one finger and the position of another finger detected by the touch screen 2B.

以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。   In the following description, a gesture performed with one finger may be referred to as a “single touch gesture”, and a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”. Multi-touch gestures include, for example, pinch-in and pinch-out. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォンがXを検出する」、又は「コントローラがXを検出する」と記載することがある。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture may differ depending on the screen displayed on the display 2A. In the following description, in order to simplify the description, “the touch screen 2B detects contact and the smartphone 1 determines the gesture type as X based on the detected contact”, “the smartphone determines X May be described as “detect” or “the controller detects X”.

図4は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 4 is a block diagram of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects contact. The controller 10 detects a gesture for the smartphone 1. Specifically, the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。通信ユニット6は、有線による通信をサポートしてもよい。有線による通信は、例えば、イーサネット(登録商標)、ファイバーチャネル等を含む。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As a cellular phone communication standard, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS) (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above. The communication unit 6 may support wired communication. Wired communication includes, for example, Ethernet (registered trademark), fiber channel, and the like.

レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 and the speaker 11 are sound output units. The receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、メールアプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。メールアプリケーション9Bは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a mail application 9B, a browser application 9C, and setting data 9Z. The mail application 9B provides an electronic mail function for creating, transmitting, receiving, and displaying an electronic mail. The browser application 9C provides a WEB browsing function for displaying a WEB page. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、ディスプレイ2Aにキーオブジェクトを表示し、キーオブジェクトに対する操作に応じて文字の入力を受け付ける機能が含まれる。制御プログラム9Aが提供する機能は、メールアプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The functions provided by the control program 9A include a function of displaying a key object on the display 2A and receiving a character input in response to an operation on the key object. The function provided by the control program 9A may be used in combination with a function provided by another program such as the mail application 9B.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17, but is not limited thereto. .

コントローラ10は、例えば、制御プログラム9Aを実行することにより、ディスプレイ2Aにキーオブジェクトを表示し、キーオブジェクトに対する操作に応じて文字の入力を受け付ける等の各種制御を実行する。   For example, the controller 10 executes the control program 9A to display a key object on the display 2A, and executes various controls such as accepting input of characters in response to an operation on the key object.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による通信で他の装置からダウンロードされてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 4, some or all of the programs and data stored in the storage 9 may be downloaded from another device through communication by the communication unit 6. 4 may be stored in a non-transitory storage medium that can be read by a reading device included in the storage 9. 4 may be stored in a non-transitory storage medium that can be read by a reading device connected to the connector 14. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図4に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図4に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 illustrated in FIG. 4 is an example, and may be appropriately changed within a range not impairing the gist of the present invention. For example, the number and type of buttons 3 are not limited to the example of FIG. The smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 4, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. In the example illustrated in FIG. 4, the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors. Alternatively, the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.

ここまで、本実施形態に係るスマートフォン1の基本的な構成について説明を行った。以下に、実施形態に係るスマートフォン1が、利用者の操作に応じて行う文字入力動作の例について説明する。   So far, the basic configuration of the smartphone 1 according to the present embodiment has been described. Below, the example of the character input operation | movement which the smart phone 1 which concerns on embodiment performs according to a user's operation is demonstrated.

図5は、スマートフォンが行う制御の例を示す図である。スマートフォン1は、ステップS11に示すように、文字入力画面をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示する。   FIG. 5 is a diagram illustrating an example of control performed by the smartphone. As shown in step S11, the smartphone 1 displays a character input screen on the touch screen display 2 (display 2A).

図5に示す文字入力画面は、入力文字表示領域30と、キーボード領域31とを含む。入力文字表示領域30は、入力された文字を表示する。入力された文字は、入力が確定した文字と、入力が未確定の文字(以下、「入力候補文字」ということがある)とを含む。キーボード領域31は、文字入力を受け付けるための領域である。キーボード領域31には、複数のキーオブジェクトが表示されている。キーオブジェクトには、文字入力のためのキーオブジェクトと、編集のためのキーオブジェクトとが含まれる。   The character input screen shown in FIG. 5 includes an input character display area 30 and a keyboard area 31. The input character display area 30 displays the input characters. The input characters include characters whose input has been confirmed and characters whose input has not yet been determined (hereinafter sometimes referred to as “input candidate characters”). The keyboard area 31 is an area for receiving character input. A plurality of key objects are displayed in the keyboard area 31. The key object includes a key object for inputting characters and a key object for editing.

文字入力のためのキーオブジェクトのそれぞれは、複数の文字と対応付けられている。スマートフォン1は、所定の時間よりも短い間隔でキーオブジェクトへのタッチを検出すると、検出したタッチの回数に応じて、複数の文字のいずれかを入力候補文字とする。所定の時間は、例えば、1〜2秒である。   Each key object for character input is associated with a plurality of characters. When the smartphone 1 detects a touch on the key object at an interval shorter than a predetermined time, the smartphone 1 sets one of a plurality of characters as an input candidate character according to the detected number of touches. The predetermined time is, for example, 1 to 2 seconds.

例えば、キーオブジェクト31aの表示領域には、「ABC」というラベルが表示されている。「ABC」というラベルは、キーオブジェクト31aに、「A」、「B」及び「C」が、この順序で対応付けられており、キーオブジェクト31aへのタッチを検出した回数に応じて、この順序で入力候補文字となることを示している。入力文字候補は、循環的に選択される。すなわち、「C」が入力候補文字となった後にキーオブジェクト31aへのタッチが検出されると、「A」が入力候補文字となる。キーボード領域31に表示されている他の文字入力のためのキーオブジェクトも同様に、複数の文字が対応付けられている。   For example, a label “ABC” is displayed in the display area of the key object 31a. In the label “ABC”, “A”, “B”, and “C” are associated with the key object 31a in this order, and this order is determined according to the number of times the touch to the key object 31a is detected. Indicates an input candidate character. Input character candidates are selected cyclically. That is, when a touch on the key object 31a is detected after “C” has become an input candidate character, “A” becomes an input candidate character. Similarly, other character input key objects displayed in the keyboard area 31 are associated with a plurality of characters.

編集のためのキーオブジェクトのそれぞれは、カーソルの移動、文字の削除等の固有の機能と対応付けられている。カーソルは、文字の入力及び削除等が行われる位置を示すオブジェクトである。図5に示すキーボード領域31には、カーソルを前方へ移動させる左矢印キーオブジェクトと、カーソルを後方へ移動させる右矢印キーオブジェクトと、カーソルの直前の1文字を削除するバックスペースキーオブジェクト(以下、「BSキーオブジェクト」ともいう)とが含まれる。   Each key object for editing is associated with a unique function such as cursor movement and character deletion. The cursor is an object indicating a position where characters are input and deleted. The keyboard area 31 shown in FIG. 5 includes a left arrow key object that moves the cursor forward, a right arrow key object that moves the cursor backward, and a backspace key object that deletes one character immediately before the cursor. "BS key object").

スマートフォン1は、ステップS12に示すように、指Fによる、キーオブジェクト31aに対する1回目のタッチを検出すると、キーオブジェクト31aに対応付けられている複数の文字のうち、順序が一番前の文字である「A」を、入力文字表示領域30に表示する。このとき、「A」の下には、アンダーバー30aが表示される。アンダーバー30aは、対応する文字が未確定であること、すなわち、対応する文字が現在の入力候補文字であることを示す。さらに、「A」の右には、カーソル30bが表示される。   As shown in step S12, when the smartphone 1 detects the first touch on the key object 31a with the finger F, the smartphone 1 is the first character in the order among the plurality of characters associated with the key object 31a. A certain “A” is displayed in the input character display area 30. At this time, an underbar 30a is displayed under “A”. The underbar 30a indicates that the corresponding character is unconfirmed, that is, the corresponding character is the current input candidate character. Furthermore, a cursor 30b is displayed to the right of “A”.

ステップS12において、円Sは、利用者が意識的に見ている範囲を示す。利用者は、間違えずにキーオブジェクト31aをタッチしようとしているため、円Sは、キーオブジェクトを中心とする比較的狭い範囲となっている。この場面では、入力文字表示領域30は、円Sの範囲外にある。このため、利用者は、視線を移動させないと、どの文字が入力候補文字となっているかを確認するために入力文字表示領域30を見ることができない。   In step S12, the circle S indicates a range that the user is consciously viewing. Since the user tries to touch the key object 31a without making a mistake, the circle S is a relatively narrow range centered on the key object. In this scene, the input character display area 30 is outside the range of the circle S. For this reason, unless the user moves his / her line of sight, the user cannot view the input character display area 30 in order to confirm which character is the input candidate character.

そこで、スマートフォン1は、キーオブジェクト31aの表示領域に、ラベルに代えて、入力候補文字である「A」を表示する。   Therefore, the smartphone 1 displays “A”, which is an input candidate character, instead of the label in the display area of the key object 31a.

さらに、スマートフォン1は、ステップS13に示すように、キーオブジェクト31aの近傍に、バルーンBを表示する。バルーンBは、入力候補文字である「A」を含んでいる。バルーンBは、キーオブジェクト31aの近傍に表示されているので、円Sの範囲内にある。このため、利用者は、視線を動かすことなく、現在の入力候補文字が「A」であることを確認することができる。   Furthermore, as shown in step S13, the smartphone 1 displays a balloon B in the vicinity of the key object 31a. Balloon B includes “A”, which is an input candidate character. Since the balloon B is displayed in the vicinity of the key object 31a, it is within the range of the circle S. For this reason, the user can confirm that the current input candidate character is “A” without moving the line of sight.

ステップS14では、1回目のタッチが完了したため、利用者が、指Fをタッチスクリーンディスプレイ2からリリースしている。このとき、キーオブジェクト31aは円Sの範囲内にあるので、利用者は、キーオブジェクト31aの表示領域に表示された「A」を見ることができる。このため、利用者は、キーオブジェクト31aの表示領域の表示によっても、視線を動かすことなく、現在の入力候補文字が「A」であることを確認することができる。ステップS14では、スマートフォン1は、指Fのリリースを検出したため、バルーンBの表示を解除している。   In step S14, since the first touch is completed, the user releases the finger F from the touch screen display 2. At this time, since the key object 31a is within the range of the circle S, the user can see “A” displayed in the display area of the key object 31a. For this reason, the user can confirm that the current input candidate character is “A” without moving the line of sight also by displaying the display area of the key object 31a. In step S14, since the smartphone 1 detects the release of the finger F, the display of the balloon B is cancelled.

その後、スマートフォン1は、ステップS15に示すように、指Fによる、キーオブジェクト31aに対する2回目のタッチを検出すると、直前にタッチされたキーオブジェクト31aと同一のキーオブジェクトに対するタッチであると判定する。そして、スマートフォン1は、順序が「A」の次の文字である「B」を、入力文字表示領域30に表示する。このとき、入力文字表示領域30の「B」の下には、アンダーバー30aが表示される。アンダーバー30aは、対応する文字が未確定であること、すなわち、対応する文字が現在の入力候補文字であることを示す。   Thereafter, as shown in step S15, when the smartphone 1 detects a second touch on the key object 31a with the finger F, the smartphone 1 determines that the touch is on the same key object as the key object 31a touched immediately before. Then, the smartphone 1 displays “B”, which is the next character in the order of “A”, in the input character display area 30. At this time, an under bar 30 a is displayed under “B” in the input character display area 30. The underbar 30a indicates that the corresponding character is unconfirmed, that is, the corresponding character is the current input candidate character.

ステップS15において、入力文字表示領域30は円Sの範囲外にある。このため、利用者は、視線を移動させないと、どの文字が入力候補文字となっているかを確認するために入力文字表示領域30を見ることができない。   In step S15, the input character display area 30 is outside the range of the circle S. For this reason, unless the user moves his / her line of sight, the user cannot view the input character display area 30 in order to confirm which character is the input candidate character.

そこで、スマートフォン1は、キーオブジェクト31aの表示領域に、ラベルに代えて、入力候補文字である「B」を表示する。   Therefore, the smartphone 1 displays “B”, which is an input candidate character, instead of the label in the display area of the key object 31a.

さらに、スマートフォン1は、ステップS16に示すように、キーオブジェクト31aの近傍に、バルーンBを表示する。バルーンBは、入力候補文字である「B」を含んでいる。バルーンBは、キーオブジェクト31aの近傍に表示されているので、円Sの範囲内にある。このため、利用者は、視線を動かすことなく、現在の入力候補文字が「B」であることを確認することができる。   Furthermore, as shown in step S16, the smartphone 1 displays a balloon B in the vicinity of the key object 31a. The balloon B includes “B” which is an input candidate character. Since the balloon B is displayed in the vicinity of the key object 31a, it is within the range of the circle S. For this reason, the user can confirm that the current input candidate character is “B” without moving the line of sight.

ステップS17では、2回目のタッチが完了したため、利用者が、指Fをタッチスクリーンディスプレイ2からリリースしている。このとき、キーオブジェクト31aは円Sの範囲内にあるので、利用者は、キーオブジェクト31aの表示領域に表示された「B」を見ることができる。このため、利用者は、キーオブジェクト31aの表示領域の表示によっても、視線を動かすことなく、現在の入力候補文字が「B」であることを確認することができる。ステップS17では、スマートフォン1は、指Fのリリースを検出したため、バルーンBの表示を解除している。   In step S17, since the second touch is completed, the user releases the finger F from the touch screen display 2. At this time, since the key object 31a is within the range of the circle S, the user can see “B” displayed in the display area of the key object 31a. For this reason, the user can confirm that the current input candidate character is “B” without moving the line of sight also by displaying the display area of the key object 31a. In step S17, since the smartphone 1 detects the release of the finger F, the display of the balloon B is cancelled.

その後、所定の条件が満たされると、スマートフォン1は、入力候補文字を入力が確定した文字として受け付けるための入力文字確定処理を行う。所定の条件とは、例えば、入力候補文字に対応するキーオブジェクトのタッチを検出してから所定の時間が経過すること、入力候補文字に対応するキーオブジェクトからのリリースを検出してから所定の時間が経過すること、入力候補文字に対応するキーオブジェクトの表示領域以外の領域へのタッチを検出すること、入力文字確定処理の実行を指示する操作を検出すること等である。   Thereafter, when a predetermined condition is satisfied, the smartphone 1 performs an input character confirmation process for accepting an input candidate character as a character whose input is confirmed. The predetermined condition is, for example, that a predetermined time elapses after detecting the touch of the key object corresponding to the input candidate character, or a predetermined time after detecting the release from the key object corresponding to the input candidate character. , E.g., detecting a touch on an area other than the display area of the key object corresponding to the input candidate character, detecting an operation for instructing execution of the input character determination process, and the like.

スマートフォン1は、入力文字確定処理において、ステップS18に示すように、入力候補文字の下に表示されていたアンダーバー30aを消去する。   In the input character confirmation process, the smartphone 1 erases the underbar 30a displayed under the input candidate characters as shown in step S18.

さらに、スマートフォン1は、入力文字確定処理において、入力候補文字を入力が確定した文字として受け付けたことを、エフェクト表示によって利用者に対して報知する。エフェクト表示は、例えば、ステップS18に示すように、キーオブジェクト31aの表示領域の周囲を囲む星形の図形31bを表示することで行われる。エフェクト表示は、キーオブジェクト31aの表示領域を中心にして星型の図形31bの面積が徐々に広がるように変化するように表示することで行われてもよい。キーオブジェクト31aの表示領域の周囲を囲む図形は、星型に限定されず、円形、三角形、矩形、多角形など、どのような図形でもよい。エフェクト表示は、キーオブジェクト31aの色、大きさ、輝度、形状等を変更することで行われてもよい。   Furthermore, the smartphone 1 informs the user through the effect display that the input candidate character has been accepted as a character whose input has been confirmed in the input character confirmation process. For example, as shown in step S18, the effect display is performed by displaying a star-shaped figure 31b surrounding the display area of the key object 31a. The effect display may be performed by displaying the effect so that the area of the star-shaped figure 31b gradually increases around the display area of the key object 31a. The figure surrounding the display area of the key object 31a is not limited to a star shape, and may be any figure such as a circle, a triangle, a rectangle, or a polygon. The effect display may be performed by changing the color, size, brightness, shape, and the like of the key object 31a.

スマートフォン1は、入力文字確定処理を行った後、ステップS19に示すように、キーオブジェクト31aの領域の表示を元に戻す。   After performing the input character confirmation process, the smartphone 1 restores the display of the area of the key object 31a as shown in step S19.

図6は、スマートフォンが行う制御の他の例を示す図である。スマートフォン1は、ステップS21に示すように、文字入力画面をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示する。   FIG. 6 is a diagram illustrating another example of control performed by the smartphone. As shown in step S21, the smartphone 1 displays a character input screen on the touch screen display 2 (display 2A).

図6に示す文字入力画面は、入力文字表示領域30と、キーボード領域31とを含む。入力文字表示領域30には、「A」、「B」、「C」、「D」、「E」、「F」、「G」という7つの文字が、入力が確定した文字として表示されている。「G」の右には、カーソル30bが表示されている。入力文字表示領域30は、入力が未確定の文字を含んでいてもよい。   The character input screen shown in FIG. 6 includes an input character display area 30 and a keyboard area 31. In the input character display area 30, seven characters “A”, “B”, “C”, “D”, “E”, “F”, and “G” are displayed as characters for which input is confirmed. Yes. A cursor 30b is displayed to the right of “G”. The input character display area 30 may include characters whose input has not yet been determined.

スマートフォン1は、ステップS22に示すように、指Fによる、左矢印キーオブジェクト31cに対する1回目のタッチを検出すると、カーソル30bを1文字分だけ前方へ移動させる。   As shown in step S22, when the smartphone 1 detects the first touch of the left arrow key object 31c with the finger F, the smartphone 30 moves the cursor 30b forward by one character.

ステップS22において、円Sは、利用者が意識的に見ている範囲を示す。利用者は、間違えずに左矢印キーオブジェクト31cをタッチしようとしているため、円Sは、キーオブジェクトを中心とする比較的狭い範囲となっている。この場面では、カーソル30bは、円Sの範囲外にある。このため、利用者は、視線を移動させないと、カーソル30bがどこに位置しているかを確認することができない。   In step S22, the circle S indicates a range that the user is consciously viewing. Since the user is trying to touch the left arrow key object 31c without making a mistake, the circle S is a relatively narrow range centered on the key object. In this scene, the cursor 30b is outside the range of the circle S. For this reason, the user cannot confirm where the cursor 30b is located unless the line of sight is moved.

そこで、スマートフォン1は、ステップS22に示すように、左矢印キーオブジェクト31cの近傍に、バルーンBを表示する。バルーンBは、カーソル30bを移動させる操作が継続して行われている期間内におけるカーソル30bの移動量を示す文字列を含んでいる。ステップS22では、カーソル30bが1文字分だけ前方へ移動しているので、「1文字戻る」という文字列がバルーンB内に表示されている。バルーンBは、左矢印キーオブジェクト31cの近傍に表示されているので、円Sの範囲内にある。このため、利用者は、視線を動かすことなく、カーソル30bの移動量を確認することができる。   Therefore, the smartphone 1 displays a balloon B in the vicinity of the left arrow key object 31c as shown in step S22. The balloon B includes a character string indicating the amount of movement of the cursor 30b during the period in which the operation for moving the cursor 30b is continuously performed. In step S22, since the cursor 30b is moved forward by one character, the character string “return one character” is displayed in the balloon B. Balloon B is displayed in the vicinity of circle S because it is displayed in the vicinity of left arrow key object 31c. For this reason, the user can confirm the movement amount of the cursor 30b without moving the line of sight.

スマートフォン1は、ステップS23に示すように、指Fによる、左矢印キーオブジェクト31cに対する2回目のタッチを検出すると、カーソル30bをさらに1文字分だけ前方へ移動させる。そして、スマートフォン1は、「2文字戻る」という文字列を含むバルーンBを左矢印キーオブジェクト31cの近傍に表示する。   As shown in step S23, when the smartphone 1 detects the second touch of the left arrow key object 31c with the finger F, the smartphone 1 further moves the cursor 30b forward by one character. Then, the smartphone 1 displays the balloon B including the character string “return two characters” in the vicinity of the left arrow key object 31c.

スマートフォン1は、ステップS24に示すように、指Fによる、左矢印キーオブジェクト31cに対する3回目のタッチを検出すると、カーソル30bをさらに1文字分だけ前方へ移動させる。そして、スマートフォン1は、「3文字戻る」という文字列を含むバルーンBを左矢印キーオブジェクト31cの近傍に表示する。   As shown in step S24, when the smartphone 1 detects the third touch of the left arrow key object 31c by the finger F, the smartphone 1 further moves the cursor 30b forward by one character. Then, the smartphone 1 displays a balloon B including the character string “return three characters” in the vicinity of the left arrow key object 31c.

スマートフォン1は、ステップS25に示すように、指Fによる、右矢印キーオブジェクト31dに対する1回目のタッチを検出すると、カーソル30bを1文字分だけ後方へ移動させる。カーソル30bを逆方向に移動させたため、カーソル30bの移動量は、1文字分だけ減少している。そこで、スマートフォン1は、「2文字戻る」という文字列を含むバルーンBを右矢印キーオブジェクト31dの近傍に表示する。   As shown in step S25, when the smartphone 1 detects the first touch of the right arrow key object 31d with the finger F, the smartphone 30 moves the cursor 30b backward by one character. Since the cursor 30b is moved in the reverse direction, the movement amount of the cursor 30b is reduced by one character. Therefore, the smartphone 1 displays a balloon B including the character string “return two characters” in the vicinity of the right arrow key object 31d.

スマートフォン1は、ステップS26に示すように、指Fによる、右矢印キーオブジェクト31dに対する2回目のタッチを検出すると、カーソル30bをさらに1文字分だけ後方へ移動させる。カーソル30bを逆方向にさらに移動させたため、カーソル30bの移動量は、さらに1文字分だけ減少している。そこで、スマートフォン1は、「1文字戻る」という文字列を含むバルーンBを右矢印キーオブジェクト31dの近傍に表示する。   As shown in step S26, when the smartphone 1 detects the second touch of the right arrow key object 31d by the finger F, the smartphone 1 further moves the cursor 30b backward by one character. Since the cursor 30b is further moved in the reverse direction, the movement amount of the cursor 30b is further reduced by one character. Therefore, the smartphone 1 displays the balloon B including the character string “return one character” in the vicinity of the right arrow key object 31d.

このように、スマートフォン1は、カーソル30bを移動させるキーオブジェクトに対する操作を検出した場合に、カーソル30bの移動量を示す文字列を含むバルーンBをキーオブジェクトの近傍に表示する。このため、利用者は、視線を移動させることなく、カーソル30bがどこまで移動したかを把握することができる。   As described above, when the smartphone 1 detects an operation on the key object that moves the cursor 30b, the smartphone 1 displays the balloon B including the character string indicating the amount of movement of the cursor 30b in the vicinity of the key object. For this reason, the user can grasp how far the cursor 30b has moved without moving the line of sight.

図6では、カーソル30bが当初の位置よりも前方へ移動する例を示したが、カーソル30bが当初の位置よりも後方へ移動する場合も同様の制御が行われる。この場合、例えば、カーソル30bの移動量に応じて、「1文字進む」のような文字列を含むバルーンBが、キーオブジェクトの近傍に表示される。   Although FIG. 6 shows an example in which the cursor 30b moves forward from the original position, the same control is performed when the cursor 30b moves backward from the original position. In this case, for example, a balloon B including a character string such as “advance one character” is displayed in the vicinity of the key object in accordance with the amount of movement of the cursor 30b.

図6では、カーソル30bの移動量を示す文字列をバルーンB内に表示する例を示したが、バルーンB内に表示する情報はこれに限定されない。例えば、スマートフォン1は、移動後のカーソル30bの直前又は直後に表示されている文字をバルーンB内に表示してもよい。   Although FIG. 6 shows an example in which a character string indicating the amount of movement of the cursor 30b is displayed in the balloon B, the information displayed in the balloon B is not limited to this. For example, the smartphone 1 may display a character displayed in the balloon B immediately before or after the moved cursor 30b.

図7は、スマートフォンが行う制御の他の例を示す図である。スマートフォン1は、ステップS31に示すように、文字入力画面をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示する。   FIG. 7 is a diagram illustrating another example of control performed by the smartphone. As shown in step S31, the smartphone 1 displays a character input screen on the touch screen display 2 (display 2A).

図7に示す文字入力画面は、入力文字表示領域30と、キーボード領域31とを含む。入力文字表示領域30には、「A」、「B」、「C」、「D」、「E」、「F」、「G」という7つの文字が、入力が確定した文字として表示されている。「G」の右には、カーソル30bが表示されている。入力文字表示領域30は、入力が未確定の文字を含んでいてもよい。   The character input screen shown in FIG. 7 includes an input character display area 30 and a keyboard area 31. In the input character display area 30, seven characters “A”, “B”, “C”, “D”, “E”, “F”, and “G” are displayed as characters for which input is confirmed. Yes. A cursor 30b is displayed to the right of “G”. The input character display area 30 may include characters whose input has not yet been determined.

スマートフォン1は、ステップS32に示すように、指Fによる、BSキーオブジェクト31eに対する1回目のタッチを検出すると、カーソル30bの直前の文字を削除し、カーソル30bを1文字分だけ前方へ移動させる。   As shown in step S32, when the smartphone 1 detects the first touch on the BS key object 31e with the finger F, the smartphone 1 deletes the character immediately before the cursor 30b and moves the cursor 30b forward by one character.

ステップS32において、円Sは、利用者が意識的に見ている範囲を示す。利用者は、間違えずにBSキーオブジェクト31eをタッチしようとしているため、円Sは、キーオブジェクトを中心とする比較的狭い範囲となっている。この場面では、カーソル30bは、円Sの範囲外にある。このため、利用者は、視線を移動させないと、どの文字まで削除されたかを確認することができない。   In step S32, the circle S indicates a range that the user is consciously viewing. Since the user is trying to touch the BS key object 31e without making a mistake, the circle S is a relatively narrow range centered on the key object. In this scene, the cursor 30b is outside the range of the circle S. For this reason, the user cannot confirm how many characters have been deleted unless the line of sight is moved.

そこで、スマートフォン1は、ステップS32に示すように、BSキーオブジェクト31eの近傍に、バルーンBを表示する。バルーンBは、文字を削除する操作が継続して行われている期間内における削除された文字の数を示す文字列を含んでいる。ステップS32では、文字が1つだけ削除されているので、「1文字削除」という文字列がバルーンB内に表示されている。バルーンBは、BSキーオブジェクト31eの近傍に表示されているので、円Sの範囲内にある。このため、利用者は、視線を動かすことなく、何文字削除されたかを確認することができる。   Therefore, the smartphone 1 displays a balloon B in the vicinity of the BS key object 31e as shown in step S32. The balloon B includes a character string indicating the number of characters deleted within a period in which the operation for deleting characters is continuously performed. In step S32, since only one character has been deleted, the character string “delete one character” is displayed in the balloon B. Since the balloon B is displayed in the vicinity of the BS key object 31e, it is within the range of the circle S. For this reason, the user can confirm how many characters have been deleted without moving the line of sight.

スマートフォン1は、ステップS33に示すように、指Fによる、BSキーオブジェクト31eに対する2回目のタッチを検出すると、カーソル30bの直前の文字を削除し、カーソル30bを1文字分だけ前方へ移動させる。そして、スマートフォン1は、「2文字削除」という文字列を含むバルーンBをBSキーオブジェクト31eの近傍に表示する。   As shown in step S33, when the smartphone 1 detects the second touch of the BS key object 31e with the finger F, the smartphone 1 deletes the character immediately before the cursor 30b and moves the cursor 30b forward by one character. Then, the smartphone 1 displays the balloon B including the character string “delete two characters” in the vicinity of the BS key object 31e.

このように、スマートフォン1は、文字を削除するキーオブジェクトに対する操作を検出した場合に、削除した文字数を示す文字列を含むバルーンBをキーオブジェクトの近傍に表示する。このため、利用者は、視線を移動させることなく、何文字削除されたかを把握することができる。   As described above, when the smartphone 1 detects an operation on a key object for deleting a character, the smartphone 1 displays a balloon B including a character string indicating the number of deleted characters in the vicinity of the key object. For this reason, the user can grasp | ascertain how many characters were deleted, without moving a eyes | visual_axis.

図7では、削除した文字の数を示す文字列をバルーンB内に表示する例を示したが、バルーンB内に表示する情報はこれに限定されない。例えば、スマートフォン1は、移動後のカーソル30bの直前に表示されている文字をバルーンB内に表示してもよい。すなわち、スマートフォン1は、次に削除される文字をバルーンB内に表示してもよい。   Although FIG. 7 shows an example in which the character string indicating the number of deleted characters is displayed in the balloon B, the information displayed in the balloon B is not limited to this. For example, the smartphone 1 may display a character displayed in front of the cursor 30b after movement in the balloon B. That is, the smartphone 1 may display a character to be deleted next in the balloon B.

図8を参照しながら、スマートフォン1による文字入力処理の処理手順について説明する。図8は、スマートフォンによる文字入力処理の処理手順を示すフローチャートである。図8に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図8に示す処理手順は、文字入力を受け付けるためのキーオブジェクトへの操作がなされた場合に実行される。コントローラ10は、図8に示す処理手順と並行して、他の処理手順を実行することがある。   With reference to FIG. 8, a processing procedure of character input processing by the smartphone 1 will be described. FIG. 8 is a flowchart showing a processing procedure of character input processing by the smartphone. The processing procedure shown in FIG. 8 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 8 is executed when an operation is performed on a key object for accepting character input. The controller 10 may execute another processing procedure in parallel with the processing procedure shown in FIG.

コントローラ10は、ステップS101として、キーオブジェクトに対するタッチを検出したら、ステップS102として、キーオブジェクトの表示を更新する。具体的には、コントローラ10は、キーオブジェクトに対応付けられている複数の文字のうち、順序が一番前の文字を入力候補文字に選択し、入力候補文字をキーオブジェクトの表示領域に表示する。さらに、コントローラ10は、ステップS103として、キーオブジェクトの近傍にバルーンBを表示する。バルーンBには、入力候補文字が含まれる。   When the controller 10 detects a touch on the key object in step S101, the controller 10 updates the display of the key object in step S102. Specifically, the controller 10 selects the character with the first order among the plurality of characters associated with the key object as the input candidate character, and displays the input candidate character in the display area of the key object. . Further, the controller 10 displays a balloon B in the vicinity of the key object as step S103. Balloon B includes input candidate characters.

続いて、コントローラ10は、ステップS104として、キーボード領域31のいずれかのキーオブジェクトがタッチされたことを検出したら、ステップS105として、タッチされたキーオブジェクトが直前にタッチされたキーオブジェクトと同一であるかを判定する。タッチされたキーオブジェクトが直前にタッチされたキーオブジェクトと同一である場合(ステップS105,Yes)、コントローラ10は、ステップS106に進む。   Subsequently, when the controller 10 detects that any one of the key objects in the keyboard area 31 is touched in step S104, the touched key object is the same as the key object touched immediately before in step S105. Determine whether. When the touched key object is the same as the key object touched immediately before (step S105, Yes), the controller 10 proceeds to step S106.

コントローラ10は、ステップS106として、入力候補文字を、キーオブジェクトに対応付けられている複数の文字のうち、順序が次の文字に変更する。そして、コントローラ10は、ステップS107として、キーオブジェクトの表示を更新する。具体的には、コントローラ10は、新たな入力候補文字をキーオブジェクトの表示領域に表示する。さらに、コントローラ10は、ステップS108として、キーオブジェクトの近傍にバルーンBを表示する。バルーンBには、新たな入力候補文字が含まれる。   In step S106, the controller 10 changes the input candidate character to the next character among the plurality of characters associated with the key object. In step S107, the controller 10 updates the display of the key object. Specifically, the controller 10 displays a new input candidate character in the display area of the key object. Further, the controller 10 displays a balloon B in the vicinity of the key object as step S108. Balloon B includes new input candidate characters.

続いて、コントローラ10は、ステップS109として、所定の条件が満たされたかを判定する。所定の条件が満たされていない場合(ステップS109,No)、コントローラ10は、ステップS104に戻る。   Subsequently, the controller 10 determines whether or not a predetermined condition is satisfied in step S109. When the predetermined condition is not satisfied (step S109, No), the controller 10 returns to step S104.

所定の条件が満たされている場合(ステップS109,Yes)、ステップS110に進む。コントローラ10は、ステップS110として、入力文字確定処理を行う。入力文字確定処理において、コントローラ10は、入力候補文字を入力が確定した文字として受け付けたことを、エフェクト表示によって利用者に対して報知する。   When the predetermined condition is satisfied (step S109, Yes), the process proceeds to step S110. The controller 10 performs an input character confirmation process as step S110. In the input character confirmation process, the controller 10 notifies the user that the input candidate character has been accepted as a character whose input has been confirmed by an effect display.

その後、コントローラ10は、ステップS111として、文字入力処理を終了するか判定する。例えば、コントローラ10は、キーオブジェクトが非表示になった場合、又はディスプレイ2Aに表示されている画面が他の画面に切り替わった場合に、文字入力処理を終了すると判定する。文字入力処理を終了しない場合(ステップS111,No)、コントローラ10は、ステップS101に戻る。文字入力処理を終了する場合(ステップS111,Yes)、コントローラ10は、図8に示す処理手順を終了する。   Thereafter, the controller 10 determines whether or not to end the character input process in step S111. For example, the controller 10 determines to end the character input process when the key object is not displayed or when the screen displayed on the display 2A is switched to another screen. When the character input process is not terminated (No at Step S111), the controller 10 returns to Step S101. When the character input process is to be ended (step S111, Yes), the controller 10 ends the processing procedure shown in FIG.

ステップS104にてタッチされたキーオブジェクトが直前にタッチされたキーオブジェクトと同一でない場合(ステップS105,No)、コントローラ10は、ステップS112に進む。コントローラ10は、ステップS112として、入力文字確定処理を行う。   When the key object touched in step S104 is not the same as the key object touched immediately before (step S105, No), the controller 10 proceeds to step S112. In step S112, the controller 10 performs input character confirmation processing.

続いて、コントローラ10は、ステップS113として、キーオブジェクトの表示を更新する。具体的には、コントローラ10は、ステップS104にてタッチされたキーオブジェクトに対応付けられている複数の文字のうち、順序が一番前の文字を入力候補文字に選択し、入力候補文字をキーオブジェクトの表示領域に表示する。さらに、コントローラ10は、ステップS114として、キーオブジェクトの近傍にバルーンBを表示する。バルーンBには、入力候補文字が含まれる。そして、コントローラ10は、ステップS104に戻る。   Subsequently, the controller 10 updates the display of the key object in step S113. Specifically, the controller 10 selects, as the input candidate character, the character with the earliest order among the plurality of characters associated with the key object touched in step S104, and selects the input candidate character as the key. Display in the display area of the object. Further, the controller 10 displays a balloon B in the vicinity of the key object as step S114. Balloon B includes input candidate characters. Then, the controller 10 returns to step S104.

図9を参照しながら、スマートフォン1による文字編集処理の処理手順について説明する。図9は、スマートフォンによる文字編集処理の処理手順を示すフローチャートである。図9に示す処理手順は、コントローラ10が、制御プログラム9Aを実行することによって実現される。図9に示す処理手順は、編集のためのキーオブジェクトへの操作がなされた場合に実行される。コントローラ10は、図9に示す処理手順と並行して、他の処理手順を実行することがある。   With reference to FIG. 9, the processing procedure of the character editing process by the smartphone 1 will be described. FIG. 9 is a flowchart illustrating a processing procedure of character editing processing by the smartphone. The processing procedure shown in FIG. 9 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 9 is executed when an operation is performed on a key object for editing. The controller 10 may execute another processing procedure in parallel with the processing procedure shown in FIG.

コントローラ10は、ステップS201として、キーオブジェクトに対するタッチを検出したら、ステップS202として、タッチが検出されたキーオブジェクトが矢印キーオブジェクトであるかを判定する。矢印キーオブジェクトは、カーソルを移動させるキーオブジェクトである。矢印キーオブジェクトは、右矢印キーオブジェクトと左矢印キーオブジェクトとを含む。   If the controller 10 detects a touch on the key object in step S201, the controller 10 determines whether the key object in which the touch is detected is an arrow key object in step S202. The arrow key object is a key object that moves the cursor. The arrow key object includes a right arrow key object and a left arrow key object.

タッチが検出されたキーオブジェクトが矢印キーオブジェクトである場合(ステップS202,Yes)、コントローラ10は、ステップS203へ進む。コントローラ10は、ステップS203として、カーソルを、タッチが検出された矢印キーオブジェクトに対応する方向へ移動させる。さらに、コントローラ10は、ステップS204として、キーオブジェクトの近傍にバルーンBを表示する。バルーンBには、カーソルの移動量を示す文字列が含まれる。   When the key object in which the touch is detected is an arrow key object (Yes in step S202), the controller 10 proceeds to step S203. In step S203, the controller 10 moves the cursor in a direction corresponding to the arrow key object in which the touch is detected. Further, the controller 10 displays a balloon B in the vicinity of the key object as step S204. Balloon B includes a character string indicating the amount of movement of the cursor.

タッチが検出されたキーオブジェクトが矢印キーオブジェクトでない場合(ステップS202,No)、コントローラ10は、ステップS205として、タッチが検出されたキーオブジェクトがBSキーオブジェクトであるかを判定する。BSキーオブジェクトは、カーソルの直前の1文字を削除させるキーオブジェクトである。   When the key object in which the touch is detected is not an arrow key object (No in Step S202), the controller 10 determines whether the key object in which the touch is detected is a BS key object in Step S205. The BS key object is a key object that deletes one character immediately before the cursor.

タッチが検出されたキーオブジェクトがBSキーオブジェクトである場合(ステップS205,Yes)、コントローラ10は、ステップS206へ進む。コントローラ10は、ステップS206として、カーソルの直前の1文字を削除し、カーソルを1文字分だけ前方に移動させる。さらに、コントローラ10は、ステップS207として、キーオブジェクトの近傍にバルーンBを表示する。バルーンBには、削除した文字数を示す文字列が含まれる。   When the key object in which the touch is detected is a BS key object (step S205, Yes), the controller 10 proceeds to step S206. In step S206, the controller 10 deletes one character immediately before the cursor and moves the cursor forward by one character. Further, the controller 10 displays a balloon B in the vicinity of the key object as step S207. Balloon B includes a character string indicating the number of deleted characters.

タッチが検出されたキーオブジェクトがBSキーオブジェクトでない場合(ステップS205,No)、ステップS206からステップS207は実行されない。   When the key object in which the touch is detected is not a BS key object (No at Step S205), Steps S206 to S207 are not executed.

上記の実施形態によれば、スマートフォン1は、キーオブジェクトの表示領域及びその近傍に、入力候補文字を表示する。これにより、利用者は、視線を動かすことなく、現在の入力候補文字を確認することができる。   According to said embodiment, the smart phone 1 displays an input candidate character in the display area of a key object, and its vicinity. Thereby, the user can confirm the current input candidate character without moving the line of sight.

さらに、上記の実施形態によれば、入力文字確定処理を行う場合に、確定した文字に対応するキーオブジェクトの表示領域又はその近傍でエフェクト表示を行う。これにより、利用者は、視線を動かすことなく、入力候補文字が、入力が確定した文字となったことを確認することができる。   Furthermore, according to the above embodiment, when the input character confirmation process is performed, the effect display is performed in the display area of the key object corresponding to the confirmed character or in the vicinity thereof. As a result, the user can confirm that the input candidate character is a character whose input has been confirmed without moving the line of sight.

さらに、上記の実施形態によれば、入力文字確定処理が行われた場合に、それまで入力候補文字が表示されていたキーオブジェクトの表示領域に元のラベルが表示される。入力文字確定処理が行われる場合には、または他のキーオブジェクトへのタッチが検出された場合が含まれる。これにより、利用者は、ラベルに基づいて、どのキーオブジェクトにどの文字が対応付けられているかを把握できるので、次の文字の入力を容易に行うことができる。   Furthermore, according to the above embodiment, when the input character confirmation process is performed, the original label is displayed in the display area of the key object where the input candidate characters have been displayed. The case where input character confirmation processing is performed or the case where a touch on another key object is detected is included. Thereby, the user can grasp which key object is associated with which character based on the label, and therefore can easily input the next character.

本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。   Embodiment which this application discloses can be changed in the range which does not deviate from the summary and range of invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.

例えば、図4に示した各プログラムは、複数のモジュールに分割されていてもよい。あるいは、図4に示した各プログラムは、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 4 may be divided into a plurality of modules. Alternatively, each program shown in FIG. 4 may be combined with another program.

上記の実施形態ではアルファベットを入力する場合について説明したが、上記の文字入力処理の処理手順は、アルファベット以外の文字を入力する場合にも適用できる。アルファベット以外の文字には、例えば、数字、記号、日本語のひらがな又はカタカナ、他の言語の文字が含まれる。   Although the case where the alphabet is input has been described in the above embodiment, the above-described processing procedure of the character input process can be applied to the case where a character other than the alphabet is input. Non-alphabetic characters include, for example, numbers, symbols, Japanese hiragana or katakana, and characters in other languages.

上記の実施形態では、スマートフォン1は、入力候補文字を入力が確定した文字として受け付けたことを報知するためにエフェクト表示を行うが、報知の仕方はこれに限定されない。例えば、スマートフォン1は、入力候補文字を入力が確定した文字として受け付けたことを報知するために、スピーカ11から音を出力したり、ハウジング20を振動させたりしてもよい。例えば、スマートフォン1は、入力候補文字を入力が確定した文字として受け付けたことを報知するために、複数の報知の仕方を組み合わせてもよい。報知の仕方は、利用者の設定によって変更できてもよい。   In the above embodiment, the smartphone 1 performs an effect display to notify that the input candidate character is accepted as a character whose input is confirmed, but the notification method is not limited to this. For example, the smartphone 1 may output a sound from the speaker 11 or vibrate the housing 20 in order to notify that the input candidate character has been accepted as a character whose input has been confirmed. For example, the smartphone 1 may combine a plurality of notification methods in order to notify that the input candidate character is accepted as a character whose input has been confirmed. The notification method may be changed according to user settings.

エフェクト表示を行うことは必須ではなく、スマートフォン1は、エフェクト表示を行わなくてもよい。   It is not essential to display the effect, and the smartphone 1 may not display the effect.

上記の実施形態では、スマートフォン1は、キーオブジェクトの表示領域に入力候補文字を表示するとともに、キーオブジェクトの近傍にバルーンによって入力候補文字を表示するが、入力候補文字の表示の仕方はこれに限定されない。例えば、スマートフォン1は、キーオブジェクトの表示領域への表示とバルーンによる表示とのいずれか一方を行ってもよい。キーオブジェクトの表示領域への表示タイミングとバルーンによる表示タイミングとは同時であってもよいし、同時でなくてもよい。   In the above embodiment, the smartphone 1 displays the input candidate characters in the display area of the key object and displays the input candidate characters by a balloon near the key object. However, the method of displaying the input candidate characters is limited to this. Not. For example, the smartphone 1 may perform display of the key object in the display area or display with a balloon. The display timing of the key object in the display area and the display timing by the balloon may or may not be the same.

図5のステップS14及びS17では、スマートフォン1は、指Fのリリースを検出したときに、バルーンBの表示を解除しているが、バルーンを表示したままにしてもよい。バルーンを表示したままにすれば、利用者は引き続き、視線を動かすことなく、現在の入力候補文字を確認することができる。   In steps S <b> 14 and S <b> 17 of FIG. 5, when the smartphone 1 detects the release of the finger F, the display of the balloon B is canceled, but the balloon may remain displayed. If the balloon is kept displayed, the user can continue to check the current input candidate character without moving the line of sight.

スマートフォン1は、キーオブジェクトの表示領域への表示とバルーンによる表示とのいずれか一方又は両方を、所定時間経過後に解除してもよい。   The smartphone 1 may cancel one or both of the display of the key object in the display area and the display by the balloon after a predetermined time has elapsed.

上記の実施形態では、スマートフォン1は、キーオブジェクトの表示領域及びその近傍に、現在の入力候補文字を表示するが、表示する文字はこれに限定されない。スマートフォン1は、キーオブジェクトに対応付けられた文字のうち、順序が入力候補文字の次の文字をさらに表示してもよい。   In said embodiment, although the smart phone 1 displays the present input candidate character in the display area of a key object, and its vicinity, the character to display is not limited to this. The smartphone 1 may further display the character next to the input candidate character in the character associated with the key object.

例えば、スマートフォン1は、図5のステップS13においてバルーンBで「A」を表示しているが、順序が次の「B」をさらにバルーンBに表示してもよい。例えば、スマートフォン1は、「A→B」をバルーンに表示してもよい。あるいは、スマートフォン1は、「A」よりも「B」を小さくして、「AB」をバルーンに表示してもよい。図5のステップS14のキーオブジェクト31aの表示領域についても同様に、スマートフォン1は、順序が次の文字を、さらに表示してもよい。   For example, although the smartphone 1 displays “A” with the balloon B in step S <b> 13 of FIG. 5, the next “B” in the order may be further displayed on the balloon B. For example, the smartphone 1 may display “A → B” on a balloon. Or the smart phone 1 may make "B" smaller than "A", and may display "AB" on a balloon. Similarly, for the display area of the key object 31a in step S14 in FIG. 5, the smartphone 1 may further display the next character in the order.

あるいは、スマートフォン1は、現在の入力候補文字をバルーンで表示し、順序が次の文字をキーオブジェクト31aの表示領域に表示してもよい。つまり、スマートフォン1は、キーオブジェクト31aの表示領域の表示と、バルーンで表示を異ならせてもよい。   Alternatively, the smartphone 1 may display the current input candidate character with a balloon and display the next character in the order in the display area of the key object 31a. That is, the smartphone 1 may make the display of the display area of the key object 31a different from the display with the balloon.

上記の実施形態では、スマートフォン1は、キーオブジェクトに対応付けられた複数の文字のうち、キーオブジェクトに対するタッチを検出した回数に応じた文字を、入力候補文字として表示するが、入力候補文字を切り替える基準はこれに限定されない。例えば、スマートフォン1は、キーオブジェクトに対するタッチの継続時間に応じた文字を、入力候補文字として表示してもよい。つまり、スマートフォン1は、利用者によりキーオブジェクトがタッチされている時間を測定し、タッチされている時間に応じた文字を入力候補文字として表示してもよい。   In said embodiment, although the smart phone 1 displays the character according to the frequency | count which detected the touch with respect to a key object among the several characters matched with the key object as an input candidate character, it switches an input candidate character. The standard is not limited to this. For example, the smartphone 1 may display characters corresponding to the duration of the touch on the key object as input candidate characters. That is, the smartphone 1 may measure the time that the key object is touched by the user, and display characters corresponding to the touched time as input candidate characters.

例えば、スマートフォン1は、キーオブジェクトに対するタッチが検出されたら時間のカウントを開始し、1秒以内にリリースが検出されれば、入力候補文字を次の文字に変更する。つまり、スマートフォン1は、現在の入力候補文字を基準として、順序が次の文字を入力候補文字とする。1秒以内ではなく、2秒以内にリリースが検出されれば、スマートフォン1は、現在の入力候補文字を基準として、順序が次の次の文字を入力候補文字とする。以下同様に、スマートフォン1は、タッチの継続時間に応じた文字を入力候補文字とする。   For example, the smartphone 1 starts counting time when a touch on the key object is detected, and changes the input candidate character to the next character if release is detected within 1 second. That is, the smartphone 1 sets the next character in the order as the input candidate character with reference to the current input candidate character. If the release is detected within 2 seconds instead of within 1 second, the smartphone 1 sets the next character in the next order as the input candidate character with reference to the current input candidate character. Similarly, the smartphone 1 sets characters corresponding to the touch duration time as input candidate characters.

上記の実施形態では、スマートフォン1は、キーオブジェクトに対するタッチを検出すると、入力候補文字を変更するが、入力候補文字を切り替える操作はこれに限定されない。例えば、スマートフォン1は、キーオブジェクトに対するタッチを検出した後にリリースを検出したときに、入力候補文字を変更してもよい。あるいは、スマートフォン1は、キーオブジェクトの表示領域においてフリックを検出したときに、入力候補文字を変更してもよい。この場合、スマートフォン1は、検出したフリックの方向に応じて、入力候補文字を変更してもよい。   In the above embodiment, when the smartphone 1 detects a touch on the key object, the input candidate character is changed, but the operation of switching the input candidate character is not limited to this. For example, the smartphone 1 may change the input candidate character when the release is detected after detecting the touch on the key object. Or the smart phone 1 may change an input candidate character, when a flick is detected in the display area of a key object. In this case, the smartphone 1 may change the input candidate character according to the detected flick direction.

上記の実施形態では、タッチスクリーンを備える装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る装置は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。   In the above embodiment, a smartphone has been described as an example of a device including a touch screen, but the device according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a portable electronic device other than a smartphone. Examples of portable electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. The device according to the appended claims may be a stationary electronic device. The stationary electronic device includes, for example, a desktop personal computer, an automatic depositing and paying machine (ATM), and a television receiver, but is not limited thereto.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B メールアプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
30 入力文字表示領域
31 キーボード領域
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Mail application 9C Browser application 9Z Setting data 10 Controller 11 Speaker 12, 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 20 Housing 30 Input character display area 31 Keyboard area

Claims (6)

カーソルを移動させるためのキーオブジェクトと、当該カーソルを含む入力文字表示領域と、を表示するタッチスクリーンディスプレイと、
前記キーオブジェクトへの操作を検出すると、前記入力文字表示領域において前記カーソルを移動させるとともに、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するコントローラと
を備える電子機器。
A touch screen display for displaying a key object for moving the cursor and an input character display area including the cursor ;
An electronic device comprising: a controller that, when detecting an operation on the key object, moves the cursor in the input character display area and displays a movement amount of the cursor in the vicinity of the key object.
前記コントローラは、前記キーオブジェクトへの操作を検出すると、前記カーソルの移動量を示す文字列を前記キーオブジェクトの近傍に表示するWhen the controller detects an operation on the key object, the controller displays a character string indicating the amount of movement of the cursor in the vicinity of the key object.
請求項1に記載の電子機器。The electronic device according to claim 1.
前記コントローラは、前記キーオブジェクト及び前記入力文字領域と重ならない領域に前記カーソルの移動量を表示するThe controller displays the movement amount of the cursor in an area that does not overlap the key object and the input character area.
請求項1又は2に記載の電子機器。The electronic device according to claim 1 or 2.
タッチスクリーンディスプレイを備える電子機器を制御する方法であって、
カーソルを移動させるためのキーオブジェクトと、当該カーソルを含む入力文字表示領域と、を前記タッチスクリーンディスプレイに表示するステップと、
前記キーオブジェクトへの操作を検出すると、前記入力文字表示領域において前記カーソルを移動させるとともに、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するステップと
を含む方法。
A method for controlling an electronic device comprising a touch screen display, comprising:
Displaying a key object for moving the cursor and an input character display area including the cursor on the touch screen display;
And a method of moving the cursor in the input character display area and displaying a movement amount of the cursor in the vicinity of the key object when an operation on the key object is detected.
タッチスクリーンディスプレイを備える電子機器に、
カーソルを移動させるためのキーオブジェクトと、当該カーソルを含む入力文字表示領域と、を前記タッチスクリーンディスプレイに表示するステップと、
前記キーオブジェクトへの操作を検出すると、前記入力文字表示領域において前記カーソルを移動させるとともに、前記カーソルの移動量を前記キーオブジェクトの近傍に表示するステップと
を実行させるプログラム。
For electronic devices with touch screen displays,
Displaying a key object for moving the cursor and an input character display area including the cursor on the touch screen display;
A program that, when an operation on the key object is detected , moves the cursor in the input character display area and displays the movement amount of the cursor in the vicinity of the key object.
カーソルを移動させるためのキーオブジェクトと、当該カーソルを含む入力文字表示領域と、を表示するタッチスクリーンディスプレイと、A touch screen display for displaying a key object for moving the cursor and an input character display area including the cursor;
前記キーオブジェクトへの操作を検出すると、前記入力文字表示領域において前記カーソルを移動させるとともに、当該移動後の前記カーソルの直前又は直後に表示されている文字を前記キーオブジェクトの近傍に表示するコントローラとA controller that moves the cursor in the input character display area upon detecting an operation on the key object, and displays a character displayed immediately before or immediately after the cursor in the vicinity of the key object;
を備える電子機器。Electronic equipment comprising.
JP2013204133A 2013-09-30 2013-09-30 Electronic apparatus, method, and program Active JP6099537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013204133A JP6099537B2 (en) 2013-09-30 2013-09-30 Electronic apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204133A JP6099537B2 (en) 2013-09-30 2013-09-30 Electronic apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2015069487A JP2015069487A (en) 2015-04-13
JP6099537B2 true JP6099537B2 (en) 2017-03-22

Family

ID=52836063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204133A Active JP6099537B2 (en) 2013-09-30 2013-09-30 Electronic apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6099537B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6460255B2 (en) * 2015-10-19 2019-01-30 富士通株式会社 Work support system, work support method, and work support program
JP6661421B2 (en) * 2016-03-08 2020-03-11 キヤノン株式会社 Information processing apparatus, control method, and program
JP7134767B2 (en) * 2018-07-25 2022-09-12 横河電機株式会社 Display unit, display unit control method and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS593535A (en) * 1982-06-30 1984-01-10 Canon Inc Operating device
JPS6237722A (en) * 1985-08-12 1987-02-18 Matsushita Electric Ind Co Ltd Document processor
JPH07210315A (en) * 1994-01-20 1995-08-11 Fujitsu General Ltd Mouse input device
JPH08221204A (en) * 1995-02-14 1996-08-30 Ricoh Co Ltd Touch panel input device
JP3504464B2 (en) * 1997-07-30 2004-03-08 インターナショナル・ビジネス・マシーンズ・コーポレーション Data input device and method
JP2000250702A (en) * 1999-02-26 2000-09-14 Nec Home Electronics Ltd Cursor position input device
JP2001331255A (en) * 2000-05-19 2001-11-30 Noritsu Koki Co Ltd Data inputting means and photograph processor
JP2002032170A (en) * 2000-07-19 2002-01-31 Fujitsu General Ltd Pos terminal
JP4965681B2 (en) * 2010-03-24 2012-07-04 株式会社エヌ・ティ・ティ・ドコモ Mobile terminal and display control method

Also Published As

Publication number Publication date
JP2015069487A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
JP6368455B2 (en) Apparatus, method, and program
JP5805588B2 (en) Electronic device, control method, and control program
JP5715042B2 (en) Apparatus, method, and program
JP5762944B2 (en) Apparatus, method, and program
JP5891083B2 (en) Apparatus, method, and program
JP6110654B2 (en) Apparatus, method, and program
JP2013084233A (en) Device, method, and program
JP5805685B2 (en) Electronic device, control method, and control program
JP2013134695A (en) Device, method, and program
JP6058790B2 (en) Apparatus, method, and program
JP2013200681A (en) Device, method and program
JP5858896B2 (en) Electronic device, control method, and control program
JP2014071724A (en) Electronic apparatus, control method, and control program
JP2013084237A (en) Device, method, and program
JP6099537B2 (en) Electronic apparatus, method, and program
JP5775432B2 (en) Apparatus, method, and program
JP5762885B2 (en) Apparatus, method, and program
JP2013065291A (en) Device, method, and program
JP2015106181A (en) Electronic apparatus, control method, and control program
JP6139068B2 (en) Apparatus and method
JP2014067298A (en) Device, method, and program
JP6203512B2 (en) Electronic apparatus, method, and program
JP5740366B2 (en) Apparatus, method, and program
JP5864390B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM
JP2016157346A (en) Electronic apparatus, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6099537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150