WO2017169668A1 - 電子機器、文字入力制御方法、及び文字入力プログラム - Google Patents

電子機器、文字入力制御方法、及び文字入力プログラム Download PDF

Info

Publication number
WO2017169668A1
WO2017169668A1 PCT/JP2017/009801 JP2017009801W WO2017169668A1 WO 2017169668 A1 WO2017169668 A1 WO 2017169668A1 JP 2017009801 W JP2017009801 W JP 2017009801W WO 2017169668 A1 WO2017169668 A1 WO 2017169668A1
Authority
WO
WIPO (PCT)
Prior art keywords
key
area
touch screen
character
electronic device
Prior art date
Application number
PCT/JP2017/009801
Other languages
English (en)
French (fr)
Inventor
優志 長坂
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/088,445 priority Critical patent/US11042289B2/en
Priority to EP17774212.9A priority patent/EP3438797A4/en
Publication of WO2017169668A1 publication Critical patent/WO2017169668A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys
    • H03M11/06Coding of multifunction keys by operating the multifunction key itself in different ways
    • H03M11/08Coding of multifunction keys by operating the multifunction key itself in different ways by operating selected combinations of multifunction keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72466User interfaces specially adapted for cordless or mobile telephones with selection means, e.g. keys, having functions defined by the mode or the status of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Definitions

  • This application relates to an electronic device, a character input control method, and a character input program.
  • Patent Document 1 discloses an electronic device that executes various functions in accordance with operations detected via a touch screen.
  • An electronic device includes a touch screen including a first key area associated with a plurality of first keys and a second key area associated with a plurality of second keys; A controller that executes character input processing based on an operation on a key detected in the first key area and the second key area.
  • the first key area is an area along a first edge of the touch screen.
  • the plurality of first keys are arranged along the first edge.
  • the second key area is an area along a second edge different from the first edge of the touch screen.
  • the plurality of second keys are arranged along the second edge.
  • a character input control method is a control method executed by an electronic device including a touch screen, and includes a first key area in which a plurality of first keys are associated with the touch screen, and a plurality of second keys.
  • a second key area associated with the key is set, and character input processing is executed based on an operation on the key detected in the first key area and the second key area of the touch screen.
  • the first key area is an area along a first edge of the touch screen.
  • the plurality of first keys are arranged along the first edge.
  • the second key area is an area along a second edge different from the first edge of the touch screen.
  • the plurality of second keys are arranged along the second edge.
  • a character input program includes a second key in which a plurality of first keys and a plurality of second keys are associated with an electronic device including a touch screen.
  • a key area is set, and a character input process is executed based on an operation on a key detected in the first key area and the second key area of the touch screen.
  • the first key area is an area along a first edge of the touch screen.
  • the plurality of first keys are arranged along the first edge.
  • the second key area is an area along a second edge different from the first edge of the touch screen.
  • the plurality of second keys are arranged along the second edge.
  • FIG. 1 is a perspective view of the smartphone according to the embodiment.
  • FIG. 2 is a front view of the smartphone.
  • FIG. 3 is a rear view of the smartphone.
  • FIG. 4 is a block diagram of the smartphone.
  • FIG. 5 is a diagram illustrating an example of a detection configuration in the touch screen.
  • FIG. 6 is a diagram illustrating an example of the first key data.
  • FIG. 7 is a diagram illustrating an example of the second key data.
  • FIG. 8 is a diagram illustrating an example of the first key data.
  • FIG. 9 is a diagram illustrating an example of the second key data.
  • FIG. 10 is a diagram illustrating an example of a display screen.
  • FIG. 11 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 11 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 12 is a diagram illustrating an example of a display screen.
  • FIG. 13 is a diagram illustrating an example of a display screen.
  • FIG. 14 is a diagram illustrating an example of a display screen.
  • FIG. 15 is a diagram illustrating an example of a display screen.
  • FIG. 16 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 17 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 18 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 19 is a flowchart illustrating a processing procedure of an example of control by a smartphone.
  • FIG. 20 is a front view of another example of the electronic device.
  • the smartphone 1 has a housing 20.
  • the housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4.
  • the front face 1 ⁇ / b> A is the front of the housing 20.
  • the back face 1 ⁇ / b> B is the back surface of the housing 20.
  • the side faces 1C1 to 1C4 are side faces that connect the front face 1A and the back face 1B.
  • the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.
  • the smartphone 1 has a touch screen display 2, buttons (keys) 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A.
  • the smartphone 1 has a speaker 11 and a camera 13 on the back face 1B.
  • the smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C.
  • the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.
  • the touch screen display 2 has a display 2A and a touch screen 2B.
  • the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this.
  • Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle.
  • the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B are overlapped, but the arrangement of the display 2 ⁇ / b> A and the touch screen 2 ⁇ / b> B is not limited to this.
  • the display 2A and the touch screen 2B may be arranged side by side or may be arranged apart from each other. In the example of FIG.
  • the long side of the display 2A is along the long side of the touch screen 2B, and the short side of the display 2A is along the short side of the touch screen 2B, but the display 2A and the touch screen 2B are overlapped. Is not limited to this.
  • the touch screen display 2 has a rectangular shape, and the four sides 2C, 2D, 2E, and 2F are adjacent to the side faces 1C1 to 1C4 of the housing 20, respectively.
  • the touch screen display 2 has a side 2C adjacent to the side face 1C4 of the housing 20.
  • the touch screen display 2 has a side 2D adjacent to the side face 1C3 of the housing 20.
  • the display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display device).
  • LCD Liquid Crystal Display
  • OELD Organic Electro-Luminescence Display
  • IELD Inorganic Electro-Luminescence Display device
  • the touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with the touch screen 2B.
  • the touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B.
  • a finger, pen, stylus pen, or the like that contacts the touch screen 2B may be referred to as a “contact object” or “contact object”.
  • the detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method, and a load detection method.
  • a capacitance method such as a capacitance method, a resistive film method, a surface acoustic wave method, and a load detection method.
  • the smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture.
  • the gesture is an operation performed on the touch screen 2B.
  • Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.
  • the smartphone 1 operates according to these gestures determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized.
  • the operation performed by the smartphone 1 according to the determined gesture may differ depending on the screen displayed on the display 2A.
  • the touch screen 2B detects contact
  • the smartphone 1 determines that the gesture type is X based on the detected contact
  • the controller detects X”.
  • FIG. 4 is a block diagram of the smartphone 1.
  • the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, a gyroscope 17, and an atmospheric pressure sensor 19.
  • the touch screen display 2 has the display 2A and the touch screen 2B as described above.
  • the display 2A displays characters, images, symbols, graphics, or the like.
  • the touch screen 2B detects contact.
  • the controller 10 detects a gesture for the smartphone 1. Specifically, the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.
  • the touch screen 2B includes a plurality of first electrodes 2B1 and a plurality of second electrodes 2B2.
  • the plurality of first electrodes 2B1 are electrodes extending in the long side direction of the touch screen 2B.
  • the plurality of second electrodes 2B2 are electrodes extending in the short side direction of the touch screen 2B.
  • the plurality of first electrodes 2B1 and the plurality of second electrodes 2B2 intersect in a matrix.
  • a portion where the first electrode 2B1 and the second electrode 2B2 intersect is a detection point 60 of the touch screen 2B.
  • the touch screen 2B includes a plurality of detection points 60.
  • the plurality of detection points 60 are used when the smartphone 1 specifies the contact position (contact point) of the contact object on the touch screen 2B.
  • the plurality of detection points 60 are located in a matrix.
  • the smartphone 1 can detect the contact point 70 of the contact object on the touch screen 2 ⁇ / b> B based on the detected value of the detected detection point 60.
  • the button 3 is operated by the user.
  • the button 3 has buttons 3A to 3F.
  • the controller 10 detects an operation on the button 3 by cooperating with the button 3.
  • the operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.
  • the buttons 3A to 3C are, for example, a home button, a back button, or a menu button.
  • the button 3D is, for example, a power on / off button of the smartphone 1.
  • the button 3D may also serve as a sleep / sleep release button.
  • the buttons 3E and 3F are volume buttons, for example.
  • the illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.
  • the proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. The proximity sensor 5 detects that the touch screen display 2 is brought close to the face, for example.
  • the illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.
  • the communication unit 6 communicates wirelessly.
  • the communication method supported by the communication unit 6 is a wireless communication standard.
  • wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G.
  • Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000 (Wideband Code Divisul Multiple Access (SMD), PDC (GoldPulse), PDC (GoldPulse), PDC (GoldPulse Access) Includes Global System for Mobile Communications (PHS), PHS (Personal Handy-phone System), etc.
  • the communication unit 6 may support one or more of the communication standards described above.
  • the receiver 7 and the speaker 11 are an example of an output unit that outputs sound.
  • the receiver 7 and the speaker 11 can output the sound signal transmitted from the controller 10 as sound.
  • the receiver 7 may be used to output the voice of the other party during a call.
  • the speaker 11 may be used for outputting a ringtone and music, for example.
  • One of the receiver 7 and the speaker 11 may also function as the other.
  • the microphone 8 is an example of an input unit that inputs sound. The microphone 8 can convert a user's voice or the like into a sound signal and transmit the sound signal to the controller 10.
  • the storage 9 can store programs and data.
  • the storage 9 may be used as a work area for temporarily storing the processing result of the controller 10.
  • the storage 9 includes a recording medium.
  • the recording medium may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium.
  • the storage 9 may include a plurality of types of storage media.
  • the storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader.
  • the storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).
  • the program stored in the storage 9 includes an application executed in the foreground or the background and a control program that supports the operation of the application.
  • the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B.
  • the control program is, for example, an OS.
  • the application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.
  • the storage 9 stores, for example, a control program 9A, an input program 9B, first key data 9C, second key data 9D, and condition data 9E.
  • the control program 9A can provide functions related to various controls for operating the smartphone 1.
  • the control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example.
  • the function provided by the control program 9A includes a function of performing various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B.
  • the functions provided by the control program 9A include a function of detecting the movement, stop, etc. of the user holding the smartphone 1 by controlling the acceleration sensor 15 and the atmospheric pressure sensor 19 and the like.
  • the functions provided by the control program 9A may be used in combination with functions provided by other programs such as a calculation application and a telephone application.
  • the input program 9B can provide a function for inputting text (characters) to the smartphone 1.
  • the input program 9B displays the first key in the first key area and displays the second key in the second key area, thereby realizing character input.
  • a specific character input method will be described later.
  • the input program 9B may have a function for inputting characters by other input methods.
  • the first key data 9C includes information on the first key displayed in the first key area set by the input program 9B.
  • the second key data 9D includes information on the second key displayed in the second key area set by the input program 9B.
  • the second key data 9D is key data associated with the first key data 9C.
  • FIG. 6 is a diagram illustrating an example of the first key data.
  • FIG. 7 is a diagram illustrating an example of the second key data.
  • FIG. 6 and FIG. 7 are examples of data when Japanese “Kana” input is performed.
  • the first key data 9C a display image and input candidates are associated with the first key included in the first key area.
  • the first key 1 is associated with the display image “A” and the input candidate “A”.
  • the display image “ka line” and the input candidate “ka” are associated with the first key 2.
  • the second key data 9D stores the correspondence of the first key to the second key included in the second key area.
  • a plurality of characters associated with the second key are display images, and any of the plurality of characters is an input candidate.
  • the first key “A row” includes the second key 1 “A”, the second key 2 “I”, the second key 3 “U”, the second key 2 “E” is associated with the key 4, “O” is associated with the second key 5, “new line” is associated with the second key 6, and the like.
  • “A”, “I”, “U”, “E”, “O” are examples of input candidates associated with the display image “A”. Line breaks, deletions, and the like are processes that are executed by character input instead of characters to be input.
  • FIG. 8 is a diagram illustrating an example of the first key data.
  • FIG. 9 is a diagram illustrating an example of the second key data. 8 and 9 are examples of data when alphabet input is performed.
  • a display image and input candidates are associated with the first key included in the first key area.
  • the display key “abc” and the input candidate “a” are associated with the first key 1.
  • the display key “def” and the input candidate “d” are associated with the first key 2.
  • the second key data 9D stores the correspondence of the first key to the second key included in the second key area.
  • a plurality of characters associated with the second key are display images, and any of the plurality of characters is an input candidate.
  • the first key “abc” includes “a” as the second key 1, “b” as the second key 2, “c” as the second key 3, and the second key. 4 is associated with “A”, the second key 5 with “B”, and the second key 6 with “C”.
  • “a”, “b”, “c”, “A”, “B”, and “C” are examples of input candidates associated with the display image “abc”.
  • one character is associated with the key, but a character string of two or more characters including words, sentences, and the like may be associated with the key. For example, “Thank you” or “Tomorrow” may be associated with one of the second keys corresponding to “A row” as input candidates. Also, a combination of characters in which two or more characters do not make sense may be used.
  • condition data 9E various conditions for executing processing by the input program 9B are set. Specifically, in the condition data 9E, a correspondence relationship between the detected touch gesture and the process to be executed, a program condition, a stop condition, or the like is set.
  • the controller 10 includes an arithmetic processing unit.
  • the arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. It is not limited.
  • the controller 10 can comprehensively control the operation of the smartphone 1. Various functions of the controller 10 are realized based on the control of the controller 10.
  • the controller 10 can execute instructions included in the program stored in the storage 9.
  • the controller 10 can refer to the data stored in the storage 9 as necessary.
  • the controller 10 controls the functional unit according to data and instructions.
  • the controller 10 implements various functions by controlling the function unit.
  • the functional unit includes, for example, the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but is not limited thereto.
  • the controller 10 may change the control according to the detection result of the detection unit.
  • the detection unit includes, for example, a touch screen 2B, a button 3, an illuminance sensor 4, a proximity sensor 5, a microphone 8, a camera 12, a camera 13, an acceleration sensor 15, an orientation sensor 16, a gyroscope 17, and an atmospheric pressure sensor 19. It is not limited to these.
  • the controller 10 executes various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B by executing the control program 9A or the input program 9B, for example. it can.
  • the camera 12 is an in-camera that captures an object facing the front face 1A.
  • the camera 13 is an out camera that captures an object facing the back face 1B.
  • the connector 14 is a terminal to which other devices are connected.
  • the connector 14 may be a general-purpose terminal such as a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), or an earphone microphone connector.
  • the connector 14 may be a dedicated terminal such as a dock connector.
  • Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.
  • the acceleration sensor 15 can detect the direction and magnitude of acceleration acting on the smartphone 1.
  • the direction sensor 16 can detect the direction of geomagnetism.
  • the gyroscope 17 can detect the angle and angular velocity of the smartphone 1.
  • the atmospheric pressure sensor 19 can detect the atmospheric pressure acting on the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, the gyroscope 17, and the atmospheric pressure sensor 19 are used in combination in order to detect changes in the position and orientation of the smartphone 1.
  • Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.
  • the configuration of the smartphone 1 shown in FIG. 4 is an example, and may be appropriately changed within a range that does not impair the gist of the present application.
  • the number and type of buttons 3 are not limited to the example of FIG.
  • the smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout instead of the buttons 3A to 3C as buttons for operations related to the screen.
  • the smartphone 1 may include only one button or may not include a button for operations related to the screen.
  • the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera.
  • the smartphone 1 includes four types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors.
  • the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.
  • FIG. 10 is a diagram illustrating an example of a display screen.
  • the smart phone 1 displays the screen shown in FIG. 10, when performing a character input process using the input program 9B.
  • the screen shown in FIG. 10 includes a first key area 40, a second key area 42, a notification column 44, an end key 46, a display column 48, and an enter key 49.
  • the first key area 40 is provided along the side 2C of the touch screen display 2 and is adjacent to the side 2C. That is, the first key area 40 is adjacent to the side face 1C4 of the housing 20.
  • a plurality of first keys 50a, 50b, 50c, 50d, 50e, 50f, 50g, 50h, 50i, and 50j are displayed.
  • the plurality of first keys 50a, 50b, 50c, 50d, 50e, 50f, 50g, 50h, 50i, and 50j of this embodiment are arranged in a line from the upper side to the lower side of the screen along the side 2C.
  • a plurality of first keys 50a, 50b, 50c, 50d, 50e, 50f, 50g, 50h, 50i, and 50j of the present embodiment are the contents of 1 to 10 of the first key data 9C in each first key. Are associated. Accordingly, the first key 50a is associated with one piece of information of the first key data 9C, and in the case of “Kana” input, an image of “A” is displayed.
  • the second key area 42 is provided along the side 2D of the touch screen display 2 and is adjacent to the side 2D. That is, the second key area 42 is adjacent to the side face 1C3 of the housing 20.
  • the second key area 42 is arranged on a different side from the first key area 40, that is, on the opposite side in the present embodiment.
  • a plurality of second keys 52a, 52b, 52c, 52d, 52e, 52f, 52g, 52h, 52i, and 52j are displayed.
  • the plurality of second keys 52a, 52b, 52c, 52d, 52e, 52f, 52g, 52h, 52i, and 52j of this embodiment are arranged in a line from the upper side to the lower side of the screen along the side 2D.
  • the plurality of second keys 52a, 52b, 52c, 52d, 52e, 52f, 52g, 52h, 52i, and 52j of the present embodiment are the contents of 1 to 10 of the second key data 9D in each second key. Are associated. Therefore, when the second key 52a is associated with 1 information of the second key data 9D and is “Kana” input, and “A” of the first key 50a is selected, “A” An image is displayed.
  • the end key 46 is a key associated with a text input end operation.
  • the display column 48 is a column for displaying input characters. In FIG. 10, the input character string “Thank you” is displayed in the display field 48.
  • the character string in FIG. 10 is an example.
  • the determination key 49 is a key associated with an operation for determining an input candidate character as an input character.
  • the enter key 49 is in contact with both the side 2C and the side 2D.
  • the enter key 49 is in contact with both the first key area 40 and the second key area 42.
  • the arrangement position of the enter key 49 is not limited to this.
  • FIG. 11 is a flowchart illustrating a processing procedure of an example of control by the smartphone 1.
  • 12 to 15 are diagrams showing examples of display screens.
  • the processing procedure shown in FIG. 11 is realized by the controller 10 executing the input program 9B. Further, the process shown in FIG. 11 is a process executed in a state where the character input function of the input program 9B is activated.
  • the controller 10 of the smartphone 1 detects a touch (step S12).
  • the controller 10 determines whether the touch is on the first key (step S14). If the controller 10 determines that the touch is on the first key (Yes in step S14), the controller 10 displays the second key corresponding to the key that detected the touch (step S16). That is, the controller 10 extracts data corresponding to the first key that detected the touch from the second key data 9D, and displays the extracted data on each of the plurality of second keys in the second key area 42.
  • the controller 10 determines input candidates (step S18), and displays the determined input candidates (step S20). Specifically, the controller 10 acquires information on input candidates corresponding to the first key that detected the touch from the first key data 9C, and determines and displays the acquired input candidates as input candidates.
  • the controller 10 displays the first key 50a to 50j in the first key area 40 on the touch screen display 2 as shown in FIG.
  • the information of each key in the key data 9C is associated, and the display of each key displays an image.
  • the second keys 52a to 52j in the second key area 42 are displayed only for the outline of the key, and no characters are displayed therein.
  • the controller 10 detects a touch with the first key 50a from the state shown in FIG. 12, the second key data is stored in each of the second keys 52a to 52j in the second key area 42 as shown in FIG.
  • the second key corresponding to 9D “A” is associated.
  • “A” corresponding to “A” of the first key 50a is determined as an input candidate, and “Now selecting“ A ”” is displayed in the notification column 44 as information on the input candidate character.
  • the controller 10 displays an unconfirmed “a” as input candidate characters in the display field 48.
  • the controller 10 can execute the same processing as when the first key 50a is selected. For example, when the controller 10 detects a touch with the first key 50c from the state shown in FIG. 13, the second key data is stored in each of the second keys 52a to 52j in the second key area 42 as shown in FIG. The second key corresponding to 9D “sa line” is associated. Also, “sa” corresponding to “sa line” of the first key 50c is determined as an input candidate, and “noting“ sa ”is selected” is displayed in the notification field 44, and information on the input candidate character is displayed. Further, the controller 10 displays “sa” that is unconfirmed as input candidate characters in the display field 48.
  • step S22 the controller 10 determines whether the first key is selected. That is, the controller 10 selects any one of the first keys 50a to 50j, and displays the second key corresponding to the selected first key on the second keys 52a to 52j in the second key area 42. Determine if it is in a state.
  • step S24 determines whether the second key is touched. If the controller 10 determines that the touch is on the second key (Yes in step S24), the controller 10 determines the touched second key as an input candidate (step S26) and displays the determined input candidate (step S28). ). For example, when detecting a touch on the second key 52c from the state shown in FIG. 13, the controller 10 determines “u” of the second key 52c as an input candidate as shown in FIG. "Selecting" U “" displays information on input candidate characters. Further, the controller 10 displays an unconfirmed “U” in the display column 48 as input candidate characters.
  • step S30 determines whether it is a touch on the determination key 49.
  • step S32 determines an input candidate as a character to be input.
  • step S34 determines whether it is an end instruction. That is, the controller 10 determines whether it is a touch on the end key 46. If the controller 10 determines that the instruction is an end instruction (Yes in step S34), the controller 10 ends the character input (step S36). If the controller 10 determines that the instruction is not an end instruction (No in step S34), the controller 10 invalidates the detected touch (step S38).
  • the smartphone 1 is provided with the first key region 40 and the second key region 42 provided along the two sides of the touch screen display 2 (side faces 1C3 and 1C4 of the housing 20).
  • the smartphone 1 can more easily understand the key arrangement than the case where the character keys are two-dimensionally arranged and displayed on the touch screen display 2, and input can be simplified. Thereby, the smartphone 1 can easily input a key even when the touched area is not confirmed.
  • the smartphone 1 arranges the keys along the side that is the end of the region where the position is physically clear, so that the characters on the screen cannot be recognized, for example, when there is a visual impairment or the screen is viewed. Even in situations where it is impossible, characters can be input with high accuracy.
  • the smartphone 1 includes a first key area 40 and a second key area 42, and the second key area 42 displays a second key corresponding to the first key selected in the first key area 40,
  • the role of each area can be easily understood and input can be simplified.
  • the smart phone 1 can understand an arrangement
  • the smartphone 1 can easily perform a character input operation using both hands by providing the first key area 40 and the second key area 42 on two opposite sides.
  • the smartphone 1 may be provided with a protrusion serving as a mark on the housing 20 at a position corresponding to each key of the first key area 40 and the second key area 42.
  • a protrusion serving as a mark on the housing 20 at a position corresponding to each key of the first key area 40 and the second key area 42.
  • the area where the decision key 49 is arranged is the third key area, and the decision key 49 is the third key.
  • the smartphone 1 can facilitate the input candidate determination operation by providing the determination key 49.
  • the position of the determination key 49 is not limited to this, but it may be arranged in contact with at least one of the first key area 40 and the second key area 42 and aligned with at least one of the first key and the second key. .
  • the smartphone 1 can make it easier to grasp the position of the determination key 49 by arranging the smartphone 1 side by side with at least one of the first key and the second key.
  • FIG. 16 is a flowchart illustrating a processing procedure of an example of control by the smartphone 1.
  • the process shown in FIG. 16 can be realized by the controller 10 processing the input program 9B.
  • the process shown in FIG. 16 can be performed in parallel with the process shown in FIG.
  • Controller 10 determines whether there is an input candidate (step S42). When it is determined that there is an input candidate (Yes in step S42), the controller 10 determines whether there is an operation on an area outside the first key or the second key (step S44). That is, the controller 10 determines whether there is an operation on an area other than the first key area 40 and the second key area 42. When it is determined that there is an operation to the area outside the first key or the second key (Yes in step S44), the controller 10 determines whether a predetermined gesture has been detected (step S46). The predetermined gesture is a preset operation, and a tap, flick, double tap, or the like to a predetermined position is exemplified.
  • step S46 determines that a predetermined gesture has been detected (Yes in step S46).
  • step S48 determines an input candidate as a character to be input (step S48).
  • the controller 10 has no input candidate (No in Step S42), no operation to the area outside the first key or the second key (No in Step S44), or has not detected a predetermined gesture (Step S42). When it determines with No in S46, it returns to step S42 and performs the process of step S42 again.
  • the smartphone 1 may use a combination of an operation to the area outside the first key or the second key and a predetermined gesture as the determination operation. Moreover, the smart phone 1 is good also as operation to determine either the operation to the area
  • FIG. 17 is a flowchart illustrating a processing procedure of an example of control by the smartphone 1.
  • the process shown in FIG. 17 can be realized by the controller 10 processing the input program 9B.
  • the process shown in FIG. 17 can be performed in parallel with the process shown in FIG. 11 and the process shown in FIG.
  • Controller 10 determines whether there is an input candidate (step S52). If the controller 10 determines that the operation on the first key or the second key has not continued for a certain period of time (No in step S52), the controller 10 returns to step S52 and executes the process of step S52 again. When it is determined that there is an input candidate (Yes in Step S52), the controller 10 determines whether the operation on the first key or the second key continues for a certain time (Step S54). That is, the controller 10 determines whether or not the operation of the first key area 40 and the second key area 42 is a long tap that continues for a certain period of time.
  • step S54 determines an input candidate as a character to be input (step S56). If the controller 10 determines that the operation on the first key or the second key has not continued for a certain period of time (No in step S54), the controller 10 returns to step S52 and executes the process of step S52 again.
  • the smartphone 1 may perform a long tap on the first key or the second key as the determination operation.
  • FIG. 18 is a flowchart showing a processing procedure of an example of control by the smartphone 1.
  • the process shown in FIG. 18 can be realized by the controller 10 processing the input program 9B.
  • the process shown in FIG. 18 can be performed in parallel with the process shown in FIG. 11, the process shown in FIG. 16, and the process shown in FIG.
  • Controller 10 determines whether there is an input candidate (step S62). When it is determined that there is no input candidate (No in Step S62), the controller 10 returns to Step S62 and executes the process of Step S62 again.
  • the controller 10 determines whether there is an operation on the physical key (step S64). That is, the controller 10 determines whether there is an operation on the button 3.
  • the controller 10 determines an input candidate as a character to be input (step S66). If the controller 10 determines that there is no operation on the button 3 (No in step S64), the controller 10 returns to step S62 and executes the process of step S62 again.
  • the smartphone 1 may perform an operation on the physical key as a determination operation.
  • the smartphone 1 may output voice of at least one of input candidate characters and input text.
  • the input text is the text (character string) displayed in the display field 48 in the present embodiment.
  • the smartphone 1 may output “thank you” that is the input text.
  • the smartphone 1 may output the input text “A”.
  • FIG. 19 is a flowchart showing a processing procedure of an example of control by the smartphone 1.
  • the process shown in FIG. 19 can be realized by the controller 10 processing the input program 9B.
  • the process shown in FIG. 19 can be performed in parallel with the process shown in FIG. 11, the process shown in FIG. 16, the process shown in FIG. 17, and the process shown in FIG.
  • step S72 the controller 10 determines whether the operation is for the first key or the second key (step S74). If the controller 10 determines that the operation is for the first key or the second key (Yes in step S74), the controller 10 outputs the input candidate character as a voice (step S76).
  • step S78 determines whether the operation is for the second key. If the controller 10 determines that the operation is to the reading key (Yes in step S78), the controller 10 outputs the input text as a voice (step S80). If the controller 10 determines that the operation is not an operation on the reading key (No in step S78), the process ends.
  • the smartphone 1 selects the input candidate character or the input character string, even in a situation where the screen display cannot be confirmed by outputting the text (character string) displayed in the display field 48 in this embodiment. You can check the characters that have been entered or entered.
  • the input candidate character may be output as a sound every time the input candidate character changes, but may be output as a sound when the set rule is satisfied or when the set operation is executed.
  • the smartphone 1 displays the images of the first key and the second key on the display 2A, but is not limited thereto.
  • the smartphone 1 may assign a key input to a position corresponding to the first key area 40 and the second key area 42 described above, and may not display an image. That is, the smartphone 1 may detect a key input when the touch screen 2B detects an input in each area, and the touch screen 2B may detect the first key area 40, the first key, and the second key area 42 in each area. And the second key may be associated with each other. Therefore, the electronic device may validate the character input in a state where no image is displayed on the display 2A, or the electronic device may not include the display 2A. In addition, when the electronic device does not display an image, the electronic device may perform audio output when the key operation described above is detected.
  • each program shown in FIG. 4 may be divided into a plurality of modules, or may be combined with other programs.
  • the smartphone 1 has been described as an example of an electronic device including a touch screen.
  • the electronic device according to the appended claims is not limited to a smartphone.
  • the electronic device according to the appended claims may be a portable electronic device other than a smartphone. Examples of portable electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, smart watches, media players, electronic book readers, navigators, and game machines.
  • FIG. 20 is a front view of another example of an electronic device.
  • the outer edges of the housing 101a and the touch screen display 102 are circles.
  • a first key area 110 and a second key area 112 are provided at different positions on the outer edges of the housing 101a and the touch screen display 102, respectively.
  • the first key area 110 and the second key area 112 are provided along the outer edge so that the touched area is not confirmed.
  • the outer shape (outer edge) of the housing 101a and the touch screen display 102 is circular as the electronic device 101 having no side, the invention is not limited to this.
  • the outer shape (outer edge) of the housing 101a and the touch screen display 102 may be an ellipse.
  • the outer shape (outer edge) of the housing 101a and the touch screen display 102 may be a polygon other than a rectangle, or may be a combination of a circular arc and a straight line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

態様の1つに係る電子機器は、複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、タッチスクリーンの第1キー領域と第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、備える。第1キー領域は、タッチスクリーンの第1の縁に沿った領域であり、複数の第1キーは、第1の縁に沿って並び、第2キー領域は、タッチスクリーンの第1の縁とは異なる第2の縁に沿った領域であり、複数の第2キーは、第2の縁に沿って並ぶ。

Description

電子機器、文字入力制御方法、及び文字入力プログラム
 本出願は、電子機器、文字入力制御方法、及び文字入力プログラムに関する。
 電子機器には、タッチスクリーンを搭載したものがある。例えば、特許文献1には、タッチスクリーンを介して検出した操作に応じて各種の機能を実行する電子機器が開示されている。
国際公開第2008/086302号
 上記の電子機器では、タッチスクリーンを用いた文字入力の技術に改善の余地がある。
 態様の1つに係る電子機器は、複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、を備える。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
 態様の1つに係る文字入力制御方法は、タッチスクリーンを備える電子機器が実行する制御方法であって、前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定し、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行する。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
 態様の1つに係る文字入力プログラムは、タッチスクリーンを備える電子機器に、前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定させ、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行させる。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
図1は、実施形態に係るスマートフォンの斜視図である。 図2は、スマートフォンの正面図である。 図3は、スマートフォンの背面図である。 図4は、スマートフォンのブロック図である。 図5は、タッチスクリーンにおける検出構成の例を示す図である。 図6は、第1キーデータの一例を示す図である。 図7は、第2キーデータの一例を示す図である。 図8は、第1キーデータの一例を示す図である。 図9は、第2キーデータの一例を示す図である。 図10は、表示画面の一例を示す図である。 図11は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図12は、表示画面の一例を示す図である。 図13は、表示画面の一例を示す図である。 図14は、表示画面の一例を示す図である。 図15は、表示画面の一例を示す図である。 図16は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図17は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図18は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図19は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図20は、電子機器の他の例の正面図である。
 本出願に係る電子機器、文字入力制御方法、及び文字入力プログラムを実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下では、携帯電子機器の例として、スマートフォンについて説明する。
 図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1~1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1~1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1~1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
 スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン(キー)3A~3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D~3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A~3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。ここで、タッチスクリーンディスプレイ2は、矩形形状であり、4つの辺2C、2D、2E、2Fが、ハウジング20のサイドフェイス1C1~1C4のそれぞれに隣接している。タッチスクリーンディスプレイ2は、辺2Cがハウジング20のサイドフェイス1C4と隣接している。タッチスクリーンディスプレイ2は、辺2Dがハウジング20のサイドフェイス1C3と隣接している。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
 スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
 図4は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、気圧センサ19とを有する。
 タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
 図5に示すように、タッチスクリーン2Bは、複数の第1電極2B1と、複数の第2電極2B2とを含む。複数の第1電極2B1は、タッチスクリーン2Bの長辺方向に延在する電極である。複数の第2電極2B2は、タッチスクリーン2Bの短辺方向に延在する電極である。複数の第1電極2B1と複数の第2電極2B2とは、マトリックス状に交差している。第1電極2B1と第2電極2B2とが交差する部分は、タッチスクリーン2Bの検出点60である。タッチスクリーン2Bは、複数の検出点60を含む。複数の検出点60は、スマートフォン1がタッチスクリーン2Bにおける接触物の接触位置(接触点)を特定する場合に用いられる。複数の検出点60は、マトリックス状に位置している。
 タッチスクリーン2Bは、導電性の接触物が第1電極2B1と第2電極2B2とに近づくと、当該接触物と電極間に容量結合が発生する。タッチスクリーン2Bは、容量結合が発生した電極間の検出点60の検出値が変化する。図5に示す例では、タッチスクリーン2Bは、接触物の接触点70付近の検出点60の検出値が、他の検出点60の検出値よりも大きくなる。このため、スマートフォン1は、変化した検出点60の検出値に基づいて、タッチスクリーン2Bにおける接触物の接触点70を検出することができる。
 ボタン3は、利用者によって操作される。ボタン3は、ボタン3A~3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
 ボタン3A~3Cは、例えば、ホームボタン、バックボタン又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000(Wideband Code Division Multiple Access 2000)、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等を含む。無線通信規格として、さらに、例えば、WiMAX(登録商標)(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等を含む。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 レシーバ7及びスピーカ11は、音を出力する出力部の1つの例である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力できる。レシーバ7は、例えば、通話時に相手の声を出力するために用いてもよい。スピーカ11は、例えば、着信音及び音楽を出力するために用いてもよい。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音を入力する入力部の1つの例である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信できる。
 ストレージ9は、プログラム及びデータを記憶できる。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域として利用してよい。ストレージ9は、記録媒体を含む。記録媒体は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、入力プログラム9B、第1キーデータ9C、第2キーデータ9D、条件データ9Eを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供できる。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能には、加速度センサ15及び気圧センサ19等を制御することによって、スマートフォン1を所持する利用者の移動、停止等を検出する機能が含まれる。制御プログラム9Aが提供する機能は、算出アプリケーション及び電話アプリケーション等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 入力プログラム9Bは、スマートフォン1へのテキスト(文字)入力するための機能を提供できる。入力プログラム9Bは、第1キー領域に第1キーを表示させ、第2キー領域に第2キーを表示させ、文字入力を実現する。具体的な文字入力の方法については、後述する。入力プログラム9Bは、他の入力方法で文字入力をできる機能を備えていてもよい。
 第1キーデータ9Cは、入力プログラム9Bで設定される第1キー領域に表示する第1キーの情報を含む。第2キーデータ9Dは、入力プログラム9Bで設定される第2キー領域に表示する第2キーの情報を含む。第2キーデータ9Dは、第1キーデータ9Cに対応付けられたキーのデータである。
 以下、図6及び図7を用いて、第1キーデータ9Cと第2キーデータ9Dの一例を説明する。図6は、第1キーデータの一例を示す図である。図7は、第2キーデータの一例を示す図である。図6及び図7は、日本語の「かな」入力を行う場合のデータの一例である。第1キーデータ9Cは、第1キー領域に含まれる第1キーに対して、表示画像と入力候補が対応付けられている。例えば、第1キーの1には、表示画像「あ行」と入力候補「あ」が対応付けられている。第1キーの2には、表示画像「か行」と入力候補「か」が対応付けられている。第2キーデータ9Dは、第2キー領域に含まれる第2キーに対して、第1キーとの対応が記憶されている。第2キーとして対応付けられている複数の文字が表示画像となり、複数の文字のいずれかが入力候補となる。図7に示す一例では、第1キーの「あ行」には、第2キーの1に「あ」、第2キーの2に「い」、第2キーの3に「う」、第2キーの4に「え」、第2キーの5に「お」、第2キーの6に「改行」等が対応付けられている。ここで、「あ」、「い」、「う」、「え」、「お」は、表示画像「あ行」に対応付けられた入力候補の一例である。改行、削除等は、入力する文字ではなく、文字入力で実行する処理となる。
 以下、図8及び図9を用いて、第1キーデータ9Cと第2キーデータ9Dの一例を説明する。図8は、第1キーデータの一例を示す図である。図9は、第2キーデータの一例を示す図である。図8及び図9は、アルファベット入力を行う場合のデータの一例である。第1キーデータ9Cは、第1キー領域に含まれる第1キーに対して、表示画像と入力候補が対応付けられている。例えば、第1キーの1には、表示画像「abc」と入力候補「a」が対応付けられている。第1キーの2には、表示画像「def」と入力候補「d」が対応付けられている。第2キーデータ9Dは、第2キー領域に含まれる第2キーに対して、第1キーとの対応が記憶されている。第2キーとして対応付けられている複数の文字が表示画像となり、複数の文字のいずれかが入力候補となる。図9に示す一例では、第1キーの「abc」には、第2キーの1に「a」、第2キーの2に「b」、第2キーの3に「c」、第2キーの4に「A」、第2キーの5に「B」、第2キーの6に「C」が対応付けられている。ここで、「a」、「b」、「c」、「A」、「B」、「C」は、表示画像「abc」に対応付けられた入力候補の一例である。
 第1キーデータ9Cと第2キーデータ9Dのキーの対応付けと表示と文字入力との関係は後述する。ここで、上記実施形態では、キーに対して1つの文字を対応付けたが、キーに対して、単語、文章等を含む2つ以上の文字の文字列を対応付けてもよい。例えば、「あ行」に対応する第2キーの1つに入力候補として「ありがとうございます」、「明日」を対応つけてもよい。また2つ以上の文字が意味をなしていない文字の組み合わせでもよい。
 条件データ9Eは、入力プログラム9Bで処理を実行する各種条件が設定されている。具体的には、条件データ9Eは、検出したタッチジェスチャと実行する処理との対応関係、プログラムの条件、又は停止条件等が設定されている。
 コントローラ10は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御できる。コントローラ10の各種機能は、コントローラ10の制御に基づいて実現される。
 具体的には、コントローラ10は、ストレージ9に記憶されているプログラムに含まれる命令を実行できる。コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照できる。コントローラ10は、データ及び命令に応じて機能部を制御する。コントローラ10は、機能部を制御することによって、各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、ジャイロスコープ17、及び気圧センサ19を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aまたは入力プログラム9Bを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行できる。
 カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
 コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
 加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出できる。方位センサ16は、地磁気の向きを検出できる。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出できる。気圧センサ19は、スマートフォン1に作用する気圧を検出できる。加速度センサ15、方位センサ16、ジャイロスコープ17、及び気圧センサ19の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
 図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図4に示したスマートフォン1の構成は例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A~3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図4に示した例では、スマートフォン1が位置及び姿勢を検出するために4種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
 次に、図10から図15を用いて、スマートフォン1による文字入力処理について説明する。図10は、表示画面の一例を示す図である。スマートフォン1は、入力プログラム9Bを用いて文字入力処理を実行する場合、図10に示す画面を表示させる。図10に示す画面は、第1キー領域40と、第2キー領域42と、通知欄44と、終了キー46と、表示欄48と、決定キー49と、を含む。
 第1キー領域40は、タッチスクリーンディスプレイ2の辺2Cに沿って設けられており、辺2Cに隣接している。つまり、第1キー領域40は、ハウジング20のサイドフェイス1C4に隣接している。第1キー領域40は、複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jが表示されている。本実施形態の複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jは、辺2Cに沿って、画面上側から下側に列状に配置される。ここで、本実施形態の複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jは、それぞれの第1キーに第1キーデータ9Cの1から10の内容が対応付けられている。したがって、第1キー50aには、第1キーデータ9Cの1の情報が対応付けられ、「かな」入力の場合、「あ行」の画像が表示される。
 第2キー領域42は、タッチスクリーンディスプレイ2の辺2Dに沿って設けられており、辺2Dに隣接している。つまり、第2キー領域42は、ハウジング20のサイドフェイス1C3に隣接している。第2キー領域42は、第1キー領域40とは異なる辺、本実施形態では向かい合う辺に配置されている。第2キー領域42は、複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jが表示されている。本実施形態の複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jは、辺2Dに沿って、画面上側から下側に列状に配置される。ここで、本実施形態の複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jは、それぞれの第2キーに第2キーデータ9Dの1から10の内容が対応付けられている。したがって、第2キー52aには、第2キーデータ9Dの1の情報が対応付けられ、「かな」入力であり、第1キー50aの「あ行」が選択されている場合、「あ」の画像が表示される。
 通知欄44は、入力候補として選択している文字が表示される。終了キー46は、テキスト入力の終了操作が対応付けられているキーである。表示欄48は、入力された文字を表示させる欄である。図10では、表示欄48に、入力された文字列「ありがとう」が表示されている。なお、図10の文字列は一例である。決定キー49は、入力候補の文字を入力する文字として決定する操作が対応付けられているキーである。決定キー49は、辺2Cと辺2Dの両方に接している。決定キー49は、第1キー領域40と第2キー領域42の両方と接している。なお、決定キー49の配置位置はこれに限定されない。
 次に、図11から図15を参照しながら、スマートフォン1による文字入力に関する制御の処理手順について説明する。図11は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図12から図15は、それぞれ表示画面の一例を示す図である。図11に示す処理手順は、コントローラ10が入力プログラム9Bを実行することによって実現される。また、図11に示す処理は、入力プログラム9Bの文字入力機能が起動されている状態で実行される処理である。
 図11に示すように、スマートフォン1のコントローラ10は、タッチを検出する(ステップS12)。コントローラ10は、タッチを検出した場合、第1キーへのタッチであるかを判定する(ステップS14)。コントローラ10は、第1キーへのタッチである(ステップS14でYes)と判定した場合、タッチを検出したキーに対応する第2キーを表示する(ステップS16)。つまり、コントローラ10は、第2キーデータ9Dからタッチを検出した第1キーに対応するデータを抽出し、抽出したデータを第2キー領域42の複数の第2キーのそれぞれに表示させる。次に、コントローラ10は、入力候補を決定し(ステップS18)、決定した入力候補を表示させる(ステップS20)。具体的には、コントローラ10は、第1キーデータ9Cからタッチを検出した第1キーに対応する入力候補の情報を取得し、取得した入力候補を入力候補として決定し、表示させる。
 一例としては、コントローラ10は、第1キーデータ9Cが選択されていない場合、タッチスクリーンディスプレイ2には、図12に示すように、第1キー領域40の各第1キー50a~50jに第1キーデータ9Cの各キーの情報を対応付け、各キーの表示が画像を表示させる。第1キーが選択されていない場合、第2キー領域42の第2キー52a~52jは、キーの外形だけ表示され、内部に文字が表示されない。例えば、コントローラ10は、図12に示す状態から、第1キー50aでタッチを検出した場合、図13に示すように、第2キー領域42の第2キー52a~52jのそれぞれに第2キーデータ9Dの「あ行」に対応する第2キーを対応付ける。また、第1キー50aの「あ行」に対応する「あ」を入力候補に決定し、通知欄44に「「あ」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「あ」を表示する。
 また、第1キー50aとは別の第1キー50b~50jのいずれかが選択された場合も、コントローラ10は、第1キー50aが選択された場合と同様の処理を実行できる。例えば、コントローラ10は、図13に示す状態から、第1キー50cでタッチを検出した場合、図14に示すように、第2キー領域42の第2キー52a~52jのそれぞれに第2キーデータ9Dの「さ行」に対応する第2キーを対応付ける。また、第1キー50cの「さ行」に対応する「さ」を入力候補に決定し、通知欄44に「「さ」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「さ」を表示する。
 コントローラ10は、第1キーへのタッチではない(ステップS14でNo)と判定した場合、第1キー選択状態であるかを判定する(ステップS22)。つまり、コントローラ10は、第1キー50a~50jのいずれかが選択され、第2キー領域42の第2キー52a~52jに、選択された第1キーに対応する第2キーを表示している状態であるかを判定する。
 コントローラ10は、第1キー選択状態である(ステップS22でYes)と判定した場合、第2キーへのタッチかを判定する(ステップS24)。コントローラ10は、第2キーへのタッチである(ステップS24でYes)と判定した場合、タッチされた第2キーを入力候補に決定し(ステップS26)、決定した入力候補を表示させる(ステップS28)。コントローラ10は、例えば、図13に示す状態から、第2キー52cへのタッチを検出した場合、図15に示すように、第2キー52cの「う」を入力候補に決定し、通知欄44に「「う」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「う」を表示する。
 コントローラ10は、第2キーへのタッチではない(ステップS24でNo)と判定した場合、決定指示であるかを判定する(ステップS30)。具体的には、コントローラ10は、決定キー49へのタッチであるかを判定する。コントローラ10は、決定指示である(ステップS30でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS32)。
 コントローラ10は、第1キー選択状態ではない(ステップS22でNo)または決定指示ではない(ステップS30でNo)と判定した場合、終了指示であるかを判定する(ステップS34)。つまり、コントローラ10は終了キー46へのタッチであるかを判定する。コントローラ10は、終了指示である(ステップS34でYes)と判定した場合、文字入力を終了する(ステップS36)。また、コントローラ10は、終了指示ではない(ステップS34でNo)と判定した場合、検出したタッチを無効(ステップS38)とする。
 スマートフォン1は、以上のように、タッチスクリーンディスプレイ2の2つの辺(ハウジング20のサイドフェイス1C3,1C4)に沿って、それぞれ第1キー領域40と第2キー領域42を設け、設置された辺に沿って、第1キー50a~50j、第2キー52a~52jを列状に配置することで、タッチスクリーンディスプレイ2の辺に沿って指を動かすことで、入力するキーを変化させることができる。このため、スマートフォン1は、文字のキーを2次元配列してタッチスクリーンディスプレイ2に表示させる場合よりもキーの配置がわかりやすくなり、入力を簡単にすることができる。これにより、スマートフォン1は、タッチしている領域を確認しない状態でも、キーの入力がしやすくなる。
 このように、スマートフォン1は、物理的に位置が明確な領域の端となる辺に沿ってキーを配置することで、画面の文字を認識できない状態、例えば視覚障害がある場合、又は画面を見ることができない状況の場合でも高い精度で文字を入力することができる。
 スマートフォン1は、第1キー領域40と第2キー領域42を設け、第2キー領域42には、第1キー領域40で選択された第1キーに対応する第2キーを表示させることで、それぞれの領域の役割をわかりやすくすることができ、入力を簡単にすることができる。また、スマートフォン1は、キーを線状に配置することで、例えば、キーを2次元配列状に並べる場合よりも、配置規則を簡単に理解することができる。
 スマートフォン1は、第1キー領域40と第2キー領域42を対向する2辺に設けることで、両手を用いた文字入力操作がしやすくなる。
 また、スマートフォン1は、第1キー領域40、第2キー領域42の各キーに対応する位置のハウジング20に目印となる突起を設けてもよい。スマートフォン1は、突起を設けることで、キーのどこを触っているかを認識しやすくすることができ、入力を補助することができる。
 スマートフォン1は、決定キー49が配置されている領域が第3キー領域となり、決定キー49が第3キーとなる。スマートフォン1は、決定キー49を設けることで入力候補の決定操作をしやすくすることができる。なお、決定キー49の配置位置はこれに限定されないが、第1キー領域40及び第2キー領域42の少なくとも一方と接し、第1キー及び第2キーの少なくとも一方と並んで配置してもよい。スマートフォン1は、第1キー及び第2キーの少なくとも一方と並んで配置させることで、決定キー49の位置を把握しやすくすることができる。
 ここで、上記実施形態では、スマートフォン1は、決定キー49へのタッチを決定指示として検出したがこれに限定されない。図16は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図16に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図16に示す処理は、図11に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS42)。コントローラ10は、入力候補がある(ステップS42でYes)と判定した場合、第1キーまたは第2キーの外の領域への操作があるかを判定する(ステップS44)。つまり、コントローラ10は、第1キー領域40及び第2キー領域42以外の領域への操作があるかを判定する。コントローラ10は、第1キーまたは第2キーの外の領域への操作がある(ステップS44でYes)と判定した場合、所定のジェスチャを検出したかを判定する(ステップS46)。所定のジェスチャは、あらかじめ設定された操作であり、所定の位置へのタップ、フリック、ダブルタップ等が例示される。所定の位置へのタップとしては、第1キー領域40及び第2キー領域42以外の領域へのタップが例示される。コントローラ10は、所定のジェスチャを検出した(ステップS46でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS48)。
 コントローラ10は、入力候補がない(ステップS42でNo)、第1キーまたは第2キーの外の領域への操作がない(ステップS44でNo)、または、所定のジェスチャを検出していない(ステップS46でNo)と判定した場合、ステップS42に戻り、ステップS42の処理を再び実行する。
 スマートフォン1は、以上のように、第1キーまたは第2キーの外の領域への操作と所定のジェスチャの組み合わせを決定操作としてもよい。また、スマートフォン1は、以上のように、第1キーまたは第2キーの外の領域への操作または所定のジェスチャのいずれか決定操作としてもよい。
 図17は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図17に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図17に示す処理は、図11に示す処理及び図16に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS52)。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続していない(ステップS52でNo)と判定した場合、ステップS52に戻り、ステップS52の処理を再び実行する。コントローラ10は、入力候補がある(ステップS52でYes)と判定した場合、第1キーまたは第2キーへの操作が一定時間継続しているかを判定する(ステップS54)。つまり、コントローラ10は、第1キー領域40及び第2キー領域42の領域への操作が一定時間継続しているロングタップであるかを判定する。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続している(ステップS54でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS56)。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続していない(ステップS54でNo)と判定した場合、ステップS52に戻り、ステップS52の処理を再び実行する。スマートフォン1は、以上のように、第1キーまたは第2キーへのロングタップを決定操作としてもよい。
 図18は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図18に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図18に示す処理は、図11に示す処理、図16に示す処理及び図17に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS62)。コントローラ10は、入力候補がない(ステップS62でNo)と判定した場合、ステップS62に戻り、ステップS62の処理を再び実行する。コントローラ10は、入力候補がある(ステップS62でYes)と判定した場合、物理キーへの操作があるかを判定する(ステップS64)。つまり、コントローラ10は、ボタン3への操作があるかを判定する。コントローラ10は、ボタン3への操作がある(ステップS64でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS66)。コントローラ10は、ボタン3への操作がない(ステップS64でNo)と判定した場合、ステップS62に戻り、ステップS62の処理を再び実行する。スマートフォン1は、以上のように、物理キーへの操作を決定操作としてもよい。
 また、スマートフォン1は、入力候補の文字及び入力されたテキストの少なくとも一方を音声出力してもよい。入力されたテキストとは、本実施形態では表示欄48に表示されているテキスト(文字列)である。スマートフォン1は、例えば、図10に示す状態で入力されたテキストを音声出力する所定の操作が入力された場合、入力されたテキストである「ありがとう」を音声出力してもよい。また、スマートフォン1は、図13に示す状態で入力された入力候補の文字を音声出力する所定の操作が入力された場合、入力されたテキストである「あ」を音声出力してもよい。
 図19は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図19に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図19に示す処理は、図11に示す処理、図16に示す処理、図17に示す処理及び図18に示す処理と並行で処理することができる。
 コントローラ10は、タッチを検出した場合(ステップS72)、第1キーまたは第2キーへの操作であるかを判定する(ステップS74)。コントローラ10は、第1キーまたは第2キーへの操作である(ステップS74でYes)と判定した場合、入力候補の文字を音声出力する(ステップS76)。
 コントローラ10は、第1キーまたは第2キーへの操作ではない(ステップS74でNo)と判定した場合、読み上げキーへの操作であるかを判定する(ステップS78)。具体的には、コントローラ10は、第2キーへの操作であるかを判定する。コントローラ10は、読み上げキーへの操作である(ステップS78でYes)と判定した場合、入力済みのテキストを音声出力する(ステップS80)。コントローラ10は、読み上げキーへの操作ではない(ステップS78でNo)と判定した場合、本処理を終了する。
 スマートフォン1は、入力候補の文字または入力した文字列、本実施形態では表示欄48に表示されているテキスト(文字列)を音声出力させることで、画面の表示を確認できない状況でも、選択している文字また入力した文字を確認することができる。なお、入力候補の文字は、入力候補の文字が変化するたびに音声出力してもよいが、設定した規則を満たす場合または設定された操作を実行した場合に音声出力するようにしてもよい。
 ここで、本実施形態では、スマートフォン1は、ディスプレイ2Aに第1キー及び第2キーの画像を表示させたが、これに限定されない。スマートフォン1は、上述した第1キー領域40、第2キー領域42に対応する位置にキーの入力を割り当てればよく、画像を非表示としてもよい。つまり、スマートフォン1は、タッチスクリーン2Bが各領域で入力を検出した場合に、キー入力として検出すればよく、タッチスクリーン2Bが各領域に第1キー領域40、第1キー、第2キー領域42及び第2キーを対応付ければよい。したがって、電子機器は、ディスプレイ2Aに画像を表示していない状態で文字入力を有効としてもよいし、電子機器がディスプレイ2Aを備えていなくてもよい。また、電子機器は、画像を表示させない場合、上述したキーの操作を検出した際の音声出力を実行してもよい。
 本出願の開示する実施形態は、本出願の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図4に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態では、タッチスクリーンを備える電子機器の例として、スマートフォン1について説明したが、添付の請求項に係る電子機器は、スマートフォンに限定されない。添付の請求項に係る電子機器は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、スマートウォッチ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これに限定されない。
 図20は、電子機器の他の例の正面図である。図20に示す電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外縁が円となる。電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外縁の異なる位置のそれぞれに、第1キー領域110と第2キー領域112が設けられる。このように、ハウジング101a及びタッチスクリーンディスプレイ102の外縁が円となる場合も外縁に沿って、第1キー領域110と第2キー領域112とを設けることで、タッチしている領域を確認しない状態でも、キーの入力がしやすくできる。また、図20では、辺を備えない電子機器101としてハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を円形としたが、これに限定されない。電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を楕円としてもよい。また、電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を、矩形以外の多角形としてもよいし、円弧と直線を組み合わせた形状としてもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
 1 スマートフォン
 2 タッチスクリーンディスプレイ
 2A ディスプレイ
 2B タッチスクリーン
 3 ボタン
 4 照度センサ
 5 近接センサ
 6 通信ユニット
 7 レシーバ
 8 マイク
 9 ストレージ
 9A 制御プログラム
 9B 入力プログラム
 9C 第1キーデータ
 9D 第2キーデータ
 9E 条件データ
 10 コントローラ
 11 スピーカ
 12、13 カメラ
 14 コネクタ
 15 加速度センサ
 16 方位センサ
 17 ジャイロスコープ
 19 気圧センサ
 20 ハウジング

Claims (19)

  1.  複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、
    を備え、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ電子機器。
  2.  前記タッチスクリーンは、2つ以上の辺を備え、
     前記第1キー領域は、前記タッチスクリーンの第1の辺に沿った領域であり、
     前記第2キー領域は、前記タッチスクリーンの前記第1の辺とは異なる第2の辺に沿った領域である請求項1に記載の電子機器。
  3.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示する請求項1に記載の電子機器。
  4.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させる請求項1に記載の電子機器。
  5.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させ、
     前記少なくとも1つの文字は、文字列を含む請求項1に記載の電子機器。
  6.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させ、前記少なくとも1つの文字を、入力候補の文字として選択する請求項1に記載の電子機器。
  7.  前記コントローラは、前記第1キーへの接触を検知した後に、他の前記第1キーへの接触を検知した場合、前記入力候補の文字を、接触を検知した他の第1キーに紐付けられた前記第2キーのいずれかに紐付けられた前記少なくとも1つの文字に変更する請求項6に記載の電子機器。
  8.  前記コントローラは、前記第2キーへの接触を検知した場合、接触を検知した前記第2キーに割り当てられた少なくとも1つの文字を入力候補の文字として選択する請求項4に記載の電子機器。
  9.  前記コントローラは、前記第2キーへの接触を検知した後に、他の前記第2キーへの接触を検知した場合、前記入力候補の文字を、接触を検知した他の第2キーに紐付けられた前記少なくとも1つの文字に変更する請求項8に記載の電子機器。
  10.  前記ディスプレイは、文字を表示する文字領域を含み、
     前記コントローラは、前記入力候補の文字を前記ディスプレイの前記文字領域に表示する請求項6に記載の電子機器。
  11.  物理キーを備え、
     前記コントローラは、前記入力候補が選択された状態で、前記物理キーの操作を検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  12.  前記タッチスクリーンは、第3のキーが対応付けられた第3キー領域を含み、
     前記第3キー領域は、前記第1の縁及び前記第2の縁の少なくとも一方に沿った領域であり、前記第3のキーは、前記第3キー領域が沿っている縁に沿って配置されている前記第1キー及び前記第2キーの少なくとも一方と並んでいる請求項6に記載の電子機器。
  13.  前記コントローラは、前記第3のキーへの接触が検出されると、選択された前記入力候補の文字を決定する請求項12に記載の電子機器。
  14.  前記コントローラは、前記入力候補が選択された状態で、所定のジェスチャを検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  15.  前記コントローラは、前記第1キーもしくは前記第2キーへの接触が所定時間継続した場合、前記所定のジェスチャとして検出する請求項14に記載の電子機器。
  16.  前記コントローラは、前記第1キーの外もしくは前記第2キーの外への接触を検出した後、所定のジェスチャを検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  17.  前記所定のジェスチャは、前記第1キーの外もしくは前記第2キーの外でのタッチである請求項16に記載の電子機器。
  18.  タッチスクリーンを備える電子機器が実行する制御方法であって、
     前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定し、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行し、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ文字入力制御方法。
  19.  タッチスクリーンを備える電子機器に、
     前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定させ、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行させ、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ文字入力プログラム。
PCT/JP2017/009801 2016-03-29 2017-03-10 電子機器、文字入力制御方法、及び文字入力プログラム WO2017169668A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/088,445 US11042289B2 (en) 2016-03-29 2017-03-10 Electronic device, character input control method, and non-transitory storage medium
EP17774212.9A EP3438797A4 (en) 2016-03-29 2017-03-10 ELECTRONIC DEVICE, CHARACTER ENTRY CONTROL METHOD, AND CHARACTER ENTRY PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-066387 2016-03-29
JP2016066387A JP2017183923A (ja) 2016-03-29 2016-03-29 電子機器、文字入力制御方法、及び文字入力プログラム

Publications (1)

Publication Number Publication Date
WO2017169668A1 true WO2017169668A1 (ja) 2017-10-05

Family

ID=59964191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009801 WO2017169668A1 (ja) 2016-03-29 2017-03-10 電子機器、文字入力制御方法、及び文字入力プログラム

Country Status (4)

Country Link
US (1) US11042289B2 (ja)
EP (1) EP3438797A4 (ja)
JP (1) JP2017183923A (ja)
WO (1) WO2017169668A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2012113685A (ja) * 2010-11-04 2012-06-14 Kunifumi Sukehara 入力装置および入力方法
JP2015219543A (ja) * 2014-05-14 2015-12-07 富士通株式会社 文字入力装置および文字入力プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US6734881B1 (en) * 1995-04-18 2004-05-11 Craig Alexander Will Efficient entry of words by disambiguation
US7187394B2 (en) * 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
JP2006033425A (ja) 2004-07-16 2006-02-02 Will Alliance:Kk 仮名入力方法および装置
JP4183005B2 (ja) 2006-11-28 2008-11-19 ダイキン工業株式会社 遠心多翼送風機
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2009099067A (ja) * 2007-10-18 2009-05-07 Sharp Corp 携帯型電子機器、および携帯型電子機器の操作制御方法
EP2485133A1 (en) 2011-02-07 2012-08-08 Research In Motion Limited Electronic device with touch-sensitive display and method of facilitating input at the electronic device
US8704789B2 (en) * 2011-02-11 2014-04-22 Sony Corporation Information input apparatus
WO2013123124A1 (en) * 2012-02-15 2013-08-22 Keyless Systems Ltd. Improved data entry systems
KR101502064B1 (ko) * 2013-07-25 2015-03-12 박종실 터치 입력 처리 시스템 및 방법
US20150261312A1 (en) * 2014-03-15 2015-09-17 Hovsep Giragossian Talking multi-surface keyboard
JP6516352B2 (ja) 2014-12-16 2019-05-22 学校法人帝京大学 モバイルデバイス用の文字入力方法及び文字入力領域の自動調整方法
JP6459640B2 (ja) * 2015-03-03 2019-01-30 オムロン株式会社 文字入力システム用のプログラムおよび情報処理装置
JP6719995B2 (ja) * 2016-06-30 2020-07-08 京セラ株式会社 電子機器、制御方法、及びプログラム
JP2018082243A (ja) * 2016-11-14 2018-05-24 京セラ株式会社 電子機器、制御方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2012113685A (ja) * 2010-11-04 2012-06-14 Kunifumi Sukehara 入力装置および入力方法
JP2015219543A (ja) * 2014-05-14 2015-12-07 富士通株式会社 文字入力装置および文字入力プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3438797A4 *

Also Published As

Publication number Publication date
EP3438797A1 (en) 2019-02-06
EP3438797A4 (en) 2019-11-06
US20190087080A1 (en) 2019-03-21
JP2017183923A (ja) 2017-10-05
US11042289B2 (en) 2021-06-22

Similar Documents

Publication Publication Date Title
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5972629B2 (ja) 装置、方法、及びプログラム
US20130050119A1 (en) Device, method, and storage medium storing program
JP5851326B2 (ja) 装置、方法、及びプログラム
JP2013084233A (ja) 装置、方法、及びプログラム
JP5805685B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2016143069A (ja) 電子機器、制御方法、及び制御プログラム
JP5801673B2 (ja) 電子機器、方法、及びプログラム
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP2017016270A (ja) 電子機器、画像表示方法及び画像表示プログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP6099537B2 (ja) 電子機器、方法、及びプログラム
JP7036862B2 (ja) 電子機器、制御方法、及びプログラム
WO2017169668A1 (ja) 電子機器、文字入力制御方法、及び文字入力プログラム
JP6925789B2 (ja) 電子機器、制御方法、及びプログラム
JP2020035484A (ja) 電子機器、文字入力制御方法、及び文字入力プログラム
JP2013131186A (ja) 装置、方法、及びプログラム
JP6434339B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2018082243A (ja) 電子機器、制御方法、およびプログラム
JP6203512B2 (ja) 電子機器、方法、及びプログラム
JP2016157346A (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017774212

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017774212

Country of ref document: EP

Effective date: 20181029

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774212

Country of ref document: EP

Kind code of ref document: A1