WO2017169668A1 - 電子機器、文字入力制御方法、及び文字入力プログラム - Google Patents

電子機器、文字入力制御方法、及び文字入力プログラム Download PDF

Info

Publication number
WO2017169668A1
WO2017169668A1 PCT/JP2017/009801 JP2017009801W WO2017169668A1 WO 2017169668 A1 WO2017169668 A1 WO 2017169668A1 JP 2017009801 W JP2017009801 W JP 2017009801W WO 2017169668 A1 WO2017169668 A1 WO 2017169668A1
Authority
WO
WIPO (PCT)
Prior art keywords
key
area
touch screen
character
electronic device
Prior art date
Application number
PCT/JP2017/009801
Other languages
English (en)
French (fr)
Inventor
優志 長坂
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/088,445 priority Critical patent/US11042289B2/en
Priority to EP17774212.9A priority patent/EP3438797A4/en
Publication of WO2017169668A1 publication Critical patent/WO2017169668A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M11/00Coding in connection with keyboards or like devices, i.e. coding of the position of operated keys
    • H03M11/02Details
    • H03M11/04Coding of multifunction keys
    • H03M11/06Coding of multifunction keys by operating the multifunction key itself in different ways
    • H03M11/08Coding of multifunction keys by operating the multifunction key itself in different ways by operating selected combinations of multifunction keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72466User interfaces specially adapted for cordless or mobile telephones with selection means, e.g. keys, having functions defined by the mode or the status of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

態様の1つに係る電子機器は、複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、タッチスクリーンの第1キー領域と第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、備える。第1キー領域は、タッチスクリーンの第1の縁に沿った領域であり、複数の第1キーは、第1の縁に沿って並び、第2キー領域は、タッチスクリーンの第1の縁とは異なる第2の縁に沿った領域であり、複数の第2キーは、第2の縁に沿って並ぶ。

Description

電子機器、文字入力制御方法、及び文字入力プログラム
 本出願は、電子機器、文字入力制御方法、及び文字入力プログラムに関する。
 電子機器には、タッチスクリーンを搭載したものがある。例えば、特許文献1には、タッチスクリーンを介して検出した操作に応じて各種の機能を実行する電子機器が開示されている。
国際公開第2008/086302号
 上記の電子機器では、タッチスクリーンを用いた文字入力の技術に改善の余地がある。
 態様の1つに係る電子機器は、複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、を備える。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
 態様の1つに係る文字入力制御方法は、タッチスクリーンを備える電子機器が実行する制御方法であって、前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定し、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行する。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
 態様の1つに係る文字入力プログラムは、タッチスクリーンを備える電子機器に、前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定させ、前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行させる。前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域である。複数の前記第1キーは、前記第1の縁に沿って並ぶ。前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域である。複数の前記第2キーは、前記第2の縁に沿って並ぶ。
図1は、実施形態に係るスマートフォンの斜視図である。 図2は、スマートフォンの正面図である。 図3は、スマートフォンの背面図である。 図4は、スマートフォンのブロック図である。 図5は、タッチスクリーンにおける検出構成の例を示す図である。 図6は、第1キーデータの一例を示す図である。 図7は、第2キーデータの一例を示す図である。 図8は、第1キーデータの一例を示す図である。 図9は、第2キーデータの一例を示す図である。 図10は、表示画面の一例を示す図である。 図11は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図12は、表示画面の一例を示す図である。 図13は、表示画面の一例を示す図である。 図14は、表示画面の一例を示す図である。 図15は、表示画面の一例を示す図である。 図16は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図17は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図18は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図19は、スマートフォンによる制御の例の処理手順を示すフローチャートである。 図20は、電子機器の他の例の正面図である。
 本出願に係る電子機器、文字入力制御方法、及び文字入力プログラムを実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。以下では、携帯電子機器の例として、スマートフォンについて説明する。
 図1から図3を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1~1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1~1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1~1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
 スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン(キー)3A~3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D~3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A~3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
 タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。ここで、タッチスクリーンディスプレイ2は、矩形形状であり、4つの辺2C、2D、2E、2Fが、ハウジング20のサイドフェイス1C1~1C4のそれぞれに隣接している。タッチスクリーンディスプレイ2は、辺2Cがハウジング20のサイドフェイス1C4と隣接している。タッチスクリーンディスプレイ2は、辺2Dがハウジング20のサイドフェイス1C3と隣接している。
 ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro-Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
 タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。
 タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
 スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
 スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、又は「コントローラがXを検出する」と記載することがある。
 図4は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、気圧センサ19とを有する。
 タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
 図5に示すように、タッチスクリーン2Bは、複数の第1電極2B1と、複数の第2電極2B2とを含む。複数の第1電極2B1は、タッチスクリーン2Bの長辺方向に延在する電極である。複数の第2電極2B2は、タッチスクリーン2Bの短辺方向に延在する電極である。複数の第1電極2B1と複数の第2電極2B2とは、マトリックス状に交差している。第1電極2B1と第2電極2B2とが交差する部分は、タッチスクリーン2Bの検出点60である。タッチスクリーン2Bは、複数の検出点60を含む。複数の検出点60は、スマートフォン1がタッチスクリーン2Bにおける接触物の接触位置(接触点)を特定する場合に用いられる。複数の検出点60は、マトリックス状に位置している。
 タッチスクリーン2Bは、導電性の接触物が第1電極2B1と第2電極2B2とに近づくと、当該接触物と電極間に容量結合が発生する。タッチスクリーン2Bは、容量結合が発生した電極間の検出点60の検出値が変化する。図5に示す例では、タッチスクリーン2Bは、接触物の接触点70付近の検出点60の検出値が、他の検出点60の検出値よりも大きくなる。このため、スマートフォン1は、変化した検出点60の検出値に基づいて、タッチスクリーン2Bにおける接触物の接触点70を検出することができる。
 ボタン3は、利用者によって操作される。ボタン3は、ボタン3A~3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
 ボタン3A~3Cは、例えば、ホームボタン、バックボタン又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
 照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近付けられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
 通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000(Wideband Code Division Multiple Access 2000)、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等を含む。無線通信規格として、さらに、例えば、WiMAX(登録商標)(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等を含む。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
 レシーバ7及びスピーカ11は、音を出力する出力部の1つの例である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力できる。レシーバ7は、例えば、通話時に相手の声を出力するために用いてもよい。スピーカ11は、例えば、着信音及び音楽を出力するために用いてもよい。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音を入力する入力部の1つの例である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信できる。
 ストレージ9は、プログラム及びデータを記憶できる。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域として利用してよい。ストレージ9は、記録媒体を含む。記録媒体は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
 ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
 ストレージ9は、例えば、制御プログラム9A、入力プログラム9B、第1キーデータ9C、第2キーデータ9D、条件データ9Eを記憶する。
 制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供できる。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能には、加速度センサ15及び気圧センサ19等を制御することによって、スマートフォン1を所持する利用者の移動、停止等を検出する機能が含まれる。制御プログラム9Aが提供する機能は、算出アプリケーション及び電話アプリケーション等の他のプログラムが提供する機能と組み合わせて利用されることがある。
 入力プログラム9Bは、スマートフォン1へのテキスト(文字)入力するための機能を提供できる。入力プログラム9Bは、第1キー領域に第1キーを表示させ、第2キー領域に第2キーを表示させ、文字入力を実現する。具体的な文字入力の方法については、後述する。入力プログラム9Bは、他の入力方法で文字入力をできる機能を備えていてもよい。
 第1キーデータ9Cは、入力プログラム9Bで設定される第1キー領域に表示する第1キーの情報を含む。第2キーデータ9Dは、入力プログラム9Bで設定される第2キー領域に表示する第2キーの情報を含む。第2キーデータ9Dは、第1キーデータ9Cに対応付けられたキーのデータである。
 以下、図6及び図7を用いて、第1キーデータ9Cと第2キーデータ9Dの一例を説明する。図6は、第1キーデータの一例を示す図である。図7は、第2キーデータの一例を示す図である。図6及び図7は、日本語の「かな」入力を行う場合のデータの一例である。第1キーデータ9Cは、第1キー領域に含まれる第1キーに対して、表示画像と入力候補が対応付けられている。例えば、第1キーの1には、表示画像「あ行」と入力候補「あ」が対応付けられている。第1キーの2には、表示画像「か行」と入力候補「か」が対応付けられている。第2キーデータ9Dは、第2キー領域に含まれる第2キーに対して、第1キーとの対応が記憶されている。第2キーとして対応付けられている複数の文字が表示画像となり、複数の文字のいずれかが入力候補となる。図7に示す一例では、第1キーの「あ行」には、第2キーの1に「あ」、第2キーの2に「い」、第2キーの3に「う」、第2キーの4に「え」、第2キーの5に「お」、第2キーの6に「改行」等が対応付けられている。ここで、「あ」、「い」、「う」、「え」、「お」は、表示画像「あ行」に対応付けられた入力候補の一例である。改行、削除等は、入力する文字ではなく、文字入力で実行する処理となる。
 以下、図8及び図9を用いて、第1キーデータ9Cと第2キーデータ9Dの一例を説明する。図8は、第1キーデータの一例を示す図である。図9は、第2キーデータの一例を示す図である。図8及び図9は、アルファベット入力を行う場合のデータの一例である。第1キーデータ9Cは、第1キー領域に含まれる第1キーに対して、表示画像と入力候補が対応付けられている。例えば、第1キーの1には、表示画像「abc」と入力候補「a」が対応付けられている。第1キーの2には、表示画像「def」と入力候補「d」が対応付けられている。第2キーデータ9Dは、第2キー領域に含まれる第2キーに対して、第1キーとの対応が記憶されている。第2キーとして対応付けられている複数の文字が表示画像となり、複数の文字のいずれかが入力候補となる。図9に示す一例では、第1キーの「abc」には、第2キーの1に「a」、第2キーの2に「b」、第2キーの3に「c」、第2キーの4に「A」、第2キーの5に「B」、第2キーの6に「C」が対応付けられている。ここで、「a」、「b」、「c」、「A」、「B」、「C」は、表示画像「abc」に対応付けられた入力候補の一例である。
 第1キーデータ9Cと第2キーデータ9Dのキーの対応付けと表示と文字入力との関係は後述する。ここで、上記実施形態では、キーに対して1つの文字を対応付けたが、キーに対して、単語、文章等を含む2つ以上の文字の文字列を対応付けてもよい。例えば、「あ行」に対応する第2キーの1つに入力候補として「ありがとうございます」、「明日」を対応つけてもよい。また2つ以上の文字が意味をなしていない文字の組み合わせでもよい。
 条件データ9Eは、入力プログラム9Bで処理を実行する各種条件が設定されている。具体的には、条件データ9Eは、検出したタッチジェスチャと実行する処理との対応関係、プログラムの条件、又は停止条件等が設定されている。
 コントローラ10は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)、及びコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御できる。コントローラ10の各種機能は、コントローラ10の制御に基づいて実現される。
 具体的には、コントローラ10は、ストレージ9に記憶されているプログラムに含まれる命令を実行できる。コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照できる。コントローラ10は、データ及び命令に応じて機能部を制御する。コントローラ10は、機能部を制御することによって、各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、ジャイロスコープ17、及び気圧センサ19を含むが、これらに限定されない。
 コントローラ10は、例えば、制御プログラム9Aまたは入力プログラム9Bを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行できる。
 カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
 コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
 加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出できる。方位センサ16は、地磁気の向きを検出できる。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出できる。気圧センサ19は、スマートフォン1に作用する気圧を検出できる。加速度センサ15、方位センサ16、ジャイロスコープ17、及び気圧センサ19の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
 図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図4においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu-ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
 図4に示したスマートフォン1の構成は例であり、本出願の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A~3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図4に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図4に示した例では、スマートフォン1が位置及び姿勢を検出するために4種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
 次に、図10から図15を用いて、スマートフォン1による文字入力処理について説明する。図10は、表示画面の一例を示す図である。スマートフォン1は、入力プログラム9Bを用いて文字入力処理を実行する場合、図10に示す画面を表示させる。図10に示す画面は、第1キー領域40と、第2キー領域42と、通知欄44と、終了キー46と、表示欄48と、決定キー49と、を含む。
 第1キー領域40は、タッチスクリーンディスプレイ2の辺2Cに沿って設けられており、辺2Cに隣接している。つまり、第1キー領域40は、ハウジング20のサイドフェイス1C4に隣接している。第1キー領域40は、複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jが表示されている。本実施形態の複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jは、辺2Cに沿って、画面上側から下側に列状に配置される。ここで、本実施形態の複数の第1キー50a、50b、50c、50d、50e、50f、50g、50h、50i、50jは、それぞれの第1キーに第1キーデータ9Cの1から10の内容が対応付けられている。したがって、第1キー50aには、第1キーデータ9Cの1の情報が対応付けられ、「かな」入力の場合、「あ行」の画像が表示される。
 第2キー領域42は、タッチスクリーンディスプレイ2の辺2Dに沿って設けられており、辺2Dに隣接している。つまり、第2キー領域42は、ハウジング20のサイドフェイス1C3に隣接している。第2キー領域42は、第1キー領域40とは異なる辺、本実施形態では向かい合う辺に配置されている。第2キー領域42は、複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jが表示されている。本実施形態の複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jは、辺2Dに沿って、画面上側から下側に列状に配置される。ここで、本実施形態の複数の第2キー52a、52b、52c、52d、52e、52f、52g、52h、52i、52jは、それぞれの第2キーに第2キーデータ9Dの1から10の内容が対応付けられている。したがって、第2キー52aには、第2キーデータ9Dの1の情報が対応付けられ、「かな」入力であり、第1キー50aの「あ行」が選択されている場合、「あ」の画像が表示される。
 通知欄44は、入力候補として選択している文字が表示される。終了キー46は、テキスト入力の終了操作が対応付けられているキーである。表示欄48は、入力された文字を表示させる欄である。図10では、表示欄48に、入力された文字列「ありがとう」が表示されている。なお、図10の文字列は一例である。決定キー49は、入力候補の文字を入力する文字として決定する操作が対応付けられているキーである。決定キー49は、辺2Cと辺2Dの両方に接している。決定キー49は、第1キー領域40と第2キー領域42の両方と接している。なお、決定キー49の配置位置はこれに限定されない。
 次に、図11から図15を参照しながら、スマートフォン1による文字入力に関する制御の処理手順について説明する。図11は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図12から図15は、それぞれ表示画面の一例を示す図である。図11に示す処理手順は、コントローラ10が入力プログラム9Bを実行することによって実現される。また、図11に示す処理は、入力プログラム9Bの文字入力機能が起動されている状態で実行される処理である。
 図11に示すように、スマートフォン1のコントローラ10は、タッチを検出する(ステップS12)。コントローラ10は、タッチを検出した場合、第1キーへのタッチであるかを判定する(ステップS14)。コントローラ10は、第1キーへのタッチである(ステップS14でYes)と判定した場合、タッチを検出したキーに対応する第2キーを表示する(ステップS16)。つまり、コントローラ10は、第2キーデータ9Dからタッチを検出した第1キーに対応するデータを抽出し、抽出したデータを第2キー領域42の複数の第2キーのそれぞれに表示させる。次に、コントローラ10は、入力候補を決定し(ステップS18)、決定した入力候補を表示させる(ステップS20)。具体的には、コントローラ10は、第1キーデータ9Cからタッチを検出した第1キーに対応する入力候補の情報を取得し、取得した入力候補を入力候補として決定し、表示させる。
 一例としては、コントローラ10は、第1キーデータ9Cが選択されていない場合、タッチスクリーンディスプレイ2には、図12に示すように、第1キー領域40の各第1キー50a~50jに第1キーデータ9Cの各キーの情報を対応付け、各キーの表示が画像を表示させる。第1キーが選択されていない場合、第2キー領域42の第2キー52a~52jは、キーの外形だけ表示され、内部に文字が表示されない。例えば、コントローラ10は、図12に示す状態から、第1キー50aでタッチを検出した場合、図13に示すように、第2キー領域42の第2キー52a~52jのそれぞれに第2キーデータ9Dの「あ行」に対応する第2キーを対応付ける。また、第1キー50aの「あ行」に対応する「あ」を入力候補に決定し、通知欄44に「「あ」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「あ」を表示する。
 また、第1キー50aとは別の第1キー50b~50jのいずれかが選択された場合も、コントローラ10は、第1キー50aが選択された場合と同様の処理を実行できる。例えば、コントローラ10は、図13に示す状態から、第1キー50cでタッチを検出した場合、図14に示すように、第2キー領域42の第2キー52a~52jのそれぞれに第2キーデータ9Dの「さ行」に対応する第2キーを対応付ける。また、第1キー50cの「さ行」に対応する「さ」を入力候補に決定し、通知欄44に「「さ」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「さ」を表示する。
 コントローラ10は、第1キーへのタッチではない(ステップS14でNo)と判定した場合、第1キー選択状態であるかを判定する(ステップS22)。つまり、コントローラ10は、第1キー50a~50jのいずれかが選択され、第2キー領域42の第2キー52a~52jに、選択された第1キーに対応する第2キーを表示している状態であるかを判定する。
 コントローラ10は、第1キー選択状態である(ステップS22でYes)と判定した場合、第2キーへのタッチかを判定する(ステップS24)。コントローラ10は、第2キーへのタッチである(ステップS24でYes)と判定した場合、タッチされた第2キーを入力候補に決定し(ステップS26)、決定した入力候補を表示させる(ステップS28)。コントローラ10は、例えば、図13に示す状態から、第2キー52cへのタッチを検出した場合、図15に示すように、第2キー52cの「う」を入力候補に決定し、通知欄44に「「う」を選択中」と、入力候補の文字の情報を表示する。また、コントローラ10は、表示欄48に、入力候補の文字で未確定の「う」を表示する。
 コントローラ10は、第2キーへのタッチではない(ステップS24でNo)と判定した場合、決定指示であるかを判定する(ステップS30)。具体的には、コントローラ10は、決定キー49へのタッチであるかを判定する。コントローラ10は、決定指示である(ステップS30でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS32)。
 コントローラ10は、第1キー選択状態ではない(ステップS22でNo)または決定指示ではない(ステップS30でNo)と判定した場合、終了指示であるかを判定する(ステップS34)。つまり、コントローラ10は終了キー46へのタッチであるかを判定する。コントローラ10は、終了指示である(ステップS34でYes)と判定した場合、文字入力を終了する(ステップS36)。また、コントローラ10は、終了指示ではない(ステップS34でNo)と判定した場合、検出したタッチを無効(ステップS38)とする。
 スマートフォン1は、以上のように、タッチスクリーンディスプレイ2の2つの辺(ハウジング20のサイドフェイス1C3,1C4)に沿って、それぞれ第1キー領域40と第2キー領域42を設け、設置された辺に沿って、第1キー50a~50j、第2キー52a~52jを列状に配置することで、タッチスクリーンディスプレイ2の辺に沿って指を動かすことで、入力するキーを変化させることができる。このため、スマートフォン1は、文字のキーを2次元配列してタッチスクリーンディスプレイ2に表示させる場合よりもキーの配置がわかりやすくなり、入力を簡単にすることができる。これにより、スマートフォン1は、タッチしている領域を確認しない状態でも、キーの入力がしやすくなる。
 このように、スマートフォン1は、物理的に位置が明確な領域の端となる辺に沿ってキーを配置することで、画面の文字を認識できない状態、例えば視覚障害がある場合、又は画面を見ることができない状況の場合でも高い精度で文字を入力することができる。
 スマートフォン1は、第1キー領域40と第2キー領域42を設け、第2キー領域42には、第1キー領域40で選択された第1キーに対応する第2キーを表示させることで、それぞれの領域の役割をわかりやすくすることができ、入力を簡単にすることができる。また、スマートフォン1は、キーを線状に配置することで、例えば、キーを2次元配列状に並べる場合よりも、配置規則を簡単に理解することができる。
 スマートフォン1は、第1キー領域40と第2キー領域42を対向する2辺に設けることで、両手を用いた文字入力操作がしやすくなる。
 また、スマートフォン1は、第1キー領域40、第2キー領域42の各キーに対応する位置のハウジング20に目印となる突起を設けてもよい。スマートフォン1は、突起を設けることで、キーのどこを触っているかを認識しやすくすることができ、入力を補助することができる。
 スマートフォン1は、決定キー49が配置されている領域が第3キー領域となり、決定キー49が第3キーとなる。スマートフォン1は、決定キー49を設けることで入力候補の決定操作をしやすくすることができる。なお、決定キー49の配置位置はこれに限定されないが、第1キー領域40及び第2キー領域42の少なくとも一方と接し、第1キー及び第2キーの少なくとも一方と並んで配置してもよい。スマートフォン1は、第1キー及び第2キーの少なくとも一方と並んで配置させることで、決定キー49の位置を把握しやすくすることができる。
 ここで、上記実施形態では、スマートフォン1は、決定キー49へのタッチを決定指示として検出したがこれに限定されない。図16は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図16に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図16に示す処理は、図11に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS42)。コントローラ10は、入力候補がある(ステップS42でYes)と判定した場合、第1キーまたは第2キーの外の領域への操作があるかを判定する(ステップS44)。つまり、コントローラ10は、第1キー領域40及び第2キー領域42以外の領域への操作があるかを判定する。コントローラ10は、第1キーまたは第2キーの外の領域への操作がある(ステップS44でYes)と判定した場合、所定のジェスチャを検出したかを判定する(ステップS46)。所定のジェスチャは、あらかじめ設定された操作であり、所定の位置へのタップ、フリック、ダブルタップ等が例示される。所定の位置へのタップとしては、第1キー領域40及び第2キー領域42以外の領域へのタップが例示される。コントローラ10は、所定のジェスチャを検出した(ステップS46でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS48)。
 コントローラ10は、入力候補がない(ステップS42でNo)、第1キーまたは第2キーの外の領域への操作がない(ステップS44でNo)、または、所定のジェスチャを検出していない(ステップS46でNo)と判定した場合、ステップS42に戻り、ステップS42の処理を再び実行する。
 スマートフォン1は、以上のように、第1キーまたは第2キーの外の領域への操作と所定のジェスチャの組み合わせを決定操作としてもよい。また、スマートフォン1は、以上のように、第1キーまたは第2キーの外の領域への操作または所定のジェスチャのいずれか決定操作としてもよい。
 図17は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図17に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図17に示す処理は、図11に示す処理及び図16に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS52)。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続していない(ステップS52でNo)と判定した場合、ステップS52に戻り、ステップS52の処理を再び実行する。コントローラ10は、入力候補がある(ステップS52でYes)と判定した場合、第1キーまたは第2キーへの操作が一定時間継続しているかを判定する(ステップS54)。つまり、コントローラ10は、第1キー領域40及び第2キー領域42の領域への操作が一定時間継続しているロングタップであるかを判定する。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続している(ステップS54でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS56)。コントローラ10は、第1キーまたは第2キーへの操作が一定時間継続していない(ステップS54でNo)と判定した場合、ステップS52に戻り、ステップS52の処理を再び実行する。スマートフォン1は、以上のように、第1キーまたは第2キーへのロングタップを決定操作としてもよい。
 図18は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図18に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図18に示す処理は、図11に示す処理、図16に示す処理及び図17に示す処理と並行で処理することができる。
 コントローラ10は、入力候補があるかを判定する(ステップS62)。コントローラ10は、入力候補がない(ステップS62でNo)と判定した場合、ステップS62に戻り、ステップS62の処理を再び実行する。コントローラ10は、入力候補がある(ステップS62でYes)と判定した場合、物理キーへの操作があるかを判定する(ステップS64)。つまり、コントローラ10は、ボタン3への操作があるかを判定する。コントローラ10は、ボタン3への操作がある(ステップS64でYes)と判定した場合、入力候補を入力する文字に決定する(ステップS66)。コントローラ10は、ボタン3への操作がない(ステップS64でNo)と判定した場合、ステップS62に戻り、ステップS62の処理を再び実行する。スマートフォン1は、以上のように、物理キーへの操作を決定操作としてもよい。
 また、スマートフォン1は、入力候補の文字及び入力されたテキストの少なくとも一方を音声出力してもよい。入力されたテキストとは、本実施形態では表示欄48に表示されているテキスト(文字列)である。スマートフォン1は、例えば、図10に示す状態で入力されたテキストを音声出力する所定の操作が入力された場合、入力されたテキストである「ありがとう」を音声出力してもよい。また、スマートフォン1は、図13に示す状態で入力された入力候補の文字を音声出力する所定の操作が入力された場合、入力されたテキストである「あ」を音声出力してもよい。
 図19は、スマートフォン1による制御の例の処理手順を示すフローチャートである。図19に示す処理は、コントローラ10が入力プログラム9Bを処理することで実現することができる。図19に示す処理は、図11に示す処理、図16に示す処理、図17に示す処理及び図18に示す処理と並行で処理することができる。
 コントローラ10は、タッチを検出した場合(ステップS72)、第1キーまたは第2キーへの操作であるかを判定する(ステップS74)。コントローラ10は、第1キーまたは第2キーへの操作である(ステップS74でYes)と判定した場合、入力候補の文字を音声出力する(ステップS76)。
 コントローラ10は、第1キーまたは第2キーへの操作ではない(ステップS74でNo)と判定した場合、読み上げキーへの操作であるかを判定する(ステップS78)。具体的には、コントローラ10は、第2キーへの操作であるかを判定する。コントローラ10は、読み上げキーへの操作である(ステップS78でYes)と判定した場合、入力済みのテキストを音声出力する(ステップS80)。コントローラ10は、読み上げキーへの操作ではない(ステップS78でNo)と判定した場合、本処理を終了する。
 スマートフォン1は、入力候補の文字または入力した文字列、本実施形態では表示欄48に表示されているテキスト(文字列)を音声出力させることで、画面の表示を確認できない状況でも、選択している文字また入力した文字を確認することができる。なお、入力候補の文字は、入力候補の文字が変化するたびに音声出力してもよいが、設定した規則を満たす場合または設定された操作を実行した場合に音声出力するようにしてもよい。
 ここで、本実施形態では、スマートフォン1は、ディスプレイ2Aに第1キー及び第2キーの画像を表示させたが、これに限定されない。スマートフォン1は、上述した第1キー領域40、第2キー領域42に対応する位置にキーの入力を割り当てればよく、画像を非表示としてもよい。つまり、スマートフォン1は、タッチスクリーン2Bが各領域で入力を検出した場合に、キー入力として検出すればよく、タッチスクリーン2Bが各領域に第1キー領域40、第1キー、第2キー領域42及び第2キーを対応付ければよい。したがって、電子機器は、ディスプレイ2Aに画像を表示していない状態で文字入力を有効としてもよいし、電子機器がディスプレイ2Aを備えていなくてもよい。また、電子機器は、画像を表示させない場合、上述したキーの操作を検出した際の音声出力を実行してもよい。
 本出願の開示する実施形態は、本出願の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。
 例えば、図4に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
 上記の実施形態では、タッチスクリーンを備える電子機器の例として、スマートフォン1について説明したが、添付の請求項に係る電子機器は、スマートフォンに限定されない。添付の請求項に係る電子機器は、スマートフォン以外の携帯電子機器であってもよい。携帯電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、スマートウォッチ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これに限定されない。
 図20は、電子機器の他の例の正面図である。図20に示す電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外縁が円となる。電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外縁の異なる位置のそれぞれに、第1キー領域110と第2キー領域112が設けられる。このように、ハウジング101a及びタッチスクリーンディスプレイ102の外縁が円となる場合も外縁に沿って、第1キー領域110と第2キー領域112とを設けることで、タッチしている領域を確認しない状態でも、キーの入力がしやすくできる。また、図20では、辺を備えない電子機器101としてハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を円形としたが、これに限定されない。電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を楕円としてもよい。また、電子機器101は、ハウジング101a及びタッチスクリーンディスプレイ102の外形(外縁)の形状を、矩形以外の多角形としてもよいし、円弧と直線を組み合わせた形状としてもよい。
 添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。
 1 スマートフォン
 2 タッチスクリーンディスプレイ
 2A ディスプレイ
 2B タッチスクリーン
 3 ボタン
 4 照度センサ
 5 近接センサ
 6 通信ユニット
 7 レシーバ
 8 マイク
 9 ストレージ
 9A 制御プログラム
 9B 入力プログラム
 9C 第1キーデータ
 9D 第2キーデータ
 9E 条件データ
 10 コントローラ
 11 スピーカ
 12、13 カメラ
 14 コネクタ
 15 加速度センサ
 16 方位センサ
 17 ジャイロスコープ
 19 気圧センサ
 20 ハウジング

Claims (19)

  1.  複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域とを含むタッチスクリーンと、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行するコントローラと、
    を備え、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ電子機器。
  2.  前記タッチスクリーンは、2つ以上の辺を備え、
     前記第1キー領域は、前記タッチスクリーンの第1の辺に沿った領域であり、
     前記第2キー領域は、前記タッチスクリーンの前記第1の辺とは異なる第2の辺に沿った領域である請求項1に記載の電子機器。
  3.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示する請求項1に記載の電子機器。
  4.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させる請求項1に記載の電子機器。
  5.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させ、
     前記少なくとも1つの文字は、文字列を含む請求項1に記載の電子機器。
  6.  前記タッチスクリーンに積層され、画像を表示するディスプレイをさらに備え、
     前記ディスプレイは、前記第1キー領域と重なる領域に前記第1キーを表示し、前記第2キー領域と重なる領域に前記第2キーを表示し、
     前記第1キーは、少なくとも1つの第2キーが紐付けられており、
     前記コントローラは、前記第1キーへの接触を検知すると、接触を検知した前記第1キーに対応付けられた前記第2キーのそれぞれに紐付けられた少なくとも1つの文字を前記第2キー領域に表示させ、前記少なくとも1つの文字を、入力候補の文字として選択する請求項1に記載の電子機器。
  7.  前記コントローラは、前記第1キーへの接触を検知した後に、他の前記第1キーへの接触を検知した場合、前記入力候補の文字を、接触を検知した他の第1キーに紐付けられた前記第2キーのいずれかに紐付けられた前記少なくとも1つの文字に変更する請求項6に記載の電子機器。
  8.  前記コントローラは、前記第2キーへの接触を検知した場合、接触を検知した前記第2キーに割り当てられた少なくとも1つの文字を入力候補の文字として選択する請求項4に記載の電子機器。
  9.  前記コントローラは、前記第2キーへの接触を検知した後に、他の前記第2キーへの接触を検知した場合、前記入力候補の文字を、接触を検知した他の第2キーに紐付けられた前記少なくとも1つの文字に変更する請求項8に記載の電子機器。
  10.  前記ディスプレイは、文字を表示する文字領域を含み、
     前記コントローラは、前記入力候補の文字を前記ディスプレイの前記文字領域に表示する請求項6に記載の電子機器。
  11.  物理キーを備え、
     前記コントローラは、前記入力候補が選択された状態で、前記物理キーの操作を検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  12.  前記タッチスクリーンは、第3のキーが対応付けられた第3キー領域を含み、
     前記第3キー領域は、前記第1の縁及び前記第2の縁の少なくとも一方に沿った領域であり、前記第3のキーは、前記第3キー領域が沿っている縁に沿って配置されている前記第1キー及び前記第2キーの少なくとも一方と並んでいる請求項6に記載の電子機器。
  13.  前記コントローラは、前記第3のキーへの接触が検出されると、選択された前記入力候補の文字を決定する請求項12に記載の電子機器。
  14.  前記コントローラは、前記入力候補が選択された状態で、所定のジェスチャを検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  15.  前記コントローラは、前記第1キーもしくは前記第2キーへの接触が所定時間継続した場合、前記所定のジェスチャとして検出する請求項14に記載の電子機器。
  16.  前記コントローラは、前記第1キーの外もしくは前記第2キーの外への接触を検出した後、所定のジェスチャを検出した場合、選択された前記入力候補の少なくとも1つの文字を入力する少なくとも1つの文字に決定する請求項6に記載の電子機器。
  17.  前記所定のジェスチャは、前記第1キーの外もしくは前記第2キーの外でのタッチである請求項16に記載の電子機器。
  18.  タッチスクリーンを備える電子機器が実行する制御方法であって、
     前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定し、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行し、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ文字入力制御方法。
  19.  タッチスクリーンを備える電子機器に、
     前記タッチスクリーンに複数の第1キーが対応付けられた第1キー領域と複数の第2キーが対応付けられた第2キー領域を設定させ、
     前記タッチスクリーンの前記第1キー領域と前記第2キー領域で検出したキーに対する操作に基づいて文字入力処理を実行させ、
     前記第1キー領域は、前記タッチスクリーンの第1の縁に沿った領域であり、
     複数の前記第1キーは、前記第1の縁に沿って並び、
     前記第2キー領域は、前記タッチスクリーンの前記第1の縁とは異なる第2の縁に沿った領域であり、
     複数の前記第2キーは、前記第2の縁に沿って並ぶ文字入力プログラム。
PCT/JP2017/009801 2016-03-29 2017-03-10 電子機器、文字入力制御方法、及び文字入力プログラム WO2017169668A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/088,445 US11042289B2 (en) 2016-03-29 2017-03-10 Electronic device, character input control method, and non-transitory storage medium
EP17774212.9A EP3438797A4 (en) 2016-03-29 2017-03-10 ELECTRONIC DEVICE, CHARACTER ENTRY CONTROL METHOD, AND CHARACTER ENTRY PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016066387A JP2017183923A (ja) 2016-03-29 2016-03-29 電子機器、文字入力制御方法、及び文字入力プログラム
JP2016-066387 2016-03-29

Publications (1)

Publication Number Publication Date
WO2017169668A1 true WO2017169668A1 (ja) 2017-10-05

Family

ID=59964191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009801 WO2017169668A1 (ja) 2016-03-29 2017-03-10 電子機器、文字入力制御方法、及び文字入力プログラム

Country Status (4)

Country Link
US (1) US11042289B2 (ja)
EP (1) EP3438797A4 (ja)
JP (1) JP2017183923A (ja)
WO (1) WO2017169668A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2012113685A (ja) * 2010-11-04 2012-06-14 Kunifumi Sukehara 入力装置および入力方法
JP2015219543A (ja) * 2014-05-14 2015-12-07 富士通株式会社 文字入力装置および文字入力プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US6734881B1 (en) * 1995-04-18 2004-05-11 Craig Alexander Will Efficient entry of words by disambiguation
US7187394B2 (en) * 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
JP2006033425A (ja) 2004-07-16 2006-02-02 Will Alliance:Kk 仮名入力方法および装置
JP4183005B2 (ja) 2006-11-28 2008-11-19 ダイキン工業株式会社 遠心多翼送風機
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP2009099067A (ja) * 2007-10-18 2009-05-07 Sharp Corp 携帯型電子機器、および携帯型電子機器の操作制御方法
EP2485133A1 (en) 2011-02-07 2012-08-08 Research In Motion Limited Electronic device with touch-sensitive display and method of facilitating input at the electronic device
US8704789B2 (en) * 2011-02-11 2014-04-22 Sony Corporation Information input apparatus
US20160041965A1 (en) * 2012-02-15 2016-02-11 Keyless Systems Ltd. Improved data entry systems
KR101502064B1 (ko) * 2013-07-25 2015-03-12 박종실 터치 입력 처리 시스템 및 방법
US20150261312A1 (en) * 2014-03-15 2015-09-17 Hovsep Giragossian Talking multi-surface keyboard
JP6516352B2 (ja) 2014-12-16 2019-05-22 学校法人帝京大学 モバイルデバイス用の文字入力方法及び文字入力領域の自動調整方法
JP6459640B2 (ja) * 2015-03-03 2019-01-30 オムロン株式会社 文字入力システム用のプログラムおよび情報処理装置
JP6719995B2 (ja) * 2016-06-30 2020-07-08 京セラ株式会社 電子機器、制御方法、及びプログラム
JP2018082243A (ja) * 2016-11-14 2018-05-24 京セラ株式会社 電子機器、制御方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2012113685A (ja) * 2010-11-04 2012-06-14 Kunifumi Sukehara 入力装置および入力方法
JP2015219543A (ja) * 2014-05-14 2015-12-07 富士通株式会社 文字入力装置および文字入力プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3438797A4 *

Also Published As

Publication number Publication date
US11042289B2 (en) 2021-06-22
JP2017183923A (ja) 2017-10-05
US20190087080A1 (en) 2019-03-21
EP3438797A4 (en) 2019-11-06
EP3438797A1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
JP6159078B2 (ja) 装置、方法、及びプログラム
JP5775445B2 (ja) 装置、方法、及びプログラム
JP5972629B2 (ja) 装置、方法、及びプログラム
US20130050119A1 (en) Device, method, and storage medium storing program
JP5851326B2 (ja) 装置、方法、及びプログラム
JP2013084233A (ja) 装置、方法、及びプログラム
JP5805685B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2016143069A (ja) 電子機器、制御方法、及び制御プログラム
JP5801673B2 (ja) 電子機器、方法、及びプログラム
JP2014071724A (ja) 電子機器、制御方法及び制御プログラム
JP5858896B2 (ja) 電子機器、制御方法及び制御プログラム
JP2013084237A (ja) 装置、方法、及びプログラム
JP6096100B2 (ja) 電子機器、制御方法、及び制御プログラム
JP5775432B2 (ja) 装置、方法、及びプログラム
JP6099537B2 (ja) 電子機器、方法、及びプログラム
JP7036862B2 (ja) 電子機器、制御方法、及びプログラム
WO2017169668A1 (ja) 電子機器、文字入力制御方法、及び文字入力プログラム
JP6925789B2 (ja) 電子機器、制御方法、及びプログラム
JP2020035484A (ja) 電子機器、文字入力制御方法、及び文字入力プログラム
JP2013131186A (ja) 装置、方法、及びプログラム
JP6434339B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2018082243A (ja) 電子機器、制御方法、およびプログラム
JP6203512B2 (ja) 電子機器、方法、及びプログラム
JP2016001509A (ja) 電子機器、制御方法および制御プログラム
JP2016157346A (ja) 電子機器、制御方法、及び制御プログラム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017774212

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017774212

Country of ref document: EP

Effective date: 20181029

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17774212

Country of ref document: EP

Kind code of ref document: A1