JP6017734B1 - 端末装置および端末装置を制御するためのプログラム - Google Patents

端末装置および端末装置を制御するためのプログラム Download PDF

Info

Publication number
JP6017734B1
JP6017734B1 JP2016520703A JP2016520703A JP6017734B1 JP 6017734 B1 JP6017734 B1 JP 6017734B1 JP 2016520703 A JP2016520703 A JP 2016520703A JP 2016520703 A JP2016520703 A JP 2016520703A JP 6017734 B1 JP6017734 B1 JP 6017734B1
Authority
JP
Japan
Prior art keywords
user interface
interface image
key
focus
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016520703A
Other languages
English (en)
Other versions
JPWO2016114185A1 (ja
Inventor
裕介 平野
裕介 平野
孝雄 奥
孝雄 奥
忠郎 安藤
忠郎 安藤
勇志 前嶋
勇志 前嶋
勝也 出本
勝也 出本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of JP6017734B1 publication Critical patent/JP6017734B1/ja
Publication of JPWO2016114185A1 publication Critical patent/JPWO2016114185A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/34User authentication involving the use of external additional devices, e.g. dongles or smart cards

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

タッチパネル型の端末用のアプリケーションを使用できる、ハードウェアキーを備える端末装置を提供する。端末装置が実行する処理は、ハードウェアキーへの操作を検知するステップ(S1310)と、フォーカスがユーザインターフェイス画像に当っている場合において(ステップS1330にてYES)、当該操作が決定のための操作であるとき(ステップS1340にてYES)、当該ユーザインターフェイス画像に関連付けられた命令の入力を受け付けるステップ(S1350)と、当該操作が決定のための操作でないとき(ステップS1340にてNO)、当該操作がユーザインターフェイス画像を移動させるためのハードキーへの操作であると判断すると(ステップS1360にてYES)、次のユーザインターフェイス画像に当該フォーカスを移動させるステップ(S1370)とを含む。

Description

本開示は端末装置に関し、より特定的には、ハードウェアキーを備える端末装置の制御に関する。
近年の携帯情報端末においては、CPU(Central Processing Unit)や通信速度の高速化が進行し、それに伴い、扱われる情報量も増大している。また、情報量を処理するために必要なメモリ等の各種デバイスのコストも下がったことにより、液晶や有機EL(Electro Luminescence)に代表されるディスプレイのサイズも拡大傾向にあり、同時に多くの情報を画面に表示することが可能になっている。
従来の携帯電話は、ダイヤルキーなどのハードウェアキーを多く備えていたが、ディスプレイサイズが大画面になったことで、UI(User Interface)部品が、直接タッチして操作することが可能なサイズまで大きく表示できるようになっている。また、端末のサイズを損なうことなくディスプレイサイズを大きくするために、ハードウェアキーを極力排除し、ディスプレイに操作機能も付与したディスプレイ(タッチパネル)を採用している端末が主流となっている。そのため、近年のアプリケーションは、タッチ操作のみに対応し、キー入力には対応していないものが増えてきている。
しかしながら、小型の端末を好むユーザは依然として存在している。また、タッチ操作の難易度が高いと感じるユーザ層(たとえば、シニア層)では、従来のキー入力操作でアプリケーションを使いたいというニーズは依然として高い。このようなユーザは、タッチ操作のみにしか対応していないアプリケーションは使うことができない状況である。また、アプリケーションの提供者にしてみれば、このような状況に対処するためには、ハードウェアキーの操作に対応するためのソフトウェアの開発負担が大きくなる、という課題がある。
キー入力に関し、たとえば、特開2001−142595号公報(特許文献1)は、「キーボードのみを使用することにより、マウス、ポインティングデバイス、タッチパネルによる作業を可能にする」ためのキー入力装置を開示している。具体的には、キー入力装置は、「入力部2は、文字キー、変換キー、及び選択キーを有するキーボードで構成されている。CPU1は、文字キーが操作されて文字列が入力され、変換キーが操作されたときは、その文字列をRAM3にストアし、入力文字列を変換した変換文字列候補と所定のコマンド候補を含む複数の変換候補を記憶する変換辞書から、その入力文字列に対応する複数の変換候補を表示部6に表示し、選択キーの操作によってコマンド候補が選択されたときは、そのコマンド候補に基づくコマンド処理を実行する。また、必要に応じて、コマンド処理による文書を記憶装置4によって記憶媒体5に書き込み、印字部7で印字し、伝送制御部8から伝送する。」というものである([要約]参照)。
特開2001−142595号公報
しかしながら、特開2001−142595号公報に開示された技術によると、各々のアプリケーション側で、タッチ操作に該当するコマンドに対応する必要がある。そのため、アプリケーションの開発負担を抑制することができない。
また、アプリケーションの実装依存となるため、キーに対するどのような操作がコマンドに割りつけられているかがアプリケーション各々で異なる。その結果、ユーザが混乱する恐れがあり、利便性が低下するおそれもある。
したがって、タッチパネル型の端末用に開発されたアプリケーションをハードウェアキーを備える端末装置において使用するための技術が必要とされている。また、利便性を低下させることなく、タッチパネル型の端末用に開発されたアプリケーションをハードウェアキーを備える端末装置において使用するための技術が必要とされている。
本開示は、上述のような問題点を解決するためになされたものであって、ある局面における目的は、タッチパネル型の端末用に開発されたアプリケーションを使用可能な、ハードウェアキーを備える端末装置を提供することである。
他の局面における目的は、利便性を低下させることなく、タッチパネル型の端末用に開発されたアプリケーションを使用可能な、ハードウェアキーを備える端末装置を提供することである。
他の局面における目的は、タッチパネル型の端末用に開発されたアプリケーションを使用可能となるように、ハードウェアキーを備える端末装置を制御するためのプログラムを提供することである。
他の局面における目的は、利便性を低下させることなく、タッチパネル型の端末用に開発されたアプリケーションを使用可能となるように、ハードウェアキーを備える端末装置を制御するためのプログラムを提供することである。
一実施の形態に従う端末装置は、端末装置に対する命令の入力を受け付けるように構成された1つ以上の操作キーと、タッチパネルを備える電子機器におけるタッチパネルに対する操作に応じて実行するように構成されたアプリケーションを格納するためのメモリと、アプリケーションが電子機器において実行される場合に、タッチパネルを介して当該アプリケーションに対する命令を受け付けるように構成された1つ以上のユーザインターフェイス画像と、1つ以上のユーザインターフェイス画像のいずれかの選択を確定する操作を受け付けるためのフォーカスとを表示するように構成されたモニタと、端末装置の動作を制御するための制御部とを備える。
モニタは、第1のユーザインターフェイス画像と第2のユーザインターフェイス画像とを表示する。第1のユーザインターフェイス画像にフォーカスが関連付けられている場合に、制御部は、1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、フォーカスを第2のユーザインターフェイス画像に関連付けるように構成されている。
好ましくは、制御部は、1つ以上の操作キーのうちのいずれかに対する第2の操作に応じて、フォーカスによる第2のユーザインターフェイス画像の選択を確定するように構成されている。
好ましくは、第2のユーザインターフェイス画像にフォーカスが関連付けられている場合には、制御部は、1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、フォーカスを第1のユーザインターフェイス画像に関連付けるように構成されている。
好ましくは、1つ以上の操作キーは、カーソルを移動させるためのキーを含む。
他の実施の形態に従うと、端末装置を制御するためのプログラムが提供される。端末装置は、端末装置に対する命令の入力を受け付けるように構成された1つ以上の操作キーと、タッチパネルを備える電子機器におけるタッチパネルに対する操作に応じて実行するように構成されたアプリケーションを格納するためのメモリと、アプリケーションが電子機器において実行される場合に、タッチパネルを介して当該アプリケーションに対する命令を受け付けるように構成された1つ以上のユーザインターフェイス画像と、1つ以上のユーザインターフェイス画像のいずれかの選択を確定する操作を受け付けるためのフォーカスとを表示するように構成されたモニタと、端末装置の動作を制御するためのプロセッサとを備えている。プログラムは、プロセッサに、モニタに、第1のユーザインターフェイス画像と第2のユーザインターフェイス画像とを表示するステップと、第1のユーザインターフェイス画像にフォーカスが関連付けられている場合に、制御部は、1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、フォーカスを第2のユーザインターフェイス画像に関連付けるステップとを実行させる。
ある局面において、ハードウェアキーを備える端末装置は、タッチパネル型の端末用に開発されたアプリケーションを使用することができる。
別の局面において、ハードウェアキーを備える端末装置は、利便性を低下させることなく、タッチパネル型の端末用に開発されたアプリケーションを使用することができる。
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。
携帯電話100の外観を表わす図である。 携帯電話100のハードウェア構成を表わすブロック図である。 携帯電話100によって実現される機能の構成を表わすブロック図である。 ディスプレイ35に表示されるフォーカス410の移動の態様を表わす図である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その1)である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その2)である。 カーソル移動キー120のうちの左キーを押下した場合におけるフォーカス710の移動の態様を表わす図である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その3)である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その4)である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その5)である。 ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図(その6)である。 携帯電話100が備えるCPU20が実行する処理の一部を表わすフローチャート(その1)である。 携帯電話100が備えるCPU20が実行する処理の一部を表わすフローチャート(その2)である。 ディスプレイ35に表示される画像の移り変わりを表わす図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[技術思想]
最初に、本開示に係る技術思想について説明する。当該技術思想は、要約すると、タッチイベントにしか対応していないアプリケーションの場合には、ハードウェアキーに対する操作(以下「キーイベント」ともいう。)をタッチイベント(タッチパネルに対する操作)に変換して、操作を可能にする、というものである。たとえば、ハードウェアキーとプロセッサとを備える端末装置は、以下のような処理を実行する。端末装置は、たとえば、携帯電話、ハンディタイプの情報処理端末等を含み得る。
[キーイベント対応判定処理]
(1)端末装置は、事前に、タッチイベントにしか対応していないアプリケーションを、内蔵するメモリに保持している。
(2)端末装置のプロセッサは、アプリウィンドウの起動時にアプリウィンドウを起動したアプリケーションがキーイベントに対応しているかをチェックし、チェック結果(対応の有無を表す情報)をメモリに保持する。
(3A)プロセッサは、キーイベントが入力された際に、表示されているウィンドウのアプリケーションがキーイベントに対応していないと判断すると、キーイベントをタッチイベントに変換し、キーイベントは破棄する。
(3B)他方、プロセッサは、キーイベントが入力された際に、表示されているウィンドウのアプリケーションがキーイベントに対応していると判断すると、キーイベントをそのまま流す。
[キーイベントからタッチイベントへの変換処理]
(1)プロセッサは、ハードウェアキーからの出力信号に基づいて、キーイベントが、決定キー/十字キー/その他のいずれに対する操作に基づくものであるかを判定する。
(2)例えば、当該キーイベントが十字キーへの操作に基づく場合には、プロセッサは、まず、フォーカスがUI部品に当たっているかどうかを判定する。
(3)フォーカスがUI部品に当たっていれば、プロセッサは、次にフォーカスを当てるべきUI部品を決定する。なお、本実施の形態において、フォーカスとは、UI部品が選択候補となっていることを示す状態あるいは表示をいう。
(4)キーイベントが左右キーへの操作に基づく場合には、プロセッサは、次にフォーカスを当てるべきUI部品として、隣のUI部品とする。たとえば、左側のキーが押下されていれば、左のUI部品が選択される。右側のキーが押下されていれば、右のUI部品が選択される。
(5)キーイベントが上下キーの場合には、プロセッサは、隣り合うUI部品のうち、2つのUI部品の中心座標間の距離が最も近いUI部品を、次にフォーカスを当てるべきUI部品として決定する。
<第1の実施の形態>
[構成]
次に、図1を参照して、本実施の形態に係る携帯電話100の構成について説明する。図1は、携帯電話100の外観を表わす図である。以下、端末装置の一例として携帯電話100が例示されるが、本実施の形態に係る技術思想の適用対象は、携帯電話に限られない。
携帯電話100は、筐体101,102と、ハードウェアキー25と、マイク32と、スピーカ33と、ディスプレイ35とを備える。ハードウェアキー25は、カーソル移動キー120と、決定キー110と、数字キー130とを含む。
図2を参照して、携帯電話100の構成についてさらに説明する。図2は、携帯電話100のハードウェア構成を表わすブロック図である。
携帯電話100は、CPU20と、アンテナ23と、通信装置24と、ハードウェアキー25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM(Read Only Memory)29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F37と、バイブレータ38と、加速度センサ39とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
アンテナ23は、基地局によって発信される信号を受信し、または、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれた後、処理後の信号は、CPU20に送られる。
ハードウェアキー25は、携帯電話100に対する操作を受け付ける。ハードウェアキー25は、たとえば、決定キー、十字キー、テンキーその他のキーを含む。ハードウェアキー25は、操作を受け付けると、その時の携帯電話100の動作モードに応じた信号をCPU20に送出する。
CPU20は、携帯電話100に対して与えられる命令に基づいて携帯電話100の動作を制御するための処理を実行する。携帯電話100が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
マイク32は、携帯電話100に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。
フラッシュメモリ27は、CPU20から送られるデータを格納する。また、CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
RAM28は、ハードウェアキー25に対して行なわれた操作に基づいてCPU20によって生成されるデータを一時的に保持する。ROM29は、携帯電話100に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、携帯電話100の動作を制御する。
メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。
音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図2に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
ディスプレイ35は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。ディスプレイ35は、例えば静電容量方式のタッチパネル式のディスプレイであるとしてもよく、タッチパネルの機構は特に限られない。ディスプレイ35は、CPU20から取得されるデータに基づいて、当該データによって規定される画像を表示する。たとえば、ディスプレイ35は、CPU20によって実行されているアプリケーションプログラムに基づく画像を表示する。当該アプリケーションプログラムは、たとえば、ゲーム、SNS(Social Network Service)等のアプリケーションを含む。
LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。
データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。
バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
加速度センサ39は、携帯電話100に作用する加速度の方向を検出する。検出結果は、CPU20に入力される。
(1)ある局面において、ハードウェアキー25は、携帯電話100の筐体102に設けられ、携帯電話100に対する命令の入力を受け付けるように構成されている。フラッシュメモリ27は、タッチパネルを備える電子機器(たとえば、スマートフォン、タブレット端末、タッチ操作式のパーソナルコンピュータ、ウェアラブルデバイス(例えば、腕時計型)などの機器)におけるタッチパネルに対する操作に応じて実行するように構成されたアプリケーションを格納している。ディスプレイ35は、アプリケーションが電子機器において実行される場合に、タッチパネルを介して当該アプリケーションに対する命令を受け付けるように構成された1つ以上のユーザインターフェイス画像と、1つ以上のユーザインターフェイス画像のいずれかの選択を確定する操作を受け付けるためのフォーカスとを表示するように構成されている。CPU20は、命令を実行し、ユーザの操作に基づいて、携帯電話100の動作を制御するように構成されている。ディスプレイ35は、第1のユーザインターフェイス画像と第2のユーザインターフェイス画像とを表示する。第1のユーザインターフェイス画像にフォーカスが関連付けられている場合に、CPU20は、ハードウェアキー25のいずれかに対する第1の操作(たとえば、キーの押下)に応じて、フォーカスを第2のユーザインターフェイス画像に関連付けるように構成されている。
(2)別の局面において、CPU20は、ハードウェアキー25のうちのいずれかに対する第2の操作(たとえば、キーの押下)に応じて、フォーカスによる第2のユーザインターフェイス画像の選択を確定するように構成されている。
(3)別の局面において、好ましくは、第2のユーザインターフェイス画像にフォーカスが関連付けられている場合には、CPU20は、ハードウェアキー25のうちのいずれかに対する第1の操作に応じて、フォーカスを第1のユーザインターフェイス画像に関連付けるように構成されている。
(4)ハードウェアキー25は、カーソルを移動させるための左右キー、上下キー、十字キーを含む。別の局面において、3×3に配列された数字キーのうち上行の中央の数字ボタンが上キーとして、下行の中央の数字ボタンが下キーとして、右列の中央の数字キーが右キーとして、左列の中央の数字キーが左キーとして機能し得る。配列の中央の数字キーは、選択を確定するための決定キーとして機能し得る。
[機能構成]
図3を参照して、本実施の形態に係る携帯電話100の構成についてさらに説明する。図3は、携帯電話100によって実現される機能の構成を表わすブロック図である。携帯電話100は、キー入力部310と、キー入力タッチ入力変換部320と、タッチ入力伝達部330と、キー入力伝達部340と、アプリケーション350とを含む。キー入力タッチ入力変換部320と、タッチ入力伝達部330と、キー入力伝達部340とは、たとえば、CPU20によって実現される。アプリケーション350は、たとえばRAM28に保持されている。
キー入力部310は、携帯電話100に対する命令の入力を受け付ける。キー入力部310は、たとえばハードウェアキー25によって実現される。
キー入力タッチ入力変換部320は、キー入力部310によって受け付けられたハードウェアキーへの操作をタッチパネルに対する操作に変換する。変換の態様は後述する。
タッチ入力伝達部330は、キー入力タッチ入力変換部320から出力されたタッチパネルへの命令をアプリケーション350に与える。
キー入力伝達部340は、キー入力部310によって受け付けられたハードウェアキー25へのキー操作を携帯電話100への命令としてアプリケーション350に伝達する。このとき、タッチパネルを備える電子機器に適用されるように構成されたアプリケーションプログラムが実行されている場合、キー入力伝達部340からの出力は、当該アプリケーションプログラムには入力されない。
図4を参照して、本実施の形態に係る技術思想について説明する。図4は、ディスプレイ35に表示されるフォーカス410の移動の態様を表わす図である。
図4(A)に示されるように、ある局面において、フォーカス410は、ハードウェアキー25に対するユーザの入力操作に応じて、左または右に移動することができる。たとえば、ユーザがカーソル移動キー120を操作して右側への移動を指示すると、ディスプレイ35に表示されているフォーカス410は、その右に表示されているユーザインターフェイス画像430に移動する。別の局面において、ユーザがカーソル移動キー120の左側を押下すると、フォーカス410は、ユーザインターフェイス画像420に示される位置に移動する。
図4(B)に示されるように、別の局面において、ユーザがカーソル移動キー120の下側を押下すると、フォーカス410は、距離が最も近いユーザインターフェイス画像420に移動する。ここで、当該距離は、たとえば、各画像の重心間の距離が用いられるが、重心以外の点が距離の算出に用いられてもよい。
なお、本実施の形態において、フォーカスとは、ディスプレイ35に表示されるユーザインターフェイス画像を選択するために表示される画像を言う。他の局面において、フォーカスとユーザインターフェイス画像とがそれぞれ表示される必要はなく、たとえば、あるユーザインターフェイス画像が他のユーザインターフェイス画像とは異なる態様で表示されている場合、当該あるユーザインターフェイス画像がフォーカスされていると見なしてもよい。
図5から図11を参照して、本実施の形態に係る携帯電話100におけるフォーカスの移動方法についてさらに説明する。図5から図11はそれぞれ、ディスプレイ35に表示されている1つ以上のユーザインターフェイス画像501からユーザインターフェイス画像506に対して、フォーカスを移動する態様を表わす図である。CPU20は、図5に示されるようにディスプレイ35に表示される複数のユーザインターフェイス画像(ユーザインターフェイス画像501,502,503,504,505,506)について、番号を割り当てる。図5の例では、CPU20は、ディスプレイ35に表示されるユーザインターフェイス画像の数が6個であることに基づいて、番号「1」から番号「6」を、予め定められた割り当ての規則に従って各ユーザインターフェイス画像に割り当てる。CPU20は、カーソル移動キー120の右側への移動キーまたは左側への移動キーへの押下がなされた場合に、フォーカスを、ユーザインターフェイス画像に割り当てられた番号に沿って移動させる。例えば、CPU20は、カーソル移動キー120の右側への移動キーが押下された場合に、各ユーザインターフェイス画像に割り当てられた番号の範囲内で、フォーカスを表示する対象とするユーザインターフェイス画像の番号を、次の番号とする(例えば、番号「1」が割り当てられるユーザインターフェイス画像にフォーカスが表示されている場合に、CPU20は、右側への移動キーの押下に応じて、番号「1」の次の番号である番号「2」が割り当てられるユーザインターフェイス画像へとフォーカスを移動させる)。ただし、最大の番号が割り当てられているユーザインターフェイス画像にフォーカスが表示されている状態で、右側への移動キーが押下されると、CPU20は、各ユーザインターフェイス画像に割り当てられた番号の先頭に該当するユーザインターフェイス画像へとフォーカスを移動させる(例えば、番号「1」から番号「6」の範囲内で各ユーザインターフェイス画像に番号が割り当てられている場合、番号「6」のユーザインターフェイス画像にフォーカスが表示されているときに右側への移動キーが押下されると、CPU20は、番号「1」のユーザインターフェイス画像へとフォーカスを移動させる)。また、例えば、CPU20は、カーソル移動キー120の左側への移動キーが押下された場合に、各ユーザインターフェイス画像に割り当てられた番号の範囲内で、フォーカスを表示する対象とするユーザインターフェイス画像の番号を、前の番号とする。
図5に示されるように、ある局面において、ディスプレイ35は、ユーザインターフェイス画像501,502,503,504,505,506を表示している。CPU20は、予め定められた割り当ての規則(後述する)に従って、ユーザインターフェイス画像501に番号「1」を、ユーザインターフェイス画像502に番号「2」を、ユーザインターフェイス画像503に番号「3」を、ユーザインターフェイス画像504に番号「4」を、ユーザインターフェイス画像505に番号「5」を、ユーザインターフェイス画像506に番号「6」を割り当てている。
図6に示されるように、別の局面において、フォーカス610がユーザインターフェイス画像501を取り囲むように表示されているときに、ユーザがカーソル移動キー120を操作して、たとえば右側への移動キーを押下した場合、フォーカス610は、ユーザインターフェイス画像502を取り囲むように表示される。仮に、ユーザがさらにカーソル移動キー120を押下し続けると、フォーカス610は、ユーザインターフェイス画像503、ユーザインターフェイス画像504、ユーザインターフェイス画像505、ユーザインターフェイス画像506に順次移動される。フォーカス610がユーザインターフェイス画像506に表示されている場合において、ユーザがカーソル移動キー120を押下してさらに右側への移動を指示すると、フォーカス610は、ユーザインターフェイス画像501に再び表示される。カーソル移動キー120の右側への操作と同様に、図6に示される状態において、左側のボタンが押下された場合には、フォーカス610は、ユーザインターフェイス画像501を取り囲むように表示される。さらに左側への移動がカーソル移動キー120を介して指示されると、フォーカス610は、ユーザインターフェイス画像501からユーザインターフェイス画像506に移される。同様にしてフォーカス610は、ユーザインターフェイス画像505、ユーザインターフェイス画像504、ユーザインターフェイス画像503、ユーザインターフェイス画像502のように順次移動される。
図7は、カーソル移動キー120のうちの左キーを押下した場合におけるフォーカス710の移動の態様を表わす図である。フォーカス710がユーザインターフェイス画像506の周囲に表示されている場合において、ユーザがカーソル移動キー120の左キーを押下すると、フォーカス710は、ユーザインターフェイス画像505の周りに表示される。ユーザがさらに左キーを押下すると、フォーカス710は、ユーザインターフェイス画像504に移される。同様にしてそれ以降の移動も実現される。
ここで、CPU20が、各ユーザインターフェイス画像に番号を割り当てるための割り当ての規則について説明する。図8に示されるように、ある局面において、ディスプレイ35が2つのユーザインターフェイス画像810,820を表示している。このとき、ユーザインターフェイス画像810とユーザインターフェイス画像820とが、垂直方向に最短距離830だけ離れている。すなわち、一方のユーザインターフェイス画像(ユーザインターフェイス画像810)が、他方のユーザインターフェイス画像(ユーザインターフェイス画像820)よりも完全に上に表示されることとなる。この場合、CPU20は、上側に表示されるユーザインターフェイス画像810を前方として、下側に表示されるユーザインターフェイス画像820を後方として、各ユーザインターフェイス画像に番号を割り当てる。
図9に示されるように、別の局面において、ディスプレイ35は、ユーザインターフェイス画像910,920を左右に表示している。このとき、ユーザインターフェイス画像910とユーザインターフェイス画像920とは、各々の中心点の座標について距離930だけ離れている。この場合、ユーザインターフェイス画像910は、ユーザインターフェイス画像920よりも左にあるとCPU20によって判断される。したがって、この場合、CPU20は、ユーザインターフェイス画像910を前方として、ユーザインターフェイス画像920を後方として、各ユーザインターフェイス画像に番号を割り当てる。
図10に示されるように、別の局面において、ユーザがカーソル移動キー120のうちの上下キーを押下する場合がある。たとえば、ユーザが下キーを操作すると、フォーカス1010は、ユーザインターフェイス画像501、ユーザインターフェイス画像504、ユーザインターフェイス画像506のように移動する。すなわち、下キーが押下された場合には、CPU20は、フォーカス元よりも中心座標が下にあり最も一番近くにあるユーザインターフェイス画像にフォーカスを移動させる。現在のユーザインターフェイス画像よりも下にユーザインターフェイス画像が存在しない場合には、CPU20は、フォーカス1010を先頭要素に移動させる。たとえば、ユーザインターフェイス画像501、ユーザインターフェイス画像504、ユーザインターフェイス画像506と移動してきたフォーカス1010は、その次の下キーの操作に基づいて、再びユーザインターフェイス画像501に表示される。別の局面において、ユーザインターフェイス画像502にフォーカス1010が表示されていた場合には、下キーが押下されると、フォーカス1010は、ユーザインターフェイス画像502よりも中心座標が下にあり最も一番近くにあるユーザインターフェイス画像がユーザインターフェイス画像505である場合、ユーザインターフェイス画像502からユーザインターフェイス画像505に移され、さらに下キーの押下に基づいて、ユーザインターフェイス画像506に移される。
さらに別の局面において、フォーカス1010がユーザインターフェイス画像503に表示されている場合がある。この場合、ユーザが下キーを押下すると、フォーカス1010は、ユーザインターフェイス画像505に移され、さらに下キーが操作されると、ユーザインターフェイス画像506に移される。その後、ユーザがさらに下キーを押下すると、フォーカス1010は、先頭要素(すなわちユーザインターフェイス画像501)に移される。
図11に示されるように、さらに別の局面において、ユーザはディスプレイ35の領域の下の方にフォーカスが当てられているユーザインターフェイス画像から上の方にフォーカスを移動させたい場合がある。すなわち、上キーが押下された場合には、CPU20は、フォーカス元よりも中心座標が上にあり、最も一番近くにあるユーザインターフェイス画像にフォーカスを移動させる。現在のユーザインターフェイス画像よりも上にユーザインターフェイス画像が存在しない場合には、CPU20は、フォーカス1110を、最終要素に移動させる。たとえば、フォーカス1110がユーザインターフェイス画像506に表示されている場合には、ユーザがカーソル移動キー120のうちの上キーを押下すると、フォーカス1110はユーザインターフェイス画像504の場所に移される。さらにユーザが上キーを押下すると、フォーカス1110は、ユーザインターフェイス画像501に移される。この場合、たとえばユーザがフォーカス1110をユーザインターフェイス画像502に移したい場合には、ユーザインターフェイス画像501の位置に表示されているフォーカス1110に対してカーソル移動キー120のうちの右キーを押下することにより、フォーカス1110をユーザインターフェイス画像502に表示させることができる。
[制御構造]
図12および図13を参照して、本実施の形態に係る携帯電話100の制御構造について説明する。図12および図13は、携帯電話100が備えるCPU20が実行する処理の一部を表わすフローチャートである。
CPU20は、ハードウェアキー25に対する操作に基づいて、タッチパネルを備えた電子機器(たとえばタブレット端末など)で実行可能なアプリケーションを起動する。
CPU20は、当該アプリケーションがハードウェアキー25の操作に対応しているか否かを判断し、その判断結果を示す情報をメモリ(たとえばRAM28)に保存する。たとえば、CPU20は、当該アプリケーションの属性情報を参照して、当該アプリケーションがハードウェアキー25のようにソフトキー以外の入力を受け付けるデータの有無を確認する。当該データが属性情報に含まれていれば、CPU20は、当該アプリケーションがハードウェアキー25の操作に対応していると判断する。これらの処理を実行すると、CPU20は、ユーザによるハードウェアキー25等の入力操作を待機する状態となり、入力操作を検知する都度、図12に示す処理を行う。
ステップS1230にて、CPU20は、ハードウェアキー25から出力される信号に基づいて、ハードウェアキー25への操作を検知する。
ステップS1240にて、CPU20は、当該操作を検知したことに基づいて、当該アプリケーションがハードウェアキー25への操作に対応しているか否かを判断する。この判断は、たとえば当該アプリケーションに関連付けられている属性情報に基づいて行なわれる。CPU20が当該アプリケーションはハードウェアキー25への操作に対応していると判断すると(ステップS1240にてYES)、制御をステップS1250に切り換える。そうでない場合には(ステップS1240にてNO)、CPU20は、制御をステップS1300に切り換える。
ステップS1250にて、CPU20は、当該ハードウェアキー25への操作をアプリケーションへの命令としてそのまま当該アプリケーションに入力する。たとえば、CPU20は、ディスプレイ35に表示されている画像に含まれるアイコン(ユーザインターフェイス画像)を選択する操作が行なわれたとして、アプリケーションに命令を入力する。
ステップS1300にて、CPU20は、後述する変換処理を実行する。この変換処理が実行されると、ハードウェアキー25への操作がタッチパネルへの操作イベントに変換され、その変換後の命令が当該アプリケーションに与えられる。
ステップS1260にて、CPU20は、入力された命令に基づいてアプリケーションを実行する。
(変換処理)
図13に示されるように、ステップS1310にて、CPU20は、ハードウェアキー25から出力される信号に基づいて、ハードウェアキー25への操作を検知する。
ステップS1320にて、CPU20は、当該操作が行なわれたハードウェアキー25を特定する。
ステップS1330にて、CPU20は、フォーカスがユーザインターフェイス画像に当っているか否かを判断する。この判断は、たとえばフォーカスを表示させるための座標値と当該ユーザインターフェイス画像を表示するための座標値との比較に基づいて行なわれる。CPU20は、フォーカスが当該ユーザインターフェイス画像に当っていると判断すると(ステップS1330にてYES)、制御をステップS1340に切り換える。そうでない場合には(ステップS1330にてNO)、CPU20は、制御をステップS1390に切り換える。
ステップS1340にて、CPU20は、当該操作が決定のための操作であるか否かを判断する。この判断は、たとえば、当該ユーザインターフェイス画像に対する操作として決定のための操作が当該アプリケーションにおいて規定されているか否かに基づいて行なわれる。CPU20は、当該操作が決定のための操作であると判断すると(ステップS1340にてYES)、制御をステップS1350に切り換える。そうでない場合には(ステップS1340にてNO)、CPU20は、制御をステップS1360に切り換える。
ステップS1350にて、CPU20は、当該ユーザインターフェイス画像に関連付けられた命令の入力を受け付ける。
ステップS1360にて、CPU20は、当該操作がユーザインターフェイス画像に充てられているフォーカスを移動させるためのハードウェアキーへの操作であるか否かを判断する。この判断は、たとえば、CPU20は、当該操作がフォーカスを移動させるための操作であると判断すると(ステップS1360にてYES)、制御をステップS1370に切り換える。そうでない場合には(ステップS1360にてNO)、CPU20は、制御をステップS1380に切り換える。
ステップS1370にて、CPU20は、キー操作に応じて、ユーザインターフェイス画像に当てられているフォーカスを別のユーザインターフェイス画像へと移動させる。その後、処理は、メイン処理(図12)に戻される。
ステップS1380にて、CPU20は、予め規定された処理を実行する。その後、処理は、メイン処理(図12)に戻される。
ステップS1390にて、CPU20は、ステップS1320で特定されたハードウェアキーが、フォーカスを移動させるためのキーである場合(例えば、上キー、下キー、右キー、左キーなど)、いずれかのユーザインターフェイス画像をフォーカスの初期位置として初期のフォーカスをあてる。CPU20は、ステップS1320で特定されたハードウェアキーが、フォーカスを移動させるためのキーではない場合、当該操作を無視する。その後、処理は、メイン処理(図12)に戻される。
[画面の表示態様]
図14を参照して、本実施の形態に係る携帯電話100における画面の表示態様について説明する。図14は、ディスプレイ35に表示される画像の移り変わりを表わす図である。
図14(A)に示されるように、ある局面において、携帯電話100は、スマートフォンと同様の画面を表示している。
図14(B)に示されるように、ユーザがカーソル移動キー120のうちの下キーを押下すると、ディスプレイ35は、フォーカス1410を表示する。
図14(C)に示されるように、ユーザがカーソル移動キー120のうちの右キーを押下すると、フォーカスはフォーカス1420として移動する。
ユーザが決定キー110を押下すると、図14(D)に示されるように、ディスプレイ35は、実行中のアプリケーションの画面に対してフォーカス1420が当てられた画面に含まれるたとえば一覧の機能を表示する。
図14(E)に示されるように、ユーザがカーソル移動キーのうちの下キーを押下すると、フォーカスが移動してディスプレイ35はフォーカス1440を表示する。
図14(F)に示されるように、ユーザが決定キー110を押下すると、フォーカス1440が当てられているユーザインターフェイス画像は、当該フォーカスが行なわれている場所の中央にタッチイベントを受信したと判断し、図14(G)に示されるように、ディスプレイ35は、当該アプリケーションのメッセージを表示する。
<第2の実施の形態>
以下、第2の実施の形態について説明する。ハードウェアキー25は、たとえば、数字キー、*キー、#キーのように筐体に設けられたボタンであるが、筐体の側面に用いられたスイッチも、当該技術思想を実現することができる。たとえば、第2の実施の形態として、音量をアップさせるためのボタンと音量をダウンさせるためのボタンとがフォーカス1010の移動と、フォーカスが適用されるユーザインターフェイス画像の選択とに用いられてもよい。
なお、第2の実施の形態に係る端末装置は、第1の実施の形態に係る携帯電話100の構成および制御構造と同様の構成および制御構造を用いて実現される。したがって、当該構成および制御構造の説明は繰り返さない。
<第3の実施の形態>
以下、第3の実施の形態について説明する。さらに別の局面において、一つのボタンが、フォーカス1010の移動と、フォーカスが適用されるユーザインターフェイス画像の選択とに用いられてもよい。たとえば、あるボタンの押下時間に応じて、フォーカス1010の移動と、フォーカスが適用されるユーザインターフェイス画像の選択とが実現され得る。たとえば、所謂「短押し」の場合、フォーカス1010が移動する。「長押し」の場合、フォーカスが適用されるユーザインターフェイス画像が選択される。この場合、たとえば2度の「短押し」が行なわれると、フォーカス1010は、予め定められた方向(たとえば右方向)に2回移動する。その状態で「長押し」が行なわれると、2回移動した先のユーザインターフェイス画像が選択される。
なお、第3の実施の形態に係る端末装置のハードウェア構成は第1の実施の形態に係る携帯電話100のハードウェア構成を用いて実現される。したがって、当該ハードウェア構成の説明は繰り返さない。
また、例えば、一つのボタンが、2種類以上の入力検知機構を有することにより、フォーカス1010の移動と、フォーカスが適用されるユーザインターフェイス画像の選択とを入力可能であるとしてもよい。例えば、一つのボタンが、回転操作を受け付ける第1の機構と、押下を受け付ける第2の機構とを有しており、ユーザがボタンを回転させる操作を第1の機構によって受け付けることにより、フォーカス1010が移動し、ユーザがボタンを押下する操作を第2の機構によって受け付けることにより、フォーカス1010が適用されるユーザインターフェイス画像が選択される。このように第1の機構と第2の機構とを有するボタンとしては、例えば、円盤状のホイール型の機構によって回転操作を受け付けるとともに、押下する操作をも受け付けるホイール型ボタンであってもよい。また、例えば、ねじのように回転軸を有する円筒状の部材によって回転操作を受け付けるとともに、円筒状の部材をユーザが押し込むことで押下操作をも受け付けるボタンであってもよい。
[実施の形態の効果]
以上のようにして、本実施の形態によれば、キーイベントに対応していないアプリケーションであっても、ユーザは、キー入力のみで、操作することができる。また、タッチ操作が不得意なユーザでも、キー操作でアプリケーションを操作できるようになる。また、各アプリケーションは、キーイベントに対応する必要がないため、当該アプリケーションの開発負担が抑制される。
[まとめ]
本実施形態の端末装置の一例である携帯電話100について説明した。本実施形態の端末装置は、要約すると、以下の構成を有している。
(1) 端末装置(携帯電話100)は、ユーザの操作に応じてアプリケーション(350)を実行するためのものである。
アプリケーション(350)は、タッチパネルを備える電子機器におけるタッチパネルに対する操作に応じて実行されるよう構成され、電子機器においてアプリケーション(350)が実行される場合に、タッチパネルを介してアプリケーション(350)に対する命令を受け付けるように構成された1つ以上のユーザインターフェイス画像を電子機器のディスプレイに表示させるよう構成されている。
端末装置(携帯電話100)は、筐体(25)と、筐体(25)に設けられ、携帯電話100に対する命令の入力をユーザから受け付けるように構成された1つ以上の操作キー(120)と、アプリケーション(350)を格納するためのメモリ(RAM28)と、モニタ(ディスプレイ35)と、端末装置(携帯電話100)の動作を制御するための制御部(CPU20)とを備える。
制御部(CPU20)は、アプリケーション(350)を実行する場合に、1つ以上のユーザインターフェイス画像(501,502,503,504,505,506)と、1つ以上のユーザインターフェイス画像(501,502,503,504,505,506)のいずれが選択状態であるかを示すフォーカス画像(610)とをモニタ(ディスプレイ35)に表示させるように構成されている。
モニタ(ディスプレイ35)に表示されるユーザインターフェイス画像(501,502,503,504,505,506)が複数である場合に、1つ以上の操作キー(120)のうちのいずれかに対する第1の操作に応じて、フォーカス画像(610)と関連付けられるユーザインターフェイス画像(501,502,503,504,505,506)を切り替えるように構成されている。
(2) 上記の(1)の構成において、制御部(CPU20)は、1つ以上の操作キー(120)のうちのいずれかに対する第2の操作に応じて、フォーカス画像(610)によって選択状態であると示されるユーザインターフェイス画像(501,502,503,504,505,506)の選択を確定するように構成されている。
(3) 上記の(1)または(2)の構成において、複数のユーザインターフェイス画像(501,502,503,504,505,506)のうち、末尾のユーザインターフェイス画像(506)にフォーカス画像(610)が関連付けられている場合には、制御部(CPU20)は、1つ以上の操作キー(120)のうちのいずれかに対する第1の操作に応じて、フォーカス画像(610)を、先頭のユーザインターフェイス画像(501)に関連付けるように構成されている。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
20 CPU、23 アンテナ、24 通信装置、25 ハードウェアキー、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、38 バイブレータ、39 加速度センサ、100 携帯電話、101,102 筐体、110 決定キー、120 カーソル移動キー、130 数字キー、310 キー入力部、320 キー入力タッチ入力変換部、330 タッチ入力伝達部、340 キー入力伝達部、350 アプリケーション。

Claims (5)

  1. 端末装置であって、
    前記端末装置に対する命令の入力を受け付けるように構成された1つ以上の操作キーと
    つ以上のユーザインターフェイス画像と、前記1つ以上のユーザインターフェイス画像のいずれかの選択を確定する操作を受け付けるためのフォーカス画像とを表示するように構成されたモニタと、
    前記端末装置の動作を制御するための制御部とを備え、
    前記モニタは、前記制御部によって実行されるアプリケーションが、タッチパネルを備える電子機器における前記タッチパネルに対する操作に応じて実行するように構成されたアプリケーションである場合に、前記タッチパネルを介して当該アプリケーションに対する命令を受け付けるように構成された、第1のユーザインターフェイス画像と第2のユーザインターフェイス画像とを表示し、
    前記制御部は、前記アプリケーションが、前記操作キーに対する操作によって入力されたキーイベントに対応していない場合に、当該キーイベントを、前記タッチパネルに対する操作によって入力されるタッチイベントに変換する変換処理を実行するものであり、
    前記変換処理において、前記制御部は、前記第1のユーザインターフェイス画像に前記フォーカス画像が関連付けられている場合に、前記1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、前記フォーカス画像を前記第2のユーザインターフェイス画像に関連付けるように構成されている、端末装置。
  2. 前記制御部は、前記1つ以上の操作キーのうちのいずれかに対する第2の操作に応じて、前記フォーカス画像による前記第2のユーザインターフェイス画像の選択を確定するように構成されている、請求項1に記載の端末装置。
  3. 前記第2のユーザインターフェイス画像に前記フォーカス画像が関連付けられている場合には、前記制御部は、前記1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、前記フォーカス画像を前記第1のユーザインターフェイス画像に関連付けるように構成されている、請求項1または2に記載の端末装置。
  4. 前記1つ以上の操作キーは、カーソルを移動させるためのキーを含む、請求項1〜3のいずれかに記載の端末装置。
  5. 端末装置を制御するためのプログラムであって、
    前記端末装置は、
    前記端末装置に対する命令の入力を受け付けるように構成された1つ以上の操作キーと
    つ以上のユーザインターフェイス画像と、前記1つ以上のユーザインターフェイス画像のいずれかの選択を確定する操作を受け付けるためのフォーカス画像とを表示するように構成されたモニタと、
    前記端末装置の動作を制御するためのプロセッサとを備えており、
    前記プログラムは、前記プロセッサに、
    前記モニタに、前記プロセッサによって実行されるアプリケーションが、タッチパネルを備える電子機器における前記タッチパネルに対する操作に応じて実行するように構成されたアプリケーションである場合に、前記タッチパネルを介して当該アプリケーションに対する命令を受け付けるように構成された、第1のユーザインターフェイス画像と第2のユーザインターフェイス画像とを表示するステップと、
    前記アプリケーションが、前記操作キーに対する操作によって入力されたキーイベントに対応していない場合に、当該キーイベントを、前記タッチパネルに対する操作によって入力されるタッチイベントに変換する変換処理を実行するステップとを実行させるものであり、
    前記変換処理を実行するステップにおいて、前記プロセッサは、前記第1のユーザインターフェイス画像に前記フォーカス画像が関連付けられている場合に、前記1つ以上の操作キーのうちのいずれかに対する第1の操作に応じて、前記フォーカス画像を前記第2のユーザインターフェイス画像に関連付ける、プログラム。
JP2016520703A 2015-01-16 2016-01-06 端末装置および端末装置を制御するためのプログラム Expired - Fee Related JP6017734B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015006927 2015-01-16
JP2015006927 2015-01-16
PCT/JP2016/050195 WO2016114185A1 (ja) 2015-01-16 2016-01-06 端末装置および端末装置を制御するためのプログラム

Publications (2)

Publication Number Publication Date
JP6017734B1 true JP6017734B1 (ja) 2016-11-02
JPWO2016114185A1 JPWO2016114185A1 (ja) 2017-04-27

Family

ID=56405732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520703A Expired - Fee Related JP6017734B1 (ja) 2015-01-16 2016-01-06 端末装置および端末装置を制御するためのプログラム

Country Status (4)

Country Link
US (1) US10162509B2 (ja)
JP (1) JP6017734B1 (ja)
CN (1) CN107003799A (ja)
WO (1) WO2016114185A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10747655B2 (en) * 2018-11-20 2020-08-18 Express Scripts Strategic Development, Inc. Method and system for programmatically testing a user interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097266A (ja) * 2006-10-11 2008-04-24 Koyo Electronics Ind Co Ltd 表示画面上の部品のフォーカス移動方式および表示器
JP2012079335A (ja) * 2011-12-14 2012-04-19 Canon Inc 情報入力装置およびその制御方法
JP2014115845A (ja) * 2012-12-10 2014-06-26 Sony Computer Entertainment Inc 電子機器、メニュー表示方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142595A (ja) 1999-11-12 2001-05-25 Casio Comput Co Ltd キー入力装置及びそのプログラムを記憶した記憶媒体
JP2001209495A (ja) * 2000-01-26 2001-08-03 Mitsumi Electric Co Ltd Webブラウザ用リモコン
JP2004348255A (ja) * 2003-05-20 2004-12-09 Mitsubishi Electric Corp ブラウザ装置
JP4396586B2 (ja) * 2005-06-22 2010-01-13 ソニー株式会社 プログラム、情報処理方法、情報処理装置
JP2007011531A (ja) * 2005-06-29 2007-01-18 Fujitsu Ltd インタフェース制御プログラム、インタフェース制御方法、インタフェース制御装置、プラグインプログラム
JP4781897B2 (ja) * 2006-04-26 2011-09-28 富士通株式会社 センサイベント制御装置
CN101943957A (zh) * 2010-07-23 2011-01-12 康佳集团股份有限公司 一种带加速度传感器的触摸屏手机和鼠标输入的方法
KR101695818B1 (ko) * 2010-07-28 2017-01-13 엘지전자 주식회사 이동 단말기 및 이것의 가상 키 패드 제어 방법
WO2012125988A2 (en) * 2011-03-17 2012-09-20 Laubach Kevin Input device enhanced interface
CN102360249B (zh) * 2011-09-29 2016-09-07 上海触乐信息科技有限公司 分立式键盘布局系统和设置方法、相应的便携电子设备及控制方法
US9891727B2 (en) * 2012-03-08 2018-02-13 Google Llc Simulating multi-touch events on a browser system
CN102750811B (zh) * 2012-03-09 2015-01-28 张伟明 一种防止误操作的遥控部件、智能系统及方法
CN102707882A (zh) * 2012-04-27 2012-10-03 深圳瑞高信息技术有限公司 虚拟图标触摸屏应用程序的操控转换方法及触摸屏终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097266A (ja) * 2006-10-11 2008-04-24 Koyo Electronics Ind Co Ltd 表示画面上の部品のフォーカス移動方式および表示器
JP2012079335A (ja) * 2011-12-14 2012-04-19 Canon Inc 情報入力装置およびその制御方法
JP2014115845A (ja) * 2012-12-10 2014-06-26 Sony Computer Entertainment Inc 電子機器、メニュー表示方法

Also Published As

Publication number Publication date
WO2016114185A1 (ja) 2016-07-21
JPWO2016114185A1 (ja) 2017-04-27
US10162509B2 (en) 2018-12-25
US20170255358A1 (en) 2017-09-07
CN107003799A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
KR20210042071A (ko) 폴더블 전자 장치의 인터페이싱 방법 및 그 폴더블 전자 장치
KR100842547B1 (ko) 터치 센시티브 키패드를 갖는 이동 핸드셋 및 사용자인터페이스방법
US10642486B2 (en) Input device, input control method, and input control program
WO2013150998A1 (ja) 携帯型電子機器
CN105144068B (zh) 应用程序显示方法和终端
US9703418B2 (en) Mobile terminal and display control method
KR100891777B1 (ko) 터치 센시티브 스크롤 방법
JP5718475B2 (ja) 触感呈示装置
KR100860695B1 (ko) 터치 센시티브 키패드에 의한 텍스트 입력 방법 및 이를위한 이동 핸드셋
JP2013098826A (ja) 電子機器および入力方法
WO2012020751A1 (ja) 電子機器及びその制御方法
JP5594652B2 (ja) 携帯情報端末及びそのキー配置変更方法
US20140019895A1 (en) Electronic device
KR100810215B1 (ko) 이동 핸드셋을 사용한 사진 촬영 방법 및 그 이동 핸드셋
CN108604160A (zh) 触摸屏手势识别的方法及装置
JP6017734B1 (ja) 端末装置および端末装置を制御するためのプログラム
EP2549362A2 (en) Electronic device and method for sensing input gesture and inputting selected symbol
JP2014075004A (ja) 入力装置、入力方法及びコンピュータプログラム
JP2013168762A (ja) 情報入力装置および情報入力方法
JP2005258653A (ja) タッチパネルを用いた文字入力システムと該システムを備えた携帯端末装置
JP6936892B2 (ja) 電子機器、制御方法、及びプログラム
JP6457170B2 (ja) 携帯電子機器
JP2020035484A (ja) 電子機器、文字入力制御方法、及び文字入力プログラム
CN115129223A (zh) 键盘显示方法、键盘显示装置及存储介质
KR20120016009A (ko) 문자 입력방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees