JP2013047945A - 電子機器、制御方法および制御プログラム - Google Patents
電子機器、制御方法および制御プログラム Download PDFInfo
- Publication number
- JP2013047945A JP2013047945A JP2012167721A JP2012167721A JP2013047945A JP 2013047945 A JP2013047945 A JP 2013047945A JP 2012167721 A JP2012167721 A JP 2012167721A JP 2012167721 A JP2012167721 A JP 2012167721A JP 2013047945 A JP2013047945 A JP 2013047945A
- Authority
- JP
- Japan
- Prior art keywords
- icon
- image
- control unit
- detected
- main control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000001413 cellular effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Telephone Function (AREA)
Abstract
【課題】タッチパネルの画像が見やすい状態を維持しつつ、タッチパネルに表示させた画像のスクロール操作をすることができる電子機器、制御方法および制御プログラムを提供することにある。
【解決手段】画像およびアイコンを表示する表示部と、接触を検出可能な接触検出部と、前記アイコンを第1の方向に移動させる第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させる制御部と、を備えることで、タッチパネルの画像が見やすい状態を維持しつつ、タッチパネルに表示させた画像のスクロール操作をすることができる携帯電子機器を提供するという上記課題を解決する。
【選択図】図7
【解決手段】画像およびアイコンを表示する表示部と、接触を検出可能な接触検出部と、前記アイコンを第1の方向に移動させる第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させる制御部と、を備えることで、タッチパネルの画像が見やすい状態を維持しつつ、タッチパネルに表示させた画像のスクロール操作をすることができる携帯電子機器を提供するという上記課題を解決する。
【選択図】図7
Description
本発明は、電子機器、制御方法および制御プログラムに関する。
近年、携帯電話端末等の携帯電子機器として、表示部と入力部との両方の機能を備えたタッチパネルを筐体の一面の略全面に配置した携帯電子機器が提案されている。このようなタッチパネルを備える携帯電子機器は、種々の方法で表示する画面を設定する。例えば、特許文献1には、左右のどちらの手でまたは両手で画面を持っているかを判定し、利用者の持ち方に応じて表示する画面を切り換える携帯端末(携帯電子機器)が記載されている。
特許文献1に記載されているように、筐体の保持方法に基づいて表示する画像を調整することで、より見やすい画像を表示させることができる。しかしながら、特許文献1に記載の装置は、持ち方を判定するセンサを設ける必要がある。また、持ち方に応じて画面表示を調整すると、表示する画像によっては、画像がゆがみ見づらくなる恐れがある。
また、携帯電子機器は、利用者がタッチパネルに入力した操作に基づいて、タッチパネルに表示させる画像をスクロールすることができる。この場合、画像のスクロール操作としては、タッチパネルに指等を接触させ、指等を接触した状態を維持したまま画像を移動したい方向に移動させるスイープ動作がある。ここで、スイープ動作は、タッチパネルに指等を接触させる操作である。このため、スクロール操作により新たに表示させた画像がスイープ動作を入力した指等によって隠れてしまうことがあり、新たに表示させた画像がすぐには見えないことがある。
本発明は、上記に鑑みてなされたものであって、タッチパネルの画像が見やすい状態を維持しつつ、タッチパネルに表示させた画像のスクロール操作をすることができる電子機器、制御方法および制御プログラムを提供することを目的とする。
1つの態様に係る電子機器は、画像およびアイコンを表示する表示部と、接触を検出可能な接触検出部と、前記アイコンを第1の方向に移動させる第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させる制御部と、を備える。
1つの態様に係る制御方法は、表示部と接触検出部を有する電子機器に実行させるための制御方法であって、画像およびアイコンを前記表示部に表示するステップと、前記接触検出部により接触を検出するステップと、前記アイコンを第1の方向に移動させる第1の操作が検出されたかどうかを判定するステップと、前記第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させるステップとを含む。
1つの態様に係る制御プログラムは、表示部と接触検出部を有する電子機器に、画像およびアイコンを前記表示部に表示するステップと、前記接触検出部により接触を検出するステップと、前記アイコンを第1の方向に移動させる第1の操作が検出されたかどうかを判定するステップと、前記第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させるステップとを実行させる。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、各種装置、例えば、PHS(Personal Handy-phone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。
(実施形態)
まず、図1および図2を参照しながら、本発明に係る電子機器の一実施形態である携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す斜視図である。図2は、携帯電話端末1の外観を示す正面図である。図1および図2に示すように、携帯電話端末1は、面積が他の面よりも広い2つの面を有する略六面体形状の筐体を有し、その筐体の表面にタッチパネル2と、入力部3と、スピーカ7と、マイク8とを備える。
まず、図1および図2を参照しながら、本発明に係る電子機器の一実施形態である携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す斜視図である。図2は、携帯電話端末1の外観を示す正面図である。図1および図2に示すように、携帯電話端末1は、面積が他の面よりも広い2つの面を有する略六面体形状の筐体を有し、その筐体の表面にタッチパネル2と、入力部3と、スピーカ7と、マイク8とを備える。
タッチパネル2は、面積が最も広い面(正面、第1面)の1つに設けられ、文字、図形、画像等を表示する。タッチパネル2は、接触を検出し、携帯電話端末1は、タッチパネル2によって検出される接触に基づいて、指、スタイラス、ペン等(以下、単に「指」という)を用いてタッチパネル2に対して行われる各種操作(ジェスチャ)を検出する。なお、タッチパネル2が接触を検出する方式は、静電容量式、感圧式等の任意の方式であってよい。入力部3は、所定の機能が割り当てられたボタン3A、ボタン3Bおよびボタン3C等の複数のボタンからなる。スピーカ7は、通話相手の音声や、各種プログラムによって再生される音楽や効果音等を出力する。マイク8は、通話時や音声による操作の受付時に音声を取得する。
次に、図3を参照しながら、携帯電話端末1の機能的な構成について説明する。図3は、携帯電話端末1の機能的な構成を示すブロック図である。図3に示すように携帯電話端末1は、タッチパネル2と、入力部3と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、主制御部10と、RAM(Random Access Memory)11と、タイマ12と、を有する。
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ(接触検出部)2Aとを有する。タッチセンサ2Aは、指によるタッチパネル2への接触を、接触された場所のタッチパネル2上での位置とともに検出し、主制御部10に通知する。それにより、主制御部10は、タッチセンサ2Aに対して行われる操作(ジェスチャ)を判定(検出)する。タッチセンサ2Aによって検出される接触に基づいて主制御部10が検出する操作には、タップ操作やスイープ操作が含まれる。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字や図形等を表示する。
入力部3は、物理的なボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を主制御部10へ送信する。電源部5は、蓄電池または外部電源から得られる電力を、主制御部10を含む携帯電話端末1の各機能部へ供給する。
通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、主制御部10から送信される音声信号を音声として出力する。マイク8は、利用者等の音声を音声信号へ変換して主制御部10へ送信する。
記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、主制御部10での処理に利用されるプログラムやデータを保存する。記憶部9に記憶されるプログラムには、メールプログラム9Aと、ブラウザプログラム9Bと、表示制御プログラム9Cと、接触操作制御プログラム9Dとが含まれる。また、記憶部9に記憶されるデータには、接触動作定義データ9Eとアイコン画像データ9Fが含まれる。記憶部9は、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムやアドレス帳データ等のその他のプログラムやデータも記憶する。なお、記憶部9は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせとして構成されていてもよい。
メールプログラム9Aは、電子メール機能を実現するための機能を提供する。ブラウザプログラム9Bは、WEBブラウジング機能を実現するための機能を提供する。表示制御プログラム9Cは、他のプログラムが提供する機能と協業して、タッチパネル2に文字や図形等を表示させる。接触操作制御プログラム9Dは、タッチセンサ2Aを介して検出される各種の接触操作に応じた処理を実行するための機能を提供する。接触動作定義データ9Eは、タッチセンサ2Aの検出する接触に応じて起動される機能についての定義を保持する。アイコン画像データ9Fは、表示部2Bに表示させる各種アイコンの画像を保存する。本実施形態のアイコン画像データ9Fは、アイコンの画像として3次元のトラックボール(例えば、回転可能な球体)を模した画像を保存している。
主制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御して各種の機能を実現する。具体的には、主制御部10は、記憶部9に記憶されているデータやRAM11に展開したデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムに含まれる命令を実行して、表示部2Bや、通信部6等を制御することによって各種機能を実現する。なお、主制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。
主制御部10は、例えば、メールプログラム9Aを実行することによって、電子メール機能を実現する。また、主制御部10は、接触操作制御プログラム9Dを実行することによって、タッチセンサ2Aを介して検出される各種の接触操作に応じて対応する処理を実行する機能を実現する。また、主制御部10は、表示制御プログラム9Cを実行することによって、各種機能で用いられる画像等をタッチパネル2に表示させる機能を実現する。なお、主制御部10は、オペレーティングシステムプログラムによって提供されるマルチタスク機能によって、複数のプログラムを並行して実行できるものとする。
RAM11は、主制御部10によって実行されるプログラムの命令、主制御部10が参照するデータ、主制御部10の演算結果等が一時的に記憶される記憶領域として利用される。
タイマ12は、時間経過を測定する処理部である。本実施形態の携帯電話端末1は、主制御部10に対して独立に時間経過を測定するタイマを備えた構成を例示しているが、主制御部10にタイマ機能を持たせても良い。
次に、図4から図6を参照しながら、携帯電話端末1の動作、具体的にはタッチセンサ2Aを介して検出される操作に応じて主制御部10が実行する制御の例について説明する。図4から図6は、それぞれタッチセンサを介して検出される操作に応じて主制御部10が実行する制御の例を示す図である。なお、図4から図6は、携帯電話端末1のタッチパネル2部分のみを示しタッチパネル2の外周の筐体部分の図示を省略している。なお、図4から図6に示す例は、ブラウザなどタッチパネル2よりも大きい画像をタッチパネル2に表示させるアプリケーションを実行しているときに表示される画像の例である。
携帯電話端末1は、タッチパネル2に表示領域30を設定する。表示領域30は、表示領域30の上下方向の下側に設けられる下端領域32と、その他の領域の主領域34とで構成される。下端領域32は、表示領域30の上下方向における下側の端部の左右方向の全域となる領域である。下端領域32と主領域34との境界線は、表示領域30の左右方向(横方向)に平行な線となる。タッチパネル2は、表示領域30にアイコン36と画像40とを表示させる。ここで、アイコン36は、トラックボールを模した画像であり、下端領域32に配置されている。なお、本実施形態のアイコン36は、下端領域32の表示領域の右側に配置されている。
画像40は、例えばブラウザプログラム9Bを実行することで取得したWebページの画像であり、表示領域30の全域に表示されている。つまり、画像40は、主領域34と下端領域32の両方に表示された1つの画像である。また、表示領域30は、アイコン36が画像40の上の層に表示される。つまり、アイコン36と画像40とが重なる位置は、アイコン36の画像が表示される。
携帯電話端末1は、図4に示すようにアイコン36が表示されている状態で、図5に示すように、指Fがアイコン36に接触していることを検出、つまりタッチパネル2のアイコン36が表示されている領域への指Fの接触を検出し、指Fがタッチパネル2に接触している状態を維持したまま、指Fを表示領域30の上側にスライドする操作である、つまり、アイコン36を表示領域30の上側(矢印41の方向に)にフリックする操作をタッチパネル2のタッチセンサ2Aを介して検出した場合、図5に示すように、表示領域30に表示させる画像を表示領域30の上方向に移動(スライド)させる。ここで、表示領域30は、画像40の下側の一部の画像40aと画像40の下側に対応付けられた画像42とで構成される。つまり携帯電話端末1は、アイコン36のフリック操作に基づいて表示させる画像を移動させる。フリック操作とは、接触している部分を所定の方向にはじくような動作、図5ではアイコン36を表示領域30の上側にはじくような動作であり、フリック操作入力後の指Fは、アイコン36の近傍で維持することができる。また、携帯電話端末1は、アイコン36を上下方向にフリックさせる操作を検出した場合、その操作に基づいて画像40を移動させ、アイコン36の表示位置は変更しない。
携帯電話端末1は、アイコン36にフリック操作が入力された方向に対応して、アイコン36(トラックボール)の画像をその場(表示している領域)で回転させるようにすることが好ましい。このようにアイコン36を回転させることで、入力した操作と表示される操作との対応関係が明確となり、直感的な操作を実行することができる。
次に、携帯電話端末1は、図4に示すようにアイコン36が表示されている状態で、図6に示すように、指F1がアイコン36に接触していることを検出し、指F1がタッチパネル2に接触している状態を維持したまま、指F1を表示領域30の左側にスライドさせる、スライド操作を検出したら、下端領域32におけるアイコン36の表示領域30の左右方向位置を変更する。具体的には、携帯電話端末1は、図6に示すように、利用者が指F1の位置から指F2の位置まで移動するスライド操作(アイコン36にタッチし、その後接触点が矢印50に示す方向に移動するスライド操作)をタッチパネル2に入力し、当該スライド操作をタッチパネル2を介して検出した場合、アイコン36の表示位置をスライド操作の終点、つまり、指F2が接触している位置とし、アイコン36aを表示させる。また、携帯電話端末1は、アイコン36aを表示している状態で、アイコン36aにタッチし、その後接触点が矢印52に示す方向に移動するスライド操作を検出した場合、アイコン36の表示位置をスライド操作の終点の位置とし、アイコン36bを表示させる。また、アイコン36を左右方向へ移動させる場合は、アイコンを構成するトラックボールが回転している画像を表示しつつ、アイコンの表示位置を移動させることが好ましい。これにより、アイコン36の左右方向への移動を直感的に理解しやすくすることができる。
次に、図7を参照しながら、接触操作の検出時の携帯電話端末1の動作について説明する。図7は、携帯電話端末の動作を示すフローチャートである。図7に示す処理手順は、接触操作制御プログラム9Dが提供する機能に基づいて繰り返し実行される。また、主制御部10は、接触操作制御プログラム9Dが提供する機能に基づいて、他の接触操作の検出に対応する処理も並列処理で実行する。
携帯電話端末1の主制御部10は、ステップS12として、アイコンへの接触を検出したか、つまりタッチパネル2のタッチセンサ2Aを介してアイコン36を表示している領域への接触操作が検出されたかを判定する。主制御部10は、アイコンへの接触を検出していない(No)と判定した場合、ステップS12に進む。つまり、主制御部10は、アイコンへの接触を検出するまで、ステップS12の処理を繰り返す。
主制御部10は、ステップS12でアイコンへの接触を検出した(Yes)と判定した場合、ステップS14として上下方向のフリック操作、つまり入力された操作がアイコン36を上下のいずれかの方向にはじく操作であるかを判定する。主制御部10は、ステップS14で上下方向のフリック操作である(Yes)と判定した場合、ステップS16として、画像スクロール処理を行い、本処理を終了する。つまり、主制御部10は、図5に示すように、検出したフリック操作の方向に基づいて画像を移動させる処理を実行し、本処理を終了する。
また、主制御部10は、ステップS14で上下方向のフリック操作ではない(No)と判定した場合、ステップS18として、左右方向のスライド操作であるかを判定する。主制御部10は、左右方向のスライド操作である(Yes)と判定した場合、ステップS20としてアイコン移動処理を行い、本処理を終了する。つまり、主制御部10は、図6に示すように、検出したスライド操作の方向に基づいてアイコンの表示位置を移動させる処理を実行し、本処理を終了する。
また、主制御部10は、ステップS18で、左右方向のスライド操作ではない(No)と判定した場合、ステップS22として、ガード処理を行い、本処理を終了する。ここで、ガード処理とは、入力された操作を無効にする処理である。
なお、本実施形態では、主制御部10は、ステップS14で上下方向へのフリック操作を検出した場合、画像を上下方向へ移動させたが、フリック操作の方向および画像の移動方向はこれに限定されない。例えば、主制御部10は、左右方向のフリック操作を検出した場合、画像を左右方向へ移動させても、斜め方向のフリック操作を検出した場合、画像を斜め方向へ移動させてもよい。また、上述したように、より直感的に操作できるため、フリック操作の方向と画像の移動方向は、同じ方向であることが好ましいが、これに限定されない。例えば、主制御部10は、左右方向または斜め方向へのフリック操作を検出した場合、画像を上下方向へ移動させるようにしてもよい。
ここで、図8は、タッチセンサを介して検出される操作に応じて主制御部が実行する制御の例を示す図である。携帯電話端末1は、例えば、図8に示すように、対象の画像を表示させている領域に指F3を接触させた後、指F4に示す位置まで指F3を矢印46に示す方向に移動させる操作を表示領域30の画像をスクロールさせる操作として検出することもできる。この場合は、図8に示す指のスライド操作を検出することで、図4に示すように表示領域30に画像40のみを表示している状態から、画像40の下側の一部の画像40bと画像40の下側に対応付けられた画像42aとで構成される画像を表示している状態に遷移させることができる。しかしながら、スライド対象の画像40に対しスライド操作を画像の移動操作とすると、図8に示すように新たに表示させる画像42aの一部が指F4によって隠れてしまう場合がある。
これに対して、本実施形態の携帯電話端末1は、表示領域30の下端領域32にアイコンを表示し、アイコンに対して入力された上下方向へのフリック操作を検出したら、そのフリック操作に基づいて、表示領域30に表示させた画像をスクロールさせる。つまり、携帯電話端末1は、表示領域30の下端に表示させたアイコンにフリック操作が入力された場合、画像をスライドする。これにより、指を表示領域の下端で移動させるだけで画像をスクロールさせることができ、タッチパネルの画像が見やすい状態を維持しつつ、タッチパネルに表示させた画像のスクロール操作をすることができる。また、携帯電話端末1は、表示領域の下端のアイコンに複数回のフリック操作をすることで画像を大きくスクロールさせることができる。これにより、携帯電話端末1を支持している手で操作を入力する場合等、指の稼動域が小さい場合でも、簡単にスクロール操作をすることができる。
ここで、携帯電話端末1は、入力されたフリック操作に基づいて、画像を移動させる移動量としては、種々の規則を用いることができる。例えば、フリック操作が入力される接触点の入力速度(つまり指の移動速度)に基づいて画像の移動量を決定するようにしてもよい。また、アイコンを現実のトラックボールの抵抗等の条件を設定し、入力されたフリック操作に基づいて、トラックボールの回転量を検出し、その回転量を移動量としてもよい。つまり、入力されたフリック操作に基づいて、トラックボールの慣性による回転も仮定して画像の移動量を決定してもよい。また、アイコンを抵抗がないトラックボールと仮定して、フリック操作が入力されたら、フリック操作が入力される接触点の入力速度に基づいて、画像の移動速度を決定し、アイコンの回転を停止させる操作(例えばアイコンに接触する操作)を検出するまで、その移動速度で画像を移動させるようにしてもよい。携帯電話端末1は、このように、アイコンをトラックボールと仮定し、アイコンに入力されるフリック操作で決定されるトラックボールの移動量に基づいて画像の移動量を決定することで、利用者が画像の移動量を適宜調整するこが可能となり、操作性をより向上させることができる。
また、携帯電話端末1は、アイコンに対する左右方向のスライド操作を検出したら、アイコンの左右方向の位置を移動させることで、操作しやすい位置にアイコンを配置することができる。例えば右手で操作する場合は、上記実施形態のように表示領域の右側にアイコンを配置し、左手で操作する場合は、表示領域の左側にアイコンを配置することで、簡単に片手で操作することができる。なお、アイコンの位置は、設定により決められた位置に配置するようにしてもよい。つまりアイコンの移動操作は、別のモードで実行し、画像の移動操作の検出時は実行しないようにしてもよい。
また、上記実施形態の携帯電話端末1は、アイコンに対する左右方向のスライド操作を検出したら、アイコンの左右方向の位置を移動させたがこれに限定されない。携帯電話端末1は、アイコンに対する左右方向のスライド操作を検出したら、表示領域に表示している画像を左右方向に移動させるようにしてもよい。また、上記実施形態の携帯電話端末1は、アイコンに対する左右方向のスライド操作を検出したら、アイコンの左右方向の位置を移動させ、アイコンに対する左右方向のフリック操作を検出したら、表示領域に表示している画像を左右方向に移動させるようにしてもよい。このように、アイコンに対する左右方向の操作を検出したら、画像を左右方向にスライドさせることで、表示領域の下端に表示されているアイコンへの操作を入力するのみで、画像を左右方向に移動させることができる。
ここで、携帯電話端末1は、アイコンを表示させ、アイコンに入力されたフリック操作に対応して画像をスクロールさせることができるモード(以下「片手モード」という。)と、アイコンを表示させず図8のように表示している画像に対して指等でスライド操作を入力することで画像をスクロールさせるモード(以下「通常モード」という。)と、を切り換え可能とすることが好ましい。
ここで、図9および図10は、それぞれ、タッチセンサを介して検出される操作に応じて主制御部が実行する制御の例を示す図である。携帯電話端末1は、通常モードの場合、図9に示すように、表示領域60にアイコンを表示させない。なお、表示領域60は、表示領域60の上下方向の下側に設けられる下端領域62と、その他の領域の主領域64とで構成される。携帯電話端末1は、このように通常モードで処理を実行している状態で、下端領域62に長押下、つまり所定時間以上、連続して接触状態が維持される操作が入力された場合、通常モードから片手モードに移行することが好ましい。
また、携帯電話端末1は、片手モードの場合、図10に示すように表示領域60の主領域64の下側にある下端領域62にアイコン76を表示させる。携帯電話端末1は、片手モードでアイコン76を表示している状態で、指F5がアイコン76に接触し、その後、指F5が矢印77の方向(左右方向)に移動し、アイコン76をアイコン76aの位置まで移動させる操作が入力されたことを検出したら、通常モードに移行することが好ましい。なお、アイコン76をアイコン76aの位置まで移動させる操作は指F5を下端領域62の右方向の端部まで移動させ、指F5を表示領域60の外側まで移動させる操作である。なお、表示領域60の外であるため、アイコン76aの位置まで移動させる操作とは一部の操作を仮想で補間した操作である。
アイコンを下部領域の外側に移動させる操作は、表示領域60の右端に限定されず、左側に移動させてもよい。携帯電話端末1は、片手モードでアイコン78を表示している状態で、指F6がアイコン78に接触し、その後、指F6が矢印79の方向(左右方向)に移動し、アイコン78をアイコン78aの位置まで移動させる操作が入力されたことを検出したら、通常モードに移行することが好ましい。なお、アイコン78をアイコン78aの位置まで移動させる操作は、指F6を下端領域62の左方向の端部まで移動させ、指F6を表示領域60の外側まで移動させる操作である。
次に、図11および図12を参照しながら、接触操作の検出時の携帯電話端末1の動作について説明する。図11および図12は、それぞれ携帯電話端末の動作を示すフローチャートである。図11および図12に示す処理手順は、接触操作制御プログラム9Dが提供する機能に基づいて繰り返し実行される。また、主制御部10は、接触操作制御プログラム9Dが提供する機能に基づいて、他の接触操作の検出に対応する処理も並列処理で実行する。なお、図11に示す処理は、通常モードで実行される処理であり、図12は、片手モードで実行される処理である。
携帯電話端末1の主制御部10は、通常モードでタッチパネル2に画像を表示させている場合、図11に示すように、ステップS30としてタイマをリセットする。つまり、タイマ12で計測している時間をリセットし、0とする。
主制御部10は、ステップS30でタイマをリセットしたら、ステップS32で接触を検出しているか、つまりタッチセンサ2Aで接触を検出しているかを判定する。主制御部10は、ステップS32で接触を検出していない(No)と判定した場合、本処理を終了する。
主制御部10は、ステップS32で接触を検出した(Yes)と判定した場合、ステップS34として、接触位置を検出し、ステップS36として、接触位置が特定領域(本実施形態では下端領域32)であるかを判定する。主制御部10は、ステップS36で接触位置が特定領域ではない(No)と判定した場合、ステップS38として、接触に対応する処理を実行する。つまり、検出した操作に対応する処理を実行する。
主制御部10は、ステップS36で接触位置が特定領域である(Yes)と判定した場合、ステップS40としてタイマによる計測を開始する。つまり、接触を検出してからの経過時間の計測を開始する。
主制御部10は、ステップS40で計測を開始したら、ステップS42として接触が継続しているかを判定する。主制御部10は、接触を検出した状態であり、かつ接触位置が特定領域内である場合、接触が継続していると判定する。なお、主制御部10は、接触位置が一定距離以上変化した場合、接触が継続していないと判定してもよい。
主制御部10は、ステップS42で接触が継続していない(No)と判定した場合、ステップS48に進む。また、主制御部10は、ステップS42で接触が継続している(Yes)と判定した場合、ステップS44として、しきい値時間≦経過時間であるか、つまり、タイマで計測している接触開始してからの経過時間がしきい値時間よりも長いかを判定する。主制御部10は、ステップS44で、しきい値時間≦経過時間ではない(No)、つまり、しきい値時間>経過時間であると判定した場合ステップS42に進む。このように、主制御部10は、接触が継続しており、しきい値時間が経過するまでは、ステップS42、S44の処理を繰り返す。
主制御部10は、ステップS44で、しきい値時間≦経過時間である(Yes)と判定した場合、ステップS46として、片手モードに移行する。つまり、主制御部10は、下端領域にアイコンを表示し、アイコンへのフリック操作を検出した場合、画像をスクロールさせるモードに移行する。
主制御部10は、ステップS42でNoと判定した場合、ステップS46の処理を実行した場合、ステップS48としてタイマを停止、つまりタイマ12により経過時間の計測を停止して、本処理を終了する。
次に、携帯電話端末1の主制御部10は、片手モードでタッチパネル2に画像を表示させている場合、図12に示すように、ステップS50として、接触を検出しているか、つまりタッチセンサ2Aで接触を検出しているかを判定する。主制御部10は、ステップS50で接触を検出していない(No)と判定した場合、ステップS50に進む。つまり、主制御部10は、タッチセンサ2Aで接触を検出するまでステップS50の処理を繰り返す。
主制御部10は、ステップS50で接触を検出した(Yes)と判定した場合、ステップS52として、接触位置を検出し、ステップS54として、アイコンへの接触であるか、つまり接触位置がアイコンであるかを判定する。主制御部10は、ステップS54でアイコンへの接触ではない(No)と判定した場合、ステップS56として、接触に対応する処理を実行する。つまり、検出した操作に対応する処理を実行する。
主制御部10は、ステップS54でアイコンへの接触である(Yes)と判定した場合、ステップS58として、上下方向のフリック操作、つまり入力された操作がアイコン36を上下のいずれかの方向にはじく操作であるかを判定する。主制御部10は、ステップS58で上下方向のフリック操作である(Yes)と判定した場合、ステップS60として、画像スクロール処理を行い、本処理を終了する。
また、主制御部10は、ステップS58で上下方向のフリック操作ではない(No)と判定した場合、ステップS62として、左右方向のスライド操作であるかを判定する。主制御部10は、左右方向のスライド操作である(Yes)と判定した場合、ステップS64としてスライド操作の終了位置が端部であるか、つまり、アイコンを表示領域の端部まで移動する操作であるかを判定する。主制御部10は、ステップS64でスライド操作の終了位置が端部である(Yes)と判定した場合、ステップS66として、通常モードへ移行し、本処理を終了する。つまり、主制御部10は、アイコンの表示を終了し、指のスライド操作で画像を移動させるモードとして、本処理を終了する。
また、主制御部10は、ステップS64でスライド操作の終了位置が端部ではない(No)と判定した場合、ステップS68としてアイコン移動処理を行い、本処理を終了する。
また、主制御部10は、ステップS62で左右方向のスライド操作ではない(No)と判定した場合、ステップS70として、ガード処理を行い、本処理を終了する。
携帯電話端末1は、このように、通常モードと片手モードとを切り換え可能とすることで、利用者の用途に適した操作で画像をスライドさせることが可能となる。
また、携帯電話端末1は、長押しで通常モードから片手モードへ移行し、アイコンを表示領域の外に移動させることで、片手モードから通常モードへ移行することで、簡単な操作でモードを切り換えることができる。なお、モードの切り替え操作は、これに限定されず種々の操作とすることができる。例えば、表示部2Bを消灯させる省電力モードとなり、その後操作が入力されタッチパネルに画像を表示させる場合は、常に通常モード、または常に片手モードとしてもよい。また、メニューを選択することで、通常モード、片手モードを選択、変更するようにしてもよい。
また、携帯電話端末1は、表示させる画像(Webページ)を解析し、その画像の大きさに応じて、片手モードと通常モードとを切り換えるようにしてもよい。つまり、画像が一定以上の大きさの場合は、片手モードとし、画像が一定未満の大きさの場合は、通常モードとしてもよい。また、携帯電話端末1は、表示させる画像(Webページ)を解析し、その画像の大きさが一定以上の大きさの場合のみ、片手モードに移行可能とする設定としてもよい。このように、表示させる画像の大きさに応じて、モードの切換を制御することで、より適したモードで画像の閲覧、画像の移動が可能となる。
次に、図13は、タッチセンサを介して検出される操作に応じて主制御部が実行する制御の例を示す図である。携帯電話端末1は、図13に示すようにタッチパネル2に表示領域80を設定してもよい。表示領域80は、表示領域80の上下方向の下側に設けられる下端領域82と、その他の領域の主領域84とで構成される。下端領域82は、表示領域80の上下方向における下側の端部の左右方向の全域となる領域である。下端領域82と主領域84との境界線は、表示領域80の左右方向(横方向)に平行な線となる。タッチパネル2は、表示領域80にアイコン86とアイコン画像88と画像92と画像94を表示させる。
ここで、アイコン86は、トラックボールを模した画像であり、下端領域82に配置されている。なお、本実施形態のアイコン86は、下端領域82の右側に配置されている。アイコン画像88は、アイコン86と同一の画像であり、主領域84に配置されている。なお、本実施形態のアイコン画像88は、主領域84の左上に配置されている。
画像92と画像94は、例えばブラウザプログラム9Bを実行することで取得したWebページの画像であり、画像92と画像94を合わせた画像が全域に表示されている。なお、画像92が画像94の上側に表示された画像である。画像94は、指Fによりアイコン86に矢印87方向のフリック操作が入力されたことで、画像が移動されることで表示された画像である。また、表示領域80は、アイコン86が画像94の上の層に表示され、アイコン画像88が、画像92の上の層に表示される。つまり、アイコン86と画像94とが重なる位置は、アイコン86の画像が表示され、アイコン画像88と画像92とが重なる位置は、アイコン画像88の画像が表示される。
携帯電話端末1は、表示領域80として、アイコン86と同一の画像であるアイコン画像88を主領域84に配置する。なお、アイコン画像88は、アイコン86とは異なり、アイコン画像88を表示している領域にフリック操作が入力されても画像を移動させない。携帯電話端末1は、アイコン86に入力されたフリック操作を検出した場合、アイコン86を回転した状態で表示させるととともに、アイコン画像88も回転した状態で表示させる。具体的には、携帯電話端末1は、図13に示すように、アイコン86に矢印87に示す方向(表示領域の上方向)のフリック操作が入力されたことを検出した場合、アイコン画像88も矢印89に示す方向(表示領域の上方向)に回転した画像を表示させる。
携帯電話端末1は、図13に示すように、アイコン86に連動したアイコン画像88を主領域84に配置することで、アイコン86に入力された操作がどう検出されたかを利用者にわかりやすく伝えることができる。つまり、利用者は、アイコン86へのフリック操作の入力時、指Fでアイコン86が隠れるためアイコン86の回転状態を確認することができないが、アイコン画像88を表示することで、アイコン86の状態を確実に確認することができる。
なお、携帯電話端末1は、アイコン画像88をアイコン86に入力された操作に対応した状態を示せばよく、アイコン86を回転させずに、アイコン画像88のみを回転させて表示させてもよい。
また、上記実施形態では、より直感的な操作が可能となるため、アイコンへのフリック操作を画像の移動操作としたがこれにも限定されない。画像の移動操作としては、アイコンへ入力される各種操作を用いることができる。また、上記実施形態では、長手方向が表示領域の上下方向となる場合で説明したが、これに限定されない。短手方向が表示領域の上下方向となる場合も、表示領域の下側の下側領域にアイコンを表示させ、上記制御を実行することで、上記効果を得ることができる。
1 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
5 電源部
6 通信部
7 スピーカ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C 表示制御プログラム
9D 接触操作制御プログラム
9E 接触動作定義データ
9F アイコン画像データ
10 主制御部
11 RAM
12 タイマ
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
5 電源部
6 通信部
7 スピーカ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C 表示制御プログラム
9D 接触操作制御プログラム
9E 接触動作定義データ
9F アイコン画像データ
10 主制御部
11 RAM
12 タイマ
Claims (12)
- 画像およびアイコンを表示する表示部と、
接触を検出可能な接触検出部と、
前記アイコンを第1の方向に移動させる第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させる制御部と、を備える電子機器。 - 前記制御部は、前記第1の操作が検出されたとき、前記アイコンを移動させることなく、前記画像を第1の方向に移動させて前記表示部に表示させる請求項1に記載の電子機器。
- 前記アイコンは、球体の画像であり、
前記制御部は、前記第1の操作が検出された場合、前記球体が回転しているように前記アイコンを前記表示部に表示させることを特徴とする請求項1または2に記載の電子機器。 - 前記制御部は、前記第1の操作の移動速度に基づいて、前記画像の移動量を決定する事を特徴とする請求項1から3のいずれか1項に記載の電子機器。
- 前記制御部は、前記アイコンを第2の方向に移動させる第2の操作が検出された場合、前記第2の操作が終了する位置まで前記アイコンを移動させて前記表示部に表示させることを特徴とする請求項1から4のいずれか1項に記載の電子機器。
- 前記アイコンは、球体の画像であり、
前記制御部は、前記球体が回転しているように前記アイコンを表示させながら、前記アイコンを前記第2の操作が終了する位置まで移動させて前記表示部に表示させる請求項5に記載の電子機器。 - 前記制御部は、前記アイコンを表示領域の外側に移動させる操作が検出された場合、前記アイコンの表示を終了することを特徴とする請求項1から6のいずれか1項に記載の電子機器。
- 前記制御部は、一定時間の接触操作が検出された場合、前記アイコンを前記表示部に表示させることを特徴とする請求項1から7のいずれか1項に記載の電子機器。
- 前記制御部は、前記アイコンを移動させる移動操作が検出された場合、前記移動操作に応じて前記画像を移動させて前記表示部に表示させることを特徴とする請求項1から8のいずれか1項に記載の電子機器。
- 前記制御部は、前記アイコンと同一の画像を前記表示部に表示させることを特徴とする請求項1に記載の電子機器。
- 表示部と接触検出部を有する電子機器に実行させるための制御方法であって、
画像およびアイコンを前記表示部に表示するステップと、
前記接触検出部により接触を検出するステップと、
前記アイコンを第1の方向に移動させる第1の操作が検出されたかどうかを判定するステップと、
前記第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させるステップと
を含む制御方法。 - 表示部と接触検出部を有する電子機器に、
画像およびアイコンを前記表示部に表示するステップと、
前記接触検出部により接触を検出するステップと、
前記アイコンを第1の方向に移動させる第1の操作が検出されたかどうかを判定するステップと、
前記第1の操作が検出された場合に、前記アイコンを表示したままで、前記画像を第1の方向に移動させて前記表示部に表示させるステップと
を実行させる制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012167721A JP2013047945A (ja) | 2011-07-27 | 2012-07-27 | 電子機器、制御方法および制御プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011164848 | 2011-07-27 | ||
JP2011164848 | 2011-07-27 | ||
JP2012167721A JP2013047945A (ja) | 2011-07-27 | 2012-07-27 | 電子機器、制御方法および制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013047945A true JP2013047945A (ja) | 2013-03-07 |
Family
ID=47175935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012167721A Pending JP2013047945A (ja) | 2011-07-27 | 2012-07-27 | 電子機器、制御方法および制御プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120297339A1 (ja) |
JP (1) | JP2013047945A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014192536A1 (ja) * | 2013-05-27 | 2014-12-04 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、その処理方法、およびプログラム |
JP2014229287A (ja) * | 2013-05-27 | 2014-12-08 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、その処理方法、およびプログラム |
JP2016115337A (ja) * | 2014-12-15 | 2016-06-23 | キヤノン株式会社 | ユーザインタフェース装置、画像形成装置、ユーザインタフェース装置の制御方法及び記憶媒体 |
JP5953418B1 (ja) * | 2015-11-10 | 2016-07-20 | 株式会社Cygames | ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法 |
JP2017509089A (ja) * | 2014-12-16 | 2017-03-30 | シャオミ・インコーポレイテッド | モバイル端末の操作状態を起動する方法、装置、プログラム及び記録媒体 |
JP2017174445A (ja) * | 2017-05-02 | 2017-09-28 | 京セラ株式会社 | 電子機器 |
US10198178B2 (en) | 2013-10-29 | 2019-02-05 | Kyocera Corporation | Electronic apparatus with split display areas and split display method |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8775972B2 (en) | 2012-11-08 | 2014-07-08 | Snapchat, Inc. | Apparatus and method for single action control of social network profile access |
US20140137038A1 (en) * | 2012-11-10 | 2014-05-15 | Seungman KIM | Electronic apparatus and method of displaying a user input menu |
US20140232679A1 (en) * | 2013-02-17 | 2014-08-21 | Microsoft Corporation | Systems and methods to protect against inadvertant actuation of virtual buttons on touch surfaces |
US10578499B2 (en) | 2013-02-17 | 2020-03-03 | Microsoft Technology Licensing, Llc | Piezo-actuated virtual buttons for touch surfaces |
CN103324734B (zh) * | 2013-06-28 | 2017-04-05 | 北京奇虎科技有限公司 | 一种电子设备上网页缩放的方法和装置 |
JP2015095760A (ja) * | 2013-11-12 | 2015-05-18 | オリンパス株式会社 | 顕微鏡画像表示制御方法、顕微鏡画像表示制御プログラムおよび顕微鏡画像表示装置 |
US9448631B2 (en) | 2013-12-31 | 2016-09-20 | Microsoft Technology Licensing, Llc | Input device haptics and pressure sensing |
US9509822B2 (en) | 2014-02-17 | 2016-11-29 | Seungman KIM | Electronic apparatus and method of selectively applying security in mobile device |
USD826969S1 (en) | 2017-03-29 | 2018-08-28 | Becton, Dickinson And Company | Display screen or portion thereof with animated graphical user interface |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5019809A (en) * | 1988-07-29 | 1991-05-28 | University Of Toronto Innovations Foundation | Two-dimensional emulation of three-dimensional trackball |
US5214756A (en) * | 1989-03-10 | 1993-05-25 | International Business Machines Corporation | Direct manipulation of icons via conversational linking |
US5327161A (en) * | 1989-08-09 | 1994-07-05 | Microtouch Systems, Inc. | System and method for emulating a mouse input device with a touchpad input device |
US5990941A (en) * | 1991-05-13 | 1999-11-23 | Interactive Pictures Corporation | Method and apparatus for the interactive display of any portion of a spherical image |
JPH0778120A (ja) * | 1993-07-29 | 1995-03-20 | Xerox Corp | 手持ち演算装置及び手持ち演算装置における入力信号処理方法 |
US5402152A (en) * | 1993-12-30 | 1995-03-28 | Intel Corporation | Method and apparatus for tailoring scroll bar and cursor appearance to pen user hand orientation |
US5808613A (en) * | 1996-05-28 | 1998-09-15 | Silicon Graphics, Inc. | Network navigator with enhanced navigational abilities |
US7072688B2 (en) * | 1998-05-01 | 2006-07-04 | Motorola, Inc. | Enhanced companion digital organizer for a cellular phone device |
US6142940A (en) * | 1998-10-06 | 2000-11-07 | Scimed Life Systems, Inc. | Control panel for intravascular ultrasonic imaging system |
US6337698B1 (en) * | 1998-11-20 | 2002-01-08 | Microsoft Corporation | Pen-based interface for a notepad computer |
US6252594B1 (en) * | 1998-12-11 | 2001-06-26 | International Business Machines Corporation | Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar |
JP3942335B2 (ja) * | 2000-02-28 | 2007-07-11 | 東芝テック株式会社 | ウインドウのデザイン変更方法およびシステム |
CA2323856A1 (en) * | 2000-10-18 | 2002-04-18 | 602531 British Columbia Ltd. | Method, system and media for entering data in a personal computing device |
US6690354B2 (en) * | 2000-11-19 | 2004-02-10 | Canesta, Inc. | Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions |
US6816151B2 (en) * | 2001-11-09 | 2004-11-09 | Terry L. Dellinger | Hand-held trackball computer pointing device |
US7068256B1 (en) * | 2001-11-20 | 2006-06-27 | Palm, Inc. | Entering and exiting power modes and activating hand writing presentation display triggered by electronic muscle material |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
JP4115198B2 (ja) * | 2002-08-02 | 2008-07-09 | 株式会社日立製作所 | タッチパネルを備えた表示装置 |
US7242387B2 (en) * | 2002-10-18 | 2007-07-10 | Autodesk, Inc. | Pen-mouse system |
US20050078123A1 (en) * | 2003-09-28 | 2005-04-14 | Denny Jaeger | Method for creating and using text objects as control devices |
US20050162399A1 (en) * | 2004-01-23 | 2005-07-28 | Kabushiki Kaisha Toshiba | Displaying and inputting apparatus |
US7667700B1 (en) * | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
US7932909B2 (en) * | 2004-04-16 | 2011-04-26 | Apple Inc. | User interface for controlling three-dimensional animation of an object |
US7376903B2 (en) * | 2004-06-29 | 2008-05-20 | Ge Medical Systems Information Technologies | 3D display system and method |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US20060022953A1 (en) * | 2004-07-30 | 2006-02-02 | Nokia Corporation | Left-hand originated user interface control for a device |
US20090181769A1 (en) * | 2004-10-01 | 2009-07-16 | Alfred Thomas | System and method for 3d image manipulation in gaming machines |
US20060107303A1 (en) * | 2004-11-15 | 2006-05-18 | Avaya Technology Corp. | Content specification for media streams |
US8819569B2 (en) * | 2005-02-18 | 2014-08-26 | Zumobi, Inc | Single-handed approach for navigation of application tiles using panning and zooming |
US7562312B2 (en) * | 2006-01-17 | 2009-07-14 | Samsung Electronics Co., Ltd. | 3-dimensional graphical user interface |
KR20080068491A (ko) * | 2007-01-19 | 2008-07-23 | 엘지전자 주식회사 | 터치 방식 정보 입력 단말기 및 그 방법 |
US8692767B2 (en) * | 2007-07-13 | 2014-04-08 | Synaptics Incorporated | Input device and method for virtual trackball operation |
KR100900295B1 (ko) * | 2008-04-17 | 2009-05-29 | 엘지전자 주식회사 | 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법 |
US8286099B2 (en) * | 2008-03-24 | 2012-10-09 | Lenovo (Singapore) Pte. Ltd. | Apparatus, system, and method for rotational graphical user interface navigation |
US8276093B2 (en) * | 2008-04-24 | 2012-09-25 | Nintendo Co., Ltd. | Computer-readable storage medium having object display order changing program stored therein and apparatus |
WO2009155525A2 (en) * | 2008-06-19 | 2009-12-23 | University Of Utah Research Foundation | Implementing and interpolating rotations from a computing input device |
US8351979B2 (en) * | 2008-08-21 | 2013-01-08 | Apple Inc. | Camera as input interface |
KR20100027686A (ko) * | 2008-09-03 | 2010-03-11 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
US20100073303A1 (en) * | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
US8223241B2 (en) * | 2008-12-15 | 2012-07-17 | Robbyn Gayer | Self shot camera |
US8132120B2 (en) * | 2008-12-29 | 2012-03-06 | Verizon Patent And Licensing Inc. | Interface cube for mobile device |
US8468466B2 (en) * | 2009-03-27 | 2013-06-18 | International Business Machines Corporation | Radial menu selection with gestures |
TW201042466A (en) * | 2009-05-28 | 2010-12-01 | Inst Information Industry | Hybrid computer systems |
JP2011028560A (ja) * | 2009-07-27 | 2011-02-10 | Sony Corp | 情報処理装置、表示方法及び表示プログラム |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US9513801B2 (en) * | 2010-04-07 | 2016-12-06 | Apple Inc. | Accessing electronic notifications and settings icons with gestures |
US9823831B2 (en) * | 2010-04-07 | 2017-11-21 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US20120046075A1 (en) * | 2010-08-20 | 2012-02-23 | Research In Motion Limited | Method and apparatus for controlling output devices |
US10140301B2 (en) * | 2010-09-01 | 2018-11-27 | Apple Inc. | Device, method, and graphical user interface for selecting and using sets of media player controls |
US20120102437A1 (en) * | 2010-10-22 | 2012-04-26 | Microsoft Corporation | Notification Group Touch Gesture Dismissal Techniques |
US20120245745A1 (en) * | 2010-12-17 | 2012-09-27 | Greenvolts, Inc. | User interface for a mobile computing device |
US20120192078A1 (en) * | 2011-01-26 | 2012-07-26 | International Business Machines | Method and system of mobile virtual desktop and virtual trackball therefor |
US9069439B2 (en) * | 2011-04-11 | 2015-06-30 | Microsoft Technology Licensing, Llc | Graphical user interface with customized navigation |
JPWO2012144235A1 (ja) * | 2011-04-20 | 2014-07-28 | パナソニック株式会社 | タッチパネル装置 |
JP5817374B2 (ja) * | 2011-09-16 | 2015-11-18 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
US9007323B2 (en) * | 2012-02-03 | 2015-04-14 | Panasonic Intellectual Property Management Co., Ltd. | Haptic feedback device, method for driving haptic feedback device, and drive program |
-
2012
- 2012-07-27 US US13/560,344 patent/US20120297339A1/en not_active Abandoned
- 2012-07-27 JP JP2012167721A patent/JP2013047945A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014192536A1 (ja) * | 2013-05-27 | 2014-12-04 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、その処理方法、およびプログラム |
JP2014229287A (ja) * | 2013-05-27 | 2014-12-08 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、その処理方法、およびプログラム |
JPWO2014192536A1 (ja) * | 2013-05-27 | 2017-02-23 | 日本電気株式会社 | 情報処理装置、その処理方法、およびプログラム |
US10198178B2 (en) | 2013-10-29 | 2019-02-05 | Kyocera Corporation | Electronic apparatus with split display areas and split display method |
US10521111B2 (en) | 2013-10-29 | 2019-12-31 | Kyocera Corporation | Electronic apparatus and method for displaying a plurality of images in a plurality of areas of a display |
JP2016115337A (ja) * | 2014-12-15 | 2016-06-23 | キヤノン株式会社 | ユーザインタフェース装置、画像形成装置、ユーザインタフェース装置の制御方法及び記憶媒体 |
JP2020191113A (ja) * | 2014-12-15 | 2020-11-26 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法及びプログラム |
JP2017509089A (ja) * | 2014-12-16 | 2017-03-30 | シャオミ・インコーポレイテッド | モバイル端末の操作状態を起動する方法、装置、プログラム及び記録媒体 |
JP5953418B1 (ja) * | 2015-11-10 | 2016-07-20 | 株式会社Cygames | ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法 |
JP2017086492A (ja) * | 2015-11-10 | 2017-05-25 | 株式会社Cygames | ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法 |
JP2017174445A (ja) * | 2017-05-02 | 2017-09-28 | 京セラ株式会社 | 電子機器 |
Also Published As
Publication number | Publication date |
---|---|
US20120297339A1 (en) | 2012-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013047945A (ja) | 電子機器、制御方法および制御プログラム | |
US9772762B2 (en) | Variable scale scrolling and resizing of displayed images based upon gesture speed | |
US8786562B2 (en) | Mobile electronic device, control method, and storage medium storing control program | |
US8952904B2 (en) | Electronic device, screen control method, and storage medium storing screen control program | |
JP5714935B2 (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
JP5753432B2 (ja) | 携帯電子機器 | |
WO2012127792A1 (ja) | 情報端末、表示画面切り替えのための方法、及びそのプログラム | |
JP5827109B2 (ja) | 装置、方法、及びプログラム | |
JP5679782B2 (ja) | 携帯電子機器、画面制御方法および画面制御プログラム | |
JP5620331B2 (ja) | 携帯電子機器、制御方法および制御プログラム | |
JP5806822B2 (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
KR20140136356A (ko) | 사용자 단말 장치 및 그 인터렉션 방법 | |
JP6102474B2 (ja) | 表示装置、入力制御方法、及び入力制御プログラム | |
JP2012175642A (ja) | 携帯電子機器、入力制御方法および入力制御プログラム | |
JP6048489B2 (ja) | 表示装置 | |
JP2012155675A (ja) | タッチパネル装置 | |
JP2013041378A (ja) | 携帯電子機器、制御方法、および、制御プログラム | |
JP5984339B2 (ja) | 電子機器、画面制御方法および画面制御プログラム | |
JP2012174247A (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
JP2012174248A (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
JP2015026297A (ja) | 携帯端末ならびに表示方向制御プログラムおよび方法 | |
JP2012208614A (ja) | 携帯電子機器 | |
JP5725903B2 (ja) | 電子機器、接触操作制御プログラムおよび接触操作制御方法 | |
JP5665601B2 (ja) | 電子機器、接触操作制御プログラムおよび接触操作制御方法 | |
JP5977415B2 (ja) | 電子機器、制御方法および制御プログラム |