JP2012084137A - 携帯電子機器、画面制御方法および画面制御プログラム - Google Patents

携帯電子機器、画面制御方法および画面制御プログラム Download PDF

Info

Publication number
JP2012084137A
JP2012084137A JP2011200992A JP2011200992A JP2012084137A JP 2012084137 A JP2012084137 A JP 2012084137A JP 2011200992 A JP2011200992 A JP 2011200992A JP 2011200992 A JP2011200992 A JP 2011200992A JP 2012084137 A JP2012084137 A JP 2012084137A
Authority
JP
Japan
Prior art keywords
icon
contact
portable electronic
control unit
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011200992A
Other languages
English (en)
Other versions
JP6049990B2 (ja
Inventor
Tsuneo Miyashita
恒雄 宮下
Tomohiro Sudo
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011200992A priority Critical patent/JP6049990B2/ja
Priority to US13/233,145 priority patent/US20120062564A1/en
Publication of JP2012084137A publication Critical patent/JP2012084137A/ja
Application granted granted Critical
Publication of JP6049990B2 publication Critical patent/JP6049990B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

【課題】利用者に良好な操作性を提供すること。
【解決手段】携帯電話端末(携帯電子機器)1は、第1の面および第1の面と異なる第2の面を有する筐体と、第1の面への接触を検出するタッチセンサ2Aと、第2の面への接触を検出するタッチセンサ4と、第1の面に設けられた表示部2Bと、制御部10とを備える。制御部10は、第1の面において第1の接触が検出される第1の位置と、第2の面において第2の接触が検出される第2の位置とに基づいて、タッチセンサ4に表示されているオブジェクトを選択する。
【選択図】図9

Description

本発明は、携帯電子機器、画面制御方法および画面制御プログラムに関する。
近年、直感的な操作を可能にするとともに、キーボードのように物理的に大きな面積を必要とするデバイスを具備しない小型の携帯電子機器を実現するために、タッチパネルが広く利用されるようになっている。タッチパネルを備える携帯電子機器は、アイコンと呼ばれるオブジェクトをタッチパネルに表示し、指等が触れた位置に表示されているアイコンに対応付けられた機能を起動させる(例えば、特許文献1)。
特開2009−164794号公報
従来のタッチパネルを備える携帯電子機器は、アイコンに短く触れる(タップ)、アイコンに長く触れる(ロングタップ)、アイコンに触れたままタッチパネル上を引きずる(ドラッグ)等の比較的少ない種類の操作しか判別することができなかった。このように従来のタッチパネルを備える携帯電子機器は、判別可能な操作が限られていたため、利用者に良好な操作性を提供できないことがあった。
本発明は、上記に鑑みてなされたものであって、利用者に良好な操作性を提供することができる携帯電子機器、画面制御方法および画面制御プログラムを提供することを目的とする。
本発明に係る携帯電子機器は、1つの態様において、第1の面および当該第1の面と異なる第2の面を有する筐体と、前記第1の面への第1の接触を検出する第1の検出部と、前記第2の面への第2の接触を検出する第2の検出部と、前記筐体の前記第1の面に設けられた表示部と、前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記表示部に表示されているオブジェクトを選択する制御部とを備える。
また、本発明に係る画面制御方法は、1つの態様において、第1の面および当該第1の面と異なる第2の面を有する筐体と、前記第1の面に設けられた第1の検出部と、前記第2の面に設けられた第2の検出部と、前記筐体の前記第1の面に設けられた表示部とを備える携帯電子機器によって実行される画面制御方法であって、前記表示部にオブジェクトを表示するステップと、前記第1の面の第1の接触を前記第1の検出部によって検出するステップと、前記第2の面の第2の接触を前記第2の検出部によって検出するステップと、前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記オブジェクトを選択するステップとを含む。
また、本発明に係る画面制御プログラムは、1つの態様において、第1の面および当該第1の面と異なる第2の面を有する筐体と、前記第1の面に設けられた第1の検出部と、前記第2の面に設けられた第2の検出部と、前記筐体の前記第1の面に設けられた表示部とを備える携帯電子機器に、前記表示部にオブジェクトを表示するステップと、前記第1の面の第1の接触を前記第1の検出部によって検出するステップと、前記第2の面の第2の接触を前記第2の検出部によって検出するステップと、前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記オブジェクトを選択するステップとを実行させる。
本発明に係る携帯電子機器、画面制御方法および画面制御プログラムは、利用者に良好な操作性を提供することができるという効果を奏する。
図1は、第1の実施形態に係る携帯電話端末を正面側からみた斜視図である。 図2は、第1の実施形態に係る携帯電話端末を背面側からみた斜視図である。 図3は、第1の実施形態に係る携帯電話端末による接触位置の検出について説明するための図である。 図4は、第1の実施形態に係る携帯電話端末における背面での接触位置に対応する位置でのポインタの表示について説明するための図である。 図5は、第1の実施形態に係る携帯電話端末におけるアイコンの選択範囲の設定に関する画面制御の一例を示す図である。 図6は、第1の実施形態に係る携帯電話端末におけるアイコンの選択範囲の変更に関する画面制御の一例を示す図である。 図7は、第1の実施形態に係る携帯電話端末におけるテキストの選択範囲の設定に関する画面制御の一例を示す図である。 図8は、第1の実施形態に係る携帯電話端末におけるテキストの選択範囲の変更に関する画面制御の一例を示す図である。 図9は、第1の実施形態に係る携帯電話端末の機能の概略構成を示すブロック図である。 図10は、第1の実施形態に係る携帯電話端末の選択範囲の設定や変更の操作に関する画面制御を実行する場合の処理手順を示すフロー図である。 図11は、第2の実施形態に係る携帯電話端末の画面の表示倍率を変更する操作に関する画面制御の一例を示す図である。 図12は、第2の実施形態に係る携帯電話端末の画面の表示倍率変更の操作に関する画面制御を実行する場合の処理手順を示すフロー図である。 図13は、第3の実施形態に係る携帯電話端末における3次元形状のアイコンを回転させる操作に関する画面制御の一例を示す図である。 図14は、第3の実施形態に係る携帯電話端末における2次元形状のアイコンを変化させる操作に関する画面制御の一例を示す図である。 図15は、第3の実施形態に係る携帯電話端末における3次元形状のアイコンをつぶす操作に関する画面制御の一例を示す図である。 図16は、第3の実施形態に係る携帯電話端末における3次元形状のアイコンをつぶす操作に関する他の画面制御の一例を示す図である。 図17は、第3の実施形態に係る携帯電話端末の機能の概略構成を示すブロック図である。 図18は、オブジェクトデータの一例を示す図である。 図19は、第3の実施形態に係る携帯電話端末がアイコンを回転させる操作やアイコンをつぶす操作に関する画面制御を実行する場合の処理手順を示すフロー図である。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯電子機器として携帯電話端末を例として説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、タッチパネルを備える各種装置、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、パーソナルコンピュータ、ゲーム機等に対しても本発明は適用できる。
(実施形態1)
まず、図1および図2を参照しながら、第1の実施形態に係る携帯電話端末1の外観について説明する。図1は、正面側からみた携帯電話端末1の斜視図であり、図2は、背面側からみた携帯電話端末1の斜視図である。携帯電話端末1は、正面側の面SFと、その反対側の面SBとが、平坦で、他の面よりも広く形成された板状の筐体を有する。携帯電話端末1は、面SFに、タッチパネル2と、ボタン3A、ボタン3Bおよびボタン3Cからなる入力部3とを備える。また、携帯電話端末1は、面SBに、タッチセンサ4を備える。
タッチパネル2は、文字、図形、画像等を表示するとともに、利用者が指を用いて面SFに対して行う各種動作を検出する。入力部3は、いずれかのボタンが押下された場合に、押下されたボタンに対応する機能を起動させる。タッチセンサ4は、利用者が指を用いて面SBに対して行う各種動作を検出する。タッチパネル2およびタッチセンサ4は、ほぼ同じ大きさに形成され、図中Z軸方向に透視した場合にほぼ重なり合うような位置に配置される。なお、タッチセンサ4は、外部に露出していてもよいし、面SBの内部に埋め込まれていてもよい。
次に、図3および図4を参照しながら、携帯電話端末1による接触位置の検出およびポインタの表示について説明する。図3は、携帯電話端末1による接触位置の検出について説明するための図である。図4は、背面での接触位置に対応する位置でのポインタの表示について説明するための図である。
上述したように、携帯電話端末1は、正面である面SFに対する指の接触をタッチパネル2によって検出し、背面である面SBに対する指の接触をタッチセンサ4によって検出する。以下の説明では、面SFに対する指の接触を検出した位置を第1の位置P1と称することとする。また、面SBに対する指の接触を検出した位置を第2の位置P2と称し、第2の位置P2に対応する面SF上の位置を第3の位置P3と称することとする。ここで、第3の位置P3は、典型的には、図3に示すように、第2の位置P2を通過する直線L1が面SFと直交する位置、すなわち、第2の位置P2に最も近接する面SF上の位置である。
携帯電話端末1は、図4に示すように、タッチパネル2上に第3の位置P3を示すポインタ30を表示させる。携帯電話端末1は、背面である面SBに指F1が接触する位置が移動すると、追随して、ポインタ30を表示する位置を移動させる。このように、タッチパネル2上に第3の位置P3を示すポインタ30を表示させることにより、利用者が、自身の指が携帯電話端末1の背面のどこに接触しているのかを容易に把握することが可能になる。
なお、ポインタ30は、シンボルの一種であり、どのような形状や色を有してもよいが、利用者が視認しやすい程度の大きさを有していることが好ましい。また、利用者がタッチパネル2に表示されているアイコン20等を視認し難くならないように、大きな面積を占める部分が透過処理されていることが好ましい。
次に、図5から図8を参照しながら、タッチパネル2およびタッチセンサ4によって検出された動作に基づいて携帯電話端末1が実行する画面制御について説明する。図5は、アイコンの選択範囲の設定に関する画面制御の一例を示す図である。図6は、アイコンの選択範囲の変更に関する画面制御の一例を示す図である。図7は、テキストの選択範囲の設定に関する画面制御の一例を示す図である。図8は、テキストの選択範囲の変更に関する画面制御の一例を示す図である。
まず、アイコンの選択範囲の設定および変更に関する画面制御について説明する。図5は、タッチパネル2に複数のアイコン20が整列して表示されている状態において、利用者の指が携帯電話端末1の面SFに接触し、利用者の他の指が携帯電話端末1の面SBに接触した場面を示している。タッチパネル2に表示されているアイコン20には、それぞれ特定の機能が割り当てられており、携帯電話端末1は、アイコン20がタップされると、タップされたアイコン20に割り当てられている機能を起動させる。なお、タップとは、アイコン等を軽くたたくように、指をタッチパネル2等に接触させた後にすぐ離す動作をいう。
また、携帯電話端末1は、指がアイコン20の上に置かれた状態で他のアイコンが表示されていない位置まで摺動操作が行われると、アイコン20を摺動操作の移動先の位置へ移動させる。なお、摺動操作とは、指をタッチパネル2等に接触させたままで滑るように移動させる動作をいう。
図5に示すように、アイコンが表示されている状態で、面SFと面SBにおいて指の接触が検出された場合、携帯電話端末1は、面SFでの接触位置である第1の位置P1と、面SBでの接触位置に対応する第3の位置P3とを対角とする矩形領域を選択範囲として設定する。そして、携帯電話端末1は、選択範囲に含まれるアイコンを選択状態とする。なお、選択範囲に一部が含まれるアイコンについては、選択状態としてもよいし、選択状態としなくてもよい。
携帯電話端末1は、例えば、背景部分の色を変更したり、アイコンの明度を低下させたりすることで、選択状態となったアイコンの表示態様を変化させて、それらのアイコンが選択状態となっていることを利用者に示す。選択状態となっているアイコンは、利用者による後続の操作に応じて、移動、転記、削除、対応する機能の起動等の処理が一括して行われる対象となる。
例えば、利用者が、複数のアイコンが選択状態となったまま摺動操作を行った場合、選択状態となっているアイコンを一括して移動することとしてもよい。また、携帯電話端末1がマルチタスクに対応している場合、利用者が指をリリースすることで、選択状態となっているアイコンに対応する機能を一括して起動させることとしてもよい。また、利用者が指をリリースした際にメニューを表示して、選択状態となっているアイコンに対して移動、転記、削除、対応する機能の起動等の処理のうちどの処理を一括して行うかを利用者に選択させてもよい。
そして、図6に示すように、選択範囲が設定された後に、利用者が、接触を保ったままで指を動かして第1の位置P1と第3の位置P3とを移動させた場合、携帯電話端末1は、第1の位置P1および第3の位置P3の移動に合わせて選択範囲を変更する。図6の例では、選択範囲の右上に位置していた第1の位置P1が左方向へ移動し、選択範囲の左下に位置していた第3の位置P3が上方向へ移動しているため、携帯電話端末1は、第1の位置P1および第3の位置P3の移動に合わせて選択範囲を縮小している。なお、第1の位置P1と第3の位置P3のいずれか一方が移動した場合でも、選択範囲は変更される。
このように、第1の実施形態に係る画面制御方法では、正面において接触された位置と背面において接触された位置とに基づいてアイコンの選択範囲が設定される。選択したい範囲の対角となる位置に指で触れるという操作は、利用者にとって直感的で、容易に実行することができる。また、正面と背面の2点での接触を要件とすることにより、選択範囲を設定するための操作を、何らかの機能を起動させるためにアイコンをタップする操作のような1点での接触に基づく操作と区別することが容易になり、選択範囲の設定時に誤動作が発生しにくくなる。
また、第1の実施形態に係る画面制御方法では、利用者が、選択範囲を設定した後に、選択範囲を変更する操作をそのまま連続して迅速に行うことができる。例えば、利用者が指でタッチパネルをなぞって囲んだ範囲を選択範囲とする方式では、選択範囲を変更する場合に指を一旦タッチパネルから離す必要があり、操作が中断される。
また、第1の実施形態に係る画面制御方法では、2点での接触に基づいて選択範囲が設定および変更されるものの、正面と背面ではそれぞれ1点での接触が検出できればよい。このため、複数の位置での接触を検出できる高価なマルチタップ対応のタッチパネルやタッチセンサを用いることなく、比較的安価なシングルタップ用のタッチパネルやタッチセンサを用いて上記のような直感的で容易な操作を実現することができる。
続いて、テキストの選択範囲の設定および変更に関する画面制御について説明する。図7は、タッチパネル2にテキストが表示されている状態において、利用者の指が携帯電話端末1の面SFに接触し、利用者の他の指が携帯電話端末1の面SBに接触した場面を示している。
図7に示すように、テキストが表示されている状態で、面SFと面SBにおいて指の接触が検出された場合、携帯電話端末1は、面SFでの接触位置である第1の位置P1と、面SBでの接触位置に対応する第3の位置P3との一方を始点とし、他方を終点とする範囲が選択されるように選択範囲を設定する。
携帯電話端末1は、例えば、反転表示させたり、テキストを枠で囲ったりすることで、選択状態となったテキストの表示態様を変化させて、その部分のテキストが選択状態となっていることを利用者に示す。選択状態となっているテキストは、利用者による後続の操作に応じて、移動、転記、削除、書式の変更等の処理が一括して行われる対象となる。
例えば、利用者が、テキストが選択状態となったまま摺動操作を行った場合、選択状態となっているテキストを一括して移動することとしてもよい。また、利用者が指をリリースした際にメニューを表示して、選択状態となっているテキストに対して移動、転記、削除、書式の変更等の処理のうちどの処理を一括して行うかを利用者に選択させてもよい。
そして、図8に示すように、選択範囲が設定された後に、利用者が、接触を保ったままで指を動かして第1の位置P1と第3の位置P3とが移動した場合、携帯電話端末1は、第1の位置P1および第3の位置P3の移動に合わせて選択範囲を変更する。図8の例では、選択範囲の始点に位置していた第1の位置P1がテキストの前方へ移動し、選択範囲の終点に位置していた第3の位置P3がテキストの後方へ移動しているため、携帯電話端末1は、第1の位置P1および第3の位置P3の移動に合わせて選択範囲を拡大している。なお、第1の位置P1と第3の位置P3のいずれか一方が移動した場合でも、選択範囲は変更される。
このように、第1の実施形態に係る画面制御方法では、正面において接触された位置と背面において接触された位置とに基づいて、アイコン以外についても選択範囲が設定される。
次に、携帯電話端末1の機能と制御部との関係を説明する。図9は、図1に示す携帯電話端末1の機能の概略構成を示すブロック図である。図9に示すように携帯電話端末1は、タッチパネル2と、入力部3と、タッチセンサ(検出部)4と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、制御部10と、RAM(Random Access Memory)11とを有する。
タッチパネル2は、表示部2Bと、表示部2Bに重畳されたタッチセンサ(検出部)2Aとを有する。タッチセンサ2Aは、面SFに設けられ、指を用いてタッチパネル2に対して行われた各種動作を、動作が行われた場所のタッチパネル2上での位置とともに検出する。タッチセンサ2Aによって検出される動作には、指をタッチパネル2の表面に接触させる動作や、指をタッチパネル2の面に接触させたまま移動させる動作や、指をタッチパネル2の表面に押し付ける動作が含まれる。表示部2Bは、例えば、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成され、文字、図形、画像等を表示する。
タッチセンサ4は、面SBの表面または内部に設けられ、指を用いて面SBに対して行われた各種動作を、動作が行われた場所のタッチセンサ4上での位置とともに検出する。タッチセンサ4によって検出される動作には、指を面SBに接触させる動作や、指を面SBに接触させたまま移動させる動作や、指を面SBに押し付ける動作が含まれる。なお、タッチセンサ2Aおよびタッチセンサ4は、感圧式、静電容量式等のいずれの検出方式を採用していてもよい。
入力部3は、物理的なボタン等を通じて利用者の操作を受け付け、受け付けた操作に対応する信号を制御部10へ送信する。電源部5は、蓄電池または外部電源から得られる電力を、制御部10を含む携帯電話端末1の各機能部へ供給する。通信部6は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。スピーカ7は、電話通信における相手側の音声や着信音等を出力する。マイク8は、利用者等の音声を電気的な信号へ変換する。
記憶部9は、例えば、不揮発性メモリや磁気記憶装置であり、制御部10での処理に利用されるプログラムやデータを保存する。具体的には、記憶部9は、メールの送受信や閲覧のためのメールプログラム9Aや、WEBページの閲覧のためのブラウザプログラム9Bや、上述した画面制御を実現するための画面制御プログラム9Cを記憶する。記憶部9には、その他に、携帯電話端末1の基本的な機能を実現するオペレーティングシステムプログラムや、氏名、電話番号、メールアドレス等が登録されたアドレス帳データ等の他のプログラムやデータも記憶される。
制御部10は、例えば、CPU(Central Processing Unit)であり、携帯電話端末1の動作を統括的に制御する。具体的には、制御部10は、記憶部9に記憶されているデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムを実行して、タッチパネル2、通信部6等を制御することによって各種処理を実行する。制御部10は、記憶部9に記憶されているプログラムや、処理を実行することによって取得/生成/加工されたデータを、一時的な記憶領域を提供するRAM11に必要に応じて展開する。なお、制御部10が実行するプログラムや参照するデータは、通信部6による無線通信でサーバ装置からダウンロードすることとしてもよい。
例えば、制御部10は、ブラウザプログラム9Bを実行することによって、WEBページをタッチパネル2に表示させる機能を実現する。また、制御部10は、画面制御プログラム9Cを実行することによって、各種プログラムが利用者と対話的にやりとりをしながら処理を進めるために必要な各種の画面制御を実現する。
次に、携帯電話端末1が選択範囲の設定や変更の操作に関する画面制御を実行する場合の動作について説明する。図10は、携帯電話端末1の選択範囲の設定や変更の操作に関する画面制御を実行する場合の処理手順を示すフロー図である。図10に示す処理手順は、タッチパネル2に表示されているアイコンやテキスト等が選択可能な状態にある間繰り返して実行される。
まず、ステップS11として、制御部10は、タッチセンサ2Aとタッチセンサ4の検出結果を取得する。ここで、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出されていない場合(ステップS12,Yes)、制御部10は、特に処理を行わない。タッチセンサ2Aとタッチセンサ4の少なくとも一方において接触が検出された場合(ステップS12,No)、制御部10は、ステップS13以降を実行する。
タッチセンサ2A(正面)またはタッチセンサ4(背面)のいずれか一方のみで接触が検出された場合(ステップS13,Yes、または、ステップS14,Yes)、制御部10は、ステップS15として、タッチセンサ2Aとタッチセンサ4のいずれか一方で接触が検出された場合に行う通常の処理を実行する。ここでいう通常の処理とは、例えば、アイコンがタップされた場合に、タップされたアイコンに対応付けられている機能を起動させる処理である。
また、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出された場合、すなわち、携帯電話端末1の正面と背面で接触が検出された場合(ステップS13,No、かつ、ステップS14,No)、制御部10は、ステップS16として、選択範囲を設定済みであるかを判定する。アイコンやテキスト等に選択範囲が設定されている場合、どこが選択範囲であるかを特定するための情報がRAM11に格納される。制御部10は、RAM11を参照して、この情報が格納されているか否かを確認することによって、選択範囲を設定済みであるかを判定する。
ここで選択範囲が設定済みでない場合(ステップS16,No)、制御部10は、ステップS17として、第1の位置P1と第3の位置P3(第2の位置P2)とに基づいて選択範囲を決定する。決定した選択範囲を特定するための情報は、後続の処理のためにRAM11に格納される。一方、選択範囲が設定済みの場合(ステップS16,Yes)、制御部10は、ステップS18として、現在の第1の位置P1と第3の位置P3(第2の位置P2)とに基づいて選択範囲を変更し、設定範囲を特定するための情報を更新する。なお、選択範囲を特定するための情報は、選択範囲を解除する所定の操作が検出された場合や、選択範囲内のアイコン等に対して何らかの処理が実行された場合等にRAM11から削除される。
上述したように、第1の実施形態では、携帯電話端末1の正面側において接触された位置と、背面側において接触された位置とに基づいて選択範囲を設定することとしたので、利用者が選択範囲の設定を容易に行うことができ、また、選択範囲の設定時に誤動作が発生し難い。
なお、上記の実施形態では、テキストの選択範囲を設定する場合に、第1の位置P1および第3の位置P3の一方を始点とし、他方を終点とする範囲が選択されるように選択範囲を設定することとしたが、第1の位置P1と第3の位置P3とを対角とする矩形領域を選択範囲として設定することとしてもよい。このような選択範囲の設定の仕方は矩形選択と呼ばれ、例えば、タブ区切りで表形式に整形されたテキストの特定の列を選択するために有効である。
(実施形態2)
上記の第1の実施形態では、選択範囲が設定された後に第1の位置P1と第3の位置P3とが移動した場合に選択範囲を変更することとしたが、このような場合に、画面の表示倍率を変更することとしてもよい。そこで、第2の実施形態では、選択範囲が設定された後の第1の位置P1および第3の位置P3の移動にともなって、画面の表示倍率を変更する例について説明する。なお、第2の実施形態に係る携帯電話端末は、画面制御プログラム9Cの制御が異なることを除いて、第1の実施形態に係る携帯電話端末と同様の構成を有する。そのため、以下では、第2の実施形態に係る携帯電話端末を携帯電話端末1として実施形態を説明する。
まず、図11を参照しながら、画面の表示倍率を変更する操作に関する画面制御について説明する。図11は、画面の表示倍率を変更する操作に関する画面制御の一例を示す図である。
図11のステップS1では、タッチパネル2に複数のアイコン20が整列して表示されている状態において、利用者の指が携帯電話端末1の面SFに接触し、利用者の他の指が携帯電話端末1の面SBに接触している。このように、アイコンが表示されている状態で、面SFと面SBにおいて指の接触が検出された場合、携帯電話端末1は、面SFでの接触位置である第1の位置P1と、面SBでの接触位置に対応する第3の位置P3とを対角とする矩形領域を選択範囲として設定する。
そして、携帯電話端末1は、選択範囲に含まれるアイコンを選択状態とする。選択状態となっているアイコンは、利用者による後続の操作に応じて、移動、転記、削除、対応する機能の起動等の処理が一括して行われる対象となる。
続いて、ステップS2のように、利用者が、接触を保ったままで指を動かして第1の位置P1と第3の位置P3とが移動したものとする。選択範囲が設定された状態で第1の位置P1と第3の位置P3とが移動した場合、携帯電話端末1は、ステップS3のように、移動前の第1の位置P1および第3の位置P3を対角とする矩形領域の大きさと、移動後の第1の位置P1および第3の位置P3を対角とする矩形領域の大きさとの比率に応じて、画面の表示倍率を変更する。なお、第1の位置P1と第3の位置P3のいずれか一方が移動した場合でも、表示倍率は変更される。
ここで、画面の表示倍率を変更する比率は、例えば、移動前後の矩形領域の面積比に応じて決定してもよいし、移動前後の矩形領域の長辺の長さの比率に応じて決定してもよいし、移動前後の矩形領域の短辺の長さの比率に応じて決定してもよい。また、画面の横方向の表示倍率を、移動前後の矩形領域の横方向の長さの比率に応じて決定し、画面の縦方向の表示倍率を、移動前後の矩形領域の縦方向の長さの比率に応じて決定するというように、縦横比を変更することとしてもよい。
このように、第2の実施形態に係る画面制御方法では、選択範囲が設定された後における第1の位置P1および第3の位置P3の移動にともなって画面の表示倍率が変更される。この方法では、2点での接触に基づいて画面の表示倍率が変更されるものの、正面と背面ではそれぞれ1点での接触が検出できればよい。このため、複数の位置での接触を検出できる高価なマルチタップ対応のセンサを用いることなく、比較的安価なシングルタップ用のタッチパネルやタッチセンサを用いて上記のような直感的で容易な操作を実現することができる。
なお、図11では、アイコンが表示されている場面で画面の表示倍率を変更する例を示したが、テキストや画像等の他の情報がタッチパネル2に表示されている場面であっても、同様の操作によって画面の表示倍率が変更される。また、図11では、画面を拡大表示する例を示しているが、画面を縮小表示させることもできる。
次に、携帯電話端末1が画面の表示倍率変更の操作に関する画面制御を実行する場合の動作について説明する。図12は、携帯電話端末1の画面の表示倍率変更の操作に関する画面制御を実行する場合の処理手順を示すフロー図である。図12に示す処理手順は、タッチパネル2に表示されている画面が表示倍率を変更可能な状態にある間繰り返して実行される。
まず、ステップS21として、制御部10は、タッチセンサ2Aとタッチセンサ4の検出結果を取得する。ここで、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出されていない場合(ステップS22,Yes)、制御部10は、特に処理を行わない。タッチセンサ2Aとタッチセンサ4の少なくとも一方において接触が検出された場合(ステップS22,No)、制御部10は、ステップS23以降を実行する。
タッチセンサ2A(正面)またはタッチセンサ4(背面)のいずれか一方のみで接触が検出された場合(ステップS23,Yes、または、ステップS24,Yes)、制御部10は、ステップS25として、タッチセンサ2Aとタッチセンサ4のいずれか一方で接触が検出された場合に行う通常の処理を実行する。ここでいう通常の処理とは、例えば、アイコンがタップされた場合に、タップされたアイコンに対応付けられている機能を起動させる処理である。
また、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出された場合、すなわち、携帯電話端末1の正面と背面で接触が検出された場合(ステップS23,No、かつ、ステップS24,No)、制御部10は、ステップS26として、選択範囲を設定済みであるかを判定する。
ここで選択範囲が設定済みでない場合(ステップS26,No)、制御部10は、ステップS27として、第1の位置P1と第3の位置P3(第2の位置P2)とに基づいて選択範囲を決定する。決定した選択範囲に関する情報は、後続の処理のためにRAM11に格納される。一方、選択範囲が設定済みの場合(ステップS26,Yes)、制御部10は、ステップS28として、移動前の第1の位置P1および第3の位置P3(第2の位置P2)を対角とする矩形領域の大きさと、移動後の第1の位置P1および第3の位置P3(第2の位置P2)を対角とする矩形領域の大きさとの比率に応じて、画面の表示倍率を変更する。
上述したように、第2の実施形態では、選択範囲が設定された後における携帯電話端末1の正面側および背面側での指の移動に基づいて画面の表示倍率を変更することとしたので、利用者が画面の表示倍率の変更を容易に行うことができ、また、表示倍率の変更のための操作時に誤動作が発生し難い。
(実施形態3)
上記の実施形態では、正面側のタッチパネルと背面側のタッチパネルとを用いて範囲選択の操作を可能とする例について説明したが、これらのタッチパネルを用いて他の操作を可能とすることができる。そこで、第3の実施形態では、正面側のタッチパネルと背面側のタッチパネルとを用いて範囲選択以外の操作を可能とする例について説明する。なお、以下の説明では、既に説明した部分と同様の部分には、既に説明した部分と同一の符号を付す。また、重複する説明を省略することがある。
以下に、図面を参照しながら第3の実施形態に係る携帯電話端末(携帯電子機器)31について説明する。携帯電話端末31は、図1および図2等に示した携帯電話端末1と同様の外観を有する。すなわち、携帯電話端末31は、正面の面SFに、タッチパネル2を備え、背面の面SBに、タッチセンサ4を備える。
まず、図13から図16を参照しながら、タッチパネル2およびタッチセンサ4によって検出された動作に基づいて第3の実施形態に係る携帯電話端末31が実行する画面制御について説明する。図13は、3次元形状のアイコンを回転させる操作に関する画面制御の一例を示す図である。図14は、第3の実施形態に係る携帯電話端末における2次元形状のアイコンを変化させる操作に関する画面制御の一例を示す図である。図15は、3次元形状のアイコンをつぶす操作に関する画面制御の一例を示す図である。図16は、3次元形状のアイコンをつぶす操作に関する他の画面制御の一例を示す図である。なお、図13から図16では、図示を簡略化するため、携帯電話端末31の構成のうち、タッチパネル2およびタッチセンサ4のみを図示している。
まず、3次元形状のアイコンを回転させる操作に関する画面制御について説明する。図13のステップS31では、携帯電話端末31は、タッチパネル2にアイコン40を表示させている。アイコン40は、立方体形状を有し、斜投影図法等によって立体的に表示される。アイコン40の各面には、特定の機能が割り当てられており、携帯電話端末31は、アイコン40がタップされると、アイコン40の各面に割り当てられている機能のうち、正面として表示されている面に対応する機能を起動させる。
また、携帯電話端末31は、指がアイコン40の上に置かれた状態で他のアイコンが表示されていない位置まで摺動操作(スイープ)が行われると、アイコン40を摺動操作の移動先の位置へ移動させる。なお、摺動操作とは、指をタッチパネル2等に接触させたままで滑るように移動させる動作をいう。
図13に示すアイコン40は、各面にWEBブラウザに関連する機能が割り当てられており、ステップS31の段階では、家の絵文字が付加された面が正面として表示され、虫眼鏡の絵文字が付加された面が上面として表示され、星の絵文字が付加された面が右側面として表示されている。
家の絵文字は、この絵文字が付加された面に、ホームページとして登録されているWEBページを表示する機能が割り当てられていることを示している。虫眼鏡の絵文字は、この絵文字が付加された面に、検索サイトのWEBページを表示する機能が割り当てられていることを示している。星の絵文字は、この絵文字が付加された面に、ブックマークの一覧を表示する機能が割り当てられていることを示している。ステップS31の段階でアイコン40がタップされると、携帯電話端末31は、タッチパネル2にホームページとして登録されているWEBページを表示させる。
ここで、ステップS32のように、利用者の指FAが、タッチパネル2のアイコン40が表示されている位置に触れ、利用者の指FBが、その位置の裏側付近でタッチセンサ4に触れたものとする。そのため、ステップS32の場面では、タッチパネル2によって指FAの接触が検出されている位置とタッチセンサ4によって指FBの接触が検出されている位置との間にアイコン40が表示された状態となっている。
このように、タッチパネル2で接触が検出されている位置とタッチセンサ4で接触が検出されている位置との間にアイコン40が表示されている場合、携帯電話端末31は、アイコン40が利用者によって摘まれていると判定する。そして、携帯電話端末31は、アイコン40が利用者によって摘まれていると判定すると、その旨を利用者に報知するために、タッチパネル2とタッチセンサ4の少なくとも一方を振動させる。
このように、タッチパネル2等を振動させることにより、利用者は、アイコン40を摘む動作が携帯電話端末31によって認識されたことを確認することができる。なお、タッチパネル2等を振動させるには、例えば圧電素子を利用する方式等の任意の公知の方式を用いることができる。また、タッチパネル2やタッチセンサ4だけでなく、携帯電話端末31全体を振動させることとしてもよい。また、タッチパネル2を点滅させるといった振動以外の手段によって利用者への報知を行うこととしてもよい。
続いて、ステップS33のように、利用者が指FAをタッチパネル2に触れたままで図中左方向へ移動させ、指FBをタッチセンサ4に触れたままで図中右方向へ移動させる動作が検出されたものとする。このように、携帯電話端末31は、アイコン40を摘む動作を認識した後に、指がタッチパネル2またはタッチセンサ4に触れたままで移動する動作を検出すると、検出した指の移動の方向と量とに応じてアイコン40の向きを変更させる。
具体的には、携帯電話端末31は、アイコン40の重心を回転の中心として、指FAがタッチパネル2に触れたままで移動した方向へ、移動量に応じた回転量だけアイコン40の前面を回転させるとともに、指FBがタッチセンサ4に触れたままで移動した方向へ、移動量に応じた回転量だけアイコン40の背面を回転させる。なお、回転の感度、すなわち、指の移動量に対するアイコンの回転量の大きさは、利用者が好みに応じて設定できることが好ましい。
そして、指FAと指FBの少なくとも一方の接触が終了したことが検出されると、携帯電話端末31は、ステップS34のように、その時点で最も正面に近い面が正面を向くようにアイコン40の向きを修正する。ステップS33での指FAおよび指FBの動きに応じてアイコン40が左方向に回転したため、ステップS34では、星の絵文字が付加された面が右側面から正面へ移動している。ステップS34の段階でアイコン40がタップされると、携帯電話端末31は、タッチパネル2にブックマークの一覧を表示させる。
また、携帯電話端末31は、ステップS34のように、その時点で最も正面に近い面が正面を向くようにアイコン40の向きを修正しなくても、指FAと指FBの少なくとも一方の接触が終了したことが検出された時点で、最も正面に近い面に割り当てられた機能を起動することとしてもよい。
また、ステップS32の状態から、ステップS35のように、利用者が指FAをタッチパネル2に触れたままで図中下方向へ移動させ、指FBをタッチセンサ4に触れたままで図中上方向へ移動させる動作が検出されたものとする。この場合、携帯電話端末31は、アイコン40の重心を回転の中心として、指FAがタッチパネル2に触れたままで移動した方向へ、移動量に応じた回転量だけアイコン40の前面を回転させるとともに、指FBがタッチセンサ4に触れたままで移動した方向へ、移動量に応じた回転量だけアイコン40の背面を回転させる。
そして、指FAと指FBの少なくとも一方の接触が終了したことが検出されると、携帯電話端末31は、ステップS36のように、その時点で最も正面に近い面が正面を向くようにアイコン40の向きを修正する。ステップS35での指FAおよび指FBの動きに応じてアイコン40が下方向に回転したため、ステップS36では、虫眼鏡の絵文字が付加された面が上面から正面へ移動している。ステップS36の段階でアイコン40がタップされると、携帯電話端末31は、タッチパネル2に検索サイトのWEBページを表示させる。
このように、携帯電話端末31は、各面に固有の機能が割り当てられた立体形状を有するアイコンを表示し、アイコンを摘んで回転させるという利用者にとって直感的でわかりやすい操作に応じて、起動される機能を切り替える。このため、携帯電話端末31は、アイコンを操作して多くの機能を利用することを可能にしつつ、利用者に良好な操作性を提供することができる。
なお、図13では、WEBブラウザに関連する機能という共通性のある機能がアイコンの各面に対応付けられている例を示したが、アイコンの各面に対応付けられる機能は、必ずしも共通性を有している必要はない。
また、図13では、携帯電話端末31は、第1の位置P1と第2の位置P2との間にアイコンが表示されている場合にそのアイコンが選択されていると判定することとしたが、第1の位置P1と第3の位置P3とが同じアイコン上に位置している場合にそのアイコンが選択されていると判定しても、同様にアイコンが選択される。
また、図13では、3次元形状のオブジェクトが立体的に表示されることとしたが、3次元形状のオブジェクトの正面だけを2次元的に表示することとしてもよい。また、タッチパネル2に表示され、操作対象となるオブジェクトは、3次元形状のオブジェクトではなく、2次元形状のオブジェクトであってもよい。
図14を参照しながら、2次元形状のオブジェクトを表示する場合の例について説明する。図14のステップS41では、携帯電話端末31は、タッチパネル2にアイコン50aを表示させている。アイコン50aは、2次元形状を有する。アイコン50aが表示されている位置には、階層的に管理される複数のアイコンが割り当てられている。階層的に管理される複数のアイコンには、アイコン50aが含まれる。階層的に管理される複数のアイコンには、それぞれ、特定の機能が対応付けられている。
携帯電話端末31は、階層的に管理される複数のアイコンのうち、最上位のアイコンをタッチパネル2に表示させる。また、携帯電話端末31は、最上位のアイコン(すなわち、タッチパネル2に表示されるアイコン)がタップされると、最上位のアイコンに割り当てられている機能を起動させる。ステップS41では、アイコン50aが最上位のアイコンである。携帯電話端末31は、アイコン50aがタップされると、アイコン50aに割り当てられている機能を起動させる。
ここで、ステップS42のように、利用者の指FAが、タッチパネル2のアイコン50aが表示されている位置に触れ、利用者の指FBが、その位置の裏側付近でタッチセンサ4に触れたものとする。そのため、ステップS42の場面では、タッチパネル2によって指FAの接触が検出されている位置とタッチセンサ4によって指FBの接触が検出されている位置との間にアイコン50aが表示された状態となっている。
このように、タッチパネル2で接触が検出されている位置とタッチセンサ4で接触が検出されている位置との間にアイコン50aが表示されている場合、携帯電話端末31は、アイコン50aが利用者によって選択されていると判定する。そして、携帯電話端末31は、アイコン50aが利用者によって選択されていると判定すると、その旨を振動等によって利用者に報知する。
続いて、ステップS43のように、利用者が指FAをタッチパネル2に触れたままで図中左方向へ移動させ、指FBをタッチセンサ4に触れたままで図中右方向へ移動させる動作が検出されたものとする。このように、携帯電話端末31は、アイコン50aを選択する動作を認識した後に、指がタッチパネル2またはタッチセンサ4に触れたままで移動する動作を検出すると、検出した指の移動の方向と量とに応じて、アイコン50aを含む階層化されたアイコンの階層を変更する。
ステップS44では、アイコン50bがタッチパネル2に表示されている。アイコン50bは、ステップS41の段階では2番目の階層に位置していたアイコンである。携帯電話端末31は、ステップS43で検出した動作に応じて、アイコン50bを最上位に移動させ、アイコン50aに代えてアイコン50bをタッチパネル2に表示させている。
アイコンの階層の変化のさせ方は、上記の例に限定されず、検出した指の移動の方向と量とに応じて変えてよい。例えば、ステップS45に示すようにステップS43の場面とは逆方向への指の動きが検出された場合、携帯電話端末31は、最下位のアイコンを最上位に移動させる。その結果、ステップS41の段階では最下位であったアイコン50cが、ステップS46では、アイコン50aに代わってタッチパネル2に表示される。
このように、携帯電話端末31は、2次元形状のオブジェクトを表示する場合であっても、アイコンを操作して多くの機能を利用することを可能にしつつ、利用者に良好な操作性を提供することができる。
続いて、3次元形状のアイコンをつぶす操作に関する画面制御について説明する。図15のステップS51では、図13のステップS31と同様に、携帯電話端末31は、タッチパネル2にアイコン40を表示させている。
ここで、ステップS52のように、利用者の指FAが、タッチパネル2のアイコン40が表示されている位置に触れ、利用者の指FBが、その位置の裏側周辺でタッチセンサ4に触れたものとする。この場合、図13のステップS32と同様に、携帯電話端末31は、アイコン40が利用者によって摘まれていると判定し、その旨を例えば振動によって利用者に報知する。
続いて、ステップS53のように、利用者が指FAをタッチパネル2に対してさらに強く押し付け、指FBをタッチセンサ4に対してさらに強く押し付ける動作が検出されたものとする。このように、携帯電話端末31は、アイコン40を摘む動作を認識した後に、指をタッチパネル2およびタッチセンサ4にさらに強く押し付ける動作を検出すると、アイコン40に関連する他のオブジェクトを表示させる。
例えば、携帯電話端末31は、ステップS54のように、WEBブラウザに関連する機能が割り当てられているアイコン40に関連するオブジェクトとして、WEBブラウザによって過去に表示されたWEBページのサムネイル画像41をタッチパネル2に表示させる。携帯電話端末31は、タッチパネル2およびタッチセンサ4によって検出される圧力の強さに応じて、WEBブラウザによって最近表示された順にWEBページのサムネイル画像41を表示させていく。
すなわち、携帯電話端末31は、タッチパネル2およびタッチセンサ4によって第1段階の強さの圧力が検出されると、WEBブラウザによって表示された時点が最も近いWEBページのサムネイル画像41を表示させる。そして、携帯電話端末31は、タッチパネル2およびタッチセンサ4によって第1段階よりもさらに強い第2段階の圧力が検出されると、WEBブラウザによって表示された時点がその次に近いWEBページのサムネイル画像41を表示させる。以下同様に、携帯電話端末31は、検出された圧力の強さに応じて、WEBページのサムネイル画像41を時系列に表示していく。
なお、ステップS54で表示されるサムネイル画像41は、WEBブラウザによってWEBページが表示されるたびに作成され、WEBページのURL(Uniform Resource Locator)と対応づけて、最近のものから順に所定の個数が携帯電話端末31内に記憶される。
そして、ステップS55のように、利用者が指を押し付ける動作を止めて、指でサムネイル画像41をタップする動作が検出されたものとする。このようにタッチパネル2によってサムネイル画像41へのタップ動作が検出されると、携帯電話端末31は、ステップS56のように、タップされたサムネイル画像41に対応するWEBページ42をタッチパネル2に表示させる。
このように、携帯電話端末31は、立体形状を有するアイコンを摘んでつぶすという利用者にとって直感的でわかりやすい操作に応じて、アイコンに関連する他のオブジェクトを表示させる。なお、アイコンをつぶす動作が認識された際に表示される他のオブジェクトは単数であってもよいし、複数であってもよい。また、アイコンをつぶす動作が認識された際にどのようなオブジェクトが表示されるかは、正面として表示されているアイコンの面に対応する機能に応じて決定されることとしてもよい。また、利用者が指を押し付ける圧力の強さは、タッチパネル2によって検出される圧力の強さとタッチセンサ4によって検出される圧力の強さのいずれか一方に基づいて判定してもよい。
ところで、図15に示した例では、アイコンに関連するオブジェクトとして、アイコンに対応する機能によって処理されたデータを表示することとしたが、アイコンに関連するオブジェクトは、これに限定されない。例えば、図16に示すように、摘まれたアイコンが、コンテナ(フォルダともいう)としての機能を有するコンテナオブジェクトである場合、アイコンをつぶす動作が認識された際に、そのアイコンに格納されている他のアイコンを表示させるようにしてもよい。
なお、ここでは、アイコンが階層的に管理されることを前提としており、例えば、「アイコンAがアイコンBを格納している」とは、アイコンAが、配下の要素としてアイコンBを含んでいることを意味する。
図16のステップS61では、携帯電話端末31は、タッチパネル2にアイコン43を表示させている。アイコン43は、立方体形状を有し、斜投影図法等によって立体的に表示される。アイコン43は、他のアイコンを格納するコンテナとしての機能を有する。
ここで、ステップS62のように、利用者の指FAが、タッチパネル2のアイコン43が表示されている位置に触れ、利用者の指FBが、その位置の裏側辺りでタッチセンサ4に触れたものとする。この場合、携帯電話端末31は、アイコン43が利用者によって摘まれていると判定し、その旨を例えば振動で利用者に報知する。
続いて、ステップS63のように、利用者が指FAをタッチパネル2に対してさらに強く押し付け、指FBをタッチセンサ4に対してさらに強く押し付ける動作が検出されたものとする。このように、携帯電話端末31は、アイコン43を摘む動作を認識した後に、指をタッチパネル2およびタッチセンサ4にさらに強く押し付ける動作を検出すると、ステップS64のように、アイコン43に格納されていたアイコン44a〜44cをタッチパネル2に表示させる。
このように、携帯電話端末31は、コンテナとしての機能を有するアイコンについて、そのアイコンをつぶすと、そのアイコンに格納されている他のアイコンが表示されるという直感的でわかりやすい操作性を利用者に提供する。
次に、携帯電話端末31の機能と制御部との関係を説明する。図17は、携帯電話端末31の機能の概略構成を示すブロック図である。図17に示すように携帯電話端末31は、タッチパネル2と、入力部3と、タッチセンサ4と、電源部5と、通信部6と、スピーカ7と、マイク8と、記憶部9と、制御部10と、RAM11とを有する。
記憶部9は、メールの送受信や閲覧のためのメールプログラム9Aや、WEBページの閲覧のためのブラウザプログラム9Bや、図13から図16を用いて説明した画面制御を実現するための画面制御プログラム39Cや、タッチパネル2に表示される各種アイコンに関する情報が格納されたオブジェクトデータ39Dや、サムネイル画像41とURLとが対応づけて格納されたサムネイルデータ39Eを記憶する。記憶部9には、その他に、携帯電話端末31の基本的な機能を実現するオペレーティングシステムプログラムや、氏名、電話番号、メールアドレス等が登録されたアドレス帳データ等の他のプログラムやデータも記憶される。
オブジェクトデータ39Dの一例を図18に示す。図18に示すように、オブジェクトデータ39Dは、ID、タイプ、表示位置、正面、角度、面、絵文字、関連情報といった項目を有し、アイコン毎に情報が格納される。IDの項目には、アイコンを識別するための識別子が格納される。
タイプの項目には、アイコンの種別を示す値が格納される。例えば、タイプの項目に「アプリケーション」という値が格納されている場合、アイコンはブラウザプログラム9B等のアプリケーションプログラムが提供する機能に対応するものであることを示す。また、タイプの項目に「コンテナ」という値が格納されている場合、アイコンはコンテナとしての機能を有することを示す。
表示位置の項目には、アイコンをタッチパネル2上で表示する位置を示す値が格納される。例えば、タッチパネル2には、各種アイコンを表示する領域がマス目状に予め設定され、表示位置の項目には、そのいずれか1つの領域を示す値が格納される。正面の項目には、正面として表示させる面の番号が格納される。
角度の項目には、アイコンを初期状態からx軸方向にどれだけ回転させ、y軸方向にどれだけ回転させて表示するかを示す値が設定される。例えば、アイコンが初めて表示される場合、角度の項目には、xとして0が設定され、yとして0が設定される。また、利用者の操作に従って、アイコンを初期状態から左方向に90度回転させ、下方向に90度回転させた場合、角度の項目には、xとして90が設定され、yとして90が設定される。
面、絵文字および関連情報の項目には、アイコンのそれぞれの面に関する情報が面毎に対応づけて格納される。面の項目には、アイコンの面を識別するための値が設定される。なお、面の項目に「*」という値が設定されている場合、全ての面が同様に設定されることを示す。絵文字の項目には、アイコンの面に表示される絵文字を特定するための情報として、絵文字の画像データ名等が格納される。
関連情報の項目には、アイコンの種別に応じて、アイコンに関連する情報が格納される。例えば、タイプの項目に「アプリケーション」という値が設定されている場合、関連情報の項目には、タップされた場合に起動する機能を特定するための情報が格納される。また、タイプの項目に「コンテナ」という値が設定されている場合、格納されている他のアイコンの識別子のリストが格納される。
図17に示す制御部10は、記憶部9に記憶されているデータを必要に応じて参照しつつ、記憶部9に記憶されているプログラムを実行して、タッチパネル2、通信部6等を制御することによって各種処理を実行する。例えば、制御部10は、ブラウザプログラム9Bを実行することによって、WEBページの表示、表示したWEBページのサムネイルおよびURLのサムネイルデータ39Eへの格納、ブックマーク一覧の表示といった機能を実現する。また、制御部10は、画面制御プログラム39Cを実行することによって、オブジェクトデータ39Dを更新しながら、アイコンを回転させる操作やアイコンをつぶす操作に関する画面制御を実現する。
次に、携帯電話端末31がアイコンを回転させる操作やアイコンをつぶす操作に関する画面制御を実行する場合の動作について説明する。図19は、携帯電話端末31がアイコンを回転させる操作やアイコンをつぶす操作に関する画面制御を実行する場合の処理手順を示すフロー図である。図19に示す処理手順は、3次元形状を有するアイコンがタッチパネル2に表示されている間繰り返して実行される。なお、タッチパネル2には、オブジェクトデータ39Dに登録されている各種アイコンが予め表示されているものとする。
まず、ステップS71として、制御部10は、タッチセンサ2Aとタッチセンサ4の検出結果を取得する。ここで、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出されていない場合(ステップS72,Yes)、制御部10は、選択状態のアイコンがあれば、ステップS73として、最も正面に近い面が正面を向くようにそのアイコンの向きを修正する。そして、制御部10は、ステップS74として、そのアイコンの選択を解除する。選択状態のアイコンとは、摘む操作の対象となり、現在も何らかの操作の対象となっているアイコンである。
タッチセンサ2Aのみで接触が検出された場合、すなわち、携帯電話端末31の前面のみで接触が検出された場合(ステップS72,Yes、かつ、ステップS75,Yes)、または、タッチセンサ4のみで接触が検出された場合、すなわち、携帯電話端末31の背面のみで接触が検出された場合(ステップS76,Yes)、制御部10は、選択状態のアイコンがあれば、ステップS77として、最も正面に近い面が正面を向くようにそのアイコンの向きを修正し、ステップS78として、そのアイコンの選択を解除する。
そして、制御部10は、ステップS79として、タッチセンサ2Aとタッチセンサ4のいずれか一方で接触が検出された場合に行う通常の処理を実行する。ここでいう通常の処理とは、例えば、アイコンがタップされた場合に、正面として表示されている面に対応する機能を起動させる処理である。
また、タッチセンサ2Aとタッチセンサ4のいずれにおいても接触が検出された場合、すなわち、携帯電話端末31の前面と背面で接触が検出された場合(ステップS75,No、かつ、ステップS76,No)、制御部10は、ステップS80として、選択状態にあるアイコンがあるかを判定する。そして、選択状態にあるアイコンがない場合(ステップS80,No)、制御部10は、ステップS81として、タッチセンサ2Aにおける接触位置とタッチセンサ4における接触位置との間に表示されているアイコンをオブジェクトデータ39Dに情報が格納されているアイコンの中から探索する。
ここで該当するアイコンがない場合(ステップS82,No)、制御部10は、特に処理を行わない。該当するアイコンがあった場合(ステップS82,Yes)、制御部10は、ステップS83として、そのアイコンを選択状態とし、ステップS84として、アイコンを摘む操作を認知した旨を振動等によって利用者に報知する。
また、ステップS80において選択状態にあるアイコンがあった場合(ステップS80,Yes)、制御部10は、ステップS85として、接触位置が移動しているかを判定する。そして、接触位置が移動していない場合(ステップS85,No)、制御部10は、ステップS86として、選択状態にあるアイコンがコンテナとして機能するものであるかを判定する。
選択状態にあるアイコンがコンテナとして機能するものである場合(ステップS86,Yes)、制御部10は、ステップS87として、タッチセンサ2Aおよびタッチセンサ4によって検出されている圧力が閾値より大きいかを判定する。そして、検出されている圧力が閾値より大きい場合(ステップS87,Yes)、制御部10は、ステップS88として、格納されている他のアイコンを表示し、ステップS89として、選択状態にあるアイコンの選択を解除する。検出されている圧力が閾値より小さい場合(ステップS87,No)、制御部10は、特に処理を行わない。
一方、選択状態にあるアイコンがコンテナとして機能するものでなかった場合(ステップS86,No)、制御部10は、ステップS90として、選択状態にあるアイコンに対応する機能によって処理されたデータに対応するサムネイル等のアイコンを表示させる。このとき、制御部10は、タッチセンサ2Aおよびタッチセンサ4によって検出されている圧力の強さに応じて、処理されてからの経過時間が短い順にオブジェクトを表示させることが好ましい。
また、ステップS85において接触位置が移動していた場合(ステップS85,Yes)、制御部10は、ステップS91として、移動の方向および量に応じて、選択状態にあるアイコンに対応するオブジェクトデータ39Dの行の角度の値を更新し、更新後の角度に基づいて、タッチパネル2上でのアイコンの向きを変更する。
上述してきたように、第3の実施形態では、立体的な形状のアイコンを表示し、アイコンを摘んで回転させる操作やアイコンを摘んでつぶす動作に応じて処理を実行することとしたので、アイコンを操作して多くの機能を利用することを可能にしつつ、利用者に良好な操作性を提供することができる。
なお、上記の実施形態では、立体形状を有するアイコンとして立方体形状を有するアイコンを表示する例を示したが、直方体、正八面体等の他の多面体形状のアイコンを表示することとしてもよい。
また、上記の実施形態では、検出された圧力の強さに基づいてアイコンをつぶす動作を認識することとしたが、接触時間の長さに基づいてアイコンをつぶす動作を認識することとしてもよい。具体的には、アイコンを摘む動作が認識された後、タッチパネル2における指の接触とタッチセンサ4における指の接触とが、共に、位置を移動することなく継続して所定の期間よりも長く検出された場合に、アイコンをつぶす動作が行われたと認識することとしてもよい。このように接触時間の長さに基づいてアイコンをつぶす動作を認識する方式は、接触の圧力の強さを検出することが困難な静電式等のセンサを使用している場合に特に有効である。
また、アイコンを摘む動作が検出された場合に、利用者の指に対してクリック触感を呈示するようにタッチパネル2等を振動させることとしてもよい。接触物に対してクリック触感を呈示する技術としては、例えば、振動部を特定の周波数で特定の周期分振動させることによって実現する技術が、本願の出願人により出願され、公知となっている(詳細については、特開2010−146507号公報等を参照されたい)。アイコンを摘む動作を行った指に対してクリック触感を呈示することにより、利用者は、自分がアイコンを摘んだことをより自然に知覚することができる。なお、検出された圧力の強さに応じてサムネイル画像等を表示していく場合、検出された圧力の強さに応じて新たなサムネイル画像等を表示するたびにクリック触感を呈示することとしてもよい。このように制御することにより、利用者が圧力を調整して希望するサムネイル画像等を表示させるのが容易になる。
また、上記の実施形態では、立体形状を有するアイコンを斜投影図法等によって立体的に表示することとしたが、利用者の両眼の視差を利用してアイコンが立体的に表示されるようにしてもよい。この場合、眼鏡等の器具を必要とする方式よりも、裸眼で立体視を実現する方式が好ましい。
また、上記の実施形態では、アイコンを回転させる場合における2本の指の移動量の差について特に限定しなかったが、アイコンを摘む動作を認識した後にタッチパネル2およびタッチセンサ4で検出される指の移動量を、より少ない方の移動量に揃えた上で回転量に換算することとしてもよい。同様に、アイコンを摘む動作を認識したタッチパネル2およびタッチセンサ4で検出される指の移動量を、より多い方の移動量に揃えた上で回転量に換算することとしてもよい。携帯電話端末31の前面と背面の両方に対して意図した通りの操作を行うことは難易度が比較的高いため、タッチパネル2およびタッチセンサ4に対して操作を行う場合に一方の操作が意図せずに大きくなったり小さくなったりすることがあり得る。移動量を少ない方に揃えることにより、このように意図した通りの操作を行えなかった場合でも極端に不都合な状態となることを抑止できる。なお、この場合、多い移動量と少ない移動量の差分をアイコンの位置を移動させるための移動量として処理し、移動量の差分だけアイコンの位置を移動させてもよい。
また、上記の実施形態では、3次元形状のオブジェクトを回転させる操作が行われた場合にオブジェクトの向きを変更させることとしたが、オブジェクトの向きを変更することなく、回転させる操作が行われた方向に応じてオブジェクトの面に対応する機能を起動させることとしてもよい。例えば、図13のステップS33の場面では、星の絵文字が付加された面が正面へ移動するようにアイコン40を回転させるのではなく、星の絵文字が付加された面に対応する機能を起動させることとしてもよい。
上記の各実施形態で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。また、各実施形態で示した構成は、適宜組み合わせることができる。例えば、画面制御プログラム9Cおよび画面制御プログラム39Cは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。
また、上記の各実施形態では、タッチパネル2が設けられている面と反対側の面にタッチセンサ4が設けられていることとしたが、タッチセンサ4は、タッチパネル2が設けられている面と別の面であれば、どの面に設けられていてもよい。
また、タッチパネル2が設けられている面と別の面にタッチセンサ4ではなく、タッチパネル(以下、「タッチパネルX」という)を設けることとしてもよい。この場合、タッチパネル2とタッチパネルXには、同一のアイコンの別の面が表示される。そして、タッチパネルX上でアイコンがタップされると、タッチパネルXに正面として表示されている面に対応する機能が起動される。このとき、起動された機能が提供する画面は、タッチパネル2に表示することとしてもよいし、タッチパネルXに表示することとしてもよい。また、アイコンをつぶす動作が認識された際に、タッチパネル2とタッチパネルXのうち先に接触が検出された方に正面として表示されている面の機能に関連する他のオブジェクトを表示することとしてもよい。
ここで、タッチパネル2とタッチパネルXとを備える携帯電子機器は、変形可能な筐体を有していてもよい。例えば、タッチパネル2とタッチパネルXとを備える携帯電子機器は、タッチパネル2を備える第1の筐体とタッチパネルXを備える第2の筐体とをヒンジによって連結した折り畳み式の機器であってもよい。この場合、タッチパネル2とタッチパネルXとが対向するように機器を折り畳むことによって、機器の運搬中等にタッチパネル2やタッチパネルXに何かが誤って接触し、機器が誤動作を起こすことを抑止できる。また、ヒンジを回転軸として第2の筐体を第1の筐体に対して約360°回転させることによって、タッチパネル2が機器の正面に位置し、タッチパネルXが機器の背面に位置する形態へ携帯電子機器を変形させることができる。
上記の各実施形態は、以下の事項を含む。
(1) 筐体の第1の面への接触を検出する第1の検出部と、
前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、
前記筐体の第1の面に設けられた表示部と、
前記第1の検出部によって前記第1の面で接触が検出され、かつ、前記第2の検出部によって前記第2の面で接触が検出された場合に、前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置に対応する前記第1の面上の位置である第3の位置とに基づいて、前記表示部に表示されている操作画面における選択範囲を設定する制御部と
を備えることを特徴とする携帯電子機器。
(2) 前記制御部は、前記第2の検出部によって前記第2の面で接触が検出された場合に、前記第2の面における接触の検出位置である前記第2の位置と前記第1の面上の位置である前記第3の位置とが対応することを示すシンボルが当該第3の位置に表示されるように、前記表示部を制御することを特徴とする(1)に記載の携帯電子機器。
(3) 前記制御部は、前記第1の位置と前記第3の位置の少なくとも一方が移動した場合に、移動前の前記第1の位置および前記第3の位置を対角とする矩形領域の大きさと、移動後の前記第1の位置および前記第3の位置を対角とする矩形領域の大きさとの比率に応じて、前記表示部に表示している前記操作画面の表示倍率を変更することを特徴とする(1)に記載の携帯電子機器。
(4) 前記制御部は、前記第1の位置と前記第3の位置の少なくとも一方が移動した場合に、移動後の前記第1の位置と前記第3の位置に基づいて、前記選択範囲の設定を変更することを特徴とする(1)に記載の携帯電子機器。
(5) 前記制御部は、前記第1の位置および前記第3の位置を対角とする矩形領域の内部に表示されているオブジェクトが選択されるように前記選択範囲を設定することを特徴とする(1)に記載の携帯電子機器。
(6) 前記制御部は、前記第1の位置と前記第3の位置の一方を始点とし、他方を終点とする範囲のテキストが選択されるように前記選択範囲を設定することを特徴とする(1)に記載の携帯電子機器。
(7) 筐体の第1の面への接触を検出する第1の検出部と、
前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、
前記筐体の第1の面に設けられた表示部と、
前記表示部に3次元形状のオブジェクトを表示させる制御部とを備え、
前記制御部は、前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されている状態において、前記第1の位置が移動する方向および量と、前記第2の位置が移動する方向および量とに応じて、前記3次元形状のオブジェクトの向きを変更することを特徴とする携帯電子機器。
(8) 前記3次元形状のオブジェクトは、それぞれの面に特定の機能が割り当てられた多面体であり、
前記制御部は、前記表示部に前記3次元形状のオブジェクトが表示されている場合に、所定の操作を契機として、前記3次元形状のオブジェクトの面に割り当てられている機能のうち、前記表示部に正面として表示されている面に割り当てられている機能を起動させることを特徴とする(7)に記載の携帯電子機器。
(9) 前記制御部は、前記第1の位置と前記第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されており、かつ、前記第1の位置における接触と、前記第2の位置における接触とが共に所定の期間よりも長く検出された場合に、前記3次元形状のオブジェクトと関連する他のオブジェクトを前記表示部に表示させることを特徴とする(7)に記載の携帯電子機器。
(10) 前記制御部は、前記第1の位置と前記第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されており、かつ、前記第1の検出部によって検出される圧力と、前記第2の検出部によって検出される圧力との少なくともいずれか一方が所定の大きさよりも大きい場合に、前記3次元形状のオブジェクトと関連する他のオブジェクトを表示させることを特徴とする(7)に記載の携帯電子機器。
(11) 前記制御部は、前記第1の検出部および前記第2の検出部によって検出される圧力の大きさに応じて、表示する前記他のオブジェクトの数を変更することを特徴とする(10)に記載の携帯電子機器。
(12) 前記3次元形状のオブジェクトは、前記他のオブジェクトを要素として含むコンテナオブジェクトであることを特徴とする(9)に記載の携帯電子機器。
(13) 前記3次元形状のオブジェクトは、前記他のオブジェクトを要素として含むコンテナオブジェクトであることを特徴とする(10)に記載の携帯電子機器。
(14) 前記3次元形状のオブジェクトは、電子データを処理する機能に対応するオブジェクトであり、
前記他のオブジェクトは、前記機能によって処理されたデータに対応するオブジェクトであり、
前記制御部は、前記他のオブジェクトを表示させる場合に、対応するデータが前記機能によって処理されてからの経過期間が短い順にオブジェクトを表示させる
ことを特徴とする(9)に記載の携帯電子機器。
(15) 前記3次元形状のオブジェクトは、電子データを処理する機能に対応するオブジェクトであり、
前記他のオブジェクトは、前記機能によって処理されたデータに対応するオブジェクトであり、
前記制御部は、前記他のオブジェクトを表示させる場合に、対応するデータが前記機能によって処理されてからの経過期間が短い順にオブジェクトを表示させる
ことを特徴とする(10)に記載の携帯電子機器。
(16) 前記第1の位置と前記第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されている場合に、前記第1の面と前記第2の面の少なくとも一方を振動させることを特徴とする(7)に記載の携帯電子機器。
(17) 前記表示部は、3次元形状のオブジェクトを立体表示することを特徴とする(7)に記載の携帯電子機器。
(18) 筐体の第1の面への接触を検出する第1の検出部と、
前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、
前記筐体の第1の面に設けられた表示部と、
前記表示部に3次元形状のオブジェクトを表示させる制御部とを備え、
前記制御部は、前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されている状態において、前記第1の位置と前記第2の位置との少なくとも一方の移動に応じて、前記3次元形状のオブジェクトの向きを変更することを特徴とする携帯電子機器。
(19) 筐体の第1の面への接触を検出する第1の検出部と、前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、前記筐体の第1の面に設けられた表示部とを備える携帯電子機器によって実行される画面制御方法であって、
前記第1の面で接触を検出するステップと、
前記第2の面で接触を検出するステップと、
前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置に対応する前記第1の面上の位置である第3の位置とに基づいて、前記表示部に表示されている操作画面における選択範囲を設定するステップと
を含むことを特徴とする画面制御方法。
(20) 筐体の第1の面への接触を検出する第1の検出部と、前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、前記筐体の第1の面に設けられた表示部とを備える携帯電子機器によって実行される画面制御方法であって、
前記表示部に3次元形状のオブジェクトを表示するステップと、
前記第1の面への接触を検出するステップと、
前記第2の面への接触を検出するステップと、
前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されている状態において、前記第1の位置が移動する方向および量と、前記第2の位置が移動する方向および量とに応じて、前記3次元形状のオブジェクトの向きを変更するステップと
を含むことを特徴とする画面制御方法。
(21) 筐体の第1の面への接触を検出する第1の検出部と、前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、前記筐体の第1の面に設けられた表示部とを備える携帯電子機器に、
前記第1の面で接触を検出するステップと、
前記第2の面で接触を検出するステップと、
前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置に対応する前記第1の面上の位置である第3の位置とに基づいて、前記表示部に表示されている操作画面における選択範囲を設定するステップと
を実行させる画面制御プログラム。
(22) 筐体の第1の面への接触を検出する第1の検出部と、前記筐体の第1の面と異なる第2の面への接触を検出する第2の検出部と、前記筐体の第1の面に設けられた表示部とを備える携帯電子機器に、
前記表示部に3次元形状のオブジェクトを表示するステップと、
前記第1の面への接触を検出するステップと、
前記第2の面への接触を検出するステップと、
前記第1の面における接触の検出位置である第1の位置と、前記第2の面における接触の検出位置である第2の位置とを結ぶ線上に前記3次元形状のオブジェクトが表示されている状態において、前記第1の位置が移動する方向および量と、前記第2の位置が移動する方向および量とに応じて、前記3次元形状のオブジェクトの向きを変更するステップと
を実行させる画面制御プログラム。
1、31 携帯電話端末
2 タッチパネル
2A タッチセンサ
2B 表示部
3 入力部
3A、3B、3C ボタン
4 タッチセンサ
5 電源部
6 通信部
7 スピーカ
8 マイク
9 記憶部
9A メールプログラム
9B ブラウザプログラム
9C、39C 画面制御プログラム
39D オブジェクトデータ
39E サムネイルデータ
10 制御部
11 RAM
20 アイコン
30 ポインタ

Claims (19)

  1. 第1の面および当該第1の面と異なる第2の面を有する筐体と、
    前記第1の面への第1の接触を検出する第1の検出部と、
    前記第2の面への第2の接触を検出する第2の検出部と、
    前記筐体の前記第1の面に設けられた表示部と、
    前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記表示部に表示されているオブジェクトを選択する制御部と
    を備える携帯電子機器。
  2. 前記制御部は、前記第2の位置に対応する前記第1の面上の第3の位置を決定し、前記第1の位置と前記第3の位置とに基づいて前記オブジェクトを選択する請求項1に記載の携帯電子機器。
  3. 前記制御部は、前記第2の位置に対応する前記第1の面上の位置にシンボルが表示されるように前記表示部を制御する請求項1に記載の携帯電子機器。
  4. 前記制御部は、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、選択された前記オブジェクトの表示倍率を変更する請求項1に記載の携帯電子機器。
  5. 前記制御部は、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、選択するオブジェクトを変更する請求項1に記載の携帯電子機器。
  6. 前記制御部は、前記第1の位置および前記第2の位置に基づいて1以上のオブジェクトを選択するための選択範囲を設定し、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、前記選択範囲を変更する請求項1に記載の携帯電子機器。
  7. 前記制御部は、前記第1の位置と前記第3の位置とを対角とする矩形領域の内部に表示されるオブジェクトを選択する請求項2に記載の携帯電子機器。
  8. 前記制御部は、前記第1の位置と前記第2の位置の間に表示されているオブジェクトを選択する請求項1に記載の携帯電子機器。
  9. 前記制御部は、前記第1の位置および前記第2の位置に基づいて前記表示部に表示されている第1のオブジェクトを選択し、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、前記第1のオブジェクトを変形させる請求項1に記載の携帯電子機器。
  10. 前記制御部は、前記第1の位置および前記第2の位置に基づいて前記表示部に表示されている第1のオブジェクトを選択し、前記第1の位置での前記第1の接触および前記第2の位置での前記第2の接触の少なくとも一方が所定時間よりも長く検出されたときに、前記第1のオブジェクトを変形させる請求項1に記載の携帯電子機器。
  11. 前記制御部は、前記第1の位置および前記第2の位置に基づいて前記表示部に表示されている第1のオブジェクトを選択し、前記第1の位置で検出される前記第1の接触の圧力および前記第2の位置で検出される前記第2の接触の圧力の少なくとも一方が所定圧力よりも大きいときに、前記第1のオブジェクトを変形させる請求項1に記載の携帯電子機器。
  12. 前記制御部は、前記第1のオブジェクトを変形させることによって、前記第1のオブジェクトと関連する1以上の第2のオブジェクトを前記表示部に表示させる請求項9から11のいずれか1項に記載の携帯電子機器。
  13. 前記第1のオブジェクトは、電子データを処理する機能に対応し、
    前記第2のオブジェクトのそれぞれは、前記機能によって異なる時点で処理されたデータに対応し、
    前記制御部は、対応するデータが前記機能によって処理されてからの経過期間が短い順に前記第2のオブジェクトを表示させる請求項12に記載の携帯電子機器。
  14. 前記オブジェクトは3次元形状を有し、
    前記制御部は、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、前記オブジェクトの向きを変更する請求項1に記載の携帯電子機器。
  15. 前記オブジェクトは、それぞれの面に機能が割り当てられた多面体であり、
    前記制御部は、前記オブジェクトに対する所定の操作が検出されたときに、前記オブジェクトの面のうち正面として表示されている面に対応する機能を起動する請求項14に記載の携帯電子機器。
  16. 前記制御部は、前記第1の位置と前記第2の位置の少なくとも一方の移動に応じて、選択された前記オブジェクトを回転させる請求項1に記載の携帯電子機器。
  17. 振動部をさらに備え、
    前記制御部は、前記第1の位置と前記第2の位置の間に表示されているオブジェクトがあるときに、前記振動部に前記第1の面および前記第2の面の少なくとも一方を振動させる請求項1に記載の携帯電子機器。
  18. 第1の面および当該第1の面と異なる第2の面を有する筐体と、
    前記第1の面に設けられた第1の検出部と、
    前記第2の面に設けられた第2の検出部と、
    前記筐体の前記第1の面に設けられた表示部とを備える携帯電子機器によって実行される画面制御方法であって、
    前記表示部にオブジェクトを表示するステップと、
    前記第1の面の第1の接触を前記第1の検出部によって検出するステップと、
    前記第2の面の第2の接触を前記第2の検出部によって検出するステップと、
    前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記オブジェクトを選択するステップと
    を含む画面制御方法。
  19. 第1の面および当該第1の面と異なる第2の面を有する筐体と、
    前記第1の面に設けられた第1の検出部と、
    前記第2の面に設けられた第2の検出部と、
    前記筐体の前記第1の面に設けられた表示部とを備える携帯電子機器に、
    前記表示部にオブジェクトを表示するステップと、
    前記第1の面の第1の接触を前記第1の検出部によって検出するステップと、
    前記第2の面の第2の接触を前記第2の検出部によって検出するステップと、
    前記第1の面において前記第1の接触が検出される第1の位置と、前記第2の面において前記第2の接触が検出される第2の位置とに基づいて、前記オブジェクトを選択するステップと
    を実行させる画面制御プログラム。
JP2011200992A 2010-09-15 2011-09-14 携帯電子機器、画面制御方法および画面制御プログラム Expired - Fee Related JP6049990B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011200992A JP6049990B2 (ja) 2010-09-15 2011-09-14 携帯電子機器、画面制御方法および画面制御プログラム
US13/233,145 US20120062564A1 (en) 2010-09-15 2011-09-15 Mobile electronic device, screen control method, and storage medium storing screen control program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010207353 2010-09-15
JP2010207353 2010-09-15
JP2010207352 2010-09-15
JP2010207352 2010-09-15
JP2011200992A JP6049990B2 (ja) 2010-09-15 2011-09-14 携帯電子機器、画面制御方法および画面制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016001286A Division JP6133451B2 (ja) 2010-09-15 2016-01-06 携帯電子機器、画面制御方法および画面制御プログラム

Publications (2)

Publication Number Publication Date
JP2012084137A true JP2012084137A (ja) 2012-04-26
JP6049990B2 JP6049990B2 (ja) 2016-12-21

Family

ID=45806247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011200992A Expired - Fee Related JP6049990B2 (ja) 2010-09-15 2011-09-14 携帯電子機器、画面制御方法および画面制御プログラム

Country Status (2)

Country Link
US (1) US20120062564A1 (ja)
JP (1) JP6049990B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016707A (ja) * 2012-07-06 2014-01-30 Nec Saitama Ltd 情報処理装置
JP2014048840A (ja) * 2012-08-30 2014-03-17 Sharp Corp 表示装置、表示装置の制御方法、プログラムおよび記録媒体
JP2014052744A (ja) * 2012-09-05 2014-03-20 Konica Minolta Inc 文書表示装置、文書表示端末および文書表示プログラム
JP2014164688A (ja) * 2013-02-27 2014-09-08 Kyocera Document Solutions Inc 画像処理装置及びこれを備えた画像形成装置
JP2015106173A (ja) * 2013-11-28 2015-06-08 京セラ株式会社 電子機器
JPWO2014054367A1 (ja) * 2012-10-01 2016-08-25 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP2018112960A (ja) * 2017-01-13 2018-07-19 富士ゼロックス株式会社 表示制御装置、画像処理装置及びプログラム
US10353567B2 (en) 2013-11-28 2019-07-16 Kyocera Corporation Electronic device
US10444803B2 (en) 2013-11-28 2019-10-15 Kyocera Corporation Electronic device
JP2019204540A (ja) * 2014-08-29 2019-11-28 エヌエイチエヌ コーポレーション ファイル一括処理方法
JP2020061085A (ja) * 2018-10-12 2020-04-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、制御方法、及びプログラム
JPWO2020080322A1 (ja) * 2018-10-16 2021-02-15 株式会社村田製作所 変位検出センサおよびフレキシブルデバイス

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709206B2 (ja) * 2011-02-17 2015-04-30 Necカシオモバイルコミュニケーションズ株式会社 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
JP5659854B2 (ja) * 2011-02-24 2015-01-28 ソニー株式会社 無線通信装置、無線通信方法、プログラムおよび無線通信システム
US8786603B2 (en) 2011-02-25 2014-07-22 Ancestry.Com Operations Inc. Ancestor-to-ancestor relationship linking methods and systems
US9177266B2 (en) 2011-02-25 2015-11-03 Ancestry.Com Operations Inc. Methods and systems for implementing ancestral relationship graphical interface
KR20120102262A (ko) * 2011-03-08 2012-09-18 삼성전자주식회사 휴대용 단말기가 열람하는 텍스트에서 원하는 내용을 선택하는 방법 및 장치
JP5766479B2 (ja) * 2011-03-25 2015-08-19 京セラ株式会社 電子機器、制御方法および制御プログラム
US11327599B2 (en) 2011-04-26 2022-05-10 Sentons Inc. Identifying a contact type
US9639213B2 (en) 2011-04-26 2017-05-02 Sentons Inc. Using multiple signals to detect touch input
US10198097B2 (en) 2011-04-26 2019-02-05 Sentons Inc. Detecting touch input force
US9477350B2 (en) 2011-04-26 2016-10-25 Sentons Inc. Method and apparatus for active ultrasonic touch devices
US9189109B2 (en) 2012-07-18 2015-11-17 Sentons Inc. Detection of type of object used to provide a touch contact input
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US10235004B1 (en) 2011-11-18 2019-03-19 Sentons Inc. Touch input detector with an integrated antenna
US11340124B2 (en) 2017-08-14 2022-05-24 Sentons Inc. Piezoresistive sensor for detecting a physical disturbance
WO2013075136A1 (en) 2011-11-18 2013-05-23 Sentons Inc. Localized haptic feedback
CN104169848B (zh) * 2011-11-18 2017-10-20 森顿斯公司 检测触摸输入力
TWI451307B (zh) * 2011-12-05 2014-09-01 Innolux Corp 影像顯示系統
US8769438B2 (en) * 2011-12-21 2014-07-01 Ancestry.Com Operations Inc. Methods and system for displaying pedigree charts on a touch device
JP5834895B2 (ja) * 2011-12-26 2015-12-24 ブラザー工業株式会社 画像処理装置及びプログラム
US8935774B2 (en) 2012-03-02 2015-01-13 Microsoft Corporation Accessory device authentication
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9134807B2 (en) 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US9426905B2 (en) 2012-03-02 2016-08-23 Microsoft Technology Licensing, Llc Connection device for computing devices
US9360893B2 (en) 2012-03-02 2016-06-07 Microsoft Technology Licensing, Llc Input device writing surface
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9064654B2 (en) 2012-03-02 2015-06-23 Microsoft Technology Licensing, Llc Method of manufacturing an input device
USRE48963E1 (en) 2012-03-02 2022-03-08 Microsoft Technology Licensing, Llc Connection device for computing devices
CN102681778A (zh) * 2012-04-25 2012-09-19 中兴通讯股份有限公司 一种对桌面图标进行批量管理的方法及数字移动设备
DE112013002381T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
AU2013259630B2 (en) 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
CN109062488B (zh) 2012-05-09 2022-05-27 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
AU2013259606B2 (en) 2012-05-09 2016-06-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
US10031556B2 (en) 2012-06-08 2018-07-24 Microsoft Technology Licensing, Llc User experience adaptation
US9348468B2 (en) 2013-06-07 2016-05-24 Sentons Inc. Detecting multi-touch inputs
CN104508620B (zh) 2012-08-03 2018-06-05 日本电气株式会社 触摸板设备、处理确定方法、程序和触摸板系统
KR20140042270A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 애플리케이션을 실행하기 위한 방법 및 그 전자 장치
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
EP2939097B1 (en) * 2012-12-29 2018-12-26 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US9304549B2 (en) 2013-03-28 2016-04-05 Microsoft Technology Licensing, Llc Hinge mechanism for rotatable component attachment
US9804746B2 (en) * 2013-07-19 2017-10-31 Blackberry Limited Actionable user input on displayed items
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
US9459715B1 (en) 2013-09-20 2016-10-04 Sentons Inc. Using spectral control in detecting touch input
WO2015180013A1 (zh) * 2014-05-26 2015-12-03 华为技术有限公司 一种终端的触摸操作方法及装置
WO2016020913A1 (en) * 2014-08-07 2016-02-11 E2C Ltd. Enhanced accessibility in portable multifunction devices
US10474409B2 (en) * 2014-09-19 2019-11-12 Lenovo (Beijing) Co., Ltd. Response control method and electronic device
US10534502B1 (en) * 2015-02-18 2020-01-14 David Graham Boyers Methods and graphical user interfaces for positioning the cursor and selecting text on computing devices with touch-sensitive displays
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) * 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10048811B2 (en) 2015-09-18 2018-08-14 Sentons Inc. Detecting touch input provided by signal transmitting stylus
US10908741B2 (en) 2016-11-10 2021-02-02 Sentons Inc. Touch input detection along device sidewall
US10296144B2 (en) 2016-12-12 2019-05-21 Sentons Inc. Touch input detection with shared receivers
US10126877B1 (en) 2017-02-01 2018-11-13 Sentons Inc. Update of reference data for touch input detection
US10585522B2 (en) 2017-02-27 2020-03-10 Sentons Inc. Detection of non-touch inputs using a signature
TWI653550B (zh) 2017-07-06 2019-03-11 鴻海精密工業股份有限公司 電子裝置及電子裝置的顯示控制方法
US11580829B2 (en) 2017-08-14 2023-02-14 Sentons Inc. Dynamic feedback for haptics
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20200091522A (ko) 2019-01-22 2020-07-31 삼성전자주식회사 컨텐츠의 표시 방향을 제어하기 위한 방법 및 그 전자 장치
US11983382B2 (en) 2022-06-13 2024-05-14 Illuscio, Inc. Systems and methods for generating three-dimensional menus and toolbars to control computer operation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109557A (ja) * 2000-10-03 2002-04-12 Ricoh Co Ltd アイコンの切り替え方式
JP2003330611A (ja) * 2002-05-16 2003-11-21 Sony Corp 入力方法及び入力装置
JP2006039819A (ja) * 2004-07-26 2006-02-09 Canon Electronics Inc 座標入力装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
JP2010182046A (ja) * 2009-02-04 2010-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010181934A (ja) * 2009-02-03 2010-08-19 Kyocera Corp 入力装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
KR101526965B1 (ko) * 2008-02-29 2015-06-11 엘지전자 주식회사 단말기 및 그 제어 방법
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
US20100293460A1 (en) * 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
US20110021251A1 (en) * 2009-07-22 2011-01-27 Sony Ericsson Mobile Communications Ab Electronic device with touch-sensitive control

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109557A (ja) * 2000-10-03 2002-04-12 Ricoh Co Ltd アイコンの切り替え方式
JP2003330611A (ja) * 2002-05-16 2003-11-21 Sony Corp 入力方法及び入力装置
JP2006039819A (ja) * 2004-07-26 2006-02-09 Canon Electronics Inc 座標入力装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
JP2010181934A (ja) * 2009-02-03 2010-08-19 Kyocera Corp 入力装置
JP2010182046A (ja) * 2009-02-04 2010-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016707A (ja) * 2012-07-06 2014-01-30 Nec Saitama Ltd 情報処理装置
JP2014048840A (ja) * 2012-08-30 2014-03-17 Sharp Corp 表示装置、表示装置の制御方法、プログラムおよび記録媒体
JP2014052744A (ja) * 2012-09-05 2014-03-20 Konica Minolta Inc 文書表示装置、文書表示端末および文書表示プログラム
JPWO2014054367A1 (ja) * 2012-10-01 2016-08-25 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
JP2014164688A (ja) * 2013-02-27 2014-09-08 Kyocera Document Solutions Inc 画像処理装置及びこれを備えた画像形成装置
US9223485B2 (en) 2013-02-27 2015-12-29 Kyocera Documents Solutions Inc. Image processing apparatus, image forming apparatus including same, and method for controlling image processing apparatus
JP2015106173A (ja) * 2013-11-28 2015-06-08 京セラ株式会社 電子機器
US10353567B2 (en) 2013-11-28 2019-07-16 Kyocera Corporation Electronic device
US10444803B2 (en) 2013-11-28 2019-10-15 Kyocera Corporation Electronic device
JP2019204540A (ja) * 2014-08-29 2019-11-28 エヌエイチエヌ コーポレーション ファイル一括処理方法
US11030154B2 (en) 2014-08-29 2021-06-08 Nhn Entertainment Corporation File management method for selecting files to process a file management instruction simultaneously
JP7177018B2 (ja) 2014-08-29 2022-11-22 エヌエイチエヌ ドゥレイ コーポレーション ファイル一括処理方法
JP2018112960A (ja) * 2017-01-13 2018-07-19 富士ゼロックス株式会社 表示制御装置、画像処理装置及びプログラム
JP2020061085A (ja) * 2018-10-12 2020-04-16 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、制御方法、及びプログラム
JPWO2020080322A1 (ja) * 2018-10-16 2021-02-15 株式会社村田製作所 変位検出センサおよびフレキシブルデバイス

Also Published As

Publication number Publication date
US20120062564A1 (en) 2012-03-15
JP6049990B2 (ja) 2016-12-21

Similar Documents

Publication Publication Date Title
JP6049990B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
JP5977627B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP2932360B1 (en) Method and apparatus for controlling haptic feedback of an input tool for a mobile terminal
KR101505198B1 (ko) 휴대 단말기 및 그 구동 방법
JP5721662B2 (ja) 入力受付方法、入力受付プログラム、及び入力装置
JP5310844B2 (ja) 携帯端末
US8934949B2 (en) Mobile terminal
JP5986484B2 (ja) 携帯端末、ロック状態制御プログラムおよびロック状態制御方法
KR101141198B1 (ko) 진동 피드백 제공 단말 및 그 방법
KR101971982B1 (ko) 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
JP2012505567A (ja) 開いているウインドウのライブプレビュー
JPWO2012137946A1 (ja) 電子機器、操作制御方法および操作制御プログラム
JP2011048606A (ja) 入力装置
JP2012175642A (ja) 携帯電子機器、入力制御方法および入力制御プログラム
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP6691426B2 (ja) 携帯端末装置
JP2012174247A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5923395B2 (ja) 電子機器
JP2020017215A (ja) 電子機器、制御プログラム及び表示制御方法
JP6133451B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
JP7034856B2 (ja) 電子機器、制御プログラム及び表示制御方法
WO2014045765A1 (ja) 携帯端末、その制御方法及びプログラム
KR101559694B1 (ko) 휴대 단말기 및 그 구동 방법
JP2012141696A (ja) 携帯情報端末およびその表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161124

R150 Certificate of patent or registration of utility model

Ref document number: 6049990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees