JP5876152B2 - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
JP5876152B2
JP5876152B2 JP2014521320A JP2014521320A JP5876152B2 JP 5876152 B2 JP5876152 B2 JP 5876152B2 JP 2014521320 A JP2014521320 A JP 2014521320A JP 2014521320 A JP2014521320 A JP 2014521320A JP 5876152 B2 JP5876152 B2 JP 5876152B2
Authority
JP
Japan
Prior art keywords
hand
display
unit
terminal device
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014521320A
Other languages
English (en)
Other versions
JPWO2013187370A1 (ja
Inventor
浩司 仲江
浩司 仲江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014521320A priority Critical patent/JP5876152B2/ja
Publication of JPWO2013187370A1 publication Critical patent/JPWO2013187370A1/ja
Application granted granted Critical
Publication of JP5876152B2 publication Critical patent/JP5876152B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置に関する。
近年、画像を表示するディスプレイ(表示部)に、接触によりユーザ入力を検出するタッチセンサを重畳したタッチパネルディスプレイを搭載した端末装置の普及が加速している。このような端末装置では、操作時にユーザの手や指が接触することにより、ディスプレイの一部の領域が覆われてしまい、そこに表示されている画像を視認しづらくなってしまうという課題があった。そこで例えば日本国特許公開2005−234993号公報では、画像表示装置において、画像表示面に表示されている画像を覆うように表示手段に接触した物体の位置を検出し、検出された物体の接触位置に応じて、表示手段の画像表示面に表示させる画像の表示領域を設定している。
しかしながら日本国特許公開2005−234993号公報の構成では、ユーザの手や指が接触している領域を避けて表示しているだけであるため、ユーザの手や指が接触していないもののそれによって覆われている(隠れてしまう)領域については依然として視認困難であることに変わりがない。例えばフリック入力画面のように、特定のボタン(アイコン)を押下(接触)し、そのボタンの周囲に派生するボタンを選択する時、指が接触しているのは押下している特定のボタンのみであるが、その指の接触していない部分によって派生したボタンが隠れてしまうことがある。すると、本来選択したいはずのボタンが視認困難になり、誤入力が生じ易くなってしまう。
本発明は、このような課題に鑑み、ユーザの手や指の接触の有無によることなくディスプレイの表示範囲を設定することができ、ユーザの利便性を更に向上させることが可能な端末装置を提供することを一の目的とする。
本発明の一の態様にかかる端末装置は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断する把持手判断部と、ユーザがタッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断する操作手判断部と、把持手判断部および操作手判断部の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更する画像変更部と、を備える。
当該端末装置は、前記把持手判断部および前記操作手判断部の判断結果を参照し、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定する表示範囲設定部を更に備え、前記画像変更部は、前記表示範囲設定部によって設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更するとよい。
当該端末装置は、筐体の両側面それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
当該端末装置は、筐体において表示部が設けられている面の背面に、接触によりユーザの手の接触を検出する第2タッチセンサを更に備え、把持手判断部は、第2タッチセンサからの出力結果を参照して把持手を判断するとよい。
当該端末装置は、筐体において表示部が設けられている面の背面に、画像を撮影する撮像部を更に備え、撮像部が撮影した画像を参照して把持手を判断するとよい。
当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
当該端末装置は、筐体の下面の両端部近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、把持手判断部は、把持手検出手段からの出力結果を参照して把持手を判断するとよい。
上記把持手判断部は、タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの接触位置によって把持手を判断するとよい。
当該端末装置は、筐体において表示部が設けられている面の下部の両端近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる操作手検出手段を更に備え、操作手判断部は、操作手検出手段からの出力結果を参照して操作手を判断するとよい。
上記操作手判断部は、タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの接触位置によって操作手を判断するとよい。
上記操作手判断部は、タッチパネルディスプレイにおいて指の接触が検知されたときの接触面の形状によって操作手を判断するとよい。
当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段を更に備え、表示範囲設定部は、把持手判断部および操作手判断部の判断結果に加え、端末姿勢検出手段からの出力結果を参照して表示範囲を設定するとよい。
本発明の別の態様にかかる表示制御方法は、画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置の表示制御方法であって、ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断し、ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断し、把持手と操作手の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更することを含む。
本発明の別の態様にかかる端末装置は、画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、当該端末装置を把持しているユーザの把持手が右手または左手のいずれであるか、および前記タッチパネルディスプレイを操作しているユーザの操作手が右手または左手のいずれであるかに基づいて前記表示部に表示する画像の位置または大きさを変更する制御部と、を備える。
上記構成によれば、ユーザの手や指の接触の有無によることなくディスプレイの表示を変更することができ、ユーザの利便性を更に向上させることが可能な端末装置を提供することができる。
本実施形態にかかる携帯電話を説明する図である。 近接センサ以外のモジュールを把持手検出手段として用いる場合を例示する図である。 近接センサの配置の他の例、およびタッチパネルディスプレイへの指の接触を説明する図である。 表示範囲設定部によって設定される表示範囲を例示する図である。 表示部への画像の表示について例示する図である。 端末姿勢検出手段からの出力結果による表示範囲の設定について説明する図である。 携帯電話の姿勢による画像のキーの大きさの変更について説明する図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
また理解を容易にするために、以下に説明する実施形態では、端末装置として携帯電話(以下、携帯電話100と称する)を例示するが、これに限定するものではない。本発明は、後述するように表示部122およびそれに重畳されるタッチセンサ124からなるタッチパネルディスプレイ120を備える端末装置であれば如何なるものにも適用可能である。端末装置は、例えばPHS端末、ノート型パーソナルコンピュータ、PDA(Personal Digital Assistant)、ハンディGPS、ナビゲーション装置、ネットブック、デジタルカメラ等であってもよい。
図1は、本実施形態にかかる携帯電話100を説明する図であり、図1(a)は本実施形態の携帯電話100の機能ブロック図であり、図1(b)は本実施形態の携帯電話100の外観斜視図である。図1(a)に示すように、本実施形態の携帯電話100は制御部110を有する。制御部110は、中央処理装置(CPU)を含む半導体集積回路により携帯電話100全体の機能を管理および制御し、例えば記憶部170に記憶されているプログラムを用いて通話機能やメール送受信機能等を実行する。また本実施形態では、制御部110は、把持手判断部112、操作手判断部114、表示範囲設定部116および画像変更部118としても機能する。これらの詳細については後に詳述する。
図1(b)に示すように、表示部122は、筐体102の表面102aに配設されたディスプレイである。表示部122は、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Electro Luminescence)等で構成され、写真画像やアプリケーションの動作画面、通話における通話先や発信元などの情報をユーザに対して表示する。また本実施形態では、透明の素材で形成され、ユーザの指の接触を検出するタッチセンサ124(図1(a)参照)が、表示部122にそれを視認可能に重畳されている。これにより、表示部122およびタッチセンサ124によってタッチパネルディスプレイ120が構成され、それを、ユーザの指の接触によりユーザ入力を受け付ける入力部として機能させることができる。
なお、タッチセンサ124によるユーザ入力の検知方式としては、静電容量式でもよいし、感圧式であってもよい。また本実施形態においては、タッチセンサ124を含むタッチパネルディスプレイ120を入力部として例示したが、それに加えて、キーボード、十字キー、ジョイスティック等の可動スイッチを入力部として更に備えてもよい。例えば本実施形態では、筐体102の表面102aにスイッチボタン104(物理キー)を設けている。
また図1(b)に示すように、本実施形態の携帯電話100には、筐体102の裏面102b(表示部122が設けられている面の背面)に、第1撮像部130aおよび第2撮像部130bからなる撮像部130が設けられている。撮像部130は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の映像素子で構成され、静止画や動画を撮影する。
近接センサ140は、超音波、ミリ波、マイクロ波、静電容量、磁気等を利用した素子からなり、携帯電話100への物体(本実施形態ではユーザの手)の接近を検出する。なお、近接センサ140に代えて、照度センサ、近接照度センサ、物理キー等を採用することも可能である。加速度センサ150は、例えばピエゾ抵抗型MEMS(Micro Electroechanical System)等からなる3軸加速度センサであって、XYZ軸の3方向の加速度を検知し、検知した加速度によって携帯電話100の重力方向、すなわち携帯電話100の姿勢を検出する。
なお、加速度センサ150としては、静電容量型や熱検知型等の加速度センサを用いてよいし、携帯電話100におけるXY軸の2方向の加速度を検知する加速度センサを用いてもよい。また加速度センサ150に代えて地磁気センサやジャイロスコープセンサを採用することも可能である。第2タッチセンサ160は、筐体102の裏面102b(図1(b)参照)に配置され、かかる裏面102bにおけるユーザの手または指の接触を検出する。
上述したように、本実施形態の携帯電話100において、制御部110は、把持手判断部112、操作手判断部114、表示範囲設定部116および画像変更部118としても機能する。詳細には、把持手判断部112は、ユーザが当該携帯電話100(端末装置)を把持している手である把持手が右手または左手のいずれであるかを判断する。操作手判断部114は、ユーザがタッチパネルディスプレイ120を操作している手である操作手が右手または左手のいずれであるかを判断する。表示範囲設定部116は、把持手判断部112および操作手判断部114の判断結果を参照し、表示部122の表示領域のうちユーザが視認可能な範囲を表示範囲として設定する。画像変更部118は、表示範囲設定部116によって設定された表示範囲内におさまるように、表示部122に表示する画像の位置または大きさを変更する。
上記の把持手判断部112は、把持手検出手段からの出力結果を参照して、把持手が右手または左手のいずれであるかを判断するとよい。把持手検出手段としては、例えば上述した近接センサ140を利用することができる。本実施形態では、図1(b)に示すように、上述した近接センサ140として、左側近接センサ140aおよび右側近接センサ140bが筐体の側面102c・102d(両側面)それぞれに配設されている。これにより、把持手判断部112は、左側近接センサ140aが物体の接近を検出したら、ユーザが左手で携帯電話100を把持していると判断することができ、右側近接センサ140bが物体の接近を検出したら、ユーザが右手で携帯電話100を把持していると判断することができる。
なお、把持手検出手段として、近接センサ140以外のモジュールを用いることも可能である。図2は、近接センサ140以外のモジュールを把持手検出手段として用いる場合を例示する図である。図2(a)および(b)は、第2タッチセンサ160(図1(a)参照)を把持手検出手段として用いた場合を例示している。図2(a)に示すように、ユーザが左手190aで携帯電話100を把持している場合、筐体102の裏面102bに設けられた第2タッチセンサ160では、左側近傍において掌191aによる面積の広い接触(ハッチングにて図示)が生じ、右側近傍において指193a・194a・195a・196aによる複数の面積が狭い接触(ハッチングにて図示)が生じている。
一方、図2(b)に示すように、ユーザが右手190bで携帯電話100を把持している場合、第2タッチセンサ160では、右側近傍において掌191bによる面積の広い接触(ハッチングにて図示)が生じ、左側近傍において指193b・194b・195b・196bによる複数の面積が狭い接触(ハッチングにて図示)が生じている。このように、ユーザが右手190bまたは左手190aのいずれの手で携帯電話100を把持するかによって第2タッチセンサ160における接触検出位置やその面積が異なる。このため、かかる第2タッチセンサ160を把持手検出手段として用い、その出力結果を参照することにより把持手判断部112が把持手を判断可能となる。
なお、本実施形態では第2タッチセンサ160がマルチタッチ(複数箇所での接触)を検出可能な場合を例示して説明したが、これに限定するものではない。第2タッチセンサ160はシングルタッチを検出するものであってもよく、この場合、把持手判断部112は、例えば一番面積の大きい接触が生じている位置が左右どちらであるかを判断することにより把持手を判断することが可能である。
図2(c)および(d)は、撮像部130を把持手検出手段として用いた場合を例示している。なお、撮像部130を構成する第1撮像部130aおよび第2撮像部130bは筐体102の裏面102bに配設されているため本来であれば正面からは視認できないが、理解を容易にするために、図2(c)および(d)では第1撮像部130aおよび第2撮像部130bを透過させた状態で図示している。
本実施形態では、筐体102の裏面102bにおいて左上に第1撮像部130aが、右上に第2撮像部130bが配置されている。図2(c)に示すように、ユーザが左手190aで携帯電話100を把持している場合、第2撮像部130bはユーザの指(本実施形態においては人差し指である指193a)によって塞がれてしまうため、第2撮像部130bによって撮影がされた画像は暗い(黒い)画像になる。
一方、図2(d)に示すように、ユーザが右手190bで携帯電話100を把持している場合、第1撮像部130aはユーザの指(本実施形態においては人差し指である指193b)によって塞がれてしまうため、第1撮像部130aによって撮影された画像は暗い(黒い)画像になる。このように、ユーザが右手190bまたは左手190aのいずれの手で携帯電話100を把持するかによって撮像部130において撮影された画像の明るさが異なるため、かかる撮像部130による撮影画像を参照することにより把持手判断部112が把持手を判断可能となる。
なお、本実施形態では撮像部130において撮影された画像の明るさによって把持手を判断する場合を例示したが、これに限定するものではなく、例えば撮像部130のピント調節機能を用い、第1撮像部130aおよび第2撮像部130bのいずれの撮像部130のピントが合うか否かを以って把持手を判断してもよい。また本実施形態では、撮像部130が第1撮像部130aおよび第2撮像部130bの2つから構成される場合を例示したが、これにおいても限定されず、撮像部130は筐体102の背面に少なくとも1以上設けられていればよく、1つの撮像部130によっても同等の機能を実現することが可能である。
図2(e)および(f)は、加速度センサ150を把持手検出手段として用いた場合を例示している。一般に、携帯電話100を把持するときユーザはそれを掌191a・191bに載置するように持つため、かかる掌191a・191bを意図的に視点側に向けない限り、携帯電話100は視点に対して正対せず、傾いた状態になる。このため、図2(e)に示すようにユーザが左手190aで携帯電話100を把持している場合、携帯電話100は右下がりの状態になる。一方、図2(f)に示すようにユーザが右手190bで携帯電話100を把持している場合、携帯電話100は左下がりの状態になる。特に携帯電話100を手に持った瞬間は、携帯電話100の傾き(姿勢)が、把持手に応じて図2(e)または図2(f)に示す状態になることが多い。したがって、加速度センサ150を把持手検出手段として用い、その出力結果(携帯電話100の姿勢)を参照すれば、把持手判断部112が把持手を判断することが可能となる。
図3は、近接センサ140の配置の他の例、およびタッチパネルディスプレイ120への指の接触を説明する図である。図3(a)に示す携帯電話100aでは、筐体102の下面102eの両端部近傍それぞれに近接センサ140(左側近接センサ140aおよび右側近接センサ140b)を配置している。一般に、携帯電話100を把持するときユーザは掌191a・191b(図2参照)に携帯電話100の角が当たるようにして持つことが多い。
したがって、上記構成によれば、ユーザが携帯電話100を左手190aに把持した場合には、下面102eの左端に配置された左側近接センサ140aによって物体(把持手)の接近が検出され、ユーザが携帯電話100を右手190bに把持した場合には、下面102eの右端に配置された右側近接センサ140bによって物体(把持手)の接近が検出される。これにより、左側近接センサ140aおよび右側近接センサ140bの出力結果を参照することにより、把持手判断部112が把持手を判断することが可能となる。
図3(b)は、携帯電話100を把持した際におけるタッチパネルディスプレイ120へのユーザの手の接触状態を図示している。例えばユーザが右手190bで携帯電話100を把持する場合、表示部122(厳密にはタッチパネルディスプレイ120)の下部の右側の領域にユーザの掌191b(図2(b)参照)が接触し、図3(b)に示すように右下の領域での指より大きい面積の接触(ハッチングにて図示)がタッチセンサ124において検知される。
一方、図示はしていないが、ユーザが左手190aで携帯電話100を把持する場合には、表示部122(タッチパネルディスプレイ120)の下部の左側の領域へのユーザの掌191a(図2(a)参照)の接触により、左下の領域での指より大きい面積の接触がタッチセンサ124において検知される。したがって、タッチパネルディスプレイ120の下部において指より大きな面積での接触が検知されたときの接触位置(右側か左側か)を参照することにより、把持手判断部112が把持手を判断することが可能である。
また図3(b)から明らかなように、タッチパネルディスプレイ120において、ユーザの掌191bが指より大きい面積で接触しているということは、すなわちその把持している側の手でタッチパネルディスプレイ120を操作しているということである。したがって、上記のようにタッチパネルディスプレイ120の下部において指より大きな面積での接触が検知されたときの接触位置を参照することにより、操作手判断部114が操作手を判断することも可能となる。
図3(c)に示す携帯電話100bでは、筐体102の表面102a(表示部122が設けられている面)の下部の両端近傍それぞれに近接センサ140(左側近接センサ140aおよび右側近接センサ140b)を配置している。これにより、ユーザが左手190aでタッチパネルディスプレイ120を操作する際には、左端に配置された左側近接センサ140aが左手190a(操作手)によって覆われ、かかる左側近接センサ140aにおいて物体(操作手)の接近が検出される。
一方、ユーザが右手190bでタッチパネルディスプレイ120を操作する際には、右端に配置された右側近接センサ140bが右手190b(操作手)によって覆われ、かかる右側近接センサ140bにおいて物体(操作手)の接近が検出される。これにより、操作手判断部114が、近接センサ140(左側近接センサ140aおよび右側近接センサ140b)の出力結果を参照して操作手を判断することが可能となる。
図3(d)および(e)は、携帯電話100を操作する際におけるタッチパネルディスプレイ120へのユーザの手の接触状態を図示している。図3(d)に示すようにユーザが左手190aで操作している場合、タッチパネルディスプレイ120において指192aの接触が検知されたときの接触面(矢印にて図示)は、かかるタッチパネルディスプレイ120の右上から左下に向かって斜めに延びる略楕円形状となる。
一方、図3(e)に示すようにユーザが右手190bで操作している場合、タッチパネルディスプレイ120において指192bの接触が検知されたときの接触面(矢印にて図示)は、かかるタッチパネルディスプレイ120の左上から右下に向かって斜めに延びる略楕円形状となる。したがって、タッチパネルディスプレイ120において指の接触が検知されたときの接触面の形状を参照することにより、操作手判断部114が操作手を判断することが可能である。
なお、上記説明では、近接センサ140や第2タッチセンサ160、撮像部130、加速度センサ150、タッチパネルディスプレイ120等を把持手検出手段または操作手検出手段として機能させ、その出力結果を参照することにより把持手判断部112や操作手判断部114が把持手や操作手を判断する構成を例示したが、これに限定するものではない。例えば、把持手や操作手を右手190bまたは左手190aのいずれの手にするかを事前にユーザ登録させる構成としてもよい。また把持手や操作手を事前登録する場合であっても、把持手検出手段や操作手検出手段によって検出された把持手や操作手が事前登録された手と異なる場合には、把持手判断部112や操作手判断部114は、把持手検出手段または操作手検出手段による検出結果を参照して事前登録された情報を更新することも可能である。
上述したように把持手判断部112および操作手判断部114によって把持手および操作手が判断されたら、表示範囲設定部116は、それらの判断結果を参照し、表示部122の表示領域のうちユーザが視認可能な範囲を表示範囲として設定する。図4は、表示範囲設定部116によって設定される表示範囲を例示する図である。
以下、図4(a)に示すように、表示部122の表示領域を左上から順に、領域A・B・C・D・E・F・G・H・Iの9つの領域に分割した場合を例示して説明する。また図4(b)〜図4(e)では、表示部122において、操作手(の指)が接触している領域を黒塗りで示し、かかる操作手によって覆われることにより視認困難な(視認不可能な)領域をハッチングにて示している。なお、図4に示す表示部122の分割数や表示範囲は例示にすぎず、これに限定するものではない。
図4(b)は、把持手および操作手がいずれも右手190bであった場合の表示範囲を例示する図である。すなわち、右手190bで携帯電話100を把持し、右手190bの親指(指192b)でタッチパネルディスプレイ120を操作する場合を例示している。図4(b−1)に示すように、右手190bの親指で領域Aをタッチする場合、領域B・D・E・F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域C・Gを表示範囲として設定する。図4(b−2)に示すように、右手190bの親指で領域Bをタッチする場合、領域C・E・F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A・D・Gを表示範囲として設定する。
図4(b−3)に示すように、右手190bの親指で領域Cをタッチする場合、領域F・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A・B・D・E・G・Hを表示範囲として設定する。図4(b−4)に示すように、右手190bの親指で領域Dをタッチする場合、領域E・G〜Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A〜C・Fを表示範囲として設定する。図4(b−5)に示すように、右手190bの親指で領域Eをタッチする場合、領域F・H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A〜D・Gを表示範囲として設定する。
図4(b−6)に示すように、右手190bの親指で領域Fをタッチする場合、領域Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A〜E・G・Hを表示範囲として設定する。図4(b−7)に示すように、右手190bの親指で領域Gをタッチする場合、領域H・Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A〜Fを表示範囲として設定する。図4(b−8)に示すように、右手190bの親指で領域Hをタッチする場合、領域Iが右手190bに覆われて視認困難となるため、表示範囲設定部116は領域A〜Gを表示範囲として設定する。図4(b−9)に示すように、右手190bの親指で領域Iをタッチする場合、右手190bに覆われる領域はないため、表示範囲設定部116は領域I以外の領域A〜Hを表示範囲として設定する。
図4(c)は、把持手および操作手がいずれも左手190aであった場合の表示範囲を例示する図である。すなわち、左手190aで携帯電話100を把持し、左手190aの親指(指192a)でタッチパネルディスプレイ120を操作する場合を例示している。この場合、図4(c−1)〜(c−9)に示すように、左手190aによって覆われる領域は図4(b−1)〜(b−9)と左右対称になるため、表示範囲も図4(b−1)〜(b−9)と左右対称に設定される。
図4(d)は、把持手が左手190aであり、操作手が右手190bであった場合の表示範囲を例示する図である。すなわち、左手190aで携帯電話100を把持し、右手190bの指でタッチパネルディスプレイ120を操作する場合を例示している。図4(d−1)に示すように、携帯電話100を左手190aに把持した状態において右手190bの指で領域Aをタッチする場合、右手190bによって覆われる領域は図4(b−1)と同様である。したがって、表示範囲設定部116は、図4(b−1)と同様に領域C・Gを表示範囲として設定する。図4(d−2)に示すように、右手190bの指で領域Bをタッチする場合においても右手190bによって覆われる領域は図4(b−2)と同じであるため、表示範囲設定部116は、図4(b−2)と同様に領域A・D・Gを表示範囲として設定する。
図4(d−3)に示すように、右手190bの指で領域Cをタッチする場合、領域C以外の領域は右手190bによって覆われないため、表示範囲設定部116は、領域C以外の領域A・B・D〜Iを表示範囲として設定する。図4(d−4)〜図4(d−9)に示すように、右手190bの指で領域D〜Iをタッチする場合、右手190bによって覆われる領域は図4(b−4)〜図4(b−9)と同じであるため、表示範囲設定部116は、図4(b−4)〜図4(b−9)と同様に表示範囲をそれぞれ設定する。
図4(e)は、把持手が右手190bであり、操作手が左手190aであった場合の表示範囲を例示する図である。すなわち、右手190bで携帯電話100を把持し、左手190aの指でタッチパネルディスプレイ120を操作する場合を例示している。この場合、図4(e−1)〜(e−9)に示すように、左手190aによって覆われる領域は図4(d−1)〜(d−9)と左右対称になるため、表示範囲も図4(d−1)〜(d−9)と左右対称に設定される。
上述したように表示範囲設定部116によって表示範囲が設定されたら、画像変更部118は、表示範囲設定部116によって設定された表示範囲内におさまるように、表示部122に表示する画像の位置または大きさを変更する。すなわち画像変更部118は、文字数や絵のサイズ、選択候補数等の画像情報の位置や大きさを、表示範囲設定部116によって設定された表示範囲のサイズやエリア数に適するように変更する。
図5は、表示部122への画像の表示について例示する図である。なお、図5では、図4(b−1)のように把持手および操作手がいずれも右手190bであった場合を例示している。また図5において破線にて囲われている表示範囲のうち、エリア122aは図4(b−1)の領域Cに相当するエリアであり、エリア122bは図4(b−1)の領域Gに相当するエリアである。
把持手および操作手がいずれも右手190bであった場合、上述したように、表示範囲は、領域C・Gの2つ(複数)のエリア(エリア122a・122b)に分割される。このように隣接しない複数のエリアが表示範囲に含まれる場合、図5(a)に示すようにエリア122a・122b(領域C・G)の両方を利用して画像を表示してもよいし、図5(b)に示すように一方のエリア(図5(b)ではエリア122bを例示)のみに画像を表示してもよい。
例えば『契約する』という項目にたいして、『YES』および『NO』という判断の選択肢(アイコン)を表示する場合のように、押し間違いによる選択ミスを避ける必要がある場合には、図5(a)に示すように、隣接しない複数のエリア(エリア122a・122b)のそれぞれに選択肢を分割して表示するとよい。一方、メールの送信ボックスアイコン、受信ボックスアイコン、新規メール作成アイコンのように、並べて表示するほうが便利なアイコンや、頻繁に使用するアイコン等については、図5(b)に示すように複数のエリア(エリア122a・122b)のうち、1つのエリアに並べて表示するとよい。
上記説明したように、本実施形態にかかる携帯電話100によれば、タッチパネルディスプレイ120において、ユーザの手や指が接触していないものの、それによって覆われてしまう(隠れてしまう)領域を踏まえて表示範囲が設定される。すなわちユーザの手や指の接触の有無によることなく表示部の表示範囲を設定することができる。これにより、画像はユーザが視認可能な領域のみに表示されることになるため、操作性の向上を図ることができ、ユーザの利便性を更に高めることが可能となる。
ここで、上述したように本実施形態の携帯電話100は、加速度を検知し、検知した検知した加速度によって携帯電話100の重力方向、すなわち携帯電話100の姿勢を検出する加速度センサ150を備える。この加速度センサ150を端末姿勢検出手段とし、表示範囲設定部116が、把持手判断部112および操作手判断部114の判断結果に加え、かかる端末姿勢検出手段からの出力結果を参照して表示範囲を設定することにより、上述した機能をより向上させることが可能である。
図6は、端末姿勢検出手段からの出力結果による表示範囲の設定について説明する図である。なお、図6では、図4(d−1)のように把持手が左手190aであり、操作手が右手190bであった場合を例示している。把持手が左手190aであり、操作手が右手190bであった場合、上述したように、表示範囲は、領域C・Gの2つ(複数)のエリア(エリア122a・122b)に分割される。このような場合、図6(a)に示すように携帯電話100を垂直に近い状態で把持しているときにはエリア122a・122bの両方を視認可能である。しかしながら、図6(b)に示すように携帯電話100がユーザから離れる方向に傾けられて水平に近い状態になると、エリア122a・122bのうち、エリア122a(領域Cに相当)は、ユーザから遠ざかり、且つ指192bの背後に位置するため視認しづらくなる。
そこで表示範囲設定部116は、把持手判断部112および操作手判断部114の判断結果に加え、加速度センサ150からの出力結果を参照して表示範囲を設定する。例えば図6(b)の例では、把持手判断部112および操作手判断部114の判断結果によって設定された表示範囲であるエリア122a・122b(領域C・G)のうち、携帯電話100が水平に近い状態になることにより視認しづらくなるエリア122aを表示無効にする。これにより、ユーザが視認しづらいエリア122aでは画像表示が行われず、エリア122bにおいてのみ画像が表示される。したがって、操作性の更なる向上を図ることができ、ユーザの利便性を一層高めることが可能となる。
また上記の端末姿勢検出手段(本実施形態においては加速度センサ150)を備えることにより、以下に説明するように、表示部122に表示される画像、特にキーボードのキーの大きさ変更に携帯電話100の姿勢を反映することができる。図7は、携帯電話の姿勢による画像の大きさの変更について説明する図である。
なお、図7では「な行」のキー(キーボード)を配列した場合を例示しているが、これに限定するものでない。また以下に説明する制御は、キーボードに限定するものではなく、他の画像を表示する際にも適用可能である。また図7に示す「な行」のキーボードは、「な」のキーに接触したときにその周囲に「に」〜「の」のキーが表示されるフリック入力形式のキーボードであるが、理解を容易にするために、図7(a)〜(d)では、「な」のキーに接触している指を不図示としている。
図7(a)に示すように、加速度センサ150(端末姿勢検出手段)によって検出された携帯電話100の姿勢が垂直に近い状態であった場合、ユーザは表示部122のすべての領域を視認可能である。換言すれば表示部122において視認しづらい領域は存在しない。したがって、表示範囲設定部116は、表示部122のすべての表示領域を表示範囲として設定し、画像変更部118は、「な行」のキーボードのすべてのキー(「な」〜「の」のキー)を同じ大きさに設定する(標準時)。
図7(b)に示すように、加速度センサ150によって検出された携帯電話100の姿勢が水平に近い状態であった場合、上述したように表示部122においてユーザから離れた領域である上部の領域を視認しづらくなる。そこで、表示範囲設定部116は、表示部122の上部以外の領域を表示範囲として設定し、画像変更部118は、「な行」のキーボードの5つのキーのうち、表示範囲に配置されているキー(「な」、「に」、「ね」、「の」)は標準時の大きさとし、表示範囲外に配置されているキーである「ぬ」のキーを拡大表示する(大きさを変更する)。
図7(c)に示すように、加速度センサ150によって検出された携帯電話100の姿勢が右下に傾斜した状態であった場合、表示部122の右側の領域を視認しづらくなる。また図7(c)では、携帯電話100は水平側に傾いた状態であるため、表示部122の上部の領域も視認しづらくなる。したがって、表示範囲設定部116は、表示部122の上部および右側以外の領域を表示範囲として設定し、画像変更部118は、表示範囲に配置されているキー(「な」、「に」、「の」)は標準時の大きさとし、表示範囲外に配置されているキーである「ぬ」、「ね」のキーを拡大表示する(大きさを変更する)。一方、図7(d)に示す携帯電話100は、水平側に傾きつつ、図7(c)とは反対に左下に傾斜した状態であるため、「に」、「ぬ」のキーが拡大表示される。
上記構成によれば、携帯電話100が傾いた姿勢になることによりユーザの視点位置から距離が遠くなり、視認しづらくなってしまう領域において、そこに表示されるキー(画像)の視認性を高めることができ、より高い操作性を得ることが可能である。したがって、誤入力を防ぎ、利便性に優れた携帯電話100を提供することが可能である。
なお、上述した構成以外にも、例えば図7(e)に示すように、キーボードを構成するすべてのキーを、表示範囲内において可能な限り拡大することも可能である。そしてこの場合においても、図7(f)に示すように携帯電話100の姿勢に応じて特定のキーのみを拡大することも可能である。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
本出願は、2012年6月15日出願の日本特許出願・出願番号2012-135364に基づくものであり、その内容はここに参照として取り込まれる。
本発明は、画像を表示する表示部と、表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイを備える端末装置として利用可能である。
100・100a・100b…携帯電話、102…筐体、102a…表面、102b…裏面、102c・102d…側面、102e…下面、104…スイッチボタン、110…制御部、112…把持手判断部、114…操作手判断部、116…表示範囲設定部、118…画像変更部、120…タッチパネルディスプレイ、122…表示部、122a・122b…エリア、124…タッチセンサ、130…撮像部、130a…第1撮像部、130b…第2撮像部、140…近接センサ、140a…左側近接センサ、140b…右側近接センサ、150…加速度センサ、160…第2タッチセンサ、190a…左手、190b…右手、191a・191b…掌、192a・192b・193a・193b・194a・194b・195a・195b・196a・196b…指

Claims (12)

  1. 画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、
    ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断する把持手判断部と、
    ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断する操作手判断部と、
    加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段と、
    前記把持手判断部および前記操作手判断部の判断結果に加え、前記端末姿勢検出手段からの出力結果を参照して、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定する表示範囲設定部と、
    前記表示範囲設定部によって設定された表示範囲内におさまるように、前記把持手判断部および前記操作手判断部の判断結果に基づき、前記表示部に表示する画像の位置または大きさを変更する画像変更部と、
    を備える端末装置。
  2. 当該端末装置は、筐体の両側面それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、
    前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  3. 当該端末装置は、筐体において前記表示部が設けられている面の背面に、接触によりユーザの手の接触を検出する第2タッチセンサを更に備え、
    前記把持手判断部は、前記第2タッチセンサからの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  4. 当該端末装置は、筐体において前記表示部が設けられている面の背面に、画像を撮影する撮像部を更に備え、
    前記撮像部が撮影した画像を参照して前記把持手を判断する請求項1に記載の端末装置。
  5. 当該端末装置は、加速度センサまたは地磁気センサのうち少なくとも1以上からなる把持手検出手段を更に備え、
    前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  6. 当該端末装置は、筐体の下面の両端部近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる把持手検出手段を更に備え、
    前記把持手判断部は、前記把持手検出手段からの出力結果を参照して前記把持手を判断する請求項1に記載の端末装置。
  7. 前記把持手判断部は、前記タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの該接触位置によって前記把持手を判断する請求項1に記載の端末装置。
  8. 当該端末装置は、筐体において前記表示部が設けられている面の下部の両端近傍それぞれに、近接センサ、照度センサ、近接照度センサ、または物理キーのうち少なくとも1以上からなる操作手検出手段を更に備え、
    前記操作手判断部は、前記操作手検出手段からの出力結果を参照して前記操作手を判断する請求項1に記載の端末装置。
  9. 前記操作手判断部は、前記タッチパネルディスプレイの下部において指より大きい面積での接触が検知されたときの該接触位置によって前記操作手を判断する請求項1に記載の端末装置。
  10. 前記操作手判断部は、前記タッチパネルディスプレイにおいて指の接触が検知されたときの該接触面の形状によって前記操作手を判断する請求項1に記載の端末装置。
  11. 画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段と、を備える端末装置の表示制御方法であって、
    ユーザが当該端末装置を把持している手である把持手が右手または左手のいずれであるかを判断し、
    ユーザが前記タッチパネルディスプレイを操作している手である操作手が右手または左手のいずれであるかを判断し、
    把持手と操作手の判断結果に加え、前記端末姿勢検出手段からの出力結果を参照して、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定し、
    設定された表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更することを含む、表示制御方法。
  12. 画像を表示する表示部と、該表示部に重畳され接触によりユーザ入力を検出するタッチセンサとからなるタッチパネルディスプレイと、
    当該端末装置を把持しているユーザの把持手が右手または左手のいずれであるか、および前記タッチパネルディスプレイを操作しているユーザの操作手が右手または左手のいずれであるかに基づいて前記表示部に表示する画像の位置または大きさを変更する制御部と、
    加速度センサまたは地磁気センサのうち少なくとも1以上からなる端末姿勢検出手段と、
    を備え、
    前記制御部は、
    ユーザの把持手および操作手に基づく判断結果に加え、前記端末姿勢検出手段からの出力結果を参照して、前記表示部の表示領域のうち前記ユーザが視認可能な範囲を表示範囲として設定し、
    設定された前記表示範囲内におさまるように、前記表示部に表示する画像の位置または大きさを変更する端末装置。
JP2014521320A 2012-06-15 2013-06-10 端末装置 Expired - Fee Related JP5876152B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014521320A JP5876152B2 (ja) 2012-06-15 2013-06-10 端末装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012135364 2012-06-15
JP2012135364 2012-06-15
PCT/JP2013/065965 WO2013187370A1 (ja) 2012-06-15 2013-06-10 端末装置
JP2014521320A JP5876152B2 (ja) 2012-06-15 2013-06-10 端末装置

Publications (2)

Publication Number Publication Date
JPWO2013187370A1 JPWO2013187370A1 (ja) 2016-02-04
JP5876152B2 true JP5876152B2 (ja) 2016-03-02

Family

ID=49758192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014521320A Expired - Fee Related JP5876152B2 (ja) 2012-06-15 2013-06-10 端末装置

Country Status (2)

Country Link
JP (1) JP5876152B2 (ja)
WO (1) WO2013187370A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112286436A (zh) * 2013-11-29 2021-01-29 株式会社半导体能源研究所 数据处理装置的驱动方法
CN103777873B (zh) * 2014-02-18 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
JP2015158735A (ja) * 2014-02-21 2015-09-03 シャープ株式会社 携帯端末
JP6252351B2 (ja) * 2014-05-16 2017-12-27 富士通株式会社 電子機器
WO2015178094A1 (ja) * 2014-05-23 2015-11-26 シャープ株式会社 携帯端末、及び当該携帯端末による操作処理方法
CN105242858A (zh) * 2014-06-16 2016-01-13 中兴通讯股份有限公司 页面布局调整方法及终端
US10650052B2 (en) 2014-06-24 2020-05-12 Apple Inc. Column interface for navigating in a user interface
KR20240138132A (ko) * 2014-06-24 2024-09-20 애플 인크. 입력 디바이스 및 사용자 인터페이스 상호작용
JP6284459B2 (ja) * 2014-09-16 2018-02-28 シャープ株式会社 端末装置
JP2017097393A (ja) * 2015-11-18 2017-06-01 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
CN113906419A (zh) 2019-03-24 2022-01-07 苹果公司 用于媒体浏览应用程序的用户界面
CN114302210B (zh) 2019-03-24 2024-07-05 苹果公司 用于查看和访问电子设备上的内容的用户界面
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348675A (ja) * 2002-05-27 2003-12-05 Canon Inc リモコン送信装置、リモート制御サブシステム、リモート制御システム、リモート制御装置およびリモート制御方法
JP5066055B2 (ja) * 2008-10-28 2012-11-07 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
WO2011158475A1 (ja) * 2010-06-16 2011-12-22 パナソニック株式会社 情報入力装置、情報入力方法及びプログラム
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
JP5434997B2 (ja) * 2010-10-07 2014-03-05 株式会社ニコン 画像表示装置
US20130215060A1 (en) * 2010-10-13 2013-08-22 Nec Casio Mobile Communications Ltd. Mobile terminal apparatus and display method for touch panel in mobile terminal apparatus

Also Published As

Publication number Publication date
JPWO2013187370A1 (ja) 2016-02-04
WO2013187370A1 (ja) 2013-12-19

Similar Documents

Publication Publication Date Title
JP5876152B2 (ja) 端末装置
JP3785902B2 (ja) デバイス、デバイスの制御方法、ポインタの移動方法
US10048845B2 (en) Mobile electronic apparatus, display method for use in mobile electronic apparatus, and non-transitory computer readable recording medium
JP5174704B2 (ja) 画像処理装置および画像処理方法
CN103988159B (zh) 显示控制装置和显示控制方法
US8854320B2 (en) Mobile type image display device, method for controlling the same and information memory medium
CA2691289C (en) A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
WO2013150998A1 (ja) 携帯型電子機器
EP1770473A2 (en) A mobile communication terminal having multiple displays and a data processing method thereof
EP2431853A2 (en) Character input device
US20120249470A1 (en) Electronic device and control method
US20150253925A1 (en) Display control device, display control method and program
US9086855B2 (en) Electronic device with orientation detection and methods therefor
JP2014085954A (ja) 携帯端末装置、プログラムおよび入力操作受け付け方法
EP3550419B1 (en) Mobile terminal device and method for controlling display of mobile terminal device
US9141224B1 (en) Shielding capacitive touch display
US20130241896A1 (en) Display control apparatus and control method therefor
US20170024124A1 (en) Input device, and method for controlling input device
US10108257B2 (en) Electronic device, control method thereof, and storage medium
US20140362017A1 (en) Input device, input control method, and input control program
JP2014016743A (ja) 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
JP2012164047A (ja) 情報処理装置
JP7069887B2 (ja) 携帯端末装置および携帯端末装置の表示制御方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160120

R150 Certificate of patent or registration of utility model

Ref document number: 5876152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees