JP2012181613A - 電子装置、表示方法、およびプログラム - Google Patents

電子装置、表示方法、およびプログラム Download PDF

Info

Publication number
JP2012181613A
JP2012181613A JP2011042909A JP2011042909A JP2012181613A JP 2012181613 A JP2012181613 A JP 2012181613A JP 2011042909 A JP2011042909 A JP 2011042909A JP 2011042909 A JP2011042909 A JP 2011042909A JP 2012181613 A JP2012181613 A JP 2012181613A
Authority
JP
Japan
Prior art keywords
buttons
operation screen
user
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011042909A
Other languages
English (en)
Other versions
JP5810554B2 (ja
JP2012181613A5 (ja
Inventor
Kenzo Nishikawa
憲三 西川
Takashi Nunomaki
崇 布巻
Ayako Amano
綾子 天野
Aya Takaoka
綾 高岡
Ritsuko Konno
律子 金野
Tomoya Narita
智也 成田
Shunichi Kasahara
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011042909A priority Critical patent/JP5810554B2/ja
Priority to TW101104721A priority patent/TW201246019A/zh
Priority to PCT/JP2012/001143 priority patent/WO2012117690A1/en
Priority to EP12752095.5A priority patent/EP2681646B1/en
Priority to CN201280009708.2A priority patent/CN103380410B/zh
Priority to BR112013021383A priority patent/BR112013021383A2/pt
Priority to RU2013139024/08A priority patent/RU2013139024A/ru
Priority to KR1020137021868A priority patent/KR102067295B1/ko
Priority to US14/000,762 priority patent/US20140123069A1/en
Publication of JP2012181613A publication Critical patent/JP2012181613A/ja
Publication of JP2012181613A5 publication Critical patent/JP2012181613A5/ja
Application granted granted Critical
Publication of JP5810554B2 publication Critical patent/JP5810554B2/ja
Priority to US16/941,982 priority patent/US20200356226A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ディスプレイにタッチパネルを積層させたユーザインタフェースの操作性を向上させる。
【解決手段】例えば、ユーザが指をタッチパネル11に接近させた状態で左側から選択肢領域41に進入させると、ディスプレイ12の画面40は、同図Bに示されるように、音楽のジャンルに属する選択肢に対応するボタン44だけに変更される。いまの場合、音楽のジャンルに属するロック、クラシック、およびジャズにそれぞれ対応するボタン44だけに絞られて表示される。図4に示された第1の表示例によれば、ユーザの指の進入方向に応じて、表示するボタンの数を絞ることができるので、ユーザがボタンを押し易くなる。よって、ユーザの操作性を向上させることができる。本開示は、タッチパネルを備えた電子装置に適用できる。
【選択図】図4

Description

本開示は、電子装置、表示方法、およびプログラムに関し、特に、タッチパネルが積層して設けられたディスプレイにユーザインタフェースを表示させる場合に用いて好適な電子装置、表示方法、およびプログラムに関する。
従来、タッチパネルが積層されたディスプレイ上に、ユーザからの操作を受け付けるためのユーザインタフェースを表示するようにした様々な電子装置が存在する。具体的には、例えば、パーソナルコンピュータ、スマートフォン、カーナビゲーション装置、ATM(Automated teller machine)などに適用されている。
なお、タッチパネルには、ユーザの指などの接触を検知するだけでなく、ユーザの指などの接近を検知できるものが存在する(静電容量方式などのタッチパネル)。
ユーザの指などの接近を検知できるタッチパネルは、例えば、通常は画面上に地図を表示し、ユーザの指などが接近すると、画面上の所定の位置に操作入力用のボタンを表示するようにしたカーナビゲーション装置などへの利用が提案されている(特許文献1参照)。
特開2002−358162号公報
タッチパネルが積層されたディスプレイを備える電子装置によれば、ユーザインタフェースを容易に変更することができる。例えば、選択肢として複数のボタンを表示させる場合、同時に表示させるボタンの数に応じてボタンのサイズを変えることなどができる。
ただし、同時に表示させるボタンの数が多い場合には、各ボタンのサイズを小さくしたり、ボタン間隔を狭めたりすることになり、このような場合、ユーザが自身の意図したボタンを選択(接触)できずに誤操作してしまうなど、操作性に支障が生じてしまうことがあった。
本開示はこのような状況に鑑みてなされたものであり、ディスプレイにタッチパネルを積層させたユーザインタフェースの操作性を向上させるようにするものである。
本開示の一側面である電子装置は、ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む操作画面を生成する生成部と、生成された前記操作画面を表示する表示部と、前記ユーザの指示部の前記表示部に対する接近を検知する検知部とを含み、前記生成部は、検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する。
前記生成部は、検知された前記指示部の接近位置の移動方向、または移動軌跡に基づいて、前記操作画面における前記ボタンの配置を変更することができる。
前記生成部は、検知された前記指示部の接近位置の移動方向に応じ、前記操作画面における複数のボタンを選抜することができる。
前記生成部は、前記指示部の接近位置の移動方向と、前記複数のボタンを選抜する際の選抜条件とを対応付けた情報を含む前記操作画面を生成することができる。
前記生成部は、検知された前記指示部の接近位置の移動方向と垂直な方向に、前記操作画面における複数のボタンの配列を変更することができる。
前記生成部は、検知された前記指示部の接近位置の移動軌跡に基づいて、前記操作画面における前記ボタンの配置を前記移動軌跡に沿って変更することができる。
前記生成部は、検知された前記指示部の接近位置を避けるように前記操作画面における前記ボタンの配置を変更することができる。
前記検知手段は、前記表示部に積層されて前記表示部に表示される前記操作画面を透過し、前記ユーザの指示部の前記表示部に対する接近を検知することができる。
本開示の一側面である表示制御方法は、操作画面を生成する生成部と、生成された前記操作画面を表示する表示部と、ユーザの指示部の前記表示部に対する接近を検知する検知部とを備える電子装置の表示制御方法において、前記生成部による、ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む前記操作画面を生成する生成ステップと、検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する変更ステップとを含む。
本開示の一側面であるプログラムは、生成された操作画面を表示する表示部と、ユーザの指示部の前記表示部に対する接近を検知する検知部とを備えるコンピュータに、ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む前記操作画面を生成する生成ステップと、検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する変更ステップとを含む処理を実行させる。
本開示の一側面においては、ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む操作画面が生成され、検知されたユーザの指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置が変更される。
本開示の一側面によれば、ディスプレイにタッチパネルを積層させたユーザインタフェースの操作性を向上させることができる。
実施の形態である電子装置の構成例を示すブロック図である。 図1の制御部の機能ブロックを示す図である。 適応的ボタン表示処理を説明するフローチャートである。 適応的ボタン表示処理における第1の表示例を示す図である。 適応的ボタン表示処理における第2の表示例を示す図である。 適応的ボタン表示処理における第3の表示例を示す図である。 適応的ボタン表示処理における第4の表示例を示す図である。
以下、発明を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<1.実施の形態>
[電子装置の構成例]
図1は、実施の形態である電子装置の構成例を示している。この電子装置10は、ディスプレイにタッチパネルを積層させたユーザインタフェースを備えるものであり、例えば、パーソナルコンピュータ、スマートフォン、デジタルスチルカメラ、デジタルビデオカメラ、ナビゲーション装置などに相当する。なお、もちろん、これら以外の電子装置に本発明を適用することも可能である。
電子装置10は、バス15を介して接続されているタッチパネル11、ディスプレイ12、記録部13、および制御部14から構成される。
タッチパネル11は、ディスプレイ12の画面表示を透過し、ユーザの指などの接触だけでなく接近(接触せずに所定の距離まで近づいたことを意味するものとする)も検知可能である。ここで、ユーザの指などとは、ユーザの指以外の生体部位やタッチパネル11に対応したスタイラス(ペン状の指示棒)などを指す。以下、単にユーザの指と記載するが、指以外の生体部位やスタイラスを含むものとする。
タッチパネル11には、例えば静電容量式のものを採用することができる。なお、ユーザの指の接触だけでなく接近も検知可能であれば、他の方式でも構わない。タッチパネル11は、ユーザの指の接触や接近の検知結果を示す検知情報をバス15を介して制御部14に通知する。
ディスプレイ12は、例えばLCD、有機ELディスプレイなどからなり、バス15を介して制御部14から供給される画面画像を表示する。記録部13には、制御部14にて実行される制御用プログラムが記録されている。また、記録部13には、当該電子装置10にて処理対象とする各種のコンテンツ(画像データ、オーディオデータ、ビデオデータ、アプリケーションプログラムなど)が記録される。
制御部14は、記録部13に記録されている制御用プログラムを実行することにより、電子装置10の全体を制御する。
なお、上述した構成に追加して、ユーザインタフェースとなるハードウェアとしての押しボタンなどを設けるようにしてよい。
図2は、制御部14が制御用プログラムを実行することにより実現される機能ブロックを示している。
操作判定部21は、タッチパネル11からの検知情報に基づき、ユーザの操作を判定する。具体的には、接近した座標の変化に基づいてディスプレイ12の選択肢領域41(図4)への進入の有無を判定したり、進入方向や移動軌跡を判定したりする。また、接触した座標を判定したりする。
画面画像生成部22は、ディスプレイ12に表示させるための画像(ユーザインタフェースとなるボタンなどを含む。以下、画面画像と称する)を生成し、生成した画面画像をバス15を介してディスプレイ12に供給する。また、画面画像生成部22は、判別したユーザの操作に応じて、画面画像におけるボタンの位置をユーザが操作し易い位置に変更する(詳細は適用的ボタン表示処理として後述する)。実行部23は、接触されたボタンに応じた処理を実行する。
[動作説明]
次に、電子装置10による適応的ボタン表示処理について説明する。図3は、電子装置10による適応的ボタン表示処理を説明するフローチャートである。
ステップS1において、画面画像生成部22は、ユーザインタフェースの選択肢となるボタンを初期位置に配置した画面画像を生成し、バス15を介してディスプレイ12に供給する。ディスプレイ12は、供給された画面画像を表示する。
ステップS2において、操作判定部21は、タッチパネル11からの検知情報に基づき、ユーザの指がタッチパネル11に接近した状態でディスプレイ12に表示されている全てのボタンを含む選択肢領域に進入したか否かを判定する。そして、進入したと判定するまで待機する。ユーザが指をディスプレイ12の画面上に接近させると、選択肢領域に進入したと判定されて処理がステップS3に進められる。
ステップS3において、操作判定部21は、タッチパネル11からの検知情報に基づき、ユーザの指の移動方向を判定する。ステップS4において、画面画像生成部22は、操作判定部21で判定されたユーザの指の移動方向に応じ、画面画像におけるボタンの配置を変更する。すなわち、画面画像を更新してディスプレイ12に供給する。これにより、ディスプレイ12の画面におけるボタンの配置が変更される。
ステップS5において、操作判定部21は、タッチパネル11からの検知情報に基づき、ユーザの指がボタンにタッチしたか否か(実際には、タッチパネル11に接触したか否か)を判定する。タッチしていないと判定された場合、処理はステップS2に戻されてそれ以降が繰り返される。
ユーザの指がボタンにタッチしたと判定された場合、処理はステップS6に進められる。ステップS6において、操作判定部21は、ユーザの指が接触したタッチパネル11上の座標を検出する。実行部23は、検出されたタッチパネル11上の座標に基づいて、ユーザによりタッチされたボタンを特定する。さらに、実行部23は、タッチされたボタンに応じた処理を行う。以上で、適応的ボタン表示処理の説明を終了する。
次に、適応的ボタン表示処理における具体的な第1乃至第4の表示例について図4乃至図7を参照して説明する。
図4は、適応的ボタン表示処理における第1の表示例を示している。第1の表示例は、ユーザの指の進入方向に応じて、選択肢を選抜するようになされている。
初期段階において、ディスプレイ12の画面40には、例えば、同図Aに示されるように、選択肢にそれぞれ対応する複数のボタン42が配置されている。さらに、画面40には、ユーザの指の進入方向を示す矢印43と、それに応じて選択肢を選抜する条件となるジャンルなどが表示される。なお、選択肢領域41については、ユーザからは不可視であるが視認できるようにしてもよい。
同図Aの場合、選択肢として、音楽のジャンルに属するロック、クラシック、およびジャズ、スポーツのジャンルに属するテニス、野球、および水泳、並びに果実のジャンルに属するレモン、およびバナナにそれぞれ対応するボタン42が表示されている。さらに、左側から進入する矢印43−1とそれに対応するジャンルとして音楽の文字列が、下側から進入する矢印43−2とそれに対応するスポーツジャンルとして音楽の文字列が、右側から進入する矢印43−3とそれに対応するジャンルとして果実の文字列が表示されている。
例えば、ユーザが指をタッチパネル11に接近させた状態で左側から選択肢領域41に進入させると、ディスプレイ12の画面40は、同図Bに示されるように、音楽のジャンルに属する選択肢に対応するボタン44だけに変更される。いまの場合、音楽のジャンルに属するロック、クラシック、およびジャズにそれぞれ対応するボタン44だけに絞られて表示される。
また例えば、ユーザが指をタッチパネル11に接近させた状態で右側から選択肢領域41に進入させると、ディスプレイ12の画面40は、同図Cに示されるように、果実のジャンルに属する選択肢に対応するボタン45だけに変更される。いまの場合、果実のジャンルに属するレモン、およびバナナにそれぞれ対応するボタン45だけに絞られて表示される。
また、図示は省略するが、ユーザが指をタッチパネル11に接近させた状態で下側から選択肢領域41に進入させると、ディスプレイ12の画面40は、スポーツのジャンルに属するテニス、野球、および水泳にそれぞれ対応するボタンだけに変更される。
なお、同図Bまたは同図Cに示されるように、ボタン44,45のサイズと間隔を、同図Aのボタン32のそれよりも拡大するようにしてもよい。
図4に示された第1の表示例によれば、ユーザの指の進入方向に応じて、表示するボタンの数を絞ることができるので、ユーザがボタンを押し易くなる。よって、ユーザの操作性を向上させることができる。
図5は、適応的ボタン表示処理における第2の表示例を示している。第2の表示例は、ユーザの指の進入方向に応じて、選択肢となるボタンの配置の方向を変更するようになされている。
初期段階において、ディスプレイ12の画面50には、例えば、同図Aに示されるように、選択肢にそれぞれ対応する複数のボタン51がマトリクス状に配置されている。
同図Aの場合、4つの選択肢にそれぞれ対応するA,B,C,Dのボタン51が2×2のマトリクス状に配置されている。
例えば、ユーザが指をタッチパネル11に接近させた状態で左側から選択肢領域41に進入させると、同図Bに示されるように、画面50の複数のボタン51の配置がその進入方向に対して垂直な方向、すなわち、上下方向に変更される。なお、ユーザが指をタッチパネル11に接近させた状態で右側から選択肢領域41に進入させた場合も同様である。
また例えば、ユーザが指をタッチパネル11に接近させた状態で下側から選択肢領域41に進入させると、同図Cに示されるように、画面50の複数のボタン51の配置がその進入方向に対して垂直な方向、すなわち、左右方向に変更される。なお、ユーザが指をタッチパネル11に接近させた状態で上側から選択肢領域41に進入させた場合も同様である。
図5に示された第2の表示例によれば、ユーザの指の進入方向に対して垂直にボタンの配置を変更するので、ボタンがマトリクス状に配置されている場合に比較して、ユーザがボタンを押し易くなる。よって、ユーザの操作性を向上させることができる。
図6は、適応的ボタン表示処理における第3の表示例を示している。第3の表示例は、ユーザの指の移動軌跡に応じて、選択肢となるボタンの配置の方向を変更するようになされている。
初期段階において、ディスプレイ12の画面60には、例えば、同図Aに示されるように、選択肢にそれぞれ対応する複数のボタン61が重畳して配置されている。
同図Aの場合、4つの選択肢にそれぞれ対応するA,B,C,Dのボタン61が重畳して配置されている。
例えば、ユーザが指をタッチパネル11に接近させた状態で右下から左上方向に選択肢領域41を移動させると、同図Bに示されるように、画面60の複数のボタン61の配置がその移動軌跡に沿って変更される。
同様に、ユーザが指をタッチパネル11に接近させた状態で中央下から右上方向に選択肢領域41を移動させると、同図Cに示されるように、画面60の複数のボタン61の配置がその移動軌跡に沿って変更される。
図6に示された第3の表示例によれば、ユーザは指を移動させることによりボタンの配置を任意に変更することができるのでボタンを押し易くなる。よって、ユーザの操作性を向上させることができる。
図7は、適応的ボタン表示処理における第4の表示例を示している。第4の表示例は、ユーザの指の位置に応じて、選択肢となるボタンの配置の方向を変更するようになされている。
初期段階において、ディスプレイ12の画面70には、同図Aに示されるように、背景の画像に重畳して選択肢にそれぞれ対応する複数のボタン72がマトリクス状に配置されている。
同図Aの場合、背景にはオブジェクト71が含まれ、それに重畳して被写体71A乃至Pのボタン72が4×4のマトリクス状に配置されている。
例えば、ユーザが指をオブジェクト71に近づけると、同図Bまたは同図Cに示されるように、画面70の複数のボタン72の配置が指を避けるように変更される。
図7に示された第4の表示例によれば、ユーザは指を移動させることにより表示されているボタンを排除することができる。したがって、背景のオブジェクト71を視認し易くすることができる。また、オブジェクト71を確認した上でボタン押すことができる。よって、ユーザの操作性を向上させることができる。
とこるで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10 電子装置, 11 タッチパネル, 12 ディスプレイ, 13 記録部, 14 制御部, 21 操作判定部, 22 画面画像生成部, 23 実行部, 41 選択肢領域

Claims (10)

  1. ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む操作画面を生成する生成部と、
    生成された前記操作画面を表示する表示部と、
    前記ユーザの指示部の前記表示部に対する接近を検知する検知部と
    を含み、
    前記生成部は、検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する
    電子装置。
  2. 前記生成部は、検知された前記指示部の接近位置の移動方向、または移動軌跡に基づいて、前記操作画面における前記ボタンの配置を変更する
    請求項1に記載の電子装置。
  3. 前記生成部は、検知された前記指示部の接近位置の移動方向に応じ、前記操作画面における複数のボタンを選抜する
    請求項2に記載の電子装置。
  4. 前記生成部は、前記指示部の接近位置の移動方向と、前記複数のボタンを選抜する際の選抜条件とを対応付けた情報を含む前記操作画面を生成する
    請求項3に記載の電子装置。
  5. 前記生成部は、検知された前記指示部の接近位置の移動方向と垂直な方向に、前記操作画面における複数のボタンの配列を変更する
    請求項2に記載の電子装置。
  6. 前記生成部は、検知された前記指示部の接近位置の移動軌跡に基づいて、前記操作画面における前記ボタンの配置を前記移動軌跡に沿って変更する
    請求項2に記載の電子装置。
  7. 前記生成部は、検知された前記指示部の接近位置を避けるように前記操作画面における前記ボタンの配置を変更する
    請求項1に記載の電子装置。
  8. 前記検知手段は、前記表示部に積層されて前記表示部に表示される前記操作画面を透過し、生成された前記操作画面を表示する
    請求項1に記載の電子装置。
  9. 操作画面を生成する生成部と、
    生成された前記操作画面を表示する表示部と、
    ユーザの指示部の前記表示部に対する接近を検知する検知部と
    を備える電子装置の表示制御方法において、
    前記生成部による、
    ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む前記操作画面を生成する生成ステップと、
    検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する変更ステップと
    を含む表示制御方法。
  10. 生成された操作画面を表示する表示部と、
    ユーザの指示部の前記表示部に対する接近を検知する検知部と
    を備えるコンピュータに、
    ユーザに選択させる複数の選択肢にそれぞれ対応するボタンを含む前記操作画面を生成する生成ステップと、
    検知された前記指示部の接近位置に基づいて、前記操作画面における前記ボタンの配置を変更する変更ステップと
    を含む処理を実行させるプログラム。
JP2011042909A 2011-02-28 2011-02-28 電子装置、表示方法、およびプログラム Active JP5810554B2 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2011042909A JP5810554B2 (ja) 2011-02-28 2011-02-28 電子装置、表示方法、およびプログラム
TW101104721A TW201246019A (en) 2011-02-28 2012-02-14 Electronic apparatus, display method, and program
KR1020137021868A KR102067295B1 (ko) 2011-02-28 2012-02-21 전자 장치, 표시 제어 방법, 및 기록 매체
CN201280009708.2A CN103380410B (zh) 2011-02-28 2012-02-21 电子设备,显示方法和程序
BR112013021383A BR112013021383A2 (pt) 2011-02-28 2012-02-21 aparelho, método, e, meio legível por computador não transitório
RU2013139024/08A RU2013139024A (ru) 2011-02-28 2012-02-21 Электронное устройство, способ отображения и программа
PCT/JP2012/001143 WO2012117690A1 (en) 2011-02-28 2012-02-21 Electronic apparatus, display method, and program
US14/000,762 US20140123069A1 (en) 2011-02-28 2012-02-21 Electronic apparatus, display method, and program
EP12752095.5A EP2681646B1 (en) 2011-02-28 2012-02-21 Electronic apparatus, display method, and program
US16/941,982 US20200356226A1 (en) 2011-02-28 2020-07-29 Electronic apparatus and display method for touch proximity detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011042909A JP5810554B2 (ja) 2011-02-28 2011-02-28 電子装置、表示方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2012181613A true JP2012181613A (ja) 2012-09-20
JP2012181613A5 JP2012181613A5 (ja) 2014-03-20
JP5810554B2 JP5810554B2 (ja) 2015-11-11

Family

ID=46757635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011042909A Active JP5810554B2 (ja) 2011-02-28 2011-02-28 電子装置、表示方法、およびプログラム

Country Status (9)

Country Link
US (2) US20140123069A1 (ja)
EP (1) EP2681646B1 (ja)
JP (1) JP5810554B2 (ja)
KR (1) KR102067295B1 (ja)
CN (1) CN103380410B (ja)
BR (1) BR112013021383A2 (ja)
RU (1) RU2013139024A (ja)
TW (1) TW201246019A (ja)
WO (1) WO2012117690A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI478046B (zh) * 2012-12-28 2015-03-21 Qisda Corp 數位相機操作方法以及使用此方法之數位相機
US9501163B2 (en) * 2014-05-06 2016-11-22 Symbol Technologies, Llc Apparatus and method for activating a trigger mechanism
USD774518S1 (en) * 2015-02-13 2016-12-20 Shenzhen Free Interactive Inc. Display screen with graphical user interface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139093A (ja) * 1997-07-15 1999-02-12 Toshiba Corp 情報処理装置およびポインティング装置
JP2007133909A (ja) * 2007-02-09 2007-05-31 Hitachi Ltd テーブル型情報端末
WO2009031633A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
US20100085317A1 (en) * 2008-10-06 2010-04-08 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器
JP2010262415A (ja) * 2009-04-30 2010-11-18 Brother Ind Ltd 処理装置
JP2012003742A (ja) * 2010-05-18 2012-01-05 Panasonic Corp 入力装置、入力方法、プログラム及び記録媒体
JP2012014459A (ja) * 2010-06-30 2012-01-19 Brother Ind Ltd 表示装置、画像表示方法、および画像表示プログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297283A (ja) * 2001-03-30 2002-10-11 Just Syst Corp ボタン制御方法およびボタン制御装置
JP2002358162A (ja) 2001-06-01 2002-12-13 Sony Corp 画像表示装置
JP4220408B2 (ja) * 2004-02-13 2009-02-04 株式会社日立製作所 テーブル型情報端末
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
US20050278656A1 (en) * 2004-06-10 2005-12-15 Microsoft Corporation User control for dynamically adjusting the scope of a data set
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
WO2007124161A1 (en) 2006-04-21 2007-11-01 Abbott Laboratories Guidewire placement device
CA2646015C (en) * 2006-04-21 2015-01-20 Anand Agarawala System for organizing and visualizing display objects
US8316324B2 (en) * 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
KR101570368B1 (ko) * 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
WO2009067224A1 (en) * 2007-11-19 2009-05-28 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities
KR101387527B1 (ko) * 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
KR101513023B1 (ko) * 2008-03-25 2015-04-22 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
KR101528262B1 (ko) * 2008-11-26 2015-06-11 삼성전자 주식회사 휴대 단말기 잠금 모드 해제 방법 및 장치
CN102239465A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
CN102934065B (zh) * 2010-04-09 2016-03-16 索尼电脑娱乐公司 信息处理装置
US20110265039A1 (en) * 2010-04-22 2011-10-27 Palm, Inc. Category-based list navigation on touch sensitive screen
US20110296351A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
JP2012032852A (ja) * 2010-07-28 2012-02-16 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
US20120059647A1 (en) * 2010-09-08 2012-03-08 International Business Machines Corporation Touchless Texting Exercise

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139093A (ja) * 1997-07-15 1999-02-12 Toshiba Corp 情報処理装置およびポインティング装置
JP2007133909A (ja) * 2007-02-09 2007-05-31 Hitachi Ltd テーブル型情報端末
WO2009031633A1 (en) * 2007-09-04 2009-03-12 Canon Kabushiki Kaisha Image projection apparatus and control method for same
US20100085317A1 (en) * 2008-10-06 2010-04-08 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP2010128685A (ja) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd 電子機器
JP2010262415A (ja) * 2009-04-30 2010-11-18 Brother Ind Ltd 処理装置
JP2012003742A (ja) * 2010-05-18 2012-01-05 Panasonic Corp 入力装置、入力方法、プログラム及び記録媒体
JP2012014459A (ja) * 2010-06-30 2012-01-19 Brother Ind Ltd 表示装置、画像表示方法、および画像表示プログラム

Also Published As

Publication number Publication date
BR112013021383A2 (pt) 2016-10-18
RU2013139024A (ru) 2015-02-27
JP5810554B2 (ja) 2015-11-11
WO2012117690A1 (en) 2012-09-07
CN103380410A (zh) 2013-10-30
CN103380410B (zh) 2016-10-19
TW201246019A (en) 2012-11-16
KR20140006893A (ko) 2014-01-16
EP2681646B1 (en) 2019-02-13
EP2681646A1 (en) 2014-01-08
US20140123069A1 (en) 2014-05-01
KR102067295B1 (ko) 2020-01-16
EP2681646A4 (en) 2016-07-06
US20200356226A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
US20220261112A1 (en) Systems, devices, and methods for touch-free typing
US10444989B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US8407623B2 (en) Playback control using a touch interface
EP2763023B1 (en) Method and apparatus for multitasking
JP5721662B2 (ja) 入力受付方法、入力受付プログラム、及び入力装置
JP4818036B2 (ja) タッチパネル制御装置およびタッチパネル制御方法
US20130339851A1 (en) User-Friendly Process for Interacting with Informational Content on Touchscreen Devices
JP2016524219A (ja) 文字入力装置及び文字入力方法
EP3493039A1 (en) Electronic apparatus, control method thereof, and computer readable recording medium
JP2012069060A (ja) 情報処理端末およびその制御方法
JP2008065504A (ja) タッチパネル制御装置およびタッチパネル制御方法
US20200356226A1 (en) Electronic apparatus and display method for touch proximity detection
CN103294392A (zh) 用于在移动装置中编辑内容视图的方法和设备
US20130238976A1 (en) Information processing apparatus, information processing method, and computer program
CN101470575A (zh) 电子装置及其输入方法
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
US20150309601A1 (en) Touch input system and input control method
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
JP5709206B2 (ja) タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
CN102929553A (zh) 利用产生于触控键盘的触控信号作为触控指令输入的方法
CN102760031A (zh) 一种显示方法及装置
CN109976652A (zh) 信息处理方法及电子设备
Kwon et al. A study on multi-touch interface for game
WO2016183940A1 (zh) 控制键盘显示的方法、装置、终端和计算机存储介质
CA2855064A1 (en) Touch input system and input control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150831

R151 Written notification of patent or utility model registration

Ref document number: 5810554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250