JP2016115208A - 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム - Google Patents

入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム Download PDF

Info

Publication number
JP2016115208A
JP2016115208A JP2014254477A JP2014254477A JP2016115208A JP 2016115208 A JP2016115208 A JP 2016115208A JP 2014254477 A JP2014254477 A JP 2014254477A JP 2014254477 A JP2014254477 A JP 2014254477A JP 2016115208 A JP2016115208 A JP 2016115208A
Authority
JP
Japan
Prior art keywords
input
finger
input device
area
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014254477A
Other languages
English (en)
Inventor
上野 雅史
Masafumi Ueno
雅史 上野
知洋 木村
Tomohiro Kimura
知洋 木村
晋吾 山下
Shingo Yamashita
晋吾 山下
雅基 田畑
Masaki Tabata
雅基 田畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014254477A priority Critical patent/JP2016115208A/ja
Priority to PCT/JP2015/077830 priority patent/WO2016098418A1/ja
Priority to US15/536,560 priority patent/US20170329511A1/en
Publication of JP2016115208A publication Critical patent/JP2016115208A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数の指による入力操作を行うときの操作性を向上させる。【解決手段】端末装置(10)の筐体の外縁部に対するユーザの第1指の接触位置を検出する検出部(1)と、検出部(1)が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する設定部(22)と、を備える。【選択図】図1

Description

本発明は、筐体の外縁部に対するユーザの入力を受け付ける入力装置、該入力装置を備えるウェアラブル端末、上記入力装置を備える携帯端末、上記入力装置の制御方法、および上記入力装置の動作を制御するための制御プログラムに関する。
スマートウォッチなどの小型のウェアラブル端末は、タッチパネルが重畳された表示画面が小さいため、従来からGUI(Graphical User Interface)の操作性の向上が大きな課題となっている。このようなGUIの操作性の向上に関する技術として特許文献1に開示されたGUIがある。このGUIでは、最初のメニューへのタッチ位置から放射状にサブメニューを表示することで操作性を向上させている。また、このGUIでは、メニューを選択する一連のストローク操作が最初のタッチ位置付近に戻るようにサブメニューが表示されるようになっている。
特開2009−37583号公報(2009年2月19日公開)
しかしながら、上記特許文献1に開示されたGUIは、基本的に1本の指での操作を想定したもので、表示画面の小さいウェアラブル端末上での使用を考えると、以下のような問題点がある。
例えば、上記特許文献1に開示されたGUIをウェアラブル端末に適用した場合、サブメニューの派生的な表示には、表示エリアに限界があるため、小さくメニュー表示をする必要があったり、背景の画像に被せる必要があったりと、視認性が著しく低下してしまう場合がある。また、サブメニューの派正方向が一定でないため、サブメニューが指で隠れて見えない場合が生じ、操作性が著しく低下してしまうという場合もある。
ところで、スマートウォッチなど小型のウェアラブル端末は、表示画面が小さいため、画面内のタッチ操作よりも、画面エッジまたは筺体側面でのタッチ操作の方がユーザにとって操作し易いと考えられる。しかしながら、このようなスマートウォッチを腕に付けた(巻いた)状態で画面エッジや側面でのタッチ操作を1本指で行う場合、端末の支えがないために端末が動いて(ずれて)しまいタッチ操作を行い難いという別の問題が生じる。
本発明者らは、以上の問題点について鋭意検討した結果、例えば、端末の1辺を親指で支え、人差し指(または、親指以外の他の指)でもう1方の辺をタッチするといったように複数の指で操作を行う方が端末の操作性が向上するとの知見を新たに見出した。
本発明は、以上の問題点に鑑みて為されたものであり、その目的は、複数の指による入力操作を行うときの操作性を向上させることができる入力装置などを提供することにある。
上記の課題を解決するために、本発明の一態様に係る情報端末は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出部と、上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部と、を備えることを特徴としている。
また、上記の課題を解決するために、本発明の一態様に係る情報端末の制御方法は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含むことを特徴としている。
本発明の一態様によれば、複数の指による入力操作を行うときの操作性を向上させることができるという効果を奏する。
本発明の実施形態に係る端末装置の構成を示すブロック図である。 (a)〜(d)は、それぞれ上記端末装置の操作方法のバリエーションを示す図である。 (a)および(b)は、それぞれ上記端末装置の構造のバリエーションを示す図である。 (a)〜(d)は、それぞれ上記端末装置の基本動作を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態1に係る操作例を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態2に係る操作例を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態2の変形例に係る操作例を説明するための図である。 (a)〜(c)は、それぞれ上記端末装置の実施形態2の別の変形例に係る操作例を説明するための図である。 (a)〜(c)は、それぞれ上記端末装置の実施形態3に係る操作例を説明するための図である。 (a)〜(c)は、それぞれ上記端末装置の実施形態3の変形例に係る操作例を説明するための図である。 (a)〜(c)は、それぞれ上記端末装置の実施形態3の別の変形例に係る操作例を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態3のさらに別の変形例に係る操作例を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態3のさらに別の変形例に係る操作例を説明するための図である。 (a)〜(d)は、それぞれ上記端末装置の実施形態4に係る操作例を説明するための図である。 上記端末装置に関し、表示メニューの表示項目のバリエーションを示す図である。 上記端末装置に関し、表示メニューの表示項目の別のバリエーションを示す図である。
本発明の実施形態について図1〜図16に基づいて説明すれば、次の通りである。以下、説明の便宜上、特定の実施形態にて説明した構成と同一の機能を有する構成については、同一の符号を付記し、その説明を省略する場合がある。
〔端末装置10の構成について〕
図1に基づき、本発明の実施形態に係る端末装置(入力装置,ウェアラブル端末,携帯端末)10の構成について説明する。図1は、端末装置10の構成を示すブロック図である。本実施形態の端末装置10は、後述するように、筐体(特に表示部3)の外縁部に対するユーザの入力を受け付ける機能を有している。なお、端末装置10は、例えば、時計のようなウェアラブル端末に限らず、スマートフォンなどのモバイル端末や、テーブルや壁に設置された端末などであっても良い。また、本発明を具現化する形態は、上述したウェアラブル端末、モバイル端末、および携帯端末などのような情報端末だけでなく、オーディオ機器の音量調節用のつまみのような制御装置であっても良い。また、端末装置10のサイズは、時計のような小型(画面サイズ:2インチ程度)に限定されず、片手の2本の指で筐体(または表示部3)の両端を同時にタッチできるサイズであれば良い(画面サイズ:5インチ程度)。図1に示すように、端末装置10は、検出部1、制御部2、表示部3および記憶部4を備える。
(検出部1)
検出部1は、本実施形態では、表示部3に重畳されたタッチパネル(検出部)11と、端末装置10の筐体に設けられた表示部3の外縁部における側面に設けられた側面タッチセンサ(検出部)12と、を備えている。
タッチパネル11は、筐体に設けられた表示部3が有する表示画面内への、対象物の接触または接近を検出するとともに、筐体(または表示部3)の外縁部への、第1指または第2指の接触または接近を検出するようになっている(検出ステップ)。これにより、筐体に設けられた表示部3に重畳され、かつ、表示部3が有する表示画面内への、対象物の接触または接近を検出するタッチパネル11によって、筐体(または表示部3)の外縁部への、第1指または第2指の接触または接近を検出することができる。それゆえ、筐体(または表示部3)の外縁部への接触または接近を検出するために、新たな検出部材を備える必要がないので、部品点数を抑えることができる。
一方、側面タッチセンサ12は、筐体の側面への、第1指または第2指の接触または接近を検出するようになっている。上記構成によれば、端末装置10の筐体の側面に配された側面タッチセンサ12によって、筐体の外縁部への、第1指または第2指の接触または接近を検知することができる。
なお、検出部1(タッチデバイス)の形態は、上記タッチパネル11および上記側面タッチセンサ12のような形態に限定されず、表示部3に含まれるディスプレイの端(角)、または、端末装置10の筺体の側面でのタッチが検知できれば、どのような形態であっても良い。
(制御部2)
制御部2は、端末装置10が備える各部を統括的に制御するものである〔例えば、CPU(Central Processing Unit)で構成される〕。図1に示すように、制御部2は、検出部コントローラ21、設定部(第1設定部,第2設定部)22、表示制御部23、処理特定部24および処理実行部25を備えている。
(検出部コントローラ21)
検出部コントローラ21は、接触位置特定部221を備えており、タッチパネル11による表示部3の表示画面内への対象物の接触または接近の検出結果に基づいて、表示画面内における対象物の接触位置(座標)を特定するようになっている。また、検出部コントローラ21の接触位置特定部221は、タッチパネル11による表示部3の外縁部への第1指または第2指の接触または接近の検出結果に基づいて、表示部3の外縁部における対象物の接触位置(座標)を特定するようになっている。
また、検出部コントローラ21は、側面タッチセンサ12による対象物の接触または接近の検出結果に基づいて、側面タッチセンサ12における対象物の接触位置を特定するようになっている。なお、接触位置特定部221は、特定した表示画面内における対象物の接触位置に係る情報、または、側面タッチセンサ12における対象物の接触位置に係る情報を、設定部22および/または処理特定部24に渡すようになっている。
(設定部22)
設定部22は、検出部1が検出した第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定するようになっている。また、設定部22は、検出部1が検出した上記第1指の接触位置に対向する位置を基準として、ユーザの第2指による入力を受け付ける第2入力領域を設定するようになっている(第2設定ステップ)。上記構成によれば、表示部3の外縁部に接触したユーザの第1指の接触位置の向かい側に、第2指による第2入力領域が設定される。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。また、上記構成によれば、第2指による入力に加え、第1指による入力を受け付けることが可能となる。それゆえ、複数の入力を受け付けることが可能となる。なお、設定部22は、設定した第1入力領域および第2入力領域に係る情報を検出部コントローラ21、表示制御部23および/または処理特定部24に渡すようになっている。
また、設定部22は、検出部1が上記第1指の接触位置を検知した後で上記第2指の接触位置を検出した場合に、上記第1入力領域を設定し、検出部1が上記第2指の接触位置を検知した後で上記第1指の接触位置を検出した場合に、上記第2入力領域を設定し、検出部1によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われることにより、設定部22による上記第1入力領域の設定、および上記第2入力領域の設定が交互に行われるようになっていても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力領域の設定、および第2入力領域の設定が交互に行われる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
(表示制御部23)
表示制御部23は、表示部3に所定の画像等〔例えば、後述するメインメニュー、サブメニューおよび各メニュー(メニュー項目)に含まれるアイコンなど〕を表示させる制御を行うものである。特に、本実施形態の表示制御部23は、表示部3の上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの第1指による入力を促すための第1入力用画像として、メインメニューを表示させる制御を行うようになっている。上記構成によれば、第1入力領域またはその近傍に、第1入力用画像が表示される。これにより、ユーザは、第1入力用画像(メインメニュー)を視認することができ、当該画像を視認しつつ、第1入力領域に対する入力を行うことが可能となる。
また、表示制御部23は、表示部3の上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの第2指による入力を促すための第2入力用画像として、サブメニューを表示させる制御を行うようになっている。上記構成によれば、メインメニューを参照した第1入力領域への第1指の入力を契機として、設定される第2入力領域またはその近傍にサブメニューが表示される。これにより、ユーザは、当該入力を契機として、サブメニューを視認することができ、当該サブメニューを視認しつつ、第2入力領域に対する入力を行うことが可能となる。また、以上により表示画面における各メニューの視認性、および端末装置10に対する操作性を向上させることができる。
また、上記入力まで、第2入力領域またはその近傍にサブメニューが表示されないため、ユーザは、当該入力前に第2入力領域の存在を認識することができない。すなわち、ユーザは、当該入力前に第2入力領域に対する入力を行うことができない。これにより、第1入力領域への入力時における、第2入力領域への入力の受け付けを防ぐことができる。それゆえ、複数箇所への入力受付によって誤作動が生じてしまうことを防ぐことができる。
また、表示制御部23は、検出部1が上記第1指の接触位置を検知した後で上記第2指の接触位置を検出した場合に、上記第1入力用画像を表示し、検出部1が上記第2指の接触位置を検知した後で上記第1指の接触位置を検出した場合に、上記第2入力用画像を表示し、検出部1によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示しても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力用画像および上記第2入力用画像のそれぞれが交互に表示される。これにより、ユーザは、当該入力を契機として、第1入力用画像および上記第2入力用画像のそれぞれを交互に視認することができ、当該画像を視認しつつ、第1入力領域および第2入力領域に対する入力を交互に行うことが可能となる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
また、表示制御部23は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示しても良い。上記構成によれば、第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じてより下位の階層のサブメニューのメニュー項目を選択することが可能になる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
(処理特定部24)
処理特定部24は、検出部コントローラ21の接触位置特定部221が特定した表示画面内における対象物の接触位置に係る情報、または、側面タッチセンサ12における対象物の接触位置に係る情報、ならびに、設定部22が設定した第1入力領域に対する入力および第2入力領域に対する入力に係る情報に基づいて、ユーザの入力操作に対応する実行すべき処理内容を特定し、特定した処理内容に係る情報を処理実行部25に渡すようになっている。
(処理実行部25)
処理実行部25は、処理特定部24から受け取った処理内容に係る情報に基づき、その処理内容に応じた処理を制御部2の対応するブロック(特に表示制御部23)に実行させる処理を行うようになっている。
(表示部3)
本実施形態の表示部3は、所定の表示画面として、例えば、液晶パネルを備え、画像等を表示させるものである。但し、表示部3に用いられる表示パネルは、液晶パネルに限定されるものではなく、有機EL(エレクトロルミネッセンス)パネル、無機ELパネル、またはプラズマパネル等であってもよい。
また、本実施形態の表示部3では、特に上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの第1指による入力を促すための第1入力用画像として、メインメニューが表示されるようになっている。また、表示部3では、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの第2指による入力を促すための第2入力用画像として、サブメニューが表示されるようになっている。
なお、本実施形態では、端末装置10が表示部3を備える構成について説明したが、本発明を具現化する形態はこれに限定されず、必ずしも表示部を備えていなくても良い。例えば、表示部3がない場合でも、筐体の外縁部のタッチ操作のみを受け付ける入力装置または制御装置などであっても良い。
(記憶部4)
記憶部4には、上述した制御部2の各部の動作に必要な各種情報が予め記録され、さらに、端末装置10の動作に伴って上記各部によって生成される各種情報が事後的に記録される。例えば、記憶部4に予め記録される情報の例としては、端末装置10を動作させるための基本ソフトであるOS(Operating System)や、各種アプリケーション(ソフトウェア)、および表示部3に表示されるGUI(Graphical User Interface)に係る情報などを挙示することができる。
また、端末装置10の動作に伴って上記各部によって生成される各種情報の例としては、検出部コントローラ21の接触位置特定部221によって特定される第1指または第2指の接触位置に係る情報や、設定部22によって設定される第1入力領域または第2入力領域に係る情報や、表示制御部23によって生成される第1入力用画像(メインメニュー画像)または第2入力画像(サブメニュー画像)に係る情報などを挙示することができる。
〔端末装置10の操作方法のバリエーションについて〕
次に、図2に基づき、端末装置10の操作方法のバリエーションについて説明する。ここでは、端末装置10の操作方法の4つのバリエーションについて説明するが、本発明を具現化した形態は、このような4つのバリエーションに限定されず、ディスプレイの端(角)、または、筺体の側面でのタッチが検知できる形態であれば、どのような形態であっても良い。
図2の(a)に示す形態は、第1入力領域および第2入力領域のいずれもがタッチパネル上の表示画面の周縁部に存在する形態を示している。この形態では、第1入力領域および第2入力領域のそれぞれの存在位置は、第1入力用画像(メインメニュー)および第2入力用画像(サブメニュー)の表示位置と一致している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示(メインメニュー)に対して接触位置P1に親指(第1指)を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示に対して接触位置P2に人差し指(第2指)を接触させることで実行される。
次に、図2の(b)および(c)に示す形態は、第1入力領域および第2入力領域のいずれか一方がタッチパネル上の表示画面の周縁部に存在し、他方が筐体の周縁部の側面に配された側面タッチセンサ12上に存在する形態を示している。なお、これらの図に示すように、側面タッチセンサ12は、端末装置10の筐体の周縁部の側面の全面に配されていることが好ましい。
図2の(b)に示す形態では、第1入力領域が側面タッチセンサ12上に存在し、第2入力領域が、タッチパネル上の表示画面の周縁部に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示の近傍における側面タッチセンサ12上の接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示に対して接触位置P2に人差し指を接触させることで実行される。
一方、図2の(c)に示す形態では、第1入力領域がタッチパネル上の表示画面の周縁部に存在し、第2入力領域が側面タッチセンサ12上に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示に対して接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示の近傍における側面タッチセンサ12上の接触位置P2に人差し指を接触させることで実行される。
次に、図2の(d)に示す形態は、第1入力領域および第2入力領域のいずれもが筐体の周縁部の側面に配された側面タッチセンサ12上に存在する形態を示している。この形態では、タッチパネル上の領域A1に表示された最初のメニュー表示の近傍における側面タッチセンサ12上の接触位置P1に親指を接触させると、タッチパネル上の領域A2に第2入力用画像(サブメニュー)が表示される。また、この形態では、サブメニューに対する入力は、タッチパネル上の領域A2に表示されたサブメニュー表示の近傍における側面タッチセンサ12上の接触位置P2に人差し指を接触させることで実行される。
〔端末装置10の構造のバリエーションについて〕
次に、図3に基づき、端末装置10の構造のバリエーションについて説明する。ここでは、時計などのウェアラブル情報端末の構成例を示す。図3の(a)は、表示部3の画面端のエッジでタッチ操作可能な構成例を示している。この形態では、狭額縁のタッチパネルシート(タッチパネル11)を用い、端末の保護ガラスが筺体より前面に突起した形状にすることで、画面端エッジ(保護ガラスの角)へのタッチにもタッチパネル11が反応するようになっている。また、この形態では、保護ガラスにレンズ効果を持たせることにより、端末の端まで表示映像を広げることができるようになっている。このような構成で、画面端に操作用の画像を表示した場合、その操作画面を直接タッチして操作することが可能となる。また、タッチパネル11は、センサーが筐体の端ぎりぎりまで配置されており、端末の端(エッジ/角)でもタッチ可能となっている。
次に、図3の(b)は、端末装置10の筺体の側面でタッチ操作可能な構成例を示している。この形態では、筺体の側面にタッチパネル11とは別の側面タッチセンサ12を付設したもので、側面タッチセンサ12は画面縦方向に1次元のものとし、側面のどの位置にタッチされたか判断することができるようになっている。なお、図3の(a)および(b)のそれぞれでは、筐体の断面形状が円形状および矩形形状の構成例を示したが、円形状の形態で筺体側面に側面タッチセンサを配した構成としても良いし、矩形形状の形態で、画面端エッジでタッチ可能な構成としても良い。また、図3の(b)に示す形態では、矩形の互いに対向する2辺のみに側面タッチセンサを付設した構成としているが、4辺すべてに側面タッチセンサを付設しても良い。
〔端末装置10の基本動作について〕
次に、図4に基づき、端末装置10の基本動作について説明する。図4の(a)は、端末装置10の筐体断面の形状が円形状である形態を示し、図4の(b)は、端末装置10の筐体断面の形状が矩形形状である形態を示す。端末装置10の基本動作では、図4の(a)および(b)に示すように、領域A1の接触位置P1において親指(第1指)による最初のタッチが行われると、その接触位置に対向する位置を基準として、領域A2に関連するサブメニュー(第2入力用画像)が表示される。より具体的には、例えば、音楽再生中の画面を表示した場合、最初のタッチ位置付近には、メインメニュー(第1入力用画像)として、「曲選択、再生メニュー、音量、他のアプリケーション選択」などを表示しておき、最初のタッチでいずれかを選択した場合、反対側のサブメニュー領域には、最初に選択したものに関連するサブメニューを表示するようにする。また、メインメニューにて「再生メニュー」を選択した場合は、サブメニューに「曲戻し、一時停止、曲送り」などのアイコン(ボタン;メニュー項目)を表示し、選択できるようにする。さらに、メインメニューにて「音量」を最初に選択した場合は、サブメニューに音量の目盛りを表示し、目盛りをなぞって調整できるよう(スライド操作可能)にする。
なお、メインメニューは、親指(第1指)が表示部3の外縁部に接触したことを契機として、当該接触位置の近傍に表示されてもよいし、親指が接触する前から、親指が接触すると予想される部分の近傍に表示されていてもよい。より具体的には、例えば、以下の(1)および(2)に示す形態が考えられる。
(1)アプリケーションを起動した直後は、メインメニューが最初(親指が接触する前)から表示部3の画面端に表示され、画面中央(メニュー以外の領域)をタッチすると画面端のメインメニューの表示は消える。以降は、表示部3の外縁部に接触したことを契機として、当該接触位置の近傍に表示される。
(2)アプリケーションを起動した直後は、メインメニューは表示されていない。表示部3の外縁部に接触したことを契機として、当該接触位置の近傍にメインメニューが表示される。
次に、図4の(c)および(d)には、最初のタッチ位置(接触位置P1)から画面中央を通る対辺の位置(領域A2の存在位置)付近にサブメニューを表示した形態を示している。なお、サブメニューの表示位置は、このように厳密に対辺の位置に限るものではない。
図4に示す形態は、時計などの小型の入力装置でのタッチ操作性と画面視認性を向上させるための、タッチ操作の方法とユーザーインターフェイスに関するものである。
小型の入力装置は、画面の表示領域も限られているため、操作用のメニューなどは画面の端に表示し、その画面に対して、画面端エッジや筺体の側面にタッチして操作することで操作性および視認性が向上する。例えば、画面中央に操作ボタンを複数表示すると、1つのボタンを小さく表示する必要があり、視認性も悪く、誤タッチの原因ともなる。また操作する指が妨げとなり画面も見辛くなる。
また、小型の入力装置のエッジ/側面での操作をする際、時計などが腕に巻かれた状態だと、1本の指でエッジ/側面をタッチする(押す)と筐体がずれて押し難い。そこで、1本の指で支えて、他のもう1本の指で操作する方が操作し易くなる。しかしながら、このように2本指で操作された場合、入力装置は2点のタッチが入ったと認識されて、どちらが操作としてタッチされた指か判断が困難であり、誤動作を生じる可能性がある。従って、2本指での誤操作を抑えつつ、操作性および視認性を向上させるための操作方法として、上述したように、最初のメインメニューを選択するタッチ(端末の支え)に関連するサブメニューを、最初のタッチとは反対の辺付近に表示して、他のもう1本の指で詳細な操作をし易くする。
〔実施形態1;端末装置10の操作例その1〕
次に、図5に基づき、端末装置10の実施形態1に係る操作例について説明する。図5の(a)および(b)は、端末装置10の画面端エッジ、または筺体側面での基本的なタッチ操作の例を示す。これらの基本タッチ操作の組み合わせにて、画面端に表示されたメニュー(メニュー項目)の選択/操作を行う。
図5の(a)および(b)は、表示されたメニューからいずれかの項目を選択/実行する際の操作例を示す。図5の(a)に示す領域A1に表示されたメインメニューにおけるメニュー選択の例では、接触位置P1において親指により「シングルタップ(タッチ→離す)」または「タッチ長押し」などでメニュー選択を行うと、図5の(b)に示すように、接触位置P1に対向する位置を基準とする領域A2に、関連するサブメニューが表示される。
図5の(b)に示す例では、領域A1に表示されたメインメニューで「設定」のメニューが選択され、この「設定」のメニューに関連するサブメニューが領域A2に表示されている様子を示している。
サブメニューでは、「シングルタップ(タッチ→離す)」または「タッチした指をスライド後に離した位置を選択」などでメニュー選択を行う。なお、メニューの項目が多数並ぶ(リスト等)場合は、メニューをスクロールする必要があり、この操作とシングルタップやタッチを離して選択する操作とを区別するために、「ダブルタップ」、「タッチして選択したものを画面中央方向にスワイプイン」、または、「親指のタッチを離すことで、その時に人差し指でタッチされていた項目を選択」などの操作を行っても良い。
次に、図5の(c)および(d)は、それぞれ、表示されたサブメニューの操作メニューについて、エッジをスライドする(なぞる)操作(目盛りのカーソルをタッチ後スライドして調整)を行う形態を示す。
図5の(c)に示す例では、サブメニューにおいて目盛りをなぞって移動させる操作(スライド操作)を行うことによって音量調節を行う形態を示している。この形態では、領域A2に対する最初のタッチ位置からスライドした方向および移動量に応じた移動が行われる。なお、同図に示す例では、音量調節に係る形態を示したが、このような形態に限定されず、サブメニューにおいて目盛りをなぞって移動させる操作(スライド操作)を行うことによって画像の拡大/縮小(拡大率の調節)などを行っても良い。
次に、図5の(d)に示す例では、領域A2における最初のタッチ位置から、動かした方向に順次送りを行う形態(例えば、画面スクロール、ページめくり/戻し、曲送り/戻し、カーソル移動、画像の拡大/縮小など)を示している。例えば、画面スクロール(スクロール操作)は、サブメニューに対する最初のタッチ位置より、時計回りの方向にスライドさせると紙面に対して下方向にスクロールするようにしても良く、またその指の移動量に応じて、スクロールする速度を変えても良い。
(効果について)
上記形態のように、時計などの小型の入力装置において、最初のタッチ選択位置とは、反対側の辺に関連するサブメニューを表示することにより、筐体を1本の指で支えながら、他のもう1本の指で詳細なタッチ操作をすることができ操作性を向上させることができる。また、表示内容に限りのある小型の入力装置であっても、画面の端に操作メニューを表示することにより、画面の視認性を向上させることができる。
〔実施形態2;端末装置10の操作例その2〕
次に、図6〜図8に基づき、端末装置10の実施形態2に係る操作例について説明する。図6は、ミュージックプレーヤーのアプリケーションの操作例を示す。図6の(a)は、メインメニュー表示時の状態を示す。同図に示す状態は、最初にタッチした辺にメインメニューが表示されたときの状態を示している。同図に示す形態では、メインメニューとして、例えば、「再生メニュー」、「曲選択」および「音量」に係るアイコンが表示部3の紙面に対して左下側の近傍に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺に表示されるようになっている。
次に、図6の(b)は、「再生メニュー」の表示時または操作時の状態を示す。「再生メニュー」の場合は、一時停止、曲送り/戻しに係るアイコン(ボタン:メニュー項目)が表示される。曲送り/戻しの操作は、最初にタッチした位置から矢印の方向に指をスライドさせると、順次(連続的に)曲送り/戻しを行えるようにする。指をスライドさせる移動量に応じて、曲送り/戻しの速度を上げても良い。
次に、図6の(c)は、曲リストの表示時または操作時の状態を示す。「曲選択」の場合は、曲のリスト(メニュー項目)が表示される。タッチにより曲を選択する。タッチの後、指をスライドさせて離した位置の曲を選択するようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
次に、図6の(d)は、音量調整バーの表示時または操作時の状態を示す。メインメニューにて「音量」のアイコンを選択した場合は、領域A2に音量調整用の目盛りが表示される。現在の音量位置のカーソルをスライド操作して調整することができる。
次に、図7は、ミュージックプレーヤーのアプリケーションの別の操作例を示す。図7の(a)は、メインメニュー表示時の状態を示す。また、図7の(b)は、「再生メニュー」の表示時または操作時の状態を示す。また、図7の(c)は、曲リストの表示時または操作時の状態を示す。また、図7の(d)は、音量調整バーの表示時または操作時の状態を示す。
図6に示した形態では、画面左下側にメインメニューが表示され、それを親指で操作する例を示したが、図7に示す形態のように、画面右上側にメインメニューを表示して、人差し指(第1指)でメインメニューを操作し、親指(第2指)でサブメニューを操作するようにしても良い。この場合は、人差し指が支え(支点)となり、親指でエッジをなぞるような操作となる。なお、メインメニューは、最初に表示されていない場合は、最初にエッジをタッチした位置付近(辺)に表示するようにすれば良く、画面の上部や下部に予めメインメニューを表示するようにしても良い。
次に、図8は、ミュージックプレーヤーのアプリケーションのさらに別の操作例を示す。同図に示す形態は、曲選択の操作例であり、「ARTIST」、「ALBUM」、または「Song Name」等、階層が多段となる場合の表示方法を示す。図8の(a)は、アーティストリストの表示時または操作時の状態を示す。また、図8の(b)は、アルバムリストの表示時または操作時の状態を示す。また、図8の(c)は、曲名リストの表示時または操作時の状態を示す。
メインメニューから曲選択のアイコンを例えば、領域A1にて親指(第1指)でタッチ(接触位置P1)すると、反対側の画面端(領域A2)にアーティストのリストが表示され、他の指(第2指)で選択可能となる(接触位置P2)。領域A2にてアーティストのリストの中からいずれかが選択(接触位置P2)されると、選択されたアーティストのアルバムリストが、更に反対側の画面端(領域A3)に表示され、親指と他の指とで交互に選択できるようになる(接触位置P3)。領域A3にてアルバムリストの中からいずれかが選択(接触位置P3)されると、選択されたアルバムの曲名が、更に反対側の画面端(領域A4)に表示され、他の指と親指とで交互に選択できるようになる(接触位置P4)。上記のように他の指と親指とで交互に選択することにより、階層構造になっているメニューまたはサブメニューを順により下位の階層に向けて各メニュー項目を選択することができる。
なお、各リストの下段の「↓」の領域をタッチすることにより、次のページに送るか、または順次リストが下方向に送られるようにしても良い。
また、元に戻る際は、「ARTIST」、「ALBUM」または「Song Name」と表示された領域をタッチすることにより、それぞれのリスト表示に戻るようにしても良い。
(効果について)
上記形態のように、画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(再生中の曲情報、曲リストなど)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーが並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態3;端末装置10の操作例その3〕
次に、図9〜図13に基づき、端末装置10の実施形態3に係る操作例について説明する。図9は、メールなど文字入力(日本語文字入力)を行うアプリケーションの操作例を示す。図9の(a)は、初期表示時(母音キー表示)の状態を示す。また、図9の(b)は、文字入力の表示時または操作時の状態を示す。また、図9の(c)は、宛先リストの表示時または操作時の状態を示す。
図9の(a)および(b)に示す形態は、文字入力の操作例であり、最初にタッチした位置(辺;領域A1の接触位置P1)に、「母音」を表示し、タッチにより選択された文字、例えば「な」が選択されると、反対側の辺(領域A2)に「な」行の文字候補(子音候補:メニュー項目)を表示する。「母音」の表示位置は、左辺に限らず、最初にタップされた辺に表示する。また、「母音」の文字の選択は、タップ(押して→離す)でも良いし、指タッチさせたままスライドし、指が触れている文字の子音候補を都度表示させても良いし、スライドさせて指が離れた位置の子音候補を表示しても良い。また、子音候補の選択も同様に、タップでの選択でも良いし、指をスライドさせて指が離れた位置の文字を選択しても良い。
図9の(c)に示す形態は、宛先入力の操作例であり、宛先欄をタップすると、一方の辺(領域A1)に「母音」を表示し、タッチに選択された文字に関連するアドレスリストを反対側の辺(領域A2)に表示する。また、「母音」の表示は、宛先欄のタップ操作をトリガーとして表示されることになるが、表示位置は左辺に限らず、過去の操作履歴から、普段よく最初にタッチされる辺に表示しても良い。一度左辺に表示された後に、右辺にタップが入ったときは、表示位置を右辺に変更しても良い。なお、表示される候補の選択方法は、図9の(a)および(b)に示す形態における選択方法と同様である。
次に、図10は、メールなど文字入力(日本語入力)を行うアプリケーションの操作例にて、文字入力の流れの一例を示す。図10の(a)は、1文字目の入力時の状態を示す。また、図10の(b)は、2文字目の入力時の状態を示す。図10の(c)は、変換候補の表示時の状態を示す。
図10の(a)および(b)に示す形態は、文字入力の操作例であり、親指で母音候補をタッチにて選択(押し続けても良いし、離しても良い)し、他の指で子音候補をタッチして選択(入力)する操作例を示す。この操作では、シングルタップ(タッチ→離す)で候補選択しても良いし、指をスライドさせて離した位置の候補を選択するようにしても良い。また、ダブルタップで候補選択するようにしても良いし、画面中央方向にスワイプインして候補選択するようにしても良い。また、その他、他の指でタッチしたまま親指を離す等で候補選択しても良い。
次に、図10の(c)に示すように、入力された文字に基づき、変換候補(メニュー項目)を表示しても良い。変換候補を表示しても、次の文字入力のために親指で母音を選択した場合は、変換候補を消し、子音候補を表示するようにしても良い。
また、変換候補のように、候補数が多い場合には、リストをスクロール/ページ送りさせる可能性があり、「シングルタップ」や「指を離す」操作と同一の操作となる。従って、「ダブルタップ」、「画面内へのスワイプイン」、または「親指のタッチを離す」にて「入力」させることが好ましい。または、「シングルタップ」あるいは「指を離す」で仮選択の状態にし、再度右端でスクロール操作/次頁がタッチされた場合は、仮選択を解除し、後の操作を優先させても良い。また、仮選択の状態で、親指側での次の文字入力を行うための操作が行われた場合は、仮選択されたものを「入力」としても良い。
次に、図11は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションの操作例を示す。図11の(a)は、1文字目の入力時の状態を示す。また、図11の(b)は、2文字目の入力時の状態を示す。図11の(c)は、変換候補の表示時の状態を示す。
図11の(a)および(b)に示す形態は、文字入力の操作例であり、親指側(領域A1)にアルファベット3文字〜4文字の候補を表示し、親指(第1指)にてタッチ(接触位置P1)された候補に対応する1文字毎の候補を他の指側(第2指側)に表示する(領域A2)。他の指側での選択(入力)方法は図10に示す形態における選択方法と同様であり、シングルタップ(タッチ→離す)で候補選択しても良いし、指をスライドさせて離した位置の候補を選択するようにしても良い。また、ダブルタップで候補選択するようにしても良いし、画面中央方向にスワイプインして候補選択するようにしても良い。また、その他、他の指でタッチしたまま親指を離す等で候補選択しても良い。
次に、図11の(c)に示すように、単語単位の入力候補(メニュー項目)を表示しても良い。表示方法や選択(入力)方法は、図10に示した形態における表示方法や選択方法と同様である。入力候補を選択せずに、続けて文字を入力する場合は、親指側で次の文字候補にタッチすることで入力候補の表示を消し、右端には親指のタッチに対応する子音の候補を表示するようにしても良い。
次に、図12は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションの別の操作例を示す。図12の(a)および(b)は、表示部3の両端に候補を表示する操作例を示す。また、図12の(c)および(d)は、表示部3の両端にすべての文字キーを配置する操作例を示す。
図12の(a)および(b)に示す形態では、親指側(領域A1)、他の指側(領域A2)の両方にアルファベット3文字〜4文字の候補を表示し、最初にタッチされた候補に対応する1文字毎の候補を反対側(領域A2)に表示する。なお、本実施形態では、最初に表示されるアルファベット3文字〜4文字は、QWERTYキーボードの配列に合わせたものにしているが、アルファベット順に並べたものでも良い。
次に、図12の(c)および(d)に示す形態は、すべてのアルファベットを両端に並べた例を示す。このように配置することで、1回のタッチで入力が可能となる。なお、文字入力中に、単語の入力候補を反対側の端に表示しても良い。この場合、単語の入力候補を選択せずに次の文字を入力する場合は、入力候補の上段の「×」をタッチすることで入力候補の表示を消し、元のアルファベットのキーを表示しても良い。また、本実施形態では、アルファベットの配置はQWERTYキーボードに合わせたものにしているが、アルファベット順に並べたものでも良い。
次に、図13は、メールなど英語での文字入力(英語文字入力)を行うアプリケーションのさらに別の操作例を示す。ここでは、英語での文字入力で片端にすべてのアルファベットを配置し、次に入力される文字や、単語を予測して、反対側の端に候補(メニュー項目)を表示する例を示す。
図13の(a)および(b)は、片端(領域A1)にアルファベットをすべて配置し、片側(領域A1)にて選択した文字に応じて、次の入力文字を予測して候補を反対側(領域A2)に表示する例を示す。
親指側(第1指側;領域A1)で1文字目が入力されると、次に続く可能性の高い文字に絞り、反対側(領域A2)に表示し、他の指(第2指)での選択を可能とする。候補に無い場合には親指側で再度入力を行う。更に続く入力候補は、他の指側に表示しても良いし、親指側と他の指側とで交互に表示しても良い。
図13の(c)および(d)は、片側(領域A1)にて選択した文字に応じて、入力単語を予測して候補を反対側(領域A2)に表示する例を示す。
親指側(第1指側;領域A1)で1文字目が入力されると、入力される可能性が高い単語を、反対側(領域A2)に表示し、他の指(第2指)での選択を可能とする。候補に無い場合には親指側で再度入力を行う。
図13の(a)および(b)に示す形態と、図13の(c)および(d)に示す形態と、を組み合わせて、入力文字数が少ない場合は、前者の形態の文字候補を表示し、ある程度単語が予測できるようになれば、単語を表示するように切り替えても良い。
また、入力文字や単語の予測方法は、一般的に良く使われる単語の辞書データを予め用意し、それを基に候補を抽出する方法や、ユーザの過去の入力履歴から候補を提示する方法が考えられる。
(効果について)
上記形態によれば、表示部3の画面端に文字入力キーを表示し、エッジで操作させることにより、画面の表示内容(本文)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔実施形態4;端末装置10の操作例その4〕
次に、図14に基づき、端末装置10の実施形態4に係る操作例について説明する。図14は、ウェブブラウザのアプリケーションの操作例を示す。図14の(a)は、初期表示時(メニュー表示)の状態を示す。同図に示すように、初期表示では、メインメニューとして、例えば、「ページ操作」、「拡大/縮小操作」、「ブックマーク」、および「タブ選択」などのアイコン(メニュー項目)が左端(領域A1)に表示されており、それぞれタッチすると、タッチ項目に関連するサブメニューが反対側の辺(領域A2)に表示される。
図14の(b)は、ページスクロール操作の表示例または操作例を示す。「ページ操作」の場合は、ページスクロール用の操作バーが表示され、スクロールの操作は、領域A2にて最初にタッチした位置から矢印の方向に指をスライドさせると、順次(連続的に)ページを上下方向にスクロールが行えるようにしても良い。指をスライドさせる移動量に応じて、スクロール速度を上げても良い。
図14の(c)は、拡大/縮小操作の表示例または操作例を示す。「拡大/縮小」の場合は、拡大/縮小用の操作バーが表示され、目盛り上のカーソルをタッチ後スライドさせることにより、拡大率の調整が行えるようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
図14の(d)は、ブックマークの表示例または操作例を示す。「ブックマーク」の場合は、ブックマークリストが表示され、タッチ(タップ)により選択を行えるようにしても良い。タッチの後、指をスライドさせて離した位置のリストを選択するようにしても良い。指をスライドさせてリスト外に移動した場合は、次のページに移行しても良い。
(効果について)
表示部3の画面端に操作メニューを表示し、エッジで操作させることにより、画面の表示内容(ウェブページ)が、キー表示や指によって隠れることがなく、視認性を確保することができる。また、画面エッジでキー選択させることにより、画面内に小さい入力キーを並べられた場合に比べ、誤入力(ボタンの誤操作)も低減でき、操作性を向上させることができる。
〔各メニューの表示項目のバリエーション〕
次に、図15および図16に基づき、メインメニューおよびサブメニューの各メニューの表示項目(メニュー項目)のバリエーションについて説明する。上述した端末装置10が利用可能なアプリケーションは、上述した実施形態に記載したものに限定されず、図15および図16に示すような様々なアプリケーションに利用できる。これらの図に示す形態では、各アプリケーションの起動時に、最初にタッチされた辺にメインメニューを表示し、メインメニューの項目のいずれかが選択されたら、反対の辺にサブメニュー1を表示する。さらにサブメニュー1にていずれかの項目が選択されれば、サブメニュー1とは反対の辺(同じ辺でも良い)にサブメニュー2を表示する。
〔ソフトウェアによる実現例〕
端末装置10の制御ブロック(特に検出部コントローラ21、設定部22および表示制御部23)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、端末装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る入力装置(端末装置10)は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出部(1)と、上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部(設定部22)と、を備える構成である。
上記構成によれば、筐体の外縁部に接触したユーザの第1指の接触位置の向かい側に、第2指による第2入力領域が設定される。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様2に係る入力装置は、上記態様1において、上記検出部が検出した上記第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定する第1設定部(設定部22)をさらに備えていても良い。上記構成によれば、第2指による入力に加え、第1指による入力を受け付けることが可能となる。それゆえ、複数の入力を受け付けることが可能となる。
本発明の態様3に係る入力装置は、上記態様2において、上記第1設定部による上記第1入力領域の設定、および上記第2設定部による上記第2入力領域の設定が交互に行われるようになっていても良い。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様4に係る入力装置は、上記態様2または3において、上記第1入力領域に対して上記第1指によるタッチ操作を行ったままの状態で、上記第2入力領域に対して上記第2指によるスライド操作またはスクロール操作を行うことが可能となっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様5に係る入力装置は、上記態様2において、上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部(23)をさらに備えていても良い。上記構成によれば、第1入力領域またはその近傍に、第1入力用画像が表示される。これにより、ユーザは、第1入力用画像を視認することができ、当該画像を視認しつつ、第1入力領域に対する入力を行うことが可能となる。
本発明の態様6に係る入力装置は、上記態様5において、上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させても良い。
上記構成によれば、第1入力領域に対する入力を契機として、第2入力領域またはその近傍に、第2入力用画像が表示される。これにより、ユーザは、当該入力を契機として、第2入力用画像を視認することができ、当該画像を視認しつつ、第2入力領域に対する入力を行うことが可能となる。
また、上記入力まで、第2入力領域またはその近傍に第2入力用画像が表示されないため、ユーザは、当該入力前に第2入力領域の存在を認識することができない。すなわち、ユーザは、当該入力前に第2入力領域に対する入力を行うことができない。これにより、第1入力領域への入力時における、第2入力領域への入力の受け付けを防ぐことができる。それゆえ、複数箇所への入力受付によって誤作動が生じてしまうことを防ぐことができる。
本発明の態様7に係る入力装置は、上記態様6において、上記第2入力用画像は複数のメニュー項目を含んでおり、上記第2入力領域に対して上記第2指によるスライド操作を行っている状態から上記第2指による接触を解除した場合に、上記第2指による接触が解除された位置に対応付けられているメニュー項目が選択されるようになっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様8に係る入力装置は、上記態様6において、上記第2入力用画像は複数のメニュー項目を含んでおり、上記第1入力領域に対して上記第1指によるタッチ操作が行われ、かつ上記第2入力領域に対して上記第2指によるタッチ操作が行われている状態から、上記第1入力領域に対する上記第1指による接触が解除された場合に、上記第2指によるタッチ操作の位置に対応付けられているメニュー項目が選択されるようになっていても良い。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様9に係る入力装置は、上記態様2において、上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部を備え、上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させ、上記検出部によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示しても良い。上記構成によれば、第1指による入力と第2指による入力とを交互に行うことにより、第1入力用画像および上記第2入力用画像のそれぞれが交互に表示される。これにより、ユーザは、当該入力を契機として、第1入力用画像および上記第2入力用画像のそれぞれを交互に視認することができ、当該画像を視認しつつ、第1入力領域および第2入力領域に対する入力を交互に行うことが可能となる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様10に係る入力装置は、上記態様6において、上記第2入力用画像は、上記第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像が示すメインメニューに対応するサブメニューを示しても良い。上記構成によれば、メインメニューを参照した第1指による第1入力領域への入力を契機として、第2入力領域およびその近傍にサブメニューが表示される。これにより、各メニューの視認性および入力装置の操作性を向上させることができる。
本発明の態様11に係る入力装置は、上記態様9において、上記表示制御部は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示しても良い。上記構成によれば、第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じてより下位の階層のサブメニューのメニュー項目を選択することが可能になる。これにより、複数の指による入力操作を行うときの操作性を向上させることができる。
本発明の態様12に係る入力装置は、上記態様1〜11のいずれかにおいて、上記検出部は、上記筐体が備える表示部に重畳されており、上記表示部が有する表示画面内への、対象物の接触または接近を検出するとともに、上記外縁部への、上記第1指または上記第2指の接触または接近を検出しても良い。上記構成によれば、筐体が備える表示部に重畳され、かつ、表示部が有する表示画面内への、対象物の接触または接近を検出する検出部によって、外縁部への、第1指または第2指の接触または接近を検出することができる。それゆえ、外縁部への接触または接近を検出するために、新たな検出部材を備える必要がないので、部品点数を抑えることができる。
本発明の態様13に係る入力装置は、上記態様1〜11のいずれかにおいて、上記検出部は、上記筐体の側面に配されていても良い。上記構成によれば、筐体の側面に配された検出部によって、外縁部への、第1指または第2指の接触または接近を検知することができる。
本発明の態様14に係るウェアラブル端末は、上記態様1〜13のいずれかの入力装置を備えていることが好ましい。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができるウェアラブル端末を実現できる。
本発明の態様15に係る携帯端末は、上記態様1〜13のいずれかの入力装置を備えていることが好ましい。上記構成によれば、複数の指による入力操作を行うときの操作性を向上させることができる携帯端末を実現できる。
本発明の態様16に係る入力装置の制御方法は、入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含む方法である。上記方法によれば、上記態様1と同様の効果を奏する。
本発明の態様17に係る入力装置の制御プログラムは、上記態様1の入力装置の動作を制御するための制御プログラムであって、上記入力装置における上記第2設定部としてコンピュータを動作させるための制御プログラムであっても良い。
〔付記事項〕
本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、筐体の外縁部に対するユーザの入力を受け付ける入力装置、該入力装置を備えるウェアラブル端末、上記入力装置を備える携帯端末などに利用することができる。
1 検出部
3 表示部
10 端末装置(入力装置,ウェアラブル端末,携帯端末)
11 タッチパネル(検出部)
12 側面タッチセンサ(検出部)
22 設定部(第1設定部,第2設定部)
23 表示制御部
P1〜P4 接触位置

Claims (17)

  1. 入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置であって、
    上記外縁部に対するユーザの第1指の接触位置を検出する検出部と、
    上記検出部が検出した上記ユーザの上記第1指の接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定部と、を備えることを特徴とする入力装置。
  2. 上記検出部が検出した上記第1指の接触位置またはその近傍に、上記第1指による入力を受け付ける第1入力領域を設定する第1設定部をさらに備えることを特徴とする請求項1に記載の入力装置。
  3. 上記第1設定部による上記第1入力領域の設定、および上記第2設定部による上記第2入力領域の設定が交互に行われることを特徴とする請求項2に記載の入力装置。
  4. 上記第1入力領域に対して上記第1指によるタッチ操作を行ったままの状態で、上記第2入力領域に対して上記第2指によるスライド操作またはスクロール操作を行うことが可能となっていることを特徴とする請求項2または3に記載の入力装置。
  5. 上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部をさらに備えることを特徴とする請求項2に記載の入力装置。
  6. 上記表示制御部は、上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させることを特徴とする請求項5に記載の入力装置。
  7. 上記第2入力用画像は複数のメニュー項目を含んでおり、
    上記第2入力領域に対して上記第2指によるスライド操作を行っている状態から上記第2指による接触を解除した場合に、上記第2指による接触が解除された位置に対応付けられているメニュー項目が選択されることを特徴とする請求項6に記載の入力装置。
  8. 上記第2入力用画像は複数のメニュー項目を含んでおり、
    上記第1入力領域に対して上記第1指によるタッチ操作が行われ、かつ上記第2入力領域に対して上記第2指によるタッチ操作が行われている状態から、上記第1入力領域に対する上記第1指による接触が解除された場合に、上記第2指によるタッチ操作の位置に対応付けられているメニュー項目が選択されることを特徴とする請求項6に記載の入力装置。
  9. 上記第1入力領域またはその近傍に、当該第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像を表示させる表示制御部を備え、
    上記表示制御部は、
    上記第1入力領域に対して入力がなされたことを契機として、上記第2入力領域またはその近傍に、当該第2入力領域に対するユーザの上記第2指による入力を促すための第2入力用画像を表示させ、
    上記検出部によって上記第1指の接触位置の検出と上記第2指の接触位置の検出とが交互に行われた場合に、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示することを特徴とする請求項2に記載の入力装置。
  10. 上記第2入力用画像は、上記第1入力領域に対するユーザの上記第1指による入力を促すための第1入力用画像が示すメインメニューに対応するサブメニューを示すことを特徴とする請求項6に記載の入力装置。
  11. 上記表示制御部は、上記第1入力用画像および上記第2入力用画像のそれぞれを交互に表示する順序に応じて、階層的により下位の階層のサブメニューを表示することを特徴とする請求項9に記載の入力装置。
  12. 上記検出部は、
    上記筐体が備える表示部に重畳されており、
    上記表示部が有する表示画面内への、対象物の接触または接近を検出するとともに、上記外縁部への、上記第1指または上記第2指の接触または接近を検出することを特徴とする請求項1から11までのいずれか1項に記載の入力装置。
  13. 上記検出部は、上記筐体の側面に配されていることを特徴とする請求項1から11までのいずれか1項に記載の入力装置。
  14. 請求項1から13までのいずれか1項に記載の入力装置を備えることを特徴とするウェアラブル端末。
  15. 請求項1から13までのいずれか1項に記載の入力装置を備えることを特徴とする携帯端末。
  16. 入力装置の筐体の外縁部に対するユーザの入力を受け付ける入力装置の制御方法であって、
    上記外縁部に対するユーザの第1指の接触位置を検出する検出ステップと、
    上記検出ステップにて検出された上記第1指の上記接触位置に対向する位置を基準として、上記ユーザの第2指による入力を受け付ける第2入力領域を設定する第2設定ステップと、を含むことを特徴とする入力装置の制御方法。
  17. 請求項1に記載の入力装置の動作を制御するための制御プログラムであって、上記入力装置における上記第2設定部としてコンピュータを動作させるための制御プログラム。
JP2014254477A 2014-12-16 2014-12-16 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム Pending JP2016115208A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014254477A JP2016115208A (ja) 2014-12-16 2014-12-16 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
PCT/JP2015/077830 WO2016098418A1 (ja) 2014-12-16 2015-09-30 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
US15/536,560 US20170329511A1 (en) 2014-12-16 2015-09-30 Input device, wearable terminal, mobile terminal, method of controlling input device, and control program for controlling operation of input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014254477A JP2016115208A (ja) 2014-12-16 2014-12-16 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム

Publications (1)

Publication Number Publication Date
JP2016115208A true JP2016115208A (ja) 2016-06-23

Family

ID=56126320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014254477A Pending JP2016115208A (ja) 2014-12-16 2014-12-16 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム

Country Status (3)

Country Link
US (1) US20170329511A1 (ja)
JP (1) JP2016115208A (ja)
WO (1) WO2016098418A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013979A (ja) * 2016-07-21 2018-01-25 京セラ株式会社 電子機器、制御方法、及びプログラム
WO2018173978A1 (ja) * 2017-03-23 2018-09-27 シャープ株式会社 電子機器
WO2018173976A1 (ja) * 2017-03-23 2018-09-27 シャープ株式会社 電子機器
JP2020536307A (ja) * 2017-09-30 2020-12-10 華為技術有限公司Huawei Technologies Co.,Ltd. タスク切り替え方法および端末
JP2021528713A (ja) * 2018-04-12 2021-10-21 ライン プラス コーポレーションLINE Plus Corporation メディアプレーヤを制御する方法およびシステム
JPWO2020195637A1 (ja) * 2019-03-27 2021-12-23 富士フイルム株式会社 操作装置及び表示制御プログラム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD812076S1 (en) 2015-06-14 2018-03-06 Google Llc Display screen with graphical user interface for monitoring remote video camera
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10133443B2 (en) 2015-06-14 2018-11-20 Google Llc Systems and methods for smart home automation using a multifunction status and entry point icon
USD803241S1 (en) 2015-06-14 2017-11-21 Google Inc. Display screen with animated graphical user interface for an alert screen
US10365811B2 (en) * 2015-09-15 2019-07-30 Verizon Patent And Licensing Inc. Home screen for wearable devices
CN105892872A (zh) * 2016-04-06 2016-08-24 惠州Tcl移动通信有限公司 一种基于触摸屏的电子书自动滚屏控制方法及移动终端
US10263802B2 (en) 2016-07-12 2019-04-16 Google Llc Methods and devices for establishing connections with remote cameras
USD882583S1 (en) * 2016-07-12 2020-04-28 Google Llc Display screen with graphical user interface
EP3475802A4 (en) * 2016-10-05 2019-09-18 Samsung Electronics Co., Ltd. PROCESS FOR PROVIDING INTERACTION IN A WEARABLE DEVICE WITH A CROPPED PERIPHERAL
US11238290B2 (en) 2016-10-26 2022-02-01 Google Llc Timeline-video relationship processing for alert events
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
USD843398S1 (en) 2016-10-26 2019-03-19 Google Llc Display screen with graphical user interface for a timeline-video relationship presentation for alert events
CN107153503A (zh) * 2017-01-04 2017-09-12 奇酷互联网络科技(深圳)有限公司 一种智能手表控制方法、智能手表控制装置及智能手表
CN106773631B (zh) * 2017-01-12 2023-03-28 余喜云 一种可防金属指针误触亮屏的智能手表
US10705730B2 (en) * 2017-01-24 2020-07-07 International Business Machines Corporation Display of a virtual keyboard on a supplemental physical display plane surrounding a primary physical display plane on a wearable mobile device
US10819921B2 (en) 2017-05-25 2020-10-27 Google Llc Camera assembly having a single-piece cover element
US10683962B2 (en) 2017-05-25 2020-06-16 Google Llc Thermal management for a compact electronic device
US10972685B2 (en) 2017-05-25 2021-04-06 Google Llc Video camera assembly having an IR reflector
WO2019232712A1 (zh) * 2018-06-06 2019-12-12 高驰运动科技(深圳)有限公司 一种智能手表交互方法、智能手表以及光电旋钮组件
USD928836S1 (en) * 2018-12-27 2021-08-24 General Electric Company Display screen with animated icon
US11599238B2 (en) * 2019-04-02 2023-03-07 Vyaire Medical, Inc. System and method for generating a virtual reality interface for displaying patient health data
KR20210002163A (ko) * 2019-06-26 2021-01-07 삼성디스플레이 주식회사 전자 패널 및 이를 포함하는 전자 장치
EP3982240A4 (en) * 2019-08-05 2022-07-20 Samsung Electronics Co., Ltd. CONTROL METHOD BASED ON A TOUCH INPUT AND ASSOCIATED ELECTRONIC DEVICE
CN113641278A (zh) * 2021-08-11 2021-11-12 维沃移动通信有限公司 控制方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337649A (ja) * 2002-05-20 2003-11-28 Sony Corp 入力方法及び入力装置
US20060092129A1 (en) * 2004-10-20 2006-05-04 Visteon Global Technologies, Inc. Human machine interface for vehicle
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2009099067A (ja) * 2007-10-18 2009-05-07 Sharp Corp 携帯型電子機器、および携帯型電子機器の操作制御方法
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
JP2014112222A (ja) * 2012-11-20 2014-06-19 Samsung Electronics Co Ltd 着用式電子デバイス上への光学センサーの配置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337649A (ja) * 2002-05-20 2003-11-28 Sony Corp 入力方法及び入力装置
US20060092129A1 (en) * 2004-10-20 2006-05-04 Visteon Global Technologies, Inc. Human machine interface for vehicle
JP2006148536A (ja) * 2004-11-19 2006-06-08 Sony Corp 携帯端末、文字入力方法、並びにプログラム
JP2009099067A (ja) * 2007-10-18 2009-05-07 Sharp Corp 携帯型電子機器、および携帯型電子機器の操作制御方法
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
JP2014112222A (ja) * 2012-11-20 2014-06-19 Samsung Electronics Co Ltd 着用式電子デバイス上への光学センサーの配置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013979A (ja) * 2016-07-21 2018-01-25 京セラ株式会社 電子機器、制御方法、及びプログラム
WO2018173978A1 (ja) * 2017-03-23 2018-09-27 シャープ株式会社 電子機器
WO2018173976A1 (ja) * 2017-03-23 2018-09-27 シャープ株式会社 電子機器
US10817073B2 (en) 2017-03-23 2020-10-27 Sharp Kabushiki Kaisha Electronic device
US10824289B2 (en) 2017-03-23 2020-11-03 Sharp Kabushiki Kaisha Electronic device
JP2020536307A (ja) * 2017-09-30 2020-12-10 華為技術有限公司Huawei Technologies Co.,Ltd. タスク切り替え方法および端末
JP2021528713A (ja) * 2018-04-12 2021-10-21 ライン プラス コーポレーションLINE Plus Corporation メディアプレーヤを制御する方法およびシステム
JP7183295B2 (ja) 2018-04-12 2022-12-05 ライン プラス コーポレーション メディアプレーヤを制御する方法およびシステム
JP7183295B6 (ja) 2018-04-12 2022-12-20 ライン プラス コーポレーション メディアプレーヤを制御する方法およびシステム
JPWO2020195637A1 (ja) * 2019-03-27 2021-12-23 富士フイルム株式会社 操作装置及び表示制御プログラム
US11671538B2 (en) 2019-03-27 2023-06-06 Fujifilm Corporation Operation device and display control program for displaying an image and a plurality of buttons on a display
JP7381564B2 (ja) 2019-03-27 2023-11-15 富士フイルム株式会社 操作装置及び表示制御プログラム

Also Published As

Publication number Publication date
WO2016098418A1 (ja) 2016-06-23
US20170329511A1 (en) 2017-11-16

Similar Documents

Publication Publication Date Title
WO2016098418A1 (ja) 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
KR101224588B1 (ko) 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US8547353B2 (en) Method, system, and graphical user interface for displaying hyperlink information on a web page
JP5485220B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP4599898B2 (ja) 画面表示制御のためのプログラム、方法及び携帯情報機器
KR101019039B1 (ko) 터치 스크린을 구비한 단말기 및 데이터 검색 방법.
JP6381032B2 (ja) 電子機器、その制御方法及びプログラム
US20120218201A1 (en) User-Friendly Process for Interacting with Information Content on Touchscreen Devices
US20080259041A1 (en) Method, system, and graphical user interface for activating hyperlinks
US9189154B2 (en) Information processing apparatus, information processing method, and program
EP2898397A1 (en) Gesture-initiated keyboard functions
KR20100051105A (ko) 아이템 리스트와의 상호작용 방법
US9785331B2 (en) One touch scroll and select for a touch screen device
US20100171706A1 (en) Information processor, user interface control method and program
JP2008107865A (ja) タブブラウザ操作装置、タブブラウザ操作方法、プログラムおよび記録媒体
JP6057441B2 (ja) 携帯装置およびその入力方法
JP2010204781A (ja) 入力装置
EP2557491A2 (en) Hand-held devices and methods of inputting data
US20150106764A1 (en) Enhanced Input Selection
TW201101113A (en) Electronic device having virtual keyboard and the operating method of virtual keyboard
JP5245708B2 (ja) 文字入力装置、文字入力方法及び文字入力プログラム
JP6814676B2 (ja) 電子機器および電子機器の制御方法
JP2022085595A (ja) 電子機器、制御プログラム、および電子機器の制御方法
JP2018120315A (ja) 画像表示装置
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180821