JP6649465B2 - ウェアラブル情報端末 - Google Patents

ウェアラブル情報端末 Download PDF

Info

Publication number
JP6649465B2
JP6649465B2 JP2018502924A JP2018502924A JP6649465B2 JP 6649465 B2 JP6649465 B2 JP 6649465B2 JP 2018502924 A JP2018502924 A JP 2018502924A JP 2018502924 A JP2018502924 A JP 2018502924A JP 6649465 B2 JP6649465 B2 JP 6649465B2
Authority
JP
Japan
Prior art keywords
screen
information terminal
wearable information
frame
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018502924A
Other languages
English (en)
Other versions
JPWO2017149677A1 (ja
Inventor
真弓 松下
真弓 松下
充 永沢
充 永沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2017149677A1 publication Critical patent/JPWO2017149677A1/ja
Priority to JP2020005271A priority Critical patent/JP6928127B2/ja
Application granted granted Critical
Publication of JP6649465B2 publication Critical patent/JP6649465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • G04G9/007Visual time or date indication means in which functions not related to time can be displayed combined with a calculator or computing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ウェアラブル情報端末に関する。
近年、ウェアラブル情報端末等の携帯無線機器は、時間や場所を選ばずに使用できる使い勝手の良さから普及してきた。特にウェアラブル情報端末は、体に装着して使用することから、小型化が進んでいる。小型の端末に備えられるディスプレイも同様に、スマートフォンやタブレットに比較して小型であるものが多い。ウェアラブル情報端末のディスプレイにはタッチパネルが採用されているものが多く、指先やタッチペン等によるタッチ操作で選択や入力操作が可能である。
このようなウェアラブル情報端末の一例として、特許文献1には、「手に筆記中の指先の方位と距離を検出するための、赤外線レーザービーム走査手段と、指先からの反射光を受光し指先の位置を計測する手段、筆記状態を検出する皮膚接触音検知手段、メモデータの表示手段、操作者へ適切に応答するための振動発生手段から構成される腕時計型電子メモ装置(要約抜粋)」が開示されている。
また特許文献2には、「ユーザの腕に巻回して装着可能なウェアラブル情報端末であって、ディスプレイと、ユーザの腕に装着した際のディスプレイの対向位置の外側面に存在するタッチパッドと、基準軸に対するウェアラブル情報端末の傾きを検出するセンサと、タッチパッドへの操作を検出した場合、ディスプレイにおける当該操作位置に対応する位置にポインタアイコンを表示するとともに、傾きが所定の範囲でありタッチパッドへの操作が未検出である場合にディスプレイを省電力モードに切り替える制御部と、を有する(要約抜粋)」ウェアラブル情報端末が開示されている。
特許第4899108号公報 米国特許公開第2015286246号明細書
特許文献1に開示されている装置の表示器には、手の甲または手のひらの表面に、筆記中の指先の方位と距離を検出するための光学システムを別途備える必要があり、使い勝手が悪い。また、特許文献2に開示されているウェアラブル情報端末では、タッチパッドがディスプレイの対向位置すなわち手首を介してディスプレイの裏側に配置されるため、入力操作が直感的に分かりにくい。このような状況から、ウェアラブル情報端末の操作性を向上する工夫が望まれている。
本発明は、上記実情に鑑みてなされたものであり、ウェアラブル情報端末の操作性を向上させる技術を提供することを目的とする。
課題を解決するための解決手段
上記目的は、特許請求の範囲に開示する構成および機能により達成できる。本発明は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならばユーザに装着可能なウェアラブル情報端末であって、本体部と、前記本体部に収容され、画面を有する表示装置と、前記本体部に収容され、前記画面への表示処理を実行する制御装置と、前記本体部における前記画面の周囲に配置され、前記制御装置に対する前記ユーザの入力操作を検知する操作検知部と、前記画面の複数の領域の其々と前記操作検知部の部分との対応関係を記憶する画面管理情報記憶部と、前記操作検知部がユーザの入力操作を検知すると、前記操作検知部のどの部分が検知したかを示す情報及び前記入力操作の検知信号を含む入力信号を取得し、前記対応関係を参照して前記画面のどの領域に対する操作であるかを判断し、その判断結果に基づいて操作信号を生成する操作変換部と、を備え、前記制御装置は、複数のアプリケーションを実行することができ、前記画面の複数の領域の其々に、実行中の異なるアプリケーションを表示するように前記表示装置を制御し、前記操作信号に基づいて前記画面の各領域に表示されたアプリケーションを個別に制御可能にした、ことを特徴とする。
本発明によれば、ウェアラブル情報端末の操作性を向上させる技術を提供することができる。なお、上記した以外の課題、構成、効果は以下の実施形態において明らかにされる。
本実施形態に係るウェアラブル情報端末の構成概略図 フレームの分解図(平面視) 図1におけるA−A断面図であって、(a)は接触検知部をフレームの上面に備えた例を示し、(b)は(a)に加えフレームの底面に接触検知部を備えた例を示す。 ウェアラブル情報端末のハードウェア構成を示すブロック図 ウェアラブル情報端末のコントローラの機能構成を示すブロック図 フレームに配置された接触検知部と画面領域との対応関係を示す図 図6の部分拡大図であって、(a)はスワイプ動作、(b)は回転タッチにおけるポインタの遷移を示す。 操作情報の一例を示す図 ウェアラブル情報端末の処理の流れを示すフローチャート デスクトップ画面をフレーム操作で遷移させる一例を示す図 デスクトップ画面をフレーム操作で遷移させる他例を示す図 ブラウザ画面をフレーム操作で遷移させる例を示す図 地図画面をフレーム操作で遷移させる例を示す図 地図画面をフレーム操作で遷移させる例を示す図であって、(a)は標準サイズ表示例、(b)は拡大表示例を示す。 地図画面をフレーム操作で遷移させる例を示す図であって、(a)はピンチイン表示例、(b)はピンチアウト表示例を示す。 四角形状のフレームを持つウェアラブル情報端末の操作例を示す図であって、(a)は標準サイズ表示例、(b)は拡大表示例を示す。 図16に示すウェアラブル端末の概略構成図 フレームの縦軸と横軸をそれぞれy軸、x軸に見立てて、xy座標を指定するための入力信号処理を示す図 接触検知部として感圧センサを用いるウェアラブル情報端末の操作例を示す図 接触検知部として感圧センサを用いるウェアラブル情報端末の他の操作例を示す図 フレーム裏面に感圧センサを備えたウェアラブル情報端末の操作例を示す図 フレーム裏面に感圧センサを備えたウェアラブル情報端末の他の操作例を示す図 電話アプリケーションにおける操作例を示す図 フレーム操作例(画面のスクロール)を示す図 フレーム操作(画面のスクロール)の他例を示す図であって、(a)はフレームの12時付近に相当する箇所からのタッチ開始例、(b)はフレームの9時付近に相当する箇所からのタッチ開始例を示す。 フレーム操作(画面のスクロール)の他例を示す図であって、(a)はフレームの下部のタッチ動作で画面を下方にスクロールする例、(b)はフレームの右上のタッチ動作で画面を右上にスクロールする例を示す。 フレーム操作(画面のスクロール)の他例を示す図 サウンドコントローラ画面におけるフレーム操作例を示す図 ウェアラブル情報端末のフレーム操作(画面分割)を示す図 ウェアラブル情報端末の誤作動からの復帰操作を示す図であって、(a)はフレームをダブルタップする例、(b)は画面をタップする例を示す。 誤作動からの復帰操作を受け付けるウェアラブル情報端末の概略構成図 ウェアラブル情報端末の誤作動からの復帰操作を示す図であって、(a)は装着部ごと画面をなぞる操作例、(b)は復帰操作のハードボタンを備えた例を示す。 ジャイロセンサを搭載したウェアラブル情報端末の概略構成図
以下、本発明の実施形態について、図面を用いて詳細に説明する。以下の説明において、同一の構成には同一の符号を付し重複説明は省略する。
図1に本実施形態に係るウェアラブル情報端末の構成概略図を示す。図1のウェアラブル情報端末1は、情報を表示するための画面2、画面2を取り囲むように配置されたフレーム3、体に装着するための装着部5を有し、フレーム3には画面2の外周に沿って接触検知部4が配置されている。接触検知部は、ユーザ操作を検知するので操作検知部として機能する。後述するが、操作検知部の他例としてジャイロセンサや画面に積層させたタッチパネルでもよい。
図1では、16個の接触検知部4を画面2の周辺に配置したが、接触検知部4の数は16に限らない。また、図1では、複数の接触検知部4が画面2の外周に沿って配置されるが、接触検知部4の形状を画面2の外周に沿った形状に一体的に構成できる場合は、一つの接触検知部により構成してもよい。なお、接触検知部4は画面2の外周を取り囲むように配置されるものの、外周を連続して取り囲む場合だけでなく、図1のように外周上において一部不連続に配置されていてもよい。
接触検知部4は、例えばタッチセンサから構成される。これは人の指や手、その他操作のために使う身体の一部またはタッチペン等が触れていることを検出できるものであれば、抵抗膜式や静電容量方式のいずれでも良く、またその他の方式でも構わない。さらに接触検知部4は、感圧センサでも良い。感圧センサであれば、厚さ方向の押込みの強弱を検出することも可能である。
また、画面2やフレーム3は、図1では円形状を示しているが、三角形や四角形を含む多角形状であっても構わない。ウェアラブル情報端末1は以上の構成を有するので、操作する指が画面2の表示を隠すことなく、ユーザが画面2の内容を確認しながら操作ができる。
図2は、フレーム3の分解図(平面視)である。図2に示すようにフレーム3は、円形板状の底面3a、底面3aの周縁部に沿って突出する円環状の側面3bと、側面3bの上部に取り付けられる上面3c(枠部に相当する)とを備える。上面3cは、その中央に画面2をはめ込むための開口部3c1を備える。更に上面3cの開口部3c1の周囲には、接触検知部4をはめ込むための凹部3c2が複数(図1では16個)備えられる。図1の各接触検知部4は、上面3cの各凹部3c2に1つずつ収容される。
図3は、図1におけるA−A断面図であって、(a)は接触検知部4aをフレームの上面3cに備えた例を示し、(b)は(a)に加えフレームの底面3aに接触検知部4bを備えた例を示す。図3(a)、(b)に示すように、フレーム3の底面3a、側面3b及び上面3cで囲まれた空間内には、ウェアラブル情報端末1aのコントローラ20が収容される。そして上面3cの各凹部3c2には接触検知部4aが収容され、各接触検知部4aはコントローラ20とバス31により電気的に接続される。また、画面2もバス32によりコントローラ20に電気的に接続される。
更に図3(b)に示すウェアラブル情報端末1bは、ウェアラブル情報端末1aの構成に加え、フレーム3の底面3aの背面、すなわちフレーム3の底面3aの装着者の装着部位に対向する面に、更なる接触検知部4としての感圧センサ4bを備える。感圧センサ4bもコントローラ20とバス33により電気的に接続される。その他の構成は図1のウェアラブル情報端末1と同じであるので平面視においてウェアラブル情報端末1aとウェアラブル情報端末1bとは同じである。
図4は、ウェアラブル情報端末1のハードウェア構成を示すブロック図である。ウェアラブル情報端末1はコントローラ20に画面2を含む表示装置210、接触検知部4a、4b、及び主電源スイッチ220が接続されて構成される。コントローラ20は、制御・演算装置としてのCPU201、揮発性記憶装置としてのRAM202、不揮発性記憶装置としてのROM203、HDD204(SSDでもよい)、インターフェース(I/F)205を含み、これらの各構成要素がバス206を介して互いに接続される。I/F205には、表示装置210、接触検知部4a、4b、及び主電源スイッチ220が接続される。
図5は、ウェアラブル情報端末1のコントローラ20の機能構成を示すブロック図である。コントローラ20は、アプリ制御部21、操作変換部22、表示制御部23、操作情報記憶部24、及び画面管理情報記憶部25を含む。アプリ制御部21、操作変換部22、及び表示制御部23は、CPU201がROM203やHDD204に記憶されたOSやアプリといったソフトウェアをRAM202にロードし、ソフトウェアを実行することによって構成されてもよい。またこれらの機能を実現する集積回路により構成されてもよい。操作情報記憶部24は、ウェアラブル情報端末1に記憶されたソフトウェアの種別ごとに接触検知部4a、4bが検知した操作の種類とそれに対応する操作内容とを規定した操作情報を記憶する(図8で後述する。)。画面管理情報記憶部25は、表示装置210に表示された直前の画面情報や、後述する画面分割情報を記憶する。操作情報記憶部24及び画面管理情報記憶部25は、RAM202、ROM203、またHDD204などの記憶装置により構成される。
図6は、フレームに配置された接触検知部と画面領域との対応関係を示す図である。図6に示すように、画面2は画面中心点を通る放射状線(一点鎖点で示す)により接触検知部4と同数、すなわち、図6の例では接触検知部401〜416までの16個の接触検知部を備え、画面2が16分割される。隣接する放射状線間には、一つの接触検知部が配置される。そして、放射状線で囲まれた画面2の分割画面、例えば211と、その分割画面211の外縁部にある接触検知部401とを対応させた情報(画面分割情報)を画面管理情報記憶部25に記憶する。
そして、ユーザの指が接触検知部401にタッチすると、接触検知部401からタッチを検知した信号(入力信号)がコントローラ20に出力され、操作変換部22が画面分割情報を参照し、接触検知部401に対応付けられた分割画面211の初期設定位置にポインタ(カーソルともいう)100を表示する操作信号を生成して表示制御部23に出力する。更に接触検知部401における指のタッチ位置が上下左右の任意の2次元方向に遷移すると、タッチ位置の変化量に応じてポインタアイコン100の位置が遷移する。
図6では接触検知部4を16個備え、画面を16に分割した例を示したが、接触検知部4の数及び画面分割数は16に限定されない。また、上記では接触検知部とそれに対応する分割画面とを1対1で対応づけたが、複数の接触検知部を一つの分割画面に対応付けてもよい。
なお、ウェアラブル情報端末1で実行するアプリケーションの内、画面の特定座標を指定する機能があると好適なアプリケーションにおいては、予め画面分割情報をコントローラ20に格納しておき、そのアプリケーションが起動した場合に画面分割情報を読み出して接触検知部4と分割画面との対応処理を実行してもよいが、ウェアラブル情報端末1において、画面の特定座標を指定する機能が不要なアプリケーションのみを実行する場合には、画面分割情報はなくてもよい。この場合、どの接触検知部がタッチされた場合でも、予め定められた画面内の初期設定位置にポインタを表示し、タッチ位置の変位量に応じてポインタの位置が遷移するように構成されてもよい。更に、ウェアラブル情報端末1の初期状態、例えば出荷状態では画面分割情報を格納していない場合であっても、画面の特定座標を指定する機能があると好適なアプリケーションをウェアラブル情報端末1にインストール(ネットワークからダウンロードしてインストールする場合を含む)する際に画面分割情報もインストールを行うように構成されてもよい。
図7は、図6の部分拡大図であって、(a)はスワイプ動作、(b)は回転タッチにおけるポインタの遷移を示す。図7(a)に示すように、ユーザが接触検知部401内の任意の点Tch1をタッチすると、接触検知部401に対応付けられた分割画面211の初期設定位置P1にポインタが表示される。この状態で、ユーザが接触検知部401の点Tch2までスワイプする。Tch1からTch2までの距離をdとすると、スワイプ動作と同じ方向に距離nd(n>0)ずれた位置P2にポインタの表示位置が遷移する。図7(a)の例では位置P2が分割画面212内にあるが、nの設定値又は距離dの値によってはP2が分割画面211内に収まる場合もある。
また図7(b)に示すように、接触検知部401の任意の点Tch1をタッチした状態で回転するとポインタは初期設定位置P1で回転する。
図8は、操作情報の一例を示す図である。操作画面遷移対応情報は、アプリケーションの種類と、そのアプリケーションが起動しているときのタッチ動作の種類と、そのタッチ動作による画面遷移の内容との対応関係を規定した情報である。例えばタッチ動作が「フレームをなぞる」動作であってもデスクトップ画面が表示されている場合には、ポインタアイコンが移動して表示されるが、メールアプリケーションが起動している場合には、「フレームをなぞる」動作をおこなうと画面がスクロールする。このように、同様の操作であっても起動しているアプリケーションによって画面遷移内容が異なるので、これらの対応関係を操作画面遷移対応情報に規定している。
図9は、ウェアラブル情報端末1の処理の流れを示すフローチャートである。主電源スイッチ220が押されると電源投入信号がコントローラ20に出力され、電源が投入されると(S01)、アプリ制御部21が起動中のアプリケーションの種類を判定し(S02)、操作情報記憶部24から起動中のアプリケーションの種類に対応する操作情報を抽出する。ここでいう起動中のアプリケーションには、特定のアプリケーションが起動しておらずデスクトップ画面が表示されている場合のデスクトップ画面表示ソフトウェア(OSの一機能として構成されてもよい)も含む。
操作変換部22はフレーム操作を待機し(S03/No)、接触検知部4が接触を検知したことを示す信号(入力信号)をコントローラ20に出力し、操作変換部22がそれを取得すると(S03/Yes)、操作変換部22は、S01で抽出された操作情報を参照して入力信号を操作信号に変換する(S04)。入力信号がアプリケーションの起動指示を示す操作信号に変換された場合は、操作変換部22からアプリ起動信号がアプリ制御部21に出力される。後述する画面分割処理では、画面の分割数、分割位置とそれに対応する接触検知部とを関連付けた画面分割情報を予め画面管理情報記憶部25に記憶しておき、操作変換部22は画面分割情報を参照して、分割画面に対する操作信号に入力信号を変換する。
入力信号は、いずれの接触検知部4のどの位置がタッチされたかを示す信号である。操作変換部22は、入力信号の時系列変化を基に、フレームのタッチ動作が「フレームをなぞる動作」、「フレームを幅方向になぞる動作」、「ピンチイン/ピンチアウト、フレームの2点(2軸)の同時タッチ」、「スクロールしたい方向のフレーム該当部のタッチ」、「フレームタッチ位置+タッチ動作」、「ダブルタップ」(図8参照)のいずれにあるかを決定し、入力信号を操作信号に変換して表示制御部23に出力する。
表示制御部23は、操作信号に従った表示を行うための表示制御信号を画面2を含む表示装置210に出力し、表示制御を行う(S05)。後述する誤作動からの復帰動作の場合は表示制御部23が画面管理情報記憶部25から直前画面情報を読み出し、これが示す直前画面を表示する表示制御信号を表示装置210に出力する。S02からS05の処理は、ウェアラブル情報端末1の主電源がOFFにされるまで繰り返される。
以下、図8の操作情報に規定された各アプリケーションの操作例について説明する。
(デスクトップ1)
図10は、デスクトップ画面をフレーム操作で遷移させる一例を示す図である。図10では、複数のアイコンが画面2に表示されている。小型な画面2に表示されるアイコンは、操作する指に比較して更に小さいことから、複数のアイコンの中から目的のアイコンを的確に指先でタッチすることは困難であり、誤操作が起こる可能性がある。また、操作する指先によって目的のアイコンが隠れてしまうため、タッチした時の自分の指先と目的のアイコンとの相対的な位置関係を、ユーザ自身が分かりづらい。そこで、図10では、まず画面2にポインタアイコン100を表示する。ポインタアイコン100の表示方法は、ユーザが任意に指定できるものとし、例えば画面2に対するタッチや長押し、タップ等の操作でも良いし、フレーム3に対する操作でも良い。
なおポインタアイコン100は、画面2中の選択箇所をユーザに対してリアルタイムに明確化する役割がある。ここでポインタアイコン100の形状や色は、現在の選択箇所が明確に分かるものであれば、詳細は問わない。
ポインタアイコン100の操作は、ユーザがフレーム3をタッチすることにより可能である。例えば図10で示すように、フレーム3を横方向になぞる(矢印A1)ことで、ポインタアイコン100を左右に動かし(矢印B1)、フレーム3を縦方向になぞる(矢印A2)ことでポインタアイコン100を上下に動かすことができる(矢印B2)。ウェアラブル情報端末1は、フレーム3に配置されている接触検知部4により、ユーザの手6によって操作されたことを検知し、ポインタアイコン100を動かす。これにより、ポインタアイコン100が移動前位置(点線のポインタアイコンで表示)からポインタアイコン100の位置まで移動する。
このように図10の例によれば、小型の画面2の表示内容を確認しながら選択操作を行うことができ、指で直接画面2をタッチして選択するのに比較して、誤操作を低減することが可能である。
(デスクトップ画面2)
図11は、デスクトップ画面をフレーム操作で遷移させる他例を示す図である。図11のデスクトップ画面では、アプリケーションのアイコンがフレーム3の周方向に沿って画面2に表示されている。その場合ユーザがフレーム3をなぞる(矢印A3)ことで、ポインタアイコン100はフレーム3に沿って移動する(矢印B3)。なお本例ではポインタアイコン100は表示されていても良いが、表示されていなくても構わない。例えばポインタアイコン100が表示されていない場合には、選択したアイコンを拡大表示する等、ユーザに現在の選択箇所が明確に分かるような表示とする。
(ブラウザ)
図12は、ブラウザ画面をフレーム操作で遷移させる例を示す図である。図12のブラウザ画面では複数のフォルダが重なって表示されており、現在ポインタアイコン100でフォルダ9が選択されているものとする。この状況で他のフォルダ11を選択したい場合には、ユーザは例えばフレーム3を幅方向になぞる(矢印A4)ことにより、選択するフォルダを変更する。ここでは重なって表示されているフォルダを例に挙げたが、例えば複数が起動され、重なって表示されているwebページ等であっても構わない。図12の例によれば、小型の画面2の表示内容を確認しながら選択操作を行うことができ、指で直接画面2をタッチして選択するのに比較して、誤操作を低減することが可能である。
(地図アプリケーション)
図13から図15は、地図画面をフレーム操作で遷移させる例を示す図である。図13に示すように、例えば地図を小型の画面2で閲覧したい場合、表示内容の特定箇所を選択するためにポインタアイコン100を用いる。上述した例と同様に、フレーム3を横方向(矢印A5)あるいは縦方向(矢印A6)になぞることでポインタアイコン100は画面2の横方向(矢印B5)あるいは縦方向(矢印B6)に移動する。
特定の箇所を選択した後(図13でポインタアイコン100が表示されている位置が特定の箇所に相当する)、例えばフレーム3を図14の矢印C1に図示するように時計回りになぞることで、初期表示サイズ(図14(a)参照)から拡大表示(図14の(b)参照)に遷移する。
また、反時計回りになぞることで縮小するなど、なぞり方によって異なる機能を割り当てても良い。
更に図15に示すように、フレーム3をピンチイン(図15(a)参照)あるいはピンチアウト(図15(b)参照)することにより、縮小あるいは拡大を行っても良い。
従来のように画面2に対して直接指先でタッチあるいはスワイプ等を行い、画面の縮小あるいは拡大等を含む操作を実施する場合、操作する指先で画面2が隠れてしまい、例えば地図のように1画面内に収まりきらない情報をスクロールするときには、どの部分をどの方向に向かってスクロールしたのかが分かり辛いという課題があった。しかしながら本例によれば、小型の画面2に表示されている地図を確認しながら、選択した箇所の拡大あるいは縮小などの操作が可能であり、操作しているユーザ本人に対して、操作内容が一目瞭然であるという効果があり、誤操作を低減することが可能である。付随する効果として、液晶画面に指紋等の汚れもつきにくいという利点もある。
(四角形状のフレーム)
図16は、四角形状のフレームを持つウェアラブル情報端末の操作例を示す図であって、(a)は標準サイズ表示例、(b)は拡大表示例を示す。フレーム3の縦軸と横軸をそれぞれy軸、x軸に見立てて、xy座標を指定する。これにより、特定箇所を容易に選択することが可能である。例えば地図の閲覧時に特定箇所を選択したい場合、指先でタッチすると、画面2が小さいため目的の箇所が隠れてしまう。このため図16に示すようにウェアラブル情報端末1aのフレーム3を活用し、二本の指で縦軸と横軸を同時にタッチする。タッチした縦軸の座標をy座標、タッチした横軸の座標をx座標として決まる一点を選択することで、小型の画面2を直接触らなくても、指定した座標の箇所を選択することが可能である。
図17は、図16に示すウェアラブル情報端末のハードウェア構成を示す図である。図18は、フレームの縦軸と横軸をそれぞれy軸、x軸に見立てて、xy座標を指定するための入力信号処理を示す図である。図17に示すようにウェアラブル情報端末1aは、四角形状のフレーム3の各縦辺(縦辺とは画面に表示される文字の縦方向に辺の軸方向が一致する辺である)に接触検知部431及び432の其々が配置され、各横辺(横辺とは画面に表示される文字の横方向に軸方向が一致する辺である)に接触検知部433及び434の其々が配置される。
図18に示すように操作変換部22は、接触検知部434上のX1(x3、y3)、接触検知部431上の点Y1(x1、y1)が同時にタッチされたことを示す入力信号を取得すると、点X1のx座標x3及び点Y1のy座標y1に対応する画面上の座標P1(xa3、ya1)が指定されたことを示す操作信号を生成する。その後、タッチ位置X1、Y1の其々がタッチ位置X2(x4、y4)、Y2に遷移するに伴って出力される接触検知部431、434のそれぞれから取得する入力信号の時系列変化に基づいて、画面2内の選択位置がP2(xa4、ya2)まで変化したと判断する。
操作変換部22は予め定められた原点OからP1までの距離、原点OからP2までの距離を算出し(OP1/OP2)を拡大率として算出する。操作変換部22は、表示制御部23に拡大率を出力する。表示制御部23は、この拡大率に応じて対角線OP1を含む矩形状領域を拡大表示する。なお、図17では拡大表示をする例を示したが、P2がP1よりも原点Oに近ければ、縮小表示をしてもよい。
本例では、操作変換部22は、異なる二つの接触検知部、例えば431,434の其々がユーザの接触操作を検出したことを示す入力信号を取得すると、これら二つの入力信号を基に画面上の1点の座標を特定する。そして操作変換部22は、異なる二つの接触検知部の其々がユーザの接触操作を検知してから連続して接触位置を変更する操作を検出したことを示す入力信号を取得すると、ユーザの接触操作を最初に検知した際に特定した画面上の第1点P1からユーザの接触位置の変更が終わった際に特定した画面上の第2点P2までの点移動量に応じて画面を拡大(又は縮小する)操作信号を生成し、表示制御部23は、操作信号に応じて画面の拡大又は縮小表示を行う。
本例では地図表示を例に挙げたが、当然これに限定されるものではなく、他のアプリであっても構わない。また、本例では縦と横の二つの辺を用いて操作する例を挙げて説明したが、三つの辺や四つの辺を活用して操作しても構わない。その場合は例えば、画面2にマルチ画面を表示したときに、それぞれの画面を独立して制御可能なタッチセンサ等を、三つの辺や四つの辺を活用して操作すること等が考えられる。
(感圧センサを併用する例)
図19は、接触検知部4として感圧センサを用いるウェアラブル情報端末の操作例を示す。ウェアラブル情報端末1bは、接触検知部4として感圧センサを用いることにより、タッチの強弱を検出できる。そして強い押圧により例えば決定操作を入力することが可能である。上記で説明した各例に記載の方法で特定箇所を選択後、フレーム3を押圧することで決定操作を入力する等の使用方法がある。
なお接触検知部4を感圧センサとしない場合には、物理的なボタンを配置し、そのボタンを押下することで決定操作を入力するなど、他の方法で実施しても構わない。
図20は、接触検知部4として感圧センサを用いるウェアラブル情報端末1bの他の操作例を示す図である。例えばフレーム3を弱く押圧した場合に画面スクロール等の画面操作を行い(図20の左図:画面が左にスクロール)、強く押圧した場合に決定操作を入力する(図20の中央図)。図20の例では音楽画面を選択して決定操作を行うことで、音楽画面が起動する(図20の右図)。
図21は、フレーム裏面に感圧センサを備えたウェアラブル情報端末1cの操作例を示す図である。例えば接触検知部4をフレーム3の表面(画面2の周辺)だけでなく、フレーム3の裏面(底面3a)のうち、装着者の身体の一部と接触している部分)に配置する。フレーム3の底面3aに感圧センサを配置するハードウェア構成は、図3(b)で説明済みである。図21に示すように、ユーザはフレーム3をつまみ、ウェアラブル情報端末1cと接している身体の一部(図では腕)に向けて、例えば上側(矢印A7)へ押圧することで、画面2を上へスクロールしたり、ポインタアイコン100を上へ移動させる等の画面操作を可能とする。
また図22は、フレーム裏面に感圧センサを備えたウェアラブル情報端末1cの他の操作例を示す図である。図22に示すように、ユーザはフレーム3をつまみ、ウェアラブル情報端末1cと接している身体の一部(図では腕)に向けて、例えば深さ方向へ押圧する(ユーザの腕に押し付ける動作に相当する)ことで、決定操作を入力することができる。
(電話アプリ)
図23は、電話アプリケーションにおける操作例を示す図である。図23のウェアラブル情報端末1は、フレーム3の周囲を12分割し、フレーム3の分割領域の其々に接触検知部4を配置する。各分割領域は、時計の文字盤の1から12が配置される位置に対応するように設けられる。すなわちウェアラブル情報端末1dのフレーム3を時計の文字盤に見立て、文字盤の1に対応する接触検知部は、タッチ動作を検知すると1の入力信号を出力し、同様に文字盤の2、3、・・・9の其々に対応する位置の接触検知部は、2、3、・・・9の其々の入力信号を出力する。なお、文字盤の10に対応する位置の接触検知部は、タッチ動作を検出すると数字の0の入力信号を出力するように構成されてもよい。更に文字盤の11に対応する位置の接触検知部は、ENTERキーや#記号、また電卓として機能させる場合は小数点を割当ててもよい。
電話アプリに用いる場合は、図23に示すように、フレーム3の操作により電話を発信することができる。例えば「119」に電話をかけたい場合に、フレーム3の「1」と「9」相当部をタップすることにより(図23左図)「119」に発信することが可能である(図23右図)。
なお電話番号は必ずしも3桁である必要は無い。また、電話番号そのものでなくても良く、例えば予め電話帳に登録しておいた短縮ダイヤル(例えば短縮ダイヤル「1」に自宅の電話番号を登録してあり、「1」をタップすると自宅に発信される、など)でも構わない。また、数字は画面2に表示されていてもされていなくても良く、いずれの場合にも上記操作は可能であるものとする。さらに、画面2が円形状でなく、三角形状や四角形状、それ以上の多角形状である場合にも、上記操作は可能であるものとする。また、時計の文字盤には無いが、電話番号には存在する「0」や、反対に時計の文字盤にあって電話番号には無い「10」「11」「12」などの入力方法については、ユーザが独自に設定できるものとする。例えば電話番号の「0」は時計の文字盤の「10」で代用しても構わないし、時計の文字盤の「11」「12」については、再ダイヤルや留守番電話等に割り当てても構わない。
また上記でもふれたように、計算機(電卓アプリ)アプリケーションにおいてもフレーム3を1〜0までの数字を割当てることで、フレームのタッチ操作で四則演算等の演算処理を実行することができる。
(画面のスクロール)
図24は、フレーム操作例(画面のスクロール)を示す図である。例えばメールのような一画面内に収まりきらない画面を表示する場合、図24に示すように、ウェアラブル情報端末1のフレーム3を右回り(矢印C2方向)に指でなぞることにより(図24左図)、画面が下方(矢印B7)スクロールする(図24右図)ことが可能な構成とする。これにより従来のように画面2を直接タッチする必要が無いため、表示内容を確認しながら画面を操作することが可能である。本実施例の効果が期待できるアプリとしては、メールの他に例えばメモ帳や電話帳等がある。本例のフレーム操作は、操作変換部22が予め接触検知部4がタッチされた位置とその後の入力信号の時系列変化(周方向に沿った移動を示す入力信号)を受信し、この入力信号をフレームの画面スクロール信号に変換して表示制御部23に出力することにより実現される。
図25は、フレーム操作(画面のスクロール)の他例を示す図である。フレーム3のなぞり始めの位置を接触検知部4で検出することで、その指の動きを画面操作に反映する。例えば図25(a)に示すように、フレーム3のいわゆるアナログ時計の12時付近に相当する箇所からなぞり始める(矢印C3)ことで、画面を上下にスクロールすることが可能である。あるいは、図25(b)に示すように9時付近相当箇所からなぞり始める(矢印C4)ことで、画面を左右にスクロールすることが可能である。本例のフレーム操作は、接触検知部4が最初にタッチされた位置と、その後のなぞる動作にそもなって出力する入力信号を操作変換部22が取得し、その時系列変化(周方向に沿った移動を示す入力信号)を基にタッチ動作の方向を判断し、タッチ動作に応じた画面スクロール方向を決定し、その方向への画面スクロール信号を生成して表示制御部23に出力することにより実現される。
図26及び図27は、フレーム操作(画面のスクロール)の他例を示す図である。図26(a)に示すように画面2を下(矢印B8方向)にスクロールしたいときは、フレーム3の下部をタッチすることにより実現することができる。また図26(b)に示すように画面2を右上(矢印B9方向)にスクロールしたいときはフレーム3の右上をタッチすることにより実現することができる。
図27に示すように、フレーム3の右側をタッチすることで、表示画面を右(矢印B10方向)にスクロールするように構成してもよい。図26、図27のフレーム操作は、例えば円形状また四角形状など形状を問わず、画面2の中心から放射状にフレーム3を360°の全ての方向に対して分割し、操作変換部22が接触検知部4のタッチ位置を示す入力信号を取得し、その入力信号を画面2の中心とタッチ位置と結ぶ線上に沿って画面をスクロールする画面スクロール信号に変換して表示制御部23に出力することにより実現される。
(サウンドコントローラ)
図28は、サウンドコントローラ画面におけるフレーム操作例を示す図である。例えば動画や音楽の再生アプリにおけるサウンドコントローラでは、一般的に、表示されるバーを用いて曲中の再生箇所や音量等の選択が可能であることが知られている。ただし小型画面において、より一層小さく表示されるバーを指先で操作することは困難である。そこで、フレーム3をなぞる操作することによって、操作変換部22がなぞった量に応じてサウンドコントローラのバー60上の選択位置をずらし、音楽や音量、曲中の再生箇所を選択する等の操作を実施することが可能であるように構成してもよい。
(画面分割)
図29は、ウェアラブル情報端末1のフレーム操作(画面分割)を示す図である。フレーム3に複数の接触検知部4を複数配置し、または一つの接触検知部4を配置して操作変換部22が論理的に複数に分割制御し、それぞれの接触検知部4a1、4a2を独立制御可能とする。例えば、図29のウェアラブル情報端末1は、円環状のフレーム3に対して、接触検知部を円環状に配置する(図6参照)。装着部5に直交する方向を画面水平方向と定義すると、フレーム3を画面水平方向に分断してできる上下の半円それぞれに接触検知部を分割配置するものとし、それぞれが独立に制御可能である。例えば画面2を上下に2分割する場合、図6において、接触検知部401、402、403、413、414、415(これらを総称して接触検知部4a1と称する)は上画面のフレーム操作に用いると操作変換部22が規定し、接触検知部4a1がタッチされたことを示す入力信号は、上画面の操作信号に変換する。また接触検知部404、405、406、407、408、409(これらを総称して接触検知部4a2と称する)がタッチされたことを示す入力信号は、下画面の操作信号に変換する。
このように構成されたウェアラブル情報端末1であれば、以下に説明する効果がある。例えばユーザが地図を閲覧している最中に、電話の着信が通知された場合、ウェアラブル情報端末1の画面2には2つ以上の画面が同時に表示されるものとする(図29左図)。通話動作を選択する際には、画面2に配置されているタッチセンサを押下しても良いし、接触検知部4a2を押下して決定キーを入力しても良い。こうして電話を取り、通話中の状態(図29中央図)になってから、同時に地図を拡大して閲覧したい場合には、接触検知部4a1を指でなぞる(矢印C5)等して、拡大操作を入力することが可能である(図29左図)。すなわち本例による効果は、フレーム3に接触検知部4a1、4a2を分割して配置することにより、マルチ画面においてもそれぞれの表示画面に応じた適切な独立制御が可能であることである。
なお本例では「かかってきた電話に出ること」と「地図を拡大表示すること」の2つを例に挙げて説明したが、当然これに限定されるものではなく、マルチ画面またはマルチ動作が必要になる状況下における他の画面操作でも構わない。
図30、図32は、ウェアラブル情報端末1の誤作動からの復帰操作を示す図である。また図31は、誤作動からの復帰操作を受け付けるウェアラブル情報端末1eの概略構成図である。ここで説明する「誤作動」とは、タッチやタップなどの指を用いた操作に対して、ユーザが意図した通りに表示内容が遷移しないことを意味するものとする。ユーザが意図した通りに表示内容が遷移しなかった場合、他の何らかの操作によって「元に戻る」操作(復帰操作)を入力することにより、表示内容を元の画面に戻すことができる。
具体的なユーザの操作としては、図30(a)に示すようにフレーム3をダブルタップする。接触検知部4がダブルタップを検出してそれを示す入力信号を操作変換部22に出力すると、操作変換部22がダブルタップ入力信号を復帰信号に変換して表示制御部23に出力する。表示制御部23は、画面管理情報記憶部25に記憶された直前の画面情報を読み出して、その画面情報に基づいて画面を直前状態に遷移させる。
ダブルタップに代えて、画面2にタッチパネル4cを積層させたウェアラブル情報端末1eの場合(図31参照)は、画面2のタップを復帰操作としてもよい(図30(b))。
また装着部5ごと画面2をなぞる操作(図32(a)、矢印D1)を復帰操作としてもよい。この場合、予め装着部5のフレーム3の周辺部に接触検知部を更に配置し、装着部5に配置された接触検知部(不図示)の入力信号を操作変換部22が取得すると復帰信号に変換してもよい。
装着部5ごと画面2をなぞる操作がされると、画面2を挟んで配置された接触検知部4が所定時間内にタッチ動作を検出する。そこで、画面2を挟んで配置された接触検知部4が装着部5ごと画面2をなぞる指の動作時間であると判定するために設定された時間内(例えば1秒以内)にタッチ動作を検出した場合に、それらのタッチ動作に基づく入力信号を操作変換部22が復帰信号に変換してもよい。
更に図32(b)に示すように、フレーム3に物理的な復帰操作ボタン9を配置し、この復帰操作ボタン19に「元に戻る」操作を割り当て、復帰操作ボタン9の入力信号を操作変換部22が取得し、復帰信号に変換してもよい。
なお本例ではいくつかの例を挙げて説明したが、当然これに限定されるものではなく、ユーザが起動しているアプリによっても「元に戻る」を入力する操作内容が変わることは言うまでもない。
本実施形態によれば、フレーム3を操作部材として用いることで、操作時に指で直接画面をタッチし、それにより隠れて画面が見えなくなることを防ぎつつ画面操作を行うことができる。また、指に比して画面の特定箇所が小さい場合にも、直接その画面の特定箇所をタッチすることなく、その特定箇所よりも大きいフレームを操作して画面操作を行うことができるので、操作性が向上する。また、画面を直接タッチしなくてもよいので、画面をタッチすることによる手垢汚れを防止できる。
本発明は上記した実施形態に限定されるものではなく、また上述した変形例の他にも様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理装置等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
例えば本明細書中で述べる画面操作とは、画面2に表示される操作対象のアイコン等が、操作するための指等に代表される身体の一部と比較して略同程度の大きさであるがゆえに操作し難い内容すべてを含む。例えば、画面のスクロールやアイコンの選択、入力、決定等の操作である。また、上記実施形態では腕時計型のウェアラブル情報端末の例を用いて説明したが、例えば指輪型のような形状でも構わない。またウェアラブル情報端末1の画面2とフレーム3についても、円形状や四角形状の例を挙げて説明したが、当然これに限定されるものではなく、三角形やその他の多角形の形状であっても構わない。
また、上記実施形態では接触検知部4にタッチセンサや感圧センサの例を挙げて説明したが、例えば他にジャイロセンサを配置しても構わない(図33参照)。タッチセンサや感圧センサを配置する場合、例えば腕時計型のウェアラブル情報端末1であれば、装着していない方の手の指を使って操作する必要があり、両手を使う必要があるが、図33に示すようにジャイロセンサ70をフレーム3内に搭載し、ジャイロセンサ70をコントローラ20に接続する。ウェアラブル情報端末1fの角速度の変化量を検出し、この角速度の変化量を操作変換部22が操作信号に変換すれば、装着している方の腕だけで操作することも可能となるため、もう片方の手が空いてユーザの自由度が向上する。ジャイロセンサを用いた操作例として、ウェアラブル情報端末1を装着した腕を、ウェアラブル情報端末1fが右下方(左下方)に傾くように動かすと、そのときの角速度の変化量を画面右方向(画面左方向)へのスクロール操作信号に変換してもよい。この場合、ジャイロセンサはユーザ操作を検知する機能を実現するので、ジャイロセンサが操作検知部として機能する。また操作検知部としてフレーム3の底面の裏面に感圧センサ(裏面接触検知部)のみを備える構成としてもよい。
1…ウェアラブル情報端末
2…表示部
3…フレーム
4…接触検知部
4a…接触検知部1
4b…接触検知部2
5…装着部
6…ユーザの操作する手
7…ウェアラブル情報端末を装着する手
8…ウェアラブル情報端末を装着する腕
9…ボタン
100…ポインタアイコン

Claims (9)

  1. ユーザに装着可能なウェアラブル情報端末であって、
    本体部と、
    前記本体部に収容され、画面を有する表示装置と、
    前記本体部に収容され、前記画面への表示処理を実行する制御装置と、
    前記本体部における前記画面の周囲に配置され、前記制御装置に対する前記ユーザの入力操作を検知する操作検知部と
    前記画面の複数の領域の其々と前記操作検知部の部分との対応関係を記憶する画面管理情報記憶部と、
    前記操作検知部がユーザの入力操作を検知すると、前記操作検知部のどの部分が検知したかを示す情報及び前記入力操作の検知信号を含む入力信号を取得し、前記対応関係を参照して前記画面のどの領域に対する操作であるかを判断し、その判断結果に基づいて操作信号を生成する操作変換部と、を備え、
    前記制御装置は、複数のアプリケーションを実行することができ、
    前記画面の複数の領域の其々に、実行中の異なるアプリケーションを表示するように前記表示装置を制御し、
    前記操作信号に基づいて前記画面の各領域に表示されたアプリケーションを個別に制御可能にした、
    ことを特徴とするウェアラブル情報端末。
  2. 請求項1に記載のウェアラブル情報端末において、
    前記ウェアラブル情報端末で実行されるアプリケーションの種類と、各アプリケーションにおける前記ユーザの入力操作が示す操作内容とを対応付けた操作情報を記憶する操作情報記憶部を更に含み
    前記操作変換部は、前記判断結果及び前記操作情報に基づいて、取得した入力信号を、検知した前記操作検知部の当該部分に対応するアプリケーションの前記操作内容を示す操作信号に変換する、
    ことを特徴とするウェアラブル情報端末。
  3. 請求項1又は2に記載のウェアラブル情報端末において、
    前記本体部は、前記画面の外縁を取り囲む枠部を有するフレームを含み、
    前記操作検知部は、前記枠部に前記画面の外縁に沿って配置され、前記ユーザの接触操作を検知する接触検知部として構成される、
    ことを特徴とするウェアラブル情報端末。
  4. 請求項に記載のウェアラブル情報端末において、
    前記フレームにおいて前記画面が配置された面とは反対側の裏面に、感圧センサからなる裏面接触検知部を更に備える、
    ことを特徴とするウェアラブル情報端末。
  5. 請求項3に記載のウェアラブル情報端末において、
    前記画面に積層されたタッチパネルを更に備え、
    前記操作検知部又は前記タッチパネルが、予め設定された時間内に前記ユーザが2回以上接触したことを検知すると、前記制御装置は、所定の画面遷移を実行する、
    ことを特徴とするウェアラブル情報端末。
  6. 請求項に記載のウェアラブル情報端末において、
    前記操作検知部として更にジャイロセンサを備え、
    前記制御装置は、前記ジャイロセンサが出力した角速度信号を前記ウェアラブル情報端末に対するユーザの操作信号に変換する操作変換部を更に備える、
    ことを特徴とするウェアラブル情報端末。
  7. 請求項に記載のウェアラブル情報端末において、
    前記操作変換部は、異なる二つの接触検知部の其々が前記ユーザの接触操作を検出したことを示す入力信号を取得すると、これら二つの入力信号を基に画面上の1点の座標を特定する、
    ことを特徴とするウェアラブル情報端末。
  8. 請求項7に記載のウェアラブル情報端末において、
    前記操作変換部は、前記異なる二つの接触検知部の其々が前記ユーザの接触操作を検知してから連続して接触位置を変更する操作を検知したことを示す入力信号を取得すると、前記ユーザの接触操作を最初に検知した際に特定した画面上の第1点から前記ユーザの接触位置の変更が終わった際に特定した画面上の第2点までの点移動量に応じて前記画面を拡大又は縮小する操作信号を生成する、
    ことを特徴とするウェアラブル情報端末。
  9. 請求項1ないし8のいずれか一項に記載のウェアラブル情報端末において、
    前記制御装置は、前記画面管理情報記憶部と操作変換部とを含んでいる、
    ことを特徴とするウェアラブル情報端末。
JP2018502924A 2016-03-01 2016-03-01 ウェアラブル情報端末 Active JP6649465B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020005271A JP6928127B2 (ja) 2016-03-01 2020-01-16 ウェアラブル情報端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/056305 WO2017149677A1 (ja) 2016-03-01 2016-03-01 ウェアラブル情報端末

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020005271A Division JP6928127B2 (ja) 2016-03-01 2020-01-16 ウェアラブル情報端末

Publications (2)

Publication Number Publication Date
JPWO2017149677A1 JPWO2017149677A1 (ja) 2018-10-04
JP6649465B2 true JP6649465B2 (ja) 2020-02-19

Family

ID=59743666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018502924A Active JP6649465B2 (ja) 2016-03-01 2016-03-01 ウェアラブル情報端末

Country Status (4)

Country Link
US (3) US11086422B2 (ja)
JP (1) JP6649465B2 (ja)
CN (2) CN108700958B (ja)
WO (1) WO2017149677A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111381484B (zh) * 2020-03-10 2021-10-26 维沃移动通信有限公司 一种穿戴设备及其控制方法
JP2022035172A (ja) * 2020-08-20 2022-03-04 株式会社ジャパンディスプレイ 表示装置、検出装置および時計

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4899108A (ja) 1972-04-05 1973-12-15
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
JP5429627B2 (ja) 2009-12-04 2014-02-26 日本電気株式会社 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
JP5295328B2 (ja) * 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
CN103595984A (zh) * 2012-08-13 2014-02-19 辉达公司 3d眼镜、3d显示系统及3d显示方法
EP2741176A3 (en) * 2012-12-10 2017-03-08 Samsung Electronics Co., Ltd Mobile device of bangle type, control method thereof, and UI display method
KR102206044B1 (ko) * 2012-12-10 2021-01-21 삼성전자주식회사 뱅글 타입의 모바일 디바이스와 그 제어 방법 및 ui 표시 방법
JP5874625B2 (ja) * 2012-12-20 2016-03-02 カシオ計算機株式会社 入力装置、入力操作方法及び制御プログラム並びに電子機器
KR102179812B1 (ko) * 2013-07-18 2020-11-17 엘지전자 주식회사 와치형 이동단말기
JP2015041829A (ja) 2013-08-21 2015-03-02 株式会社エクストーン 通信システム
JP6151157B2 (ja) 2013-10-29 2017-06-21 京セラ株式会社 電子機器および制御プログラム並びに電子機器の動作方法
US20150138065A1 (en) * 2013-11-21 2015-05-21 Nvidia Corporation Head-mounted integrated interface
US9746941B2 (en) * 2013-12-26 2017-08-29 Intel Corporation Sensors-based automatic reconfiguration of multiple screens in wearable devices and flexible displays
KR102189451B1 (ko) 2013-12-27 2020-12-14 삼성디스플레이 주식회사 전자 기기
JP6204324B2 (ja) 2014-04-08 2017-09-27 松本 美司 ウェアラブル情報端末、及び、充電システム
US20150323998A1 (en) * 2014-05-06 2015-11-12 Qualcomm Incorporated Enhanced user interface for a wearable electronic device
WO2016017956A1 (en) * 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
KR102269797B1 (ko) * 2014-10-08 2021-06-28 엘지전자 주식회사 웨어러블 디바이스
US20160109953A1 (en) * 2014-10-17 2016-04-21 Chetan Desh Holographic Wristband
US9459698B2 (en) * 2014-12-10 2016-10-04 TCL Research America Inc. Gesture based power management system and method
CN104460307B (zh) * 2014-12-23 2018-01-16 大连交通大学 一种集成显示区的输入单元、穿戴式智能设备和输入方法
TWI606366B (zh) * 2015-01-05 2017-11-21 金寶電子工業股份有限公司 穿戴式裝置、其顯示方法及其控制方法
CN105030204B (zh) * 2015-08-03 2018-12-18 京东方科技集团股份有限公司 可穿戴设备执行模块的控制方法及可穿戴设备
US10365811B2 (en) * 2015-09-15 2019-07-30 Verizon Patent And Licensing Inc. Home screen for wearable devices

Also Published As

Publication number Publication date
CN108700958B (zh) 2021-08-10
US20200057513A1 (en) 2020-02-20
US20230280851A1 (en) 2023-09-07
US11687177B2 (en) 2023-06-27
US20210325984A1 (en) 2021-10-21
CN108700958A (zh) 2018-10-23
WO2017149677A1 (ja) 2017-09-08
JPWO2017149677A1 (ja) 2018-10-04
US11086422B2 (en) 2021-08-10
CN113589890A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
KR102120930B1 (ko) 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
KR100831721B1 (ko) 휴대단말기의 디스플레이 장치 및 방법
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US20070263014A1 (en) Multi-function key with scrolling in electronic devices
WO2009097592A1 (en) User interface of a small touch sensitive display for an electronic data and communication device
JP5429627B2 (ja) 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
US20230280851A1 (en) Wearable information terminal
CN114764304A (zh) 一种屏幕显示方法
WO2017022031A1 (ja) 情報端末装置
JP2014106806A (ja) 情報処理装置
JP2014016743A (ja) 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム
JP2016126363A (ja) タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム
JP2014134867A (ja) 情報処理端末
KR20130102670A (ko) 터치스크린 단말기의 세밀한 조작을 위한 사용자별 손가락 및 터치 펜 접촉 위치 포인트 설정을 위한 방법 및 시스템
JP6928127B2 (ja) ウェアラブル情報端末
KR101920864B1 (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
JP2012238128A (ja) 背面入力機能を有する情報機器、背面入力方法、およびプログラム
JP5165624B2 (ja) 情報入力装置、オブジェクト表示方法、およびコンピュータが実行可能なプログラム
JP5969320B2 (ja) 携帯端末装置
EP2816457A1 (en) Method for displaying interface, and terminal device
JP2014044673A (ja) 携帯端末装置
KR20150039511A (ko) 메뉴 인터페이스 제공방법 및 제공장치
KR20140100668A (ko) 스마트기기 커버 및 이를 구비한 스마트기기

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250