JP2020035293A - 電子機器及び制御方法 - Google Patents

電子機器及び制御方法 Download PDF

Info

Publication number
JP2020035293A
JP2020035293A JP2018162725A JP2018162725A JP2020035293A JP 2020035293 A JP2020035293 A JP 2020035293A JP 2018162725 A JP2018162725 A JP 2018162725A JP 2018162725 A JP2018162725 A JP 2018162725A JP 2020035293 A JP2020035293 A JP 2020035293A
Authority
JP
Japan
Prior art keywords
cursor
cursor button
button
application program
buttons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018162725A
Other languages
English (en)
Inventor
茂樹 木崎
Shigeki Kizaki
茂樹 木崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynabook Inc
Original Assignee
Dynabook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynabook Inc filed Critical Dynabook Inc
Priority to JP2018162725A priority Critical patent/JP2020035293A/ja
Priority to US16/233,001 priority patent/US11061565B2/en
Publication of JP2020035293A publication Critical patent/JP2020035293A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】作業者が電子機器に備えられるカーソルボタンのキーの割り当てを簡便に変更できる電子機器及び制御方法を提供する。【解決手段】一実施形態に係る電子機器は、任意の1方向にそれぞれ割り当て可能な第1及び第2のカーソルボタンと、第1及び第2のカーソルボタンに対し、第1及び第2の方向のいずれかをそれぞれ割り当てるためのアプリケーションプログラムと、アプリケーションプログラムを格納する記憶手段とを備える。アプリケーションプログラムは、作業者に第1の方向に対応するカーソルボタンの選択を促し、第1のカーソルボタンが選択された場合に、第1のカーソルボタンに第1の方向を割り当て、かつ第2のカーソルボタンに第2の方向を割り当てる。【選択図】 図7

Description

本発明の実施形態は、電子機器及び制御方法に関する。
最近、多くのモノがインターネットでつながるIoT時代となり、オフィス、工場、その他様々な場面において、ネットワークコミュニケーションや情報共有のツールとしてエッジコンピューティングと呼ばれる技術が求められている。このエッジコンピューティングを実現するためにはデータセンター(或いはクラウド)とは別に作業者(ユーザ)がその場で使用可能な、高度の汎用性と処理能力を持つ実用的なモバイルエッジコンピューティングデバイスの開発が必要とされている。これにより、作業現場等での業務効率化や生産性向上、或いは、データの負荷分散やネットワーク環境の改善等を図ることが期待される。
作業者は、このようなデバイスを体に装着し、当該デバイスに備えられた方向キー(カーソルボタン)を操作して当該デバイスの制御を行う。しかしながら、当該デバイスは、作業者又は作業内容により向きを変えて体に取り付けられるため、カーソルボタンの物理的な上下左右の位置と、当該カーソルボタンに設定されているキーコードとが相違する場合があった。
特開2018−78463号公報
本発明が解決しようとする課題は、作業者が電子機器に備えられるカーソルボタンのキーの割り当てを簡便に変更できる電子機器及び制御方法を提供することである。
一実施形態に係る電子機器は、任意の1方向にそれぞれ割り当て可能な第1及び第2のカーソルボタンと、前記第1及び第2のカーソルボタンに対し、第1及び第2の方向のいずれかをそれぞれ割り当てるためのアプリケーションプログラムと、前記アプリケーションプログラムを格納する記憶手段とを備える。前記アプリケーションプログラムは、作業者に前記第1の方向に対応するカーソルボタンの選択を促し、前記第1のカーソルボタンが選択された場合に、前記第1のカーソルボタンに前記第1の方向を割り当て、かつ前記第2のカーソルボタンに前記第2の方向を割り当てる。
ウェアラブルデバイス23の外観の一例を示す図である。 ウェアラブルデバイス23の本体24の外観の一例を示す図である。 モバイルPC16とウェアラブルデバイス本体24との接続の一例を示す図である。 ウェアラブルデバイス本体24の一例を示すブロック図である。 モバイルPC16の外観の一例を示す図である。 モバイルPC16の一例を示すブロック図である。 設定ファイルFに対するアクセスの一例を示す図である。 第1の実施形態における、設定メニュー画面の第1の例を示す図である。 第1の実施形態における、設定メニュー画面の第2の例を示す図である。 第1の実施形態における、カーソルボタン方向設定処理の一例を示すフローチャートである。 第1の実施形態における、カーソルボタン方向設定画面の第1の例を示す図である。 第1の実施形態における、カーソルボタン方向設定画面の第2の例を示す図である。 第1の実施形態における、カーソルボタン方向設定画面の第3の例を示す図である。 第1の実施形態における、カーソルボタン方向設定画面の第4の例を示す図である。 第2の実施形態における、カーソルボタン方向設定処理の一例を示すフローチャートである。 第2の実施形態における、カーソルボタン方向設定画面の第1の例を示す図である。 第2の実施形態における、カーソルボタン方向設定画面の第2の例を示す図である。 第3の実施形態における、カーソルボタン方向設定処理の一例を示すフローチャートである。 第3の実施形態における、カーソルボタン方向設定画面の一例を示す図である。
以下、各実施の形態について図面を参照して説明する。なお、開示はあくまで一例にすぎず、以下の各実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
<第1の実施形態>
現場の作業者は、後述するモバイルパーソナルコンピュータ(PC)(モバイルエッジコンピューティングデバイスと呼ぶこともある)16を携帯し、後述するウェアラブルデバイス23を頭部に装着する。ウェアラブルデバイス23とモバイルPC16とは通信可能に接続されている。
ウェアラブルデバイス23はカメラ及びディスプレイを備え、例えばカメラで撮影した画像をモバイルPC16に送信し、モバイルPC16から送信される画像をディスプレイで表示する。すなわち、モバイルPC16は、作業者の視界を画像化し、当該画像に何らかの画像処理を加えて作業者に見せることにより、作業者の業務を支援する。
また、モバイルPC16は、ネットワークを経由して遠隔地のオペレータ端末と接続する。これにより、作業者は遠隔地のオペレータより支援を受けることができる。
現場の作業の例は、複雑なメンテナンス業務、物流倉庫のピッキング作業、作業現場の監視、災害救助・医療サポート等がある。
[ウェアラブルデバイス23]
図1は、ウェアラブルデバイス23の外観の一例を示す図である。
ウェアラブルデバイス23はメガネフレーム142とウェアラブルデバイス本体24を備える。メガネフレーム142は一般的なメガネからレンズを取り除いた形状でもよく、作業者の顔に装着される。メガネフレーム142はメガネが取り付けられる構造としてもよい。作業者がメガネを常用する場合、常用しているメガネと同様な度数のレンズがメガネフレーム142に取り付けられてもよい。
メガネフレーム142はウェアラブルデバイス本体24が着脱される取付具144を左右のテンプルに備える。図1では作業者の右側のテンプルの取付具144はウェアラブルデバイス本体24に隠されているので、図示されない。上述したようにウェアラブルデバイス本体24はディスプレイ124(図2に示す)を備え、ディスプレイ124は片目で目視されるようになっているので、ウェアラブルデバイス本体24が利き目側に取り付けられるように取付具144は左右のテンプルに備えられている。なお、ウェアラブルデバイス本体24を取付具144によりメガネフレーム142に着脱自在に取り付ける必要はなく、ウェアラブルデバイス本体24がメガネフレーム142に固定された右眼用、左眼用のウェアラブルデバイス23を用意してもよい。さらに、ウェアラブルデバイス本体24をメガネフレーム142ではなく、ヘルメット、ゴーグル等を用いて作業者の頭部に装着してもよい。
ウェアラブルデバイス本体24は、その係合片128(図2に示す)が取付具144の上下の枠内に押し込まれることにより、メガネフレーム142に取り付けられる。ウェアラブルデバイス本体24をメガネフレーム142から取り外す場合は、ウェアラブルデバイス本体24が取付具144から引き抜かれる。
ウェアラブルデバイス本体24は取付具144に取り付けられた状態で、係合片128は取付具144内で前後に多少は移動可能である。このため、作業者の焦点がディスプレイ124に合うようにウェアラブルデバイス本体24は前後位置が調整可能である。さらに、取付具144はテンプルに直交する軸144Aを中心に回転可能であり、ウェアラブルデバイス本体24がメガネフレーム142に取り付けられた後、ディスプレイ124が作業者の視線上に位置するように上下位置が調整可能である。さらに、取付具144の回転角度は90度程度であり、取付具144を上方向に大きく回転することにより、ウェアラブルデバイス本体24をメガネフレーム142からはね上げることができる。これにより、ウェアラブルデバイス本体24により視野が邪魔され実物を見ることが困難な場合や、狭い場所でウェアラブルデバイス本体24が周囲の物体に干渉する場合でも、ウェアラブルデバイス23全体を顔から外す/再装着することなく、ウェアラブルデバイス本体24を作業者の視野から一時的に外す/戻すことができる。
[ウェアラブルデバイス本体24]
ウェアラブルデバイス本体24はメガネフレーム142のテンプルに沿った側面部と作業者の一方の眼球の視線上に位置する前面部とからなる。側面部に対する前面部の角度は調節可能である。
図1に示すように、前面部の外側表面にはカメラ116、ライト118、カメラLED120が設けられる。ライト118は暗部の撮影時に発光する補助照明である。カメラLED120は写真や動画の撮影時に点灯し、撮影対象者に撮影していることを認識させるためのものである。
右側のテンプルに取り付けられたウェアラブルデバイス本体24の側面部の上側面に第1、第2、第3ボタン102、104、106が設けられる。なお、作業者の利き目が左眼の場合、ウェアラブルデバイス本体24は左側のテンプルに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、側面部の上側面とした側面の両面に第1、第2、第3ボタン102、104、106を設けてもよい。
側面部の外側表面にはタッチパッド110、第4ボタン108、マイク112、照度センサ114が設けられる。タッチパッド110と第4ボタン108は人差し指で操作可能である。ボタン102、104、106は、ウェアラブルデバイス本体24が右側に取り付けられた際、それぞれ人差し指、中指、薬指で操作可能な位置に配置される。タッチパッド110は、その表面上で矢印に示すように作業者が指を上下前後に移動させたことを検出できるようにしている。この移動の検出は、指を接触したまま移動するドラッグの動きに加え指をさっと擦るフリックの動きも含む。タッチパッド110は、作業者の指の上下前後移動を検出すると、コマンドを入力する。本明細書では、コマンドとはウェアラブルデバイス本体24に対する特定の処理の実行指令のことである。第1〜第4ボタン102、104、106、108、タッチパッド110の操作方法はアプリケーションプログラムによって決められている。
例えば、
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ、
第3ボタン106が長押しされると、起動中のアプリケーションプログラムの一覧が表示され、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングのメニューが表示され、
第1ボタン102が1回押されると、操作の取り消し(キーボードのEscキーと同様の動作)が実行される。
タッチパッド110の操作に関しては、例えば、
上下にドラッグされると、カーソルが上下に移動され、
前にフリックされると、左のアイコンが選択され(連続してスクロール)、
後ろにフリックされると、右のアイコンが選択され(連続してスクロール)、
前にドラッグされると、左のアイコンが選択され(1項目ずつスクロール)、
後ろにドラッグされると、右のアイコンが選択され(1項目ずつスクロール)る。
第1ボタン102は人差し指、第2ボタン104は中指、第3ボタン106は薬指、第4ボタン108は小指で操作できるような位置に配置される。なお、第4ボタン108が側面部の上部ではなく、側面部の外側表面に設けられるのは、スペースの関係上であり、第4ボタン108も第1〜第3ボタン102、104、106と同様に側面部の上部に設けられてもよい。照度センサ114はディスプレイの明るさを自動調整するために周囲の照度を検出する。
図2はウェアラブルデバイス本体24の裏面の外観の一例を示す。前面部の内側にはLCDからなるディスプレイ124が設けられる。側面部の内側にはマイク126、スピーカ130、係合片128が設けられる。マイク126は側面部の前方に、スピーカ130は側面部の後方に、係合片128は側面部の後方に設けられる。スピーカ130の代わりにヘッドフォンを用いてもよい。その場合、マイクとヘッドフォンをインカムとして一体的に設けてもよい。
図3はモバイルPC16とウェアラブルデバイス本体24との接続の一例を示す。側面部の後方にはUSBtype−C(登録商標)規格のケーブル146の一端のプラグ146Aが挿入されるレセプタクル132が設けられる。USBtype−C規格のケーブル146の他端のプラグ146BはモバイルPC16の上部端面のUSBtype−C規格のコネクタ207に挿入される。このようにウェアラブルデバイス本体24はUSBtype−C規格のケーブル146を介してモバイルPC16に接続され、画像信号等がウェアラブルデバイス本体24とモバイルPC16の間で伝送される。ウェアラブルデバイス本体24は無線LAN、ブルートゥース(登録商標)等の無線通信によりモバイルPC16に接続されてもよい。
実施形態ではウェアラブルデバイス本体24は駆動電源としてのバッテリ又はDC端子を備えず、駆動電源はモバイルPC16からUSBtype−Cケーブル146を介してウェアラブルデバイス本体24に供給される。しかし、ウェアラブルデバイス本体24が駆動電源を備えてもよい。
図4はウェアラブルデバイス本体24の一例を示すブロック図である。USBtype−Cコネクタ132がミキサ166に接続される。ディスプレイコントローラ170とディスプレイ124とUSBハブ164がミキサ166の第1端子、第2端子にそれぞれ接続される。カメラコントローラ168、オーディオコーデック172、センサコントローラ162がUSBハブ164に接続される。カメラ116とライト118とカメラLED120がカメラコントローラ168に接続される。マイク112、126からのオーディオ信号がオーディオコーデック172に入力され、オーディオコーデック172からのオーディオ信号がアンプ174を介してスピーカ130に入力される。
センサコントローラ162に、モーションセンサ(例えば、加速度/地磁気/重力/ジャイロセンサ等)176、照度センサ114、近接センサ178、接触センサ179、タッチパッド110、第1〜第4ボタン102、104、106、108、GPSセンサ180が接続される。センサコントローラ162はモーションセンサ176、照度センサ114、近接センサ178、接触センサ179、タッチパッド110、第1〜第4ボタン102、104、106、108、GPSセンサ180からの検出信号を処理して、モバイルPC16へコマンドを供給する。図2には示していないが、モーションセンサ176、近接センサ178はウェアラブルデバイス本体24の内部に配置される。モーションセンサ176はウェアラブルデバイス本体24の動き、向き、姿勢等を検出する。近接センサ178は作業者の顔、指等の接近によりウェアラブルデバイス23の装着を検出する。接触センサ179は、物理的な接触を検出可能な機構であり、例えば、機械的なスイッチ、タッチパッドなどである。接触センサ179は、近接センサ178と同じく、作業者の顔、指等の接触によりウェアラブルデバイス23の装着を検出する。なお、近接センサ178及び接触センサ179は、少なくとも一方が備えられる。
[モバイルPC16]
図5はモバイルPC(モバイルエッジコンピューティングデバイス)16の外観の一例を示す。モバイルPC16は片手で持てる小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC16は作業着のポケット、ベルトに装着されるホルスタあるいはショルダーケースに収納でき、ウェアラブルである。モバイルPC16はCPUや半導体メモリ等の半導体チップやSSD(Solid State Disk)等のストレージデバイスを収納するが、ディスプレイと文字入力用のハードウェアキーボードは備えない。
モバイルPC16の正面にはアップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d、決定ボタン(センターボタン、エンターボタンとも称する)202eからなる5ボタン202が配置される。
アップボタン202aには、既定(デフォルト)では上方向の入力を示すキーコードが割り当てられる。ここで、上方向の入力とは、例えば、カーソルを上方向に移動させる入力を示す。同様に、既定では、ライトボタン202bには右方向の入力を示すキーコードが、ダウンボタン202cには下方向の入力を示すキーコードが、レフトボタン202dには左方向の入力を示すキーコードが、それぞれ割り当てられる。
以下では、アップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d(すなわち、5ボタン202のうち決定ボタン202eを除くボタン)の総称をカーソルボタンとする。
カーソルボタンのうち、アップボタン202a及びダウンボタン202c、並びに、レフトボタン202d及びライトボタン202bは、それぞれ決定ボタン202eを挟んで反対側(向かい合わせ)に配置される。また、カーソルボタンは円周上に等間隔に配置されているともいえる。
5ボタン202の下には、指紋センサ204が配置される。文字入力用のハードウェアキーボードが備わっておらず暗証番号(PINとも称する)を入力することができないので、指紋センサ204は、例えば、モバイルPC16のログイン時のユーザ認証のために用いられる。5ボタン202はコマンドを入力できる。
なお、5ボタン202の各ボタン202a〜202dに数字を割り当て、5ボタン202を用いて暗証番号を入力することにより、ログイン時のユーザ認証を行ってもよい。この場合、指紋センサ204は省略可能である。決定ボタン202e以外の4つのボタンに数字を割り当てるので、数字の種類は4つしかない。従って、ランダムに入力した数字が暗証番号に一致する可能性がある。しかし、暗証番号の桁数を大きくすれば、ランダムに入力した数字が暗証番号に一致する確率を小さくすることができる。指紋センサ204を備えるモバイルPC16でも5ボタン202による認証も可能としてもよい。1台のモバイルPC16を複数の作業者で共有することがあるが、指紋認証だけではこのような場合に対応できない。
5ボタン202はウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110の操作と同じ操作が可能である。ウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110で操作している様子を作業者は見ることができないので、作業者によっては意図した操作をするには慣れが必要な場合もある。また、ボタン102、104、106、108とタッチパッド110は小型であるので、操作しづらい場合もある。実施形態では、モバイルPC16の5ボタン202でも同じ操作ができるので、上記の懸念は解消される。5ボタン202の操作方法はアプリケーションによって決められている。
例えば、
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ(ウェアラブルデバイス本体24では、第3ボタン106の1回押しに対応)、
決定ボタン202eが長押しされると、終了又は操作の取り消しがなされ(ウェアラブルデバイス本体24では、第1ボタン102の1回押しが操作の取り消しに対応)、
アップボタン202aが1回押されると、カーソルが上に移動され(ウェアラブルデバイス本体24では、タッチパッド110で上にドラッグに対応)、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され(ウェアラブルデバイス本体24では、第3ボタン106の長押しに対応)、
ダウンボタン202cが1回押されると、カーソルが下に移動され(ウェアラブルデバイス本体24では、タッチパッド110で下にドラッグに対応)、
ダウンボタン202cが長押しされると、クイックセッティングメニュー(後述)が表示され(ウェアラブルデバイス本体24では、第2ボタン104の長押しに対応)、
レフトボタン202dが1回押されると、右のアイコンが選択され(ウェアラブルデバイス本体24では、タッチパッド110で後ろにドラッグ/フリックに対応)、
ライトボタン202bが1回押されると、左のアイコンが選択される(ウェアラブルデバイス本体24では、タッチパッド110で前にドラッグ/フリックに対応)。
モバイルPC16の上部側面には、USB3.0規格のコネクタ206とUSBtype−C規格のコネクタ207とオーディオジャック208が設けられる。
モバイルPC16の一方の側面(正面から見て左側の側面)には、メモリカード用のカードスロット218が設けられる。メモリカードは、例えばSDカード、マイクロSDカード(登録商標)等を含む。
モバイルPC16の他方の側面(正面から見て右側の側面)には、ケンジントンロック(登録商標)のためのスロット210、電源スイッチ212、パワーLED213、DC IN/バッテリLED214、DC端子216、冷却用の通風口222が設けられる。パワーLED213は電源スイッチ212の近傍に配置され、電源オンの期間点灯する。DC IN/バッテリLED214はバッテリが充電中であるか否か等のモバイルPC16の状態とバッテリの残量を表示する。モバイルPC16はバッテリで駆動可能であるが、DC端子216にACアダプタを接続した状態でも駆動可能である。図示しないが、裏面はワンタッチでバッテリが交換可能に構成されている。
図6はモバイルPC16の一例を示すブロック図である。モバイルPC16はウェアラブルデバイス本体24で撮影した映像をオペレータ端末へビデオ配信することや、オペレータ端末から受信した画像を閲覧することができる。このため、モバイルPC16はカメラ機能とビューワ機能を備える。カメラ機能はウェアラブルデバイス本体24のカメラ116で写真やビデオを撮影する機能である。撮影した写真やビデオはカメラフォルダに保存され、ビューワ機能で閲覧できる。ビューワ機能はカメラフォルダに保存されているファイルを閲覧する機能である。ファイルの種類は、画像、動画、PDFファイル、カメラ機能で撮影した写真やビデオ、オペレータ端末から受信した画像、オペレータ端末へ送信した画像、ユーザフォルダに保存されたファイルがある。
モバイルPC16はシステムコントローラ302を備え、システムコントローラ302はプロセッサ(CPU)とコントローラ・ハブからなる。プロセッサには、主メモリ308、BIOS−ROM310、パワーLED213、DC IN/バッテリLED214、USBコントローラ322が接続される。コントローラ・ハブには、フラッシュメモリ326、メモリカードコントローラ328、HDD又はSSDからなるストレージデバイス330、USB切替器324、オーディオコーデック334、3G/LTE/GPSデバイス336、指紋センサ204、USB3.0コネクタ206、ブルートゥース/無線LANデバイス340、EC/KBC344が接続される。
システムコントローラ302はストレージデバイス330から主メモリ308にロードされる様々なプログラムを実行する。これらプログラムは、OS316、アプリケーションプログラム314などを含む。
作業者は、例えば、モバイルPC16又はウェアラブルデバイス本体24に対して所定の操作を行うことにより、アプリケーションプログラム314に含まれるGUI(Graphical User Interface)による設定ツール(プログラム)を起動させる。作業者は、当該設定ツールの指示に従ってモバイルPC16又はウェアラブルデバイス本体24を操作することにより、モバイルPC16又はウェアラブルデバイス本体24の設定を変更する。
モバイルPC16及びウェアラブルデバイス本体24の設定は、後述する設定ファイルFに記録される。設定ファイルFは、例えば、フラッシュメモリ326又はストレージデバイス330などの記憶領域に格納される。
システムコントローラ302は、例えばモバイルPC16の起動時などにこの設定ファイルFを読み出し、設定ファイルFに記録された設定項目及び設定値にしたがって、モバイルPC16及びウェアラブルデバイス本体24を設定する。
オーディオコーデック334は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、オーディオジャック208に供給する。また、オーディオコーデック334は、オーディオジャック208から入力されるアナログのオーディオ信号をデジタル信号に変換する。
メモリカードコントローラ328はメモリカードスロット218に挿入されるメモリカード、例えばSDカードにアクセスして、SDカードに対するデータの読み書きを制御する。
USBコントローラ322はUSBtype−Cコネクタ207に接続されるUSBtype−Cケーブル又はUSB3.0コネクタ206に接続されるUSB3.0ケーブル(図示せず)に対するデータの送受信を制御する。
図示しないが、USBtype−Cコネクタ207にはポート拡張アダプタも接続可能であり、HDMI(登録商標)等のインターフェースが使用可能である。
ブルートゥース/無線LANデバイス340は、ネットワーク22との接続のためにブルートゥース規格の無線通信又はIEEE802.11規格の無線LAN通信を実行する。なお、ネットワーク22との接続は無線通信によらず、IEEE802.3規格の有線LAN通信によってもよい。
指紋センサ204はモバイルPC16の起動時の指紋認証のために使用される。
EC/KBC344には、サブプロセッサ346、電源スイッチ212及び5ボタン202が接続される。EC/KBC344は、電源スイッチ212の操作に応じてモバイルPC16をパワーオン又はパワーオフする機能を有する。パワーオン及びパワーオフの制御は、EC/KBC344と電源回路350との協働動作によって実行される。EC/KBC344はモバイルPC16がパワーオフされている期間中も、バッテリ352又はACアダプタ358からの電力によって動作する。電源回路350は、バッテリ352からの電力又は外部電源として接続されるACアダプタ358からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。電源回路350は電圧レギュレータモジュール356を含み、電圧レギュレータモジュール356はシステムコントローラ302内のプロセッサに接続される。
なお、モバイルPC16をウェアラブルデバイス本体24と別体として構成したが、モバイルPC16をウェアラブルデバイス本体24内に組み込んで、両者を一体として構成してもよい。
[カーソルボタン方向設定用アプリケーションプログラム]
従来、モバイルPC16のカーソルボタン(アップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d)のキー方向は、既定のキーコードが割り当てられており、変更することができなかった。また、モバイルPC16用のアプリケーションプログラムのGUIをウェアラブルデバイス本体24のディスプレイ124に表示させて作業者がキーコードを変更する場合でも、ディスプレイ124は解像度が低く、さらにはタッチパッド110を用いてGUIを操作する必要があるため、作業者にとって操作性が悪い。このため、例えばモバイルPC16の管理者などが、モバイルPC16に外部ディスプレイ、キーボード、マウスなどを接続してキーコードの変更を行っていた。
以下では、上述したモバイルPC16及びウェアラブルデバイス23を用いて、作業者がモバイルPC16のカーソルボタンのキー割り当てを簡便に変更できるアプリケーションプログラムについて説明する。
なお、上述のように、ウェアラブルデバイス本体24及びモバイルPC16は、種々の情報を処理可能な電子機器である。
図7は、設定ファイルFに対するアクセスの一例を示す図である。
上述のように、アプリケーションプログラム314は、GUIによる設定ツールPを含む。例えば、作業者がウェアラブルデバイス23を操作して設定ツールPを起動すると、ウェアラブルデバイス本体24のディスプレイ124に設定画面が表示される。
作業者は、この設定画面上で、ウェアラブルデバイス本体24及びモバイルPC16に関する各種設定を行うことができる。当該設定画面で設定可能な項目の詳細については、図8及び図9を用いて後述する。
ウェアラブルデバイス本体24に関する設定項目及び設定値は、設定ツールPに含まれるウェアラブルデバイス用設定サービスS1を通じて、設定ファイルFに記録される。同様に、モバイルPC16に関する設定項目及び設定値は、設定ツールPに含まれるモバイルPC用設定サービスS2を通じて、設定ファイルFに記録される。
設定ファイルFが更新された場合、モバイルPC16は、設定ファイルFを再読み込みすることにより、更新された設定項目の設定値をモバイルPC16及び/又はウェアラブルデバイス本体24に反映する。
なお、設定ツールPの設定画面は、例えばモバイルPC16の管理者などにより、モバイルPC16に接続される外部ディスプレイ(図示しない)などに表示されてもよい。ここで、一般的に外部ディスプレイとウェアラブルデバイス本体24のディスプレイ124の解像度は大きく異なるため、外部ディスプレイに表示される設定画面のGUIは、ディスプレイ124に表示される設定画面のGUIとは異なることが好ましい。より具体的には、設定画面が外部ディスプレイに表示される場合には、マウス、キーボードなどの入力装置により操作しやすいGUIであることが好ましい。また、設定画面がディスプレイ124に表示される場合には、タッチパッド110、5ボタン202などにより操作しやすいGUIであることが好ましい。
以下では、ウェアラブルデバイス本体24に表示される設定画面について説明するが、当該設定画面の設定項目及び設定方法は、モバイルPC16に接続される外部ディスプレイに表示される場合にも適用可能である。
図8及び図9は、設定メニュー画面の例を示す図である。
作業者が所定の操作を行うことにより設定ツールPを起動させると、ウェアラブルデバイス本体24のディスプレイ124には、設定メニュー画面が表示される。当該設定メニュー画面には、例えば図8に示すように、作業者がモバイルPC16及びウェアラブルデバイス23に対して設定変更可能な設定項目が表示される。
作業者が設定可能な項目は、例えば、モバイルPC16のカーソルボタンの設定、Wi−Fiアクセスポイントの設定、ウェアラブルデバイス本体24のディスプレイ124(画面)、タッチパッド110、ボタン102,104,106,第4ボタン108などの各種ボタン、ライト118、オーディオの設定、モバイルPC16のOSの電源アクションの設定、などである。
作業者は、タッチパッド110及び/又は5ボタン202のアップボタン202aもしくはダウンボタン202cを操作することにより、上記いずれかの設定項目を選択する。作業者が決定ボタン202eを押下すると、設定ツールPは選択された設定項目のサブメニューを表示する。
図8の上記設定項目のうち、項目M1(モバイルPC16のカーソルボタンの設定)のサブメニューを図9に示す。
サブメニューには、例えば、作業者がカーソルボタンの方向設定を行うためのプログラムを起動させる項目M2が表示される。なお、当該サブメニューには、項目M2以外の他の項目が表示されてもよい。
作業者は、図9に示すサブメニューが表示された後、例えばタッチパッド110、及び/又は、5ボタン202のアップボタン202aもしくはダウンボタン202cを操作し、項目M2を選択した状態で決定ボタン202eを押下する。これにより、カーソルボタン方向設定ウィザードが起動する。
以下、図10〜図14を用いて、カーソルボタン方向設定ウィザードを用いたカーソルボタン方向設定処理の詳細について述べる。
図10は、本実施形態における、カーソルボタン方向設定処理の一例を示すフローチャートである。また、図11〜14は、図10に示す各処理ステップのいくつかに対応したカーソルボタン方向設定画面のGUIの例である。
ステップS101において、設定ツールPは、図8及び図9を用いて上述した作業者の操作により、カーソルボタン方向設定ウィザードを起動する。ウェアラブルデバイス本体24のディスプレイ124には、カーソルボタン方向設定画面が表示される。
ステップS102において、設定ツールPは、モバイルPC16の5ボタン202を既定(デフォルト)の向きでディスプレイ124に表示する。
既定の向きで表示するとは、例えば、アップボタン202aが上にくるように表示することである。
なお、設定ツールPは、この既定の向きを、指紋センサ204の位置に基づいて決定してもよい。例えば、設定ツールPは、5ボタン202に対して指紋センサ204が下にくる位置を5ボタン202の既定の向きとしてもよい。
ステップS103において、設定ツールPは、作業者にアップボタンの選択を促す。
ここで、図11は、ステップS102,S103に対応するカーソルボタン方向設定画面のGUIである。
表示D1は、既定の向きで表示された5ボタン202の画像(画像領域)である。また、作業者にアップボタンの選択を促す手段として、例えばテキストT1のようなメッセージが表示される。
作業者は、4つのカーソルボタン(アップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d)のうち、アップボタンとして割り当てたいボタンを押下する。
ステップS104において、設定ツールPは、新たなアップボタン及び新たなダウンボタンを決定し、割り当て結果を表示する。具体的には、設定ツールPは、作業者により押下されたカーソルボタンを新たなアップボタンと決定し、新たなアップボタンと反対側(向かい合わせ)の位置にあるカーソルボタンを新たなダウンボタンと決定する。
ここで、図12は、ステップS104に対応するカーソルボタン方向設定画面のGUIである。
テキストT2は、新たなアップボタン及び新たなダウンボタンが割り当てられたことを示すメッセージある。
テキストT3は、新たなアップボタンを示す文字列である。例えば、新たなアップボタンがレフトボタン202dであると決定された場合、テキストT3は、表示D1におけるレフトボタン202dの近傍に表示される。
同様に、テキストT4は、新たなダウンボタンを示す文字列である。新たなダウンボタンは、新たなアップボタン(レフトボタン202d)の向かい合わせの位置にあるライトボタン202bであると決定される。したがって、テキストT4は、表示D1におけるライトボタン202bの近傍に表示される。
なお、テキストT3及びテキストT4は、図12に例示した文字列ではない文字列でもよく、数字もしくは記号などでもよい。また、テキストT3及びテキストT4は、表示D1の内側(もしくは各カーソルボタンの中)に表示されてもよい。
そして、作業者により決定ボタン202eが押下されることにより、処理はステップS105へ進む。
ステップS105において、設定ツールPは、作業者にレフトボタンの選択を促す。
ここで、図13は、ステップS105に対応するカーソルボタン方向設定画面のGUIである。
テキストT5は、作業者にアップボタンの選択を促すためのメッセージである。表示D1、テキストT3,T4は、図12と同様であるため、説明を省略する。
作業者は、上述の処理で割り当てられた新たなアップボタン及び新たなダウンボタン以外のカーソルボタンのうち、レフトボタンとして割り当てたいカーソルボタンを押下する。
ステップS106において、設定ツールPは、新たなレフトボタン及び新たなライトボタンを決定し、割り当て結果を表示する。具体的には、設定ツールPは、作業者により押下されたカーソルボタンを新たなレフトボタンと決定し、新たなレフトボタンと反対側(向かい合わせ)の位置にあるカーソルボタンを新たなライトボタンと決定する。
ここで、図14は、ステップS106に対応するカーソルボタン方向設定画面のGUIである。
テキストT8は、新たなレフトボタン及び新たなライトボタンが割り当てられ、全てのボタンの割り当てが完了したことを示すメッセージある。
テキストT6は、新たなレフトボタンを示す文字列である。例えば、新たなレフトボタンがアップボタン202aであると決定された場合、テキストT3は、表示D1におけるアップボタン202aの近傍に表示される。
同様に、テキストT7は、新たなライトボタンを示す文字列である。新たなライトボタンは、新たなレフトボタン(アップボタン202a)の向かい合わせの位置にあるダウンボタン202cであると決定される。したがって、テキストT7は、表示D1におけるダウンボタン202cの近傍に表示される。
その後、作業者により決定ボタン202eが押下されることにより、設定ツールPは、カーソルボタン方向設定ウィザードを終了させる。また、設定ツールPは、ウェアラブルデバイス用設定サービスS1を経由してカーソルボタンの新たな割り当て結果を設定ファイルFに記録する。
以上説明した本実施形態においては、設定ツールPは、タッチパッド110及び/又は5ボタン202のみで操作可能な設定メニューをウェアラブルデバイス本体24のディスプレイ124に表示する。これにより、作業者は、ウェアラブルデバイス23を装着した状態でも、簡便に設定メニューを操作し、カーソルボタン方向設定ウィザードを起動できる。したがって、作業者の利便性が向上する。
また、本実施形態において設定ツールPは、カーソルボタン方向設定ウィザードを介して、割り当てを変更するカーソルボタンを作業者に所定の順番で押下させることで、カーソルボタンの割り当ての変更を完了させる。これにより、作業者がモバイルPC16をどのような向きで体に装着した場合でも、作業者自身がモバイルPC16を装着後に5ボタン202のみの操作でカーソルボタンの割り当てを設定できるため、作業者の利便性が向上する。さらに、作業者は実際の作業環境で使用するボタンを押下して当該割り当ての変更を行うため、割り当てミスを低減することができる。
また、設定ツールPは、カーソルボタン方向設定ウィザードにより、4方向を割り当てる場合に、アップボタンの反対側(向かい合わせ)の位置にあるカーソルボタンをダウンボタンと決定し、レフトボタンの反対側(向かい合わせ)の位置にあるカーソルボタンをライトボタンと決定する。これにより、作業者が例えばアップボタンとレフトボタン、すなわち2方向のボタンを決定するだけで、4方向すべてのボタンの割り当てが決定される。したがって、作業者が当該設定にかかる時間を短縮することができる。
本実施形態においては、4方向は例えば上、下、左、右であるとして説明したが、他の4方向(すなわち、互いに異なる任意の4方向)を割り当てる場合でも、上述の設定処理を応用可能である。
なお、本実施形態においては、円周上に等間隔に配置された4つのカーソルボタンに4方向を割り当てる場合の設定処理について説明したが、複数のカーソルボタンに複数の方向を割り当てる場合であれば、上述の設定処理を応用可能である。
例えば、2つの向かい合うカーソルボタンに2方向を割り当てる場合は、図10に示した手順と同様の手順で1方向に対応するカーソルボタンを決定するだけで、当該2つのカーソルボタンの割り当てが決定される。なお、この場合、上記2つのカーソルボタンは向かい合わせに配置されていなくても、同様の手順で設定可能である。
また、例えば、円周状に等間隔に配置された8つのカーソルボタンに8方向を割り当てる場合は、図10に示した手順と同様の手順で4方向のボタンを決定するだけで、8方向のすべてのカーソルボタンの割り当てが決定される。
なお、本実施形態においては、カーソルボタン方向設定ウィザードのGUIがディスプレイ124に表示されるとして説明した。しかしながら、カーソルボタン方向設定ウィザードは、例えばウェアラブルデバイス本体24のスピーカ130を通じてテキストT1,T2,T5,T8などの音声データを出力することにより、音声ガイダンスのみで実行されてもよい。
<第2の実施形態>
本実施形態においては、カーソルボタン方向設定ウィザードを用いたカーソルボタン方向設定処理の変形例について説明する。なお、モバイルPC16及びウェアラブルデバイス本体24の構成は第1の実施形態と同様であるため、説明を省略する。
図15は、本実施形態における、カーソルボタン方向設定処理の一例を示すフローチャートである。また、図16,17には、図15に示す各処理ステップのいくつかに対応したカーソルボタン方向設定画面のGUIの例を示す。
ステップS201は、図10のステップS101と同様であるため、説明を省略する。
ステップS202において、設定ツールPは、アップボタン及びダウンボタンが割り当てられた4種類の5ボタン202の画像領域(画像グループ)をディスプレイ124に表示し、作業者に選択を促す。なお、ステップS102と同様に、5ボタン202は既定の向きで表示される。
作業者は、カーソルボタンを操作することにより、表示された画像グループの中から所望の割り当てパターンを選択する。選択された割り当てパターンに対し、例えば決定ボタン202eが押下されると、処理はステップS203に進む。
ここで、図16は、ステップS202に対応するカーソルボタン方向設定画面のGUIである。
表示D11〜D14は、アップボタン及びダウンボタンの4種類の割り当てパターンを示す5ボタン202の画像グループである。また、作業者にアップボタン及びダウンボタンの組み合わせの選択を促す手段として、例えばテキストT11のようなメッセージが表示される。
ステップS203において、設定ツールPは、作業者に選択された割り当てパターンに基づき、新たなアップボタン及び新たなダウンボタンを決定する。図16において、例えば作業者がカーソルC1の位置で決定ボタン202eを押下した場合、新たなアップボタンはダウンボタン202cであると決定され、新たなダウンボタンはアップボタン202aであると決定される。
ステップS204において、設定ツールPは、残りのレフトボタン及びライトボタンの割り当てを示す2種類の5ボタン202の画像領域(画像グループ)をディスプレイ124に表示し、作業者に選択を促す。
作業者は、カーソルボタンを操作することにより、表示された画像グループの中から所望の割り当てパターンを選択する。選択された割り当てパターンに対し、例えば決定ボタン202eが押下されると、処理はステップS205に進む。
ここで、図17は、ステップS204に対応するカーソルボタン方向設定画面のGUIである。
表示D15,D16は、レフトボタン及びライトボタンの2種類の割り当てパターンを示す5ボタン202の画像グループである。また、作業者にレフトボタン及びライトボタンの組み合わせの選択を促す手段として、例えばテキストT12のようなメッセージが表示される。
ステップS205において、設定ツールPは、作業者に選択された割り当てパターンに基づき、新たなレフトボタン及び新たなライトボタンを決定する。図17において、例えば作業者がカーソルC2の位置で決定ボタン202eを押下した場合、新たなレフトボタンはライトボタン202bであると決定され、新たなライトボタンはレフトボタン202dであると決定される。
ステップS205の処理により、全てのカーソルボタンの新たな割り当てが決定され、カーソルボタン方向設定ウィザードは終了する。設定ツールPは、ウェアラブルデバイス用設定サービスS1を経由してカーソルボタンの割り当て結果を設定ファイルFに記録する。
なお、設定ツールPは、カーソルボタン方向設定ウィザードの終了前に、カーソルボタンの新たな割り当てを示す5ボタン202の画像領域をディスプレイ124に表示してもよい。
また、設定ツールPは、例えば図16の表示D11〜D14、又は、図17の表示D15,D16をディスプレイ124の1画面に表示しきれない場合は、スクロール表示により表示してもよい。
以上説明した本実施形態においては、設定ツールPは、カーソルボタン方向設定ウィザードを介して、割り当てを変更するカーソルボタンの組み合わせを所定の順番で作業者に提示し、選択させることで、カーソルボタンの割り当てを変更する。作業者は、あらかじめ複数のカーソルボタンの組み合わせを知ることができるため、作業者の利便性が向上する。
なお、本実施形態においては、アップボタン及びダウンボタンが決定された後に、レフトボタン及びライトボタンが決定されるとしたが、割り当て順序はこの逆でもよい。
また、本実施形態の図16,17おいては、決定された新たなカーソルボタンを示す文字列が5ボタン202を示す表示D11〜D16の中に表示されているが、当該文字列は、第1の実施形態と同様に、各カーソルボタンの近傍に表示されてもよい。
なお、本実施形態においては、カーソルボタンが4つである場合を例示したが、上記カーソルボタン方向設定処理は、カーソルボタンが4つ以外の場合にも適用可能である。
<第3の実施形態>
本実施形態においては、カーソルボタン方向設定ウィザードを用いたカーソルボタン方向設定処理のさらなる変形例について説明する。なお、モバイルPC16及びウェアラブルデバイス本体24の構成は第1及び第2の実施形態と同様であるため、説明を省略する。
図18は、本実施形態におけるカーソルボタン方向設定処理の一例を示すフローチャートである。
ステップS301は、図10のステップS101と同様であるため、説明を省略する。
ステップS302において、設定ツールPは、全てのカーソルが割り当てられた8種類の5ボタン202の画像領域(画像グループ)をディスプレイ124に表示し、作業者に選択を促す。なお、ステップS102と同様に、5ボタン202は既定の向きで表示される。
作業者は、カーソルボタンを操作することにより、表示された画像グループの中から所望の割り当てパターンを選択する。選択された割り当てパターンに対し、例えば決定ボタン202eが押下されると、処理はステップS303に進む。
ここで、図19は、ステップS302に対応するカーソルボタン方向設定画面のGUIである。
表示D21〜D28は、カーソルボタンの8種類の割り当てパターンを示す5ボタン202の画像グループである。また、作業者にカーソルボタンの組み合わせの選択を促す手段として、例えばテキストT21のようなメッセージが表示される。
ステップS303において、設定ツールPは、作業者に選択された割り当てパターンに基づき、新たなカーソルボタンの割り当てを決定する。図19において、例えば作業者がカーソルC3の位置で決定ボタン202eを押下した場合、新たなアップボタンはレフトボタン202dであると決定され、新たなダウンボタンはライトボタン202bであると決定され、新たなレフトボタンはアップボタン202aであると決定され、新たなライトボタンはダウンボタン202cであると決定される。
ステップS303の処理により、一度に全てのカーソルボタンの新たな割り当てが決定され、カーソルボタン方向設定ウィザードは終了する。設定ツールPは、ウェアラブルデバイス用設定サービスS1を経由してカーソルボタンの割り当て結果を設定ファイルFに記録する。
なお、表示D21〜D28は、第2の実施形態と同様に、ディスプレイ124上でスクロール表示されてもよい。
以上説明した本実施形態においては、設定ツールPは、カーソルボタン方向設定ウィザードを介して、割り当てを変更するカーソルボタンの全ての組み合わせを作業者に提示し、選択させることで、カーソルボタンの割り当てを変更する。作業者は、あらかじめカーソルボタンの組み合わせの全てを一度に知ることができるため、作業者の利便性が向上する。
本実施形態においては、カーソルボタンが4つである場合を例示したが、上記カーソルボタン方向設定処理は、カーソルボタンが4つ以外の場合にも適用可能である。
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
16…モバイルPC、23…ウェアラブルデバイス、24…ウェアラブルデバイス本体、124…ディスプレイ、308…主メモリ、314…アプリケーションプログラム、F…設定ファイル、P…設定ツール、S1…ウェアラブルデバイス用設定サービス、S2…モバイルPC用設定サービス。

Claims (10)

  1. 任意の1方向にそれぞれ割り当て可能な第1及び第2のカーソルボタンと、
    前記第1及び第2のカーソルボタンに対し、第1及び第2の方向のいずれかをそれぞれ割り当てるためのアプリケーションプログラムと、
    前記アプリケーションプログラムを格納する記憶手段と、
    を備え、
    前記アプリケーションプログラムは、
    作業者に前記第1の方向に対応するカーソルボタンの選択を促し、前記第1のカーソルボタンが選択された場合に、前記第1のカーソルボタンに前記第1の方向を割り当て、かつ前記第2のカーソルボタンに前記第2の方向を割り当てる
    電子機器。
  2. 前記アプリケーションプログラムのユーザインタフェースを表示する表示手段と、
    を備え、
    前記アプリケーションプログラムは、前記表示手段に、
    前記第1のカーソルボタンを示す第1の画像領域、前記第2のカーソルボタンを示す第2の画像領域、及び、前記第1の方向に対応するカーソルボタンの選択を促す旨を表示し、
    前記第1のカーソルボタンが選択された場合に、前記第1の画像領域の近傍に前記第1のカーソルボタンが前記第1の方向を示す旨を表示し、かつ前記第2の画像領域の近傍に前記第2のカーソルボタンが前記第2の方向を示す旨を表示する
    請求項1に記載の電子機器。
  3. 前記アプリケーションプログラムは、前記作業者により前記第1のカーソルボタンが押下された場合に、前記第1のカーソルボタンが選択されたと判定する
    請求項1又は請求項2に記載の電子機器。
  4. 前記表示手段を含む第1の電子機器と、
    前記第1のカーソルボタンと、前記第2のカーソルボタンと、前記記憶手段とを含む第2の電子機器と、
    を備える
    請求項2に記載の電子機器。
  5. 前記第1の電子機器はメガネ型のウェアラブルデバイスであり、
    前記第2の電子機器は前記作業者が携帯可能なパーソナルコンピュータである
    請求項4に記載の電子機器。
  6. 任意の1方向に割り当て可能な第1のカーソルボタンと、
    任意の1方向に割り当て可能であり、前記第1のカーソルボタンと向かい合わせに配置される第2のカーソルボタンと、
    任意の1方向に割り当て可能な第3のカーソルボタンと、
    任意の1方向に割り当て可能であり、前記第3のカーソルボタンと向かい合わせに配置される第4のカーソルボタンと、
    前記第1乃至第4のカーソルボタンに対し、第1乃至第4の方向のいずれかをそれぞれ割り当てるためのアプリケーションプログラムと、
    前記アプリケーションプログラムを格納する記憶手段と、
    を備え、
    前記アプリケーションプログラムは、
    作業者に前記第1の方向に対応するカーソルボタンの選択を促し、
    前記第1の方向に対して前記第1のカーソルボタンが選択された場合に、前記第1のカーソルボタンに前記第1の方向を割り当て、かつ前記第2のカーソルボタンに前記第2の方向を割り当てる第1の割り当て処理を実行し、
    前記第1の割り当て処理の後、作業者に前記第3の方向に対応するカーソルボタンの選択を促し、
    前記第3の方向に対して前記第3のカーソルボタンが選択された場合に、前記第3のカーソルボタンに前記第3の方向を割り当て、かつ前記第4のカーソルボタンに前記第4の方向を割り当てる第2の割り当て処理を実行する
    電子機器。
  7. 前記アプリケーションプログラムのユーザインタフェースを表示する表示手段と、
    を備え、
    前記アプリケーションプログラムは、前記表示手段に、
    前記第1のカーソルボタンを示す第1の画像領域、前記第2のカーソルボタンを示す第2の画像領域、前記第3のカーソルボタンを示す第3の画像領域、前記第4のカーソルボタンを示す第4の画像領域、及び、前記第1の方向に対応するカーソルボタンの選択を促す旨を表示し、
    前記第1の割り当て処理を実行した際に、前記第1の画像領域の近傍に前記第1のカーソルボタンが前記第1の方向を示す旨を表示し、かつ前記第2の画像領域の近傍に前記第2のカーソルボタンが前記第2の方向を示す旨を表示し、
    前記第1の割り当て処理の後、前記第3の方向に対応するカーソルボタンの選択を促す旨を表示し、
    前記第2の割り当て処理を実行した際に、前記第3の画像領域の近傍に前記第3のカーソルボタンが前記第3の方向を示す旨を表示し、かつ前記第4の画像領域の近傍に前記第4のカーソルボタンが前記第4の方向を示す旨を表示する
    請求項6に記載の電子機器。
  8. 任意の1方向に割り当て可能な第1のカーソルボタンと、
    任意の1方向に割り当て可能であり、前記第1のカーソルボタンと向かい合わせに配置される第2のカーソルボタンと、
    任意の1方向に割り当て可能な第3のカーソルボタンと、
    任意の1方向に割り当て可能であり、前記第3のカーソルボタンと向かい合わせに配置される第4のカーソルボタンと、
    前記第1乃至第4のカーソルボタンに対し、第1乃至第4の方向を割り当てるためのアプリケーションプログラムと、
    前記アプリケーションプログラムを格納する記憶手段と、
    前記アプリケーションプログラムのユーザインタフェースを表示する表示手段と、
    を備え、
    前記アプリケーションプログラムは、前記表示手段に、
    前記第1乃至第4のカーソルボタンに割り当てる前記第1の方向及び前記第2の方向の複数の割り当てパターンを示す第1の画像グループを表示し、
    前記第1の画像グループのうち作業者に選択された割り当てパターンに基づいて、前記第1乃至第4のカーソルボタンのうち前記第1の方向に対応するカーソルボタン及び前記第2の方向に対応するカーソルボタンを決定する第1の割り当て処理を実行し、
    前記第1の割り当て処理の後、前記第1乃至第4のカーソルボタンのうち前記第1の割り当て処理により割り当て済でない残りのカーソルボタンに割り当てる前記第3の方向及び前記第4の方向の複数の割り当てパターンを示す第2の画像グループを表示し、
    前記第2の画像グループのうち作業者に選択された割り当てパターンに基づいて、前記残りのカーソルボタンのうち前記第3の方向に対応するカーソルボタン及び前記第4の方向に対応するカーソルボタンを決定する第2の割り当て処理を実行する
    電子機器。
  9. 任意の1方向にそれぞれ割り当て可能な複数のカーソルボタンと、
    前記複数のカーソルボタンに対し、複数の方向のいずれかをそれぞれ割り当てるためのアプリケーションプログラムと、
    前記アプリケーションプログラムを格納する記憶手段と、
    前記アプリケーションプログラムのユーザインタフェースを表示する表示手段と、
    を備え、
    前記アプリケーションプログラムは、前記表示手段に、
    前記複数のカーソルボタンに割り当てる前記複数の方向の複数の割り当てパターンを示す画像グループを表示し、
    前記画像グループのうち作業者に選択された割り当てパターンに基づいて、前記複数のカーソルボタンのうち、前記複数の方向それぞれに対応するカーソルボタンを決定する
    電子機器。
  10. 任意の1方向にそれぞれ割り当て可能な第1のカーソルボタン及び第2のカーソルボタンに対し、第1の方向及び第2の方向のいずれかをそれぞれ割り当てるための電子機器の制御方法であって、
    作業者に前記第1の方向に対応するカーソルボタンの選択を促すことと、
    前記第1のカーソルボタンが選択された場合に、前記第1のカーソルボタンに前記第1の方向を割り当て、かつ前記第2のカーソルボタンに前記第2の方向を割り当てることと、
    を具備する
    制御方法。
JP2018162725A 2018-08-31 2018-08-31 電子機器及び制御方法 Pending JP2020035293A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018162725A JP2020035293A (ja) 2018-08-31 2018-08-31 電子機器及び制御方法
US16/233,001 US11061565B2 (en) 2018-08-31 2018-12-26 Electronic device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162725A JP2020035293A (ja) 2018-08-31 2018-08-31 電子機器及び制御方法

Publications (1)

Publication Number Publication Date
JP2020035293A true JP2020035293A (ja) 2020-03-05

Family

ID=69642256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162725A Pending JP2020035293A (ja) 2018-08-31 2018-08-31 電子機器及び制御方法

Country Status (2)

Country Link
US (1) US11061565B2 (ja)
JP (1) JP2020035293A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240001275A (ko) * 2021-05-19 2024-01-03 스냅 인코포레이티드 증강 현실 디스플레이 디바이스를 위한 터치패드 입력
US11928306B2 (en) 2021-05-19 2024-03-12 Snap Inc. Touchpad navigation for augmented reality display device
US11880542B2 (en) 2021-05-19 2024-01-23 Snap Inc. Touchpad input for augmented reality display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002351597A (ja) * 2001-05-30 2002-12-06 Mitsubishi Electric Corp 携帯機器
JP2005086509A (ja) * 2003-09-09 2005-03-31 Seiko Epson Corp 撮影装置およびその処理方法並びに撮影装置用のプログラム
JP2005267000A (ja) * 2004-03-17 2005-09-29 Sony Corp 電子機器および機能割り当て方法
JP2017010183A (ja) * 2015-06-19 2017-01-12 セイコーエプソン株式会社 電子機器、及び、電子機器の制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310437A (ja) * 2006-05-16 2007-11-29 Sun Corp 情報端末装置、および文字データ表示方法
JP2010081559A (ja) 2008-09-29 2010-04-08 Nikon Corp ウェアラブルディスプレイ装置
JP6136127B2 (ja) 2012-06-25 2017-05-31 株式会社リコー コントローラ、電子機器及びusbデバイスの制御方法
WO2014038213A1 (ja) * 2012-09-10 2014-03-13 パナソニック株式会社 電子機器、情報処理装置、情報処理方法およびプログラム
WO2016175055A1 (ja) 2015-04-30 2016-11-03 株式会社村田製作所 ウエアラブル装置
JP2017117159A (ja) 2015-12-24 2017-06-29 シャープ株式会社 端末装置及び双方向通信システム
JP2018078463A (ja) * 2016-11-10 2018-05-17 ソニー株式会社 画像処理装置および設定方法、並びにプログラム
US10444987B2 (en) * 2016-12-19 2019-10-15 Microsoft Technology Licensing, Llc Facilitating selection of holographic keyboard keys

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002351597A (ja) * 2001-05-30 2002-12-06 Mitsubishi Electric Corp 携帯機器
JP2005086509A (ja) * 2003-09-09 2005-03-31 Seiko Epson Corp 撮影装置およびその処理方法並びに撮影装置用のプログラム
JP2005267000A (ja) * 2004-03-17 2005-09-29 Sony Corp 電子機器および機能割り当て方法
JP2017010183A (ja) * 2015-06-19 2017-01-12 セイコーエプソン株式会社 電子機器、及び、電子機器の制御方法

Also Published As

Publication number Publication date
US11061565B2 (en) 2021-07-13
US20200073550A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7080636B2 (ja) システム
KR102471447B1 (ko) 미러형 디스플레이 장치 및 그 제어방법
US20150062164A1 (en) Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
JP7073122B2 (ja) 電子機器、制御方法及びプログラム
WO2022134632A1 (zh) 作品处理方法及装置
JP2020035293A (ja) 電子機器及び制御方法
KR102352390B1 (ko) 디지털 디바이스 및 그 제어 방법
US20200226893A1 (en) Electronic edge computing device
US20200098361A1 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
US20190236260A1 (en) Electronic apparatus, control system, control method, and storage medium
US10852548B2 (en) Electronic device, wearable device, and setting method
JP6968689B2 (ja) 電子機器、ウェアラブル機器及び表示制御方法
JP6995650B2 (ja) ウェアラブル機器及びその操作方法
US10705726B2 (en) Electronic device, wearable device, and character input control method
US11042705B2 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
US11068573B2 (en) Electronic device and method of starting electronic device
US10552360B2 (en) Electronic device, connection method, and storage medium
JP6995651B2 (ja) 電子機器、ウェアラブル機器および表示制御方法
KR20160029348A (ko) 글래스형 이동 단말기
US11063822B2 (en) Electronic apparatus and control method
KR20160041710A (ko) 글래스 타입의 이동 단말기

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220927