JP2020034997A - 電子機器、ウェアラブル機器および設定方法 - Google Patents

電子機器、ウェアラブル機器および設定方法 Download PDF

Info

Publication number
JP2020034997A
JP2020034997A JP2018158395A JP2018158395A JP2020034997A JP 2020034997 A JP2020034997 A JP 2020034997A JP 2018158395 A JP2018158395 A JP 2018158395A JP 2018158395 A JP2018158395 A JP 2018158395A JP 2020034997 A JP2020034997 A JP 2020034997A
Authority
JP
Japan
Prior art keywords
setting
wearable device
main body
mode
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018158395A
Other languages
English (en)
Inventor
茂樹 木崎
Shigeki Kizaki
茂樹 木崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynabook Inc
Original Assignee
Dynabook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynabook Inc filed Critical Dynabook Inc
Priority to JP2018158395A priority Critical patent/JP2020034997A/ja
Priority to US16/280,776 priority patent/US10852548B2/en
Publication of JP2020034997A publication Critical patent/JP2020034997A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eyeglasses (AREA)

Abstract

【課題】方向性を持つデバイスの設定に関するユーザビリティを向上させることができる電子機器を提供する。【解決手段】電子機器(モバイルPC)は、ウェアラブル機器に接続可能である。ウェアラブル機器は、方向性を持つ複数のデバイスを備える。各種アプリケーションプログラム3/4を含む電子機器は、設定部を具備する。設定部は、複数のデバイスそれぞれの方向性の設定を含むウェアラブル機器の使用形態の設定を行う。設定部は、ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、複数のデバイスそれぞれの方向性を反転させるように複数のデバイスすべての方向性の設定を変更する。【選択図】図10

Description

本発明の実施形態は、電子機器、ウェアラブル機器および設定方法に関する。
近年、多くのモノがインターネットで繋がるIoT(Internet of Things)時代となり、オフィス、工場、その他様々な場面において、ネットワークコミュニケーションや情報共有のツールとしてエッジコンピューティングと呼ばれる技術が求められている。このエッジコンピューティングを実現するためには、データセンタ(またはクラウド)とは別に作業者(ユーザ)がその場で使用可能な、高度の汎用性と処理能力を持つ実用的なモバイルエッジコンピューティングデバイスの開発が必要とされている。これにより、作業現場等での業務効率化や生産性向上、データの負荷分散やネットワーク環境の改善等を図ることが期待される。
たとえば作業者が作業着のポケットなどに収納して携帯するモバイルエッジコンピューティングデバイスには、各種操作を行うためのタッチパッド、データセンタから送られる情報を表示するためのディスプレイ、データセンタへ送る作業現場等の画像を撮影するためのカメラなどを備える、たとえばメガネ型のウェアラブルデバイスが接続され得る。メガネ型のウェアラブルデバイスの中には、主ユニットを、メガネフレームの左右のテンプルのどちらかに装着するものが存在する。この種のメガネ型のウェアラブルデバイスの場合、ディスプレイを、たとえば利き目の右眼または左眼の一方、つまり単眼で目視する。
特開2009−021780号公報
ところで、メガネフレームの右側のテンプルに装着される場合と、左側のテンプルに装着される場合とでは、通常、主ユニットは上下反転する。一方、タッチパッド、ディスプレイ、カメラなどはいずれも上下や左右などの方向性を持つデバイスである。したがって、たとえば作業現場での視野の確保の関係などにより、一時的に、主ユニットをメガネフレームの右側のテンプルから左側のテンプルへと装着し替える場合、これら方向性を持つデバイスそれぞれについて、方向性の設定を変更する必要がある。また、あるデバイスの方向性についてユーザが独自の設定を行っている場合、その独自の設定を踏まえて、そのデバイスの方向性の設定を変更しなければならない。
本発明が解決しようとする課題は、方向性を持つデバイスの設定に関するユーザビリティを向上させることができる電子機器、ウェアラブル機器および設定方法を提供することである。
実施形態によれば、電子機器は、ウェアラブル機器に接続可能である。ウェアラブル機器は、方向性を持つ複数のデバイスを備える。電子機器は、設定部を具備する。前記設定部は、前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行う。前記設定部は、前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更する。
実施形態の電子機器(モバイルPC)を含む遠隔支援システムの一例を示すブロック図。 実施形態のモバイルPCの外観の一例を示す図。 実施形態の(モバイルPCに接続される)ウェアラブルデバイスの外観の一例を示す図。 実施形態のウェアラブルデバイス本体の裏面の外観の一例を示す図。 実施形態におけるモバイルPCとウェアラブルデバイス本体との接続の一例を示す図。 実施形態におけるウェアラブルデバイス本体に設けられるタッチパッドの左右の方向性の設定を説明するための図。 実施形態におけるモバイルPCと各種外部デバイス(外部ディスプレイ、外部キーボード、外部ポインティングデバイス)との接続の一例を示す図。 実施形態のウェアラブルデバイス本体の構成の一例を示すブロック図。 実施形態のモバイルPCの構成の一例を示すブロック図。 実施形態のモバイルPCが方向性を持つデバイスの設定に関するユーザビリティを向上させるために備える各種アプリケーションプログラムの一例を示す図。 実施形態のモバイルPCで用いられる環境設定ファイルの一例を示す図。 実施形態のモバイルPCが表示するウェアラブルデバイス本体に設けられる各種デバイスの設定画面の一例を示す図。 実施形態のモバイルPCによるウェアラブルデバイス本体に設けられる各種デバイス(タッチパッド、ディスプレイ、カメラ)の方向性の設定に関する処理の流れの一例を示すフローチャート。
以下、実施の形態について図面を参照して説明する。なお、開示はあくまで一例に過ぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするために、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。
[遠隔支援システム]
図1は、本実施形態の電子機器(モバイルPC(Personal Computer)[モバイルエッジコンピューティングデバイスと呼ぶこともある]16)を含む、エッジコンピューティングを実現するための遠隔支援システムの一例を示すブロック図である。遠隔支援システムは、ユーザ、たとえば作業現場の作業者を後方のオペレータが遠隔地から支援するためのシステムである。現地の作業の例は、複雑なメンテナンス業務、物流倉庫のピッキング作業、作業現場の監視、災害救助・医療サポート等がある。作業現場の作業者側をフロントエンド、後方のオペレータ側をバックエンドとも称する。遠隔支援システムは、作業者が携帯するモバイルPC16と、作業者から離れた位置にある遠隔支援センタ(データセンタ)18とがネットワーク22を介して相互に接続され、通信可能となっている。モバイルPC16および遠隔支援センタ18は、有線のLAN(Local Area Network)ケーブルによりネットワーク22に接続されてもよいし、無線LAN、ブルートゥース(登録商標)等によりネットワーク22に接続されてもよい。
ウェアラブルデバイス23は、モバイルPC16と接続される。図1では、ウェアラブルデバイス23はケーブルによりモバイルPC16に接続される例を示すが、ウェアラブルデバイス23は無線LAN、ブルートゥース等によりモバイルPC16と接続されてもよい。ウェアラブルデバイス23は、カメラ、ディスプレイを備え、カメラで撮影した画像をモバイルPC16に送信し、モバイルPC16から送信される画像をディスプレイに表示する。
図1に示すように、複数の作業者が、ネットワーク22を介して相互に通信することも可能である。この場合、遠隔支援センタ18を経由してもよいし、遠隔支援センタ18のオペレータを介さずに作業者同士のみで通信するようにすることも可能である。
遠隔支援センタ18は、オペレータ端末12およびサーバ14を備える。遠隔支援センタ18では、オペレータ端末12が、モバイルPC16(およびウェアラブルデバイス23)との間で音声通話を行い、または、情報をやり取りする。たとえば、モバイルPC16に接続されるウェアラブルデバイス23が撮影するリアルタイム画像をオペレータ端末12に送信することや、モバイルPC16−オペレータ端末12間で画像を相互に送受信することができる。また、オペレータ端末12からモバイルPC16にテキストメッセージを送信することもできる。たとえば、物流倉庫ピッキング作業では、メガネ型のウェアラブルデバイス23にピッキング品の場所を表示させ、ハンズフリーでのピッキングを実現できる。
遠隔支援としては、典型的には、たとえば以下の機能を含む。
(1)モバイルPC16とオペレータ端末12との双方向の音声通話を行う音声通話機能。
(2)音声通話中にウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信するライブ映像配信機能。
(3)音声通話中にモバイルPC16とオペレータ端末12間で静止画を送受信する静止画像の送受信機能(モバイルPC16は撮影した静止画像や動画像中のキャプチャ画像をオペレータ端末12に送信し、オペレータ端末12は受信した画像に文字や絵などを書き込み、編集した画像をモバイルPC16に送信する機能。モバイルPC16で受信した静止画像は、モバイルPC16内のフォルダに保存され、閲覧可能である)。
(4)音声通話中にオペレータ端末12のデスクトップ画面全体または任意のアプリケーションのウィンドウをウェアラブルデバイス23に表示する画面共有機能。
(5)オペレータ端末12からモバイルPC16に対してテキストメッセージを送信するテキストメッセージの送信機能。
サーバ14は、遠隔支援のための処理をオペレータ端末12に代わって、または、協働して行うものである。なお、サーバ14の機能を全てオペレータ端末12に持たせ、サーバ14を省略してもよい。
[オペレータ端末12]
オペレータ端末12は、デスクトップ型PCまたはノートブック型PC等からなる。
オペレータは、オペレータ端末12を用いて作業現場の状況をリアルタイム映像で確認しながら、会話や画像によってモバイルPC16の作業者に指示を行う。オペレータは、オペレータ端末12を用いてモバイルPC16から受信した画像ファイルに絵や文字などの書き込みを行い、編集した画像ファイルをモバイルPC16に送信することや、オペレータ端末12に保存することができる。
[モバイルPC16]
図2は、モバイルPC(モバイルエッジコンピューティングデバイス)16の外観の一例を示す。モバイルPC16は片手で持てる小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC16は、作業着のポケット、ベルトに装着されるホルスタまたはショルダーケースに収納でき、ウェアラブルである。モバイルPC16は、CPU(Central Processing Unit)、半導体メモリ等の半導体チップや、SSD(Solid State Drive)等のストレージデバイスなどを収納するが、ディスプレイや、文字入力用のハードウェアキーボードは備えない。
モバイルPC16の正面にはアップボタン202a、ライトボタン202b、ダウンボタン202c、レフトボタン202d、決定ボタン(センタボタン、エンターボタンとも称する)202eからなる5ボタン202が配置され、その下に指紋センサ204が配置される。文字入力用のハードウェアキーボードが備わっておらず暗証番号(PINとも称する)を入力することができないので、指紋センサ204は、モバイルPC16のログイン時のユーザ認証のために用いられる。5ボタン202はコマンドを入力できる。
なお、5ボタン202の各ボタン202a〜202dを数字に割り当て、5ボタン202を用いて暗証番号を入力することにより、ログイン時のユーザ認証を行ってもよい。この場合、指紋センサ204は省略可能である。決定ボタン202e以外の4つのボタンに数字を割り当てるので、数字の種類は4つしかない。したがって、ランダムに入力した数字が暗証番号に一致する可能性がある。しかし、暗証番号の桁数を大きくすれば、ランダムに入力した数字が暗証番号に一致する確率を小さくすることができる。指紋センサ204を備えるモバイルPC16でも5ボタン202による認証も可能としてもよい。1台のモバイルPC16を複数の作業者で共有することがあるが、指紋認証だけではこのような場合に対応できない。
5ボタン202はウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110の操作と同じ操作が可能である。ウェアラブルデバイス本体24のボタン102、104、106、108とタッチパッド110で操作している様子を作業者は見ることができないので、作業者によっては意図した操作をするには慣れが必要な場合もある。また、ボタン102、104、106、108とタッチパッド110は小型であるので、操作しづらい場合もある。実施形態では、モバイルPC16の5ボタン202でも同じ操作ができるので、上記の懸念は解消される。5ボタン202の操作方法はアプリケーションプログラムによって決められている。
たとえば、
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ(ウェアラブルデバイス本体24では、第3ボタン106の1回押しに対応)、
決定ボタン202eが長押しされると、終了または操作の取り消しがなされ(ウェアラブルデバイス本体24では、第1ボタン102の1回押しが操作の取り消しに対応)、
アップボタン202aが1回押されると、カーソルが上に移動され(ウェアラブルデバイス本体24では、タッチパッド110で上にドラッグに対応)、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され(ウェアラブルデバイス本体24では、第3ボタン106の長押しに対応)、
ダウンボタン202cが1回押されると、カーソルが下に移動され(ウェアラブルデバイス本体24では、タッチパッド110で下にドラッグに対応)、
ダウンボタン202cが長押しされると、クイックセッティングメニュー(後述)が表示され(ウェアラブルデバイス本体24では、第2ボタン104の長押しに対応)、
レフトボタン202dが1回押されると、右のアイコンが選択され(ウェアラブルデバイス本体24では、タッチパッド110で後ろにドラッグ/フリックに対応)、
ライトボタン202bが1回押されると、左のアイコンが選択される(ウェアラブルデバイス本体24では、タッチパッド110で前にドラッグ/フリックに対応)。
モバイルPC16の上部側面には、USB(Universal Serial Bus) 3.0規格のコネクタ206とUSBtype-C規格のコネクタ207とオーディオジャック208が設けられる。
モバイルPC16の一方の側面(正面から見て左側の側面)には、メモリカード用のカードスロット218が設けられる。メモリカードは、たとえばSD(Secure digital)カード、マイクロSDカード等を含む。
モバイルPC16の他方の側面(正面から見て右側の側面)には、ケンジントンロック(登録商標)のためのスロット210、電源スイッチ212、パワーLED(Light Eemitting Diode)213、DC IN/バッテリLED214、DC端子216、冷却用の通風口222が設けられる。パワーLED213は電源スイッチ212の近傍に配置され、電源オンの期間点灯する。DC IN/バッテリLED214はバッテリが充電中であるか否か等のモバイルPC16の状態とバッテリの残量を表示する。モバイルPC16はバッテリで駆動可能であるが、DC端子216にACアダプタを接続した状態でも駆動可能である。図示しないが、裏面はワンタッチでバッテリが交換可能に構成されている。
[ウェアラブルデバイス23]
図3はモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。ウェアラブルデバイス23は、メガネフレーム142とウェアラブルデバイス本体24とを備える。メガネフレーム142は一般的なメガネからレンズを取り除いた形状でもよく、作業者の顔に装着される。メガネフレーム142は、たとえば作業者が常用するメガネに取り付けられる構造としてもよい。
メガネフレーム142は、ウェアラブルデバイス本体24が着脱される取付具144を左右のテンプルに備える。図3では作業者の右側のテンプルの取付具144はウェアラブルデバイス本体24に隠されているので、図示されない。前述のようにウェアラブルデバイス本体24はディスプレイ124(図4に示す)を備え、ディスプレイ124は片目で目視されるようになっているので、ウェアラブルデバイス本体24がたとえば利き目側に取り付けられるように取付具144は左右のテンプルに備えられている。
ウェアラブルデバイス本体24は、その係合片128(図4に示す)が取付具144の上下の枠内に押し込まれることにより、メガネフレーム142に取り付けられる。ウェアラブルデバイス本体24をメガネフレーム142から取り外す場合は、ウェアラブルデバイス本体24が取付具144から引き抜かれる。
ウェアラブルデバイス本体24は取付具144に取り付けられた状態で、係合片128は取付具144内で前後に多少は移動可能である。このため、作業者の焦点がディスプレイ124に合うようにウェアラブルデバイス本体24は前後位置が調整可能である。さらに、取付具144はテンプルに直交する軸144Aを中心に回転可能であり、ウェアラブルデバイス本体24がメガネフレーム142に取り付けられた後、ディスプレイ124が作業者の視線上に位置するように上下位置が調整可能である。さらに、取付具144の回転角度は90度程度であり、取付具144を上方向に大きく回転することにより、ウェアラブルデバイス本体24をメガネフレーム142からはね上げることができる。これにより、ウェアラブルデバイス本体24により視野が邪魔され実物を見ることが困難な場合や、狭い場所でウェアラブルデバイス本体24が周囲の物体に干渉する場合でも、ウェアラブルデバイス23全体を顔から外す/再装着することなく、ウェアラブルデバイス本体24を作業者の視野から一時的に外す/戻すことができる。
[ウェアラブルデバイス本体24]
ウェアラブルデバイス本体24はメガネフレーム142のテンプルに沿った側面部と作業者の一方の眼球の視線上に位置する前面部とからなる。側面部に対する前面部の角度は調節可能である。
図3に示すように、前面部の外側表面にはカメラ116、ライト118、カメラLED120が設けられる。ライト118は暗部の撮影時に発光する補助照明である。カメラLED120は写真や動画の撮影時に点灯し、撮影対象者に撮影していることを認識させるためのものである。
右側のテンプルに取り付けられたウェアラブルデバイス本体24の側面部の上側面に第1、第2、第3ボタン102、104、106が設けられる。たとえば作業者の利き目が左眼などの場合には、ウェアラブルデバイス本体24は左側のテンプルに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、側面部の上側面と下側面の両面に第1、第2、第3ボタン102、104、106を設けてもよい。
側面部の外側表面には、タッチパッド110、第4ボタン108、マイク112、照度センサ114が設けられる。タッチパッド110と第4ボタン108は人差し指で操作可能である。ボタン102、104、106は、ウェアラブルデバイス本体24が右側に取り付けられた際、それぞれ人差し指、中指、薬指で操作可能な位置に配置される。タッチパッド110は、その表面上で矢印に示すように作業者が指を上下前後に移動させたことを検出できるようにしている。この移動の検出は、指を接触したまま移動するドラッグの動きに加え指をさっと擦るフリックの動きも含む。タッチパッド110は、作業者の指の上下前後移動を検出すると、コマンドを入力する。ここで、コマンドとはウェアラブルデバイス本体24に対する特定の処理の実行指令のことである。第1〜第4ボタン102、104、106、108、タッチパッド110の操作方法はアプリケーションプログラムによって決められている。
たとえば、
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ、
第3ボタン106が長押しされると、起動中のアプリケーションの一覧が表示され、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングのメニューが表示され、
第1ボタン102が1回押されると、操作の取り消し(キーボードのEscキーと同様の動作)が実行される。
タッチパッド110の操作に関しては、たとえば、
上下にドラッグされると、カーソルが上下に移動され、
前にフリックされると、左のアイコンが選択され(連続してスクロール)、
後ろにフリックされると、右のアイコンが選択され(連続してスクロール)、
前にドラッグされると、左のアイコンが選択され(1項目ずつスクロール)、
後ろにドラックされると、右のアイコンが選択され(1項目ずつスクロール)る。
第1ボタン102は人差し指、第2ボタン104は中指、第3ボタン106は薬指、第4ボタン108は小指で操作できるような位置に配置される。なお、第4ボタン108が側面部の上部ではなく、側面部の外側表面に設けられるのは、スペースの関係上であり、第4ボタン108も第1〜第3ボタン102、104、106と同様に側面部の上部に設けられてもよい。照度センサ114はディスプレイの明るさを自動調整するために周囲の照度を検出する。
図4はウェアラブルデバイス本体24の裏面の外観の一例を示す。前面部の内側にはLCDからなるディスプレイ124が設けられる。側面部の内側にはマイク126、スピーカ130、係合片128が設けられる。マイク126は側面部の前方に、スピーカ130は側面部の後方に、係合片128は側面部の後方に設けられる。スピーカ130の代わりにヘッドフォンを用いてもよい。その場合、オペレータ端末12と同様にマイクとヘッドフォンをインカムとして一体的に設けてもよい。
図5は、モバイルPC16とウェアラブルデバイス本体24との接続の一例を示す。側面部の後方にはUSB type-C規格のケーブル146の一端のプラグ146Aが挿入されるレセプタクル132が設けられる。USB type-C規格のケーブル146の他端のプラグ146BはモバイルPC16の上部端面のUSB type-C規格のコネクタ207に挿入される。このようにウェアラブルデバイス本体24はUSB type-C規格のケーブル146を介してモバイルPC16に接続され、画像信号等がウェアラブルデバイス本体24とモバイルPC16の間で伝送される。ウェアラブルデバイス本体24は無線LAN、ブルートゥース等の無線通信によりモバイルPC16に接続されてもよい。
本実施形態では、ウェアラブルデバイス本体24は駆動電源としてのバッテリまたはDC端子を備えず、駆動電源はモバイルPC16からUSB type-Cケーブル146を介してウェアラブルデバイス本体24に供給される。しかし、ウェアラブルデバイス本体24が駆動電源を備えてもよい。
前述したように、ウェアラブルデバイス本体24は、メガネフレーム142の左右のテンプルに備えられている取付具144の一方に取り付けられる。また、メガネフレーム142の右側のテンプルに備えられている取付具144に取り付けられる場合と、左側のテンプルに備えられている取付具144に取り付けられる場合とでは、ウェアラブルデバイス本体24は、上下反転する。そのため、たとえば、メガネフレーム142の右側のテンプルに備えられている取付具144に取り付けられているウェアラブルデバイス本体24を、メガネフレーム142の左側のテンプルに備えられている取付具144に取り付け直す場合、方向性を持つデバイスである、タッチパッド110、ディスプレイ124、カメラ116のそれぞれについて、その方向性の設定を変更する必要がある。具体的には、上下を切り替える必要がある。また、タッチパッド110に関しては、さらに、左右の方向性についてユーザが独自の設定を行うことができ、その独自の設定を踏まえて、タッチパッド110の左右の方向性の設定を変更しなければならない。図6を参照して、タッチパッド110の左右の方向性の設定について説明する。
図6においては、ウェアラブルデバイス本体24がメガネフレーム142の右側のテンプルに備えられている取付具144に取り付けられていることを想定している。ウェアラブルデバイス本体24に設けられるタッチパッド110は、その操作面がディスプレイ124の画面と同じ方向に向けられている状態を想定して、左右の方向性が規定されている。したがって、たとえばディスプレイ124上に表示されるポインタa1を移動させるためのタッチ操作をタッチパッド110上で行う場合、ポインタa1を右へ移動させるならば、前方へのタッチ操作を行うことになり(図6:(A))、一方、ポインタa1を左へ移動させるならば、後方へのタッチ操作を行うことになる(図6:(B))。なお、ウェアラブルデバイス本体24がメガネフレーム142の左側のテンプルに備えられている取付具144に取り付けられている場合には、逆に、ポインタa1を右へ移動させるならば、後方へのタッチ操作を行うことになり、一方、ポインタa1を左へ移動させるならば、前方へのタッチ操作を行うことになる。
しかしながら、ユーザによっては、メガネフレームのテンプルに沿った、タッチパッド110上での前方または後方へのタッチ操作と、ディスプレイ124上でのポインタa1の右または左への移動が逆に感じることがあり、そのために、左右の方向性を切り替えることができるようになっている。つまり、タッチパッド110に関しては、左右の方向性を示す設定値を、図6を参照して説明した、仕様として定められる左右の方向性を示す規定値から、その方向性を左右反転させる非規定値に変更することが可能となっている。
したがって、タッチパッド110の左右の方向性を切り替えるように方向性の設定が変更されている場合、さらに、この変更を踏まえて、タッチパッド110の左右の方向性の設定を変更しなければならない。
そこで、本実施形態のモバイルPC16は、方向性を持つデバイスの設定に関するユーザビリティを向上させる仕組みを備えるようにしたものであり、以下、この点について詳述する。
ウェアラブルデバイス本体24に設けられる、タッチパッド110、ディスプレイ124、カメラ116の方向性の設定は、モバイルPC16に格納される、後述する環境設定ファイル400(図9に示す)において保持される。環境設定ファイル400に保持される各デバイスの方向性の設定は、図5に示したようにウェアラブルデバイス本体24をモバイルPC16と接続させた状態において行うことができる。また、この設定は、図7に示すように、たとえばUSBハブ31を介して外部ディスプレイ32、外部キーボード33、外部ポインティングデバイス34などをモバイルPC16と接続させた状態においても行うことができる。前者(図5)は、主に、この設定を作業者が行う場合における接続形態であり、後者(図7)は、主に、この設定を管理者(またはオペレータ)が行う場合における接続形態である。モバイルPC16は、図5に示す接続形態下で各デバイスの方向性を設定するためのGUI(Graphical User Interface)と、図7に示す接続形態下で各デバイスの方向性を設定するためのGUIとを提供する。なお、図7に示す接続形態下において、管理者が、モバイルPC16によって提供されるGUIによらずに、環境設定ファイル400を直接編集することも可能である。
図8は、ウェアラブルデバイス本体24の構成の一例を示すブロック図である。USB type-Cコネクタ132がミキサ166に接続される。ディスプレイコントローラ170とUSBハブ164がミキサ166の第1端子、第2端子にそれぞれ接続される。ディスプレイ124がディスプレイコントローラ170に接続される。カメラコントローラ168、オーディオコーデック172、センサコントローラ162がUSBハブ164に接続される。カメラ116とライト118とカメラLED120がカメラコントローラ168に接続される。マイク112、126からのオーディオ信号がオーディオコーデック172に入力され、オーディオコーデック172からのオーディオ信号がアンプ174を介してスピーカ130に入力される。
センサコントローラ162に、モーションセンサ(たとえば、加速度/地磁気/重力/ジャイロセンサ等)176、照度センサ114、近接センサ178、タッチパッド110、第1〜第4ボタン102、104、106、108、GPSセンサ180が接続される。センサコントローラ162はモーションセンサ176、照度センサ114、近接センサ178、タッチパッド110、第1〜第4ボタン102、104、106、108、GPSセンサ180からの検出信号を処理して、モバイルPC16へコマンドを供給する。図4には示していないが、モーションセンサ176、近接センサ178はウェアラブルデバイス本体24の内部に配置される。モーションセンサ176はウェアラブルデバイス本体24の動き、向き、姿勢等を検出する。近接センサ178は作業者の顔、指等の接近によりウェアラブルデバイス23の装着を検出する。
なお、タッチパッド110と接続されるセンサコントローラ162、ディスプレイ124と接続されるディスプレイコントローラ170、カメラ116と接続されるカメラコントローラ168は、タッチパッド110、ディスプレイ124、カメラ116の方向性を意識しない。タッチパッド110、ディスプレイ124、カメラ116の方向性は、センサコントローラ162、ディスプレイコントローラ170、カメラコントローラ168を備えるウェアラブルデバイス本体24との間でデータを送受信するモバイルPC16側で意識される。たとえば、ディスプレイ124が上下反転した場合、ディスプレイ124への表示画像は、上下反転した状態でモバイルPC16からウェアラブルデバイス本体24へ送られ、ディスプレイコントローラ170は、その画像をそのままディスプレイ124に表示する。センサコントローラ162やカメラコントローラ168は、タッチパッド110やカメラ116の上下反転有無に関わらず、タッチパッド110からの検出信号を処理してコマンドを生成し、または、カメラ116によって撮影された画像を出力する。これらのコマンドや撮影画像を受け取るモバイルPC16側において、タッチパッド110やカメラ116が上下反転しているならば、それを踏まえて、受け取ったコマンドを解釈し、または、受け取った撮影画像を上下反転させる。モバイルPC16は、これら各デバイスの方向性に関する処理を、環境設定ファイル400(図9に示す)に基づいて実行する。たとえば、ディスプレイ124を上下反転させるように環境設定ファイル400が編集された場合、モバイルPC16は、ディスプレイ124の方向性に関する処理として、後述するOS316のDisplay設定でOrientationをFlippedに変更する。また、タッチパッド110やカメラ116に関して環境設定ファイル400が編集された場合には、モバイルPC16は、後述するEC/KBC344やシステムコントローラ302の所定のレジスタを更新して、その編集内容を反映させる。
図9は、モバイルPC16の構成の一例を示すブロック図である。モバイルPC16は、ウェアラブルデバイス本体24が撮影した画像をオペレータ端末12へ送信することや、オペレータ端末12から受信した画像を閲覧することができる。このため、モバイルPC16はカメラ機能とビューワ機能とを備える。カメラ機能はウェアラブルデバイス本体24のカメラ116で写真やビデオを撮影する機能である。撮影した写真やビデオはカメラフォルダに保存され、ビューワ機能で閲覧できる。ビューワ機能はカメラフォルダに保存されているファイルを閲覧する機能である。ファイルの種類は、画像、動画、PDFファイル、カメラ機能で撮影した写真やビデオ、オペレータ端末12から受信した画像、オペレータ端末12へ送信した画像、ユーザフォルダに保存されたファイルがある。
モバイルPC16はシステムコントローラ302を備え、システムコントローラ302はプロセッサ(CPU)とコントローラ・ハブからなる。プロセッサには、主メモリ308、BIOS(Basic Input/Output System)−ROM(Read Only Memory)310、パワーLED213、DC IN/バッテリLED214、USBコントローラ322が接続される。コントローラ・ハブには、フラッシュメモリ326、メモリカードコントローラ328、たとえばSSDなどであるストレージデバイス330、USB切替器324、オーディオコーデック334、3G/LTE/GPSデバイス336、指紋センサ204、USB 3.0コネクタ206、ブルートゥースデバイス/無線LANデバイス340、EC(Embedded Controller)/KBC(Keyboard Controller)344等が接続される。ストレージデバイス330には、タッチパッド110、ディスプレイ124、カメラ116の方向性の設定を含む、ウェアラブルデバイス本体24に関する各種設定を保持する環境設定ファイル400が格納される。
システムコントローラ302はストレージデバイス330から主メモリ308にロードされる様々なプログラムを実行する。これらプログラムには、OS(Operating System)316と、このOS316の制御下で動作する、ユーティリティを含む各種アプリケーションプログラム314とが含まれる。モバイルPC16が提供する、ウェアラブルデバイス本体24に設けられる各デバイス(タッチパッド110、ディスプレイ124、カメラ116)の方向性を設定するためのGUIは、各種アプリケーションプログラム314の中のいくつかのアプリケーションプログラムによって実現される。各種アプリケーションプログラム314については後述する。また、システムコントローラ302は、内蔵レジスタの値に基づき、USB Type-Cコネクタ207およびUSBコントローラ322を介して受信する、ウェアラブルデバイス本体24のカメラ116で撮影された画像を上下反転させて取り込む機能を有している。
オーディオコーデック334は、再生対象のデジタルのオーディオ信号をアナログのオーディオ信号に変換して、オーディオジャック208に供給する。また、オーディオコーデック334は、オーディオジャック208から入力されるアナログのオーディオ信号をデジタル信号に変換する。
メモリカードコントローラ328はメモリカードスロット218に挿入されるメモリカード、たとえばSDカードにアクセスして、SDカードに対するデータの読み書きを制御する。
USBコントローラ322は、USB type-Cコネクタ207に接続されるUSB type-CケーブルまたはUSB 3.0コネクタ206に接続されるUSB 3.0ケーブル(図示せず)に対するデータの送受信を制御する。
たとえば図7に示したように、USB type-Cコネクタ207にはUSBハブ31などのポート拡張アダプタも接続でき、各種外部デバイス(外部ディスプレイ32、外部キーボード33、外部ポインティングデバイス34)を使用することができるし、また、HDMI(登録商標)(high-definition multimedia interface)等のインターフェースを使用することもできる。
ブルートゥースデバイス/無線LANデバイス340はネットワーク22との接続のためにブルートゥース規格の無線通信またはIEEE802.11規格の無線LAN通信を実行する。なお、ネットワーク22との接続は無線通信によらず、IEEE802.3規格の有線LAN通信によってもよい。
指紋センサ204はモバイルPC16の起動時の指紋認証のために使用される。
EC/KBC344には、サブプロセッサ346、電源スイッチ212および5ボタン202が接続される。EC/KBC344は、電源スイッチ212の操作に応じてモバイルPC16をパワーオンまたはパワーオフする機能を有する。パワーオンおよびパワーオフの制御は、EC/KBC344と電源回路350との協働動作によって実行される。EC/KBC344はモバイルPC16がパワーオフされている期間中も、バッテリ352またはACアダプタ358からの電力によって動作する。電源回路350は、バッテリ352からの電力または外部電源として接続されるACアダプタ358からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。電源回路350は電圧レギュレータモジュール356を含み、電圧レギュレータモジュール356はシステムコントローラ302に接続される。また、EC/KBC344は、システムコントローラ302経由でウェアラブルデバイス本体24に設けられるタッチパッド110の操作内容を入力する。そして、EC/KBC344は、内蔵レジスタの値に基づき、このタッチパッド110の操作内容を上下左右反転させて認識する機能を有している。
なお、モバイルPC16をウェアラブルデバイス本体24と別体として構成したが、モバイルPC16をウェアラブルデバイス本体24内に組み込んで、両者を一体として構成してもよい。
[方向性を持つデバイスの設定]
図3を参照して説明したように、ウェアラブルデバイス本体24は、メガネフレーム142の左右のテンプルのどちらかに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、前述したように、たとえば、メガネフレーム142の右側のテンプルに備えられている取付具144に取り付けられているウェアラブルデバイス本体24を、メガネフレーム142の左側のテンプルに備えられている取付具144に取り付け直す場合、方向性を持つデバイスである、タッチパッド110、ディスプレイ124、カメラ116のそれぞれについて、その方向性の設定を変更する必要がある。また、タッチパッド110に関しては、さらに、左右の方向性についてユーザが独自の設定を行うことができるので、その独自の設定を踏まえて、タッチパッド110の左右の方向性の設定を変更しなければならない。本実施形態のモバイルPC16は、方向性を持つデバイスの設定に関するユーザビリティを向上させる仕組みを各種アプリケーションプログラム314によって実現する。
図10は、方向性を持つデバイスの設定に関するユーザビリティを向上させるための各種アプリケーションプログラム314の一例を示す図である。
ウェアラブルデバイス本体24に設けられるタッチパッド110、ディスプレイ124、カメラ116などの方向性を持つデバイスの設定に関するユーザビリティを向上させるために、モバイルPC16は、各種アプリケーションプログラム314の一部として、管理者用設定ユーティリティ(プログラム)3141と、作業者用設定ユーティリティ(プログラム)3142と、設定サービス(プログラム)3143とを具備する。具体的には、モバイルPC16には、管理者用設定ユーティリティ3141、作業者用設定ユーティリティ3142、設定サービス3143がインストールされている。
管理者用設定ユーティリティ3141は、図7示す接続形態下でウェアラブルデバイス本体24に設けられる各デバイス(タッチパッド110、ディスプレイ124、カメラ116)の方向性を設定するためのGUIを提供する。つまり、外部ディスプレイ32、外部キーボード33、外部ポインティングデバイス34などがモバイルPC16に接続されることを前提としたGUIを提供する。より詳しくは、管理者(またはオペレータ)が、外部キーボード33や外部ポインティングデバイス34を操作して設定を行うことを想定したGUIを提供する。
一方、作業者用設定ユーティリティ3142は、図5に示す接続形態下でウェアラブルデバイス本体24に設けられる各デバイスの方向性を設定するためのGUIを提供する。つまり、ウェアラブルデバイス23がモバイルPC16に接続されることを前提としたGUIを提供する。より詳しくは、作業者が、たとえばモバイルPC16の5ボタン202を操作して設定を行うことを想定したGUIを提供する。
管理者(またはオペレータ)がウェアラブルデバイス本体24に設けられる各デバイスの方向性を設定する場合、管理者用設定ユーティリティ3141を起動し、作業者がウェアラブルデバイス本体24に設けられる各デバイスの方向性を設定する場合、作業者用設定ユーティリティ3142を起動する。管理者(またはオペレータ)または作業者によって起動された管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142は、設定サービス3143を起動する。つまり、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142の起動に伴い、設定サービス3143が起動する。また、設定サービス3143は、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142の終了に伴って終了する。
設定サービス3143は、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142からの要求に応じて、タッチパッド110、ディスプレイ124、カメラ116の方向性の設定を含む、ウェアラブルデバイス本体24に関する各種設定を保持する環境設定ファイル400を編集する。また、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142からの要求に応じて、環境設定ファイル400を編集した場合、設定サービス3143は、その編集内容をモバイルPC16に適用する。具体的には、前述したように、OS316のDisplay設定でOrientationをFlippedに変更したり、EC/KBC344やシステムコントローラ302の所定のレジスタを更新したりする。
なお、設定サービス3143を常駐プログラムとし、かつ、設定サービス3143のAPI(Application Programming Interface)を、管理者用設定ユーティリティ3141および作業者用設定ユーティリティ3142以外の特定のアプリケーションプログラムに公開して、それらのアプリケーションプログラムが、設定サービス3143を介して環境設定ファイル400を編集できるようにしてもよい。管理者は、管理者用設定ユーティリティ3141によって提供されるGUIによらずに、環境設定ファイル400を直接編集することも可能である。
設定サービス3143は、モバイルPC16がパワーオンされた場合にも起動し、環境設定ファイル400の内容をモバイルPC16に適用する。したがって、管理者が環境設定ファイル400を直接編集した場合には、その編集内容は、モバイルPC16の次回のパワーオン時に反映される。
図11は、環境設定ファイル400によって保持される、タッチパッド110、ディスプレイ124、カメラ116の方向性の設定を含む、ウェアラブルデバイス本体24に関する各種設定の一例を示す図である。
図11中、符号b1で示される項目「Orientation」は、ディスプレイ124の方向を、ウェアラブルデバイス本体24がメガネフレーム142の左側のテンプルに取り付けられた状態を想定した方向とするのか(Left)、または、右側のテンプルに取り付けられた状態を想定した方向とするのか(Right)を設定するための項目である。初期設定は、右側のテンプルに取り付けられた状態を想定した方向である。例えば、初期設定の状態を第1形態、初期設定以外の状態を第2形態と呼称する。
符号b2で示される項目「Flip up-down direction」および符号b3で示される項目「Flip left-right direction」は、いずれもタッチパッド110の方向性に関する項目である。「Flip up-down direction」(b2)は、タッチパッド110の上下の方向を、ウェアラブルデバイス本体24がメガネフレーム142の左側のテンプルに取り付けられた状態を想定した方向とする場合に有効(On)に設定される。一方、「Flip left-right direction」(b3)は、タッチパッド110の左右の方向を、図6を参照して説明した方向とは逆の方向とする場合に有効(On)に設定される。たとえば、ウェアラブルデバイス本体24をメガネフレーム142の左側のテンプルに取り付ける場合、「Flip up-down direction」(b2)は有効(On)に設定される。また、ウェアラブルデバイス本体24をメガネフレーム142の左側のテンプルに取り付け、タッチパッド110の左右の方向を、図6を参照して説明した方向とは逆の方向としたい場合も、タッチパッド110が上下反転していることを考慮する必要はなく、「Flip left-right direction」(b3)を有効(On)に設定すればよい。これらの初期設定は、いずれも無効(Off)である。
符号b4で示される項目「Orientation」は、カメラ116の方向を、ウェアラブルデバイス本体24がメガネフレーム142の左側のテンプルに取り付けられた状態を想定した方向とするのか(Left)、または、右側のテンプルに取り付けられた状態を想定した方向とするのか(Right)を設定するための項目である。初期設定は、右側のテンプルに取り付けられた状態を想定した方向である。なお、符号b5で示される項目「Auto Orientation」については後述する。また、図11には示されないが、環境設定ファイル400には、ウェアラブルデバイス23を右眼用として使用する右眼モードまたはウェアラブルデバイス23を左眼用として使用する左眼モードのいずれかを示す設定値も保持される。
図12は、管理者用設定ユーティリティ3141によってたとえば外部ディスプレイ32に表示される設定画面の一例を示す図である。
図12に示されるように、この設定画面のたとえば左側部には、各種設定項目を選択肢として列挙するリスト領域が設けられる。たとえば、符号c1で示される項目「Display」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したディスプレイ124に関する設定を行うための画面へ移行することができる。また、たとえば、符号c2で示される項目「Touchpad」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したタッチパッド110に関する設定を行うための画面へ移行することができる。さらに、符号c3で示される項目「Camera」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したカメラ116に関する設定を行うための画面へ移行することができる。つまり、管理者用設定ユーティリティ3141が表示する設定画面によれば、第1に、ディスプレイ124、タッチパッド110、カメラ116それぞれに関する設定を個別に行うことができる。
また、管理者用設定ユーティリティ3141が表示する設定画面には、ウェアラブルデバイス23を右眼用または左眼用に設定するための項目「Left/right mode」(c4)がさらに配置される。右眼用とは、ウェアラブルデバイス本体24をメガネフレーム142の右側のテンプルに取り付けてウェアラブルデバイス23を使用することであり、左眼用とは、ウェアラブルデバイス本体24をメガネフレーム142の左側のテンプルに取り付けてウェアラブルデバイス23を使用することである。以下、ウェアラブルデバイス23を右眼用として使用することを右眼モードと称し、ウェアラブルデバイス23を左眼用として使用することを左眼モードと称することがある。この「Left-right mode」(c4)を外部キーボード33または外部ポインティングデバイス34で選択すると、右眼モードまたは左眼モードを設定するための画面へ移行し、右眼モードまたは左眼モードの一方から他方への設定の変更が行われた場合、第2に、前述の「Display」(c1)、「Touchpad」(c2)、「Camera」(c3)においてそれぞれ変更すべき設定を一括して変更することができる。
より詳しくは、ディスプレイ124についての「Orientation」(b1)、タッチパッド110についての「Flip up-down direction」(b2)、カメラ116についての「Orientation」(b4)の各設定値を、上下左右を反転させるように、一括して入れ替えることができる(Left-Right、On-Off)。また、タッチパッド110についての「Flip left-right direction」(b3)に関しては、その時の設定値をそのまま維持する。つまり、設定値の入れ替えは行わない。結果として、タッチパッド110の左右の方向性は、仕様として規定される方向性から反転させる設定が既に行われていたならば、反転している状態から反転することになる(仕様として規定される方向性に戻す)。
「反転している状態から反転する」をより詳しく説明すると、右眼モードまたは左眼モードの一方から他方への設定の変更が既に行われた場合、単純に、タッチパッド110の左右の方向性を右眼モードまたは左眼モードの他方向けに設定するのではなく、「Flip left-right direction」(b3)の設定に準じて、その方向性を変更する。
つまり、本実施形態のモバイルPC16は、たとえばウェアラブルデバイス23が右眼用または左眼用の一方から他方へ切り替えられた場合に、方向性を持つ各デバイス(ディスプレイ124、カメラ116、タッチパッド110)の方向性の設定を、その時に適用されている設定値から単純にすべてを変更するものではない。
また、作業者用設定ユーティリティ3142は、管理者用設定ユーティリティ3141が表示する設定画面に相当し、かつ、たとえばモバイルPC16の5ボタン202のみで操作できるように構成された設定画面をウェアラブルデバイス本体24のディスプレイ124に表示する。
このように、本実施形態のモバイルPC16は、たとえばウェアラブルデバイス23を右眼用または左眼用の一方から他方へ切り替える場合において、ウェアラブルデバイス本体24に設けられる各デバイス(タッチパッド110、ディスプレイ124、カメラ116)の方向性の設定を一括して変更することができ、また、その際、タッチパッド110の左右の方向性の反転という独自の設定が既に行われている場合、この独自の設定を踏まえて、方向性の設定を変更することができる。つまり、本実施形態のモバイルPC16は、方向性を持つデバイスの設定に関するユーザビリティを向上させることができる。
図13は、本実施形態のモバイルPC16で実行される、ウェアラブルデバイス本体24に設けられる各種デバイス(タッチパッド110、ディスプレイ214、カメラ116)の方向性の設定に関する処理の流れを示すフローチャートである。
まず、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142を起動することによって、設定サービス3143を起動する(ステップS1)。次に、管理者用設定ユーティリティ3141が提供するGUIまたは作業者用設定ユーティリティ3142が提供するGUIを通じて、ウェアラブルデバイス23を右眼モードまたは左眼モードのいずれで使用するのかを選択する(ステップS2)。
設定サービス3143は、ウェアラブルデバイス23に対して現在適用されているモードを環境設定ファイル400から取得し(ステップS3)、ステップS2で選択されたモードとステップS3で取得されたモードとが一致しているか否かを判定する(ステップS4)。一致していない場合(ステップS4:NO)、つまり、右眼モードまたは左眼モードの一方から他方へ変更する場合、設定サービス3143は、まず、モードの設定を変更するための環境設定ファイル400の編集を実行する(ステップS5)。次いで、この編集に伴い、設定サービス3143は、ディスプレイ124の方向性の設定を変更するための環境設定ファイル400の編集(ステップS6)、カメラ116の方向性の設定を変更するための環境設定ファイル400の編集(ステップS7)、および、タッチパッド110の方向性の設定を変更するための環境設定ファイル400の編集(ステップS8)を実行する。また、タッチパッド110の方向性については、設定サービス3143は、方向性に関する各設定値を単純に変更するのではなく、左右の方向性の反転という独自の設定が維持されるように、環境設定ファイル400の編集を実行する。
このように、本実施形態のモバイルPC16によれば、ウェアラブルデバイス本体24に設けられる、方向性を持つデバイスの設定に関するユーザビリティを向上させることができる。
ところで、以上の説明では、管理者(またはオペレータ)または作業者が、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142を起動して、ウェアラブルデバイス23のモード(右眼モード/左眼モード)を変更する例を示した。図8に示したように、ウェアラブルデバイス本体24は、たとえば加速度センサなどであるモーションセンサ176を有している。そこで、本実施形態のモバイルPC16は、さらに、モーションセンサ176の検出信号によって、ウェアラブルデバイス本体24が、メガネフレーム142の左右のテンプルのどちらに取り付けられているのかを判定し、必要に応じて、ウェアラブルデバイス23のモードを自動的に変更する仕組みを備える。
図11に、環境設定ファイル400によって保持される、タッチパッド110、ディスプレイ124、カメラ116の方向性の設定を含む、ウェアラブルデバイス本体24に関する各種設定の一例を示したが、符号b5で示される項目「Auto Orientation」が、ウェアラブルデバイス23のモードを自動的に変更するか否かを設定するための項目である。「Auto Orientation」(b5)が有効(On)の場合、モーションセンサ176の検出信号に基づき、ウェアラブルデバイス23のモードを自動的に変更する機能が作動する。この機能は、たとえば「Auto Orientation」(b5)が有効(On)に設定された場合、設定サービス3143を常駐プログラムとして稼働させることなどによって実現することができる。
たとえば、常駐プログラムとして稼働する設定サービス3143は、モーションセンサ176の検出信号を定期的に取得し、取得した検出信号が、ウェアラブルデバイス23に対して現在適用されているモードと異なるモードにおいて得られるべき信号であった場合、モードの設定を変更するための環境設定ファイル400の編集を実行し、これに伴い、ディスプレイ124、カメラ116、タッチパッド110の方向性の設定を変更するための環境設定ファイル400の編集を実行する。また、前述したように、タッチパッド110の方向性については、左右の方向性の反転という独自の設定が維持されるように、環境設定ファイル400の編集を実行する。
また、この「Auto Orientation」(b5)の利用法として、まず、有効(On)に設定して、ウェアラブルデバイス本体24をメガネフレーム142の左右のテンプルのうちの意図する側のテンプルに取り付け、ディスプレイ124、カメラ116、タッチパッド110の方向性の設定を自動的かつ適切に実行させた後、「Auto Orientation」(b5)を無効(Off)に設定して、自動的かつ適切に実行させたディスプレイ124、カメラ116、タッチパッド110の方向性の設定を保存するといったことも考えられる。
この仕組みにより、本実施形態のモバイルPC16は、さらに、ウェアラブルデバイス本体24に設けられる、方向性を持つデバイスの設定に関するユーザビリティを向上させることができる。
本実施形態の処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
16…モバイルPC、23…ウェアラブルデバイス、24…ウェアラブルデバイス本体、110…タッチパッド、116…カメラ、124…ディスプレイ、142…メガネフレーム、176…モーションセンサ、3141…管理者用設定ユーティリティ、3142…作業者用設定ユーティリティ、3143…設定サービス。

Claims (15)

  1. 方向性を持つ複数のデバイスを備えるウェアラブル機器に接続可能な電子機器であって、
    前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行う設定部を具備し、
    前記設定部は、前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更する電子機器。
  2. 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる方向性を示す規定値から、その方向性を反転させるように非規定値へ変更することが可能であり、
    前記設定部は、前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定する、
    請求項1に記載の電子機器。
  3. 前記ウェアラブル機器は、
    メガネフレームと、
    前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
    を具備し、
    前記第1デバイスは、前記ウェアラブル機器の前記本体部に設けられるタッチパッドである、
    請求項2に記載の電子機器。
  4. 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるディスプレイを含む請求項3に記載の電子機器。
  5. 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるカメラを含む請求項3に記載の電子機器。
  6. 方向性を持つ複数のデバイスを備えるウェアラブル機器であって、
    前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行う設定部を具備し、
    前記設定部は、前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更するウェアラブル機器。
  7. 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる方向性を示す規定値から、その方向性を反転させるように非規定値に変更することが可能であり、
    前記設定部は、前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定する、
    請求項6に記載のウェアラブル機器。
  8. メガネフレームと、
    前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
    を具備し、
    前記第1デバイスは、前記本体部に設けられるタッチパッドである、
    請求項7に記載のウェアラブル機器。
  9. 前記複数のデバイスは、前記本体部に設けられるディスプレイを含む請求項8に記載のウェアラブル機器。
  10. 前記複数のデバイスは、前記本体部に設けられるカメラを含む請求項8に記載のウェアラブル機器。
  11. 方向性を持つ複数のデバイスを備えるウェアラブル機器の設定方法であって、
    前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行うことと、
    前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更することと、
    を具備する設定方法。
  12. 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる規定値から、その方向性を反転させるように非規定値へ変更することが可能であり、
    前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定することを具備する、
    請求項11に記載の設定方法。
  13. 前記ウェアラブル機器は、
    メガネフレームと、
    前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
    を具備し、
    前記第1デバイスは、前記ウェアラブル機器の前記本体部に設けられるタッチパッドである請求項12に記載の設定方法。
  14. 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるディスプレイを含む請求項13に記載の設定方法。
  15. 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるカメラを含む請求項13に記載の設定方法。
JP2018158395A 2018-08-27 2018-08-27 電子機器、ウェアラブル機器および設定方法 Pending JP2020034997A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018158395A JP2020034997A (ja) 2018-08-27 2018-08-27 電子機器、ウェアラブル機器および設定方法
US16/280,776 US10852548B2 (en) 2018-08-27 2019-02-20 Electronic device, wearable device, and setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158395A JP2020034997A (ja) 2018-08-27 2018-08-27 電子機器、ウェアラブル機器および設定方法

Publications (1)

Publication Number Publication Date
JP2020034997A true JP2020034997A (ja) 2020-03-05

Family

ID=69583722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158395A Pending JP2020034997A (ja) 2018-08-27 2018-08-27 電子機器、ウェアラブル機器および設定方法

Country Status (2)

Country Link
US (1) US10852548B2 (ja)
JP (1) JP2020034997A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114779480A (zh) * 2022-06-22 2022-07-22 深圳市谦视智能科技有限责任公司 一种智能头戴设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187089A (ja) * 1992-12-21 1994-07-08 Hitachi Ltd スクロール制御方法
US6034653A (en) * 1997-08-01 2000-03-07 Colorado Microdisplay, Inc. Head-set display device
JP2006146700A (ja) * 2004-11-22 2006-06-08 Olympus Corp 情報呈示装置
JP2010081559A (ja) * 2008-09-29 2010-04-08 Nikon Corp ウェアラブルディスプレイ装置
JP2015026257A (ja) * 2013-07-26 2015-02-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016103880A1 (ja) * 2014-12-25 2016-06-30 ソニー株式会社 情報処理装置
WO2017051721A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5169043B2 (ja) 2007-07-11 2013-03-27 株式会社ニコン ヘッドマウントディスプレイ
JP2016149587A (ja) 2015-02-10 2016-08-18 セイコーエプソン株式会社 ヘッドマウントディスプレイ、およびその制御方法と制御プログラム
US20160216792A1 (en) 2015-01-26 2016-07-28 Seiko Epson Corporation Head mounted display, and control method and control program for head mounted display
CN107920955B (zh) 2015-07-29 2021-06-11 株式会社汤山制作所 混合注射辅助系统
CN107479200B (zh) * 2017-09-14 2020-12-18 京东方科技集团股份有限公司 一种可穿戴式单目眼镜、组合双目眼镜系统及其控制方法
KR102587025B1 (ko) * 2018-02-26 2023-10-06 엘지전자 주식회사 웨어러블 글래스 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187089A (ja) * 1992-12-21 1994-07-08 Hitachi Ltd スクロール制御方法
US6034653A (en) * 1997-08-01 2000-03-07 Colorado Microdisplay, Inc. Head-set display device
JP2006146700A (ja) * 2004-11-22 2006-06-08 Olympus Corp 情報呈示装置
JP2010081559A (ja) * 2008-09-29 2010-04-08 Nikon Corp ウェアラブルディスプレイ装置
JP2015026257A (ja) * 2013-07-26 2015-02-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2016103880A1 (ja) * 2014-12-25 2016-06-30 ソニー株式会社 情報処理装置
WO2017051721A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US10852548B2 (en) 2020-12-01
US20200064634A1 (en) 2020-02-27

Similar Documents

Publication Publication Date Title
JP7080636B2 (ja) システム
CN108833607B (zh) 物理地址获取方法、装置及可读介质
CN109862412B (zh) 合拍视频的方法、装置及存储介质
JP7073122B2 (ja) 電子機器、制御方法及びプログラム
WO2022134632A1 (zh) 作品处理方法及装置
CN110058935B (zh) 日志级别调整方法、装置及系统、可读存储介质
US11061565B2 (en) Electronic device and control method
US20200226893A1 (en) Electronic edge computing device
JP2020034997A (ja) 電子機器、ウェアラブル機器および設定方法
US20200098361A1 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
US20190236260A1 (en) Electronic apparatus, control system, control method, and storage medium
JP6968689B2 (ja) 電子機器、ウェアラブル機器及び表示制御方法
US10552360B2 (en) Electronic device, connection method, and storage medium
JP6995650B2 (ja) ウェアラブル機器及びその操作方法
US11068573B2 (en) Electronic device and method of starting electronic device
KR20150133597A (ko) 이동 단말기 및 이의 제어 방법
US10705726B2 (en) Electronic device, wearable device, and character input control method
JP6995651B2 (ja) 電子機器、ウェアラブル機器および表示制御方法
US20200097542A1 (en) Electronic device, recognition method, and non-transitory computer-readable storage medium
CN111158791A (zh) 配置文件更新方法、装置及系统、存储介质
US11063822B2 (en) Electronic apparatus and control method
CN111586891B (zh) 网络连接的方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221101