JP2020034997A - 電子機器、ウェアラブル機器および設定方法 - Google Patents
電子機器、ウェアラブル機器および設定方法 Download PDFInfo
- Publication number
- JP2020034997A JP2020034997A JP2018158395A JP2018158395A JP2020034997A JP 2020034997 A JP2020034997 A JP 2020034997A JP 2018158395 A JP2018158395 A JP 2018158395A JP 2018158395 A JP2018158395 A JP 2018158395A JP 2020034997 A JP2020034997 A JP 2020034997A
- Authority
- JP
- Japan
- Prior art keywords
- setting
- wearable device
- main body
- mode
- mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 19
- 239000011521 glass Substances 0.000 claims description 40
- 230000008859 change Effects 0.000 claims description 10
- 210000001508 eye Anatomy 0.000 description 30
- 230000006870 function Effects 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 15
- 210000003811 finger Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0383—Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Eyeglasses (AREA)
Abstract
Description
図1は、本実施形態の電子機器(モバイルPC(Personal Computer)[モバイルエッジコンピューティングデバイスと呼ぶこともある]16)を含む、エッジコンピューティングを実現するための遠隔支援システムの一例を示すブロック図である。遠隔支援システムは、ユーザ、たとえば作業現場の作業者を後方のオペレータが遠隔地から支援するためのシステムである。現地の作業の例は、複雑なメンテナンス業務、物流倉庫のピッキング作業、作業現場の監視、災害救助・医療サポート等がある。作業現場の作業者側をフロントエンド、後方のオペレータ側をバックエンドとも称する。遠隔支援システムは、作業者が携帯するモバイルPC16と、作業者から離れた位置にある遠隔支援センタ(データセンタ)18とがネットワーク22を介して相互に接続され、通信可能となっている。モバイルPC16および遠隔支援センタ18は、有線のLAN(Local Area Network)ケーブルによりネットワーク22に接続されてもよいし、無線LAN、ブルートゥース(登録商標)等によりネットワーク22に接続されてもよい。
遠隔支援センタ18は、オペレータ端末12およびサーバ14を備える。遠隔支援センタ18では、オペレータ端末12が、モバイルPC16(およびウェアラブルデバイス23)との間で音声通話を行い、または、情報をやり取りする。たとえば、モバイルPC16に接続されるウェアラブルデバイス23が撮影するリアルタイム画像をオペレータ端末12に送信することや、モバイルPC16−オペレータ端末12間で画像を相互に送受信することができる。また、オペレータ端末12からモバイルPC16にテキストメッセージを送信することもできる。たとえば、物流倉庫ピッキング作業では、メガネ型のウェアラブルデバイス23にピッキング品の場所を表示させ、ハンズフリーでのピッキングを実現できる。
(1)モバイルPC16とオペレータ端末12との双方向の音声通話を行う音声通話機能。
(2)音声通話中にウェアラブルデバイス23のリアルタイム映像をオペレータ端末12にビデオ配信するライブ映像配信機能。
(3)音声通話中にモバイルPC16とオペレータ端末12間で静止画を送受信する静止画像の送受信機能(モバイルPC16は撮影した静止画像や動画像中のキャプチャ画像をオペレータ端末12に送信し、オペレータ端末12は受信した画像に文字や絵などを書き込み、編集した画像をモバイルPC16に送信する機能。モバイルPC16で受信した静止画像は、モバイルPC16内のフォルダに保存され、閲覧可能である)。
(4)音声通話中にオペレータ端末12のデスクトップ画面全体または任意のアプリケーションのウィンドウをウェアラブルデバイス23に表示する画面共有機能。
(5)オペレータ端末12からモバイルPC16に対してテキストメッセージを送信するテキストメッセージの送信機能。
[オペレータ端末12]
オペレータ端末12は、デスクトップ型PCまたはノートブック型PC等からなる。
図2は、モバイルPC(モバイルエッジコンピューティングデバイス)16の外観の一例を示す。モバイルPC16は片手で持てる小型PCであり、そのサイズは、幅が約10cm以下、高さが約18cm以下、厚さが2cm程度であり、重量は約300g程度と、小型で軽量である。このため、モバイルPC16は、作業着のポケット、ベルトに装着されるホルスタまたはショルダーケースに収納でき、ウェアラブルである。モバイルPC16は、CPU(Central Processing Unit)、半導体メモリ等の半導体チップや、SSD(Solid State Drive)等のストレージデバイスなどを収納するが、ディスプレイや、文字入力用のハードウェアキーボードは備えない。
決定ボタン202eが1回押されると、項目の選択/項目の実行がなされ(ウェアラブルデバイス本体24では、第3ボタン106の1回押しに対応)、
決定ボタン202eが長押しされると、終了または操作の取り消しがなされ(ウェアラブルデバイス本体24では、第1ボタン102の1回押しが操作の取り消しに対応)、
アップボタン202aが1回押されると、カーソルが上に移動され(ウェアラブルデバイス本体24では、タッチパッド110で上にドラッグに対応)、
アップボタン202aが長押しされると、起動中のアプリケーションの一覧が表示され(ウェアラブルデバイス本体24では、第3ボタン106の長押しに対応)、
ダウンボタン202cが1回押されると、カーソルが下に移動され(ウェアラブルデバイス本体24では、タッチパッド110で下にドラッグに対応)、
ダウンボタン202cが長押しされると、クイックセッティングメニュー(後述)が表示され(ウェアラブルデバイス本体24では、第2ボタン104の長押しに対応)、
レフトボタン202dが1回押されると、右のアイコンが選択され(ウェアラブルデバイス本体24では、タッチパッド110で後ろにドラッグ/フリックに対応)、
ライトボタン202bが1回押されると、左のアイコンが選択される(ウェアラブルデバイス本体24では、タッチパッド110で前にドラッグ/フリックに対応)。
モバイルPC16の一方の側面(正面から見て左側の側面)には、メモリカード用のカードスロット218が設けられる。メモリカードは、たとえばSD(Secure digital)カード、マイクロSDカード等を含む。
図3はモバイルPC16に接続されるウェアラブルデバイス23の外観の一例を示す。ウェアラブルデバイス23は、メガネフレーム142とウェアラブルデバイス本体24とを備える。メガネフレーム142は一般的なメガネからレンズを取り除いた形状でもよく、作業者の顔に装着される。メガネフレーム142は、たとえば作業者が常用するメガネに取り付けられる構造としてもよい。
ウェアラブルデバイス本体24はメガネフレーム142のテンプルに沿った側面部と作業者の一方の眼球の視線上に位置する前面部とからなる。側面部に対する前面部の角度は調節可能である。
図3に示すように、前面部の外側表面にはカメラ116、ライト118、カメラLED120が設けられる。ライト118は暗部の撮影時に発光する補助照明である。カメラLED120は写真や動画の撮影時に点灯し、撮影対象者に撮影していることを認識させるためのものである。
第3ボタン106が1回押されると、項目の選択/項目の実行がなされ、
第3ボタン106が長押しされると、起動中のアプリケーションの一覧が表示され、
第2ボタン104が1回押されると、ホーム画面に戻り、
第2ボタン104が長押しされると、クイックセッティングのメニューが表示され、
第1ボタン102が1回押されると、操作の取り消し(キーボードのEscキーと同様の動作)が実行される。
上下にドラッグされると、カーソルが上下に移動され、
前にフリックされると、左のアイコンが選択され(連続してスクロール)、
後ろにフリックされると、右のアイコンが選択され(連続してスクロール)、
前にドラッグされると、左のアイコンが選択され(1項目ずつスクロール)、
後ろにドラックされると、右のアイコンが選択され(1項目ずつスクロール)る。
そこで、本実施形態のモバイルPC16は、方向性を持つデバイスの設定に関するユーザビリティを向上させる仕組みを備えるようにしたものであり、以下、この点について詳述する。
USBコントローラ322は、USB type-Cコネクタ207に接続されるUSB type-CケーブルまたはUSB 3.0コネクタ206に接続されるUSB 3.0ケーブル(図示せず)に対するデータの送受信を制御する。
EC/KBC344には、サブプロセッサ346、電源スイッチ212および5ボタン202が接続される。EC/KBC344は、電源スイッチ212の操作に応じてモバイルPC16をパワーオンまたはパワーオフする機能を有する。パワーオンおよびパワーオフの制御は、EC/KBC344と電源回路350との協働動作によって実行される。EC/KBC344はモバイルPC16がパワーオフされている期間中も、バッテリ352またはACアダプタ358からの電力によって動作する。電源回路350は、バッテリ352からの電力または外部電源として接続されるACアダプタ358からの電力を用いて、各コンポーネントへ供給すべき電力を生成する。電源回路350は電圧レギュレータモジュール356を含み、電圧レギュレータモジュール356はシステムコントローラ302に接続される。また、EC/KBC344は、システムコントローラ302経由でウェアラブルデバイス本体24に設けられるタッチパッド110の操作内容を入力する。そして、EC/KBC344は、内蔵レジスタの値に基づき、このタッチパッド110の操作内容を上下左右反転させて認識する機能を有している。
[方向性を持つデバイスの設定]
図3を参照して説明したように、ウェアラブルデバイス本体24は、メガネフレーム142の左右のテンプルのどちらかに取り付けられる。右側に取り付けられるか左側に取り付けられるかで、ウェアラブルデバイス本体24の上下が反転するので、前述したように、たとえば、メガネフレーム142の右側のテンプルに備えられている取付具144に取り付けられているウェアラブルデバイス本体24を、メガネフレーム142の左側のテンプルに備えられている取付具144に取り付け直す場合、方向性を持つデバイスである、タッチパッド110、ディスプレイ124、カメラ116のそれぞれについて、その方向性の設定を変更する必要がある。また、タッチパッド110に関しては、さらに、左右の方向性についてユーザが独自の設定を行うことができるので、その独自の設定を踏まえて、タッチパッド110の左右の方向性の設定を変更しなければならない。本実施形態のモバイルPC16は、方向性を持つデバイスの設定に関するユーザビリティを向上させる仕組みを各種アプリケーションプログラム314によって実現する。
ウェアラブルデバイス本体24に設けられるタッチパッド110、ディスプレイ124、カメラ116などの方向性を持つデバイスの設定に関するユーザビリティを向上させるために、モバイルPC16は、各種アプリケーションプログラム314の一部として、管理者用設定ユーティリティ(プログラム)3141と、作業者用設定ユーティリティ(プログラム)3142と、設定サービス(プログラム)3143とを具備する。具体的には、モバイルPC16には、管理者用設定ユーティリティ3141、作業者用設定ユーティリティ3142、設定サービス3143がインストールされている。
図11中、符号b1で示される項目「Orientation」は、ディスプレイ124の方向を、ウェアラブルデバイス本体24がメガネフレーム142の左側のテンプルに取り付けられた状態を想定した方向とするのか(Left)、または、右側のテンプルに取り付けられた状態を想定した方向とするのか(Right)を設定するための項目である。初期設定は、右側のテンプルに取り付けられた状態を想定した方向である。例えば、初期設定の状態を第1形態、初期設定以外の状態を第2形態と呼称する。
図12に示されるように、この設定画面のたとえば左側部には、各種設定項目を選択肢として列挙するリスト領域が設けられる。たとえば、符号c1で示される項目「Display」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したディスプレイ124に関する設定を行うための画面へ移行することができる。また、たとえば、符号c2で示される項目「Touchpad」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したタッチパッド110に関する設定を行うための画面へ移行することができる。さらに、符号c3で示される項目「Camera」を外部キーボード33または外部ポインティングデバイス34で選択すると、図11を参照して説明したカメラ116に関する設定を行うための画面へ移行することができる。つまり、管理者用設定ユーティリティ3141が表示する設定画面によれば、第1に、ディスプレイ124、タッチパッド110、カメラ116それぞれに関する設定を個別に行うことができる。
まず、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142を起動することによって、設定サービス3143を起動する(ステップS1)。次に、管理者用設定ユーティリティ3141が提供するGUIまたは作業者用設定ユーティリティ3142が提供するGUIを通じて、ウェアラブルデバイス23を右眼モードまたは左眼モードのいずれで使用するのかを選択する(ステップS2)。
ところで、以上の説明では、管理者(またはオペレータ)または作業者が、管理者用設定ユーティリティ3141または作業者用設定ユーティリティ3142を起動して、ウェアラブルデバイス23のモード(右眼モード/左眼モード)を変更する例を示した。図8に示したように、ウェアラブルデバイス本体24は、たとえば加速度センサなどであるモーションセンサ176を有している。そこで、本実施形態のモバイルPC16は、さらに、モーションセンサ176の検出信号によって、ウェアラブルデバイス本体24が、メガネフレーム142の左右のテンプルのどちらに取り付けられているのかを判定し、必要に応じて、ウェアラブルデバイス23のモードを自動的に変更する仕組みを備える。
本実施形態の処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
Claims (15)
- 方向性を持つ複数のデバイスを備えるウェアラブル機器に接続可能な電子機器であって、
前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行う設定部を具備し、
前記設定部は、前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更する電子機器。 - 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる方向性を示す規定値から、その方向性を反転させるように非規定値へ変更することが可能であり、
前記設定部は、前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定する、
請求項1に記載の電子機器。 - 前記ウェアラブル機器は、
メガネフレームと、
前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
を具備し、
前記第1デバイスは、前記ウェアラブル機器の前記本体部に設けられるタッチパッドである、
請求項2に記載の電子機器。 - 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるディスプレイを含む請求項3に記載の電子機器。
- 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるカメラを含む請求項3に記載の電子機器。
- 方向性を持つ複数のデバイスを備えるウェアラブル機器であって、
前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行う設定部を具備し、
前記設定部は、前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更するウェアラブル機器。 - 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる方向性を示す規定値から、その方向性を反転させるように非規定値に変更することが可能であり、
前記設定部は、前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定する、
請求項6に記載のウェアラブル機器。 - メガネフレームと、
前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
を具備し、
前記第1デバイスは、前記本体部に設けられるタッチパッドである、
請求項7に記載のウェアラブル機器。 - 前記複数のデバイスは、前記本体部に設けられるディスプレイを含む請求項8に記載のウェアラブル機器。
- 前記複数のデバイスは、前記本体部に設けられるカメラを含む請求項8に記載のウェアラブル機器。
- 方向性を持つ複数のデバイスを備えるウェアラブル機器の設定方法であって、
前記複数のデバイスそれぞれの方向性の設定を含む前記ウェアラブル機器の使用形態の設定を行うことと、
前記ウェアラブル機器の使用形態の設定が第1形態から第2形態へ変更された場合、前記複数のデバイスそれぞれの方向性を反転させるように前記複数のデバイスすべての方向性の設定を変更することと、
を具備する設定方法。 - 前記複数のデバイスの第1デバイスの方向性の設定は、その設定値を、前記第1形態の仕様として定められる規定値から、その方向性を反転させるように非規定値へ変更することが可能であり、
前記第1デバイスの方向性の設定値が前記非規定値に変更された状態で前記ウェアラブル機器の使用形態の設定が前記第1形態から前記第2形態へ変更された場合、前記規定値で示される方向性を前記第1デバイスの方向性として設定することを具備する、
請求項11に記載の設定方法。 - 前記ウェアラブル機器は、
メガネフレームと、
前記メガネフレームの第1テンプルに装着され、または、前記第1テンプルに装着される場合とは上下反転した状態で前記メガネフレームの第2テンプルに装着される本体部と、
を具備し、
前記第1デバイスは、前記ウェアラブル機器の前記本体部に設けられるタッチパッドである請求項12に記載の設定方法。 - 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるディスプレイを含む請求項13に記載の設定方法。
- 前記複数のデバイスは、前記ウェアラブル機器の前記本体部に設けられるカメラを含む請求項13に記載の設定方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158395A JP2020034997A (ja) | 2018-08-27 | 2018-08-27 | 電子機器、ウェアラブル機器および設定方法 |
US16/280,776 US10852548B2 (en) | 2018-08-27 | 2019-02-20 | Electronic device, wearable device, and setting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158395A JP2020034997A (ja) | 2018-08-27 | 2018-08-27 | 電子機器、ウェアラブル機器および設定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020034997A true JP2020034997A (ja) | 2020-03-05 |
Family
ID=69583722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018158395A Pending JP2020034997A (ja) | 2018-08-27 | 2018-08-27 | 電子機器、ウェアラブル機器および設定方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10852548B2 (ja) |
JP (1) | JP2020034997A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114779480A (zh) * | 2022-06-22 | 2022-07-22 | 深圳市谦视智能科技有限责任公司 | 一种智能头戴设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187089A (ja) * | 1992-12-21 | 1994-07-08 | Hitachi Ltd | スクロール制御方法 |
US6034653A (en) * | 1997-08-01 | 2000-03-07 | Colorado Microdisplay, Inc. | Head-set display device |
JP2006146700A (ja) * | 2004-11-22 | 2006-06-08 | Olympus Corp | 情報呈示装置 |
JP2010081559A (ja) * | 2008-09-29 | 2010-04-08 | Nikon Corp | ウェアラブルディスプレイ装置 |
JP2015026257A (ja) * | 2013-07-26 | 2015-02-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2016103880A1 (ja) * | 2014-12-25 | 2016-06-30 | ソニー株式会社 | 情報処理装置 |
WO2017051721A1 (ja) * | 2015-09-24 | 2017-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5169043B2 (ja) | 2007-07-11 | 2013-03-27 | 株式会社ニコン | ヘッドマウントディスプレイ |
JP2016149587A (ja) | 2015-02-10 | 2016-08-18 | セイコーエプソン株式会社 | ヘッドマウントディスプレイ、およびその制御方法と制御プログラム |
US20160216792A1 (en) | 2015-01-26 | 2016-07-28 | Seiko Epson Corporation | Head mounted display, and control method and control program for head mounted display |
CN107920955B (zh) | 2015-07-29 | 2021-06-11 | 株式会社汤山制作所 | 混合注射辅助系统 |
CN107479200B (zh) * | 2017-09-14 | 2020-12-18 | 京东方科技集团股份有限公司 | 一种可穿戴式单目眼镜、组合双目眼镜系统及其控制方法 |
KR102587025B1 (ko) * | 2018-02-26 | 2023-10-06 | 엘지전자 주식회사 | 웨어러블 글래스 장치 |
-
2018
- 2018-08-27 JP JP2018158395A patent/JP2020034997A/ja active Pending
-
2019
- 2019-02-20 US US16/280,776 patent/US10852548B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187089A (ja) * | 1992-12-21 | 1994-07-08 | Hitachi Ltd | スクロール制御方法 |
US6034653A (en) * | 1997-08-01 | 2000-03-07 | Colorado Microdisplay, Inc. | Head-set display device |
JP2006146700A (ja) * | 2004-11-22 | 2006-06-08 | Olympus Corp | 情報呈示装置 |
JP2010081559A (ja) * | 2008-09-29 | 2010-04-08 | Nikon Corp | ウェアラブルディスプレイ装置 |
JP2015026257A (ja) * | 2013-07-26 | 2015-02-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2016103880A1 (ja) * | 2014-12-25 | 2016-06-30 | ソニー株式会社 | 情報処理装置 |
WO2017051721A1 (ja) * | 2015-09-24 | 2017-03-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10852548B2 (en) | 2020-12-01 |
US20200064634A1 (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7080636B2 (ja) | システム | |
CN108833607B (zh) | 物理地址获取方法、装置及可读介质 | |
CN109862412B (zh) | 合拍视频的方法、装置及存储介质 | |
JP7073122B2 (ja) | 電子機器、制御方法及びプログラム | |
WO2022134632A1 (zh) | 作品处理方法及装置 | |
CN110058935B (zh) | 日志级别调整方法、装置及系统、可读存储介质 | |
US11061565B2 (en) | Electronic device and control method | |
US20200226893A1 (en) | Electronic edge computing device | |
JP2020034997A (ja) | 電子機器、ウェアラブル機器および設定方法 | |
US20200098361A1 (en) | Electronic device, recognition method, and non-transitory computer-readable storage medium | |
US20190236260A1 (en) | Electronic apparatus, control system, control method, and storage medium | |
JP6968689B2 (ja) | 電子機器、ウェアラブル機器及び表示制御方法 | |
US10552360B2 (en) | Electronic device, connection method, and storage medium | |
JP6995650B2 (ja) | ウェアラブル機器及びその操作方法 | |
US11068573B2 (en) | Electronic device and method of starting electronic device | |
KR20150133597A (ko) | 이동 단말기 및 이의 제어 방법 | |
US10705726B2 (en) | Electronic device, wearable device, and character input control method | |
JP6995651B2 (ja) | 電子機器、ウェアラブル機器および表示制御方法 | |
US20200097542A1 (en) | Electronic device, recognition method, and non-transitory computer-readable storage medium | |
CN111158791A (zh) | 配置文件更新方法、装置及系统、存储介质 | |
US11063822B2 (en) | Electronic apparatus and control method | |
CN111586891B (zh) | 网络连接的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20181207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221101 |