JP2022126548A - メガネ型情報機器、その方法及びプログラム - Google Patents

メガネ型情報機器、その方法及びプログラム Download PDF

Info

Publication number
JP2022126548A
JP2022126548A JP2021024691A JP2021024691A JP2022126548A JP 2022126548 A JP2022126548 A JP 2022126548A JP 2021024691 A JP2021024691 A JP 2021024691A JP 2021024691 A JP2021024691 A JP 2021024691A JP 2022126548 A JP2022126548 A JP 2022126548A
Authority
JP
Japan
Prior art keywords
application
user
display
glasses
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024691A
Other languages
English (en)
Inventor
康博 今井
Yasuhiro Imai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021024691A priority Critical patent/JP2022126548A/ja
Priority to PCT/JP2022/004993 priority patent/WO2022176721A1/ja
Publication of JP2022126548A publication Critical patent/JP2022126548A/ja
Priority to US18/450,757 priority patent/US20230418544A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724094Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
    • H04M1/724097Worn on the head
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • H04M1/05Supports for telephone transmitters or receivers specially adapted for use on head, throat or breast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

【課題】 スマートグラスなどのメガネ型情報機器が、スマートフォンに替わり、日常的に装着して利用される可能性があり、将来的には、メガネ型情報機器の機能性を別ウェアラブル端末からリモートコントロールする際のユーザビリティを向上させる必要があると考えられる。【解決手段】 連携デバイスをもつユーザに装着されるメガネ型情報機器であって、メガネ型情報機器で実行されるアプリケーションに対する前記連携デバイスによるリモートコントロールにかかる操作部に対応する画像が、前記ユーザの視界に投影されるよう表示を制御する第1の制御手段と、前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記アプリケーションの機能を制御する第2の制御手段と、を有することを特徴とする。【選択図】 図4

Description

本発明は、スマートグラスなどのメガネ型情報機器に係る技術に関するものである。
近年、ウェアラブル端末の多様化(スマートグラス、スマートウォッチ、スマートフォンなど)は進んでおり、同時に複数の端末を身に付けるケースも多く、それらのウェアラブル端末を連携する技術が提案されている。それらの中で、スマートフォンとヘッドマウントディスプレイに(HMD)との連携において、スマートフォンで表示中の画像の一部領域である部分画像データをHMDで表示する技術が提案されている(特許文献1)。
特開2019-36914号公報
今後、スマートグラスなどのメガネ型情報機器は、スマートフォンに替わり、日常的に装着して利用される可能性がある。一方で、スマートウォッチなどメガネ型情報機器とは別のウェアラブル端末は、そのまま併用されることが想定される。将来的には、それらの機器を連携させ、メガネ型情報機器の機能性を別ウェアラブル端末からリモートコントロールする際のユーザビリティを向上させる必要があると考えられる。
そこで、本発明におけるメガネ型情報機器は、連携デバイスをもつユーザに装着されるメガネ型情報機器であって、メガネ型情報機器で実行されるアプリケーションに対する前記連携デバイスによるリモートコントロールにかかる操作部に対応する画像が、前記ユーザの視界に投影されるよう表示を制御する第1の制御手段と、前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記アプリケーションの機能を制御する第2の制御手段と、を有することを特徴とする。
本発明によれば、メガネ型情報機器を別ウェアラブル端末(スマートウォッチなど)と連携させ、リモートコントロールする際のユーザビリティが向上し得る。
メガネ型情報機器とその他のウェアラブル端末を含むシステム構成図の例を示す図 各機器のハードウェア構成の例を示す図 各機器のソフトウェアのモジュール構成の例を示す図 実施例1におけるメガネ型情報機器と連携するウェアラブル端末における処理に係るフローチャート 実施例1におけるその他ウェアラブル端末と連携するメガネ型情報機器側の処理に係るフローチャート リモートコントロール開始時の各機器における表示制御の例 リモートコントロールのために制御アプリケーション選択時の各機器における表示制御の例 リモートコントロールにおいてミラーリング表示が行われる際の各機器における表示制御の例1 リモートコントロールにおいてミラーリング表示が行われる際の各機器における表示制御の例2 リモートコントロールにおいてミラーリング表示が行われない場合の各機器における表示制御の例 実施例2におけるウェアラブル端末と連携するメガネ型情報機器の環境変化の検知処理に係るフローチャート 実施例2におけるメガネ型情報機器と連携するウェアラブル端末の環境変化検知時の処理に係るフローチャート 実施例2におけるウェアラブル端末と連携するメガネ型情報機器側の処理を説明するためのフローチャート
以下、本発明を実施するための形態について図面を用いて説明する。
<実施形態1>
図1は、メガネ型情報機器とそれと連携するウェアラブル端末を含むシステム構成図の例を示す。メガネ型情報機器は、直接、もしくはモバイルルーター(不図示)を経由してモバイルネットワーク(移動体通信網)130、およびインターネット140と通信可能な機器であり、本発明ではその一例としてスマートグラス101を挙げている。メガネ型情報機器としては、複眼だけでなく、単眼のスマートグラスや、ヘッドマウントディスプレイなども適用可能である。また、ウェアラブル端末はディスプレイやバイブレーション機能などの通知機能と、メガネ型情報機器と通信できるBluetooth(登録商標)などの通信機能とを備えた情報機器であり、本発明ではその一例としてスマートウォッチ110を挙げている。
スマートグラス101は、ユーザが目付近に装着する装着型情報端末であって、ユーザの視界を遮ることなく視界内に虚像である映像を表示部102にて表示する。このような表示方法は、いわゆるAR(拡張現実/Augmented Reality)やMR(複合現実/Mixed Reality)と呼ばれ、透過型のディスプレイ(レンズ105)やユーザの網膜(不図示)などに情報投影する機能により提供される。図示は、片目に対して映像を提供するものだが、本発明においては、両目の視界に対して映像を投影するスマートグラス101を適用することも可能である。
また、表示部102には、ユーザの視線方向の被写体を撮影するためのカメラ部103が設けられている。104はフレームであると同時にタッチセンサーを備えており、端末を操作するための操作フレーム部である。フレーム104には、スピーカー機能が内蔵され、音をユーザに伝えることが可能である。
スマートグラス101は、eSIM(embedded Subscriber Identity Module)といった内蔵モジュールを実装することが可能で、4Gや5G回線を利用するモバイルネットワーク130を経由して、インターネット140に接続可能である。また、ユーザが保有するモバイルルーターとWi-FiまたはUSBなどで接続し、モバイルルーター経由でモバイルネットワーク130に接続することも可能である。スマートグラス101は、モバイルネットワーク130を経由せずに、Wi-Fiなどを経由してインターネット140に接続することも可能である。
スマートウォッチ110は、ユーザが手首に装着する腕時計型情報端末であって、表示部111は時刻などの情報を表示するだけでなく、タッチパネルとして機能し、端末を操作することが可能である。120はスマートグラス101とスマートウォッチ110がデータをやり取りするための無線通信を示しており、Bluetooth(登録商標)の規格の無線通信を想定するが、これに限るものではない。スマートウォッチ110は、表示以外にも、バイブレーション機能による通知機能を有している。
図2は、本発明に係る各機器のハードウェア構成の例を示す図である。
図2(A)は、スマートグラス101のハードウェア構成を示す図である。
CPU201は、ROM203に格納されているプログラムにより、内部バス206を介してスマートグラス101の各種機能を総括的に制御する。CPU201によるプログラムの実行結果はディスプレイ202により、ユーザの視界に映像として投影表示することができる。本実施例では表示方式については、ユーザが透過型のレンズ105を介した視界にディスプレイ202が投影したものを見る方式を想定している。しかしながら、ディスプレイ202が網膜に直接投影する方式などを採用することも可能である。ROM203は、フラッシュメモリ等であり、各種設定情報や、前述したようにアプリケーションプログラムなどが記憶されている。RAM204は、CPU201のメモリやワークエリアとして機能する。なお、図を用いて後述される本実施例の特徴となるフローチャートで示す処理は、CPU201が対応するプログラムを実行することにより実現される処理である。
ネットワークI/F(インターフェース)205は、モバイルネットワーク130やWi-Fiに接続するためのネットワークモジュールである。このモジュールにより、インターネットに接続可能となる。なお、モバイルルーターを利用する場合には、スマートグラス101のUSB I/F(不図示)を利用して、接続することも可能である。
操作部207は、操作フレーム104でユーザからの入力を受け付け、該入力に対応する信号を操作部I/F208によって前述した各処理部へ伝える。センサー部209は、1以上のセンサーを簡易的に図示している。具体的には、スマートグラス101には、GPS、ジャイロセンサー、加速度センサー、近接センサー、血圧・心拍数計測センサーなどの少なくとも何れかが実装される。また、スマートグラス101には、指紋認証、静脈認証、虹彩認証などを実現するための生体情報も検出するためのセンサーが実装されてもよい。カメラ210は、撮影機能を備えており、撮影された画像データはROM203に格納される。レーザー211は、ディスプレイ202に各種コンテンツを投影、また、網膜投影方式の場合は網膜に直接コンテンツを投影する。ストレージ装置212は、記憶媒体であり、アプリケーションなどの各種データを格納する装置である。また、記憶媒体のデータを読み出す装置や、削除する装置なども含む。端末によっては、ストレージ装置212がなく、ROM203だけの場合もある。近距離通信I/F213は、スマートウォッチ110等との通信で利用するインターフェースであり、例えば、無線通信120を実現する。
なお、図示されていないが、スマートグラス101は、現代のスマートフォンに代わって利用することが可能なように、ネットワークや電話回線を利用した音声通話を実現するための構成をさらに備えることができる。具体的には、スマートグラス101に、電話回線に接続するためのコンポーネントと、スピーカーとマイクと、音声制御チップなどを実装することになる。
図2(B)は、スマートウォッチ110のハードウェア構成を示す図である。
CPU221は、ROM223に格納されているプログラムにより、内部バス226を介してスマートウォッチ110の各種機能を総括的に制御する。CPU221によって実行されたアプリケーションプログラムの結果、スマートグラス101からの通知などは、ディスプレイ222に表示される。ROM223はフラッシュメモリ等であり、各種設定情報や、前述したようにアプリケーションプログラムなどが記憶されている。RAM224は、CPU221のメモリやワークエリアとして機能する。なお、図を用いて後述される本実施例の特徴となるフローチャートで示す処理は、CPU221が対応するプログラムを実行することにより実現される処理である。
近距離通信I/F225は、スマートウォッチ110が無線通信120を介して、外部のネットワーク機器と片方向または双方向にデータをやり取りするための制御を行う。操作部227は、表示部111でユーザからの入力を受け付け、該入力に対応する信号を操作部I/F228によって前述した各処理部へ伝える。タッチパネルなどを利用し、ディスプレイ222と操作部227とが一体となっている形態も実現可能である。センサー部229は、1以上のセンサーを簡易的に図示している。具体的には、スマートウォッチ110には、GPS、ジャイロセンサー、加速度センサー、近接センサー、血圧・心拍数計測センサーなどの少なくとも何れかが実装される。また、スマートグラス101には、指紋認証、静脈認証、虹彩認証などを実現するための生体情報も検出するためのセンサーが実装されてもよい。
なお、前述したが、スマートグラス101は、さらに、音声による通話機能を実現するためのソフトウェアを実行することができる。
図3は、本発明に係る各機器のソフトウェアのモジュール構成の例を示す図である。
図3(A)は、スマートグラス101のソフトウェアのモジュール構成を示している。
通信部301はスマートウォッチ110への指示情報や、スマートグラス101のステータス情報をスマートウォッチ110へ送信する。また、スマートウォッチ110から送信される指示情報を受信するだけでなく、ネットワークI/F205を利用してネットワークを介して連携するアプリケーションサーバからの通知も受信する。ステータス情報とはスマートグラス101がユーザに利用されているのか否か、また、スマートグラス101のモード情報(スタンバイモード、省電力モードなど)を意味する。記憶部302はROM203、RAM204とその他処理部との情報のやり取りを行う。また、カメラ210で撮影された画像データなどを記憶する。
表示部303は、AR/MR表示など、CPU201により実行された各種アプリケーションの結果を表示する。例えば、AR技術を利用して、実空間に対して仮想的なコンテンツが重畳するように、ディスプレイ202にコンテンツを表示(情報投影)する。なお、本発明は、網膜に直接投影する方式を採用することも可能である。ここで、情報投影においては、SLAM(simultaneous localization and mapping)といった技術に基づき、実空間における自身の位置及び姿勢を推定してもよい。推定結果は、仮想的なコンテンツの表示処理に利用される。
操作部304は操作フレーム104でユーザからの入力を受け付け、各種アプリケーションの操作、ディスプレイ202への表示に対する操作の指示を受け付け、制御する。カメラ制御部305はカメラ210の起動、制止、撮影を制御し、撮影された画像データを記憶部302と連携してROM203に格納する。モード制御部306はスマートグラス101が備えている複数のモード間におけるモードの切り替えを制御し、スマートグラス101の状態をユーザが所望するモードへ切り替える。ステータス検知部307はセンサー部209により検知されたステータスの変化や利用状態などの情報を管理し、ROM203で保持する。ペアリング部308は無線通信120を介して、外部のネットワーク機器と双方向にデータ通信を可能とするよう近距離通信I/F213の御を行う。
アプリケーション管理部309は各種アプリケーションの実行状況、バージョン情報、サーバから受信した通知、省電力モードか否かの状態などを管理し、記憶部302を介してROM203とRAM204で管理する。省電力モード(スリープモードを含む)はスマートグラス110のバッテリー残量が所定値以下である場合に消費電量を最小限とするよう制御するモードである。
またアプリケーション管理部309は、「操作部304を介したユーザ入力」や「連携(ペアリング)済みの外部端末から通信部301を介して受信した指示」に基づき各種アプリケーションを制御する。連携済みの外部端末は、本実施例では、スマートグラス101を装着したユーザが身に着けているウェアラブル端末であり、その具体例がスマートウォッチ110である。
ここでアプリケーション管理部309が「操作部304を介したユーザ入力指示」と「通信部301を介した外部端末からからの指示」とのいずれか一方を先に受け付け、もう一方を後から受け付ける場合がある。この場合、先に受け付けた方の指示を優先しても良いし、一律またはアプリ毎にどちらを優先するかアプリケーション管理部309にて事前既定しても良いし、ユーザ設定可能としても良い。
また、アプリケーション制御時にディスプレイ202へコンテンツ表示する場合は、アプリケーション管理部309は表示部303を介して、ディスプレイ202にコンテンツを表示する。
以上の図3(A)にて本実施例におけるスマートグラス101のソフトウェアのモジュール構成を示した。しかしながら、スマートグラス101が、種々の連携端末個別ではなく、連携端末に非依存で共通に操作指示を受付け可能な、共通操作部のモジュールを別途設けても良い。この操作指示には、リモートコントロールによるスマートグラス101上のアプリケーションに対する操作指示や、ミラーリング表示の表示・非表示の指示など、の連携機能における指示を含む。ミラーリング表示についての定義については後述する。
そして、共通操作部と各連系端末で共通の標準化された指示情報を用意し、各連携端とスマーツグラス101が指示情報をやりとしても良い。また、末共通操作部が各連携端末で共通の操作指示UIを生成または事前保持し、各連携端末に配布した上で、各連携端末が配布された該当UIを表示してユーザ操作の受け付けるように、受付けた情報スマートグラス101に通知するようにしても良い。
図3(B)は、スマートウォッチ110のソフトウェアのモジュール構成を示している。
時計部321はディスプレイ222に表示するための時刻情報を管理、制御する。時刻情報の管理、制御はROM223に格納されるアプリケーションプログラムでも構わない。通信部322はスマートグラス101への指示情報を送信、また、スマートグラス101のステータス情報を受信するだけでなく、アプリケーションサーバからの通知も受信する。記憶部323はROM223、RAM224とその他処理部との情報のやり取りを行う。表示部324は時計部321により管理されている時刻情報や、CPU221により実行された各種アプリケーションの結果を表示する。また、スマートグラス101から転送されたアプリケーション通知を表示する。操作部325は表示部111でユーザからの入力を受け付け、各種アプリケーションの操作、ディスプレイ222への表示を制御する。ステータス検知部326はセンサー部229により検知されたステータスの変化を情報として管理し、ROM223で保持する。ペアリング部327は無線通信120を介して、外部のネットワーク機器と双方向にデータ通信を可能とするよう近距離通信I/F225の制御を行う。
アプリケーション管理部328は各種アプリケーションの実行状況、バージョン情報、サーバから受信した通知、スリープモード中であるか否かの状態などを管理し、記憶部323を介してROM223とRAM224で管理する。スリープモードは、スマートウォッチ110への操作部325による操作が所定時間以上ない場合に移行するモードであり、ディスプレイ222の画面消灯や画面ロックなどを行う。
またアプリケーション管理部328は、操作部324を介したユーザ入力に基づき各種アプリケーションを制御する。アプリケーション管理部328にてアプリケーションを制御する際にディスプレイ222へコンテンツ表示する場合、アプリケーション管理部328は表示部323を介して、ディスプレイ222にコンテンツを表示する。
更にアプリケーション管理部328は、スマートウォッチ110上の各種アプリケーションとスマートグラス101が連携する際に、どの機能を有効とするか既定するアプリ毎グラス連携情報もROM223とRAM224で管理する。
ここでの連携は、スマートウォッチ110によるスマートグラス101上のアプリケーションのリモートコントロールを想定している。リモートコントロール時には、スマートグラス101が提供するユーザーの視界への投影画像の一部として、スマートウォッチ110に対応する操作盤の簡易表示が提供される。このスマートウォッチ110などのリモートコントロールに用いるウェアラブル端末に対応する操作盤の簡易表示のことを、本実施例ではミラーリング表示とも呼んでいる。
アプリ毎グラス連携情報は、アプリケーション毎に、リモートコントロールの機能を有効にするか否かのON/OFF、ミラーリング表示の機能を有効にするか否かのON/OFFを既定する(表1参照)。
Figure 2022126548000002
このミラーリング表示するか否かを示すON/OFFの設定値は、スマートウォッチ101での各種アプリケーションのインストールインストール情報に含めても良いし、アプリケーション管理部328が管理する非図示の設定アプリにてユーザ設定可能としても良い。
以上で説明した図3のスマートグラス101やスマートウォッチ110のソフトモジュール構成を前提とし、本特許を特徴とするスマートグラス101とスマートウォッチ110との連携機能について説明する。また説明では、前述のアプリ毎グラス連携情報(表1)において、リモートコントロールとミラーリング表示が共にONであるアプリケーション時の動作を前提とする。
本実施例のスマートグラス101は、連携デバイス(本実施例ではスマートウォッチ110)からスマートグラス101のアプリケーションを制御するユーザ指示情報を受信し、ユーザ指示情報に基づきアプリケーションが機能提供するよう処理するリモートコントロール機能を搭載する。スマートグラス101は、さらに、スマートグラス101上の制御対象アプリケーションを直接コントロールするために、スマートウォッチ110上の操作部325を介したユーザ入力もユーザ指示情報として受け付ける。また、それらユーザ指示情報には制御対象を示すスマートグラス101上のアプリケーションIDも含む場合もある。
そして、スマートグラス101は、スマートグラス101の制御対象アプリケーションへの制御指示を行うためのOSの機能および/または専用の制御アプリケーションを搭載しているものとする。この搭載された機能性により、入力されたユーザ指示情報に対応するデータが制御対象のアプリケーションに引き渡され、対象アプリケーションのユーザ指示通りの制御が実現される。例えば、この制御アプリケーションは、スマートグラス101の各アプリケーションそれぞれに対応するアプリケーションや、文字入力専用や画面スクロール専用などの専用機能に特化して共通利用するアプリケーションなどである。また、例えば、制御アプリケーション終了時は、スマートグラス101へ通知するユーザ指示情報に、対象アプリケーションに対する制御終了を示す情報を含めることもできる。アプリケーション管理部328において、スマートウォッチ110の状態がスリープモードに遷移してから所定時間経過したことを検知した場合に、ユーザ指示情報として、対象アプリケーションに対する制御終了を示す情報を含めても良い。
スマートグラス101は、このリモートコントロール時に操作する連携デバイス(スマートウォッチ110)のUI情報を受信し、ディスプレイ202によりUI情報に基づくAR操作部を投影するミラーリング表示機能を搭載する。スマートグラス101に搭載するリモートコントロール機能およびミラーリング表示機能は、アプリケーション管理部309の管理機能として搭載しても良いし、アプリケーション管理部309の管理対象の各種アプリケーションの1つとして搭載しても良い。
この時、リモートコントロール機能の制御対象アプリケーションのコンテンツをスマートグラス110上で投影表示中に、ミラーリング表示機能により制御対象アプリケーションを制御するための前述のUI情報に基づくAR操作部(ミラーリング表示)をユーザーの視界に対して提供する。
本実施例におけるスマートグラス101では、ミラーリング表示を提供する際には、制御対象アプリケーションのコンテンツ画像を少し縮小して空き領域を作り、その空き領域にUI情報に基づくAR操作部を提供する自動制御も実現する。しかし、状況に応じ、表示中の制御対象アプリケーションのコンテンツ画像上に、AR操作部に対応する画像の一部または全てを重ねて表示して、ミラーリング表示を実現することもできる。例えば、制御対象アプリケーションがバックグラウンド動作している場合など、ミラーリング表示を全画面で表示しても良い。
ミラーリング表示に用いるUI情報には、スマートウォッチ110での操作部の投影に利用される画面情報などが含まれる。画面情報は連携デバイス(スマートウォッチ110)の見た目をコピーしたようなものであってもよい。また、この画面情報は、静止画・動画等のデータそのものでも良いし、スマートグラス101で画像情報を生成可能とするJSONやXML形式の構造化データなどで実現しても良い。
また、連携デバイス(スマートウォッチ110)側にリモートコントロールに利用できるハードウェア(ボタンやマウスボール)を搭載している場合(不図示)もあり、その場合は当該ハードウェアによって入力されたデータがユーザ指示情報としてスマートグラス101に渡される。その際には、UI情報には、当該ハードウェアに対応するような描画データが含まれるものとする。
また、リモートコントロール時のミラーリング表示におけるスマートウォッチ110上の画面情報には、制御対象のスマートグラス101上のアプリケーションへの制御情報インプットとなる「文字入力画面」や「スクロール画面」などの制御画面の画面情報がある。またミラーリング表示中のアプリケーション終了時は、スマートグラス101へ通知するUI情報にミラーリング表示終了を示す情報を含める。その他、アプリケーション管理部328において、スマートウォッチ110がスリープモードへ入ってから所定時間経過したことを検知した際に、UI情報にミラーリング表示終了を示す情報を含めても良い。
更に、ユーザーは、スマートグラス101に対して、連携デバイス(スマートウォッチ110)からのリモートコントロールおよび/またはミラーリング表示の許可/非許可を指定することも可能である。ペアリングしているデバイスを選択して指定することが可能である。また、連携されるデバイスを特定するためのIDや製品種別、製品搭載のOS・OSバージョン、アプリ種別・アプリバージョンなど各種条件を任意にユーザーに指定させて、条件を満たす連携デバイスに対するリモートコントロールおよび/またはミラーリング表示の許可/非許可をスマートグラス101で自動決定することもできる。本実施例においては、スマートウォッチ110の情報に関係なくリモートコントロールやミラーリング表示をスマートグラス101で一律許可した場合について説明を進める。
図4、図5にて、ペアリング中のスマートウォッチ110とスマートグラス101に連携おいて、スマートウォッチ110がスマートグラス110に搭載のアプリケーションを制御する際の本実施例の特徴となるフローチャートを示す。図4、図5において、スマートウォッチ110とスマートグラス101が、それぞれペアリング部327とペアリング部308により既にペアリング実施済みの状態であるものとする。
図4は、スマートウォッチ110における処理を説明するためのフローチャートである。本フローチャートは、ユーザがスマートウォッチ110上のアプリケーションを操作した際に、リモートコントロールやミラーリング表示のための情報をスマートグラス101に送信するなどの処理を説明する。このフローチャートに含まれる処理ステップの主体は、アプリケーション管理部328である。
アプリケーション管理部328は、「操作部325からのユーザ入力」や「通信部301からのスマートグラス101による指示情報」の通知により、スマートウォッチ110上の任意アプリケーションへの操作情報を検知する(S401)。この時、検知する操作情報は、アプリケーションの操作開始や操作中、操作終了などの情報である。すると、アプリケーション管理部328は制御指示のあったアプリケーションの制御を開始すると共に、アプリ毎グラス連携情報(表1)にて該当アプリケーションのリモートコントロールのON/OFFの既定値が確認される(S402)。リモートコントロールがONの場合は、更にアプリ毎グラス連携情報(表1)にて該当アプリケーションのミラーリング表示のON/OFFの既定値が確認される(S403)。S403でミラーリング表示がONの場合は、通信部321を介してスマートグラス101にユーザ指示情報とUI情報が送信される(S404)。
S403でミラーリング表示がOFFの場合は、通信部321を介してスマートグラス110にユーザ指示情報のみが送信される(S405)。
S402にてリモートコントロールがOFFの場合も同様に、アプリ毎グラス連携情報(表1)にて該当アプリケーションのミラーリング表示のON/OFFの既定値が確認される(S406)。S406でミラーリング表示がONである場合は、通信部321を介してスマートグラス110にUI情報のみが送信される(S407)。そして、S406でミラーリング表示がOFFの場合は、図4のフローが終了する。
一方で、S401において、任意アプリケーションへの操作情報を検知しない場合、アプリケーション管理部328は、スマートウォッチ110がスリープモードであるか否かを判定する(S408)。なお、以下の判定におけるスリープモードであるか否かの判定は、スマートグラス101が状態遷移し得る所望の省電力モードであるか否かの判定に置換されてもよい。S408にてスリープモードではないと判定した場合は図4のフローが終了する。
S408にてスリープモードであると判定した場合は、更に、スリープモードへ移行してから所定時間経過したか否かの判定が実施される(S409)。S409にて所定時間経過していないと判断した場合には図4のフローが終了し、S409にて所定時間経過したと判断した場合にはS410へ進む。S410では、ユーザ指示情報にリモートコントロールによる制御終了を示す情報が設定され、UI情報にミラーリング表示による表示終了を示す情報が設定される。そして、S411で、スマートグラス101に対して、それらユーザ指示情報とUI情報が送信される。
図5は、スマートグラス101のフローチャートであり、スマートウォッチ110からリモートコントロールやミラーリング表示の制御情報を受信し、制御情報に基づき制御するフローチャートである。このフローチャートに含まれる処理ステップの主体は、アプリケーション管理部309である。
アプリケーション管理部309は、通信部301を介して連携デバイスからデータを受信すると、受信データにユーザ指示情報を含むか否かを確認する(S421)。ユーザ指示情報を含む場合、更に、受信データにUI情報を含むか否かが確認される(S422)。そして、受信データにUI情報を含む場合は、ユーザ指示情報に基づきスマートグラス101上のアプリケーションを制御するリモートコントロールの開始・継続・終了が実行され、更に、UI情報に基づきミラーリング表示の開始・継続・終了も実行される。
S422にて受信データにUI情報を含まない場合、アプリケーション管理部309は、管理中のアプリケーションの実行状況よりミラーリング表示中か否かを確認する(S424)。S424にてミラーリング表示中の場合は、スマートグラス101がスリープモードであるか否かが判定される(S425)。なお、以下の判定におけるスリープモードであるか否かの判定は、スマートグラス101が状態遷移し得る所望の省電力モードであるか否かの判定に置換されてもよい。
S425にてスリープモードではない場合、ユーザ指示情報に基づくリモートコントロールの開始・継続・終了が実行されると共に、ミラーリング表示が継続される(S426)。S425にてスリープモードである場合は、更に、前回連携デバイス(スマートウォッチ110)よりUI情報を受信してから所定時間経過したか否かが判定される(S427)。そして所定時間経過している場合は、ミラーリング表示が終了され(S428)、所定時間経過していない場合はS426へ進む。S424でミラーリング表示中ではない場合、ユーザ指示情報に基づくリモートコントロールの開始・継続・終了のみが実行される(S426)。
S421にて、連携デバイスからの受信データにユーザ指示情報を含まない場合、S422同様に、受信データにUI情報を含むか否かが確認される(S430)。そして、受信データにUI情報を含む場合は、UI情報に基づくミラーリング表示の開始・継続・終了のみが実行される(S431)。
S430にて受信データにUI情報を含まない場合は、S424同様、ミラーリング表示中であるか否かが確認される(S432)。S432にてミラーリング表示中の場合は、スマートグラス101がスリープモードであるか否かが判定される(S433)。S433にてスリープモードではない場合、ミラーリング表示が継続される(S434)。
S433にてスリープモードである場合は、更に、前回連携デバイス(スマートウォッチ110)よりUI情報を受信してから所定時間経過したか否かが判定される(S435)。そして、所定時間経過している場合は、ミラーリング表示が終了される(S436)。所定時間経過していない場合はS434へ進む。S432でミラーリング表示中ではない場合、図5のフローを終了する。
図6~図10に、リモートコントロール、ミラーリング表示の連携機能を実行する際の、「スマートウォッチ110のディスプレイ222」および「スマートグラス101のディスプレイ202」での表示例を示す。図6~図10は、ユーザがスマートウォッチ110からスマートグラス101に対するリモートコントロールを開始し、スマートグラス101上のWebブラウザアプリケーションによるWeb検索を実行する際のユースケースを想定した、AR表示も含む一連のUI操作を順に示している。以下、アプリケーションを“アプリ”と略称している。
図6(A)の500、504はそれぞれ、スマートウォッチ110およびスマートグラス101の初期画面である。501、502、503はいずれもスマートウォッチ110上のアプリアイコンであり、それぞれスマートウォッチ設定アプリ、Webブラウザアプリ、スマートグラス101上のアプリを制御するリモートコントロールアプリである。
また、505、506、507はいずれもスマートグラス101で実行されるアプリのAR技術でユーザーの視界に投影されることで、表示が実現されるアイコンである。それぞれスマートグラスの設定のためのアプリ、Webブラウザアプリ、家電リモコン機能を有するリモコンアプリのためのアイコンである。また、500や504の画面上に示した上記アプリ以外も同様にアプリアイコンとして表示可能である。スマートグラス101がユーザーの指を認識し、ARで提供されるいずれかのアイコンの選択操作を検出した場合には、選択されたアプリが起動して、ユーザーの視界に該アプリのコンテンツがさらに表示されることになる。なお、以降ではスマートウォッチ110によるリモートコントロールについて説明するが、それら処理とスマートグラス101におけるユーザーからの入力を認識したことに応じた操作を併用することも可能である。
ここで、図6(A)にて、リモートコントロールアプリ503を押下すると、図6(B)508のリモートコントロール設定画面が表示される。この画面では、リモートコントロールを有効化して開始するためコントロール有効化ボタン509と、スマートグラス101上のアプリを制御する際の制御対象アプリ選択画面へ遷移するための対象アプリ選択ボタン509を有する。コントロール有効化ボタン509は初期状態ではOFFとなっており、図6(B)のように、コントロール有効化ボタン509を押下することで、ON/OFFのトグルボタンがスライドして制御ONに切り替わる。
なお、コントロール有効化ボタン509を制御ONに切り替え際、スマートウォッチ110とスマートグラス101のペアリングがまだされていない場合は、図6(C)のようにペアリング未実行時ポップアップ画面511を表示する。ペアリング未実行時ポップアップ画面511は、まだペアリングされていないことを示す警告メッセージとともに、ペアリング可能な対象のスマートグラス101の候補一覧512を表示している。ペアリング未実行時ポップアップ画面511の事例では、候補一覧511に「Glasses-1」と「Glasses-2」の名前のスマートグラス101が近距離通信によるペアリングが可能であることを示している。そして、ユーザが「Glasses-1」を選択すると、ペアリングのための非図示の認証画面を表示してユーザが認証IDや認証パスワードなどを入力し、認証実行およびペアリング実行を完了する。また、ペアリング未実行時ポップアップ画面511を閉じる場合は、Closeボタン513を押下する。
図6(B)でのコントロール有効化ボタン509における制御ON時に既にペアリング済みである場合、または、図6(C)のペアリング未実行時ポップアップ画面511でのペアリング実行が完了した場合、リモートコントロールを開始する。
図7(A)は、リモートコントロール中の状態において、具体的に制御するスマートグラス101上のアプリを制御するための制御対象の対象アプリ選択画面514を表示しているUI表示状態である。この状態へは図6(B)にて、ユーザが前述の対象アプリ選択ボタン510を押下することで遷移する。対象アプリ選択画面514上に表示している設定制御アプリ515、Webブラウザ制御アプリ516、リモコン制御アプリ517は、それぞれ、スマートグラス101上のアプリ505~507を制御するための制御アプリアイコンである。
ユーザーによるスマートウォッチ110に対するWebブラウザ制御アプリ516の選択操作を検出すると、スマートウォッチ110上で図7(B)のWebブラウザ制御画面519を表示する。またスマートグラス101上に、制御対象であるWebブラウザアプリ506の起動後の画面であるWebブラウザ画面528と、スマートグラス101上にてリモートコントロール中であることを示すコントロール中表示527を表示する。スマートウォッチ110における表示は、前述の通り、AR技術によるユーザー視界に対する投影表示になる。
コントロール中表示527では、どの連携端末からコントロールされているか分かるようにリモートコントロールを指示している連携端末の名称を表示しており、ここではWatch-1によりコントロールされていることを示している。Webブラウザ画面528は検索画面である。Webブラウザ画面528は、検索画面で検索後に、検索前の画面に戻るための戻るボタン528や、検索文言を入力する入力欄530、入力欄530に入力された文言にて検索実行するためのClickボタン531を有する。更に、Webブラウザ画面528は、Webブラウザ画面上の領域を移動して指定するためのポインタ532、ブラウザ更新ボタン、ブラウザ表示の最小化・最大化を示すボタン、ブラウザを閉じるボタン、URL表示欄なども有する。
スマートウォッチ110側のWebブラウザ制御画面519上の、戻るボタン520は、前述した戻るボタン529に対応したものであり、戻るボタン529を実行するための指示ボタンである。また、Webブラウザ制御画面519上のBACKボタン524は、Webブラウザ制御アプリ516を終了して、前画面である対象アプリ選択画面514へ戻るためのボタンである。ENDボタン525を押下すると、Webブラウザ制御アプリ516及びリモートコントロールアプリ503を終了して画面を閉じ、起動初期画面500を表示する。
Webブラウザ制御画面519は、スマートグラス101上のWebブラウザアプリ506への制御を指示する指示画面であるが、本画面内は更に、特定の操作指示へと機能分解した指示制御アプリを有する。
指示制御アプリには、例えば、ポインタ移動指示制御アプリ521、キーボード指示制御アプリ522、タッチパッド指示制御アプリ523などがある。ポインタ移動指示制御アプリ521は、ポインタ532の十字方向に移動指示し、キーボード指示制御アプリ522は文字入力を指示する。また、タッチパッド指示制御アプリ523は、従来のノートPCが備えるタッチパッド機能と同等の指示をすることが可能である。その他、制御指示アプリには、スクロール指示を出すスクロールアプリ、ピンチイン・ピンチアウト指示を出すピンチイン・アウトアプリ、フリックで画面を上下左右にスライドさせるフリックアプリ、タップ指示に特化したタップアプリ、などもある。
ここで、ここまでの図6、図7で示したスマートウォッチ110上のアプリおける、前述表1のアプリ毎グラス連携情報を表2に具体的に示す。
Figure 2022126548000003
前述した図6のリモートコントロール開始は、表2においてリモートコントロールアプリ503(アプリケーションID:0004の行)がリモートコントロールONであることに基づき実行される。一方、この時、ミラーリング表示OFFであるため、ミラーリング表示はこの時点ではされていない。リモートコントロールアプリ503の際に、ミラーリング表示ONと既定してもよく、その際は、図6のリモートコントロール開始のタイミングで、リモートコントロール設定画面508が、スマートグラス101上にミラーリング表示される。
た、図7(A)にてWebブラウザ制御アプリ516を押下後、前述の通り図7(B)のような画面表示となるが、この際もリモートコントロール中ではあるが、ミラーリング表示はされていない。この状態は、表2において、Webブラウザ制御アプリ516(アプリケーションID:0006の行)がリモートコントロールON、ミラーリング表示OFFと既定されていることに基づく。Webブラウザ制御アプリ516でミラーリング表示ONと既定した場合、図7(B)のタイミングで、スマートグラス101上にWebブラウザ制御画面519がミラーリング表示される。
図8は、続いて図7(B)にてポインタ移動指示制御アプリ521を選択した場合に遷移する、ミラーリング表示を行う制御アプリ実行時の表示例である。図8(A)は、ミラーリング表示が開始された場合の表示例である。
表2において、ポインタ移動指示制御アプリ521(アプリケーションID:0008の行)がリモートコントロールON、ミラーリング表示ONであり、この既定に基づきリモートコントロール継続と共に、ミラーリング表示を開始している。
スマートウォッチ110では、ポインタ移動指示画面533を表示し、十字キー534にて、ポインタを上下左右に移動させるための指示が可能である。また、十字キー534の中央にあるTAPボタンを押下することでタップ指示も可能としている。また、BACKボタン535は、ポインタ移動指示制御アプリ521を終了し、前画面であるWebブラウザ制御画面519に戻るためのボタンである。ENDボタン535を押下すると、ポインタ移動指示制御アプリ521、Webブラウザ制御アプリ516、リモートコントロールアプリ503を終了して画面を閉じ、起動初期画面500を表示する。
図8(A)では、スマートグラス101を介したユーザーの視界に、ミラーリング表示中であることを示すミラーリング表示中536の文言が追加で表示されている。この表示には、どの連携端末のUIをミラーリング表示しているか分かるように該当の連携端末の名称を表示しており、ここではWatch-1のUIを表示していることを示している。537はミラーリング表示画像であり、このタイミングでWatch-1のスマートウォッチ110に表示されているポインタ移動指示制御画面533のUIをミラーリング表示している。また、図8(A)におけるWebブラウザ画面528は、ミラーリング表示前の図6(I)から表示位置の移動と画面サイズ縮小をしている。なお、本例では、前述のミラーリング表示画像537を表示するための領域を確保するために、このような自動制御を追加している。
また図8(A)にてスマートウォッチ110でユーザが十字キー534の下矢印を操作した場合、ミラーリング表示画像537には該操作が行われたことが反映されると共に、Webブラウザ画面528上のポインタ523が指示に従い下に移動する。ミラーリング表示画像537にスマートウォッチ110で受け付けた操作内容が反映されることで、ユーザは自分の操作を視界で再認識でき、重複操作や誤操作が防止できる。図8(A)では、入力欄530上までポインタを移動したことを示している。
続いて、図8(B)にてユーザが十字キー534の中央にあるTAPボタンを押下すると、同様にミラーリング表示画像537に該操作が表示反映されると共に、ポインタが入力欄530上にあるため入力欄530が選択される。
図8にてユーザがBACKボタン535を押下すると、BACK押下時の画面も同様にミラーリング表示画像537に反映されると共に、図7(B)のWebブラウザ制御画面519に戻る。すると、ポインタ移動指示制御アプリ521が終了し、Webブラウザ制御アプリ516の操作中となるため、表2のアプリケーションID「0006」の情報に従い、ミラーリング表示を終了(OFF)する。
本図のミラーリング表示画像537に示すようなシンプルな操作部の場合、ユーザーはスマートウォッチ110の表示を見なくても、ミラーリング表示画像537を確認しつつ、スマートウォッチ110に対して操作入力が可能になるかもしれない。したがって、ユーザーはスマートウォッチ110の方向に顔を下げるといったよそ見など無しに、手元でのわずかな操作のみでARアプリを制御できるようになる。
図9は、続いて図7(B)にてキーボード入力指示制御アプリ522を選択した場合に遷移する、ミラーリング表示を行う制御アプリ実行時の図8とは別の表示例であり、図9(A)のようにミラーリング表示が開始される。スマートウォッチ110ではキーボード入力指示制御画面538を表示する。そしてキーボード入力指示制御画面538上では、キーボード539及び、キーボード入力指示制御アプリ521を終了して前画面のWebブラウザ制御画面519に戻るためのBACKボタン540を表示する。この時、キーボード入力指示制御アプリ522が操作中となるため、表2のアプリケーションID「0008」の情報に従い再度ミラーリング表示を開始(ON)し、ミラーリング表示画像541をミラーリング表示する。ミラーリング表示画像541は、このタイミングでWatch-1のスマートウォッチ110に表示されているキーボード入力指示制御画面538のUIをミラーリング表示しているものである。
図9(B)にてユーザがキーボード539上で、例えば「や」の文字選択をしたとすると、「や」で始まる入力候補文字が候補文字一覧542に表示される。候補文字一覧542からユーザが文字選択した際に選択確定をするための確定ボタン543も表示される。そして、このタイミングのキーボード入力指示制御画面538のUIがミラーリング表示画像541に表示反映されると共に、Webブラウザ画面528上の入力欄530に選択中の文字「や」が表示される。
例えば、図9(B)の候補文字一覧542の候補文字からユーザが「山」を選択すると、ミラーリング表示画像541に表示反映され、Webブラウザ画面528上の入力欄530に「山」が候補選択中の状態で表示される。この状態で、図6(S)にて確定ボタン543をユーザが押下すると、同様にミラーリング表示画像541に表示反映され、Webブラウザ画面528上の入力欄530の「山」も確定状態で表示されて次の文字の入力待ちとなる。
図9にてBACKボタン540を押下すると、図7(B)のWebブラウザ制御画面519に戻る。このタイミングで、キーボード入力指示制御アプリ522が終了し、Webブラウザ制御アプリ516の操作中となるため、表2のアプリケーションID「0006」の情報に従い、ミラーリング表示を終了(OFF)する。
図10は、図7(B)にてタッチパッド指示制御アプリ523を選択した場合に遷移する、ミラーリング表示を行わない制御アプリ実行時の表示例であり、図10(A)のようにミラーリング表示せずにWebブラウザ画面528のアプリを制御する。スマートウォッチ110ではタッチパッド指示制御画面544を表示する。タッチパッド指示制御画面544上には、タッチパッド指示するためのタッチパッド領域545と、タッチパッド指示制御アプリを終了して前画面のWebブラウザ制御画面519に戻るBACKボタン546が表示される。タッチパッド指示制御アプリ523は、表2のアプリケーションID「0010」の情報に従い、ミラーリング表示OFFにてリモートコントロールを続ける。よって、図7(B)から図10(A)への状態遷移時には、スマートグラス101上の表示変化はない。図10(A)のタッチパッド領域545にて、ユーザが指を右にスライドさせるように動かすと、その動きに連動してWebブラウザ528上のポインタ532も右に移動する。ここでは、Clickボタン531上までポインタが移動したものとする。
続いて、図10(B)のタッチパッド領域545にて、ユーザが指を2回タップさせると、その動きに連動してWebブラウザ528上のポインタ532が指定するClick531をクリックする。これにより、入力欄530に入力されている「山」の文言にてWeb検索が実行される。図10(C)は、検索操作後の画面で、Webブラウザ画面528のように、検索結果が表示される。Webブラウザ画面528には、547の検索結果情報領域に、ヒット件数やヒットした記事へのリンク情報、画像情報などが一覧のようにして表示される。
図10にてBACKボタン546を押下すると、図7(B)のWebブラウザ制御画面519へ戻る。
以上の図6~図10に示したUI操作により、スマートウォッチ110からスマートグラス101上のアプリをリモートコントロールする際に、操作アプリに応じてミラーリング表示をON/OFFすることが可能である。
ここで図6~図10のような一連のUI操作において、スマートウォッチ110からスマートグラス110をリモートコントロールしている際にも、前述した通り、スマートグラス110は操作部304などを介したユーザ入力指示を受付け可能である。よって、スマートウォッチ110のUIをミラーリング表示中に、スマートグラス110の操作部304によるユーザ操作が割り込む場合が有る。この場合、スマートグラス110はミラーリング表示を一度終了する。この場合、スマートウォッチ110が表示2におけるミラーリング表示ONのアプリ操作を再度検知し、スマートグラス110にミラーリング指示すると、スマートグラス110はミラーリング開始を再開する。
また図6~図11に示したUI操作のユースケースでは、図6(B)上の制御対象アプリ選択ボタン510をユーザが選択し、その後、図7(A)にてWebブラウザ制御アプリ516を押下することでミラーリング表示を開始していた。つまり、これはスマートウォッチ110上のアプリケーション管理部328が「操作部325からのユーザ入力」の通知を受けて、スマートウォッチ110上のWebブラウザ制御アプリ516への操作情報を検知(S401)するユースケースである。
一方、別のユースケースとして、スマートウォッチ110上のアプリケーション管理部328が、通信部301を介して「スマートグラス101からの制御指示アプリ起動依頼」を受け、スマートウォッチ110上の制御指示アプリを起動するユースケースもある。この時、通知を受けたスマートウォッチ110が制御指示アプリを起動し、その制御指示アプリの起動を検知(S401)することとなる。この別のユースケースについて、図6を用いて簡単に説明する。
まず、このユースケースの場合、図6(B)で制御対象アプリ選択ボタン510を選択せず、リモートコントロール設定画面508上の非図示のCloseボタンし、バックグラウンドでリモートコントロール中とし、初期画面500が表示されたままになる。
続いてこの初期画面500での待ち状態中に、例えば、スマートグラス101上の操作部304を用いてユーザがスマートグラス101上で表示中のWebブラウザ画面528の入力欄530を選択する。すると、「入力欄の選択」をアプリケーション管理部309が検知し、アプリケーション管理部309が通信部301を介してスマートウォッチ110に対して「図6で示したキーボード入力指示制御アプリ522の起動」を依頼する。
そして、スマートウォッチ110は、キーボード入力指示制御アプリ522の起動依頼を受けるとキーボード入力指示制御アプリ522を起動し、キーボード入力指示画面538を表示する。ユーザは、表示されたキーボード入力指示画面538を用いて入力する。
その後、ユーザが文字入力を終えてキーボード入力指示画面538上の非図示のCloseボタンを押下すると、スマートウォッチ110はキーボード入力指示制御アプリ522を終了し、スマートウォッチ110は再び初期画面500での待ち状態へと戻る。
以上で説明した実施例によれば、スマートグラスのアプリケーションの機能をスマートウォッチでリモートコントロールする際の連携におけるユーザビリティを、AR技術を用いて向上することが可能である。
なお、本実施例では、ミラーリング表示との名称での説明を行っているが、スマートウォッチ110で表示される操作部や操作性と完全一致するような表示画像(例えば、図8(A)のミラーリング表示画像537)がスマートグラス101により投影される必要はない。操作性を把握できる程度に操作部の仮想表示が実現されればよく、ユーザーやアプリ提供元、スマートグラス101などがカスタマイズした操作部を示す任意の画像で、ミラーリング表示を実現してもよい。
<実施形態2>
ユーザがスマートウォッチ110とスマートグラス101を併用する際の利用環境は様々である。そのため、それらの機器の連携時の利用環境や環境変化を考慮することで、連携時のユーザビリティをユーザにとって更に向上させることが可能となる。
実施形態2では、連携時の利用環境や環境変化を考慮した実施形態について、実施形態1と差異がある箇所を示し、説明する。
本実施形態のスマートウォッチ110のソフトモジュール構成(図3(B))において、アプリケーション管理部328では、スマートグラス101との連携時に、どの利用環境においてどの機能を有効とするかをアプリ毎グラス連携情報として、予め設定することを可能とする。また、ユーザの利用環境の変化が検出された際に発動する機能についても設定できる。これらの設定は、スマートウォッチ110上の各種アプリケーション毎に行われる。例として、表3のように既定する。
Figure 2022126548000004
表3のアプリ毎グラス連携情報に基づくグラス連携では、実施形態1の際に記述したリモートコントロールとミラーリング表示を、どの利用環境において有効とするか既定している。実施形態2においては、機能の有効・無効を設定する「ON/OFF設定」のみならず、有効(ON)である場合の利用環境も「利用環境設定」として設定されている。
例えば、表3のアプリケーションID「0001」のアプリケーションを例にすると、まずリモートコントロールのON/OFF設定が「ON」であり、利用環境設定が「満員電車or歩行中」となっている。この場合、ユーザ環境が「満員電車」または「歩行中」であることを検知すると、リモートコントロールの機能が開始される。その後、ユーザ環境が「満員電車」または「歩行中」のいずれでもないことを検知すると、リモートコントロールの機能が終了する。アプリケーションID「0001」のミラーリング表示のON/OFF設定も「ON」であり、利用環境設定が「満員電車」となっている。この場合、ユーザ環境が「満員電車」であることを検知すると、ミラーリング表示機能によるミラーリング表示が開始される。また、「満員電車」ではないことを検知すると、ミラーリング表示機能によるミラーリング表示が終了する。
ここで、ユーザ環境が「満員電車」であるか否か「歩行中」であるか否かの環境変化検知は、スマートグラス110が備えるセンサー部209やカメラ210からの情報に基づき、アプリケーション管理部309で検知する。また、現在のユーザ環境を示す環境状況も、プリケーション管理部309が記憶部302を介してROM203,ROA204で管理する。スマートグラス101がアプリケーション管理部309にて環境変化を検知すると、スマートウォッチ110へ通知する。スマートウォッチ110は、環境変化検知を受信すると、自身の操作中アプリケーションを確認する。そして、操作中アプリケーションがある場合は表3のアプリ毎グラス連携情報に基づき、「リモートコントロール」「ミラーリング表示」をONまたはOFFする。
表3の利用環境設定に「‐(ハイフン)」で指定しているアプリケーションがあるが、これは未指定であることを示し、この場合は、全環境において「ON/OFF設定」の設定に従う。また、表3の利用環境設定に「連携画面直視中」を指定しているアプリケーションもある。これは、スマートグラス101のレンズ越しに、ユーザが物理的に連携しているスマートウォッチ110の画面(ディスプレイ222)を見ている状態を示す。表3のアプリケーションID「0003」のように、ミラーリング表示においてON/OFF設定をOFFとし、利用環境設定を「連携画面直視中」としている。この場合、スマートグラス101でミラーリング表示中に、ユーザがスマートウォッチ110の画面を直接見るとミラーリング表示を終了し、ユーザがスマートウォッチ110の画面から目線を外すと再度ミラーリング表示を開始する。これによりユーザは、スマートウォッチ110の画面を直接見ている場合にスマートグラス101にも同一画面がミラーリング表示される、といった同一画面の二重表示に相当する煩わしさから解放される。
更に、前述したように利用環境設定に「満員電車or歩行中」が設定されている場合は、「満員電車」または「歩行中」を示すことを述べた。類似する設定として、表3の事例では未記載であるが、もし利用環境設定に「連携画面直視中and歩行中」が設定されている場合は、「連携画面直視中」かつ「歩行中」を示すものとする。
以上のように本実施形態2における「環境」の定義は、表3の利用環境設定で示したように「満員電車」というユーザがいる環境そのものに限らず、「歩行中」「連携画面直視中」などのユーザ状況も含めたものを「環境」と定義する。また、表3では、「利用環境設定」には、「満員電車」、「歩行中」などの値を管理している例を挙げているが、これは説明のためである。実際には、それら各環境に対応するそれぞれに割り当てられた設定値IDが表で管理されていてもよい。
更に、実施形態2では、特定の環境変化を検知した場合にスマートウォッチ110の画面をロックするウォッチ画面ロックの機能も搭載する。これは表3の「ウォッチ画面ロック」列の中で、「ON/OFF設定」と「発動環境」の列を設けて既定する。例えば、表3のアプリケーションID「0001」では、「ウォッチ画面ロック」列のON/OFF設定が「ON」であり、発動環境が「満員電車」となっている。この場合、ユーザ環境が「満員電車以外の環境」から「満員電車の環境」へと遷移したことを検知すると、ウォッチ画面ロックの機能が実行されることを示している。このウォッチ画面ロックの機能は、満員電車状態において、スマートウォッチ110の画面(表示部111)に他のユーザが触れてしまい、スマートグラス101に対するリモートコントロールにおいて誤制御させる可能性を低減する用途に利用する。満員電車の状態になった際に、一旦スマートウォッチ110の画面をロックしてしまえば、他のユーザが触れることによる誤制御は防げる。
ウォッチ画面ロックの機能による画面ロック後、例えば、画面にて指紋認証させる再ログインさせるなどすれば、ユーザ自身が触れた状態での画面操作を確実とすることも可能である。
その他、ウォッチ画面ロックの機能の用途として、「歩行中」へと遷移した際にスマートウォッチ110を画面ロックすることも有効である。ユーザがスマートウォッチ110の画面からスマートウォッチ101をリモートコントロールする際に、スマートウォッチ110の画面を直接目視するケースがある。この状態において、歩行開始すると、スマートウォッチ110の画面を直視しながら歩きこととなり、ユーザは周囲に危険な環境があっても気が付くことができない。そのため、「歩行中」へと遷移した際に一旦画面をロックすることで、ユーザのスマートウォッチ110の画面への注意を一旦退け、周囲の環境に目を向ける機会を提供することが可能である。この時のウォッチ画面ロックの機能による画面ロック時、画面上に警告表示をしても良い。
また、「歩行中」の状態を継続中に再度画面ロック解除した際は、ミラーリング表示するように誘導しても良い。この時、画面ロック時の警告表示し、画面ロック解除後にミラーリング表示するまでの一連の処理を、「ウォッチ画面ロック」の機能の中に含んでも良い。
更に、「ウォッチ画面ロック」による画面ロックを解除する際の手段として、表3に未記載の「ウォッチ画面解除」機能を連携機能の1つとして既定しても良い。例えば、表3の利用環境設定において「停止中(歩行中OFF)」を示す環境を指定して、その際に「ウォッチ画面解除」のON/OFF設定をONで設定する、といった方法がある。
図11~図13は、ペアリング中のスマートウォッチ110とスマートグラス101において、スマートウォッチ110がスマートグラス110に搭載のアプリケーションを制御する際の、本実施形態2を特徴とする処理を示すフローチャートである。また図11~図13において、スマートウォッチ110とスマートグラス101がそれぞれペアリング部327とペアリング部308により既にペアリング実施済みの状態であるものとする。
図11は、スマートグラス101において、ユーザ環境の変化を検知した際に、環境変化検知をスマートウォッチ110に送信する処理に係るフローチャートである。このフローチャートに含まれる処理の主体は、アプリケーション管理部309である。
アプリケーション管理部309は、センサー部209やカメラ210からの情報に基づき、ユーザがいる周囲の環境変化を検知する(S601)。例えば、センサー部209ではGPSや加速度センサーの情報により歩行中か否かを検知する。また、センサー部209による近接センサーやカメラ210からの画像情報に基づき満員電車状態か否かを検知する。更に、カメラ210がスマートグラス101のユーザとほぼ同一目線の先にあるものを捉える機能を備える場合は、カメラ210からの画像情報に基づき、ユーザが連携中の連携デバイス(スマートウォッチ110)の画面を直接目視している最中か否かを検知する。上記検知方法は一つの例であり、スマートグラス101が備える機能に基づき検知する。
アプリケーション管理部309は、S601にて環境変化検知が無い場合は図11のフローを終了し、環境変化を検知した場合は記憶部302を介してRAM204に最新環境情報として記憶する。そして、スマートウォッチ110に対し、検出された環境情報を通知する(S603)。
ここで、最新の環境情報は表4のようなテーブルで記憶される。
Figure 2022126548000005
アプリケーション管理部309では自身が検知可能である、表4の「環境」列にあるような環境項目を既定する。そして例えば、立ち止まっている状態から歩行中へと環境が変化した場合、「歩行中」の状態をONへと更新する。その後、歩行中から立ち止まっている状態へと環境変化した場合は、「歩行中」の状態をOFFへと更新する。
図12は、スマートウォッチ110において、スマートグラス101から環境情報を受信した際に、受信情報に基づき決定したリモートコントロールやミラーリング表示の制御情報をスマートグラス101に送信する処理に係るフローチャートである。このフローチャートに含まれる処理の主体は、アプリケーション管理部328である。
まず、アプリケーション管理部328は、S611にて、スマートグラス101から環境情報を受信した場合はS612へ進み、受信していない場合はS613へ進む。S612では記憶部323介してRAM224に受信した最新環境情報(表4)を記憶する。S613はS401と同等であり、アプリ操作があればS614へ進み、アプリ操作がなければS621へ進む。
ここでS621、S622はそれぞれS408、S409と同等である。またS623は、S410とS411の両方をまとめた処理と同等である。S623では、前述したアプリ毎グラス連携情報(表3)にリモートコントロールやミラーリング機能以外にスマートグラス101で実行する連携機能が既定されている場合、それらの連携機能も全て終了する。この終了した結果については、スマートグラス101にも通知される。
S614にてS612で記憶した最新環境情報(表4)を取得し、表4の状態がONである環境に基づき、表3の利用環境設定での既定に合致する「自端末で実行すべき連携機能」があれば(S615)、該当連携機能が自端末にて実行される(S616)。ここで「自端末で実行すべき連携機能」とは、表3を例にすると「ウォッチ画面ロック」の機能が該当する。ウォッチ画面ロックの機能は、スマートウォッチ110の画面をロックするものであるため、自端末で実行されるべき機能である。また表3で前述した通り、「ウォッチ画面ロック」機能には、ロック中の警告表示やロック解除後のミラーリング表示実行まで含めても良い。その他、表3で同様に前述した、「ウォッチ画面解除」機能も「自端末で実行すべき連携機能」に含む。
続いて、S617にて、表4の状態がONである環境に基づき、表3の利用環境設定での既定に合致する「スマートグラスで実行すべき連携機能」があれば(S617)、該当連携機能の状態情報を通知する(S618)。ここで「スマートグラスで実行すべき連携機能」とは、表3を例にすると「リモートコントロール」や「ミラーリング表示」の機能が該当する。リモートコントロールの機能では、スマートグラス101上のアプリケーションを制御する。また、ミラーリング表示へはスマートグラス101上でミラーリング表示する。よって、これらの機能は、スマートグラス101で実行必要な機能である。またS618にて通知する連携機能の状態情報は、例えば、表4に基づき、リモートコントロールやミラーリング表示について、ONであるかOFFのどちらとすべきか判断した結果である。またこの通知の際、S613で操作検知したアプリケーションのアプリーションIDやアプリケーション名等の情報も情報に含めて通知する。
ここまでに、表3,4で設定された自端末で実行すべき機能やスマートグラスで実行すべき機能について説明した。しかしながら、対象となる連携機能がどちらであるかを判別する情報は、アプリ毎グラス連携情報(表3)にさらに属性を追加して設定できるようにしても良いし、別テーブルで管理するようにしても良い。
S619では、スマートグラス101と連携中の機能があるか否かが判断される。この判断は、S617同様に、表4の状態がONである環境に基づき、表4の状態がONである環境に基づき、表3の利用環境設定での既定に合致する「スマートグラスで実行すべき連携機能」があり、更に機能ONとすべき機能があれば、連携中の機能ありと判断する。またこのような判断方法以外にも、S618での過去の状態情報の通知履歴を、記憶部323により記憶しておき、過去の通知履歴に基づき、連携中の機能があるか否かが判断されても良い。S619にて、スマートグラス101と連携中の機能があればS620へ進み、スマートグラス101と連携中の機能がなければ図12で示すフローチャートを終了する。
S620は、図4におけるS404、S405、S407の処理に相当する。例えば、リモートコントロール機能にて連携中であればアプリ操作情報としてユーザ指示情報を送信する。また、ミラーリング表示にて連携中であればアプリ操作情報としてUI情報を送信する。
図13は、スマートグラス101において、スマートウォッチ110から「連携機能をON/OFFする状態情報」または「連携中の連携機能に対応するアプリ操作情報」を受信した際の処理に係るフローチャートである。このフローチャートに含まれる処理の主体は、cである。
アプリケーション管理部309は、S631にて連携デバイス(スマートウォッチ110)から「連携機能の状態情報」を受信した場合はS632へ進み、受信していない場合はS633へ進む。S631において受信する「連携機能の状態情報」は、図12のS618またはS623によりスマートウォッチ110から通知された情報である。
S632では、この受信情報がスマートグラス101で実行される処理として、反映される。具体的には、リモートコントロールONを受信した場合は、S618の通知情報に含むスマートウォッチ110上のアプリケーションIDにて制御可能な、スマートグラス101上のアプリケーションの制御が開始される。また、リモートコントロールOFFを受信した場合は、このアプリケーションの制御が終了される。また、ミラーリング表示ONを受信した場合は、アプリケーション管理部309はスマートグラス101上のミラーリング表示アプリケーションを起動し、それによりミラーリング表示が開始される。また、ミラーリング表示OFFを受信した場合は、ミラーリング表示が終了する。
S633にて、スマートウォッチ110から「連携中の連携機能に対応するアプリ操作情報」を受信した場合はS634へ進み、受信していない場合はS635へ進む。「連携中の連携機能に対応するアプリ操作情報」は、図12のS620によりスマートウォッチ110から通知された情報である。
S634ではこの受信情報がスマートグラス101で実行される処理として、反映される。具体的には、連携中の連携機能がリモートコントロールである場合は、スマートグラス101上のアプリケーションに対して、アプリ操作情報としてのユーザ指示情報に基づく制御が反映される。また、連携中の連携機能がミラーリング表示である場合は、アプリ操作情報はスマートグラス101上のミラーリング表示で提供される表示コンテンツの情報に対応するUI情報となる。ここでは、例えば、ユーザがスマートウォッチ110上のアプリを操作することにより変更される表示コンテンツがUI情報であり、該UI情報に基づきミラーリング表示が更新される。
S635~S639はそれぞれ順に、S424~S428の処理と同等であるため説明を省略する。
以上のフローチャートによれば、スマートグラス機能をスマートウォッチでリモートコントロールする際の連携において、ユーザの利用環境を考慮したユーザビリティ向上を実現することが可能である。
また本実施形態2では、スマートグラス101で環境変化検知を行いスマートウォッチ110へ通知する構成(図11)としたが、別の構成により環境変化検知を実施しても良い。例えば、スマートウォッチ110自身が自身の搭載するセンサー部229などからの情報に基づきアプリケーション管理部328で環境変化検知しても良い。また、スマートグラス101またはスマートウォッチ110に通常モード、満員電車モード、歩行中モードなどのようにして、各環境モードを用意しておき、ユーザによりいずれの環境モードであるか選択可能としても良い。そして、ユーザによるこの環境モードのモード切替えを環境変化検知の代替手段としても良い。
以上で説明した、本実施形態1、2の実施例において、各ウェアラブル端末の構成、ソフトモジュールの構成、また、ウェアラブル端末のアプリケーション通知に関するフローチャートを示してきたが、これらは一例であり、これに限るものではない。
上記された実施形態のそれぞれおよびそれら組合せを含む本発明によれば、スマートグラスに多様なアプリケーションに必要な様々な操作に対応するための高性能な操作部が必須でなくなる。そのため、そのような操作部をスマートグラスに多く実装することによるデザイン性の制約も取り除くことができる。つまり、本発明は、ユーザビリティの向上だけでなく、スマートグラスのデザイン性の向上にも大きく寄与するといえ、軽量化にも寄与する可能性がある。
(他の実施例)
本発明は、上述した実施形態を適宜組み合わせることにより構成された装置あるいはシステムやその方法も含まれるものとする。
ここで、本発明は、上述した実施形態の機能を実現する1以上のソフトウェア(プログラム)を実行する主体となる装置あるいはシステムである。また、その装置あるいはシステムで実行される上述した実施形態を実現するための方法も本発明の一つである。また、そのプログラムは、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給され、そのシステム或いは装置の1以上のコンピュータ(CPUやMPU等)によりそのプログラムが1以上のメモリーに読み出され、実行される。つまり、本発明の一つとして、さらにそのプログラム自体、あるいは該プログラムを格納したコンピュータにより読み取り可能な各種記憶媒体も含むものとする。また、上述した実施形態の機能を実現する回路(例えば、ASIC)によっても、本発明は実現可能である。
101 スマートグラス
110 スマートウォッチ

Claims (13)

  1. 連携デバイスをもつユーザに装着されるメガネ型情報機器であって、
    メガネ型情報機器で実行されるアプリケーションに対する前記連携デバイスによるリモートコントロールにかかる操作部に対応する画像が、前記ユーザの視界に投影されるよう表示を制御する第1の制御手段と、
    前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記アプリケーションの機能を制御する第2の制御手段と、を有することを特徴とするメガネ型情報機器。
  2. 前記操作部に対応する画像は、前記連携デバイスから受信した情報に基づく画像であることを特徴とする請求項1に記載のメガネ型情報機器。
  3. 前記第1の制御手段は、前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記操作部に対応する画像に対して前記ユーザの操作を反映させるようさらに表示を制御することを特徴とする請求項1または2に記載のメガネ型情報機器。
  4. 前記リモートコントロールに際して、前記操作部に対応する画像を表示するか否かの設定を行う設定手段をさらに有することを特徴とする請求項1乃至3のいずれか1項に記載のメガネ型情報機器。
  5. 前記設定手段は、前記メガネ型情報機器のアプリケーションごとに、前記設定を行うことを特徴とする請求項4に記載のメガネ型情報機器。
  6. 前記設定手段は、前記メガネ型情報機器で検出される環境に応じた前記設定を行うことを特徴とする請求項4また5に記載のメガネ型情報機器。
  7. 前記メガネ型情報機器は、複眼のスマートグラス、単眼のスマートグラス、または、ヘッドマウントディスプレイの何れかであることを特徴とする請求項1乃至6のいずれか1項に記載のメガネ型情報機器。
  8. 前記メガネ型情報機器は、インターネットと接続するためのネットワークモジュールを内蔵することを特徴とする請求項1乃至7のいずれか1項に記載のメガネ型情報機器。
  9. 連携デバイスをもつユーザに装着されるメガネ型情報機器における方法であって、
    メガネ型情報機器で実行されるアプリケーションに対する前記連携デバイスによるリモートコントロールにかかる操作部に対応する画像が、前記ユーザの視界に投影されるよう表示を制御する第1の制御工程と、
    前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記アプリケーションの機能を制御する第2の制御工程と、を有することを特徴とする方法。
  10. 連携デバイスをもつユーザに装着されるメガネ型情報機器としてのコンピュータを、
    メガネ型情報機器で実行されるアプリケーションに対する前記連携デバイスによるリモートコントロールにかかる操作部に対応する画像が、前記ユーザの視界に投影されるよう表示を制御する第1の制御手段と、
    前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記アプリケーションの機能を制御する第2の制御手段として機能させるためのプログラム。
  11. 前記操作部に対応する画像は、前記連携デバイスから受信した情報に基づく画像であることを特徴とする請求項10に記載のプログラム。
  12. 前記第1の制御手段は、前記連携デバイスで行われた前記ユーザの操作に応じて受信した前記アプリケーションのための情報に基づき、前記操作部に対応する画像に対して前記ユーザの操作を反映させるようさらに表示を制御することを特徴とする請求項10または11に記載のプログラム。
  13. 前記コンピュータを、前記リモートコントロールに際して、前記操作部に対応する画像を表示するか否かの設定を行う設定手段としてさらに機能させるための請求項10乃至12のいずれか1項に記載のプログラム。
JP2021024691A 2021-02-18 2021-02-18 メガネ型情報機器、その方法及びプログラム Pending JP2022126548A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021024691A JP2022126548A (ja) 2021-02-18 2021-02-18 メガネ型情報機器、その方法及びプログラム
PCT/JP2022/004993 WO2022176721A1 (ja) 2021-02-18 2022-02-09 メガネ型情報機器、その方法及びプログラム
US18/450,757 US20230418544A1 (en) 2021-02-18 2023-08-16 Glasses-type information device, and method and storage medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024691A JP2022126548A (ja) 2021-02-18 2021-02-18 メガネ型情報機器、その方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022126548A true JP2022126548A (ja) 2022-08-30

Family

ID=82930618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024691A Pending JP2022126548A (ja) 2021-02-18 2021-02-18 メガネ型情報機器、その方法及びプログラム

Country Status (3)

Country Link
US (1) US20230418544A1 (ja)
JP (1) JP2022126548A (ja)
WO (1) WO2022176721A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4497734B2 (ja) * 2001-02-20 2010-07-07 キヤノン株式会社 データ入力装置、および、その動作方法
WO2006064717A1 (ja) * 2004-12-13 2006-06-22 Nikon Corporation 映像表示装置、再生装置用リモートコントローラおよび再生装置
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
KR101991133B1 (ko) * 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
JP2021119431A (ja) * 2020-01-30 2021-08-12 セイコーエプソン株式会社 表示システム、コントローラー、表示システムの制御方法およびプログラム

Also Published As

Publication number Publication date
US20230418544A1 (en) 2023-12-28
WO2022176721A1 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
JP6463426B2 (ja) ロックされたカメラのアクセス
US20180314536A1 (en) Method and apparatus for invoking function in application
US20220237274A1 (en) Implementation of biometric authentication
CN104166531B (zh) 电子装置及屏幕内容分享方法
US10009873B2 (en) Method and apparatus for providing notification
KR102426417B1 (ko) 인증 처리 방법 및 이를 지원하는 전자 장치
US10956112B2 (en) System for controlling a display device
CN111190748B (zh) 数据共享方法、装置、设备及存储介质
WO2022089431A1 (zh) 设备控制方法、装置和电子设备
KR102587726B1 (ko) 외부 장치를 연결하는 방법 및 이를 지원하는 전자 장치
CN112905089B (zh) 设备控制方法及装置
WO2016079974A1 (en) Authentication management method, information processing apparatus, wearable device, and computer program
JP2022081342A (ja) メガネ型情報機器、その方法及びプログラム
JP2022175629A (ja) 情報端末システム、情報端末システムの制御方法及びプログラム
WO2022176721A1 (ja) メガネ型情報機器、その方法及びプログラム
JP2022137622A (ja) ウェアラブル端末、その制御方法及びプログラム
JPWO2019176009A1 (ja) 携帯情報端末
CN112462944A (zh) 终端设备控制装置及方法、电子设备、存储介质
CN106446721A (zh) 智能终端的访问控制方法及装置
JP2016129292A (ja) ウェアラブルデバイスを用いたスマートフォンの保安設定及び解除方法
KR20110007694A (ko) 터치형 통신단말기 및 이의 터치락 해제방법
JP7247586B2 (ja) 情報処理方法及び情報処理システム
US20230367536A1 (en) Portable terminal, head mounted display, and cooperative display system thereof
JP2023028736A (ja) 情報処理装置、情報処理システム、およびプログラム
CN118069246A (zh) 可穿戴设备及其应用启动方法和通信系统

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240119