JP6400197B2 - ウェアラブル装置 - Google Patents

ウェアラブル装置 Download PDF

Info

Publication number
JP6400197B2
JP6400197B2 JP2017521921A JP2017521921A JP6400197B2 JP 6400197 B2 JP6400197 B2 JP 6400197B2 JP 2017521921 A JP2017521921 A JP 2017521921A JP 2017521921 A JP2017521921 A JP 2017521921A JP 6400197 B2 JP6400197 B2 JP 6400197B2
Authority
JP
Japan
Prior art keywords
wearable device
display
image
smartphone
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017521921A
Other languages
English (en)
Other versions
JPWO2016194844A1 (ja
Inventor
渡邊 晃子
晃子 渡邊
長究 橋本
長究 橋本
須藤 智浩
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2016194844A1 publication Critical patent/JPWO2016194844A1/ja
Application granted granted Critical
Publication of JP6400197B2 publication Critical patent/JP6400197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、ユーザの頭部に装着可能なウェアラブル装置に関する。
頭部に装着可能なウェアラブル装置としては、ユーザの視界に入るように配置される画面を有する表示部と、ユーザにより携帯される携帯端末と通信する通信部と、携帯端末上で行われるユーザ操作を、前記通信部を介して検出する検出部と、前記検出部により検出される前記ユーザ操作に応じて、前記画面内で第1の方向に自動的にスクロールするスクロールアイテムの表示を制御する表示制御部と、を備える情報処理装置が開示されている(特許文献1)。
また、ユーザの視界に映る実空間に存在する外部装置を撮像画像内で認識し、認識された外部装置が表示アイテムにより隠れないように、該表示アイテムを配置して表示する表示制御部を備える情報処理装置が開示されている(特許文献2)。
特開2014−71812号公報 特開2014−71811号公報
ユーザの頭部に装着可能なウェアラブル装置においては、更なる操作性の向上が望まれる。
本出願の目的は、操作性が向上されたウェアラブル装置を提供することにある。
態様の一つに係るウェアラブル装置は、眼前に配置される表示部を備えるウェアラブル装置であって、前記ウェアラブル装置の前方の所定空間に他の電子機器が在るか否かを検出する検出部を備え、前記他の電子機器が前記所定空間に在り、該他の電子機器が所定の表示を行っている場合、該表示に関連する付加情報を前記表示部に表示する。
また、態様の一つに係るウェアラブル装置は、眼前に配置される表示部と、現実の空間に存在する所定物を検出する検出部と、利用者の前方の所定空間に前記所定物が在る場合に、該所定物に関連する付加情報を、前記表示部の表示領域において前記所定物と重畳しない位置に表示する制御部と、を備えるウェアラブル装置であって、前記所定物が移動し、前記付加情報が表示された領域に前記所定物が重畳したことを検出すると、該付加情報に対する選択処理を実行する。
また、態様の一つに係るウェアラブル装置は、眼前に配置される表示部と、現実の空間に存在する所定物を検出する検出部と、利用者の前方の所定空間に前記所定物が在る場合に、該所定物に関連する付加情報を含む画像を、該画像が前記表示部の表示領域における前記所定物を包含するように表示する。
また、態様の一つに係るウェアラブル装置は、眼前に配置される表示部を備えるウェアラブル装置であって、現実の空間に他の電子機器が在るか否かを検出する検出部を備え、前記検出部の検出結果より、前記他の電子機器の表示画面が前記ウェアラブル装置の前記表示部の表示面に対して所定角度以上の傾きを有している場合に、該他の電子機器の表示に関連する画像を、該他の電子機器に重畳させて表示する。
また、態様の一つに係るウェアラブル装置は、利用者の眼前に配置される表示部と、利用者の前方の所定空間に存在する他の電子機器を検出する検出部と、を備えるウェアラブル装置であって、前記表示部に画像を表示している場合に、前記所定空間に他の電子機器が進入したことを前記検出部が検出すると、該進入した他の電子機器の位置の移動に追従して、前記画像の大きさを変更し、前記他の電子機器の前記所定空間における移動速度が所定値未満になると、前記画像の大きさの変更を完了する。
また、態様の一つに係るウェアラブル装置は、利用者の眼前に配置され、複数の表示要素を含む画像を表示する表示部と、利用者の前方の所定空間に存在する所定物を検出する検出部と、を備えるウェアラブル装置であって、前記表示部に前記画像を表示している場合に、前記所定空間に所定物が進入したことを前記検出部が検出すると、該進入した所定物の位置の移動に応じて前記画像の大きさを変更し、前記画像の大きさが変更され、該画像の所定方向における幅が所定長さ以下になると、該画像に含まれる前記複数の表示要素の内の少なくとも1つの表示要素を分割して、該画像の領域外に表示する。
図1は、ウェアラブル装置の斜視図である。 図2は、ウェアラブル装置のブロック図である。 図3Aは、検出部の検出範囲と、表示部の表示領域との関係について説明するための図である。 図3Bは、検出部の検出範囲と、表示部の表示領域との関係について説明するための図である。 図3Cは、検出部の検出範囲と、表示部の表示領域との関係について説明するための図である。 図4は、ウェアラブル装置と他の電子機器から形成されるネットワークシステムの概略図である。 図5は、ウェアラブル装置によって種々の機能の内の何れかを適用するための判定フローの一例を示す図である。 図6は、ウェアラブル装置によって種々の機能の内の何れかを適用するための判定フローにおける、図5の場合とは異なる他の例を示す図である。 図7は、本実施形態に係るウェアラブル装置により実行される処理の第1例を示す図である。 図8は、本実施形態に係るウェアラブル装置により実行される処理の第2例を示す図である。 図9は、本実施形態に係るウェアラブル装置により実行される処理の第3例を示す図である。 図10は、本実施形態に係るウェアラブル装置により実行される処理の第4例を示す図である。 図11は、本実施形態に係るウェアラブル装置により実行される処理の第5例を示す図である。 図12は、本実施形態に係るウェアラブル装置により実行される処理の第6例を示す図である。 図13は、本実施形態に係るウェアラブル装置により実行される処理の第6例を引き続き説明するための図である。 図14は、本実施形態に係るウェアラブル装置により実行される処理の第6例を引き続き説明するための図である。 図15は、本実施形態に係るウェアラブル装置により実行される処理の第7例を示す図である。 図16は、本実施形態に係るウェアラブル装置により実行される処理の第8例を示す図である。 図17は、本実施形態に係るウェアラブル装置により実行される処理の第9例を示す図である。 図18は、本実施形態に係るウェアラブル装置により実行される処理の第10例を示す図である。 図19は、本実施形態に係るウェアラブル装置により実行される処理の第11例を示す図である。 図20は、本実施形態に係るウェアラブル装置により実行される処理の第12例を示す図である。
以下、本出願に係るウェアラブル装置を実施するための複数の実施形態を、図面を参照しつつ詳細に説明する。なお、以下の説明により本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
まず、図1を参照しながら、ウェアラブル装置1の全体的な構成について説明する。図1は、ウェアラブル装置1の斜視図である。図1に示すように、ウェアラブル装置1は、利用者の頭部に装着されるヘッドマウントタイプの装置である。
ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続される。側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されてもよい。
前面部1aは、装着時に利用者の目と対向する面に表示部2a及び表示部2bを備える。表示部2aは、装着時に利用者の右目と対向する位置に配設される。表示部2bは、装着時に利用者の左目と対向する位置に配設される。表示部2aは、右目用の画像を表示し、表示部2bは、左目用の画像を表示する。このように、装着時に利用者のそれぞれの目に対応した画像を表示する表示部2a及び表示部2bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現することができる。
表示部2a及び表示部2bは、一対の半透過ディスプレイであるが、これに限定されない。例えば、表示部2a及び表示部2bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別に表示部2a及び表示部2bを設けてもよい。表示部2a及び表示部2bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。
前面部1aには、撮像部3(アウトカメラとも称する)が備えられている。撮像部3は、前面部1aの中央部分に配置されている。撮像部3は、利用者の前方の風景における所定範囲の画像を取得する。また、撮像部3は、利用者の視界に相当する範囲の画像を取得することも可能である。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。なお、撮像部3は、前面部1aの一方の端部(装着時の右目側に相当する)の近傍に配設される撮像部と、前面部1aの他方の端部(装着時の左目側に相当する)の近傍に配設される撮像部との2つから構成されていても良い。この場合、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部は、利用者の右目の視界に相当する範囲の画像を取得できる。前面部1aの一方の端部(装着時の左目側)の近傍に配設される撮像部は、利用者の左目の視界に相当する範囲の画像を取得できる。
ウェアラブル装置1は、利用者が視認している前景に各種情報を視認させる機能を有する。前景とは、利用者の前方の風景を含む。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っていない場合、表示部2a及び表示部2bを透して前景を利用者に視認させる。ウェアラブル装置1は、表示部2a及び表示部2bが表示を行っている場合、表示部2a及び表示部2bを透した前景と、表示部2a及び表示部2bの表示内容とを利用者に視認させる。
また、前面部1aには、撮像部4(インカメラとも称する)が備えられている。撮像部4は、前面部1aにおける、利用者の顔面側に配置されている。撮像部4は、利用者の顔面、例えば目の画像を取得する。
また、前面部1aには、検出部5が備えられる。検出部5は、前面部1aの中央部分に配置されている。また、側面部1cには、操作部6が備えられる。検出部5、操作部6については後述する。
図1では、ウェアラブル装置1が、眼鏡のような形状を有する例を示したが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ゴーグルの形状を有してもよい。ウェアラブル装置1は、例えば、情報処理装置、バッテリ装置等の外部装置と有線または無線で接続される構成であってもよい。
次に、図2を参照しながら、ウェアラブル装置1の機能的な構成について説明する。図2は、ウェアラブル装置1のブロック図である。図2に示すように、ウェアラブル装置1は、表示部2a及び表示部2bと、撮像部3(アウトカメラ)及び撮像部4(インカメラ)と、検出部5と、操作部6と、制御部7と、通信部8と、記憶部9とを有する。
表示部2a及び表示部2bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminessence)パネル等の半透過または透過の表示デバイスを備える。表示部2a及び表示部2bは、制御部7から入力される制御信号に従って各種の情報を画像として表示する。表示部2a及び表示部2bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であってもよい。この場合、表示部2a及び表示部2bは、眼鏡を模したウェアラブル装置1のレンズ部分にハーフミラーを設置して、別途設けられるプロジェクタから照射される画像が投影される構成であってもよい(図1に示す例において、表示部2a及び表示部2bは、矩形状のハーフミラーを示している)。また、前述したように、表示部2a及び表示部2bは、各種の情報を3次元的に表示しても良い。また、表示部2a及び表示部2bは、各種の情報を利用者の前方(又は利用者から離れた位置)にあたかも存在するかのように表示しても良い。このように情報を表示する方式としては、例えば、フレームシーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップアンドボトム方式、サイドバイサイド方式、アナグリフ方式、レンチキュラ方式、パララックスバリア方式、液晶パララックスバリア方式、2視差方式等の多視差方式の何れかが採用されて良い。
撮像部3及び撮像部4は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。そして、撮像部3及び撮像部4は、撮像した画像を信号に変換して制御部7へ出力する。
検出部5は、利用者の前景に存在する現実の物体を検出する。検出部5は、例えば、現実の物体のうち、予め登録された物体又は予め登録された形状にマッチする物体を検出する。予め登録された物体は、例えば、人間の手や指、或いは、スマートフォン、腕時計型端末等の携帯電子機器を含む。予め登録された形状は、例えば、人間の手や指等の形状、或いは、スマートフォン、腕時計型端末等の携帯電子機器の形状を含む。検出部5は、予め形状が登録されていない物体についても、画素の明度、彩度、色相のエッジ等に基づいて、画像中の現実の物体の範囲(例えば、形状及び大きさ)を検出するように構成されてもよい。なお、上記のような現実の物体を本明細書では、所定物と称する。
検出部5は、現実の物体(所定物とも称する)を検出するセンサを有する。センサは、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、現実の物体を検出するセンサである。
本実施形態においては、撮像部3(アウトカメラ)は、検出部5を兼ねても良い。すなわち、撮像部3は、撮像される画像を解析することによって、撮像範囲内の物体(所定物とも称する)を検出する。
操作部6は、例えば、側面部1cに配設されるタッチセンサを含む。タッチセンサは、利用者の接触を検出可能であり、検出結果に応じて、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。本実施形態では、操作部6が側面部1cに配置されている例を示しているが、これに限定されず、側面部1bに配置されても良いし、側面部1bと側面部1cにとの双方に配置されても良い。
制御部7は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備える。制御部7は、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部7は、記憶部9に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部7は、CPUによる命令の実行結果に応じて、メモリ及び記憶部9に対してデータの読み書きを行ったり、表示部2a及び表示部2b等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部5等を介して検出される操作がパラメータや判定条件の一部として利用される。また、制御部7は、通信部8を制御することによって、通信機能を有する他の電子機器との通信を実行させる。
通信部8は、無線により通信する。通信部8によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信部8は、上述した通信規格の1つ又は複数をサポートしていてもよい。
例えば、ウェアラブル装置1は、該ウェアラブル装置1が利用者によって装着されているときに、利用者が所持する携帯電子機器(例えばスマートフォンや腕時計型端末等である)と上記の近距離無線方式による通信を行うことにより、種々の信号を送受信されて良い。
なお、通信部8は、上記携帯電子機器等の他の電子機器と有線接続されることによって、通信しても良い。この場合、ウェアラブル装置1は、他の電子機器が接続されるコネクタを備える。コネクタは、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタは、Dockコネクタのような専用の端子でもよい。コネクタは、上記の携帯電子機器以外にも、例えば、外部ストレージ、スピーカ、及び通信装置を含むあらゆる装置に接続されて良い。
記憶部9は、各種のプログラムやデータを記憶する。記憶部9は、フラッシュメモリ等の不揮発性を有する記憶装置を含んでもよい。記憶部9に記憶されるプログラムには、制御プログラム90が含まれる。記憶部9は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム90は、記憶媒体に記憶されていてもよい。また、制御プログラム90は、無線通信または有線通信によってサーバ装置や、スマートフォン、腕時計型端末等の他の携帯電子機器から取得されてもよい。
制御プログラム90は、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム90が提供する機能には、検出部5の検出結果から、利用者の前方の風景に存在する現実の物体(所定物)を検出するための機能や、表示部2a及び2bの表示を制御する機能等が含まれる。
制御プログラム90は、検出処理プログラム90aと、表示制御プラグラム90bとを含む。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景に存在する所定物を検出するための機能を提供する。検出処理プログラム90aは、検出部5の検出結果から、利用者の前景における所定物の位置を推定する機能を提供する。また、検出処理プログラム90aは、撮像部3の検出結果から、利用者の前方の風景に存在する所定物を検出するための機能を提供する。表示制御プラグラム90bは、利用者の前方の風景に存在する所定物に関連する情報を表示する機能を提供する。表示制御プラグラム90bは、所定物がスマートフォンや腕時計型端末等の表示機能を有した電子機器である場合であって、該電子機器が所定の表示を行っている場合には、該表示に関連する付加情報を表示部に表示する機能を提供する。
次に、図3Aから図3Cを参照し、検出部5の検出範囲と、表示部2a及び表示部2bの表示領域との関係について説明する。図3Aから図3Cは、検出部5の検出範囲51と、表示部2a及び表示部2bの表示領域21との関係を示す図である。
なお、本実施形態では、検出部5が赤外線を用いて、現実の所定物を検出するセンサであるものとして説明する。検出部5は、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な(又は、赤外感度を有する)赤外線撮像部とからなるものとして説明する。即ち、制御部7は、赤外線撮像部の撮像画像から、現実の所定物を検出する。また、本実施形態では、表示部2a及び表示部2bがウェアラブル装置1から離れた位置にあたかも存在するかのように表示画像を表示させるものとして説明する。
図3Aは、検出部5の検出範囲51と、表示部2a及び表示部2bの表示領域21とを模式的に示した斜視図である。図3Bは、図3Aの上面図である。図3Cは、図3Aの正面図である。図3Aから図3Cは、X軸、Y軸、Z軸からなる三次元直交座標系が定義されている。Y軸方向は、鉛直方向である。Z軸方向は、利用者の前後方向である。X軸方向は、Y軸方向とZ軸方向との双方と直交する方向である。図3Cは、利用者が前方を視認した際の視界に相当する。
図3Aから図3Cから解るように、検出範囲51は、3次元空間を有する。即ち、検出部5は、赤外線照射部から照射された赤外線を、赤外線撮像部により検出することによって、3次元空間である検出範囲51内に在る所定物を検出できる。また、検出部5は、3次元空間である検出範囲51内に在る所定物の動作を検出することも可能である。例えば、所定物が利用者の腕、手、又は指、或いはこれらを組み合わせたもの(上肢と総称する)である場合、検出部5は、動作として、指の曲げ動作・伸展動作、手首の曲げ、前腕の回転(例えば回内、回外)等(ジェスチャとも称する)が検出可能である。また、検出部5は、上肢の特定箇所の位置が、検出範囲51内において移動をすることを検出しても良い。また、検出部5は、上肢の形状を検出しても良い。例えば、検出部5は、親指を上方に伸ばしつつ他の指を握った形態(例えばグッドサイン)等を検出して良い。
なお、ウェアラブル装置1は、撮像部3(アウトカメラ)を検出部として適用した場合であっても、上記検出部5と同様に、検出範囲内(又は撮像範囲内)に在る所定物の検出、所定物の動作等の検出が可能である。
また、図3Aから図3Cから解るように、表示部2a及び表示部2bは、実際に設けられたウェアラブル装置1の部分ではなく、ウェアラブル装置1から離れた位置となる表示領域21に画像を表示する(以下、表示部2a及び2bが表示する画像を表示画像と称することもある)。このとき、表示部2a及び表示部2bは、表示画像を、奥行きを持つ立体形状の3Dオブジェクトとして表示しても良い。なお、当該奥行きは、Z軸方向における厚みに対応する。
(1.ウェアラブル装置1と他の電子機器から形成されるネットワークシステム100(図4参照))
図4は、ウェアラブル装置1と他の電子機器から形成されるネットワークシステム100の概略図である。図4に示すように、ウェアラブル装置1は、他の電子機器として、例えば、利用者が所持するスマートフォンAや、利用者が腕に装着する腕時計型端末Bと有線または無線接続されることにより通信を行う。ウェアラブル装置1は、制御部7が通信部8を制御することにより、他の電子機器との通信を行う。ウェアラブル装置1は、複数の電子機器(例えばスマートフォンAや腕時計型端末B)と通信し得る状況においては、複数の電子機器の内の何れかから送信される信号に含まれる識別情報(例えば、IDを示すデータ)に基づいて、通信相手を識別して良い。
ネットワークシステム100によれば、他の電子機器が利用者に報知しようとする情報を、該他の電子機器の代わりにウェアラブル装置1によって報知する第1機能の実行が実現される。例えば、ウェアラブル装置1は、他の電子機器が表示しようとする画像を、ウェアラブル装置1の表示部2a及び表示部2bにおいて表示することができる。具体例としては、他の電子機器であるスマートフォンAは、メールを受信した場合、該メールを受信した旨を表示させるための制御信号、或いは、メール内容(例えばメッセージ等)を表示させるための制御信号をウェアラブル装置1に送信する。制御信号を受信したウェアラブル装置1は、該制御信号に基づいて、スマートフォンAがメールを受信した旨、或いはメール内容を表示部2a及び表示部2bに表示する。
また、ネットワークシステム100によれば、利用者が所持する他の電子機器に対する接触動作に基づいて、ウェアラブル装置1を操作する第2機能が実現される。例えば、他の電子機器が、接触操作が可能なスマートフォンAである場合に、ウェアラブル装置1は、他の電子機器に対する接触の情報を含む信号をスマートフォンAから受信し、該信号に基づいて、表示の変更を伴う操作等がなされて良い。
また、他の電子機器が、取り付けた側の上肢の動作を検出可能な腕時計型端末Bである場合に、ウェアラブル装置1は、検出される上肢の動作に基づく信号を腕時計型端末Bから受信し、該信号に基づいて、表示の変更を伴う操作等がなされて良い。
また、ネットワークシステム100によれば、ウェアラブル装置1は、他の電子機器が表示機能を有する場合に、該表示に関連する付加情報を該ウェアラブル装置1の表示部2a及び表示部2bに表示する第3機能が実現される。例えば、他の電子機器がスマートフォンAである場合、ウェアラブル装置1は、当該スマートフォンAから表示制御に係る信号を受信し、該信号に基づいた画像を利用者の視認しうる空間に表示して良い。
以上に、ネットワークシステム100によって実現される種々の機能を例示したが、これら種々の機能は、予め定められた条件に基づいて適宜選択されて実行されて良い。図5は、ウェアラブル装置1によって種々の機能の内の何れかを適用するための判定フローの一例を示す図である。本判定フローに基づく処理は、ウェアラブル装置1の制御部7が、記憶部9に記憶されている制御プログラム90を実行することにより実現される。図5に示す例では、他の電子機器がスマートフォンAであるものとして説明する。
図5に示すように、制御部7は、スマートフォンAから信号を受信したか否かを判定する(ステップST101)。
制御部7は、判定の結果、スマートフォンAから信号を受信しない場合(ステップST101,No)、同判定を繰り返す。これとは反対に、制御部7は、スマートフォンAから信号を受信した場合には(ステップST101,Yes)、受信した信号に基づく情報から、スマートフォンAが利用者によって握られているか否かを判定する(ステップST102)。
制御部7は、判定の結果、スマートフォンAが利用者によって握られていないと判定した場合(ステップST102,No)、ネットワークシステム100によって実現される第1機能を適用する(ステップST103)。第1機能は、例えば、スマートフォンAが利用者に報知しようとする情報を、該他の電子機器の代わりにウェアラブル装置1によって報知する機能を含む。
制御部7は、ステップST102における判定の結果、スマートフォンAが利用者によって握られていることを認識した場合(ステップST102,Yes)、検出部5に検出処理を開始させる(ステップST104)。
続いて、制御部7は、検出部5の検出結果から、利用者の前方の所定空間中にスマートフォンAが在るか否かを判定する(ステップST105)。ここで、利用者の前方の所定空間とは、例えば、利用者が視認し得る空間として良い。このとき、利用者が視認し得る空間は、適宜規定され、例えば、人間の標準的な視野角が120度程度であることに基づいて規定されて良い。また、利用者の前方の所定空間とは、利用者がウェアラブル装置1を装着した状態で、表示領域21を視認した際に、該表示領域と重畳して視認しうる空間としても良い。また、所定空間は、上記以外のあらゆる規定がなされて良い。
制御部7は、判定の結果、所定空間中にスマートフォンAが存在しない場合(ステップST105,No)、ネットワークシステム100によって実現される第2機能を適用する(ステップST106)。第2機能は、例えば、スマートフォンAに対する接触動作に基づいて、ウェアラブル装置1を操作する機能を含む。
このように、ウェアラブル装置1は、スマートフォンAが利用者によって握られているか否かを判定し、握られている場合には、スマートフォンAへの接触動作によってウェアラブル装置1を操作する機能の実行を有効とする構成を有してよい。ウェアラブル装置1は、スマートフォンAが利用者によって握られていない場合には、利用者がスマートフォンAを即座に視認し得ない状態と捉え、スマートフォンAが報知しようとする情報を該スマートフォンAの代わりにウェアラブル装置1にて報知する機能の実行を有効とする構成を有してよい。これらの構成によれば、ウェアラブル装置1は、スマートフォンAの使用状態によってより使い勝手の良い機能を実行することができる。
制御部7は、判定の結果、所定空間中にスマートフォンAが在る場合(ステップST105,Yes)、ネットワークシステム100によって実現される第3機能を適用する(ステップST107)。第3機能は、例えば、スマートフォンAが表示する表示内容に関連する付加情報をウェアラブル装置1の表示部2a及び表示部2bに表示する機能を含む。
このように、ウェアラブル装置1は、所定空間(例えば、利用者が視認しうる空間)にスマートフォンAが在るか否かを判定し、在る場合には、スマートフォンAが表示している表示内容を補足する付加情報を表示部2a及び表示部2bに表示する機能の実行を有効とする構成として良い。ウェアラブル装置1は、所定空間(例えば、利用者が視認しうる空間)にスマートフォンAが存在しない場合には、利用者がスマートフォンAを視認していない状態と捉え、スマートフォンAへの接触動作によってウェアラブル装置1を操作する機能の実行を有効とする構成として良い。これらの構成によれば、ウェアラブル装置1は、スマートフォンAの使用状態によってより使い勝手の良い機能を実行することができる。なお、スマートフォンAへの接触動作によってウェアラブル装置1を操作する場合であって、スマートフォンAがタッチパネルを備える場合には、ウェアラブル装置1は、当該タッチパネルへの接触位置の移動に基づいて、ウェアラブル装置1の表示領域(図3におけるX−Y面)の位置を指定する、カーソルとしての機能を実行しても良い。
図6は、ウェアラブル装置1によって種々の機能の内の何れかを適用するための判定フローにおける、図5の場合とは異なる他の例を示す図である。本判定フローに基づく処理は、ウェアラブル装置1の制御部7が、記憶部9に記憶されている制御プログラム90を実行することにより実現される。図6に示す例では、他の電子機器がスマートフォンAであるものとして説明する。
図6に示すように、制御部7は、検出部5に検出処理を開始させる(ステップST201)。
続いて、制御部7は、検出部5の検出結果から、検出範囲51内にスマートフォンAが在るか否かを判定する(ステップST202)。
制御部7は、判定の結果、検出範囲51内にスマートフォンAが存在しない、即ち、検出部5がスマートフォンAを検出しない場合(ステップST202,No)、ネットワークシステム100によって実現される第1機能を適用する(ステップST203)。第1機能は、例えば、スマートフォンAが利用者に報知しようとする情報を、該他の電子機器の代わりにウェアラブル装置1によって報知する機能を含む。
制御部7は、ステップST202における判定の結果、検出範囲51中にスマートフォンAが在る、即ち、検出部5がスマートフォンAを検出した場合(ステップST202,Yes)、処理をステップST204に進める。制御部7は、利用者の前方の所定空間中にスマートフォンAが在るか否かを判定する(ステップST204)。ここで、所定空間は、図5の場合と同様に規定されて良い。
制御部7は、判定の結果、所定空間中にスマートフォンAが存在しない場合(ステップST204,No)、ネットワークシステム100によって実現される第2機能を適用する(ステップST205)。第2機能は、例えば、スマートフォンAに対する接触動作に基づいて、ウェアラブル装置1を操作する機能を含む。
制御部7は、判定の結果、所定空間中にスマートフォンAが在る場合(ステップST204,Yes)、ネットワークシステム100によって実現される第3機能を適用する(ステップST206)。第3機能は、例えば、スマートフォンAが表示する表示内容に関連する付加情報をウェアラブル装置1の表示部2a及び表示部2bに表示する機能を含む。
図5及び図6に示したように、ウェアラブル装置1は、適宜設定されうる種々の条件に基づいてネットワークシステム100によって実現される種々の機能を適時適用できる。しかしながら、本実施形態に係るウェアラブル装置1は、このような構成のみに限定されるものではなく、上記の種々の機能の適用は、利用者によって設定されて良い。また、ウェアラブル装置1は、上記の種々の機能を全て備えている必要は必ずしもない。
(2.他の電子機器の表示内容に関連する付加情報をウェアラブル装置1に表示する機能)
図7から図20を参照して、他の電子機器の表示内容に関連する付加情報をウェアラブル装置1に表示する機能の実施形態を説明する。
図7は、本実施形態に係るウェアラブル装置1により実行される処理の第1例を示す図である。
図7には、ウェアラブル装置1の表示部2a(2b)(以下、単に表示部2と記すこともある)が示されている。ウェアラブル装置1の表示部2aを除いた、他の部材及び他の機能部については、図示を省略している。図7は、利用者の視界に相当する空間が、二次元平面として模式的に示された図である。図7には、表示部2の表示領域21と、検出部5によって検出可能な、利用者の前方の所定空間51aと、が示されている(図7の例では、点線で囲われた領域である)。なお、所定空間51aは、上記のように種々に規定されて良い。また、利用者の前方の所定空間とは、即ち、ウェアラブル装置1の前方の所定空間である。図7では、所定空間51aが平面であるように図示されているが、実際には、ユーザの前後方向(例えば図3におけるZ軸方向)において奥行きを有する3次元空間として規定される。ここで、ウェアラブル装置1は、検出部5を起動しており、図示しない検出範囲51中における所定物の検出が可能な状態にあるものとする。
また、図7には、利用者の右手Rによって握られたスマートフォンA(他の電子機器)が示されている。スマートフォンAは、表示部と、表示部に重畳して設けられるタッチセンサと、を備える。スマートフォンAは、表示部の表示領域の所定位置をタッチすることによって、該位置に表示された画像に基づく処理が実行可能である。
ステップS1において、スマートフォンAには、タッチすることによって所定の機能を実行するための複数のオブジェクトOB(アイコンとも称する)が表示されている(このような画面をホーム画面と称することもある)。複数のオブジェクトOBは、オブジェクトOB1を含む。例えば、オブジェクトOB1は、タッチされることによって、ウェブブラウザを起動させることが可能である旨を示す画像である。ステップS1において、スマートフォンAは、所定空間51a外に在る。このような状態で、利用者が右手を左方向に移動させると、ステップS2に示すように、スマートフォンAは、所定空間51a内へ移動する。なお、ユーザのZ軸方向(言い換えると、X−Y面と直交する方向)においても、所定空間51a内にスマートフォンAが在るものとする。
ウェアラブル装置1は、スマートフォンAが利用者の前方の所定空間51a内に在ることを検出部5が検出すると、スマートフォンAとの通信接続を開始する。ウェアラブル装置1は、スマートフォンAから、ウェアラブル装置1の表示部2において所定の表示を実行するための表示制御信号を受信する。そして、ウェアラブル装置1は、受信した表示制御信号に基づいて、新たな画面SC1を表示部2に表示する(ステップS3)。画面SC1は、例えば、スマートフォンAが所定空間51a内に在ることが検出された時点において表示していた表示内容に関連する付加情報を含む。図7の例においては、スマートフォンAがホーム画面を表示していることから、画面SC1は、例えば、ホーム画面中のオブジェクトOB(アイコン)の機能を説明するための情報、或は、利用者が予め作成したメモ等を付加情報として表示して良い。
このように、ウェアラブル装置1は、該ウェアラブル装置の前方の所定空間51aにスマートフォンA(他の電子機器)が在るか否かを検出する検出部5を備える。ウェアラブル装置1は、スマートフォンAが所定空間51aに在り、該スマートフォンAが所定の表示を行っている場合、該表示に関連する付加情報を表示部2に表示する構成を有する。このような構成によれば、ウェアラブル装置1は、スマートフォンAが一度に表示し得る画像、即ち、一度に利用者に提供し得る情報量よりも多い量の情報を利用者に提供できるので、利用者にとって使い勝手が良くなる。
なお、図7を参照した上記説明においては、ウェアラブル装置1は、スマートフォンAが所定空間51aに在ることを検出したことを契機に、スマートフォンAとの通信接続を開始する構成を示したがこれに限定されない。例えば、ウェアラブル装置1は、スマートフォンAが利用者によって握られたことを検出したことを契機にして良い。スマートフォンAが利用者によって握られたことは、例えば、スマートフォンAが備えるタッチセンサによって検出されて良い。ウェアラブル装置1は、当該スマートフォンAから、ウェアラブル装置1に対して通信接続要求を受けた場合に、通信接続を開始する構成であっても良い。
なお、図7を参照した上記説明においては、ウェアラブル装置1は、スマートフォンAの全体が所定空間51a外にある状態から、スマートフォンAの全体が所定空間51a内に在る状態へ移行したことによって画面SC1を表示する構成としたが、このような構成には限定されない。ウェアラブル装置1は、スマートフォンAの全域に対する、スマートフォンAが所定空間51a内に含まれている領域の割合が所定値以上となったことを契機にスマートフォンAが所定空間51aにあるものと判定しても良い。或は、ウェアラブル装置1は、所定空間51aにスマートフォンAが少しでも検出されると、スマートフォンAが所定空間51aにあるものと判定しても良い。
また、ウェアラブル装置1は、スマートフォンAの表示面とウェアラブル装置1の前面(或は、ウェアラブル装置1の表示面)とが交わる角度が所定角度よりも小さい状態で、スマートフォンAが所定空間51a内に在ること検出して良い。ウェアラブル装置1は、当該検出によって「スマートフォンAが利用者の前方の所定空間51aに在る」ものと判定し、画面SC1を表示する構成としても良い。
また、ウェアラブル装置1は、撮像部4(インカメラ)が撮像する利用者の目の画像から特定される利用者の視線方向とスマートフォンAの表示面とが交わる角度が所定角度よりも大きい状態で、スマートフォンAが所定空間51a内に在ることを検出して良い。ウェアラブル装置1は、当該検出によって「スマートフォンAが利用者の前方の所定空間51aに在る」ものと判定し、画面SC1を表示する構成としても良い。
なお、制御部7は、撮像部4が撮像する利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定して良い。あるいは、制御部7は、利用者がディスプレイ上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておく。そして、制御部7は、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出して良い。
また、ウェアラブル装置1は、例えば、スマートフォンAが備える撮像部が撮像する撮像画像中にウェアラブル装置1、又は利用者の顔面、又は利用者の目を検出したことによって、該スマートフォンAが所定空間51a内に在るものと判定しても良い。この場合、スマートフォンAは、表示面と平行な面(或は表示面と面一となる面)に露出した撮像部を有し、撮像画像中にウェアラブル装置1(或は利用者の顔面や目)を検出した場合に、利用者がスマートフォンAの表示面を視認しているものと見なす。そして、スマートフォンAは、撮像画像中にウェアラブル装置1(或は利用者の顔面や目)を検出すると、ウェアラブル装置1との通信接続を開始する。ウェアラブル装置1は、スマートフォンAから受信する信号に基づいて、スマートフォンAが所定空間51a中にあるものと認識し、画面SC1を表示する。
また、ウェアラブル装置1は、スマートフォンA(他の電子機器)と通信接続を行い、スマートフォンAから受信した表示制御信号に基づいて、画面SC1(付加情報)を表示する構成を説明したが、これに限定されない。例えば、ウェアラブル装置1は、予め、スマートフォンAの表示内容に関する付加情報を記憶部9に記憶しており、所定空間51a中に在るスマートフォンAの表示内容を撮像部3の撮像画像等から検出し、該表示内容に関する付加情報を記憶部9から参照して、画面SC1として表示する構成を有していても良い。
また、ウェアラブル装置1は、所定空間51a中にスマートフォンA(他の電子機器)を検出したことに基づいて、画面SC1を表示する構成としたがこれに限定されない。例えば、ウェアラブル装置1は、所定空間51a中にスマートフォンA(他の電子機器)を握った右手Rを検出したことに基づいて、画面SC1を表示する構成としても良い。
なお、ウェアラブル装置1は、画面SC1を表示するときに、表示部2に表示していた他の画面を非表示にしても良い。言い換えると、ウェアラブル装置1は、スマートフォンA(他の電子機器)が所定空間51aに無い第1状態から、スマートフォンAが所定空間51a内に在る第2状態に遷移すると、第1状態において表示部2に表示されていた画像を非表示にする構成を有していて良い。
また、図7に示すように、画面SC1は、スマートフォンAの略矩形状の外郭A1よりも外側に表示される。このようにウェアラブル装置1は、検出部5の検出結果に基づき、所定空間51aにおけるスマートフォンA(他の電子機器)の外郭A1を検出し、画面SC1(例えば付加情報を含む画像)がスマートフォンAの外郭A1の外側となるように、該画面SC1を表示部2に表示する。これにより、ウェアラブル装置1は、画面SC1によってスマートフォンAの表示の視認を妨げることが無く、使い勝手が良くなる。
また、図7に示すように、画面SC1は、該画面SC1の一辺がスマートフォンAの一辺と略平行に沿うように配置されて表示される。これにより、ウェアラブル装置1は、画面SC1に含まれる付加情報が、スマートフォンAの表示内容に関連する情報であるものと認識しやすくなる。
なお、ウェアラブル装置1は、表示領域21の空間座標と所定空間51aの空間座標との対応付けを予め行っても良い。これにより、ウェアラブル装置1は、所定空間51a内におけるスマートフォンAの位置及び角度に基づいて、上記のような適切な位置に、適切な形状、大きさ、及び角度の画面SC1を表示することができる。
図8は、本実施形態に係るウェアラブル装置1により実行される処理の第2例を示す図である。
ステップS11において、スマートフォンAには、複数のオブジェクトOBが表示されている。複数のオブジェクトOBは、例えば、ウェブブラウザを起動させることが可能である旨を示すオブジェクトOB1を含む。ステップS11において、スマートフォンAは、所定空間51a外に在る。このような状態で、利用者が右手を左方向に移動させると、ステップS12に示すように、スマートフォンAは、所定空間51a内へ移動する。
ウェアラブル装置1は、スマートフォンAが利用者の前方の所定空間51a内に在ることを検出すると、撮像部3(アウトカメラ)を起動する。そして、ウェアラブル装置1は、撮像部3が撮像する撮像画像を表示部2に表示する(ステップS13)。表示部2に表示された撮像画像は、プレビューウィンドウPWと称する。ここで、プレビューウィンドウPWは、撮像部3が撮像した画像が逐次伝送されることによって構成される映像データを含む。
また、ウェアラブル装置1は、スマートフォンAが利用者の前方の所定空間51a内に在ることを検出すると、スマートフォンAとの通信接続を開始し、スマートフォンAから、ウェアラブル装置1の表示部2において所定の表示を実行するための表示制御信号を受信する。そして、ウェアラブル装置1は、受信した表示制御信号に基づいて、複数の画面SC2を、プレビューウィンドウPWと重畳するように、表示部2に表示する(ステップS13)。画面SC2は、スマートフォンAが所定空間51a内に在ることが検出された時点において表示していた表示内容に関連する付加情報を含む。画面SC2は、例えば、オブジェクトOBの機能を説明するための情報を含む。複数の画面SC2は、其々が含んでいる付加情報と対応する其々のオブジェクトOBを起点とした吹き出し部分を含む画像として表示される。
このような表示態様とすることで、ウェアラブル装置1は、複数の付加情報を表示する場合に、其々の付加情報が、スマートフォンAが表示する複数の表示内容の何れに対応する情報であるのかを認識しやすくなる。
また、ウェアラブル装置1は、プレビューウィンドウPW中のスマートフォンA及びスマートフォンAが表示する表示内容を認識することができる。これにより、ウェアラブル装置1は、プレビューウィンドウPW中におけるオブジェクトOBの表示位置に画面SC2の吹き出し部分の起点が合致するように、該画面SC2を表示できる。このような構成を有することにより、ウェアラブル装置1は、オブジェクトOBの位置と画面SC2の位置とを確実に対応付けることができる。
図9は、本実施形態に係るウェアラブル装置1により実行される処理の第3例を示す図である。
ステップS21の状態は、図7に示すステップS3の状態と同様である。ステップS21の状態は、所定空間51a内にスマートフォンAが存在し、またスマートフォンAが表示しているオブジェクトOBに関連する付加情報が画面SC1として表示部2に表示されている。
ステップS21において、スマートフォンAを握っている利用者の右手Rの親指は、スマートフォンAの表示面におけるオブジェクトOBが表示されていない箇所に位置している。このような状態において、右手Rの親指が、ウェブブラウザ機能を示すオブジェクトOB1が表示された位置に触れると、ウェアラブル装置1は、ステップS22に示すように、画面SC1の代わりに、画面SC3〜SC5を表示する。
ステップS22において表示される画面SC3〜SC5は、オブジェクトOB1(例えばウェブブラウザ機能に関する画像である)に関係する複数のウェブページを含む。複数のウェブページ、例えば、以前にブラウザアプリケーションを実行した際に開かれた複数のウェブページであって良い。複数のウェブページは、例えば、利用者によって予め登録された(又はブックマークされた)複数のウェブページであって良い。画面SC3は、例えば、利用者によって予め登録された「検索ページ」が表示されている。
ステップS22において、ウェアラブル装置1は、スマートフォンAが所定空間51a内に在ることを検出すると、スマートフォンAとの通信接続を開始し、スマートフォンAから表示制御信号を受信する。一方、スマートフォンAは、ウェアラブル装置1と通信接続すると、表示画面に対する利用者の右手の接触位置を検出する。スマートフォンAは、当該接触位置がオブジェクトOB1(ウェブブラウザ機能)の表示位置であることに基づいて、ウェブブラウザ機能に関連する情報をウェアラブル装置1に表示させるための表示制御信号を生成、送信する。
このように、ウェアラブル装置1は、スマートフォンA(他の電子機器)の表示画面に対する利用者の接触位置に応じて、異なる付加情報を表示部2に表示することができる。これにより、ウェアラブル装置1は、スマートフォンAに対する操作の状態に適した情報を付加情報として利用者に提供できるため、使い勝手が良い。
ここで、スマートフォンAから受信する表示制御信号は、付加情報の表示方向を含んでいて良い。図9に示す例では、画面SC3はスマートフォンAに対して左方向に、画面SC4はスマートフォンAに対して上方向に、画面SC5はスマートフォンAに対して右方向に、其々表示させるように制御するための信号が表示制御信号に含まれる。ウェアラブル装置1は、受信した表示制御信号に基づいて、ステップS22に示すように、画面SC3をスマートフォンAの左側に、画面SC4をスマートフォンAの上側に、画面SC5をスマートフォンAの右側に、其々表示している。
ステップ22において、利用者の右手Rの親指は、スマートフォンAが表示するオブジェクトOB1(ウェブブラウザ機能)に触れたままの状態である。この状態で、右手Rの親指がオブジェクトOB1の表示位置から離れると、スマートフォンAはウェブブラウザ機能を起動し、所定のウェブページに表示を遷移させる(第1処理とも称する)。一方で、右手Rの親指がオブジェクトOB1の表示位置に接触した状態から、ウェアラブル装置1が表示している画面SC3〜SC5の何れかへ向かう方向(例えばステップS22における点線の矢印の方向)に接触位置を移動させる動作(言い換えるとスライド)をスマートフォンAが検出すると、上記第1処理とは異なる処理を実行しても良い。例えば、スマートフォンAは、右手Rの親指がオブジェクトOB1の表示位置に接触した状態から、ウェアラブル装置1が表示している画面SC3へ向かう方向D1(左方向)に接触位置を移動させる動作を検出する。この場合、スマートフォンAは、ウェブブラウザ機能を起動させるとともに、上記の所定のウェブページとは異なる、画面SC3として表示された「検索ページ(OB2)」に移行させる(ステップS23)。
ステップS23に示すように、スマートフォンAは、表示が「検索ページ」に移行すると、該「検索ページ」に関する表示制御信号をウェアラブル装置1に送信する。ウェアラブル装置1は、受信した表示制御信号に基づいて、「検索ページ」に関する付加情報(例えば、過去の検索履歴1〜3に係るウェブページ)を画面SC6〜SC8として表示する。
以上、第3例に基づいて説明したように、スマートフォンAから受信する表示制御信号は、付加情報の表示方向を含み、ウェアラブル装置1の制御部7は、表示制御信号に基づいて、他の電子機器よりも表示方向側に付加情報を表示する構成を有する。そして、スマートフォンAは、該スマートフォンAの表示面に対する利用者の接触位置が付加情報の表示方向側に移動したことを検出すると、付加情報が選択されたものと見なし、該付加情報に基づく表示画面に遷移させる。このような構成により、ウェアラブル装置1が表示する画面SC(表示画像とも称する)に対しても、スマートフォンAに対する接触操作によって選択させることができ、かつ、画面SCの表示箇所へ向かう方向に接触位置を移動させる動作により該画面SCを選択できる操作態様をウェアラブル装置1は実現できる。これにより、ウェアラブル装置1は、利用者に違和感のない操作を実現できる。
なお、第3例においては、スマートフォンAの表示面に対する接触位置の移動方向をスマートフォンAにて検出する構成を説明したが、これに限定されず、ウェアラブル装置1にて検出する構成としても良い。例えば、ウェアラブル装置1は、検出部5の検出結果、或いは撮像部3が撮像する撮像画像より、スマートフォンAを掴んでいる右手Rを検出するとともに、該右手Rの親指(言い換えると上肢)の移動を検出して良い。ウェアラブル装置1は、右手Rの親指(上肢)の移動を検出すると、該移動の方向が、表示部2に表示される複数の画面SCの何れの表示方向と合致するかを推定する。ウェアラブル装置1は、合致すると推定された画面SCが選択された旨の信号をスマートフォンAに送信する。そして、スマートフォンAは、ウェアラブル装置1から受信した信号に基づき、選択された画面SCに基づく表示へ遷移させる。
図10は、本実施形態に係るウェアラブル装置1により実行される処理の第4例を示す図である。
第4例において、スマートフォンAは、撮像機能を有している。ステップS31に示すように、スマートフォンAは、撮像機能を実行中であり、表示画面には逐次撮像されている画像がプレビュー表示されている(逐次撮像されている画像は図10に示す網掛け部分である)。そして、スマートフォンAは、逐次撮像されている画像を保存するためのオブジェクトOB3(例えばシャッターボタン)を表示画面に表示している。
ステップS31において、スマートフォンAは、所定空間51a外に在る。このような状態で、利用者が右手を左方向に移動させると、ステップS32に示すように、スマートフォンAは、所定空間51a内へ移動する。
ウェアラブル装置1は、スマートフォンAが所定空間51a内に在ることを検出すると、ステップS32に示すように、表示領域21に複数の画面SC9を表示する。画面SC9は、例えば、スマートフォンAが実行中の撮像機能に関する付加情報を含む。画面SC9は、例えば、スマートフォンAが表示している表示内容に関する付加情報と規定されても良い。表示内容は、例えば、プレビュー表示或いはシャッターボタン等を含む。画面SC9は、例えば、スマートフォンAによって実現可能な撮像に係る機能の一覧であって良い。機能の一覧は、例えば、人物、風景、逆光、夜景、等の其々の撮影シーンに適した撮影モードを含む。また、画面SC9は、以前に撮像し保存された写真のデータの一覧であっても良い。ステップS32に示すように、複数の画面SC9の其々は、スマートフォンAの側辺に沿って並列して表示されている。
ステップS32において、利用者は、左手Lの人差し指を利用者の前方に差し出している。前方に差し出された左手Lの人差し指は、所定空間51a内において、複数の画面SC9の隣に位置している。このとき、利用者は、左手Lの人差し指を複数の画面SC9の其々が並ぶ方向に沿って、下方(例えば図10の破線矢印で示した方向)へ移動させる。すると、ウェアラブル装置1は、人差し指が下方へ移動したことを検出部5が検出し、これに基づいて、複数の画面SC9の其々は下方へスクロールされる。複数の画面SC9の内の網掛けで示された画面は、ステップS32からステップS33に遷移した際に、下方へと位置が変更されている。
図10の例では、ウェアラブル装置1は、左手Lの人差し指が画面SC9と重畳しない位置において、所定の方向へ移動することにより、該移動の方向に基づいた方向に画面SC9をスクロールする構成とした。このような構成を有する場合には、ウェアラブル装置1は、例えば、左手Lの人差し指が複数の画面SC9の内の何れかと重畳した場合に、該重畳した画面SC9が利用者によって選択されたものと見なしても良い。この場合、ウェアラブル装置1は、例えば、選択された画面SC9に基づく機能を実行させるための制御信号をスマートフォンAに送信しても良い。
図11は、本実施形態に係るウェアラブル装置1により実行される処理の第5例を示す図である。
第5例において、スマートフォンAには複数の動画ファイルが保存されている。ステップS41において、スマートフォンAには、複数の動画ファイルのサムネイル画像(オブジェクトOB4)が表示されている。ステップS41において、スマートフォンAは、所定空間51a内に在る。この場合、ウェアラブル装置1は、表示部2に何も表示していない状態にある。なお、このような構成に限定されるものではなく、ステップS41において、ウェアラブル装置1は、スマートフォンAの表示内容に関する付加情報を表示していて良い。
ステップS41において、利用者の右手Rの親指は、スマートフォンAが表示する複数のサムネイル画像の内の一つ(例えば下段中央に位置する画像)に触れている(言い換えると選択している)。そして、利用者の右手Rの親指は、サムネイル画像OB4に触れている状態で、接触位置をスマートフォンAの外側に向かう方向へ移動させる動作を行っている。このような動作は、選択したサムネイル画像OB4をスマートフォンAから該スマートフォンAの外側である所定空間51a(言い換えると利用者により視認可能な前景)へドラッグするかのような操作感が得られるかもしれない。スマートフォンAは、このような利用者の動作を検出すると、選択されていたサムネイル画像OB4に対応する動画データをウェアラブル装置1へ転送する。スマートフォンAは、このような動作を検出すると、選択されていたサムネイル画像OB4の表示態様を変更している。
ウェアラブル装置1は、スマートフォンAからサムネイル画像OB4に対応する動画データを受信すると、該データに基づき、表示部2に動画再生画面SC10(例えば付加情報)を表示し、動画再生を実行する(ステップS42)。このとき、動画再生画面SC10は、スマートフォンAと重畳して視認されない位置に縮小した大きさで表示されている。
このように、第5例によれば、スマートフォンAに対する接触によって選択された画像をスマートフォンAの外側へ出すような接触動作を行うことにより、ウェアラブル装置1は、選択した画像に関する付加情報をスマートフォンAと共に視認可能な所定空間51a中に表示することができる。これにより、利用者は、所望とするタイミングのみにおいて付加情報をウェアラブル装置1によって参照できる。またこのような操作は、直観的で簡易な操作である。なお、ウェアラブル装置1は、スマートフォンAにて選択した画像を該スマートフォンAの外側へ出すような接触動作を行うことにより、選択した画像に関する付加情報を所定空間51a中に表示するのではなく、選択した画像そのものを所定空間51a内に表示する構成であっても良い。
また、上記構成では、ウェアラブル装置1は、スマートフォンAに対する接触によって選択された画像をスマートフォンAの外側へ向かう方向へ移動させる(言い換えるとドラッグさせる)動作を、接触位置の移動の検出に基づいて認識するものであるが、これに限定されない。例えば、ウェアラブル装置1は、検出部5或いは撮像部3(アウトカメラ)によって、選択されたスマートフォンAの画像を移動させる動作を検出しても良い。即ち、ウェアラブル装置1は、スマートフォンA(他の電子機器)が所定空間51aに在る状態で、かつ、スマートフォンAに接触する物体が所定の接触動作を行ったことを検出すると、動画再生画面SC10(付加情報)を表示部2に表示する構成を有する。なお、ウェアラブル装置1は、撮像部3によってスマートフォンAに対する接触動作を検出する場合には、例えば、スマートフォンAが利用者の前方の所定空間51a内に在ることを検出部5が検出したことを契機に撮像部3を起動させても良い。
再度、図11を参照すると、ステップS42に示すように、ウェアラブル装置1は、動画再生画面SC10を表示部2に表示すると、該動画再生画面SC10に関連する操作のための操作画面SC11〜SC13を表示部2に表示する。操作画面SC11〜SC13は、スマートフォンAから送信される表示制御信号に基づいて表示されて良い。また、スマートフォンAから送信される表示制御信号は、操作画面SC11〜SC13の表示方向に係る情報が含まれていて良い。この場合、ウェアラブル装置1は、該情報に基づいて、操作画面SC11をスマートフォンAに対して左方向に、操作画面SC12をスマートフォンAに対して上方向に、操作画面SC13をスマートフォンAに対して右方向に、其々表示させている。
そして、ウェアラブル装置1は、スマートフォンAの表示画面に触れている右手Rの親指が操作画面SC11〜SC13の何れかが表示されている方向へ移動したことに基づいて、該移動した方向に対応する操作画面が選択されたものと見なす。この場合、ウェアラブル装置1は、当該操作画面に対応する操作を実行する。ここで、右手Rの親指の移動は、スマートフォンAのタッチパネル(又は接触検出部)によって認識されても良いし、ウェアラブル装置1による検出部5或いは撮像部3(アウトカメラ)によって検出されても良い。例えば、右手Rの親指がスマートフォンAの表示画面上において上方へ移動したことをスマートフォンAのタッチパネルによって検出した場合には、スマートフォンAの上方に表示している操作画面SC12(例えば動画の再生指示と一時停止の指示が実行されることを示す画面)が選択されたことをスマートフォンAが認識する。そして、スマートフォンAは、ウェアラブル装置1の表示部2において動画が再生中である場合には該動画を一時停止させるための制御信号を、動画が一時停止中である場合には該動画を再生させるための制御信号を生成し、ウェアラブル装置1へ送信する。
例えば、右手Rの親指がスマートフォンAの表示画面上において上方(例えばスマートフォンAから操作画面SC12が表示されている方向)へ移動したことを、ウェアラブル装置1は、検出部5によって検出する。この場合には、ウェアラブル装置1は、操作画面SC12が選択された旨の信号をスマートフォンAへ送信する。スマートフォンAは、ウェアラブル装置1から信号を受信すると、受信した信号に基づいてウェアラブル装置1を制御するための制御信号を生成し、ウェアラブル装置1へ送信する。例えば、ウェアラブル装置1の表示部2において動画が再生中である場合には、スマートフォンAは、当該動画を一時停止させるための制御信号を生成できる。例えば、ウェアラブル装置1の表示部2において動画が一時停止中である場合には、スマートフォンAは、当該動画を再生させるための制御信号を生成できる。
再度、図11を参照すると、ステップS42に示すような、動画再生画面SC10(付加情報)が表示部2に表示された状態において、利用者は、右手Rを移動させることによりスマートフォンAを所定空間51a内から所定空間51a外へ移動させている。ウェアラブル装置1は、所定空間51a外へのスマートフォンAの移動を検出すると、ステップS43に示すように、動画再生画面SC10を拡大表示させる。ステップS43に示すように、動画再生画面SC10は、表示部2の表示領域21の略全域となるように拡大されて良い。
図12は、本実施形態に係るウェアラブル装置1により実行される処理の第6例を示す図である。
ステップS51に示すように、スマートフォンAは、利用者の前方の所定空間51a外に在る。スマートフォンAは、其々文字の大きさの異なる文字情報OB5aとOB5bを表示している。文字情報OB5aは、文字情報OB5bの文字よりも大きい文字にて構成されている。
また、ステップS51に示すように、ウェアラブル装置1は、表示部2の表示領域21の略全体を占める領域に動画再生画面SC14を表示している。動画再生画面SC14は、動画像SC14aと文字情報SC14b(例えば動画像SC14aに関連する文字情報)の複数の表示要素(以下、単に要素とも称する)を含んでいる。
続いて、スマートフォンAが所定空間51a外から所定空間51a内に移動すると、ウェアラブル装置1は、所定空間51a内に進入したスマートフォンAの位置に応じて動画再生画面SC14の大きさを変更する(ステップS52)。
ステップS52において、動画再生画面SC14の要素の一つである動画像SC14aは、ステップS51の場合と比して、アスペクト比が変わらない状態で、表示領域21の一辺(図12の例では左辺)とスマートフォンAの外郭の一辺(図12の例では左辺)との間に収まる大きさに縮小表示されている。
なお、ウェアラブル装置1は、進入したスマートフォンA(他の電子機器)の位置の移動に追従して、動画再生画面SC14(画像)を縮小する場合には、該縮小方向をスマートフォンAの進入方向と同一な方向としても良い。例えば、所定空間51aの右端辺を通過してスマートフォンAが所定空間51a内に進入した場合、即ち、スマートフォンAの進入方向が左方向である場合、ウェアラブル装置1は、動画再生画面SC14を左方向に縮小するようにしても良い。
また、ステップS52に示すように、動画再生画面SC14は、表示部2の表示領域21内であって、かつ、スマートフォンA(他の電子機器)の外郭よりも外側の領域に収まるように、該動画再生画面SC14の大きさが変更される。これにより、ウェアラブル装置1は、動画再生画面SC14がスマートフォンAの表示画面に重畳してしまい、該表示画面が視認し難くなることを防ぐことができる。
また、動画再生画面SC14が縮小される際、動画再生画面SC14の要素の一つである文字情報SC14bが、動画像SC14aと同様の縮小率で縮小されてしまうと、該文字情報が利用者によって視認できない程度にまで縮小されかねない。従って、ステップS52においては、文字情報SC14bが分割されて動画再生画面SC14の領域外に表示されている。動画再生画面SC14の領域外に表示された文字情報SC14bは、利用者が視認可能な程度の文字の大きさにて表示されている。即ち、ウェアラブル装置1は、所定空間51a内におけるスマートフォンAの位置に基づいて動画再生画面SC14の大きさを変更するに際して、動画再生画面SC14に含まれる複数の要素の其々の拡大縮小率を変更する構成を有して良い。文字情報SC14bは、例えば、縮小表示される前の動画再生画面SC14に含まれている文字情報SC14bの文字の大きさ(ステップS51)と同等の大きさとなっていて良い。また、文字情報SC14bの大きさは、所定空間51a内に存在するスマートフォンAが表示する文字情報(例えばOB5a又はOB5b)の大きさと同等の大きさとなるように変更されても良い。このとき、文字情報SC14bの大きさは、スマートフォンAが表示する文字情報(例えばOB5a又はOB5b)の内、より小さく表示されている文字情報OB5bの大きさと同等の大きさとなるように変更されたとしても、利用者によって視認可能である可能性は高い。
このように、ウェアラブル装置1は、動画再生画面SC14(画像)の大きさが変更され、該画像の所定方向における幅が所定長さ以下になると(所定の大きさにまで縮小されると)、該画像に含まれる複数の要素の内の少なくとも1つの要素を分割して、該画像の領域外に表示する構成を有する。
なお、ステップS52に示すように、動画再生画面SC14から分割された要素である文字情報SC14bは、表示部2の表示領域21におけるスマートフォンAと重畳しない位置に表示されている。
また、ウェアラブル装置1は、動画再生画面SC14(画像)の大きさが変更され、該画像の所定方向における幅が所定長さより小さくなると(所定の大きさにまで縮小されると)、該画像に含まれる複数の要素の内の少なくとも1つの要素(例えば文字情報SC14b)を非表示にするようにしても良い。
また、ステップS52に示すように、スマートフォンAが所定空間51a内に在ると、ウェアラブル装置1は、操作画面SC11〜SC13を表示部2に表示している。これにより、ウェアラブル装置1は、スマートフォンAを握っている右手Rの動作によって、動画再生画面SC14に対する操作が可能となる。
図13は、本実施形態に係るウェアラブル装置1により実行される処理の第6例を引き続き説明するための図である。上記の実施形態では、図12を参照し、スマートフォンAが所定空間51a内に進入すると、表示部2の表示領域21内かつスマートフォンAの外郭よりも外側の領域に収まるように、該動画再生画面SC14の大きさを変更する構成を説明した。図13は、このような構成をより具体的に例示するための図である。
ステップS61に示すように、スマートフォンAは、側辺V(図13の例ではVL1、VL2、VH1、VH2)が規定される。ここで、側辺Vは、スマートフォンAの側辺を通過する仮想線を含む概念であるものと定義される。スマートフォンAが所定空間51a内に進入すると、ウェアラブル装置1は、該進入したスマートフォンAの位置に基づいて動画再生画面SC14の大きさを変更する(ステップS62)。
動画再生画面SC14の大きさを変更するに際しては、ウェアラブル装置1は、ステップS62(a)に示すように変更して良い。ステップS62(a)に示す例では、動画再生画面SC14は、該動画再生画面SC14が表示領域21の一辺(例えば左辺DL)と、スマートフォンA(他の電子機器)における複数の側辺Vの内、左辺DLに最も近い一の側辺VL1と、の間に収まるように、大きさが変更されて良い。ここで、スマートフォンAの複数の側辺Vの内、表示領域21の一辺と最も近い側辺Vとは、該表示領域21の一辺との距離が最も近く、かつ、該表示領域21の一辺と平行な側辺(或いは、表示領域21の一辺と交わる角度が最も小さくなる側辺)であるものと規定される。
なお、ウェアラブル装置1は、ステップS62(a)に示すように、動画再生画面SC14の形状を変形する場合、動画再生画面SC14の要素である動画像SC14aと文字情報SC14bとの配置を変更しても良い。即ち、ウェアラブル装置1は、画像の大きさが変更され、該画像の所定方向における幅が所定長さより小さくなると、該画像を変形すると共に、画像が含む複数の要素を分割し、変形された画像中に再配置して表示する構成を有していても良い。
また、動画再生画面SC14の大きさを変更するに際しては、ウェアラブル装置1は、ステップS62(b)に示すように変更して良い。ステップS62(b)に示す例では、動画再生画面SC14は、該動画再生画面SC14が表示領域21の一辺(例えば上辺TL)と、スマートフォンAにおける複数の側辺Vの内、上辺TLに最も近い一の側辺VH1と、の間に収まるように、大きさが変更されて良い。
また、動画再生画面SC14の大きさを変更するに際しては、ウェアラブル装置1は、ステップS62(c)に示すように変更して良い。ステップS62(c)に示す例では、動画再生画面SC14は、表示領域21の一辺(例えば左辺DL)と、スマートフォンA(他の電子機器)における複数の側辺Vの内、左辺DLに最も近い一の側辺VL1と、の間に収まり、かつ、表示領域21の他辺(例えば上辺TL)と、スマートフォンAにおける複数の側辺Vの内、上辺TLに最も近い他の側辺VH1と、の間に収まるように、大きさが変更されて良い。このとき、ステップS62(c)に示すように、動画再生画面SC14は、動画再生画面SC14の要素である文字情報SC14bを非表示としても良い。
図14は、本実施形態に係るウェアラブル装置1により実行される処理の第6例を引き続き説明するための図である。
ステップS71に示す状態は、図12のステップS52に示す状態と同様であり、動画像SC14aが、所定空間51a内に進入したスマートフォンAの位置に基づいた大きさにて表示されている。なお、スマートフォンAの表示画面に表示されている表示内容の記載は省略している。
ここで、スマートフォンAが動画像SC14aから遠ざかる方向へ移動すると(ステップS72)、ウェアラブル装置1は、スマートフォンAが動画像SC14aから離れた距離d(或いは、スマートフォンAと動画像SC14aとの間の距離)を検出する。そしてウェアラブル装置1は、距離dが所定長さより大きくなった(言い換えるとスマートフォンAが動画像SC14aから所定長さ以上離れた)ことを契機に、その時点におけるスマートフォンAの位置に基づいて動画像SC14aの大きさを変更する(ステップS73)。
このような構成とすることにより、利用者が意図せずスマートフォンAの位置を僅かに移動させた場合に、該移動に追従して動画像SC14aの大きさが頻繁に変更されてしまうといったことを防止することができる。
また、ウェアラブル装置1は、ステップS73に示す状態から、さらにスマートフォンAが動画像SC14aから所定長さより大きく離れたことを検出すると、その時点におけるスマートフォンAの位置に基づいて動画像SC14aの大きさを再度変更するようにしても良い。即ち、ウェアラブル装置1は、所定空間51a内に進入したスマートフォンA(他の電子機器)の位置の移動に追従して動画像SC14a(画像)の大きさを変更し、該変更が完了した後は、所定空間51aにおけるスマートフォンAの位置の移動に従って、画像の大きさを段階的に変更する構成を有していて良い。なお、ウェアラブル装置1は、動画像SC14aの大きさが段階的に変更され、該画像の大きさが所定の大きさよりも大きくなると、分割されて表示されていた動画像SC14aと文字情報SC14bとを結合させて一の画像としても良い。
また、スマートフォンAが動画像SC14aからさらに離れ、所定空間51a外へ移動すると、動画像SC14aは、スマートフォンAが進入する前の大きさに戻って良い。即ち、ウェアラブル装置1は、スマートフォンAの位置に基づいた動画像SC14a(画像)の大きさの変更が完了した後に、スマートフォンAが所定空間51a外に移動したことを検出したことに基づいて、動画像SC14aの大きさを変更される前の大きさに戻すようにしても良い。
(変形例)
以上に、実施形態を説明してきた。以下に種々の変形例を示す。
上記の実施形態では、ウェアラブル装置1は、スマートフォンAが所定空間51aに在る場合に、該スマートフォンAの表示に関連する付加情報を、スマートフォンAの位置に基づいた位置(例えば、図7に示す例のように、スマートフォンAと重畳しない位置)に表示する構成を例示した。ウェアラブル装置1は、例えば、付加情報の表示位置を、他の要素に基づいて規定しても良い。
図15は、本実施形態に係るウェアラブル装置1により実行される処理の第7例を示す図である。
第7例において、スマートフォンAは、ルート案内機能を有している。ステップS81に示すように、スマートフォンAはルート案内機能を実行中であり、出発地点と目的地点を入力可能な入力画面が表示されている。利用者は、所望とする出発地点名と目的地点名を入力することにより、出発地点から目的地点への誘導ルートや最短ルートを参照することができる。
また、ステップS81に示すように、利用者は、ウェアラブル装置1の表示部2越しに、利用者の前方の風景を視認している。前方の風景には上記の案内ルートとなり得る道が存在している。
利用者は、スマートフォンAを前方の所定空間51a内に移動させ、スマートフォンAを操作することにより、出発地点と目的地点とを入力している。ここで、出発地点が現在位置に指定されると、ウェアラブル装置1は、入力された出発地点から目的地点までのルートの情報をスマートフォンAから受信するとともに、利用者の現在位置及び利用者が向いている方位を検出する。これにより、ウェアラブル装置1は、利用者が現在地からスタートすべきルートの記号SC15(例えば矢印)を推定し、利用者が視認している前景に重畳させて表示している(ステップS82)。
ここで、入力した目的地点とは異なる地点を入力し直した、或いは、徒歩のみでの移動ルートから路線+徒歩での移動ルートへの変更等を行うことによって、スタートすべきルートが変更された場合には、ウェアラブル装置1は、該変更に合わせて異なる記号SCを表示し直して良い。
また、上記の実施形態では、所定物としてのスマートフォンAや腕時計型端末B等の電子機器が所定空間51aに在る場合に、該電子機器の表示に関連する付加情報をウェアラブル装置1の表示部2に表示する構成を例示したが、付加情報の対象は電子機器に限らない。また、スマートフォンAの表示に関連する付加情報を表示部2に表示した場合に、スマートフォンAに触れている指を付加情報が表示された方向へスライドさせた場合に、ウェアラブル装置1は、付加情報が選択されたものと見なす構成を例示したが、これに限定されない。ウェアラブル装置1は、例えば、スマートフォンAに触れている指の動作以外によって、付加情報を選択する構成であっても良い。
図16は、本実施形態に係るウェアラブル装置1により実行される処理の第8例を示す図である。
ステップS91に示すように、利用者は、ウェアラブル装置1を装着し、かつ、人参CAを所持している。そして、人参CAを利用者の前方の所定空間51a内に移動させると、ウェアラブル装置1は、撮像部3によって撮像される撮像画像から利用者の右手Rが所持している物体の形状情報や色情報を解析することによって該物体が人参CAであることを認識する。そして、ウェアラブル装置1は、人参CAが所定空間51a内に在ることを認識したことに基づいて、例えば、ステップS92に示すように、人参CAを用いた料理のレシピ一覧の画像SC16〜SC18を表示領域21に表示する。画像SC16〜SC18の其々は、人参CAと重畳して視認されない位置に表示されている。
ステップS93に示すように、画像SC16〜SC18が表示された状態で、利用者は、人参CAの一部が画像SC16〜SC18の内の何れか(図16の例では画像SC17)に重畳するように該人参CAを移動させる。この場合、ウェアラブル装置1は、人参CAと重畳した画像SC17が選択されたものと見なす。そして、ウェアラブル装置1は、画像SC17が選択されたものと見なすと、例えば、画像SC17に基づく料理のレシピの表示画面へ遷移しても良い。
このように、ウェアラブル装置1は、眼前に配置される表示部2と、現実の空間に存在する所定物(上記の例では人参CA)を検出する検出部5(或いは撮像部3)と、利用者の前方の所定空間51aに所定物が在る場合に、該所定物に関連する付加情報(例えば画像SC16〜SC18)を、表示部2の表示領域21において所定物と重畳しない位置に表示する制御部7と、を備え、所定物が移動し、付加情報が表示された領域に所定物が重畳したことを検出すると、該付加情報に対する選択処理を実行する。なお、所定物は、人参CAに限らず、スマートフォンAや腕時計型端末B等の電子機器であっても良いことは言うまでもない。
また、上記の実施形態では、ウェアラブル装置1は、所定物としてのスマートフォンA(他の電子機器)が所定空間51aに在る場合に、該スマートフォンAから表示方向の規定を含む制御信号を受信し、該表示方向に基づいて、スマートフォンAの左側、上側、右側に付加情報を表示する構成を例示したが、付加情報の表示位置はこれに限らない。
図17は、本実施形態に係るウェアラブル装置1により実行される処理の第9例を示す図である。
上記の実施形態においては、付加情報がスマートフォンAの外郭の外側となる位置に憑依された状態で、スマートフォンAをタッチしている指を付加情報へ向かう方向へスライドさせることによって、該付加情報が選択される構成とした。このようなスライド操作は、付加情報を選択するための操作とは異なる、スマートフォンAに対する通常の操作と競合することも想定され得る。そこで、第9例においては、スマートフォンAに対するスライド操作の該スライド方向によって、付加情報を選択するための操作と、スマートフォンAに対する通常の操作と、を区別する構成を例示する。
ステップS101に示すように、スマートフォンAの4つの側辺V(側辺Vとは、側辺Vを通る仮想線も含む概念である)によって、スマートフォンAの周囲の領域(空間)が8つの領域に区分されている。スマートフォンAは、該スマートフォンのタッチパネルに対する、縦方向又は横方向へのスライド操作によって画面のスクロールや画面の切り替えがなされる場合が多いことから、区分した8つの領域の内、スマートフォンAに対して斜めに位置する領域を、付加情報を選択するための選択領域Fとして規定されている。そして、スマートフォンAのタッチパネルに接触した指がスライドしたときに、該スライドの軌跡の延長線が選択領域Fを通過する方向(ステップS101においては方向D2)に該当する場合、付加情報の選択がなされる。一方で、スライドの軌跡の延長線が選択領域Fを通過しない方向(ステップS101においては方向D3)に該当する場合、該方向に基づいて、スマートフォンAに対する通常の操作がなされる。なお、スライドの軌跡が曲線を描く場合には、該軌跡の始点と終点とを結ぶ線の方向に基づいて、選択領域に該当するか否かが判定されて良い。また、スマートフォンAの周囲の領域をどのように区別するかについては当業者によって自由に決められて良いし、また、区分された領域の内、どの領域を付加情報の選択領域とするのかについても自由に決められて良い。
ステップS101に示す規定がなされている状態において、スマートフォンAが所定空間51a内に移動すると(ステップS102)、ウェアラブル装置1は、表示領域21において、選択領域F内となる位置に付加情報SC19、20を表示する(ステップS103)。このようにすることで、スマートフォンAにタッチした指を付加情報SC19、20が表示されている方向へスライドさせることで、利用者は、付加情報SC19、20を選択することができる。さらに、利用者は、付加情報SC19、20が表示されている方向とは異なる方向へ指をスライドさせることでスマートフォンAに対する通常の操作が可能となる。なお、スマートフォンAは、ステップS102において、自機が所定空間51a内に在ることを認識すると、規定された選択領域Fをウェアラブル装置1に認識させるための制御信号を生成し、ウェアラブル装置1に送信する。
図17の例(第9例)では、スマートフォンAの周囲の領域を区分することで、付加情報を選択する操作と、該操作とは異なる操作のと、を区別する構成を例示したが、区別の仕方はこれに限定されない。
図18は、本実施形態に係るウェアラブル装置1により実行される処理の第10例を示す図である。
ステップS111に示すように、スマートフォンAは利用者によって所持されている。利用者がスマートフォンAを所定空間51a内に移動させると、ウェアラブル装置1は、当該スマートフォンAに関する付加情報SC21を表示する(ステップS112)。そして、スマートフォンAは、該スマートフォンAに対する所定の接触操作、例えば、スマートフォンAのタッチパネルに接触した状態で位置が移動することなく所定時間より長く継続して接触する操作を検出する。この場合、スマートフォンAは、付加情報SC21に対する操作(又はウェアラブル装置1の表示に対する操作)が可能な状態に遷移させる(ステップS113)。ウェアラブル装置1は、付加情報SC21に対する操作が可能な状態に遷移させると、これを利用者に認識させるために、タッチパネルへの接触位置に視覚エフェクトOB6を表示する(ステップS113)。このような構成により、利用者は、スマートフォンAに対する意図した操作を行うことで、付加情報SC21に対する操作(又はウェアラブル装置1の表示に対する操作)とそれ以外の操作とを切り替えることができる。
上記の実施形態においては、付加情報を他の電子機器と重畳して視認されない位置に表示する構成を例示したが、これに限定されない。
図19は、本実施形態に係るウェアラブル装置1により実行される処理の第11例を示す図である。
ステップS121に示すように、スマートフォンAが所定空間51a内に移動すると、ウェアラブル装置1は、スマートフォンAが所定空間51a内に在ることを検出し、撮像部3(アウトカメラ)を起動する(ステップS122)。そして、撮像部3が撮像する撮像画像を表示部2に表示する(表示部2に表示された撮像画像をプレビューウィンドウPW2と称する)。また、ウェアラブル装置1は、スマートフォンAとの通信接続を開始し、スマートフォンAから、ウェアラブル装置1の表示部2において所定の表示を実行するための表示制御信号を受信する。また、ウェアラブル装置1は、撮像画像を解析することによって、プレビューウィンドウPW2に映し出されるスマートフォンAを包含する範囲PW2aを算出する。そして、ウェアラブル装置1は、受信した表示制御信号に基づいた付加情報を含む画面SC21を、範囲PW2aと同一の大きさ若しくはそれよりも大きな画像として表示する(ステップS123)。画面SC21は、スマートフォンA(電子機器)が所定空間51aに在る状態において表示している表示画像と同一の画像であって良い。なお、画面SC21は、不透明な画像であると良い。ウェアラブル装置1は、画面SC21を不透明な画像とすると、スマートフォンAに画面SC21が重畳し、スマートフォンAが視認されなくなる。従って、ウェアラブル装置1は、利用者がスマートフォンAの表示画面のどの位置をタッチしているかを把握できるように、視覚エフェクトSC22を表示して良い。
なお、上記の例では、ウェアラブル装置1は、プレビューウィンドウPW2に映し出されるスマートフォンAを包含するように画面SC21を表示する構成としたが、これに限定されない。ウェアラブル装置1は、スマートフォンAが所定空間51a内に在ることを検出すると、スマートフォンAの位置及び形状を検出し、該検出結果に基づいて、表示部2越しに視認されるスマートフォンAの外郭(表示領域21におけるスマートフォンAの外郭)を推定し、推定したスマートフォンAの外郭を包含するように画面SC21を表示しても良い。
このように、ウェアラブル装置1は、眼前に配置される表示部と、現実の空間に存在する所定物を検出する検出部(又は撮像部)と、利用者の前方の所定空間に所定物が在る場合に、該所定物に関連する付加情報を含む画像を、該画像が表示部の表示領域における所定物(撮像部3が撮像するプレビューウィンドウに映し出される所定物)を包含するように表示する構成を有する。
なお、所定物を包含するように画面SC21を重畳させて表示するに際しては、ステップS122、123に示すように、表示部2の表示領域21の外郭に対する所定物の傾きを補正した向きで該画面SC21を表示して良い。
このような構成とすることで、ウェアラブル装置1は、ステップS122に示すような、スマートフォンAが斜めに傾いて視認されている状態において、該スマートフォンAに関連する付加情報を、該傾きが補正された画面として表示することができるので、視認しやすい。
なお、所定物は、スマートフォンA等の電子機器とは異なる電子機器としても良い。異なる電子機器は、例えば、文字が印字された紙媒体、PDFファイル等の電子文書等を含む。例えば、電子機器が表示する電子文書の一部分が他の部分と90度向きが異なって表示されている場合には、ウェアラブル装置1は、該位置部分の向きを他の部分と一致するように補正して表示することができ、視認しやすい。
図20は、本実施形態に係るウェアラブル装置1により実行される処理の第12例を示す図である。
ステップS131に示すように、スマートフォンAは、ウェアラブル装置1の表示部2の表示面に対して所定角度以上の傾きを有している状態にある。このような状態において、スマートフォンAが所定空間51a内に移動すると、ウェアラブル装置1は、スマートフォンAが所定空間51a内に在ることを検出する。そして、ウェアラブル装置1は、検出部5の検出結果により、ウェアラブル装置1の表示部2の表示面に対するスマートフォンAの表示画面の傾き角を算出する。そして、傾き角が所定角度よりも大きい場合には、ステップS132に示すように、ウェアラブル装置1は、撮像部3(アウトカメラ)を起動し、撮像部3が撮像する撮像画像を表示部2に表示する(表示部2に表示された撮像画像をプレビューウィンドウPW3と称する)。ウェアラブル装置1は、撮像画像を解析することによって、プレビューウィンドウPW3に映し出されるスマートフォンAを包含する範囲PW3aを算出する。そして、ウェアラブル装置1は、スマートフォンAから受信する表示制御信号に基づいた付加情報を含む画面SC23を、範囲PW3aと同一の大きさ若しくはそれよりも大きな画像として表示部2に表示する(ステップS133)。ウェアラブル装置1は、利用者がスマートフォンAの表示画面のどの位置をタッチしているかを把握できるように、視覚エフェクトSC22を表示して良い。
このように、ウェアラブル装置1は、検出部5の検出結果より、スマートフォンA(他の電子機器)の表示画面がウェアラブル装置1の表示部2の表示面に対して所定角度より大きな傾きを有している場合に、スマートフォンAの表示に関連する画像を、該スマートフォンAに重畳させて表示する構成を備える。これにより、スマートフォンAが利用者から視認し難い角度で画像を表示している場合には、代わりにウェアラブル装置1に同一の内容の画像を表示し直すことによって、利用者にとって視認しやすくすることができる。
以上に、実施形態の一例を説明してきたが、本実施形態は、ウェアラブル装置と他の電子機器とから形成されるネットワークシステムとして特徴付けられても良い。例えば、本実施形態の一例に係るネットワークシステムは、眼前に配置される表示部を備えるウェアラブル装置と表示機能を備える他の電子機器とによって形成されるネットワークシステムであって、前記ウェアラブル装置は、該ウェアラブル装置の前方の所定空間に前記他の電子機器が在るか否かを検出する検出部を備え、前記所定空間に前記他の電子機器が在ることを検出すると、該検出した旨の情報を前記他の電子機器に送信し、前記他の電子機器は、前記情報を受信すると、該他の電子機器が表示している表示内容に関連する付加情報を前記ウェアラブル装置に表示させるための表示制御信号を該ウェアラブル装置に送信し、前記ウェアラブル装置は、前記表示制御信号を受信すると、該表示制御信号に基づいて前記付加情報を前記表示部に表示するネットワークシステムとして特徴付けられて良い。
以上に、実施形態の一例を説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は添付の請求項に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、ウェアラブル装置1が、眼鏡形状を有する例を示してきたが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ユーザの頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していても良い。或いは、ウェアラブル装置1は、ユーザの顔面のほぼ全体を覆うようなマスクタイプの形状を有していても良い。
また、上記の実施形態では、表示部2がユーザの左右の目の前に設けられる一対の表示部2a及び表示部2bを有している構成を例示してきたが、これに限定されず、表示部2は、ユーザの左右の目の内の一方の前に設けられる一つの表示部を有している構成であっても良い。
また、上記の実施形態では、正面部の縁部が、表示部2の表示領域21の縁の全周を囲っている構成を例示してきたが、これに限定されず、表示部2の表示領域21の縁の一部のみを囲っている構成であっても良い。
また、上記の実施形態では、利用者の上肢として手や指を撮像部3及び撮像部4(或いは検出部)によって検出する構成を示したが、手や指は、手袋やグローブ等が装着されている状態であっても同様にして検出可能である。
上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。また、上記に例示したように、ウェアラブル装置1と他の電子機器とから形成されるネットワークシステムとして構成されても良い。
1 ウェアラブル装置
1a 前面部
1b 側面部
1c 側面部
2a 表示部
2b 表示部
3 撮像部
4 撮像部
5 検出部
6 操作部
7 制御部
8 通信部
9 記憶部

Claims (14)

  1. 眼前に配置される表示部を備えるウェアラブル装置であって、
    前記ウェアラブル装置の前方の所定空間に存在する所定物を検出する検出部を備え、
    の電子機器が前記所定空間に在り、該他の電子機器が所定の表示を行っている場合、該表示に関連する複数の付加情報を前記表示部に表示し、
    利用者の上肢が前記所定空間に在り、かつ、該上肢が前記複数の付加情報と重畳しない位置で前記複数の付加情報が並ぶ方向に沿って移動すると、前記複数の付加情報が該移動方向にスクロールされる
    ウェアラブル装置。
  2. 前記利用者の上肢が前記複数の付加情報のいずれかと重畳した場合に、該重畳した付加情報が選択された旨の信号を前記他の電子機器に送信する制御部をさらに備える
    請求項1に記載のウェアラブル装置。
  3. 眼前に配置される表示部を備えるウェアラブル装置であって、
    現実の空間に他の電子機器が在るか否かを検出する検出部を備え、
    前記検出部の検出結果より、前記他の電子機器の表示画面が前記ウェアラブル装置の前記表示部の表示面に対して所定角度以上の傾きを有している場合に、該他の電子機器の表示に関連する画像を、該他の電子機器に重畳させて表示するウェアラブル装置。
  4. 利用者の眼前に配置される表示部と、
    利用者の前方の所定空間に存在する他の電子機器を検出する検出部と、を備えるウェアラブル装置であって、
    前記表示部に画像を表示している場合に、前記所定空間に他の電子機器が進入したことを前記検出部が検出すると、該進入した他の電子機器の位置の移動に追従して、前記画像の大きさを変更し、
    前記他の電子機器の前記所定空間における移動速度が所定値未満になると、前記画像の大きさの変更を完了する
    ウェアラブル装置。
  5. 前記画像が前記表示部の表示領域内であって、かつ、前記他の電子機器の外郭よりも外側の領域に収まるように、該画像の大きさを変更する
    請求項に記載のウェアラブル装置。
  6. 前記表示領域の一辺と、前記他の電子機器における複数の側辺の内の前記一辺に最も近い一の側辺と、の間に収まるように前記画像の大きさを変更する
    請求項に記載のウェアラブル装置。
  7. 前記表示領域の前記一辺と所定角度以上で交わる他辺と、前記他の電子機器における複数の側辺の内の前記他辺に最も近い他の側辺と、の間に収まるように前記画像の大きさを変更する
    請求項に記載のウェアラブル装置。
  8. 前記進入した他の電子機器の位置の移動に追従して、前記画像を縮小する場合には、該縮小方向を前記他の電子機器の前記進入方向と同一にする
    請求項からの何れか一項に記載のウェアラブル装置。
  9. 前記画像の大きさの変更が完了した後は、前記空間における前記他の電子機器の位置の移動に従って、前記画像の大きさを段階的に変更する
    請求項からの何れか一項に記載のウェアラブル装置。
  10. 前記画像の大きさの変更が完了した後に、前記他の電子機器が前記所定空間外に移動したことを検出したことに基づいて、該画像の大きさを前記変更される前の大きさに戻す
    請求項からの何れか一項に記載のウェアラブル装置。
  11. 前記画像は、複数の表示要素を含んでおり、
    前記ウェアラブル装置は、前記画像の大きさが変更され、該画像の所定方向における幅が所定長さ以下になると、該画像に含まれる前記複数の表示要素の内の少なくとも1つの表示要素を分割して、該画像の領域外に表示する
    請求項から10の何れか一項に記載のウェアラブル装置。
  12. 前記画像は、複数の表示要素を含んでおり、
    前記ウェアラブル装置は、前記画像の大きさが変更され、該画像の所定方向における幅が所定長さ以下になると、該画像を変形すると共に、前記複数の表示要素を分割し、該変形された画像中に再配置して表示する
    請求項から11の何れか一項に記載のウェアラブル装置。
  13. 利用者の眼前に配置され、複数の表示要素を含む画像を表示する表示部と、
    利用者の前方の所定空間に存在する所定物を検出する検出部と、を備えるウェアラブル装置であって、
    前記表示部に前記画像を表示している場合に、前記所定空間に所定物が進入したことを前記検出部が検出すると、該進入した所定物の位置の移動に応じて前記画像の大きさを変更し、
    前記画像の大きさが変更され、該画像の所定方向における幅が所定長さ以下になると、該画像に含まれる前記複数の表示要素の内の少なくとも1つの表示要素を分割して、該画像の領域外に表示する
    ウェアラブル装置。
  14. 前記分割された少なくとも1つの表示要素を、前記表示部の表示領域における前記所定物と重畳しない位置に表示する
    請求項13に記載のウェアラブル装置。
JP2017521921A 2015-05-29 2016-05-27 ウェアラブル装置 Active JP6400197B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015109498 2015-05-29
JP2015109497 2015-05-29
JP2015109497 2015-05-29
JP2015109498 2015-05-29
PCT/JP2016/065810 WO2016194844A1 (ja) 2015-05-29 2016-05-27 ウェアラブル装置

Publications (2)

Publication Number Publication Date
JPWO2016194844A1 JPWO2016194844A1 (ja) 2018-01-18
JP6400197B2 true JP6400197B2 (ja) 2018-10-03

Family

ID=57441112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017521921A Active JP6400197B2 (ja) 2015-05-29 2016-05-27 ウェアラブル装置

Country Status (3)

Country Link
US (1) US10591729B2 (ja)
JP (1) JP6400197B2 (ja)
WO (1) WO2016194844A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021461A (ja) * 2015-07-08 2017-01-26 株式会社ソニー・インタラクティブエンタテインメント 操作入力装置および操作入力方法
KR102548943B1 (ko) * 2015-11-17 2023-06-29 삼성전자주식회사 전자 장치 및 전자 장치의 위치에 따른 화면 제공 방법
CN106126144B (zh) * 2016-06-28 2019-03-29 联想(北京)有限公司 一种信息显示方法及电子设备
KR20180072910A (ko) * 2016-12-21 2018-07-02 삼성디스플레이 주식회사 표시장치 및 그의 구동방법
JP2018181261A (ja) * 2017-04-21 2018-11-15 京セラドキュメントソリューションズ株式会社 表示装置
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
JP6580624B2 (ja) * 2017-05-11 2019-09-25 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2019105678A (ja) * 2017-12-11 2019-06-27 京セラドキュメントソリューションズ株式会社 表示装置、及び画像表示方法
JP6878346B2 (ja) * 2018-04-02 2021-05-26 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN111837174B (zh) 2018-06-25 2023-03-28 麦克赛尔株式会社 头戴式显示器、头戴式显示器协作系统及其方法
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
USD918952S1 (en) * 2018-10-19 2021-05-11 Beijing Xiaomi Mobile Software Co., Ltd. Electronic device with graphical user interface
US11450069B2 (en) * 2018-11-09 2022-09-20 Citrix Systems, Inc. Systems and methods for a SaaS lens to view obfuscated content
KR102539579B1 (ko) 2018-12-18 2023-06-05 삼성전자주식회사 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법
JP7238456B2 (ja) * 2019-02-21 2023-03-14 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
EP3712759B1 (en) * 2019-03-18 2023-07-19 Apple Inc. Virtual paper
JP7278152B2 (ja) * 2019-06-03 2023-05-19 三菱電機株式会社 ソフトウェア操作支援システム
USD1009050S1 (en) * 2019-06-19 2023-12-26 F. Hoffman-La Roche Ag Display screen with transitional graphical user interface
JP2021043300A (ja) * 2019-09-10 2021-03-18 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、情報処理装置の制御方法、及び表示装置
US11379033B2 (en) * 2019-09-26 2022-07-05 Apple Inc. Augmented devices
US11169600B1 (en) * 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11544415B2 (en) 2019-12-17 2023-01-03 Citrix Systems, Inc. Context-aware obfuscation and unobfuscation of sensitive content
US11539709B2 (en) 2019-12-23 2022-12-27 Citrix Systems, Inc. Restricted access to sensitive content
US11582266B2 (en) 2020-02-03 2023-02-14 Citrix Systems, Inc. Method and system for protecting privacy of users in session recordings
US11361113B2 (en) 2020-03-26 2022-06-14 Citrix Systems, Inc. System for prevention of image capture of sensitive information and related techniques
USD959483S1 (en) * 2020-04-01 2022-08-02 Mitsubishi Electric Building Techno-Service Co., Ltd. Display screen with graphical user interface
US20210358294A1 (en) * 2020-05-15 2021-11-18 Microsoft Technology Licensing, Llc Holographic device control
WO2022041163A1 (en) 2020-08-29 2022-03-03 Citrix Systems, Inc. Identity leak prevention
JP6892960B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、情報処理システム、制御方法及びプログラム
WO2022244052A1 (ja) * 2021-05-17 2022-11-24 マクセル株式会社 ヘッドマウントディスプレイ装置
JPWO2022269753A1 (ja) * 2021-06-22 2022-12-29

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US20120102438A1 (en) * 2010-10-22 2012-04-26 Robinson Ian N Display system and method of displaying based on device interactions
WO2013028813A1 (en) * 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
JP2014071756A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 作業補助システムおよびプログラム
JP5935640B2 (ja) 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP5962403B2 (ja) * 2012-10-01 2016-08-03 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP5787099B2 (ja) 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
JP5696908B2 (ja) 2013-02-15 2015-04-08 コニカミノルタ株式会社 操作表示システム
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
CN105229720B (zh) * 2013-05-21 2018-05-15 索尼公司 显示控制装置、显示控制方法以及记录介质
US20150302653A1 (en) * 2014-04-22 2015-10-22 Cherif Atia Algreatly Augmented Digital Data
US9858720B2 (en) * 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
KR20160022147A (ko) * 2014-08-19 2016-02-29 엘지전자 주식회사 이동 단말기, 글래스형 단말기 및 그들의 화면 공유를 통한 상호 연동방법
US10477090B2 (en) * 2015-02-25 2019-11-12 Kyocera Corporation Wearable device, control method and non-transitory storage medium

Also Published As

Publication number Publication date
WO2016194844A1 (ja) 2016-12-08
US10591729B2 (en) 2020-03-17
US20180164589A1 (en) 2018-06-14
JPWO2016194844A1 (ja) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6400197B2 (ja) ウェアラブル装置
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
JP6510648B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
JP6652613B2 (ja) ウェアラブル装置、制御方法、制御プログラム及び撮像装置
US9886086B2 (en) Gesture-based reorientation and navigation of a virtual reality (VR) interface
RU2638004C2 (ru) Устройство обработки информации, способ управления отображением и программа
US11170580B2 (en) Information processing device, information processing method, and recording medium
US9857589B2 (en) Gesture registration device, gesture registration program, and gesture registration method
JP6595597B2 (ja) ウェアラブル装置、制御方法及び制御プログラム
EP4246287A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
CN110546601B (zh) 信息处理装置、信息处理方法和程序
KR20160146037A (ko) 카메라의 초점을 변경하는 방법 및 장치
JP7459798B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20180004112A (ko) 안경형 단말기 및 이의 제어방법
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
JP7499819B2 (ja) ヘッドマウントディスプレイ
KR20160137253A (ko) 증강 현실 디바이스 및 상기 증강 현실 디바이스를 위한 사용자 인터랙션 장치 및 방법
JP2023160103A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150