JP6609920B2 - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP6609920B2
JP6609920B2 JP2014261553A JP2014261553A JP6609920B2 JP 6609920 B2 JP6609920 B2 JP 6609920B2 JP 2014261553 A JP2014261553 A JP 2014261553A JP 2014261553 A JP2014261553 A JP 2014261553A JP 6609920 B2 JP6609920 B2 JP 6609920B2
Authority
JP
Japan
Prior art keywords
display
distance
unit
data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014261553A
Other languages
English (en)
Other versions
JP2016122085A (ja
Inventor
直人 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014261553A priority Critical patent/JP6609920B2/ja
Priority to US14/963,899 priority patent/US9784975B2/en
Publication of JP2016122085A publication Critical patent/JP2016122085A/ja
Application granted granted Critical
Publication of JP6609920B2 publication Critical patent/JP6609920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、現実空間に関連する画像を表示する表示装置が知られている(例えば、特許文献1参照)。特許文献1記載の装置では、現実世界又はその映像に位置合わせされたCG画像を表示し、任意の現実物体にCG画像を重畳した状態としない状態とを観察できる。
特開2006−12042号公報
特許文献1に記載された装置は、使用者が望むようにCG画像を表示するか否かを切り替える。現実の外景に関連する表示を行う装置を、使用者が逐一指示しなくても表示を変化させて、使用者に情報を伝える目的で活用することが望まれていた。
本発明は上記事情に鑑みてなされたものであり、実際の外景に関連する表示を行うことにより、使用者に情報を伝える目的で使用できる表示装置、及び、表示装置の制御方法を提供することを目的とする。
上記目的を達成するために、本発明の表示装置は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、前記表示部を透過して視認可能な方向に関する距離情報を取得し、取得した前記距離情報に基づいて、前記表示部を透過して視認される外景の視認性が変化するように前記表示部を制御する制御部と、を備えることを特徴とする。
本発明によれば、使用者が、表示部を透過する外景の見え方をもとに、距離に関する情報を得ることができる。このため、使用者に対して距離に関する情報を効率よく提供できる。また、距離情報に基づいて表示部の制御を行うので、例えば使用者の操作の回数を減らすことができ、利便性の向上を図ることができる。
また、本発明は、上記表示装置において、前記表示部は複数の表示領域で構成される表示範囲に画像を表示し、前記距離情報は、前記表示範囲の表示領域のそれぞれに対応する情報を含み、前記制御部は、前記距離情報と前記表示領域との対応付けに基づき、それぞれの前記表示領域の表示態様を制御することにより、前記外景の視認性を変化させること、を特徴とする。
本発明によれば、それぞれの表示領域を単位として、外景の視認性を変化させることで、距離に関する情報を提供できる。また、距離を基準として外景の視認性を部分的に変更できる。
また、本発明は、上記表示装置において、複数の撮像部を備え、前記制御部は、複数の前記撮像部の撮像画像に基づく前記距離情報を取得し、取得した前記距離情報と前記表示領域との対応付けを行うこと、を特徴とする。
本発明によれば、距離情報と表示領域との対応付けを速やかに行うことができ、外景の視認性を変化させる処理を容易に、速やかに実行できる。
また、本発明は、上記表示装置において、前記表示部を透過して視認可能な方向に位置する対象物体までの距離を検出して前記距離情報を出力する距離検出部を備え、前記制御部は前記距離検出部が出力する前記距離情報を取得すること、を特徴とする。
本発明によれば、外景として見える物体までの距離を検出して、この距離に対応して外景の視認性を変化させることができる。
また、本発明は、上記表示装置において、前記距離検出部は、複数の撮像部と、複数の前記撮像部の撮像画像データをもとに前記距離情報を生成して出力する距離情報生成部とを備えること、を特徴とする。
本発明によれば、撮像画像を利用して距離情報を速やかに生成できる。
また、本発明は、上記表示装置において、前記制御部は、前記表示部で前記距離情報を取得した方向に対応する位置の表示の輝度を変更することにより、前記外景の視認性を低下させること、を特徴とする。
本発明によれば、外景の視認性を容易に変更できる。
また、本発明は、上記表示装置において、前記制御部は、前記表示部を透過して視認可能な前記外景の一部の視認性を他の部分より低くするマスク処理を行うこと、を特徴とする。
本発明によれば、距離情報に基づき外景の一部の視認性を低下させることで、特定の距離にある物体を見えにくくしたり、目立つようにしたりすることができる。
また、本発明は、上記表示装置において、前記制御部は、前記マスク処理において前記表示部の表示領域で表示色または表示階調を変更すること、を特徴とする。
本発明によれば、外景の視認性を容易に、きめ細かく調整できる。
また、本発明は、上記表示装置において、前記制御部は、前記距離情報に基づき、前記外景において予め設定された距離に該当する部分の視認性を変化させること、を特徴とする。
本発明によれば、外景において特定の距離にある物体の視認性を変化させ、この物体、或いはこの物体以外に注目させることができる。
また、本発明は、上記表示装置において、前記制御部は、前記外景において前記距離情報で特定される距離が変化した部分の視認性を変化させること、を特徴とする。
本発明によれば、外景において距離が変化した物体の視認性を変化させて、目立つようにしたりして、距離の変化に関する情報を使用者に提供できる。
また、本発明は、上記表示装置において、使用者の頭部に装着される頭部装着型の本体を有し、前記本体に前記表示部を設けたこと、を特徴とする。
本発明によれば、使用者の頭部に装着されて画像を表示する表示装置が、距離情報に基づき、外景の視認性を変化させ、使用者に対して距離に関する情報を効率よく提供できる。
また、上記目的を達成するために、本発明の表示装置は、外景を透過し、前記外景とともに視認できるように表示範囲に画像を表示する表示部と、前記表示部の表示を制御する制御部と、を備え、前記制御部は、前記表示部を透過して視認可能な方向に関する距離情報と、前記表示範囲に含まれる複数の表示領域と前記距離情報とを対応付ける対応情報と、を取得し、前記対応情報に基づいて、前記距離情報に対応する表示色を前記表示領域に表示させること、を特徴とする。
本発明によれば、表示部における表示領域の表示色を、距離情報に対応させて制御するので、表示を見る使用者に対し、距離に関する情報を効率よく提供できる。
また、上記目的を達成するために、本発明の表示装置の制御方法は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御して、前記表示部を透過して視認可能な方向に関する距離情報を取得し、取得した前記距離情報に基づいて、前記表示部を透過して視認される外景の視認性が変化するように前記表示部を制御すること、を特徴とする。
本発明によれば、使用者が、表示部を透過する外景の見え方をもとに、距離に関する情報を得ることができる。このため、使用者に対して距離に関する情報を効率よく提供できる。また、距離情報に基づいて表示部の制御を行うので、例えば使用者の操作の回数を減らすことができ、利便性の向上を図ることができる。
頭部装着型表示装置の外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 頭部装着型表示装置を構成する各部の機能ブロック図。 頭部装着型表示装置における表示例を示す図。 頭部装着型表示装置の動作を示すフローチャート。 頭部装着型表示装置の動作を示すフローチャート。 変形例としての頭部装着型表示装置の外観構成を示す図。
図1は、本発明を適用した実施形態に係る頭部装着型表示装置100(表示装置)の外観構成を示す説明図である。
頭部装着型表示装置100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者が頭部装着型表示装置100を操作するコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム2(本体)を有する。
フレーム2は、右保持部21及び左保持部23を有する。右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21は使用者の頭部において右耳またはその近傍に当接し、左保持部23は使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20を保持する。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
本実施形態では本体の一例として、眼鏡型のフレーム2を例示する。本体の形状は眼鏡型に限定されず、使用者の頭部に装着され固定されるものであればよく、使用者の左右の眼の前に跨がって装着される形状であれば、より好ましい。例えば、ここで説明する眼鏡型の他に、使用者の顔の上部を覆うスノーゴーグル様の形状であってもよいし、双眼鏡のように使用者の左右の眼のそれぞれの前方に配置される形状であってもよい。
フレーム2には、右表示駆動部22と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、マイク63とが設けられる。右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置する。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、図2を参照して後述する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
また、フレーム2にはデプスセンサーユニット(Depth Sensor Unit)66が設けられる。デプスセンサーユニット66(距離検出部)は、2つのカメラ66A、66B(撮像部)を備える。カメラ66A、66Bは、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ66A、66Bの位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ66A、66Bは、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ66A、66Bは、それぞれ、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ66A、66Bの画角の広さは適宜設定可能であるが、カメラ66A、66Bの画角に、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界が含まれることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように、カメラ66A、66Bの撮像範囲が設定されているとより好ましい。また、カメラ66A、66Bの画角は、重なるように設定されてもよいし、カメラ66A、66Bの画角が互いに一部重複するように設定されてもよい使用者の視線方向における一部の範囲をカメラ66A、66Bの両方で撮像できればよい。カメラ66A、66Bの画角の調整は、撮像レンズ(図示略)の光軸の調整、レンズの画角の選択等により適宜設定できる。
また、フレーム2の内部には、カメラ基板65が内蔵される。カメラ基板65は、カメラ66A、66Bが実装された基板であり、右光学像表示部26と左光学像表示部28との境目部分において、フレーム2の内部に固定される。
また、フレーム2には照度センサー164(図3)が配置される。照度センサー164は、外光の光量を検出して、検出値を出力する環境光センサー(Ambient Light Sensor)である。照度センサー164は、例えばカメラ66A、66Bの近傍に配置され、外光を受光して光量を検出する。
図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222を備える。また、左表示駆動部24は、左バックライト222の拡散板で拡散された光の光路上に配置される透過型の左LCD242、および、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
左投写光学系252は、左LCD242から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、左導光板262(光学素子)に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221を備える。また、右表示駆動部22は、右バックライト221の拡散板で拡散された光の光路上に配置される透過型の右LCD241、および、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板261(光学素子)に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、頭部装着型表示装置100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、頭部装着型表示装置100は、シースルー型の表示装置として機能する。
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部20(図1)は、制御装置10に接続部40を介して接続する。接続部40は、制御装置10に接続される本体コード48、右コード42、左コード44、及び、連結部材46を備えるハーネスである。右コード42及び左コード44は、本体コード48が2本に分岐し、右コード42は右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能なものであればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10には、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10と画像表示部20とを接離できる。
制御装置10は、画像表示部20の本体とは別体となる箱形の本体を有し、頭部装着型表示装置100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、頭部装着型表示装置100の電源オン/オフを切り替えるスイッチである。
図3は、頭部装着型表示装置100を構成する各部の機能ブロック図である。
制御装置10は、制御装置10及び画像表示部20を制御する制御部110(第2制御部)を備える。制御部110は、例えばマイクロプロセッサーで構成され、制御部110が処理するデータ等を一時的に記憶するメモリー121、及び、制御部110が処理するデータ等を不揮発的に記憶するフラッシュメモリー122に接続される。メモリー121及びフラッシュメモリー122はいずれも半導体素子により構成され、データバスを介して制御部110に接続する。
制御部110には、電源制御部123、UI(ユーザーインターフェイス)制御部124、無線I/F(インターフェイス)制御部125、音声制御部126、センサーIC127、及び、外部I/F(インターフェイス)部128が接続される。
頭部装着型表示装置100は、電源として一次電池または二次電池を備え、電源制御部123は、これら電池に接続されるICで構成される。電源制御部123は、制御部110の制御に従って電池の残容量の検出を行い、検出値のデータ、または残容量が設定値以下となったことを示すデータを制御部110に出力する。
UI制御部124は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、及びメニューキー17の各操作部、点灯部12、及び、トラックパッド14が接続されるICである。上記各操作部は入力部として機能し、点灯部12及びトラックパッド14は出力部として機能し、頭部装着型表示装置100のユーザーインターフェイスを構成する。UI制御部124は、上記操作部における操作を検出して、操作に対応する操作データを制御部110に出力する。また、UI制御部124は、制御部110の制御に従って、点灯部12の点灯/消灯、及びトラックパッド14における表示を行う。
無線I/F制御部125は、無線通信インターフェイス(図示略)に接続される制御ICであり、制御部110の制御に従って、上記無線通信インターフェイスによる通信を実行する。制御装置10が備える無線通信インターフェイスは、例えば、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
音声制御部126は、右イヤホン32、左イヤホン34、及びマイク63に接続され、A/D(アナログ/ディジタル)コンバーターやアンプ等を備えるICである。音声制御部126は、制御部110から入力される音声データに基づき右イヤホン32及び左イヤホン34から音声を出力させる。また、音声制御部126は、マイク63が集音する音声に基づき音声データを生成して制御部110に出力する。
センサーIC127は、例えば、3軸加速度センサー、3軸ジャイロセンサー、及び3軸地磁気センサーを備え、例えば上記センサーを具備する1つのICで構成される。センサーIC127は、制御部110の制御に従って検出を実行し、各センサーの検出値を示すデータを制御部110に出力する。センサーIC127が備えるセンサーの数や種類は制限されず、照度センサー、温度センサー、圧力センサー等を備えてもよい。
外部I/F部128は、頭部装着型表示装置100を外部機器に接続するインターフェイスである。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部I/F部128には、頭部装着型表示装置100に対してコンテンツを供給する種々の外部機器を接続できる。これらの外部機器は、頭部装着型表示装置100に画像を供給する画像供給装置ということもでき、例えば、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。また、外部I/F部128は、右イヤホン32、左イヤホン34及びマイク63に繋がる端子を設けてもよく、この場合、音声制御部126が処理するアナログ音声信号は外部I/F部128を介して入出力される。
制御部110には、I/F(インターフェイス)部115が接続される。I/F部115は接続部40に一端に接続するコネクター等を備えたインターフェイスであり、接続部40の他端は画像表示部20のI/F部155に接続される。
制御部110は、接続部40を介して、画像表示部20が備えるサブ制御部150とデータ通信を実行する。
制御部110は、内蔵するROMに記憶するプログラムを実行して、頭部装着型表示装置100の各部を制御する。制御部110は、センサーIC127から入力されるデータに基づきセンサーの検出値を取得して、メモリー121に記憶する。このとき、制御部110は、センサーの検出値に対応付けて、検出値を取得した時刻を示すタイムスタンプ情報を付加して記憶する。
また、制御部110は、接続部40を介して、画像表示部20が備えるセンサー(デプスセンサーユニット66、9軸センサー161、GPS163、及び、照度センサー164)の検出値を示すデータを受信する。制御部110は、受信したデータをメモリー121に記憶する。制御部110が受信するデータは、サブ制御部150が付加したタイムスタンプ情報を含む。制御部110は、上記のようにセンサーIC127の検出値に付加するタイムスタンプ情報を、サブ制御部150が付加したタイムスタンプ情報と区別できる態様で付加し、メモリー121に記憶する。メモリー121には、センサーの検出値が、データの属性の1つとしてタイムスタンプ情報が付加されたデータ形式で記憶される。ここで、制御部110は、センサーの検出値のデータを、フラッシュメモリー122に記憶してもよい。
制御部110は、外部I/F部128または無線I/F制御部125により接続する外部機器から、コンテンツのデータを受信して、フラッシュメモリー122に記憶する。コンテンツのデータは、画像表示部20で表示するテキストや画像等のデータであり、右イヤホン32及び左イヤホン34で出力する音声のデータを含んでもよい。制御部110は、頭部装着型表示装置100を制御してコンテンツを再生する。具体的には、制御部110は、コンテンツの表示用のデータをサブ制御部150に送信して表示を実行させ、コンテンツの音声データを音声制御部126に出力して音声を出力させる。また、外部機器から受信するコンテンツのデータが、再生に関する条件を示すデータを含む場合、制御部110は、この条件に従ってコンテンツを再生する。例えば、画像表示部20において検出される位置や傾き等のセンサーの検出値が、条件に該当する場合に、検出値に対応するテキストや画像を表示させる。
画像表示部20は、制御部110と通信を実行し、画像表示部20の各部を制御するサブ制御部150を備える。サブ制御部150は、例えばマイクロプロセッサーで構成され、I/F部155により接続部40に接続され、接続部40を介して制御部110との間でデータ通信を実行する。
サブ制御部150には、デプスセンサーユニット66、9軸センサー161、GPS163、及び、照度センサー164のセンサー類が接続される。
デプスセンサーユニット66は、上記のように使用者の視界方向を撮像して撮像結果の信号を出力するカメラ66A、66Bと、カメラ66A、66Bの出力信号に基づき撮像画像データを生成出力する出力部67(デプスデータ生成部)と、を備える。出力部67は、カメラ66A、66Bとともにカメラ基板65に実装される。
出力部67は、例えばASIC(Application Specific Integrated Circuit)として構成され、カメラ66A、66Bが出力する信号に対しハードウェア処理を実行する。
出力部67は、カメラ66A、66Bが撮像した画像に基づき、複数種類のデータを出力可能である。
出力部67は、複数の動作モードで動作することができ、サブ制御部150が出力部67を制御して動作モードの切り替えを実行させることができる。出力部67が出力するデータの種類は、出力部67の動作モードに対応する。
出力部67の動作モードは、画像出力モードと、デプスデータ出力モードとがある。画像出力モードでは、出力部67はカメラ66A、66Bの撮像画像データを出力する。画像出力モードでは、カメラ66A、66Bのいずれか一方の撮像画像データを出力する動作が可能であり、カメラ66A、66Bの両方の撮像画像から一つの撮像画像データを生成して出力する動作を行ってもよい。また、画像出力モードで、出力部67は3D画像データを出力してもよい。この場合、出力部67は、カメラ66Aの撮像画像データとカメラ66Bの撮像画像データとを、例えばサイドバイサイドの画像フォーマットで出力する。画像出力モードにおける出力部67の動作、及び、出力部67が出力する画像データの仕様は、サブ制御部150が適宜設定し、制御できる構成とすればよい。例えば、画像データの解像度、カラー(モノクロ2値、8bitグレースケール、24bitフルカラーなど)、フォーマット(JPEG、RAWなど)を設定可能な構成としてもよい。
出力部67は、デプスデータ出力モードで、カメラ66A、66Bの撮像画像からデプスデータを生成して出力する。デプスデータ(距離情報)は、距離検出対象範囲内の複数の位置ごとに、距離を示す距離データを含む。例えば、デプスデータは、距離検出対象範囲を撮像した撮像画像データと同様に、複数の領域(画素に相当)と、領域毎の距離データとを含む。距離検出対象範囲は、カメラ66Aの撮像範囲とカメラ66Bの撮像範囲とが重なる重複範囲の、少なくとも一部である。複数の領域は、距離検出対象範囲を、例えばマトリクス状に分割した領域である。領域の数は、カメラ66A、66Bの撮像の解像度或いは画素数に対応していてもよいし、より少数であってもよい。例えば、カメラ66A、66Bが撮像した撮像画像データが2560×1920ピクセルで得られ、カメラ66A、66Bの画角全体が距離検出対象範囲である場合、デプスデータは2560×1920の領域の距離データを含んでもよい。また、より少ない数の領域の距離データを含んでもよく、例えば、領域の数を、1280×960や640×480としてもよい。
また、距離データは、カメラ66A、66Bの撮像面を基準として、基準からの距離を示すデータであり、例えば8ビットのデジタルデータである。距離データはm(メートル)等のSI単位に準拠した絶対的な距離を示すデータであってもよいし、SI単位とは別の基準に基づく絶対的な距離のデータであってもよい。或いは、距離データは、距離検出対象範囲内における複数の位置の相対的な距離を示すデータであってもよい。本実施形態ではSI単位に準拠しない絶対的な距離を示す8ビットのデジタルデータとする。
この場合、デプスデータは、マトリクス状の1280×960或いは640×480等の領域のそれぞれに対応する8ビットのデータを含み、画像データと同様のファイル形式のデータとすることができる。
また、出力部67は、画像出力モードにおいては撮像画像データを周期的に出力することができ、所定のフレームレート(フレーム周波数)の動画像データを出力してもよい。また、出力部67は、デプスデータ出力モードで、デプスデータを周期的に出力できる。デプスデータは上記のように画像データと同様のファイル形式のデータとすることができるので、所定のフレームレートの動画像データとして出力しても良い。また、出力部67は、デプスデータと同じフレームレートで撮像画像データを出力してもよいし、異なるフレームレートで撮像画像データを出力してもよい。
本実施形態では、デプスデータ出力モードにおいて、出力部67は、640×480ドットの領域について、8ビットの距離データを有するデプスデータを、15fps(フレーム/秒)の周期で出力する。
出力部67は、サブ制御部150が設定する動作モードに対応するデータを、サブ制御部150に出力する。出力部67が出力するデータは、サブ制御部150が、必要に応じて制御部110に送信する。また、出力部67は、動作モードを設定するデータ等の制御データをサブ制御部150との間で送受信し、画像データやデプスデータを、接続部40を介して直接、制御部110に出力してもよい。
9軸センサー161は、3軸加速度センサー、3軸ジャイロセンサー、及び、3軸地磁気センサーを備えるICである。9軸センサー161は、サブ制御部150の制御により駆動され、内蔵する各センサーの検出値を示すデータを、サブ制御部150に出力する。照度センサー164は、上述したように環境光センサー(ALS)のIC、又は、環境光センサーを含む複数のセンサーやセンサーの周辺回路をユニット化したICである。照度センサー164は、サブ制御部150の制御により駆動され、光量の検出値をサブ制御部150に出力する。
GPS163は、GPS衛星や屋内に設置される疑似GPS送信機(図示略)が送信する位置検出用の信号を受信して、画像表示部20の現在位置を算出し、算出したデータをサブ制御部150に出力する。GPS163は、位置検出用の信号を受信する受信機としての機能のみ有する構成としてもよく、この場合、GPS163が出力するデータに基づきサブ制御部150が現在位置を算出する処理を行えば良い。
EEPROM165は、サブ制御部150が実行する処理に関するデータ等を不揮発的に記憶する。
サブ制御部150には、右LCD241を駆動して描画を行うLCD駆動部167、及び、左LCD242を駆動して描画を行うLCD駆動部168が接続される。サブ制御部150は、制御部110からコンテンツのデータを受信し、受信したデータに含まれるテキストや画像を表示する表示データを生成してLCD駆動部167、168に出力し、表示を実行させる。
また、サブ制御部150は、右バックライト221を駆動するバックライト駆動部169、及び、左バックライト222を駆動するバックライト駆動部170に接続される。サブ制御部150は、バックライト駆動部169、170に対し、PWM制御用のタイミングデータを含む制御データを出力する。バックライト駆動部169、170は、サブ制御部150から入力される制御データに基づき、右バックライト221、左バックライト222に駆動電圧とパルスを供給して、右バックライト221、左バックライト222を点灯させる。
また、サブ制御部150は、バックライト駆動部169に出力するデータにより、バックライト駆動部169が右バックライト221に出力するパルスのパルス幅、或いは、デューティーを指定する。デューティーは、パルスのオン期間とオフ期間の長さの比を指す。同様に、サブ制御部150は、バックライト駆動部170に出力するデータにより、バックライト駆動部170が左バックライト222に出力するパルスのパルス幅、或いは、デューティーを指定する。右バックライト221及び左バックライト222はLED等の個体光源であり、発光する明るさ、すなわち輝度をPWM制御により調整できる。従って、サブ制御部150の制御により、使用者の眼に入射する画像光L(図2)の光量を調整できる。
サブ制御部150はバックライト駆動部169とバックライト駆動部170のそれぞれに、異なるデータを出力し、右バックライト221の輝度と左バックライト222の輝度とを個別に調整できる。サブ制御部150は、バックライト駆動部169、170に対し、右バックライト221及び左バックライト222のそれぞれの輝度を指定するデータを出力する。バックライト駆動部169、170は、サブ制御部150から入力するデータで指定された輝度値に対応するパルスを生成して、右バックライト221と左バックライト222のそれぞれに出力する。
制御部110とサブ制御部150とを接続する接続部40は、制御データバス41A、画像データバス41B、表示データバス41C、41Dを含む複数のデータバスを有する。これらのデータバスは、互いに独立してデータを伝送可能であるが、各データバスを構成する信号線が物理的に区分された構成であってもよいし、各データバスが共通の信号線を用いて仮想的あるいは論理的に構成されてもよい。
制御データバス41Aは、制御部110からサブ制御部150に対して送信される制御データ、サブ制御部150が制御部110に送信するセンサーの検出値のデータ等を伝送する。画像データバス41Bは、サブ制御部150から制御部110に、デプスセンサーユニット66の撮像画像データやデプスデータを伝送する。表示データバス41Cは、右表示駆動部22で表示するデータを伝送し、表示データバス41Dは左表示駆動部24で表示するデータを伝送する。
画像表示部20が備える、デプスセンサーユニット66、9軸センサー161、GPS163、及び照度センサー164を含む複数のセンサーのサンプリング周期は、大きく異なることもある。例えば、9軸センサー161の加速度センサーのサンプリング周期(サンプリング頻度)は200回/秒以上となることが考えられる。これに対し、照度センサー164のサンプリング周期はより遅く、1〜10回/秒(1000〜100ms周期)程度でも十分に役立つことが考えられる。これらのセンサーは、サブ制御部150がサンプリング周期の設定を行い、設定したサンプリング周期に従ってサブ制御部150が検出値を取得する。サブ制御部150は、各センサーからサンプリングした検出値のデータを、制御データバス41Aにおいて時分割で制御部110に送信する。
このため、サンプリング周期の遅い(サンプリング頻度が低い、或いは、サンプリング間隔が長いと言い換えられる)センサーを制御するために制御データバス41Aが長時間占有されることがない。これにより、制御データバス41Aのオーバーヘッドを低減し、制御データバス41Aで多数のセンサーの検出値を効率よく伝送できる。また、サブ制御部150は、RAM(図示略)を内蔵し、センサーの検出値を取得した場合はRAMに一時的に記憶する。サブ制御部150は、RAMに記憶したデータの送信タイミングを調整して、データを制御データバス41Aに送出する。従って、サブ制御部150の動作も、各センサーのサンプリング周期の制約を受けにくく、センサーの制御のためにサブ制御部150の処理が占有される事態を防止できる。
図4は、頭部装着型表示装置100が表示する画像の表示例を示す図である。図4(A)は頭部装着型表示装置100を装着した使用者の視野VRを示し、図4(B)はデプスデータに基づくマスク処理の例を示す。図4(C)は使用者の視野VRの別の例を示し、図4(D)はデプスデータに基づくマスク処理の別の例を示す。
頭部装着型表示装置100は、出力部67が出力するデプスデータに基づき、右光学像表示部26、左光学像表示部28(図1)を透過して視認される外景の視認性を変化させる、マスク処理を行う。マスク処理では、外景として見える物体や景色に重なる位置における表示色や表示の輝度を調整する。これにより、外景として見える物体や景色の一部の視認性を低下させることができ、結果的に他の部分の視認性を高めることができる。
図4(A)の視野VRには建物が外景OLPとして見えている。頭部装着型表示装置100が、画像表示部20から所定距離以内の外景が視認されるように、マスク処理を行う例を図4(B)に示す。図4(B)では、画像表示部20からの距離が、所定距離を超える部分の視認性が低くなるように、マスク表示Mが表示される。マスク表示Mは、右LCD241、左LCD242の特定の画素に、外景の視認性を低くする表示色(階調)で表示される。
マスク表示Mを表示する画素は、出力部67が出力するデプスデータにより決定されるが、マスク表示Mを表示する画素は視野VRに見える外景OLPに対応する必要がある。従って、頭部装着型表示装置100は、カメラ66A、66Bの撮像画像データにおける位置(座標)と、使用者の視野VRとの位置を対応付ける位置対応データを利用する。この位置対応データは、フラッシュメモリー122またはEEPROM165に記憶される。位置対応データは、使用者が頭部装着型表示装置100を装着した後でキャリブレーションを実行し、このキャリブレーションの結果に基づき生成されてもよい。
なお、出力部67が2つのカメラ66A、66Bの撮像結果に基づくデプスデータを出力する場合は、このデプスデータを位置対応データにより画像表示部20の表示画素に対応付けることが可能である。
このほか、デプスセンサーユニット66のようなユニット化がされていない、2つのデジタルカメラがそれぞれ撮像画像データを出力する構成とすることもできる。この場合、2つのデジタルカメラが個別に出力する撮像画像データを、サブ制御部150または制御部110が取得し、デプスデータ、及び、このデプスデータと画像表示部20の表示画素との対応付けを行ってもよい。例えば、制御部110またはサブ制御部150が、デプスデータを求めるための演算式、或いはLUT(Look Up Table)を用いて、2つのデジタルカメラの撮像画像データからデプスデータを生成してもよい。また、例えば、制御部110またはサブ制御部150が、デプス予め頭部装着型表示装置100が記憶するLUTを参照して、デプスデータと、画像表示部20の表示画素とを対応付けてもよい。
頭部装着型表示装置100は、右LCD241における位置(座標)及び左LCD242における位置(座標)と、使用者の視野VRとの位置を対応付ける表示位置対応データを有していてもよい。また、頭部装着型表示装置100は、カメラ66A、66Bの撮像画像データにおける位置(座標)と、右LCD241における位置(座標)及び左LCD242における位置(座標)とを対応付ける撮像位置対応データを有してもよい。これら表示位置対応データ及び撮像位置対応データは、例えば、頭部装着型表示装置100のハードウェア構成に基づき生成され、フラッシュメモリー122に記憶されてもよいし、キャリブレーションにより生成されてもよい。そして、制御部110は、表示位置対応データ及び撮像位置対応データから、上記の位置対応データを求めてもよい。また、制御部110は、その他のデータを用いた演算処理により、位置対応データを算出してもよい。
制御部110は、出力部67が出力するデプスデータにより、カメラ66A、66Bの撮像範囲における位置ごとの距離を特定できる。そして、所定距離以内の位置を特定し、この位置に対応する右LCD241、左LCD242の画素に、マスク表示Mを表示する。この処理により、図4(B)に示すように、使用者は、視野VRで、使用者に近い外景のみを視認する。図4(B)の例とは反対に、使用者から近い位置の外景OLPの視認性をマスク表示Mで低下させてもよい。また、使用者からの距離が設定された範囲の外となる外景OLPの視認性をマスク表示Mで低下させてもよい。
図4(C)及び(D)は、頭部装着型表示装置100が、出力部67が出力するデプスデータにより距離の変化を検出した場合のマスク処理を示す。
図4(C)の例では、制御部110が、出力部67が異なるタイミングで出力するデプスデータを複数取得し、外景OLPの視認性として視野VRに見える範囲で距離の変化を検出する。例えば、制御部110は、出力部67から取得したデプスデータを、取得順にメモリー121に記憶して、デプスデータのドット毎の距離データを比較することで、距離の変化を検出できる。
制御部110は、距離の変化を検出した範囲(図4(C)のオブジェクトOBに相当)を特定し、図4(D)に示すように、特定した範囲を除く部分にマスク表示Mを行う。この例では、視野VRに見える外景OLPにおいて距離の変化があるオブジェクトOBを除く範囲がマスク表示Mで覆われて、視認性が低下する。これにより、オブジェクトOBが際だって見える。
図4(B)、(D)に示すようにマスク表示Mを行うことで、使用者に、視野VRの特定の部分を注視させることができ、注意喚起や、不要な情報の遮断を行うことができる。なお、図4(B)、(D)にはマスク表示Mにより視認性が著しく低下する例を示したが、マスク表示Mの態様は、このような例に限定されない。例えば、視認性を少し低下させるために、マスク表示Mをする画素において右LCD241、左LCD242の輝度を、他の画素より1段階、或いは複数段階高めることで、マスク表示Mとしてもよい。また、マスク表示Mする画素において、マスク表示Mに割り当てられる特定の色を表示してもよい。マスク表示Mに割り当てられる色は有彩色であってもよいし、黒、白或いはグレーを含む無彩色であってもよい。
さらに、マスク表示Mをする画素を含む複数の画素からなる領域において、表示を消すドット抜きを行う方法、この領域を単一色で塗りつぶすように表示する方法が挙げられる。或いは、画像データ処理により表示する画像をぼかす方法、表示する画像に対しシャープネス処理をする方法、エッジ強調処理をする方法、画像データの階調を調整する方法等が挙げられる。
図5は、頭部装着型表示装置100の動作を示すフローチャートである。図5にはマスク処理の例を示す。
制御部110は、制御装置10に対する操作等に従って、マスク処理を開始し(ステップS11)、出力部67に制御データを送信して、デプスセンサーユニット66の動作モードを設定する(ステップS12)。ステップS12で、制御部110は、出力部67がデプスデータを出力するデプスデータ出力モードを設定する。
制御部110は、出力部67が出力するデプスデータを取得し(ステップS13)、取得したデプスデータが含むドット毎の距離データを、より粗い段階に区分する(ステップS14)。本実施形態では出力部67は8ビットの距離データを含むデプスデータを出力する。これに対し、制御部110は、マスク処理で距離を2段階、或いはより多い段階に区分する。そこで、制御部110は、デプスデータが含む距離データを、予めメモリー121またはフラッシュメモリー122に記憶されたしきい値と比較することで、2段階、或いはより多い段階に区分する。
制御部110は、ステップS14で区分した距離データの段階ごとの表示形態を設定する設定データを、フラッシュメモリー122から取得する(ステップS15)。本実施形態では図4(B)に示したように、距離データが所定距離より大きい領域にマスク表示Mを表示する。
次いで、制御部110は、デプスデータに含まれるドットと、右LCD241及び左LCD242の画素との対応を、例えば上記位置対応データに基づき特定する(ステップS16)。
制御部110は、ステップS14における区分の結果と、ステップS15で決定した表示態様と、ステップS16で求めた表示画素の対応関係とに基づき、右LCD241及び左LCD242の画素毎の表示態様を決定する(ステップS17)。例えば、図4(B)においてマスク表示Mを表示する画素を決定し、この画素における表示色、或いは階調を決定する。
制御部110は、サブ制御部150を介してLCD駆動部167、168に表示データを送信することで、右LCD241、及び左LCD242における表示を更新させる(ステップS18)。
制御部110は、マスク処理を終了するか否かを判定し(ステップS19)、マスク処理を終了しない場合は(ステップS19;NO)、ステップS13に戻る。また、制御装置10の操作によりマスク処理の終了が指示された場合や、制御装置10の電源スイッチ18により頭部装着型表示装置100がオフにされた場合、制御部110はマスク処理を終了する(ステップS19;YES)。
図6は、頭部装着型表示装置100の動作を示すフローチャートである。図6には、距離の変化に基づくマスク処理の例を示す。
制御部110は、制御装置10に対する操作等に従って、マスク処理を開始し(ステップS31)、出力部67に制御データを送信して、デプスセンサーユニット66の動作モードを、デプスデータ出力モードに設定する(ステップS32)。
制御部110は、出力部67が出力するデプスデータを取得して、メモリー121に一時的に記憶する(ステップS33)。制御部110は、既に出力部67から取得してメモリー121に記憶した古いデプスデータと、新しく出力部67から取得したデプスデータとを比較し(ステップS34)、デプスデータのドット毎に距離データの変化量を算出する(ステップS35)。制御部110は、距離データの変化量が、予め設定されたしきい値以上となったドットを特定する(ステップS36)。
次いで、制御部110は、デプスデータに含まれるドットと、右LCD241及び左LCD242の画素との対応を、例えば上記位置対応データに基づき特定する(ステップS37)。制御部110は、ステップS36で特定した、距離データの変化量がしきい値以上となったドットと、右LCD241及び左LCD242における画素との対応を特定する(ステップS38)。
制御部110は、ステップS38で特定した画素の表示態様を決定する(ステップS39)。例えば、図4(D)においてマスク表示Mを表示する画素を決定し、この画素における表示色、或いは階調を決定する。制御部110は、サブ制御部150を介してLCD駆動部167、168に表示データを送信することで、右LCD241、及び左LCD242における表示を更新させる(ステップS40)。
制御部110は、マスク処理を終了するか否かを判定し(ステップS41)、マスク処理を終了しない場合は(ステップS41;NO)、ステップS13に戻る。また、制御装置10の操作によりマスク処理の終了が指示された場合や、制御装置10の電源スイッチ18により頭部装着型表示装置100がオフにされた場合、制御部110はマスク処理を終了する(ステップS41;YES)。
図4及び図5においては制御部110がマスク処理を実行する例を説明したが、サブ制御部150が、マスク処理を行ってもよい。すなわち、制御部110がサブ制御部150に対し、マスク処理の実行を指示するコマンド、或いは制御データを送信し、サブ制御部150が、図4及び図5に示す処理を制御してもよい。また、図4及び図5に示す動作の一部の処理を制御部110が行い、他の処理をサブ制御部150が行ってもよい。
サブ制御部150は、デプスセンサーユニット66、9軸センサー161、GPS163、及び、照度センサー164等のセンサーを制御して検出値を取得し、制御部110に送信する。このため、制御部110が各センサーを制御する場合に比べて、制御部110の処理負荷、制御部110の処理の占有時間を大幅に軽減できる。また、制御部110に各センサーを接続した場合、サンプリング周期が異なるセンサーの検出値を同じ信号線で伝送することは困難であるから、接続部40に設ける信号線の数がセンサーの数に対応して多くなる。このため、接続部40のハーネスが太くなり取り回しが低下する、センサーの数が制限される等の好ましくない事態が懸念される。本実施形態のように、サブ制御部150が各センサーの検出値を取得し、制御データバス41Aを介した送信タイミングの調整を行い、複数のセンサーの検出値を送信することで、上記の事態を全て防止でき、効率のよい処理を実現できる。例えば、サブ制御部150は、サンプリング周期が短いセンサーの検出値を送信する動作を、予め設定したタイミングで優先的に行い、この動作の空き時間に、サンプリング周期の長いセンサーの検出値を送信してもよい。
以上説明したように、本発明を適用した実施形態の頭部装着型表示装置100は、外景を透過し、外景とともに視認できるように画像を表示する画像表示部20を有する。制御部110は、画像表示部20を透過して視認可能な方向に関するデプスデータを取得し、取得したデプスデータに基づいて画像表示部20を制御する。これにより、制御部110は、画像表示部20を透過して視認される外景の視認性を変化させる。このため、頭部装着型表示装置100を装着する使用者が、画像表示部20を透過する外景の見え方をもとに、距離に関する情報を得ることができる。従って、使用者に対して距離に関する情報を効率よく提供できる。また、デプスデータに基づいて画像表示部20の制御を行うので、例えば使用者の操作の回数を減らすことができ、利便性の向上を図ることができる。
また、画像表示部20は複数の表示領域で構成される表示範囲に画像を表示し、デプスデータは、表示範囲の表示領域のそれぞれに対応する距離データを含む。制御部110は、デプスデータと表示領域との対応付けに基づき、それぞれの表示領域の表示態様を制御することにより、外景の視認性を変化させる。このため、右LCD241、左LCD242の表示領域を構成する画素を単位として、外景の視認性を変化させることで、距離に関する情報を提供できる。また、距離を基準として外景の視認性を部分的に変更できる。
また、制御部110は、複数の撮像部であるカメラ66A、66Bの撮像画像に基づくデプスデータを取得し、取得したデプスデータと画像表示部20の表示画素との対応付けを行う。このため、デプスデータと表示する画素との対応付けを速やかに行うことができ、マスク処理等を容易に、速やかに実行できる。また、マスク処理の精度の向上を図ることもできる。
また、画像表示部20を透過して視認可能な方向に位置する対象物体までの距離を検出してデプスデータを出力するデプスセンサーユニット66を備え、制御部110はデプスセンサーユニット66が出力するデプスデータを取得する。このため、外景として見える物体までの距離を検出して、この距離に対応して外景の視認性を変化させることができる。
また、デプスセンサーユニット66は、複数のカメラ66A、66Bと、カメラ66A、66Bの撮像画像データをもとにデプスデータを生成して出力する出力部67とを備えるので、撮像画像を利用してデプスデータを速やかに生成できる。
ここで、制御部110は、画像表示部20において、距離情報を取得した方向に対応する位置の表示の輝度を変更することにより、外景の視認性を容易に変更できる。
また、制御部110は、画像表示部20を透過して視認可能な外景の一部の視認性を他の部分より低くするマスク処理を行い、デプスデータに基づき外景の一部の視認性を低下させる。また、制御部110は、デプスデータに基づき、外景において予め設定された距離に該当する部分の視認性を変化させてもよい。また、制御部110は、外景においてデプスデータで特定される距離が変化した部分の視認性を変化させてもよい。制御部110は、例えば、マスク処理において画像表示部20の表示領域で表示色または表示階調を変更し、外景の視認性を容易に、きめ細かく調整できる。
頭部装着型表示装置100は、使用者の頭部に装着される頭部装着型のフレーム2を有し、このフレーム2に画像表示部20を設け、デプスデータに基づき、外景の視認性を変化させ、使用者に対して距離に関する情報を効率よく提供できる。
また、制御部110は、画像表示部20を透過して視認可能な方向に関するデプスデータと、表示範囲に含まれる複数の表示領域とデプスデータとを対応付ける対応情報と、を取得し、対応情報に基づいて、デプスデータに対応する表示色を表示領域に表示させる。制御部110は、画像表示部20における表示領域の表示色を、デプスデータに対応させて制御することにより、表示を見る使用者に対し、距離に関する情報を効率よく提供できる。この色は、上記のように有彩色であっても無彩色であってもよい。
また、本実施形態では、フレーム2にデプスセンサーユニット66のカメラ66A、66Bが固定的に設けられる構成を例に挙げて説明したが、カメラ66A、66Bが変位可能な構成であってもよい。この例を変形例として示す。
[変形例]
図7は、本実施形態の変形例としての頭部装着型表示装置100Bの外観構成を示す図である。
変形例における頭部装着型表示装置100Bは、上記実施形態の制御装置10に、画像表示部20Bを接続した構成を有する。なお、画像表示部20Bにおいて、画像表示部20と同様に構成される各部には、同じ符号を付して説明を省略する。
画像表示部20Bは、画像表示部20(図1)と同様、制御装置10に接続部40を介して接続する。画像表示部20Bと制御装置10とは、接続部40を介して各種信号を伝送する。
画像表示部20Bは、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレーム6(本体)を有する。フレーム6は、使用者の右眼の前に位置する右部6A、及び、左眼の前に位置する左部6Bを有し、右部6Aと左部6Bとがブリッジ部6C(連結部)で連結された形状である。ブリッジ部6Cは、使用者が画像表示部20Bを装着した際の使用者の眉間に対応する位置で、右部6Aと左部6Bとを互いに連結する。
右部6A及び左部6Bは、それぞれテンプル部6D、6Eに連結される。テンプル部6D、6Eは眼鏡のテンプルのようにして、フレーム6を使用者の頭部に支持する。右光学像表示部26は右部6Aに配置され、左光学像表示部28は左部6Bに配置される、それぞれ、使用者が画像表示部20Bを装着した際に使用者の右及び左の眼前に位置する。
テンプル部6Dは、右光学像表示部26の他端である端部ERから、使用者が画像表示部20Bを装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられる。同様に、テンプル部6Eは、左光学像表示部28の他端である端部ELから、使用者が画像表示部20Bを装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられる。テンプル部6Dは使用者の頭部において右耳またはその近傍に当接し、テンプル部6Eは使用者の左耳またはその近傍に当接して、使用者の頭部に画像表示部20Bを保持する。
フレーム6には、カメラユニット3が設けられる。カメラユニット3は、デプスセンサーユニット66が配置されるカメラ台座部3Cと、カメラ台座部3Cを支持するアーム部3A、3Bとを有する。アーム部3Aは、テンプル部6Dの先端部APに設けられたヒンジ60Aにより、回動可能にテンプル部6Dに連結される。アーム部3Bは、テンプル部6Eの先端部APに設けられたヒンジ60Bにより、回動可能にテンプル部6Eに連結される。このため、カメラユニット3は全体として、図中矢印Kで示す方向、すなわち装着状態において上下に回動可能である。カメラユニット3は、回動範囲の下端でフレーム6に接する。また、カメラユニット3の回動範囲の上端はヒンジ60A、60Bの仕様等で決定される。
カメラ台座部3Cは、右部6A、左部6B及びブリッジ部6Cの上部に跨がって位置する板状または棒状部材であり、ブリッジ部6Cの上に相当する位置に、デプスセンサーユニット66が埋込設置される。カメラ台座部3Cにはカメラ基板65が埋設設置され、このカメラ基板65に実装されたカメラ66A、66Bが、カメラ台座部3Cにおいて露出する。
このように、カメラユニット3がフレーム6に対し変位可能に設けられた構成において、カメラユニット3にデプスセンサーユニット66を搭載した構成においても、本発明を適用できる。図7の構成では、カメラユニット3がフレーム6に対して移動可能である。このため、カメラ66A、66Bと画像表示部20との相対位置が変化し、カメラ66A、66Bの撮像画像データにおける位置(座標)と、使用者の視野VRとの位置の対応が変化する。また、カメラ66A、66Bの撮像画像データにおける位置(座標)と、右LCD241における位置(座標)及び左LCD242における位置(座標)との対応が変化する。従って、制御部110は、フレーム6に対するカメラユニット3の相対位置に対応して、カメラ66A、66Bの撮像画像データにおける位置(座標)と、使用者の視野VRにおける位置とを対応付ける処理を行う。例えば、制御部110は、フレーム6に対するカメラユニット3の位置が変化した場合に、キャリブレーションを行ってもよい。また、フレーム6に対するカメラユニット3の位置変化について、位置変化の方向と変化量とを検出してもよい。例えば、ヒンジ60A、60Bにおける回動量を検出するセンサーを利用できる。この場合、制御部110は、検出した変位の方向と変化量に基づき、カメラ66A、66Bの撮像画像データにおける位置(座標)と、使用者の視野VRにおける位置との対応付けをするデータを補正すればよい。
また、図7に示した構成とは別に、デプスセンサーユニット66が、使用者の頭部に固定的に装着される本体に固定され、右光学像表示部26、左光学像表示部28を含む表示部が、本体に対し可動であってもよい。この場合も、上述したように、カメラ66A、66Bの撮像画像データにおける位置(座標)と、使用者の視野VRにおける位置とを対応付ける処理を行うことで、マスク表示Mを適正な位置に表示することができる。
なお、この発明は上記実施形態及び変形例の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
また、例えば、画像表示部20、20Bに代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。或いは、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
また、例えば、画像表示部20、20Bにおいて画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、図3に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図3に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、図3に示した各機能部は、マイクロプロセッサーとICで構成する例に制限されず、より大規模の集積回路に複数の機能部を実装する構成としてもよいし、SoC(System-on-a-chip)等の形態としても良い。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。
2、6…フレーム、10…制御装置、20、20B…画像表示部(表示部)、22…右表示駆動部、24…左表示駆動部、40…接続部、41A…制御データバス、41B…画像データバス、41C、41D…表示データバス、63…マイク、65…カメラ基板、66…デプスセンサーユニット(距離検出部)、66A、66B…カメラ(撮像部)、67…出力部(デプスデータ生成部)、100、100B…頭部装着型表示装置(表示装置)、110…制御部(第2制御部)、121…メモリー、122…フラッシュメモリー、150…サブ制御部、155…I/F部、161…9軸センサー、163…GPS、164…照度センサー、165…EEPROM、167、168…LCD駆動部、169、170…バックライト駆動部、221…右バックライト、222…左バックライト、241…右液晶ディスプレイ、242…左液晶ディスプレイ、251…右投写光学系、252…左投写光学系。

Claims (9)

  1. 外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、
    前記表示部を透過して視認可能な方向に位置する対象物体までの距離を検出して、前記対象物体までの距離に関する距離情報を出力する距離検出部と、
    前記距離情報を記憶するメモリーと、
    前記距離検出部から前記距離情報を取得し、取得した前記距離情報に基づいて、前記表示部を透過して視認される外景の視認性が変化するように前記表示部を制御する制御部と、
    を備え、
    前記距離情報は、距離検出対象範囲内の複数の領域毎に距離を示す距離データを含み、
    前記表示部は、複数の表示領域で構成される表示範囲に画像を表示し、
    前記制御部は、前記距離検出部が出力して前記メモリーに記憶し記距離情報と新しく前記距離検出部が出力した前記距離情報とを比較して、前記距離情報の領域毎に距離データの変化量を算出し、距離データの変化量がしきい値以上となった領域に対応する前記表示部の表示領域を特定し、特定した表示領域における前記外景の視認性を変化させる制御をすることを特徴とする表示装置。
  2. 前記表示部の表示範囲は前記表示領域としての複数の表示画素を有し、
    前記距離情報は、複数の画素を有し、画素毎に所定ビット数の距離データを含み、前記表示部の表示画素に予め対応付けられること、
    を特徴とする請求項1載の表示装置。
  3. 前記距離検出部は、複数の撮像部と、複数の前記撮像部の撮像画像データをもとに前記距離情報を生成して出力する距離情報生成部とを備えること、
    を特徴とする請求項1または2に記載の表示装置。
  4. 前記制御部は、前記表示部の表示の輝度を変更することにより、前記外景の視認性を低下させること、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  5. 前記制御部は、前記表示部を透過して視認可能な前記外景の一部の視認性を他の部分より低くするマスク処理を行うこと、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  6. 前記制御部は、前記マスク処理において前記表示部の表示領域で表示色または表示階調を変更すること、
    を特徴とする請求項記載の表示装置。
  7. 使用者の頭部に装着される頭部装着型の本体を有し、前記本体に前記表示部を設けたこと、
    を特徴とする請求項1からのいずれかに記載の表示装置。
  8. 外景を透過し、前記外景とともに視認できるように表示範囲に画像を表示する表示部と、
    前記表示部を透過して視認可能な方向に位置する対象物体までの距離を検出して、前記対象物体までの距離に関する距離情報を出力する距離検出部と、
    前記距離情報を記憶するメモリーと、
    前記距離検出部から前記距離情報を取得し、取得した前記距離情報に基づいて、前記表示部を透過して視認される外景の視認性が変化するように前記表示部の表示を制御する制御部と、を備え、
    前記距離情報は、距離検出対象範囲内の複数の領域毎に距離を示す距離データを含み、
    前記表示部は、複数の表示領域で構成される表示範囲に画像を表示し、
    前記制御部は、前記距離検出部が出力して前記メモリーに記憶し記距離情報と新しく前記距離検出部が出力した前記距離情報とを比較して、前記距離情報の領域毎に距離データの変化量を算出し、距離データの変化量がしきい値以上となった領域に対応する前記表示部の表示領域を特定し、特定した表示領域における前記外景の視認性を変化させる制御をすること、
    を特徴とする表示装置。
  9. 外景を透過し、前記外景とともに視認できるように、複数の表示領域で構成される表示範囲に画像を表示する表示部と、前記表示部を透過して視認可能な方向に位置する対象物体までの距離を検出して、前記対象物体までの距離に関する距離情報を出力する距離検出部と、前記距離情報を記憶するメモリーと、を備える表示装置を制御して、
    前記距離検出部から、距離検出対象範囲内の複数の領域毎に距離を示す距離データを含む前記距離情報を取得し、取得した前記距離情報に基づいて、前記表示部を透過して視認される外景の視認性が変化するように前記表示部を制御し、
    前記表示部の制御において、前記距離検出部が出力して前記メモリーに記憶し記距離情報と新しく前記距離検出部が出力した前記距離情報とを比較して、前記距離情報の領域毎に距離データの変化量を算出し、距離データの変化量がしきい値以上となった領域に対応する前記表示部の表示領域を特定し、特定した表示領域における前記外景の視認性を変化させる制御をすること、
    を特徴とする表示装置の制御方法。
JP2014261553A 2014-12-25 2014-12-25 表示装置、及び、表示装置の制御方法 Active JP6609920B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014261553A JP6609920B2 (ja) 2014-12-25 2014-12-25 表示装置、及び、表示装置の制御方法
US14/963,899 US9784975B2 (en) 2014-12-25 2015-12-09 Display device and control method for display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014261553A JP6609920B2 (ja) 2014-12-25 2014-12-25 表示装置、及び、表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2016122085A JP2016122085A (ja) 2016-07-07
JP6609920B2 true JP6609920B2 (ja) 2019-11-27

Family

ID=56164812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014261553A Active JP6609920B2 (ja) 2014-12-25 2014-12-25 表示装置、及び、表示装置の制御方法

Country Status (2)

Country Link
US (1) US9784975B2 (ja)
JP (1) JP6609920B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6492638B2 (ja) * 2014-12-25 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US11422764B1 (en) 2018-06-03 2022-08-23 Epic Optix, Inc. Multi-platform integrated display

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09326025A (ja) * 1996-06-06 1997-12-16 Casio Comput Co Ltd 画像処理装置
JP4348028B2 (ja) * 2001-06-12 2009-10-21 株式会社リコー 画像処理方法、画像処理装置、撮像装置及びコンピュータプログラム
JP2006012042A (ja) 2004-06-29 2006-01-12 Canon Inc 画像生成方法及び装置
JP2010056661A (ja) * 2008-08-26 2010-03-11 Olympus Corp 頭部装着型映像取得表示装置
JP5691568B2 (ja) * 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
JP5694060B2 (ja) * 2011-06-06 2015-04-01 シャープ株式会社 画像処理装置、画像処理方法、プログラム、撮像装置及びテレビジョン受像機
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
JP2013235080A (ja) * 2012-05-08 2013-11-21 Sony Corp 画像表示装置、画像表示プログラム及び画像表示方法
JP5351311B1 (ja) * 2012-06-29 2013-11-27 株式会社ソニー・コンピュータエンタテインメント 立体映像観察デバイスおよび透過率制御方法
JP6089705B2 (ja) * 2013-01-07 2017-03-08 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
WO2014112635A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置
JP2014225736A (ja) * 2013-05-15 2014-12-04 船井電機株式会社 画像処理装置
US9360672B2 (en) * 2013-07-11 2016-06-07 Seiko Epson Corporation Head mounted display device and control method for head mounted display device
TW201502581A (zh) * 2013-07-11 2015-01-16 Seiko Epson Corp 頭部配戴型顯示裝置及頭部配戴型顯示裝置之控制方法
JP6217244B2 (ja) * 2013-08-29 2017-10-25 セイコーエプソン株式会社 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム
JP6237000B2 (ja) * 2013-08-29 2017-11-29 セイコーエプソン株式会社 頭部装着型表示装置
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program

Also Published As

Publication number Publication date
JP2016122085A (ja) 2016-07-07
US9784975B2 (en) 2017-10-10
US20160189364A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
JP6089705B2 (ja) 表示装置、および、表示装置の制御方法
US9613592B2 (en) Head mounted display device and control method for head mounted display device
JP6364715B2 (ja) 透過型表示装置および透過型表示装置の制御方法
US9792710B2 (en) Display device, and method of controlling display device
US10101586B2 (en) Display device and control method for display device
KR101791494B1 (ko) 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
US20160035136A1 (en) Display apparatus, method for controlling display apparatus, and program
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
US9904053B2 (en) Display device, and method of controlling display device
JP6405991B2 (ja) 電子機器、表示装置、及び、電子機器の制御方法
JP6464729B2 (ja) 表示装置、及び、表示装置の制御方法
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US9846305B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10121409B2 (en) Display device, method of controlling display device, and program
JP2009251154A (ja) 頭部装着式映像表示装置
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2016142887A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6561606B2 (ja) 表示装置、及び、表示装置の制御方法
JP6609920B2 (ja) 表示装置、及び、表示装置の制御方法
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP6540004B2 (ja) 表示装置、及び、表示装置の制御方法
JP2016034091A (ja) 表示装置、表示装置の制御方法、および、プログラム
KR20150084603A (ko) 눈 근접 디스플레이 및 이를 구비하는 웨어러블 디바이스
JP6268704B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2014127968A (ja) 表示装置、および、表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6609920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150