JP6903998B2 - ヘッドマウントディスプレイ - Google Patents
ヘッドマウントディスプレイ Download PDFInfo
- Publication number
- JP6903998B2 JP6903998B2 JP2017064544A JP2017064544A JP6903998B2 JP 6903998 B2 JP6903998 B2 JP 6903998B2 JP 2017064544 A JP2017064544 A JP 2017064544A JP 2017064544 A JP2017064544 A JP 2017064544A JP 6903998 B2 JP6903998 B2 JP 6903998B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- spectroscopic
- information
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003595 spectral effect Effects 0.000 claims description 90
- 238000001514 detection method Methods 0.000 claims description 55
- 238000003384 imaging method Methods 0.000 claims description 37
- 210000001747 pupil Anatomy 0.000 claims description 32
- 238000005259 measurement Methods 0.000 claims description 28
- 238000006073 displacement reaction Methods 0.000 claims description 25
- 210000003128 head Anatomy 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 13
- 238000003702 image correction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 4
- 238000004611 spectroscopical analysis Methods 0.000 claims 1
- 230000003287 optical effect Effects 0.000 description 38
- 210000001508 eye Anatomy 0.000 description 22
- 238000000034 method Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 5
- 239000000126 substance Substances 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 210000004087 cornea Anatomy 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000002835 absorbance Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- BJQHLKABXJIVAM-UHFFFAOYSA-N bis(2-ethylhexyl) phthalate Chemical compound CCCCC(CC)COC(=O)C1=CC=CC=C1C(=O)OCC(CC)CCCC BJQHLKABXJIVAM-UHFFFAOYSA-N 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241000219094 Vitaceae Species 0.000 description 1
- 241000219095 Vitis Species 0.000 description 1
- 235000009754 Vitis X bourquina Nutrition 0.000 description 1
- 235000012333 Vitis X labruscana Nutrition 0.000 description 1
- 235000014787 Vitis vinifera Nutrition 0.000 description 1
- 238000000862 absorption spectrum Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 235000021021 grapes Nutrition 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 150000002632 lipids Chemical class 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0205—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
- G01J3/0248—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using a sighting port, e.g. camera or human eye
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0264—Electrical interface; User interface
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0272—Handheld
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0289—Field-of-view determination; Aiming or pointing of a spectrometer; Adjusting alignment; Encoding angular position; Size of measurement area; Position tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/12—Generating the spectrum; Monochromators
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/12—Generating the spectrum; Monochromators
- G01J3/26—Generating the spectrum; Monochromators using multiple reflection, e.g. Fabry-Perot interferometer, variable interference filters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/30—Measuring the intensity of spectral lines directly on the spectrum itself
- G01J3/32—Investigating bands of a spectrum in sequence by a single detector
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
ば、特許文献1参照)。
特許文献1のヘッドマウントディスプレイは、ユーザーの視界上(眼鏡レンズの配置位
置)に、視界方向の景色の外界光と、表示する画像の映像光とを重ねて表示させる。
具体的には、このヘッドマウントディスプレイは、視界方向の景色を撮像する物質セン
サーを有し、当該物質センサーは、例えばエタロン等により構成される波長可変干渉フィ
ルターにより入射光を分光して、分光した光の受光量を検出する。そして、ヘッドマウン
トディスプレイは、物質センサーにより得られた各分光波長の受光量に基づいて分析され
た各種情報を表示部に表示させて、拡張現実表示(AR:Augmented Reality)を行う。
な表示部全体に、物質センサーにより取得された分光情報や分光情報に基づく各種情報を
表示させる。
しかしながら、この場合、分光情報の解析や表示に伴う各種処理の処理負荷が係る。ま
た、ユーザーの作業目標のみならず、当該作業目標の周囲の対象に対する各種情報も表示
されることがあり、作業目標に対する各種情報が見にくくなる。このため、ユーザーの作
業対象に対する各種情報を、迅速かつ適切にAR表示可能なヘッドマウントディスプレイ
が望まれている。
ッドマウントディスプレイを提供することを目的とする。
ヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイを装着した状態
において前記ユーザーの瞳位置を検出する瞳検出部と、前記瞳位置に基づいて、前記ユー
ザーの視線方向を特定する視線特定部と、前記ヘッドマウントディスプレイを装着した状
態における前記ユーザーの視界内の景色のうち、少なくとも前記視線方向の一部の分光測
定情報を取得する分光測定部と、前記分光測定情報に基づいて、前記視線方向に含まれる
第一対象物に関する対象物情報を取得する対象物情報取得部と、前記景色の前記第一対象
物に対する位置に前記対象物情報を表示する表示部と、を備えることを特徴とする。
を検出して、視線特定部により、ユーザーの瞳位置に基づいた視線方向を特定する。また
、ヘッドマウントディスプレイは、分光測定部により、ユーザーの視界のうちの、視線方
向を含む一部の範囲の外界光を分光して分光測定情報を取得する。そして、対象物情報取
得部は、得られた分光測定情報から視線方向にある第一対象物に関する対象物情報を取得
し、表示部は、ユーザーの視界方向からの外界光の景色のうち、視線方向に位置する第一
対象物に対して対象物情報を重ね合せて表示させる。つまり、本適用例では、ユーザーの
視界のうち、ユーザーの視線方向にある第一対象物(ユーザーの作業対象)の対象物情報
をAR表示させ、その周囲の対象物に関してはAR表示させない。
この場合、AR表示させる対象物が第一対象物であり、対象物情報取得部は、分光測定
情報から第一対象物の分光測定情報を解析して対象物情報を取得すればよい。よって、そ
の周囲に配置される対象物の対象物情報を取得する必要がなく、処理負荷を軽減でき、迅
速なAR表示処理を行うことができる。
また、表示部は、ユーザーの視界の内の視線方向にある第一対象物に対してAR表示を
行うので、作業対象である第一対象物に関する対象物情報が見やすく、適切にユーザーに
対象物情報を確認させることが可能となる。
以上により、本適用例では、ユーザーの作業対象に対する各種情報を、迅速かつ適切に
AR表示させることが可能となる。
中心とした所定範囲の分光測定情報を取得し、前記対象物情報取得部は、前記所定範囲に
含まれる対象物に関する前記対象物情報を取得し、前記表示部は、前記第一対象物に対す
る位置に前記対象物情報を表示した後、時間経過に応じて、前記所定範囲に含まれる前記
対象物の前記対象物情報を表示することが好ましい。
本適用例では、対象物情報取得部は、視線方向を中心とした所定範囲の対象物情報を取
得する。そして、表示部は、最初に視線方向にある第一対象物に関する対象物情報を表示
させ、その後、時間経過に応じて、第一対象物の周囲にある他の前記所定範囲の他の対象
物に関する対象物情報を表示させる。
これにより、ユーザーは、第一対象物(作業対象)の周囲の他の対象物に対する対象物
情報も確認することができ、ユーザーの作業効率をさらに向上させることができる。また
、ユーザーの視線方向と作業対象とがずれていた場合でも、時間経過とともに、作業対象
に関する対象物情報が表示されることになり、ユーザーが必要とする作業対象に対する対
象物情報を適切に表示させることができる。
、分光波長を変更可能な分光素子と、前記分光素子により分光された光を撮像し、前記分
光測定情報として分光画像を得る撮像部とを有し、前記分光素子により前記分光波長を順
次切り替えた際の撮像位置のずれ量を検出するずれ検出部と、複数波長の前記分光画像に
おける前記ずれ量を補正する分光画像補正部と、を備えることが好ましい。
ところで、ヘッドマウントディスプレイにおいて、分光測定部が、複数の分光波長を順
次切り替えて、各分光された光を撮像する場合、分光画像の取得タイミングに時間差が発
生する。この際、ヘッドマウントディスプレイが装着されるユーザーの頭部が揺れたり、
移動したりすると、各分光画像の撮像範囲がそれぞれ異なる範囲となる(位置ずれが発生
する)。これに対して、本適用例では、ずれ検出部により、各分光画像の位置ずれ量を検
出し、分光画像補正部により、各分光画像の位置ずれを補正する。これにより、本適用例
では、ユーザーの視線方向に対する第一対象物が、各分光画像でずれることがなく、第一
対象物に対する適正な分光測定情報を得ることができる。
備え、前記ずれ検出部は、前記分光画像が取得されたタイミングで前記RGBカメラによ
り撮像されたRGB画像の特徴点の位置から前記ずれ量を検出することが好ましい。
本適用例では、RGBカメラにより、ユーザーの視界からの外界光による景色を撮像し
、その撮像画像(RGB画像)の特徴点の位置からずれ量を検出する。特徴点としては、
例えば、RGB画像において、隣り合う画素の輝度値が所定値以上変動するエッジ部等を
挙げることができる。ここで、分光画像のみを用いて分光画像内の特徴点を抽出する場合
、例えば赤色画像で検出されるエッジ部(特徴点)が、青色画像において検出されない場
合がある。これに対して、RGB画像に基づいて特徴点を検出する場合、可視波長域の広
い波長域内で、特徴点を検出することができる。よって、例えば複数の特徴点を検出して
おき、各分光画像の対応する特徴点を検出すれば、容易に各分光画像のずれ量を検出する
ことができる。
位置の変位を検出する変位検出センサーを備え、前記ずれ検出部は、前記変位検出センサ
ーに基づいて前記ずれ量を検出することが好ましい。
本適用例では、ヘッドマウントディスプレイに設けられた変位検出センサーにより、ヘ
ッドマウントディスプレイの位置の変位量を検出する。この場合、各分光画像の取得タイ
ミングにおけるヘッドマウントディスプレイの位置の変位量を検出することで、分光画像
の位置ずれ量を容易に算出することが可能となる。
以下、第一実施形態について説明する。
[ヘッドマウントディスプレイの概略構成]
図1は、第一実施形態に係るヘッドマウントディスプレイを示す斜視図である。図2は
、ヘッドマウントディスプレイの概略構成を示すブロック図である。
本実施形態に係るヘッドマウントディスプレイ(以降、HMD1と略す)は、図1に示
すように、ユーザーの頭部やヘルメット等の装着部位(詳しくは、前額部及び側頭部を含
む頭部の上部分に応じた位置)に装着可能な頭部装着型表示装置である。このHMD1は
、ユーザーによって視認可能に虚像を表示するとともに、外界光を透過させて外界の景色
(外景)を観察可能とするシースルー型の頭部装着型表示装置である。
なお、以降の説明にあたり、HMD1によってユーザーが視認する虚像を便宜的に「表
示画像」とも称す。また、画像情報に基づいて生成された画像光を射出することを「画像
を表示する」ともいう。
HMD1は、ユーザーの頭部に装着された状態においてユーザーに虚像を視認させる画
像表示部20と、画像表示部20を制御する制御部10と、を備えている。
画像表示部20は、ユーザーの頭部に装着される装着体であり、本実施形態では眼鏡形
状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部2
3と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、RGBカメ
ラ61と、分光カメラ62と、瞳検出センサー63と、9軸センサー64とを含んでいる
。
右光学像表示部26および左光学像表示部28は、それぞれ、ユーザーが画像表示部2
0を装着した際にユーザーの右および左の眼前に位置するように配置されている。右光学
像表示部26の一端と左光学像表示部28の一端とは、ユーザーが画像表示部20を装着
した際のユーザーの眉間に対応する位置で、互いに接続されている。
なお、以降において、右保持部21および左保持部23を総称して単に「保持部」とも
呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び
、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼
ぶ。
部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸して設けられた部
材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、ユ
ーザーが画像表示部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸
して設けられた部材である。右保持部21および左保持部23は、例えば眼鏡のテンプル
のようにして、ユーザーの頭部に画像表示部20を保持する。
に対向する側に配置されている。表示駆動部22,24は、図2に示すように、液晶ディ
スプレイ(LCD241,242)や投写光学系251,252等を含んで構成されてい
る。
源として機能する右バックライト制御部(右BL制御部201)および右バックライト(
右BL221)と、表示素子として機能する右LCD制御部211および右LCD241
と、右投写光学系251と、を含んでいる。
右BL制御部201と右BL221とは、光源として機能する。右LCD制御部211
と右LCD241とは、表示素子として機能する。なお、右BL制御部201と、右LC
D制御部211と、右BL221と、右LCD241と、を総称して「画像光生成部」と
も呼ぶ。
バーとして機能する。右BL制御部201は、入力された制御信号に基づいて、右BL2
21を駆動する。右BL221は、例えば、LEDやエレクトロルミネセンス(EL)等
の発光体である。右LCD制御部211は、Rx53を介して入力されたクロック信号P
CLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像情報と、
に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状
に配置した透過型液晶パネルである。
コリメートレンズによって構成される。右光学像表示部26としての右導光板261は、
右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつユーザー
の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」
とも呼ぶ。
は、受信部(Rx54)と、光源として機能する左バックライト制御部(左BL制御部2
02)および左バックライト(左BL222)と、表示素子として機能する左LCD制御
部212および左LCD242と、左投写光学系252と、を含んでいる。左BL制御部
202と左BL222とは、光源として機能する。左LCD制御部212と左LCD24
2とは、表示素子として機能する。なお、左BL制御部202と、左LCD制御部212
と、左BL222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、
左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコ
リメートレンズによって構成される。左光学像表示部28としての左導光板262は、左
投写光学系252から出力された画像光を、所定の光路に沿って反射させつつユーザーの
左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」と
も呼ぶ。
成されている。導光板261,262は、光透過性の樹脂材料等によって形成され、表示
駆動部22,24から出力された画像光をユーザーの眼に導く。調光板は、薄板状の光学
素子であり、ユーザーの眼の側とは反対の側である画像表示部20の表側を覆うように配
置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷
や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、ユーザー
の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可
能である。
間に対応する位置に配置されている。そのため、RGBカメラ61は、ユーザーが画像表
示部20を頭部に装着した状態において、ユーザーの視界内の景色である外景を撮像し、
外景画像を取得する。
このRGBカメラ61は、赤色光を受光するR受光素子、緑色光を受光するG受光素子
、及び青色光を受光するB受光素子が、例えばベイヤー配列で配置された撮像装置であり
、例えばCCDやCMOS等のイメージセンサーを用いることができる。
なお、図1に示すRGBカメラ61は、単眼カメラであるが、ステレオカメラであって
もよい。
含む分光画像を取得する。なお、本実施形態では、分光画像の取得領域は、RGBカメラ
61と同様の範囲内であり、ユーザーの視界内の外景に対する分光画像を取得する。
分光カメラ62は、図3に示すように、外界光が入射される入射光学系621、入射光
を分光する分光素子622、及び分光素子により分光された光を撮像する撮像部623を
備えて構成されている。
入射光学系621は、例えばテレセントリック光学系等により構成され、光軸と主光線
とが平行又は略平行となるように入射光を分光素子622及び撮像部623に導く。
分光素子622は、図3に示すように、互いに対向する一対の反射膜624,625と
、これらの反射膜624,625の間の距離を変更可能なギャップ変更部626(例えば
静電アクチュエーター)とを備えて構成される波長可変干渉フィルター(所謂エタロン)
である。この分光素子622は、ギャップ変更部626に印加される電圧が制御されるこ
とで、反射膜624,625を透過する光の波長(分光波長)が変更可能となる。
撮像部623は、分光素子622を透過した画像光を撮像する装置であり、例えば、C
CDやCMOS等のイメージセンサーにより構成される。
なお、本実施形態では、分光カメラ62は、保持部21,23に設けられるステレオカ
メラの例を示すが、単眼カメラであってもよい。単眼カメラとする場合、例えば、光学像
表示部26,28の間(RGBカメラ61と略同一の位置)に配置することが好ましい。
長を順次切り替えて撮像部623により分光画像を撮像する。すなわち、分光カメラ62
は、複数の分光波長に対応する複数の分光画像を分光測定情報として制御部10に出力す
る。
、ユーザーに対向する側に設けられている。この瞳検出センサー63は、例えばCCD等
のイメージセンサーを有し、ユーザーの眼を撮像し、ユーザー瞳の位置を検出する。
瞳位置の検出としては、例えば、ユーザーの眼に対して赤外線を照射し、角膜にて反射
される赤外線の位置と、赤外線の反射位置に対する瞳孔(最も輝度値が小さくなる位置)
とを検出する。なお、瞳位置の検出としては、これに限定されず、例えば、ユーザーの眼
の撮像画像における所定位置(例えば瞼、眉、目頭、目尻等)に対する瞳孔や虹彩の位置
を検出してもよい。
地磁気(3軸)、を検出するモーションセンサーである。9軸センサー64は、画像表示
部20に設けられているため、画像表示部20がユーザーの頭部に装着されているときに
は、ユーザーの頭部の動きを検出する。検出されたユーザーの頭部の動きから画像表示部
20の向きが特定される。
有している。接続部40は、制御部10に接続される本体コード48と、右コード42と
、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、
本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方
向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されてい
る。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の
筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード4
8と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を
接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32およ
び左イヤホン34が延伸している。
コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、
互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと
制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接
続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とに
は、例えば、金属ケーブルや光ファイバーを採用できる。
なお、本実施形態では、優先により画像表示部20と制御部10とを接続する例を示す
が、例えば無線LANやブルートゥース(登録商標)等を用いた無線接続としてもよい。
制御部10は、HMD1を制御するための装置である。制御部10は、例えば、トラッ
クパッド11Aや方向キー11B、電源スイッチ11C等を含む操作部11を有する。
電源130と、操作部11と、CPU140と、インターフェイス180と、送信部(T
x51,Tx52)と、GPSモジュール134と、を有している。
る。
記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、
ROMやRAM等によって構成されている。
20の現在位置を特定して、位置を示す情報を生成する。画像表示部20の現在位置が特
定されることで、HMD1のユーザーの現在位置が特定される。
部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、
パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフ
ェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェ
イス、メモリーカード用インターフェイス等、を用いることができる。
て実行することにより、オペレーティングシステム(OS150)、視線特定部161、
画像判定部162、ずれ検出部163、分光画像補正部164、対象物情報取得部165
、画像位置制御部166、向き判定部167、表示制御部168、及び撮像制御部169
として機能する。
置(瞳孔の位置)に基づいて、ユーザーの視線方向D1(図5参照)を特定する。
画像判定部162は、例えば、記憶部120に予め記憶された特定の対象物の画像情報
と同じ特定の対象物が外景画像に含まれているか否かを、パターンマッチングによって判
定する。また、画像判定部162は、特定の対象物が外景画像に含まれる場合には、当該
特定の対象物が視線方向上に位置するか否かを判定する。すわわち、画像判定部162は
、視線方向上に位置する特定の対象物を第一対象物O1(図6、図7参照)として判定す
る。
本実施形態では、分光波長を順次切り替えて分光画像が撮像するため、各分光画像の撮
像タイミングで、HMD1を装着したユーザーの頭部位置が変化している場合があり、各
分光画像の撮像範囲R1(図5〜図7参照)がそれぞれ異なる範囲となる。そこで、ずれ
検出部163は、各分光画像の撮像範囲R1のずれ量を検出する。
ここで、本実施形態では、分光カメラ62により各波長の分光画像を撮像するタイミン
グで、RGBカメラ61により外景画像を撮像する。そして、ずれ検出部163は、分光
画像を同時に撮像された外景画像に基づいて、各分光画像のずれ量を検出する。
算出された各分光画像の位置ずれ量を算出してもよい。つまり、現在撮像されている外景
画像における特徴点を検出し、当該特徴点と各分光画像が撮像されたタイミングでの外景
画像の特徴点を検出した特徴点と比較することで、各分光画像の、現在撮像されている外
景画像とのずれ量を算出する。
の画素位置を補正する。つまり、各分光画像の特徴点を一致させるように、各分光画像の
画素位置を調整する。
対する分光画像)に基づいて、対象物の解析情報(対象物情報)を取得する。この対象物
情報取得部165は、ユーザーにより選択された項目に対する対象物情報を取得すること
ができる。例えば、ユーザーにより、対象物(食品等)の糖度を表示させる旨が選択され
ている場合では、対象物情報取得部165は、外景画像内に含まれる対象物に対する分光
測定情報を解析して、対象物に含まれる糖度を対象物情報として算出する。また、例えば
ユーザーにより対象物に所定波長の分光画像を重畳させる旨が選択されている場合、対象
物情報取得部165は、各分光画像から、外景画像内に含まれる対象物に対応する画素領
域と同じ画素領域を抽出して対象物情報とする。
象物O1に対する対象物情報を取得し、次いで、視線方向D1を中心とした、予め設定さ
れた所定範囲(拡張範囲R2:図5〜図7参照)内の対象物情報を取得する。
対する対象物情報を示す画像情報を画像表示部20に表示させる。例えば、視線方向D1
に位置する第一対象物O1の位置座標を外景画像から特定し、当該第一対象物O1と重な
る位置又は、第一対象物O1の近傍に対象物情報を示す画像情報を重畳して表示させる。
また、画像位置制御部166は、外景画像の色(RGB値)に応じて、RGB値を変化
させた画像情報を作成したり、外景画像の輝度に応じて、画像表示部20の輝度を変化さ
せたりすることで、同一の画像情報を基に異なる画像を生成してもよい。例えば、画像位
置制御部166は、ユーザーから特定の対象物までの距離が近いほど、画像情報に含まれ
る文字を大きくした画像情報を作成したり、外景画像の輝度が低いほど、画像表示部20
の輝度を小さく設定したりする。
き、位置の変位量(移動量)を判定する。向き判定部167は、画像表示部20の向きを
判定することで、ユーザーの頭部の向きを推定する。
生成し、例えば、画像位置制御部166により設定された位置に画像情報を表示させる。
具体的には、表示制御部168は、制御信号により、右LCD制御部211による右LC
D241の駆動ON/OFF、右BL制御部201による右BL221の駆動ON/OF
F、左LCD制御部212による左LCD242の駆動ON/OFF、左BL制御部20
2による左BL222の駆動ON/OFFなど、を個別に制御する。これにより、表示制
御部168は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成
および射出を制御する。例えば、表示制御部168は、右表示駆動部22および左表示駆
動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画
像光を生成させなかったりする。
この際、表示制御部168は、右LCD制御部211と左LCD制御部212とに対す
る制御信号のそれぞれを、Tx51,Tx52を介して画像表示部20に送信する。また
、表示制御部168は、右BL制御部201と左BL制御部202とに対する制御信号の
それぞれを送信する。
する。つまり、撮像制御部169は、RGBカメラ61を起動させ、外景画像を撮像させ
る。また、撮像制御部169は、分光カメラ62の分光素子622(ギャップ変更部62
6)に、所定の分光波長に対応する電圧を印加して、当該分光波長の光を分光させる。そ
して、撮像部623を制御して、当該分光波長の光を撮像させ分光画像を取得する。
次に、上述したようなHMD1におけるAR表示処理について説明する。
図4は、AR表示処理の流れを示すフローチャートである。図5は、本実施形態におけ
るAR表示を行う範囲の一例を示す図である。また、図6及び図7は、本実施形態におけ
るAR表示処理において表示される画像の一例である。
、対象物情報に関するAR表示を実施するか否かが選択可能であり、また、対象物情報と
して表示させる画像を選択可能となる。そして、ユーザーにより、AR表示を実施すると
の選択がなされ、かつ、表示する対象物情報のタイプが選択されている場合に、以下のA
R表示処理を実施する。なお、ここでは、対象物情報として、対象物に関する糖度を表示
させる旨がユーザーに選択されている例を用いて説明する。
=1)する(ステップS1)。なお、変数iは、測定対象の分光波長に関連付けられてい
る。例えば、分光波長λ1〜分光波長λNまでのN個の分光波長の光の分光画像を分光測
定情報として撮像する場合、変数iに対応する分光波長はλiとなる。
得させる(ステップS2)。つまり、撮像制御部169は、RGBカメラ61及び分光カ
メラ62を制御し、RGBカメラ61により外景画像を撮像させ、分光カメラ62により
分光波長λiの分光画像を撮像させる。
ここで、外景画像と分光画像は、同じ撮像タイミング、又は撮像タイミングの時間差が
予め設定された時間閾値未満となるように、撮像される。また、ステップS2で撮像され
る外景画像及び分光画像は、図5に示すように、同一の撮像範囲R1となる。ステップS
2で取得された撮像画像は、記憶部120に記憶される。
越えたか否かを判定する(ステップS4)。ステップS4でNoと判定された場合は、ス
テップS2に戻り、変数iに対応する分光波長λiの分光画像と、外景画像とを撮像する
。
光画像が取得されたことを意味する。この場合、ずれ検出部163は、取得された各分光
画像の画素位置のずれ量を検出する(ステップS5)。
具体的には、ずれ検出部163は、分光画像と同時に撮像された外景画像を読み出し、
当該外景画像の特徴点(例えば、隣り合う画素間で輝度値が所定値以上異なるエッジ部等
)を検出する。ここで、本実施形態では、RGBカメラ61により撮像される外景画像の
撮像範囲R1と、分光カメラ62により撮像される分光画像の撮像範囲R1とが同一範囲
となる。よって、RGBカメラ61で撮像された外景画像の特徴点の位置(画素位置)は
、分光画像における特徴点の画素位置と一致すると見なすことができる。
像における特徴点同士の位置の差を位置ずれ量として検出する。例えば、波長λ1の分光
画像と同時に撮像された外景画像で(x1、y1)に特徴点が検出され、波長λ2の分光
画像と同時に撮像された外景画像で(x2、y2)に特徴点が検出されたとする。この場
合、波長λ1の分光画像と、波長λ2の分光画像との位置ずれ量は、{(x2−x1)2
+(y2−y1)2}1/2として算出される。
なお、ずれ量の基準となる画像は、ステップS2で取得されたどの外景画像を用いても
よい。例えば、変数i=1に対する分光画像と外景画像とが撮像された際の外景画像を基
準画像とし、各分光画像のずれ量を算出してもよく、最後に撮像された変数i=Nに対す
る外景画像を基準画像としてもよい。また、ステップS2で取得された外景画像に限定さ
れず、例えば、現在(ステップS1〜S4の後のタイミングで)、RGBカメラ61によ
り撮像されている外景画像を基準画像としてずれ量を算出してもよい。つまり、リアルタ
イムで現在の外景画像に対する各分光画像のずれ量を算出してもよい。
て、各分光画像の位置ずれを補正する(ステップS6)。つまり、分光画像補正部164
は、各分光画像において、特徴点が一致するように、分光画像の画素位置を補正する。
における瞳位置(瞳孔位置)を取得し(ステップS7)、瞳位置に基づいて、ユーザーの
視線方向D1を特定する(ステップS8)。
例えば、瞳検出センサー63において、ユーザーの眼に赤外線を照射し、角膜上におけ
る赤外線の反射位置に対する瞳孔位置を検出する場合、以下のように視線方向D1(図5
及び図6参照)を特定する。つまり、視線特定部161は、瞳検出センサー63から照射
される赤外線の位置が、例えば眼球の角膜上の中心点である場合、当該赤外線の反射位置
から法線方向(眼球内側)に例えば23mm〜24mm(平均的な眼球の径寸法)の点を
網膜上の基準点として仮定する。そして、基準点から瞳孔位置に向かう方向を視線方向D
1として特定する。
また、視線方向D1を特定した後、図5や図6に示すように、視線方向D1を示すマー
ク画像を画像表示部20に表示させてもよい。この場合、ユーザーが視線方向D1を視覚
することで、ユーザーは所望の対象物に視線方向D1を合せるように、視線を変更するこ
ともできる。
示可能な対象物が有るか否かを判定する(ステップS9)。
ステップS9では、例えば、画像判定部162は、RGBカメラ61により外景画像を
撮像し、当該外景画像における視線方向D1上の画像に対してパターンマッチングを実施
する。なお、画像判定部162における画像判定方法としては、パターンマッチングに限
定されない。例えば、視線方向D1に対応する画素を囲うエッジ部を検出し、当該エッジ
部に囲われる対象物を第一対象物O1(図5〜7参照)として特定してもよい。この場合
、外景画像における視線方向D1に対応する画素の周囲(予め設定された拡張範囲R2内
)に、当該画素を囲うエッジ部がない場合、視線方向D1に対象物がない(ステップS9
でNo)と判定する。
例えば、図5〜図7に示す例では、ユーザーには、画像表示部20の光学像表示部26
,28を透過した外景SCが視認されている。外景SCには、視線方向D1に、第一対象
物O1(本例では、ブドウ)が含まれている。この場合、画像判定部162は、RGBカ
メラ61により撮像される外景画像から視線方向D1に位置する対象物に対して、上記の
ようなパターンマッチングやエッジ検出等を行って、第一対象物O1を認識する。
から、特定された第一対象物O1の画素位置に対応する各分光波長の画素位置を特定し、
当該分光画像の画素位置の階調値に基づいて、第一対象物O1に対する対象物情報を取得
する(ステップS10)。
例えば、第一対象物O1に対する糖度を対象物情報として表示させる場合、対象物情報
取得部165は、各分光画像のうち、糖の吸収スペクトルに対応する分光波長の分光画像
に基づいて、第一対象物O1の画素位置における吸光度を算出し、その吸光度に基づいて
糖度を算出する。そして、対象物情報取得部165は、算出された糖度を示す画像情報(
第一AR情報P1)を生成し、記憶部120に記憶する。
に、ステップS10にて生成された対象物情報を示す第一AR情報P1の位置を設定し、
表示制御部168は、設定された位置に画像を表示(AR表示)させる(ステップS11
)。例えば、画像位置制御部166は、図6に示すように、視線方向D1に対応する画素
位置又は視線方向D1の近傍に、第一対象物O1(ブドウ)の糖度を示す数値を文字画像
の第一AR情報P1を画像表示部20に表示させる。この際、画像位置制御部166は、
ユーザーの現在位置と、第一対象物O1の位置までの距離に応じて、例えば距離が近いほ
ど、第一AR情報P1を大きく表示させたり、表示させる第一AR情報P1の輝度を上げ
たりしてもよい。
対象物O1に対する対象物情報を示す画像を表示させた後、画像判定部162は、視線方
向D1を中心として予め設定された所定の拡張範囲R2内に対象物(第二対象物O2)が
有るか否かを判定する(ステップS12)。なお、対象物の有無の判定としては、ステッ
プS9と同様の処理を行う。
ップS10と同様、検出された第二対象物O2に対する対象物情報を取得する(ステップ
S13)。ステップS13は、ステップS10と同様の処理を行い、第二対象物O2に対
する対象物情報を取得し、その画像情報(第二AR情報P2)を生成する。
そして、画像位置制御部166及び表示制御部168は、第一AR情報P1を表示させ
てからの経過時間が、予め設定された待機時間を経過したか否かを判定する(ステップS
14)。
プS14の処理を繰り返す)。ステップS14において、Yesと判定された場合、画像
位置制御部166は、外景画像における第二対象物O2に対応する画素位置に、ステップ
S13にて生成された第二AR情報P2の位置を設定し、表示制御部168は、設定され
た位置に第二AR情報P2を表示させる(ステップS15)。
これにより、図6に示す第一対象物O1に対する第一AR情報P1のみが表示された状
態から、所定の待機時間の経過後にAR表示される領域が拡張範囲R2に拡大され、図7
に示すように、第一対象物O1の周囲にある第二対象物O2に対する第二AR情報P2が
表示される。
AR表示処理が終了される。
本実施形態のHMD1では、画像表示部20にユーザーの眼の瞳位置を検出する瞳検出
センサー63が設けられており、視線特定部161は検出された瞳位置に基づいて視線方
向D1を特定する。そして、対象物情報取得部165は、分光カメラ62により撮像され
た各分光波長の分光画像を用いて、視線方向D1上の第一対象物O1に対する対象物情報
を取得し、画像位置制御部166及び表示制御部168は、取得した対象物情報を示す画
像情報(第一AR情報P1)を第一対象物O1に対応する位置で画像表示部20に表示さ
せる。
これにより、本実施形態では、ユーザーの視界に入る外景SCのうち、ユーザーの視線
方向D1にある第一対象物O1、つまり、ユーザーが現在着目している対象物の対象物情
報をAR表示させることができ、その周囲の対象物に関してはAR表示がなされない。こ
のため、例えば、撮像範囲R1内の全ての対象物に対する対象物情報が、一度にAR表示
される場合に比べて、ユーザーが着目する対象物(第一対象物O1)に対する対象物情報
を確認しやすくなり、適切にユーザーに必要な情報を提供することができる。
1に対応する部分のみを解析して対象物情報を取得すればよい。このため、撮像範囲R1
に含まれる全ての対象物に対する対象物情報を取得する場合に比べて、対象物情報を容易
に取得することができる。
例えば、上記実施形態では、対象物の糖度を表示させるが、撮像範囲R1内の全ての対
象物に対する糖度の表示を行うためには、撮像範囲R1内の全ての対象物を検出し、それ
ぞれの対象物に対応する画素位置の分光画像の画素値に基づいて、それぞれの対象物に対
する糖度を算出する必要がある。この場合、処理負荷が増大し、対象物情報を表示させる
までの時間も長くなる。これに対して、本実施形態では、視線方向D1上の第一対象物O
1の対象物情報を取得すればよいため、処理負荷の軽減を図れ、ユーザーが着目している
対象物に対して迅速なAR表示を行うことができる。
の対象物情報を表示させた後、時間経過によって、視線方向D1を中心とした所定の拡張
範囲R2に含まれる第二対象物O2の対象物情報を取得し、画像表示部20に表示させる
。
この場合でも、第一対象物O1の対象物情報を表示させる際には、第二対象物O2の対
象物情報が取得しないので、第一対象物O1に対する対象物情報を表示させる際の処理負
荷の増大は抑制され、かつ第一対象物O1に対する対象物情報が見やすく、ユーザーに利
便性を高めることができる。
また、第一対象物O1の対象物情報の表示の後、所定の経過時間(待機時間)が経過す
ると、第一対象物O1の周囲の第二対象物O2の対象物情報も表示される。これにより、
拡張範囲R2に対する複数の対象物に対する対象物情報の表示が可能となる。この際、視
線方向D1に位置する第一対象物O1の対象物情報が先に表示されているため、ユーザー
が最も着目する第一対象物O1に対する対象物情報の表示位置が、視認しにくくなること
がない。
順に取得する。この場合、各分光画像の撮像タイミングにおいて、ユーザーの頭部位置が
移動すると、分光画像の対象物に対する画素位置がずれる。これに対して、本実施形態で
は、分光画像の撮像タイミングと同時にRGBカメラ61により外景画像を撮像し、当該
外景画像の特徴点を検出して、各分光画像の撮像タイミングにおける画素のずれ量を検出
する。そして、検出したずれ量に基づいて、各分光画像の画素位置が一致するように、各
分光画像を補正する。
これにより、対象物に対する各分光波長の光の受光量を正確に検出でき、対象物情報取
得部165により、対象物情報の糖度を精度よく算出することができる。
士が一致するように補正してもよい。しかしながら、分光画像では、分光波長によって、
検出可能な特徴点と、検出不可能(又は検出精度が低い)特徴点とが含まれる。このため
、分光画像から特徴点を抽出して補正する場合では、補正精度が低下する。これに対して
、分光画像と同時に撮像される外景画像に基づいて特徴点を抽出する場合、各タイミング
における各外景画像の特徴点を略同じ検出精度で抽出することができる。このため、外景
画像の特徴点に基づいてずれ量を検出することで、分光画像の位置ずれを補正する際に、
精度の高い補正を行うことができる。
上記第一実施形態では、ずれ検出部163は、分光画像と同時に撮像される外景画像に
基づいて、各分光画像のずれ量を検出した。これに対して、第二実施形態では、ずれ検出
部によるずれ量の検出方法が、第一実施形態と相違する。
なお、以降の説明にあたり、既に説明した事項については同符号を付し、その説明を省
略又は簡略化する。
グラムを読み出し実行することで機能する、ずれ検出部163の処理が、第一実施形態と
相違する。
本実施形態のずれ検出部163は、9軸センサー64からの検出信号に基づいて、各分
光画像のずれ量を検出する。したがって、本実施形態では、分光画像の撮像タイミングで
、RGBカメラ61により外景画像を撮像する必要がない。つまり、本実施形態では、図
4のステップS2において、RGBカメラ61による外景画像の撮像処理に替えて、9軸
センサー64からの検出信号を取得する。
検出信号に基づいて、各分光画像が撮像されたタイミングにおける画像表示部20の位置
の変位量をずれ量として検出する。例えば、分光波長λ1の分光画像が撮像されたタイミ
ングでの9軸センサー64の検出信号と、分光波長λ2の分光画像が撮像されたタイミン
グでの9軸センサー64の検出信号と、に基づいて画像表示部20の変位量をずれ量とし
て算出する。
3により検出されたずれ量に基づいて、各分光画像の画素位置を補正した後、視線方向D
1及び拡張範囲R2に存在する対象物の対象物情報を表示させる。
本実施形態では、各分光画像の画素位置のずれ量を検出する際に、ずれ検出部163は
、9軸センサー64から出力される検出信号に基づく、ユーザーの頭部(画像表示部20
)の位置の変位量を算出する。
この場合、分光画像の撮像タイミングで、外景画像を撮像する必要がなく、撮像処理に
係る処理負荷を軽減でき、かつ、精度よくずれ量を検出することができる。つまり、画像
の特徴点に基づいてずれ量を検出する場合、各画像の画素間の輝度値の差分を算出する等
、特徴点の検出に処理負荷が係り、かつ、特徴点の検出精度が低い場合では、ずれ量の検
出精度も低下する。これに対して、本実施形態では、9軸センサー64により画像表示部
20の実際の変位量を検出するため、ずれ量の検出精度が高く、画像処理に係る処理負荷
も軽減することができる。
なお、本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる
範囲での変形、改良等は本発明に含まれるものである。
分光画像のずれ量をリアルタイムで検出してもよい。この場合、ステップS7のずれ補正
処理においても、リアルタイムで各分光画像の画素位置を、現在撮像されている外景画像
に合わせることができる。この場合、分光画像における第一対象物O1の位置もリアルタ
イムで更新されることになり、視線方向D1上に位置する第一対象物に対する対象物情報
をより正確に表示させることができる。
が、これに限定されない。
例えば、画像判定部162により対象物が有るか否かに拘らず、ステップS2で取得さ
れた分光画像に基づいて、視線方向D1と一致する画素における糖度を解析してもよい。
この場合、当該画素から糖度が解析できた場合、糖分を含む物質がある、つまり第一対象
物O1が存在すると判定し、当該視線方向D1に対応する画素位置(例えば視線方向D1
と重なる位置や、視線方向D1から所定画素範囲内の近傍位置)に、糖度を示す対象物情
報(第一AR情報P1)を表示する。一方、分光画像から視線方向D1に対する糖度が解
析できなかった場合、例えば視線方向D1に第一対象物O1が存在しないと判定する。
このような処理では、外景画像に対して対象物を検出する処理が省略でき、対象物情報
の画像情報をより迅速に表示させることができる。
機時間が経過した後、第二対象物O2の対象物情報を表示させる例を示したが、これに限
定されない。
例えば、第一対象物O1の第一AR情報P1を表示させた後、経過時間に応じて、第一
対象物O1からの距離が近い順に、第二対象物O2の第二AR情報P2を順に表示させる
処理を行ってもよい。
この場合、第二対象物O2が多数ある場合等において、一度に全ての第二対象物O2の
対象物情報が表示されないので、例えば、ユーザーが、第一対象物O1の第一AR情報P
1を見失う等の不都合を抑制できる。
、これに限定されず、対象物情報として様々な情報を表示させることができる。例えば、
分光画像に基づいて、タンパク質や脂質、水分量等の各種成分を算出して対象物情報とし
て表示させてもよい。また、取得する分光画像としては、可視光域から赤外域に限定され
ず紫外域等を含めてもよく、この場合、紫外域に対する成分分析結果も表示することが可
能となる。
また、対象物情報として、対象物の所定の分光波長に対する分光画像を対象物に重ねて
表示させてもよい。その場合は、分光画像を3D表示(右目用画像と左目用画像とで視差
のある画像表示)とし、右目、左目のそれぞれで対象物と分光画像が重なるように表示さ
せると尚よい。
さらに、対象物情報として、例えばインターネット等を介して取得される各種情報、例
えば対象物の名称等を併せて表示させてもよく、GPSモジュール134により取得され
る対象物の位置等を併せて表示させてもよい。つまり、対象物情報として、分光測定情報
以外に基づいた情報を併せて表示させてもよい。
例を示したが、これに限定されない。
例えば、分光カメラ62は、視線方向D1を含む所定の範囲(例えば拡張範囲R2)の
分光画像を撮像する構成としてもよい。この場合、AR表示を実施しない範囲(撮像範囲
R1内の拡張範囲R2以外の範囲)に対する分光画像を取得しないため、各分光画像の画
像サイズを縮小できる。また、対象物情報取得部165が各分光画像を解析して対象物情
報を取得する際に、読み出す分光画像の画像サイズが小さく、かつ、対象物の検出範囲も
小さくなるので、対象物情報の取得処理に係る処理負荷も軽減できる。
造等に適宜変更できる。
像表示部、22…右表示駆動部、24…左表示駆動部、26…右光学像表示部、28…左
光学像表示部、61…RGBカメラ、62…分光カメラ、63…瞳検出センサー、64…
9軸センサー、110…入力情報取得部、120…記憶部、130…電源、132…無線
通信部、134…GPSモジュール、135…操作部、140…CPU、161…視線特
定部、162…画像判定部、163…ずれ検出部、164…分光画像補正部、165…対
象物情報取得部、166…画像位置制御部、167…向き判定部、168…表示制御部、
169…撮像制御部、180…インターフェイス、201…右BL制御部、202…左B
L制御部、211…右LCD制御部、212…左LCD制御部、221…右BL、222
…左BL、241…右LCD、242…左LCD、251…右投写光学系、252…左投
写光学系、261…右導光板、262…左導光板、621…入射光学系、622…分光素
子、623…撮像部、624,625…反射膜、626…ギャップ変更部、D1…視線方
向、O1…第一対象物、O2…第二対象物、OA…外部機器、P1…第一AR情報、P2
…第二AR情報、R1…撮像範囲、R2…拡張範囲、RE…右眼。
Claims (4)
- ユーザーの頭部に装着可能なヘッドマウントディスプレイであって、
前記ヘッドマウントディスプレイを装着した状態において前記ユーザーの瞳位置を検出する瞳検出部と、
前記瞳位置に基づいて、前記ユーザーの視線方向を特定する視線特定部と、
前記ヘッドマウントディスプレイを装着した状態における前記ユーザーの視界内の景色から複数波長の分光画像を撮像し、前記分光画像から前記視線方向に位置する第1の部分の第1の分光測定情報を取得する分光測定部と、
前記第1の分光測定情報に基づいた分光情報の第1の解析を行うことで、前記視線方向に位置する第1の対象物に関する第1の解析情報を取得する対象物情報取得部と、
前記景色の前記第1の対象物に対する位置に前記第1の解析情報を表示する表示部と、
を備え、
前記分光測定部は、前記分光画像から前記視線方向を中心とした所定範囲内に位置する第2の部分であって前記第1の部分とは異なる第2の部分の第2の分光測定情報を取得し、
前記対象物情報取得部は、前記第1の分光測定情報に基づいた分光情報の前記第1の解析を行った後で、前記第2の分光測定情報に基づいた分光情報の第2の解析を行うことで、前記所定範囲内に位置する第2の対象物に関する第2の解析情報を取得し、
前記表示部は、前記第1の対象物に対する第1の位置に前記第1の解析情報を表示した後、時間経過に応じて、前記第2の対象物に対する第2の位置に前記第2の解析情報を表示する、
ことを特徴とするヘッドマウントディスプレイ。 - 請求項1に記載のヘッドマウントディスプレイにおいて、
前記分光測定部は、入射光を分光し、分光波長を変更可能な分光素子と、前記分光素子により分光された光を撮像し、前記分光画像を得る撮像部とを有し、
前記分光素子により前記分光波長を順次切り替えた際の撮像位置のずれ量を検出するずれ検出部と、
複数波長の前記分光画像における前記ずれ量を補正する分光画像補正部と、を備える
ことを特徴とするヘッドマウントディスプレイ。 - 請求項2に記載のヘッドマウントディスプレイにおいて、
前記景色を撮像するRGBカメラを備え、
前記ずれ検出部は、前記分光画像が取得されたタイミングで前記RGBカメラにより撮像されたRGB画像の特徴点の位置から前記ずれ量を検出する
ことを特徴とするヘッドマウントディスプレイ。 - 請求項2に記載のヘッドマウントディスプレイにおいて、
当該ヘッドマウントディスプレイの位置の変位を検出する変位検出センサーを備え、
前記ずれ検出部は、前記変位検出センサーに基づいて前記ずれ量を検出する
ことを特徴とするヘッドマウントディスプレイ。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017064544A JP6903998B2 (ja) | 2017-03-29 | 2017-03-29 | ヘッドマウントディスプレイ |
US15/920,882 US20180285642A1 (en) | 2017-03-29 | 2018-03-14 | Head Mounted Display |
CN201810227175.4A CN108693647A (zh) | 2017-03-29 | 2018-03-19 | 头戴式显示器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017064544A JP6903998B2 (ja) | 2017-03-29 | 2017-03-29 | ヘッドマウントディスプレイ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018170554A JP2018170554A (ja) | 2018-11-01 |
JP6903998B2 true JP6903998B2 (ja) | 2021-07-14 |
Family
ID=63669656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017064544A Active JP6903998B2 (ja) | 2017-03-29 | 2017-03-29 | ヘッドマウントディスプレイ |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180285642A1 (ja) |
JP (1) | JP6903998B2 (ja) |
CN (1) | CN108693647A (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113168279A (zh) * | 2018-11-29 | 2021-07-23 | 麦克赛尔株式会社 | 影像显示装置和方法 |
JP7238390B2 (ja) * | 2018-12-21 | 2023-03-14 | セイコーエプソン株式会社 | 情報システムおよび特定方法 |
JP2020149672A (ja) * | 2019-03-11 | 2020-09-17 | 株式会社ミツトヨ | 測定結果表示装置及びプログラム |
JP7234718B2 (ja) * | 2019-03-18 | 2023-03-08 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2020195104A (ja) * | 2019-05-30 | 2020-12-03 | セイコーエプソン株式会社 | 表示方法、表示装置および情報システム |
JP2023031728A (ja) * | 2021-08-25 | 2023-03-09 | トヨタ自動車株式会社 | 表示制御装置、表示システム、表示方法及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004343288A (ja) * | 2003-05-14 | 2004-12-02 | Hitachi Ltd | 携帯端末、情報配信装置、通信システム、及び携帯端末を利用したユーザへの情報提示方法 |
JP4426918B2 (ja) * | 2004-07-20 | 2010-03-03 | オリンパス株式会社 | 情報表示システム |
US8982665B2 (en) * | 2008-10-08 | 2015-03-17 | Westerngeco L.L.C. | Dithered slip sweep vibroseis acquisition system and technique |
JP6123360B2 (ja) * | 2013-03-07 | 2017-05-10 | セイコーエプソン株式会社 | 分光測定装置 |
US20150077381A1 (en) * | 2013-09-19 | 2015-03-19 | Qualcomm Incorporated | Method and apparatus for controlling display of region in mobile device |
JP2015177397A (ja) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | ヘッドマウントディスプレイおよび農作業補助システム |
KR102219464B1 (ko) * | 2014-05-23 | 2021-02-25 | 삼성전자주식회사 | 보안 운용 방법 및 이를 지원하는 전자 장치 |
CA3177264A1 (en) * | 2014-06-18 | 2015-12-23 | Innopix, Inc. | Spectral imaging system for remote and noninvasive detection of target substances using spectral filter arrays and image capture arrays |
JP2016024208A (ja) * | 2014-07-16 | 2016-02-08 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
US20170287219A1 (en) * | 2016-03-31 | 2017-10-05 | Adam G. Poulos | Electromagnetic tracking of objects for mixed reality |
-
2017
- 2017-03-29 JP JP2017064544A patent/JP6903998B2/ja active Active
-
2018
- 2018-03-14 US US15/920,882 patent/US20180285642A1/en not_active Abandoned
- 2018-03-19 CN CN201810227175.4A patent/CN108693647A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN108693647A (zh) | 2018-10-23 |
US20180285642A1 (en) | 2018-10-04 |
JP2018170554A (ja) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6903998B2 (ja) | ヘッドマウントディスプレイ | |
US11301034B2 (en) | Display device, control method for display device, and computer program | |
US9792710B2 (en) | Display device, and method of controlling display device | |
US9898868B2 (en) | Display device, method of controlling the same, and program | |
JP6089705B2 (ja) | 表示装置、および、表示装置の制御方法 | |
TWI571654B (zh) | 整合眼睛追蹤及顯示系統與用於整合眼睛追蹤及顯示的方法 | |
JP5250834B2 (ja) | 頭部装着式映像表示装置 | |
US9348144B2 (en) | Display device and control method thereof | |
JP6492531B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
US9846305B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
US10782531B2 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
CN105739095B (zh) | 显示装置以及显示装置的控制方法 | |
CN109960481B (zh) | 显示系统及其控制方法 | |
CN109960039B (zh) | 显示系统、电子设备以及显示方法 | |
US9870048B2 (en) | Head-mounted display device, method of controlling the same, and computer program | |
US20160021360A1 (en) | Display device, method of controlling display device, and program | |
JP2016122177A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6561606B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2017092628A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6609920B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2016116066A (ja) | 表示装置、及び、表示装置の制御方法 | |
US11860371B1 (en) | Eyewear with eye-tracking reflective element | |
US11792371B2 (en) | Projector with field lens | |
JP2016031373A (ja) | 表示装置、表示方法、表示システム、及び、プログラム | |
JP2016181864A (ja) | 表示装置、及び、表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6903998 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |