JP2017037235A - Binoculars display device - Google Patents

Binoculars display device Download PDF

Info

Publication number
JP2017037235A
JP2017037235A JP2015159111A JP2015159111A JP2017037235A JP 2017037235 A JP2017037235 A JP 2017037235A JP 2015159111 A JP2015159111 A JP 2015159111A JP 2015159111 A JP2015159111 A JP 2015159111A JP 2017037235 A JP2017037235 A JP 2017037235A
Authority
JP
Japan
Prior art keywords
display
eye
image
binoculars
binocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015159111A
Other languages
Japanese (ja)
Inventor
前田 利久
Toshihisa Maeda
利久 前田
大介 西ノ原
Daisuke Nishinohara
大介 西ノ原
田中 雅英
Masahide Tanaka
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2015159111A priority Critical patent/JP2017037235A/en
Priority to PCT/JP2015/076051 priority patent/WO2016043165A1/en
Priority to US15/508,655 priority patent/US10426668B2/en
Publication of JP2017037235A publication Critical patent/JP2017037235A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To propose a useful binoculars display device.SOLUTION: A binoculars display is provided that comprises binoculars display systems receiving image information from binoculars imaging system with optical axes in parallel, and having an optical axis width equivalent to an optical axis width of the binoculars imaging systems. The binoculars display is configured to provide a display virtual image at a distance equivalent to a reference subject distance of the binoculars imaging system. The binoculars display comprises a diopter adjustment function, and includes an image enlargement function or image contraction function. The binoculars display is provided that comprises: binoculars display system receiving the image information from the binoculars imaging systems with the optical axes in parallel, and having an optical axis width different from that of the binoculars imaging system; and an image shift function based on a difference between the optical axis width of the binoculars imaging system and the optical axis width of the binoculars display system. The binoculars display is provided that comprises: binoculars display systems including an optical axis width adjustment function; and an image shift function in accordance with an optical axis width adjustment in the binoculars display system. The binoculars display is provided that comprises: display optical systems receiving the image information from the binoculars imaging systems with the optical axes in parallel, and being different from the binoculars imaging systems; and an image shift function based on a difference of the display optical system.SELECTED DRAWING: Figure 11

Description

本発明は、双眼ディスプレイ装置に関する。   The present invention relates to a binocular display device.

双眼ディスプレイ装置およびその応用は種々検討されている。例えば、視覚障害者のための視覚補助システムとしての応用が検討されている。視覚障害の主な原因には、緑内症例、白内障、夜盲症、加齢黄斑変性などの目の疾患、または幼児期の視力障害などによる発達障害があり、その対策として種々の補助カメラや補助表示装置が提案されている。この場合、双眼ディスプレイ装置は補助表示装置として活用される。一例として、メガネ型の視覚拡張装置において、CCDカメラで撮像した映像のうち使用者の視野に相当する領域の画像に対して画像処理を行い、これを虚像表示装置により使用者に視認させることが提案されている。(特許文献1)また他の例として、撮像部から得られた画像情報を処理して表示部の表示エリアに表示するとともに、この表示部において外界の映像と表示エリアの処理画像が同時に観察者から見ることができるようにしたものが提案されている。(特許文献2)   Various binocular display devices and their applications have been studied. For example, application as a visual assistance system for visually impaired persons is being studied. The main causes of visual impairment include glaucoma cases, cataracts, night blindness, eye diseases such as age-related macular degeneration, or developmental disorders such as visual impairment in early childhood. A device has been proposed. In this case, the binocular display device is used as an auxiliary display device. As an example, in an eyeglass-type visual enhancement device, image processing is performed on an image of a region corresponding to the user's visual field among images captured by a CCD camera, and this can be visually recognized by a user using a virtual image display device. Proposed. As another example, the image information obtained from the imaging unit is processed and displayed on the display area of the display unit, and the image of the outside world and the processed image of the display area are simultaneously displayed on the display unit by the observer. It has been proposed that can be seen from. (Patent Document 2)

特開2003−287708号公報JP 2003-287708 A 特許4600290号公報Japanese Patent No. 4600200

しかしながら、双眼ディスプレイ装備に関してはさらに検討すべき課題が多い。   However, there are many issues to be further studied regarding binocular display equipment.

本発明の課題は、上記に鑑み、より有用な双眼ディスプレイ装備を提案することにある。   In view of the above, an object of the present invention is to propose a more useful binocular display device.

上記課題を達成するため、本発明は、光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系の光軸幅と同等の光軸幅を有する双眼表示系を備えた双眼ディスプレイを提供する。   To achieve the above object, the present invention provides a binocular display including a binocular display system that receives image information from a binocular imaging system having parallel optical axes and has an optical axis width equivalent to the optical axis width of the binocular imaging system. I will provide a.

具体的な特徴によれば、双眼ディスプレイは、前記双眼撮像系の標準被写体距離と同等の距離に表示虚像を提供する。   According to a specific feature, the binocular display provides a display virtual image at a distance equivalent to the standard subject distance of the binocular imaging system.

他の具体的な特徴によれば、双眼ディスプレイは、視度調節機能を備える。   According to another specific feature, the binocular display has a diopter adjustment function.

他の具体的な特徴によれば、双眼ディスプレイは、画像拡大機能または画像縮小機能を有する。   According to another specific feature, the binocular display has an image enlargement function or an image reduction function.

本発明の他の特徴によれば、光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系の光軸幅と異なる光軸幅を有する双眼表示系と、前記双眼撮像系の光軸幅と前記双眼表示系の光軸幅との差に基づく画像シフト機能とを有する双眼ディスプレイが提供される。   According to another aspect of the present invention, a binocular display system that receives image information from a binocular imaging system with parallel optical axes and has an optical axis width different from the optical axis width of the binocular imaging system, and the binocular imaging system A binocular display having an image shift function based on a difference between an optical axis width and an optical axis width of the binocular display system is provided.

本発明の他の特徴によれば、光軸幅調整機能を備えた双眼表示系と、前記双眼表示系における光軸幅の調整に応じた画像シフト機能と、を有する双眼ディスプレイが提供される。   According to another aspect of the present invention, there is provided a binocular display having a binocular display system having an optical axis width adjustment function and an image shift function according to the adjustment of the optical axis width in the binocular display system.

本発明の他の特徴によれば、光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系と異なる表示光学系を有し、前記表示光学系の差に基づく画像シフト機能を有する双眼ディスプレイが提供される。   According to another aspect of the present invention, the image information is received from a binocular imaging system having parallel optical axes, the display optical system is different from the binocular imaging system, and an image shift function based on a difference between the display optical systems is provided. A binocular display is provided.

上記のように、より有用な双眼ディスプレイ装備が提供される。   As described above, more useful binocular display equipment is provided.

本発明の視覚補助システムの実施例1における全体構成を示すブロック図である。(実施例1)It is a block diagram which shows the whole structure in Example 1 of the visual assistance system of this invention. Example 1 実施例1における中央制御部の動作を説明する基本フローチャートである。3 is a basic flowchart illustrating an operation of a central control unit according to the first embodiment. 図2のステップS22およびステップS24の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S22 of FIG. 2, and step S24. 図2のステップS26およびステップS28の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S26 of FIG. 2, and step S28. 図2のステップS34の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S34 of FIG. 図2のステップS14の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S14 of FIG. 本発明の視覚補助システムの実施例2における画像急変緩和処理の詳細を示すフローチャートである。(実施例2)It is a flowchart which shows the detail of the image sudden change mitigation process in Example 2 of the visual assistance system of this invention. (Example 2) 本発明の視覚補助システムの実施例3における全体構成を示すブロック図である。(実施例3)It is a block diagram which shows the whole structure in Example 3 of the visual assistance system of this invention. (Example 3) 実施例3における中央制御部の動作を説明する基本フローチャートである。10 is a basic flowchart illustrating an operation of a central control unit according to a third embodiment. 図9のステップS214の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S214 of FIG. 本発明の視覚補助システムの実施例4における全体構成を示すブロック図である。(実施例4)It is a block diagram which shows the whole structure in Example 4 of the visual assistance system of this invention. Example 4 実施例4の接眼光学系視度調節の基本を説明する断面模式図である。FIG. 9 is a schematic cross-sectional view illustrating the basics of eyepiece optical system diopter adjustment of Example 4. 実施例4における3D画像の撮像と表示の基本構成を示す模式図である。FIG. 10 is a schematic diagram illustrating a basic configuration of 3D image capturing and display in Example 4; 実施例4における近視者についての模式図である。FIG. 10 is a schematic diagram of a myopic person in Example 4. 実施例4における遠視者についての模式図。FIG. 10 is a schematic diagram of a farsighted person in Example 4. 実施例4における近距離物点についての模式図である。FIG. 10 is a schematic diagram of short-distance object points in Example 4. 実施例4における遠距離物点についての模式図である。FIG. 10 is a schematic diagram of a long-distance object point in Example 4. 実施例4における表示画像拡大についての模式図である。FIG. 10 is a schematic diagram for enlarging a display image in Example 4. 実施例4における表示画像縮小おについての模式図である。FIG. 10 is a schematic diagram of display image reduction in the fourth embodiment. 本発明の実施例5の断面模式図である。(実施例5)It is a cross-sectional schematic diagram of Example 5 of the present invention. (Example 5) 図21は、本発明の実施例6の断面模式図である。(実施例6)FIG. 21 is a schematic sectional view of Example 6 of the present invention. (Example 6) 図22は、本発明の実施例7の断面模式図である。(実施例7)FIG. 22 is a schematic sectional view of Example 7 of the present invention. (Example 7)

図1は、本発明の実施の形態に係る視覚補助システムの実施例1における全体構成を示すブロック図である。実施例1の視覚補助システムは、ゴーグル型ヘッドマウントディスプレイ(以下「HMD」)2および、これとケーブルで接続されるコントローラ4を有する。上記ケーブルは、HMD2とコントローラ4のパラレルデータ通信ラインおよび電源供給ラインとなる。   FIG. 1 is a block diagram showing an overall configuration in Example 1 of a visual assistance system according to an embodiment of the present invention. The visual assistance system according to the first embodiment includes a goggle type head mounted display (hereinafter, “HMD”) 2 and a controller 4 connected to the goggle type head mounted display (hereinafter, “HMD”). The cable serves as a parallel data communication line and a power supply line for the HMD 2 and the controller 4.

HMD2は、使用者の右目6および左目8の前にかけられている通常の眼鏡10のさらに前にかけられる。このように、HMD2は、眼鏡10により使用者の右目6および左目8の屈折上の問題が解決されているという前提で使用される。この目的のため、HMD2は、本体部2aおよびツル部2bよりなり、ツル部2bを眼鏡10の上から耳にかけたとき、本体部2aが眼鏡10のレンズの前に来るよう構成されている。   The HMD 2 is put in front of normal glasses 10 put in front of the user's right eye 6 and left eye 8. As described above, the HMD 2 is used on the assumption that the problem of refraction of the user's right eye 6 and left eye 8 is solved by the glasses 10. For this purpose, the HMD 2 includes a main body portion 2a and a temple portion 2b. When the temple portion 2b is put on the ear from above the glasses 10, the main body portion 2a is arranged in front of the lens of the eyeglasses 10.

本体部2a内のHMDの右目用ディスプレイ12および左目用ディスプレイ14はいずれも有機EL現象を利用したOLED(有機発光ダイオード)ディスプレイパネルにより構成されている。駆動部16は、後述のようにコントローラ4から送られる画像信号に基づいて右目用ディスプレイ12および左目用ディスプレイ14をそれぞれ駆動し、右目用画像および左目用画像を表示する。表示された画像の虚像は、破線矢印で示すように、視線6aおよび8aに沿って右目用接眼光学系18および左目用接眼光学系20によりそれぞれ右目6および左目8に導かれる。駆動部16は、また、コントローラ4の制御に基づいて右目用接眼光学系18および左目用接眼光学系20のフォーカス調節を行うとともに、その光軸を並行移動させて視線6aまたは8aからずらせる視線シフト調節も行う。   Both the right-eye display 12 and the left-eye display 14 of the HMD in the main body 2a are configured by an OLED (organic light emitting diode) display panel using an organic EL phenomenon. The drive unit 16 drives the right-eye display 12 and the left-eye display 14 based on image signals sent from the controller 4 as described later, and displays a right-eye image and a left-eye image. The virtual image of the displayed image is guided to the right eye 6 and the left eye 8 by the right eyepiece optical system 18 and the left eyepiece optical system 20 along the lines of sight 6a and 8a, as indicated by broken line arrows. The drive unit 16 also adjusts the focus of the right-eye eyepiece optical system 18 and the left-eye eyepiece optical system 20 based on the control of the controller 4, and moves the optical axis in parallel to shift the line of sight from the line of sight 6a or 8a. Shift adjustment is also performed.

本体部2a内の右目画像用撮像素子22には、破線矢印で示すように右目の視線6aに沿って入射する光を90度内側(紙面で右側)に屈曲させる右目用屈曲ズームレンズ光学系24によって被写界の実像が結像させられる。同様に、左目画像用撮像素子26には、破線矢印で示すように左目の視線8aに沿って入射する光を90度内側(紙面で左側)に屈曲させる左目用屈曲ズームレンズ光学系28によって被写界の実像が結像させられる。右目画像用撮像素子22および左目画像用撮像素子26で撮像された被写界像は、後述のように駆動部16を介してコントローラ4に送られる。右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28によるズーミング機能により、右目画像用撮像素子22および左目画像用撮像素子26には、等倍の画像だけでなく、実際の被写界を拡大した画像や実際の被写界のワイド領域を集約した画像を結像させることができる。前者は拡大観察に、後者は、視野狭窄の使用者のために実際に見えるよりもワイドな被写界像を視野内に提供するのに適する。   The right-eye image pickup element 22 in the main body 2a has a right-eye bending zoom lens optical system 24 that bends light incident along the line of sight 6a of the right eye 90 degrees inward (right side in the drawing) as indicated by a broken arrow. By this, a real image of the object scene is formed. Similarly, the left-eye image pickup device 26 is covered by a left-eye bending zoom lens optical system 28 that bends light incident along the line of sight 8a of the left eye 90 ° inward (left side in the drawing) as indicated by a dashed arrow. A real image of the scene is formed. The object scene images picked up by the right-eye image pickup device 22 and the left-eye image pickup device 26 are sent to the controller 4 via the drive unit 16 as described later. Due to the zooming function of the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28, the right-eye image pickup device 22 and the left-eye image pickup device 26 not only have the same magnification image but also the actual image. It is possible to form an image in which the field is enlarged or an image in which the wide area of the actual scene is aggregated. The former is suitable for magnifying observation, and the latter is suitable for providing a field image in the field of view that is wider than it would actually look for a user with field stenosis.

上記の右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28を用いた撮像系は入射光軸方向の厚みを薄くし、本体部2aが前方に過度に飛び出さないようにする。また、右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28は屈曲後の光学系がそれぞれ視線6a、8aに垂直な方向のスペースを占めるとともに、屈曲方向の更に内側に右目画像用撮像素子22および左目画像用撮像素子26が配置される。この配置により、視線6aおよび8aの外側を遮る部品配置を避け、視線6aおよび8aの外側の実際の被写界が直接見えるようにしている。人間の目は、200度程度の広角の被写界の情報が認識できるといわれているが、実施例1において右目用ディスプレイ12および左目用ディスプレイ14に表示される被写界の情報は約40度である。このため、実施例1では、右目用ディスプレイ12および左目用ディスプレイ14に表示される画像情報の外側の被写界についても直接これを見ることにより視覚情報が得られるようにしている。   In the imaging system using the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28, the thickness in the direction of the incident optical axis is reduced so that the main body 2a does not protrude excessively forward. Further, the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 occupy a space in the direction perpendicular to the lines of sight 6a and 8a, respectively, and the right-eye image further inside the bending direction. An imaging element 22 and a left-eye image imaging element 26 are disposed. This arrangement avoids the arrangement of parts that block the outside of the lines of sight 6a and 8a, so that the actual field outside the lines of sight 6a and 8a can be seen directly. Although it is said that the human eye can recognize information on a wide-angle field of about 200 degrees, the information on the field displayed on the right-eye display 12 and the left-eye display 14 in Example 1 is about 40. Degree. Therefore, in the first embodiment, visual information can be obtained by directly viewing the object scene outside the image information displayed on the right-eye display 12 and the left-eye display 14.

以上の構成により、実施例1の視覚補助システムは、右目画像用撮像素子22および左目画像用撮像素子26で撮像された被写界像をコントローラ4に送って使用者の症状に合わせて処理し、コントローラ4から戻される処理画像を右目用ディスプレイ12および左目用ディスプレイ14に観察可能に表示することにより、被写界を直接目で見るよりも良好な視覚情報が得られるようにする。例えば、夜盲症(暗順応障害)の使用者にはゲインアップを行うとともにガンマ補正により暗部を持ち上げた処理画像を提供する。一方、羞明(明順応障害)の使用者にはガンマ補正により高輝度部分を圧縮した処理画像を提供する。また、文字等の判読性を高めるため、白黒反転画像を提供することも可能である。さらに、上記のように右目用ディスプレイ12および左目用ディスプレイ14に表示される画像情報の周りの被写界についても直接これを見ることにより視覚情報が得ることができる。なお、直接画像については、後述のように、その透過率を制御することにより、表示画像との調和が図られる。   With the above-described configuration, the visual assistance system according to the first embodiment sends the object scene image captured by the right-eye image imaging element 22 and the left-eye image imaging element 26 to the controller 4 for processing according to the user's symptoms. By displaying the processed image returned from the controller 4 on the right-eye display 12 and the left-eye display 14 so as to be observable, it is possible to obtain better visual information than when the object scene is viewed directly. For example, a user with night blindness (dark adaptation disorder) is provided with a processed image in which the gain is increased and the dark portion is raised by gamma correction. On the other hand, a processed image in which a high-intensity portion is compressed by gamma correction is provided to a user of dawn (light adaptation disorder). In order to improve the legibility of characters and the like, it is also possible to provide a black and white inverted image. Furthermore, visual information can be obtained by directly viewing the object scene around the image information displayed on the right-eye display 12 and the left-eye display 14 as described above. As will be described later, the direct image is harmonized with the display image by controlling the transmittance.

上記でも触れたように、本発明の実施例1においては、通常状態では、右目用ディスプレイ12の虚像を右目6に導く右目用接眼光学系18の光軸は右目用屈曲スームレンズ光学系24の入射光軸と一致している。同様に、左目用ディスプレイ14の虚像を左目8に導く左目用接眼光学系20の光軸は左目用屈曲スームレンズ光学系28の入射光軸と一致している。そして、必要に応じ、駆動部16の制御により右目用接眼光学系18または左目用接眼光学系20の光軸を並行移動させて視線6aまたは8aからずらせることが可能である。これは、例えば加齢黄斑変性等により中心視覚に障害がある場合、右目画像用撮像素子22または左目画像用撮像素子26で撮像された被写界中心の像が障害のない網膜の中心部以外に見えるよう視線をシフトするためである。   As described above, in the first embodiment of the present invention, in the normal state, the optical axis of the right-eye eyepiece optical system 18 that guides the virtual image of the right-eye display 12 to the right eye 6 is incident on the right-eye bent-smooth lens optical system 24. It coincides with the optical axis. Similarly, the optical axis of the left-eye eyepiece optical system 20 that guides the virtual image of the left-eye display 14 to the left eye 8 coincides with the incident optical axis of the left-eye bent smooth lens optical system 28. If necessary, the optical axis of the right-eye eyepiece optical system 18 or the left-eye eyepiece optical system 20 can be moved in parallel by the control of the drive unit 16 so as to be shifted from the line of sight 6a or 8a. This is because, for example, when there is a disturbance in central vision due to age-related macular degeneration or the like, the image of the center of the field imaged by the right-eye image pickup device 22 or the left-eye image pickup device 26 is other than the central portion of the retina where there is no failure. This is to shift the line of sight so that it can be seen.

また、上述のように本発明の実施例1では、視線6aおよび8aの外側の実際の被写界が背景として直接見えるように構成している。そして、矢印30で示す右目外側からの光路中には、右目用可変透過率NDフィルタ33が設けられている。右目用可変透過率NDフィルタ33は例えば液晶シャッタにより構成され、駆動部16の制御により、最大透過率と遮光状態との間で透過率が可変となっている。同様に、矢印34で示す左目外側からの光路中には、左目用可変透過率NDフィルタ36が設けられており、駆動部16の制御により、最大透過率と遮光状態との間で透過率が可変となっている。このように、右目用可変透過率NDフィルタ32と左目用可変透過率NDフィルタ36は互いに独立に透過率が変更可能である。透過率の変更は、周囲の明るさ変化に対する瞳孔の順応能力の補助に用いられる他、表示部の明るさの変化に合わせた透過率変更により表示部を見やすくするとともに、表示部の画像と背景としての直接観察画像との調和を図るために活用される。さらに表示部に白黒反転表示を行なったときは右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36を遮光状態として、白黒反転画像観察の妨げとならないようにする。   Further, as described above, the first embodiment of the present invention is configured so that the actual field outside the lines of sight 6a and 8a can be directly seen as the background. A right-eye variable transmittance ND filter 33 is provided in the optical path from the outside of the right eye indicated by the arrow 30. The right-eye variable transmittance ND filter 33 is constituted by, for example, a liquid crystal shutter, and the transmittance is variable between the maximum transmittance and the light-shielded state under the control of the driving unit 16. Similarly, a left-eye variable transmittance ND filter 36 is provided in the optical path from the outside of the left eye indicated by the arrow 34, and the transmittance is controlled between the maximum transmittance and the light-shielded state under the control of the driving unit 16. It is variable. Thus, the transmittance of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 can be changed independently of each other. The change in transmittance is used to assist the pupil's adaptability to changes in ambient brightness, and the display is made easier to see by changing the transmittance according to the change in brightness of the display. It is used to achieve harmony with direct observation images. Further, when black and white reverse display is performed on the display unit, the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 are set in a light-shielded state so as not to interfere with black-and-white reverse image observation.

図1からも明らかなように、上記で説明した実施例1における各構成は、すべて本体部2a内に収納されており、本体部2a前面から突出する部分がない。従って、HMD2を装着した使用者に向かい合う人から見たとき、HMD2は通常のサングラスに近似したものに感じられ、特別な機器で観察されているという違和感が軽減される。   As is clear from FIG. 1, all the components in the first embodiment described above are housed in the main body 2a, and there is no portion protruding from the front surface of the main body 2a. Therefore, when viewed from a person facing the user wearing the HMD2, the HMD2 is felt to be similar to normal sunglasses, and the uncomfortable feeling that it is observed with a special device is reduced.

HMD2の本体部2aにおける駆動部16は、パラレルデータ通信および電源供給ライン38でコントローラ4と接続され、相互の通信およびコントローラ4からHMD2への電源供給をおこなっている。また、環境の明るさに応じて右目用ディスプレイ12および左目用ディスプレイ14に提供される画像処理を変更するためHMD2のツル部2bには環境光センサ40が設けられており、通信ライン42により環境光の情報をコントローラ4に送っている。さらに、顔の向きを変えた場合等における特に拡大時の画像急変を緩和するため加速度センサ44がツル部2bに設けられており、通信ライン46により顔の動き等の情報をコントローラ4に送っている。パラレルデータ通信および電源供給ライン38、通信ライン42、46は実際には一本の接続ケーブルにまとめられている。また、図1では、環境光センサ40、加速度センサ44および生体センサ45が直接コントローラと通信する構成を図示しているが、駆動部16を介してパラレルデータ通信および電源供給ライン38で通信するよう構成してもよい。   The drive unit 16 in the main body 2a of the HMD 2 is connected to the controller 4 through parallel data communication and a power supply line 38, and performs mutual communication and power supply from the controller 4 to the HMD 2. In addition, in order to change the image processing provided to the right-eye display 12 and the left-eye display 14 according to the brightness of the environment, an ambient light sensor 40 is provided on the vine portion 2b of the HMD 2 and the communication line 42 is used to Light information is sent to the controller 4. Further, an acceleration sensor 44 is provided in the temple portion 2b to alleviate a sudden change in the image especially when the face is changed, and the information such as the movement of the face is sent to the controller 4 through the communication line 46. Yes. The parallel data communication and power supply line 38 and the communication lines 42 and 46 are actually combined into one connection cable. 1 shows a configuration in which the ambient light sensor 40, the acceleration sensor 44, and the biological sensor 45 directly communicate with the controller. However, the parallel light communication and the power supply line 38 communicate with each other via the drive unit 16. It may be configured.

コントローラ4は、上記のようなHMD2との通信およびHMD2への電源供給のための入出力部48を有する。コントローラ4の画像処理部50は、パラレルデータ通信および電源供HMD2の右目画像用撮像素子22および左目画像用撮像素子26から駆動部16を介して給ライン38により受信した画像を処理し、使用者の補助に適した画像データとして表示制御部52に送る。表示制御部52からの画像データはパラレルデータ通信および電源供給ライン38により送信され、駆動部16は受信した画像データに基づいて右目用ディスプレイ12および左目用ディスプレイ14を駆動し、画像表示する。また、背景制御部54は、パラレルデータ通信および電源供給ライン38を通じて目用可変透過率NDフィルタ32と左目用可変透過率NDフィルタ36を制御する。   The controller 4 has an input / output unit 48 for communicating with the HMD 2 and supplying power to the HMD 2 as described above. The image processing unit 50 of the controller 4 processes the image received by the supply line 38 via the drive unit 16 from the image sensor 22 for the right eye image and the image sensor 26 for the left eye image of the parallel data communication and power supply HMD 2, and Is sent to the display control unit 52 as image data suitable for assistance. Image data from the display control unit 52 is transmitted by parallel data communication and the power supply line 38, and the drive unit 16 drives the right-eye display 12 and the left-eye display 14 based on the received image data to display an image. The background control unit 54 controls the eye variable transmittance ND filter 32 and the left eye variable transmittance ND filter 36 through parallel data communication and the power supply line 38.

プリセット記憶部56は、使用者の個別症状および環境光に応じた画像処理情報および可変透過率NDフィルタにおける透過率情報のプリセット値を記憶している。操作部58はコントローラ表示部60の表示との連携で上記のプリセット値の入力操作および白黒反転などの画像処理選択操作を行なう。中央制御部62は、プリセット記憶部56の画像処理情報に操作部58の操作、環境光センサ40および加速度センサ44からの情報も加味して画像処理部50を制御する。また、中央制御部58は、プリセット記憶部56の透過率情報に環境光センサ40からの情報も加味して背景制御部50を制御する。背景制御部50の制御データはパラレルデータ通信および電源供給ライン38により送信され、駆動部16受信したデータに基づき、右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36の透過率を変化させて、直接観察される背景の明るさを制御する。中央制御部62はさらに、以上のような機能に関連して、表示制御部52、コントローラ表示部60を制御する。電源部64は、コントローラ全体に給電するとともに、入出力部48を介してHMD2にも給電する。   The preset storage unit 56 stores image processing information corresponding to individual symptoms of the user and ambient light, and preset values of transmittance information in the variable transmittance ND filter. The operation unit 58 performs the preset value input operation and the image processing selection operation such as black and white reversal in cooperation with the display of the controller display unit 60. The central control unit 62 controls the image processing unit 50 by adding the operation of the operation unit 58 and the information from the ambient light sensor 40 and the acceleration sensor 44 to the image processing information of the preset storage unit 56. Further, the central control unit 58 controls the background control unit 50 by adding information from the ambient light sensor 40 to the transmittance information in the preset storage unit 56. The control data of the background control unit 50 is transmitted by the parallel data communication and the power supply line 38, and based on the data received by the driving unit 16, the transmittances of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 are set. Vary the background brightness directly observed. The central control unit 62 further controls the display control unit 52 and the controller display unit 60 in relation to the above functions. The power supply unit 64 supplies power to the entire controller and also supplies power to the HMD 2 via the input / output unit 48.

図2は、実施例1における中央制御部62の動作を説明する基本フローチャートである。フローは、システムへの給電が開始されるとスタートし、ステップS2でプリセット値が記憶されているか否かチェックする。そして記憶があればプリセット値をプリセット記憶部56から読み出し、ステップS6に移行する。一方、ステップS2プリセット値の記憶がなければステップS8に移行し、画像処理において補正を行わない旨のデフォルト値を読み出してステップS6に移行する。   FIG. 2 is a basic flowchart for explaining the operation of the central control unit 62 in the first embodiment. The flow starts when power supply to the system is started, and it is checked in step S2 whether a preset value is stored. If there is a memory, the preset value is read from the preset memory 56, and the process proceeds to step S6. On the other hand, if the preset value is not stored in step S2, the process proceeds to step S8, a default value indicating that no correction is performed in the image processing is read, and the process proceeds to step S6.

ステップS6では、右目画像用撮像素子22および左目画像用撮像素子26による撮像を開始し、ステップS10に進んで、所定の明るさを基準とした標準状態の表示制御およびこれに見合う標準状態の背景となるよう右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36の透過率制御を開始する。   In step S6, imaging by the right-eye image imaging device 22 and the left-eye image imaging device 26 is started, and the process proceeds to step S10, where the standard state display control based on the predetermined brightness and the standard state background corresponding thereto are performed. Then, transmittance control of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 is started.

次いでステップS12では、プリセット値を設定する操作が行われたか否かチェックし、設定操作が行われたことが確認されるとステップS14に移行してプリセット値設定処理を行い、ステップS16に移行する。一方、ステップS12でプリセット値設定操作が確認されないときは直接ステップS16に移行する。ステップS14のプリセット値設定処理の詳細については後述する。   Next, in step S12, it is checked whether or not an operation for setting a preset value has been performed. If it is confirmed that the setting operation has been performed, the process proceeds to step S14 to perform a preset value setting process, and the process proceeds to step S16. . On the other hand, when the preset value setting operation is not confirmed in step S12, the process directly proceeds to step S16. Details of the preset value setting process in step S14 will be described later.

ステップS16では、使用者に中心視野障害があることがプリセット値として記憶されているか否かチェックし、該当すればステップS16に進んで視線シフト処理を行いステップS20に移行する。一方、ステップS16で使用者が中心視野障害に該当しないことが確認されたときは、直接ステップS20に移行する。このときは、通常状態となり、上述のように右目用接眼光学系18および右目用接眼光学系20の光軸はそれぞれ右目用屈曲スームレンズ光学系24および左目用屈曲スームレンズ光学系26の入射光軸と一致することになる。   In step S16, it is checked whether or not the fact that the user has a central visual field defect is stored as a preset value. If so, the process proceeds to step S16 to perform a line-of-sight shift process, and the process proceeds to step S20. On the other hand, when it is confirmed in step S16 that the user does not correspond to the central visual field disorder, the process directly proceeds to step S20. At this time, the normal state is reached, and the optical axes of the right-eye eyepiece optical system 18 and the right-eye eyepiece optical system 20 are the same as the incident optical axes of the right-eye bent-summed lens optical system 24 and the left-eye bent-summed lens optical system 26, respectively. Will match.

ステップS16では、環境光の明るさが変化したか否かチェックし、変化があれば、ステップS22の右目用表示変更処理、およびステップS24の右目用表示変更処理を順次実行してステップS26に至る。このように、右目用と左目用の表示変更処理はそれぞれ独立して行われる。ステップS26では、右目用背景変更処理が行われ、次いでステップS28の左目用背景変更処理が実行されてステップS30に至る。このように、右目用と左目用の背景変更処理についてもそれぞれ独立した処理が行われる。一方、ステップS20で環境光の変化がなかったときは直接ステップS30に移行する。   In step S16, it is checked whether or not the brightness of the ambient light has changed. If there is a change, the right-eye display change process in step S22 and the right-eye display change process in step S24 are sequentially executed to reach step S26. . In this way, the display change processing for the right eye and the left eye is performed independently. In step S26, the right eye background change process is performed, and then the left eye background change process of step S28 is executed, and the process proceeds to step S30. In this way, independent processing is performed for the right-eye and left-eye background change processing. On the other hand, when there is no change in ambient light in step S20, the process directly proceeds to step S30.

ステップS30では、白黒反転操作があったか否かチェックし、操作があればステップS32に移行して白黒反転表示を行うとともに背景については白黒反転表示の観察を妨げないよう遮光状態としてステップS34に移行する。一方、ステップS30で白黒反転操作がかくにんできないときには直接ステップS34に移行する。ステップS34では電源供給中か否かがチェックされ、供給中であればステップS12に戻って、以下、ステップS36で電源供給中であること確認される限りステップS12からステップS36を繰り返す。一方、ステップS36で電源供給中であることが確認されなければ直ちにフローを終了する。   In step S30, it is checked whether or not a black and white reversal operation has been performed. If there is an operation, the flow proceeds to step S32 to perform black and white reversal display and the background is shifted to step S34 in a light-shielding state so as not to prevent observation of black and white reversal display. . On the other hand, when the black and white reversal operation cannot be performed in step S30, the process directly proceeds to step S34. In step S34, it is checked whether the power is being supplied. If the power is being supplied, the process returns to step S12. Thereafter, as long as it is confirmed that the power is being supplied in step S36, steps S12 to S36 are repeated. On the other hand, if it is not confirmed in step S36 that power is being supplied, the flow is immediately terminated.

図3は、図2のステップS22の右目用表示変更処理およびステップS24の左目用表示変更処理の詳細を示すフローチャートであり、両ステップに共通の内容であるが、図2に示すように右目用および左目用にそれぞれ実行される。フローがスタートすると、ステップS42に進み、図1のステップS20において検知された環境光の変化が表示変更処理用にあらかじめ定められた所定値以上か否かチェックする。そして変化が表示変更処理を必要としない所定値以下であれば直ちにフローを終了し、ステップS26に移行する。   FIG. 3 is a flowchart showing details of the right-eye display change process in step S22 and the left-eye display change process in step S24 of FIG. 2, and the contents are common to both steps, but for the right eye as shown in FIG. And for the left eye respectively. When the flow starts, the process proceeds to step S42, and it is checked whether or not the change in ambient light detected in step S20 in FIG. 1 is greater than or equal to a predetermined value that is predetermined for display change processing. If the change is equal to or less than a predetermined value that does not require display change processing, the flow is immediately terminated, and the process proceeds to step S26.

一方、ステップS42で所定以上の変化が検知されるとステップS44に移行し、その変化により環境光が所定値よりも増加したか否かチェックする。ステップS44において環境光が所定値よりも増加したことが検知されるとステップS46で撮像素子のゲインをダウンしてステップS48に移行する。ステップS48では、使用者に明順応障害があるか否かチェックし、該当すればステップS50に進んで高輝度部分を圧縮するガンマ補正を行ってステップS52に進む。ステップS52ではさらに輪郭強調処理を行ってステップS54に移行する。一方ステップS44において環境光が所定値より増加したことが検知されない場合、またはステップS48において使用者が明順応障害であることが確認されない場合は、直接ステップS54に移行する。   On the other hand, when a change greater than or equal to the predetermined value is detected in step S42, the process proceeds to step S44, and it is checked whether or not the ambient light has increased beyond a predetermined value due to the change. If it is detected in step S44 that the ambient light has increased above the predetermined value, the gain of the image sensor is decreased in step S46, and the process proceeds to step S48. In step S48, it is checked whether or not the user has a light adaptation disorder. If yes, the process proceeds to step S50 to perform gamma correction for compressing the high-intensity part, and the process proceeds to step S52. In step S52, contour enhancement processing is further performed, and the process proceeds to step S54. On the other hand, if it is not detected in step S44 that the ambient light has increased above the predetermined value, or if it is not confirmed in step S48 that the user is a light adaptation disorder, the process proceeds directly to step S54.

ステップS54では、環境光が所定値よりも減少したか否かがチェックする。そして、環境光が所定値よりも減少したことが検知されるとステップS56で撮像素子のゲインをアップしてステップS58に移行する。ステップS58では、使用者に暗順応障害があるか否かチェックし、該当すれば60に進んで低輝度部分を持ち上げるガンマ補正を行ってステップS62に進む。ステップS62ではさらに輪郭強調処理を行ってステップS64に移行する。一方ステップS54において環境光が所定値より減少したことが検知されない場合、またはステップS58において使用者が暗順応障害であることが確認されない場合は、直接ステップS64に移行する。   In step S54, it is checked whether ambient light has decreased below a predetermined value. When it is detected that the ambient light has decreased below the predetermined value, the gain of the image sensor is increased in step S56, and the process proceeds to step S58. In step S58, it is checked whether or not the user has a dark adaptation failure, and if applicable, the process proceeds to 60 to perform gamma correction for lifting the low luminance part, and the process proceeds to step S62. In step S62, contour enhancement processing is further performed, and the process proceeds to step S64. On the other hand, if it is not detected in step S54 that the ambient light has decreased below the predetermined value, or if it is not confirmed in step S58 that the user is a dark adaptation disorder, the process directly proceeds to step S64.

ステップS54では、明るさの変化に瞳孔が反応する時間に応じた表示変更補正を行うためのカウンタをリセットしてスタートさせ、ステップS66に進む。ステップS66では、前回の明るさ変化に基づく瞳孔反応の補正中であるか否かチェックし、該当すればステップS68に進んで前回の瞳孔反応補正をキャンセルしてステップS70に進む。一方、ステップS66で前回瞳孔反応補正中であることが検知されなければ直接ステップS70に進む。ステップS70では瞳孔反応補正を開始させるとともにカウンタに基づき瞳孔反応が終了した時点で瞳孔反応補正を自動終了させる処理をスタートさせてフローを終了する。   In step S54, a counter for correcting display change according to the time when the pupil reacts to the change in brightness is reset and started, and the process proceeds to step S66. In step S66, it is checked whether or not the pupil response correction based on the previous brightness change is being performed. If yes, the process proceeds to step S68, the previous pupil response correction is canceled, and the process proceeds to step S70. On the other hand, if it is not detected in step S66 that the previous pupil reaction correction is being performed, the process proceeds directly to step S70. In step S70, pupil response correction is started, and processing for automatically ending pupil response correction is started when the pupil response is completed based on the counter, and the flow ends.

図4は、図2のステップS26の右目用背景変更処理およびステップS28の左目用背景変更処理の詳細を示すフローチャートであり、両ステップに共通の内容であるが、図2に示すように右目用および左目用にそれぞれ実行される。フローがスタートすると、ステップS82に進み、図1のステップS20において検知された環境光の変化により環境光が所定値よりも増加したか否かチェックする。通常、図4のステップS82における所定値は、図3のステップS44における所定値よりもレベルが低い。   FIG. 4 is a flowchart showing details of the right-eye background changing process in step S26 and the left-eye background changing process in step S28 of FIG. 2, and the contents are common to both steps, but for the right eye as shown in FIG. And for the left eye respectively. When the flow starts, the process proceeds to step S82, and it is checked whether the ambient light has increased beyond a predetermined value due to the change in ambient light detected in step S20 in FIG. Normally, the predetermined value in step S82 in FIG. 4 is lower in level than the predetermined value in step S44 in FIG.

ステップS82において環境光が所定値よりも増加したことが検知されるとステップS84に進み、環境光の増加に対応して可変透過率NDフィルタの透過率を減少させてステップS86に移行する。ステップS86では、今回の環境光変化に基づいて表示部変更処理が行われたか否かチェックし、該当すればステップS88に進んで表示部変更に対応して可変透過率NDフィルタの透過率を変更してステップS90に至る。一方ステップS82において環境光が所定値より増加したことが検知されない場合、またはステップS86において表示部変更処理があったことが確認されない場合は、直接ステップS90に移行する。   If it is detected in step S82 that the ambient light has increased above the predetermined value, the process proceeds to step S84, and the transmittance of the variable transmittance ND filter is decreased corresponding to the increase in ambient light, and the process proceeds to step S86. In step S86, it is checked whether or not the display portion change processing has been performed based on the current ambient light change. If yes, the process proceeds to step S88 to change the transmittance of the variable transmittance ND filter in response to the display portion change. Then, step S90 is reached. On the other hand, if it is not detected in step S82 that the ambient light has increased above the predetermined value, or if it is not confirmed in step S86 that the display unit changing process has been performed, the process proceeds directly to step S90.

ステップS90では、図1のステップS20において検知された環境光の変化により環境光が所定値よりも減少したか否かチェックする。通常、図4のステップS90における所定値は、図3のステップS54における所定値よりもレベルが高い。ステップS90において環境光が所定値よりも減少したことが検知されるとステップS92に進み、可変透過率NDフィルタの透過率が既に最大になっているか否かチェックする。そして最大値でなければステップS94に進み、環境光の増加に対応して可変透過率NDフィルタの透過率を増加させてステップS96に移行する。但し、この増加は最大透過率が限度である。一方、ステップS92で可変透過率NDフィルタの透過率が既に最大になっていることが検知された場合は直接ステップS96に移行する。   In step S90, it is checked whether or not the ambient light has decreased below a predetermined value due to the change in ambient light detected in step S20 of FIG. Usually, the predetermined value in step S90 of FIG. 4 has a higher level than the predetermined value in step S54 of FIG. When it is detected in step S90 that the ambient light has decreased below the predetermined value, the process proceeds to step S92, and it is checked whether or not the transmittance of the variable transmittance ND filter has already been maximized. If it is not the maximum value, the process proceeds to step S94, the transmittance of the variable transmittance ND filter is increased corresponding to the increase in the ambient light, and the process proceeds to step S96. However, this increase is limited by the maximum transmittance. On the other hand, if it is detected in step S92 that the transmittance of the variable transmittance ND filter has already been maximized, the process proceeds directly to step S96.

ステップS96では、今回の環境光変化に基づいて表示部変更処理が行われたか否かチェックし、該当すればステップS98に進んで表示部変更に対応して可変透過率NDフィルタの透過率を変更してステップS100に移行する。但し、この増加は最大透過率が限度である。一方ステップS90において環境光が所定値より減少したことが検知されない場合、またはステップS96において表示部変更処理があったことが確認されない場合は、直接ステップS90に移行する。   In step S96, it is checked whether or not the display portion changing process has been performed based on the current ambient light change. If applicable, the process proceeds to step S98 to change the transmittance of the variable transmittance ND filter in response to the display portion change. Then, the process proceeds to step S100. However, this increase is limited by the maximum transmittance. On the other hand, if it is not detected in step S90 that the ambient light has decreased below the predetermined value, or if it is not confirmed in step S96 that the display unit changing process has been performed, the process proceeds directly to step S90.

ステップS100では、図3において表示変更のためにスタートされた瞳孔反応補正処理があるか否かチェックし、該当すればステップS102に進んで対応する可変透過率NDフィルタの透過率補正を開始させるとともに表示変更のための動向反応補正に対応して補正を自動終了させる処理をスタートさせてフローを終了する。   In step S100, it is checked whether or not there is a pupil response correction process started for display change in FIG. 3, and if applicable, the process proceeds to step S102 to start the transmittance correction of the corresponding variable transmittance ND filter. In response to the trend response correction for display change, a process for automatically ending the correction is started and the flow is ended.

図5は、図2のステップS34における画像急変緩和処理の詳細を示すフローチャートである。フローがスタートすると、ステップS112で表示倍率が等倍以上か否かチェックする。そしてこれに該当しない場合、すなわち、表示倍率が背景の倍率と等倍かまたはより低倍率であって顔の向きを変えた場合等における画像急変の緩和を必要としない場合は、直ちにフローを終了し、ステップS36に移行する。   FIG. 5 is a flowchart showing details of the sudden image change mitigation process in step S34 of FIG. When the flow starts, it is checked in step S112 whether the display magnification is equal to or larger than the same magnification. If this is not the case, that is, if the display magnification is the same as or lower than the background magnification and the face orientation is not changed, etc. Then, the process proceeds to step S36.

これに対し、ステップS112で表示倍率が等倍以上であることが検知されるとステップS114に進み、顔の向きを変えたことに基づく加速度が検知されるか否か検知する。そして加速度が検知されるとステップS116に進み、右目用ディスプレイ12および左目用ディスプレイ14における前フレームの表示を維持し、ステップS118に進む。ステップS118では表示倍率に対応して予め決められている時間(例えば表示倍率2倍で3フレーム分の時間)が経過したか否かチェックする。そして時間経過がなければステップS116に戻り、以下、ステップS118で時間経過が検知されるまでステップS116およびステップS118を繰り返し、前フレームを維持する。一方、ステップS118で時間経過が検知されるとステップS120に進む。   On the other hand, when it is detected in step S112 that the display magnification is equal to or larger than the same magnification, the process proceeds to step S114, and it is detected whether or not an acceleration based on the change of the face orientation is detected. When acceleration is detected, the process proceeds to step S116, the display of the previous frame on the right-eye display 12 and the left-eye display 14 is maintained, and the process proceeds to step S118. In step S118, it is checked whether or not a predetermined time corresponding to the display magnification (for example, a time corresponding to 3 frames at a display magnification of 2) has elapsed. If no time has elapsed, the process returns to step S116, and thereafter, step S116 and step S118 are repeated until the time elapse is detected in step S118, and the previous frame is maintained. On the other hand, when the passage of time is detected in step S118, the process proceeds to step S120.

ステップS120では、再度加速度検知を行い、顔の動きが止まることにより加速度が検知されなくなった場合はステップS122に進み、ステップS116で維持されたフレームの次のフレームを表示してステップS126に移行する。ステップS122の次フレーム表示は通常よりも早いフレームレートで行われる。ステップS126では現フレームの表示に追いついたかどうかチェックが行われ、まだ追いつかない場合はステップS120に戻る。以下ステップS120で新たな加速度が検知されずステップS126で現フレームに追いつかない限りステップS120からステップS126が繰り返され、通常フレームレートよりも早いフレームレートで現フレームへの復帰が行われる。そしてステップS126で現フレームが表示され鵜状態となったことが検知されるとフローを終了する。これにより、倍率が大きい状態で顔の向きを変えた場合の画像の急変が緩和され、画像の動きに遅延がかけられる。なおこの遅延は顔の動きが止まったときに速やかに取り戻される。一方、ステップS120で加速度が検知され、顔の動きが継続しているときは、ステップS124に進み、現フレームを表示してフローを終了する。従って顔の動きが継続しているときはフレームの間引かれる形で画像の急変が健和される。   In step S120, acceleration detection is performed again. When acceleration is no longer detected due to the stop of the movement of the face, the process proceeds to step S122, the next frame of the frame maintained in step S116 is displayed, and the process proceeds to step S126. . The next frame display in step S122 is performed at a frame rate faster than usual. In step S126, it is checked whether or not the current frame has been displayed. If the current frame has not been caught, the process returns to step S120. Thereafter, unless a new acceleration is detected in step S120 and the current frame cannot be caught in step S126, steps S120 to S126 are repeated, and return to the current frame is performed at a frame rate faster than the normal frame rate. Then, when it is detected in step S126 that the current frame is displayed and the camera is in the saddle state, the flow is terminated. This alleviates sudden changes in the image when the face direction is changed in a state where the magnification is large, and delays the movement of the image. This delay is quickly recovered when the facial movement stops. On the other hand, when the acceleration is detected in step S120 and the facial motion continues, the process proceeds to step S124, the current frame is displayed, and the flow is ended. Therefore, when the movement of the face continues, the sudden change of the image is reduced in a form that is thinned out of the frame.

図6は、図2のステップS14におけるプリセット値設定処理の詳細を示すフローチャートである。フローがスタートすると、ステップS132で医師による設定か否かのチェックが行われる。該当すればステップS134に進み、医師設定処理を実行してステップS136に移行する。一方、ステップS132で医師による設定であることが検知されない場合は直接ステップS136に移行する。ステップS136では、視能訓練士による設定か否かのチェックが行われる。該当すればステップS138に進み、視能訓練士設定処理を実行してステップS140に移行する。一方、ステップS136で視能訓練士による設定であることが検知されない場合は直接ステップS140に移行する。   FIG. 6 is a flowchart showing details of the preset value setting process in step S14 of FIG. When the flow starts, it is checked in step S132 whether the setting is made by a doctor. If it corresponds, it progresses to step S134, a doctor setting process is performed, and it transfers to step S136. On the other hand, if it is not detected in step S132 that the setting is made by the doctor, the process directly proceeds to step S136. In step S136, it is checked whether or not the setting is made by a vision trainer. If it corresponds, it progresses to step S138, a vision trainer setting process is performed, and it transfers to step S140. On the other hand, if it is not detected in step S136 that the setting is made by the vision trainer, the process proceeds directly to step S140.

ステップS140では、使用者本人による設定か否かがチェックされる。そして該当すればステップS142で右目設定をスタートしステップS144では環境光初期設定が行われる。本人設定は、実際に本人がHMD2を装着し、右目用ディスプレイ12を観察することで設定の適否を判断する。具体的には、ステップS146において本人による表示補正パラメータの変更が行われる。そしてステップS148において右目用ディスプレイ12により観察される画像が最適であるか否かについて本人の判断を求める。そして最適との判断ができなければステップS146に戻り、以下ステップS146とステップS148を繰り返すことでパラメータ変更と本人の判断が繰り返される。そしてステップS148において本人による最適判断なされて操作部58が操作されるとステップS150に進み、その状態におけるパラメータを記憶してステップS152に移行する。   In step S140, it is checked whether the setting is made by the user himself / herself. If applicable, right eye setting is started in step S142, and ambient light initial setting is performed in step S144. In the personal setting, the user actually wears the HMD 2 and observes the right-eye display 12 to determine whether the setting is appropriate. Specifically, the display correction parameter is changed by the person in step S146. In step S148, the person's judgment is obtained as to whether or not the image observed by the right-eye display 12 is optimal. If it cannot be determined that it is optimal, the process returns to step S146, and thereafter, step S146 and step S148 are repeated to repeat the parameter change and the person's determination. Then, when the optimum determination is made by the user in step S148 and the operation unit 58 is operated, the process proceeds to step S150, the parameters in that state are stored, and the process proceeds to step S152.

ステップS152では、上記のようにして記憶されるパラメータ蓄積記憶が所定回数に達したか否かチェックする。ステップS152において蓄積記憶が所定数に達していなければステップS146に戻り、以下蓄積記憶が所定数に達するまでステップS146からステップS152が繰り返される。一方、ステップS152において蓄積記憶が所定数に達するとステップS154に進み、記憶されたパラメータの平均による設定パラメータの確定を行う。   In step S152, it is checked whether the parameter storage stored as described above has reached a predetermined number of times. If the accumulated storage has not reached the predetermined number in Step S152, the process returns to Step S146, and Steps S146 to S152 are repeated until the accumulated storage reaches the predetermined number. On the other hand, when the accumulated storage reaches a predetermined number in step S152, the process proceeds to step S154, and the set parameter is determined by averaging the stored parameters.

次いで、ステップS156では、設定の目的で環境光を自動変更してステップS158に進む。ステップS158では、環境光の変更処理が終了したか否かチェックする。変更処理が終了していなければステップS146に戻り、以下環境光変更が終了しない限りステップS146からステップS158を繰り返し、右目用設定が継続される。一方、ステップS158で環境光変更処理が終了するとステップS160の左目設定処理に移行する。ステップS160の左目設定処理の詳細は、ステップS146からステップS158における右目用設定処理と同じであるが、煩雑を避けるためステップS160にまとめて図示している。ステップS160の左目用設定処理が終了するとフローを終了し、図2のステップS16に移行する。一方ステップS140で本人による設定であることが検知されなければ、直ちにフローを終了する。   Next, in step S156, the ambient light is automatically changed for the purpose of setting, and the process proceeds to step S158. In step S158, it is checked whether or not the ambient light changing process has been completed. If the change process has not ended, the process returns to step S146, and thereafter, unless the ambient light change is ended, steps S146 to S158 are repeated, and the setting for the right eye is continued. On the other hand, when the ambient light changing process ends in step S158, the process proceeds to the left eye setting process in step S160. The details of the left-eye setting process in step S160 are the same as those in the right-eye setting process in steps S146 to S158, but are collectively shown in step S160 to avoid complication. When the left eye setting process in step S160 ends, the flow ends, and the process proceeds to step S16 in FIG. On the other hand, if it is not detected in step S140 that the setting is made by the user, the flow is immediately terminated.

以上の実施例1に示した種々の特徴の実施は、上記の実施例1に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。例えば、図3のフローでは、使用者に明順応障害がある場合に輪郭強調を行うとともに、使用者に暗順応障害がある場合にコントラスト強調を行うようにしているが、このような使い分けは任意であり、明順応障害がある場合でも暗順応障害がある場合でも、輪郭強調およびコントラスト強調を採用することが可能である。   The implementation of the various features shown in the first embodiment is not limited to the first embodiment, and other embodiments can be implemented as long as the advantages can be enjoyed. For example, in the flow of FIG. 3, contour enhancement is performed when the user has a light adaptation disorder, and contrast enhancement is performed when the user has a dark adaptation disorder. It is possible to employ contour enhancement and contrast enhancement regardless of whether there is a light adaptation disorder or a dark adaptation disorder.

図7は、本発明の実施の形態に係る視覚補助システムの実施例2における画像急変緩和処理の詳細を示すフローチャートである。実施例2の全体構成は図1における実施例1のブロック図と共通である。また、その基本動作は、図における実施例1の基本フローチャートと共通である。従って、共通の部分については、実施例1を援用し、説明を省略する。実施例2が実施例1と異なるのは、図2のステップS34における画像急変緩和処理の具体的構成である。図7のフローチャートはこのような実施例2において援用される図2のステップS34の詳細を示すものである。   FIG. 7 is a flowchart showing the details of the sudden image change mitigation process in Example 2 of the visual assistance system according to the embodiment of the present invention. The overall configuration of the second embodiment is the same as the block diagram of the first embodiment in FIG. The basic operation is the same as the basic flowchart of the first embodiment shown in the figure. Therefore, about a common part, Example 1 is used and description is abbreviate | omitted. The second embodiment differs from the first embodiment in the specific configuration of the image sudden change mitigation process in step S34 of FIG. The flowchart of FIG. 7 shows the details of step S34 of FIG.

図7のフローがスタートすると、ステップS162で所定量以上の加速度が検知されるか否かチャックされる。加速度の検知があればステップS164に進み、一連の加速度検知において加速度を最初に検知してから所定時間(例えば2秒)経過したか否かがチェックされる。所定時間が経過していなければステップS166に進み、一連の加速度検知の履歴分析を行いステップS168に移行する。ステップS168では、分析を開始してから所定の時間(例えば0.5秒)が経過したか否化チェックする。所定の時間が経過していなければステップS166に戻り、以下所定時間が経過するまでステップS166とステップS168を繰り返して分析を継続する。   When the flow of FIG. 7 is started, whether or not an acceleration of a predetermined amount or more is detected is chucked in step S162. If acceleration is detected, the process proceeds to step S164, and it is checked whether or not a predetermined time (for example, 2 seconds) has elapsed since the acceleration was first detected in a series of acceleration detection. If the predetermined time has not elapsed, the process proceeds to step S166, a series of acceleration detection history analysis is performed, and the process proceeds to step S168. In step S168, whether or not a predetermined time (for example, 0.5 seconds) has elapsed since the analysis was started is checked. If the predetermined time has not elapsed, the process returns to step S166, and thereafter, the analysis is continued by repeating steps S166 and S168 until the predetermined time elapses.

一方、ステップS168で分析を開始してから所定の時間が経過したことが確認されたときはステップS170に進み、履歴分析の結果、検知された一連の加速度変化が微小振動に該当するか否かがチェックされる。そして微小振動が検知されたときは、ステップS172に進んで前フレームの表示を維持し、表示の変更を停止する。これは意図しない体の震えなどによる微小振動による画像のブレを防止するためである。そしてステップS174において同方向の加速度が検知されたか否かをチェックする。   On the other hand, when it is confirmed that a predetermined time has elapsed since the analysis was started in step S168, the process proceeds to step S170, and whether or not a series of acceleration changes detected as a result of the history analysis corresponds to minute vibrations. Is checked. When the minute vibration is detected, the process proceeds to step S172, the display of the previous frame is maintained, and the display change is stopped. This is to prevent image blurring due to minute vibrations caused by unintentional body tremors. In step S174, it is checked whether or not acceleration in the same direction is detected.

ステップS174で同方向の加速度が検知されない場合は、ステップS164に戻り、加速度を最初に検知してから所定時間が経過したことがステップS164で検知されない限り、ステップS164からステップS174を繰り返す。一方、ステップS174で同方向の加速度が検知されたときは、顔の向きを変えた等の意図的な動作が行われたものと判断し、表示を変更停止の状態から現フレームに変更しステップS178に移行する。なお、ステップS170で履歴分析の結果微小振動でないと判断された場合は、直ちにステップS178に移行する。   If the acceleration in the same direction is not detected in step S174, the process returns to step S164, and steps S164 to S174 are repeated unless it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected. On the other hand, when acceleration in the same direction is detected in step S174, it is determined that an intentional operation such as changing the orientation of the face has been performed, and the display is changed from the change stop state to the current frame. The process proceeds to S178. If it is determined in step S170 that it is not a minute vibration as a result of history analysis, the process immediately proceeds to step S178.

ステップS178では、現在の表示倍率の確認を行い、ステップS180に進んで表示倍率が当倍以上か否かチェックする。そして等倍以上であれば、ステップS182で倍率依存コマ落としを指示してステップS184に移行する。ステップS182の倍率依存コマ落としでは、例えば倍率が1.5倍のときフレームレートを半分に落とし、倍率が2倍の時はフレームレートを3分の1に落とすなど、倍率に依存したコマ落としを行い、倍率が高い程フレームレートを落として画像が短時間に細かく動かないようにし、拡大画像による映像酔い等を防止する。一方、ステップS180で画像が等倍以上でないときはステップS186に進み、通常フレームレートでの表示を指示してステップS184に移行する。   In step S178, the current display magnification is confirmed, and the process proceeds to step S180 to check whether the display magnification is equal to or larger than the current magnification. If it is equal to or greater than the same magnification, in step S182, the magnification dependent frame dropping is instructed, and the process proceeds to step S184. In the magnification-dependent frame dropping in step S182, for example, the frame rate is reduced to half when the magnification is 1.5 times, and the frame rate is reduced to one third when the magnification is 2 times. The higher the magnification is, the lower the frame rate is so that the image does not move finely in a short time, thereby preventing video sickness caused by the enlarged image. On the other hand, if it is determined in step S180 that the image is not equal to or larger than the same size, the process proceeds to step S186 to instruct display at the normal frame rate, and the process proceeds to step S184.

ステップS184では、加速度検知の有無を再度検知し、引き続き加速度が検知されるときはステップS164に戻り、加速度を最初に検知してから所定時間が経過したことがステップS164で検知されない限り、ステップS164からステップS188を繰り返す。一方、ステップS184で加速度検知がないことが確認されるとステップS188に進み、現フレームの表示を指示してフローを終了する。   In step S184, the presence / absence of acceleration detection is detected again. If acceleration is subsequently detected, the process returns to step S164, and unless it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected, step S164 is performed. To repeat step S188. On the other hand, if it is confirmed in step S184 that no acceleration is detected, the process proceeds to step S188 to instruct the display of the current frame, and the flow ends.

また、ステップS164で加速度を最初に検知してから所定時間が経過したことが検知されたときは、たとえ加速度検知が継続していたとしても直ちにフローを終了する。これは図7のフローに長時間留まることによって図2における他のタスクを実行できなくなるのを防止するためである、図2に明らかなように他にタスクなければステップS12からステップS32の繰り返しの中でステップS34に至るので、図7のフローが繰り返され、加速度検知があればこれに対応する図7の機能を継続することができる。なお、ステップS162で加速度が検知されない場合はステップS190に移行し、通常フレームレートでの表示を指示してフローを終了する。この場合、図7のフローには実質的に動作は行われないことになるが、通常表示状態以外でステップS162に至り加速度検知がされない場合のためにステップS190を置いている。   If it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected, the flow is immediately ended even if the acceleration detection is continued. This is to prevent other tasks in FIG. 2 from being unable to be executed due to staying in the flow of FIG. 7 for a long time. As apparent from FIG. 2, if there are no other tasks, the process from step S12 to step S32 is repeated. In step S34, the flow in FIG. 7 is repeated, and if there is acceleration detection, the corresponding function in FIG. 7 can be continued. If no acceleration is detected in step S162, the process proceeds to step S190, the display at the normal frame rate is instructed, and the flow ends. In this case, substantially no operation is performed in the flow of FIG. 7, but step S190 is set for the case where acceleration is not detected because the process reaches step S162 in a state other than the normal display state.

図8は、本発明の実施の形態に係る視覚補助システムの実施例3における全体構成を示すブロック図である。図8における実施例3の構成は、図1における実施例1と共通するところが多いので、同一部分には同一の番号を付し、説明を省略する。実施例3が実施例1と異なる第一点目は、ツル部2bに脈拍を検知する脈拍センサ66が設けられており使用者が安静状態にあるか歩行中等の活動状態にあるか等の情報を通信ライン68によりコントローラ4に送っている点である。実施例1と同様にして、パラレルデータ通信および電源供給ライン38、通信ライン42、46、68は実際には一本の接続ケーブルにまとめられている。また、図3においても、環境光センサ40、加速度センサ44および生体センサ66が直接コントローラ4と通信する構成を図示しているが、各センサとコントローラ4は、駆動部16を介してパラレルデータ通信および電源供給ライン38で通信するよう構成してもよい。   FIG. 8 is a block diagram showing an overall configuration in Example 3 of the visual assistance system according to the embodiment of the present invention. Since the configuration of the third embodiment in FIG. 8 is similar to that of the first embodiment in FIG. 1, the same parts are denoted by the same reference numerals and the description thereof is omitted. The first point that the third embodiment differs from the first embodiment is that a pulse sensor 66 for detecting a pulse is provided in the temple portion 2b, and information such as whether the user is in a resting state or in an active state such as walking. Is sent to the controller 4 via the communication line 68. Similar to the first embodiment, the parallel data communication and power supply line 38 and the communication lines 42, 46, and 68 are actually combined into one connection cable. 3 also shows a configuration in which the ambient light sensor 40, the acceleration sensor 44, and the biological sensor 66 directly communicate with the controller 4. However, each sensor and the controller 4 perform parallel data communication via the drive unit 16. The power supply line 38 may be used for communication.

図8に示す実施例3が図1の実施例1と異なる第二点目は、HMD2に視線センサが設けられており、使用者の視線の動きを検知する点である。視線センサ70によって検知された使用者の視線の動き等の情報は駆動部16を介してパラレルデータ通信によりコントローラ4に送られる。脈拍センサ66および視線センサ70の詳細については後述する。実施例3における環境光センサ40、加速度センサ44、脈拍センサ66、視線センサ70等は、HMD2が使用される際の状況を検知するものなので、状況センサと総称する。   The second point in which the third embodiment shown in FIG. 8 differs from the first embodiment shown in FIG. 1 is that a line-of-sight sensor is provided in the HMD 2 and detects the movement of the line of sight of the user. Information such as the movement of the user's line of sight detected by the line-of-sight sensor 70 is sent to the controller 4 via the drive unit 16 by parallel data communication. Details of the pulse sensor 66 and the line-of-sight sensor 70 will be described later. The ambient light sensor 40, the acceleration sensor 44, the pulse sensor 66, the line-of-sight sensor 70, and the like in the third embodiment are collectively referred to as a situation sensor because they detect the situation when the HMD 2 is used.

図8に示す実施例3が図1の実施例1と異なる第三点目は、コントローラ4がモード記憶部72を有し、拡大モード、ワイドモード、白黒反転モードなどの各モードがそれぞれ使用される状況を検知する状況センサおよび操作部58の操作の関係の学習情報とともに登録される点である。そして、中央制御部74との連携によって操作部58によるモード選択に制限を加えたり、登録されたモードの自動選択を行ったりする。これらの詳細についても後述する。   The third point in which the third embodiment shown in FIG. 8 is different from the first embodiment shown in FIG. It is a point that is registered together with a situation sensor for detecting a situation to be detected and learning information on the operation relationship of the operation unit 58. Then, in cooperation with the central control unit 74, the mode selection by the operation unit 58 is limited, or the registered mode is automatically selected. These details will also be described later.

図9は、実施例3における中央制御部74の動作を説明する基本フローチャートである。図9のフローは、実施例3における図のフローと共通するところが多いので、共通するステップには同一ステップ番号を付して説明を省略するとともに、共通するステップ郡についてもこれらをまとめて図示し、説明を省略する。つまり、ステップS192の立上げ処理は図2のステップS2、ステップS4およびステップS8をまとめたもの、ステップS194は図2のステップS12からステップS18をまとめたもの、ステップS194は図2のステップS22からステップS28をまとめたものである。   FIG. 9 is a basic flowchart for explaining the operation of the central control unit 74 in the third embodiment. Since the flow of FIG. 9 is often in common with the flow of the diagram in the third embodiment, common steps are denoted by the same step numbers and description thereof is omitted, and common step groups are also illustrated together. The description is omitted. That is, the start-up process in step S192 is a combination of steps S2, S4, and S8 in FIG. 2, step S194 is a combination of steps S12 to S18 in FIG. 2, and step S194 is a combination of steps S22 in FIG. Step S28 is summarized.

ステップS196の表示・拝見変更処理を経てステップS198に至ると、通常モード以外の拡大モード、ワイドモード、白黒反転モードなどを選択可能なように登録するための手動の
モード登録操作があったか否かをチェックする。モード登録操作があったときはステップS200に進み、操作に従ったモード手動登録処理を実行してステップS202に移行する。一方ステップS198でモード登録操作が検知されないときは直接ステップS202に移行する。
When the display / view change process in step S196 is followed to step S198, it is determined whether or not there has been a manual mode registration operation for registering an enlargement mode other than the normal mode, a wide mode, a black and white reversal mode, and the like. To check. When there is a mode registration operation, the process proceeds to step S200, a mode manual registration process according to the operation is executed, and the process proceeds to step S202. On the other hand, when the mode registration operation is not detected in step S198, the process directly proceeds to step S202.

ステップS202では、モードを選択する手動操作があったか否かチェックする。モード選択操作があったときは、ステップS204以下に進み、で操作があったときの状況を各センサにて検知する。具体的には、ステップS204で環境光を環境光センサ40にて検知するとともに、ステップS206で加速度を加速度センサ44にて検知し、さらにステップS208で脈拍を脈拍センサ66で検知する。また、ステップS210で視線の移動状態を視線センサ70で検知する。   In step S202, it is checked whether or not a manual operation for selecting a mode has been performed. If there is a mode selection operation, the process proceeds to step S204 and the subsequent steps, and the state when the operation is performed is detected by each sensor. Specifically, ambient light is detected by the ambient light sensor 40 in step S204, acceleration is detected by the acceleration sensor 44 in step S206, and a pulse is detected by the pulse sensor 66 in step S208. In step S210, the line-of-sight sensor 70 detects the movement state of the line of sight.

次いでステップS212では、そのモードが手動選択されたときに各センサの検知状態がどうであったかを学習してそのモードに自動登録するモード自動学習登録処理を行う。この処理では、例えば、拡大モードおよび白黒モードが選択されたときに、加速度検知のない静止状態でかつ脈拍から見て安静状態にあり、視線の移動が限定的であるであれば、このような状態のとき拡大モードかつ白黒モードが選択されるものであることを学習し、拡大モードと白黒モードにこれらの検知状態を登録する。つまり、このような状態の時は、使用者が読書または書類を見るために拡大モードと白黒モードを選択したものと解釈して登録する。   Next, in step S212, a mode automatic learning registration process is performed in which the detection state of each sensor is learned when the mode is manually selected, and the mode is automatically registered. In this process, for example, when the enlargement mode and the black and white mode are selected, if there is a rest state without acceleration detection and a rest state as viewed from the pulse, and the movement of the line of sight is limited, In the state, it is learned that the enlargement mode and the monochrome mode are selected, and these detection states are registered in the enlargement mode and the monochrome mode. In other words, in such a state, the user interprets and registers as having selected the enlargement mode and the monochrome mode for reading or viewing documents.

上記ステップS212のモード自動学習処理による登録情報は、後述のように一般的なモードを自動選択する際の妥当性のクロスチェックに用いられるとともに、使用者に特有の特定の学習結果条件の成立に基づく自動カスタムモード設定に利用される。ステップS212のモード自動学習処理が終了するとステップS214に進む。一方、ステップS202でモード選択操作が検知されない場合は直接ステップS214に移行する。ステップS214ではモード変更処理が実行されるがその詳細は後述する。ステップS34以下は図2と共通である。   The registration information by the mode automatic learning process in step S212 is used for cross-checking validity when automatically selecting a general mode as described later, and for establishing a specific learning result condition specific to the user. Used for automatic custom mode setting based. When the mode automatic learning process in step S212 ends, the process proceeds to step S214. On the other hand, if no mode selection operation is detected in step S202, the process directly proceeds to step S214. In step S214, mode change processing is executed, details of which will be described later. Step S34 and subsequent steps are the same as those in FIG.

図10は、図9のステップS214におけるモード変更処理の詳細を示すフローチャートである。フローがスタートすると、ステップS222でワイドモードに変更する旨の手動操作が行われたか否かのチェックが行われる。この操作が検知されなければステップS224に進み、拡大モードに変更する旨の手動操作が行われたか否かのチェックが行われる。拡大モードに変更する旨の手動操作が検知されるとステップS226に進み、使用者が移動中であることに対応する加速度が検知されているか否かのチェックが行われる。そして加速度検知がなければステップS228に進み、操作通りの倍率変更(この場合「拡大モード」の倍率)を実行してステップS230に移行する。   FIG. 10 is a flowchart showing details of the mode change process in step S214 of FIG. When the flow starts, it is checked in step S222 whether or not a manual operation for changing to the wide mode has been performed. If this operation is not detected, the process advances to step S224 to check whether or not a manual operation for changing to the enlargement mode has been performed. When a manual operation for changing to the enlargement mode is detected, the process proceeds to step S226, and it is checked whether or not an acceleration corresponding to the movement of the user is detected. If no acceleration is detected, the process proceeds to step S228, the magnification change according to the operation is performed (in this case, the magnification in the “enlargement mode”), and the process proceeds to step S230.

一方、ステップS226で、使用者が移動中であることに対応する加速度が検知されるとステップS232に移行し、拡大が不可である旨の報知表示をコントローラ表示部60に表示して倍率変更を実行することなくステップS230に移行する。なお、拡大が不可である旨のメッセージ表示は右目画像用撮像素子22および左目画像用撮像素子26のいずれかの画像に重畳表示してもよい。   On the other hand, when an acceleration corresponding to that the user is moving is detected in step S226, the process proceeds to step S232, and a notification display that enlargement is impossible is displayed on the controller display unit 60 to change the magnification. It transfers to step S230, without performing. Note that the message display indicating that enlargement is not possible may be superimposed on one of the images of the right-eye image sensor 22 and the left-eye image sensor 26.

また、ステップS222で、ワイドモードに変更する旨の手動操作が行われたことが検知されると直接ステップS228に進み、操作通りの倍率変更(この場合「ワイドモード」の倍率)を実行してステップS230に移行する。このように、倍率を小さくするための操作であれば、仮に使用者が移動中であっても危険の可能性は少ないので加速度の検知は行わず、直ちに操作を実行する。なお、ステップS224で拡大モード操作が検知されなければ倍率変更の手動操作はないことを意味するので直ちにステップS230に移行する。   If it is detected in step S222 that a manual operation for changing to the wide mode has been performed, the process directly proceeds to step S228, and the magnification change according to the operation (in this case, the “wide mode” magnification) is executed. The process proceeds to step S230. In this way, if the operation is to reduce the magnification, even if the user is moving, there is little possibility of danger, so the acceleration is not detected and the operation is executed immediately. If the enlargement mode operation is not detected in step S224, it means that there is no manual operation for changing the magnification, and the process immediately proceeds to step S230.

ステップS230では、使用者が視野狭窄者であるか否かを確認する。そして視野狭窄者でなければステップS236に移行して等倍表示を標準モードに設定してステップS236に移行する。一方、ステップS230で使用者が視野狭窄者であることが確認されると、ステップS238に移行し、ワイド表示を標準モードに設定してステップS236に移行する。   In step S230, it is confirmed whether or not the user is a visual field constrictor. If it is not a visual field constriction person, the process proceeds to step S236, the same size display is set to the standard mode, and the process proceeds to step S236. On the other hand, if it is confirmed in step S230 that the user is a visual field constrictor, the process proceeds to step S238, the wide display is set to the standard mode, and the process proceeds to step S236.

ステップ236以下は自動モード変更に関する。まず、ステップS236では、加速度センサ44に基づき、使用者が静止状態にあるか否かチェックする。静止状態であればステップS240に進み、脈拍センサ66に基づき、使用者が安静状態にあるか否かチェックする。そして静止状態にあればステップS242に進み、このような状態において自動的に拡大モードに設定することがこれまでの使用者の手動設定行動に矛盾しないかチェックする。この結果矛盾がなければステップS244で拡大モードを自動設定し、ステップS246に移行する。一方、ステップS236で静止状態が検知できないか、ステップS240で安静状態が検知できないか、またはステップS242で学習情報との矛盾が検知されるかしたときは拡大モードの自動設定をせず、ステップS246に移行する。なお、学習情報との矛盾とは、図9のステップS202からステップS212の自動登録処理において、静止状態かつ安静状態であるにも関わらず、拡大モードを手動選択した履歴が稀である場合、または、静止状態かつ安静状態であることに基づき自動設定された拡大モードが手動によりキャンセルされた履歴が認められる場合等である。このような場合、静止状態および安静状態であることが検知されても拡大モードを自動設定することは使用者の意向に反する可能性が高いので、拡大モードの自動設定を控えてステップS246に移行することになる。   Steps 236 and thereafter relate to automatic mode change. First, in step S236, it is checked based on the acceleration sensor 44 whether or not the user is in a stationary state. If it is in a stationary state, the process proceeds to step S240, and it is checked based on the pulse sensor 66 whether the user is in a resting state. If it is in the stationary state, the process proceeds to step S242, and it is checked whether the automatic setting in the enlarged mode in such a state is consistent with the manual setting action of the user so far. If there is no contradiction as a result, the enlargement mode is automatically set in step S244, and the process proceeds to step S246. On the other hand, if the stationary state cannot be detected in step S236, the resting state cannot be detected in step S240, or inconsistency with the learning information is detected in step S242, the enlargement mode is not automatically set, and step S246 is performed. Migrate to The contradiction with the learning information means that, in the automatic registration process from step S202 to step S212 in FIG. 9, the history of manually selecting the expansion mode is rare despite being in a stationary state and a resting state, or This is the case where there is a history in which the enlargement mode automatically set based on the stationary state and the resting state is manually canceled. In such a case, there is a high possibility that the automatic setting of the enlargement mode is contrary to the user's intention even if it is detected that the camera is in a stationary state and a resting state. Will do.

ステップS246では、視線センサ70の出力に基づく使用者の視線の動と読書パターンの視線移動を示す参照データとを比較し、使用者の視線移動が読書パターンの視線移動に該当するか否かチェックする。読書バターン視線移動であると判断されたときはステップS240に進み、読書パターンの視線移動がある状態において自動的に白黒反転モードに設定することがこれまでの使用者の手動設定行動に矛盾しないかチェックする。この結果矛盾がなければステップS250で白黒反転モードを自動設定し、ステップS252に移行する。一方、ステップS246で読書バターン視線移動が検知できないときは白黒反転モードの自動設定をせず、ステップS252に移行する。なお、この場合の学習情報との矛盾とは、ステップS242の説明と同様にして、図9のステップS202からステップS212の自動登録処理において、読書パターン視線移動があるにも関わらず、白黒反転モードを手動選択した履歴が稀である場合、または、読書パターン視線移動に基づき自動設定された白黒反転モードが手動によりキャンセルされた履歴が認められる合等である。このような場合、読書パターン視線移動が検知されても白黒反転モードを自動設定することは使用者の意向に反する可能性が高いので、白黒反転モードの自動設定を控えてステップS254に移行することになる。   In step S246, the movement of the user's line of sight based on the output of the line-of-sight sensor 70 is compared with the reference data indicating the movement of the reading pattern, and it is checked whether the movement of the user's line of sight corresponds to the movement of the reading pattern. To do. If it is determined that the reading pattern line-of-sight movement is detected, the process proceeds to step S240, and whether the black-and-white reversal mode is automatically set in a state where the reading pattern line-of-sight movement exists is consistent with the manual setting action of the user so far. To check. If there is no contradiction as a result, the monochrome inversion mode is automatically set in step S250, and the process proceeds to step S252. On the other hand, when the reading pattern line-of-sight movement cannot be detected in step S246, the black-and-white reversal mode is not automatically set, and the process proceeds to step S252. Note that the contradiction with the learning information in this case is the black and white reversal mode in the automatic registration process from step S202 to step S212 in FIG. Is a rare history, or a history in which the black-and-white reversal mode automatically set based on the reading pattern line-of-sight movement is manually canceled is recognized. In such a case, there is a high possibility that it is contrary to the user's intention to automatically set the black-and-white reversal mode even if the reading pattern line-of-sight movement is detected. Therefore, the process proceeds to step S254 with the automatic black-and-white reversal mode set ahead. become.

以上のステップS236からステップS250の自動設定において、ステップS244での拡大モード自動設定を経てステップS250の白黒反転モード自動設定が行われた場合は、拡大された表示が白黒反転される。一方、ステップS244での拡大モード自動設定が行われてもステップS246で読書パターンの視線移動が検知されない場合は、例えば椅子に座って組立作業等を行っている可能性があり、文字判読に適した白黒反転を行うことは不適当な場合が多いので、拡大モードの自動設定のみでステップS252に至ることになる。   In the automatic setting from step S236 to step S250, when the black / white reversal mode automatic setting in step S250 is performed after the enlargement mode automatic setting in step S244, the enlarged display is reversed in black and white. On the other hand, if the line-of-sight movement of the reading pattern is not detected in step S246 even if the enlargement mode is automatically set in step S244, there is a possibility that the user is sitting on a chair and performing assembly work or the like, which is suitable for character interpretation. Since it is often inappropriate to perform black and white reversal, only step S252 is reached by automatic setting of the enlargement mode.

また、以上のステップS236からステップS250における自動設定は拡大モードや白黒反転モード等の比較的一般的なモードの自動設定に関するものである。これに対し、ステップS252およびステップS254は、明暗への順応障害、視野の異常等、使用者の症状に合わせて特定の使用者についてカスタム設定された複数のモード(少なくとも特定条件下での特定モードとその使用者について個別設定された標準モードとを含む)から一つを状況に応じて選択し、自動設定するために設けられているものである。具体的には、ステップS252においてカスタム設定された所定の条件に該当するか否かがチェクされ、該当すればステップS254の自動カスタムモード設定処理に入ってモード設定の変更を自動的に行い、ステップS256に移行する。一方、ステップS252でカスタム設定条件に該当することが検知されない場合は直接ステップS256に移行し、現設定モードを維持する。   Further, the automatic setting in steps S236 to S250 described above relates to automatic setting of relatively general modes such as the enlargement mode and the black and white reversal mode. On the other hand, in steps S252 and S254, a plurality of modes that are custom-set for a specific user according to the user's symptoms such as an adaptation failure to light and dark, an abnormality in visual field, etc. (at least a specific mode under a specific condition) And a standard mode individually set for the user) are selected according to the situation and are automatically set. Specifically, it is checked whether or not the predetermined condition custom-set in step S252 is met, and if so, the automatic custom mode setting process in step S254 is entered to automatically change the mode setting. The process proceeds to S256. On the other hand, if it is not detected in step S252 that the custom setting condition is met, the process directly proceeds to step S256, and the current setting mode is maintained.

ステップS256では、移動加速度が検知されたか否かのチェックを行う。そして移動加速度が検知されたときはステップS258に移行し、標準モードへの自動復帰を行ってフローを終了する。一方、ステップS256において移動加速度が検知されない場合は、現設定モードを維持してフローを終了する。ステップS256において移動加速度が検知された場合は、例えば椅子に座って読書や作業などをしていた人が立ち上がって歩き出した可能性があり、このような場合に拡大モードや白黒反転モードが維持されると危険であるためステップS258で標準モードへの自動復帰を行う。この標準モードは、ステップS234またはステップS238で設定された等倍モードまたはワイドモードである。また、標準モードは、特定の使用者についてカスタム設定しておくことも可能である。   In step S256, it is checked whether or not a movement acceleration is detected. When the movement acceleration is detected, the process proceeds to step S258, where the automatic return to the standard mode is performed and the flow ends. On the other hand, if the movement acceleration is not detected in step S256, the current setting mode is maintained and the flow ends. If the movement acceleration is detected in step S256, for example, a person sitting in a chair and reading or working may have stood up and started walking. In such a case, the enlargement mode and the black / white inversion mode are maintained. If it is done, it is dangerous, and in step S258, automatic return to the standard mode is performed. This standard mode is the same magnification mode or the wide mode set in step S234 or step S238. The standard mode can be custom set for a specific user.

以上の各実施例に示した種々の特徴の実施は、それぞれの実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、本明細書では、簡単のため、各実施例における説明や図示を他の実施例と異なる部分に集中しているが、各実施例において説明したそれぞれの特徴を兼ね備えた実施、これらを置き換えた実施、または複数の特徴を組み合わせた実施等も可能であることは言うまでもない。   The implementation of the various features shown in the above embodiments is not limited to each embodiment, and other embodiments can be implemented as long as the advantages can be enjoyed. Further, in this specification, for the sake of simplicity, the explanations and illustrations in the respective embodiments are concentrated on portions different from those in the other embodiments. However, the embodiments having the respective characteristics described in the respective embodiments are replaced. Needless to say, the present invention can be implemented by combining a plurality of features or a plurality of features.

図11は、本発明の実施の形態に係る視覚補助システムの実施例4における全体構成を示すブロック図である。図11における実施例4の構成は、図1における実施例1と共通するところが多いので、同一部分には同一の番号を付し、説明を省略する。実施例4が実施例1と異なる第一点目は、通常の眼鏡10を用いずに使用できるよう構成された点である。つまり、近視または遠視に対する視度調節は、右目用接眼光学系18および左目用接眼光学系20のフォーカス調節により行うとともに、乱視については、挿脱可能な右目用トーリックレンズ76および左目用トーリックレンズ78によって矯正を行う。右目用トーリックレンズ76および左目用トーリックレンズ78はそれぞれ使用者の度数に合ったものに独立して交換可能であるとともに、必要がないときは除去される。また、右目用トーリックレンズ76および左目用トーリックレンズ78が挿入されたときは、それぞれ視線6aおよび8aまわりに回転させることにより、使用者の乱視の軸角度に合わせた矯正が行われる。実施例4が実施例1と異なる第一点目は、中央制御部80および画像処理部が特有の機能を実行する点であるが、これについては後述する。   FIG. 11: is a block diagram which shows the whole structure in Example 4 of the visual assistance system which concerns on embodiment of this invention. Since the configuration of the fourth embodiment in FIG. 11 is in common with the first embodiment in FIG. 1, the same parts are denoted by the same reference numerals and the description thereof is omitted. The first point that the fourth embodiment is different from the first embodiment is that the fourth embodiment is configured to be used without using the normal glasses 10. That is, diopter adjustment for myopia or hyperopia is performed by adjusting the focus of the right-eye eyepiece optical system 18 and the left-eye eyepiece optical system 20, and for astigmatism, the right-eye toric lens 76 and the left-eye toric lens 78 can be inserted and removed. Correct by. The toric lens 76 for the right eye and the toric lens 78 for the left eye can be independently replaced with lenses suitable for the power of the user, and are removed when not necessary. In addition, when the right-eye toric lens 76 and the left-eye toric lens 78 are inserted, they are rotated around the lines of sight 6a and 8a, respectively, so that correction according to the astigmatic axis angle of the user is performed. The first point in which the fourth embodiment differs from the first embodiment is that the central control unit 80 and the image processing unit execute specific functions, which will be described later.

図12は、実施例4の接眼光学系18、20における近視、遠視に対する視度調節の基本を説明する断面模式図である。簡単のため、図示および説明は右目についてだけ行うが、左目も同様である。図12(A)において、右目用接眼光学系18における接眼レンズ18aは、視度調節のために視線6aに沿ってディスプレイ表示面12aと右目6との間で移動可能である。接眼レンズ18aは、図12(A)の状態では、標準位置にセットされている。この状態では、ディスプレイ表示面12aの虚像12bは、健常者の視力調節範囲82の中に位置している。一方、ディスプレイ表示面12aの虚像12bの位置は、図12(A)の状態では、近視者の視力調節範囲84、および遠視者の視力調節範囲86からいずれも外れている。   FIG. 12 is a schematic cross-sectional view illustrating the basics of diopter adjustment for myopia and hyperopia in the eyepiece optical systems 18 and 20 of the fourth embodiment. For simplicity, illustration and description are given only for the right eye, but the same applies to the left eye. In FIG. 12A, the eyepiece 18a in the right eyepiece optical system 18 is movable between the display display surface 12a and the right eye 6 along the line of sight 6a for diopter adjustment. The eyepiece 18a is set at the standard position in the state of FIG. In this state, the virtual image 12b on the display display surface 12a is located in the visual acuity adjustment range 82 of the healthy person. On the other hand, in the state of FIG. 12A, the position of the virtual image 12b on the display surface 12a is out of the visual acuity adjustment range 84 for the nearsighted person and the visual acuity adjustment range 86 for the farsighted person.

図12(B)は、ディスプレイ虚像12cが近視者の視力調節範囲84に入るよう接眼レンズ18aをディスプレイ表示面12a側にシフトして視度調節したものである。また、図12(C)は、ディスプレイ虚像12dが遠視者の視力調節範囲に入るよう接眼レンズ18aを右目側にシフトして視度調節したものである。   FIG. 12B shows the diopter adjusted by shifting the eyepiece 18a toward the display display surface 12a so that the display virtual image 12c falls within the visual acuity adjustment range 84 of the nearsighted person. FIG. 12C shows the diopter adjustment by shifting the eyepiece 18a to the right eye side so that the display virtual image 12d falls within the range of visual acuity adjustment of the farsighted person.

図13から図19は、図12の関係を基礎として、実施例4における種々の状態を検討し、主に、3D画像の撮像と表示における視差と輻輳角の関係を説明するものである。以下に詳細に説明するように、実施例4によれば、撮像系と表示系を互いに所定条件の構成とすることにより、近視および遠視に対する視度調節、物点の距離変化、表示画像の拡大および縮小(周辺画像がある場合はワイド化)において、いずれもほぼ違和感のない3D表示を可能とすることができる。なお、図13から図17は、簡単のため単一の物点と目の輻輳角について検討し、図18と図19は、表示画像の拡大および縮小の際の輻輳角に基づく見えのリアリティについて検討している。脳による3D画像認識処理は、単一の物点に対する目の輻輳角の要素だけによるものではなく、例えば距離の違う複数の物点郡の視差情報も寄与するところが大きい。しかし、検討した要素は、目の動きおよび脳による総合的な3D認識結果と齟齬のあるものではない。   13 to 19 examine various states in the fourth embodiment based on the relationship shown in FIG. 12, and mainly explain the relationship between parallax and convergence angle in 3D image capturing and display. As will be described in detail below, according to the fourth embodiment, the imaging system and the display system are configured to have predetermined conditions, thereby adjusting diopter for nearsightedness and hyperopia, changing object distance, and expanding the display image. In both reduction and reduction (widening if there is a peripheral image), 3D display can be made almost without any sense of incongruity. 13 to 17 consider a single object point and the convergence angle of the eye for simplicity, and FIGS. 18 and 19 illustrate the reality of appearance based on the convergence angle when the display image is enlarged or reduced. Are considering. The 3D image recognition processing by the brain is not only based on the element of the convergence angle of the eye with respect to a single object point, but also greatly contributes to, for example, disparity information of a plurality of object point groups with different distances. However, the elements studied are not inconsistent with the overall 3D recognition results by eye movements and brain.

図13は、実施例4における3D画像の撮像と表示の基本構成を示すものである。図13(A)は、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28よりなる3Dの平行双眼撮像系の基本構成を示す。単純化のため、実際には屈曲している光路をこれと等価な直線状の光路に延ばして図示している。図13(A)から明らかなように、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28の光軸は互いに平行であり、その幅は人間の平均的な眼幅に設定されている。また、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28はともに標準焦点距離にセットされるとともに、標準距離にある物点88に合焦するようフォーカス調節されている。この物点88の標準距離は、図12(a)におけるディスプレイ表示面12aの虚像12bの位置と同じ距離に設定されている。このような構成により、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28から見た物点88には視差が生じ、右目画像用撮像素子22の撮像面22a上に結像される像点90と左目画像用撮像素子26の撮像面26a上に結像される像点92の位置は、光軸からそれぞれ反対側にずれることになる。これが、物点88の視差情報として右目画像用撮像素子22および左目画像用撮像素子26により撮像される。   FIG. 13 illustrates a basic configuration of 3D image capturing and display in the fourth embodiment. FIG. 13A shows a basic configuration of a 3D parallel binocular imaging system including a right-eye bent zoom lens optical system 24 and a left-eye bent zoom lens optical system 28. For the sake of simplicity, the optical path that is actually bent is shown as being extended to a linear optical path equivalent to this. As apparent from FIG. 13A, the optical axes of the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 are parallel to each other, and the width thereof is set to the average human eye width. Yes. Further, the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 are both set to the standard focal length, and the focus is adjusted to focus on the object point 88 at the standard distance. The standard distance of the object point 88 is set to the same distance as the position of the virtual image 12b on the display display surface 12a in FIG. With such a configuration, parallax occurs at the object point 88 viewed from the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28, and the image is formed on the imaging surface 22 a of the right-eye image pickup device 22. The positions of the image point 90 and the image point 92 formed on the image pickup surface 26a of the left-eye image pickup device 26 are shifted to the opposite sides from the optical axis. This is imaged by the right-eye image sensor 22 and the left-eye image sensor 26 as parallax information of the object point 88.

図13(B)は、眼幅が平行双眼レンズ24、28の光軸間の幅と等しい平行双眼ディスプレイを用い、図13(A)において右目画像用撮像素子22および左目画像用撮像素子26により撮像した画像情報を、それぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示したものである。図13(B)において、右目用ディスプレイ表示面12aと右目用接眼レンズ18aの位置は、図12(A)と同様にセットされ、左目用ディスプレイ表示面14aと左目用接眼レンズ20aの位置も同様である。そして、右目用ディスプレイ表示面12aの虚像12bおよび左目用ディスプレイ表示面14aの虚像14bの位置は、
標準距離にある物点88と同じ位置に見えることになる。
FIG. 13B uses a parallel binocular display whose eye width is equal to the width between the optical axes of the parallel binocular lenses 24 and 28, and in FIG. 13A, the image sensor 22 for the right eye image and the image sensor 26 for the left eye image. The captured image information is displayed on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. 13B, the positions of the right-eye display display surface 12a and the right-eye eyepiece 18a are set in the same manner as in FIG. 12A, and the positions of the left-eye display display surface 14a and the left-eye eyepiece 20a are also the same. It is. The positions of the virtual image 12b on the right-eye display display surface 12a and the virtual image 14b on the left-eye display display surface 14a are as follows:
It will appear at the same position as the object point 88 at the standard distance.

また、図13(A)において撮像面22a上に結像される像点90と撮像面26a上に結像される像点92はそれぞれ実像であり、上下左右が逆転している。従って、これらを右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示して虚像観察する際には、上下左右とも正立状態となるよう、それぞれ画像を180度回転させて表示する。この結果、撮像面22a上の像点90と撮像面26a上の像点92の画像情報は、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a上では、それぞれ、表示点94、96として表示される。   In FIG. 13A, an image point 90 imaged on the image pickup surface 22a and an image point 92 imaged on the image pickup surface 26a are real images, and are vertically and horizontally reversed. Therefore, when these are displayed on the right-eye display display surface 12a and the left-eye display display surface 14a and the virtual image is observed, the images are respectively rotated by 180 degrees so as to be in an upright state. As a result, the image information of the image point 90 on the imaging surface 22a and the image point 92 on the imaging surface 26a is displayed as display points 94 and 96 on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. Is done.

このように、表示点94、96がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aは、右目用接眼レンズ18aおよび左目用接眼レンズ20によって、虚像表示点94a、96aがそれぞれ表示されたディスプレイ表示面の虚像12b、14bとして見える。このとき、虚像表示点94a、96aが一致するよう、中央制御部80が画像処理部81を制御して表示点94、96の表示点のシフト調節を行う。図13(B)では、このような虚像表示点94aおよび96aを右目6および左目8が注視することによって、虚像表示点94a、96aの実像94bおよび96bが右目6および左目8のそれぞれ網膜の中心に結像している状態を示している。この注視により右目6および左目8に輻輳角が生じ、一致している虚像表示点94aおよび96aまでの距離を感じることができる。   As described above, the right-eye display display surface 12a and the left-eye display display surface 14a on which the display points 94 and 96 are respectively displayed are the virtual image display points 94a and 96a by the right-eye eyepiece 18a and the left-eye eyepiece 20, respectively. It appears as virtual images 12b, 14b on the displayed display surface. At this time, the central control unit 80 controls the image processing unit 81 to adjust the display points 94 and 96 so that the virtual image display points 94a and 96a coincide with each other. In FIG. 13B, when the right eye 6 and the left eye 8 gaze at the virtual image display points 94a and 96a, the real images 94b and 96b of the virtual image display points 94a and 96a become the centers of the retina of the right eye 6 and the left eye 8, respectively. The state in which an image is formed is shown. By this gaze, a convergence angle is generated in the right eye 6 and the left eye 8, and it is possible to feel the distance to the coincident virtual image display points 94a and 96a.

図13(C)は、図13(A)の物点88を健常者が裸眼で実視した場合の右目6と左目8の輻輳角の状態を示している。図13(B)の輻輳角は図13(C)の輻輳角とほぼ一致するので、図13(B)の観察は、使用者にとって図13(C)に等しい感覚を与えることになる。以上が健常者についての説明であり、視力調節範囲との関係で言えば、図12(A)で説明した状態に対応する。   FIG. 13C shows the state of convergence angles of the right eye 6 and the left eye 8 when a healthy person actually views the object point 88 of FIG. 13A with the naked eye. Since the convergence angle in FIG. 13B substantially matches the convergence angle in FIG. 13C, the observation in FIG. 13B gives the user the same feeling as in FIG. 13C. The above is the description of the healthy person, and corresponds to the state described with reference to FIG.

図14は、実施例4において同様のことを近視者について検討したものである。図12(A)で説明したように、図13(B)の状態におけるディスプレイ表示面の虚像12b、14bは近視者の視力調節範囲84を外れており、はっきりと見ることができない。そこで、図14(A)は、図12(B)と同様にして、ディスプレイ虚像12c,14cがそれぞれ近視者の視力調節範囲84に入るよう右目用接眼レンズ18aおよび左目用接眼レンズをディスプレイ表示面12a、14a側にシフトして視度調節したものである。右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aおよびこれらに表示される表示点94、96は、それぞれ図13(B)と同じである。   FIG. 14 shows the same thing in Example 4 examined for a myopic person. As described in FIG. 12A, the virtual images 12b and 14b on the display surface in the state of FIG. 13B are out of the visual acuity adjustment range 84 of the nearsighted person and cannot be clearly seen. 14A is similar to FIG. 12B in that the right-eye eyepiece 18a and the left-eye eyepiece 18 are displayed on the display display surface so that the display virtual images 12c and 14c are within the visual acuity adjustment range 84 of the nearsighted person. The diopter is adjusted by shifting to the 12a, 14a side. The right-eye display display surface 12a, the left-eye display display surface 14a, and the display points 94 and 96 displayed on these are the same as in FIG. 13B.

図14(A)では、図12(B)と同様にして、表示点94、96がそれぞれ表示された右目用ディスプレイ表示面12aの虚像12cおよび左目用ディスプレイ表示面14aの虚像14cが右目6および左目8に近づき、近視者の視力調節範囲84に入る。但し、このときはディスプレイ表示面の虚像12c、14c上に表示されて見える虚像表示点94cおよび96cは視力調節範囲84にある虚像12c、14c上では一致していない。しかしながら、これら虚像表示点94cおよび96cを同一の点として見ようとする右目6および左目8は、虚像表示点94cおよび96cの実像94bおよび96bが右目6および左目8のそれぞれ網膜の中心に結像するような輻輳角をとる。この結果、見えているものは、一致点94dおよび96dであると認識する。   14A, similarly to FIG. 12B, the virtual image 12c of the right-eye display display surface 12a on which the display points 94 and 96 are displayed and the virtual image 14c of the left-eye display display surface 14a are the right eye 6 and It approaches the left eye 8 and enters the visual acuity adjustment range 84 of the nearsighted person. However, at this time, the virtual image display points 94c and 96c seen on the virtual images 12c and 14c on the display surface do not coincide with each other on the virtual images 12c and 14c in the visual acuity adjustment range 84. However, in the right eye 6 and the left eye 8 that try to see the virtual image display points 94c and 96c as the same point, the real images 94b and 96b of the virtual image display points 94c and 96c are formed at the centers of the retinas of the right eye 6 and the left eye 8, respectively. Take a convergence angle like this. As a result, what is visible is recognized as matching points 94d and 96d.

図14(B)は、図13(A)の物点88を近視者が凹レンズの眼鏡98を掛けて矯正することにより日常で実視している右目6と左目8の輻輳角の状態を示している。図14(A)の輻輳角は図14(B)の輻輳角とほぼ一致するので、裸眼で視度調節した図14(A)における一致点94dおよび96dの観察は、使用者にとって図14(B)におけるような眼鏡98をかけた日常における物点88の観察に等しい感覚を与えることになる。厳密に言えば、図14(A)における一致点94dおよび96dの位置は、図13における虚像表示点94a、96aとは異なるが、著しい差ではないので、図13と図14との間の視度調整に応じて右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示される表示点94、96の位置をシフトして補正することは省略できる。   FIG. 14B shows the state of convergence angles of the right eye 6 and the left eye 8 that a nearsighted person sees in real life by correcting the object point 88 of FIG. ing. Since the convergence angle of FIG. 14 (A) substantially matches the convergence angle of FIG. 14 (B), the observation of the coincidence points 94d and 96d in FIG. A feeling equal to the observation of the object point 88 in everyday life with the glasses 98 as in B) is given. Strictly speaking, the positions of the coincidence points 94d and 96d in FIG. 14A are different from the virtual image display points 94a and 96a in FIG. 13 but not a significant difference, so that the view between FIG. 13 and FIG. Shifting and correcting the positions of the display points 94 and 96 displayed on the right-eye display display surface 12a and the left-eye display display surface 14a according to the degree adjustment can be omitted.

図15は、実施例4において上記と同様のことを遠視者について検討したものである。図12(A)で説明したように、図13(B)の状態におけるディスプレイ表示面の虚像12b、14bは遠視者の視力調節範囲86を外れており、はっきりと見ることができない。そこで、図15(A)は、図12(C)と同様にして、ディスプレイ虚像12d,14dがそれぞれ遠視者の視力調節範囲86内に入るよう右目用接眼レンズ18aおよび左目用接眼レンズを右目6および左目8側にシフトして視度調節したものである。右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aおよびこれらに表示される表示点94、96は、それぞれ図13(B)と同じである。   FIG. 15 shows the same results as described above in Example 4 for a hyperopic person. As described with reference to FIG. 12A, the virtual images 12b and 14b on the display surface in the state of FIG. 13B are out of the visual acuity adjustment range 86 of the farsighted person and cannot be clearly seen. Therefore, in FIG. 15A, in the same manner as FIG. 12C, the right eyepiece 18a and the left eyepiece 18a are placed in the right eye 6 so that the display virtual images 12d and 14d are within the range of visual acuity adjustment 86 of the farsighted person. And diopter adjustment by shifting to the left eye 8 side. The right-eye display display surface 12a, the left-eye display display surface 14a, and the display points 94 and 96 displayed on these are the same as in FIG. 13B.

図15(A)では、図12(C)と同様にして、表示点94、96がそれぞれ表示された右目用ディスプレイ表示面12aの虚像12dおよび左目用ディスプレイ表示面14aの虚像14dが右目6および左目8から遠ざかり、遠視者の視力調節範囲に入る。但し、このときはディスプレイ表示面の虚像12d、14d上に表示されて見える虚像表示点94eおよび96eは視力調節範囲にある虚像12d、14d上では一致していない。(位置がクロスして逆転している。)しかしながら、これら虚像表示点94eおよび96eを同一の点として見ようとする右目6および左目8は、虚像表示点94eおよび96eの実像94bおよび96bが右目6および左目8のそれぞれ網膜の中心に結像するような輻輳角をとる。この結果、見えているものは、一致点94fおよび96fであると認識する。   15A, similarly to FIG. 12C, the virtual image 12d of the display display surface 12a for the right eye and the virtual image 14d of the display display surface 14a for the left eye on which the display points 94 and 96 are respectively displayed are the right eye 6 and It moves away from the left eye 8 and enters the range of visual acuity adjustment for the farsighted person. However, at this time, the virtual image display points 94e and 96e that are visible on the virtual images 12d and 14d on the display surface do not coincide with each other on the virtual images 12d and 14d in the visual acuity adjustment range. (The positions are reversed and reversed.) However, the right eye 6 and the left eye 8 trying to see the virtual image display points 94e and 96e as the same point are the real images 94b and 96b of the virtual image display points 94e and 96e. The angle of convergence is such that an image is formed at the center of the retina of each of the left eyes 8. As a result, what is visible is recognized as matching points 94f and 96f.

図15(B)は、図13(A)の物点88を、遠視者が凸レンズの眼鏡100を掛けて矯正することにより日常で実視している右目6と左目8の輻輳角の状態を示している。図15(A)の輻輳角についても、図15(B)の輻輳角とほぼ一致するので、裸眼で視度調節した図15(A)における一致点94fおよび96fの観察は、使用者にとって図15(B)におけるような眼鏡100をかけた日常における物点88の観察に等しい感覚を与えることになる。厳密に言えば、図15(A)における一致点94fおよび96fの位置は、図13における虚像表示点94a、96aとは異なるが、近視の場合と同様にして、視度調整に応じて右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示される表示点94、96の位置をシフトして補正することは省略できる。   FIG. 15 (B) shows the state of convergence angles of the right eye 6 and the left eye 8 that a hyperopic person sees in everyday life by correcting the object point 88 of FIG. 13 (A) by wearing glasses 100 of convex lenses. Show. The vergence angle in FIG. 15A also substantially coincides with the vergence angle in FIG. 15B. Therefore, the observation of the coincidence points 94f and 96f in FIG. A feeling equivalent to the observation of the object point 88 in everyday life with the glasses 100 as in 15 (B) is given. Strictly speaking, the positions of the coincidence points 94f and 96f in FIG. 15A are different from the virtual image display points 94a and 96a in FIG. 13, but for the right eye according to the diopter adjustment as in the case of myopia. Shifting and correcting the positions of the display points 94 and 96 displayed on the display display surface 12a and the left-eye display display surface 14a can be omitted.

以上が、図13(A)において撮像された同じ画像情報に基づく右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aの表示を、健常者、近視者および遠視者がそれぞれ観察した場合の説明である。このように実施例4では、光軸が互いに平行でその幅が人間の平均的な眼幅に設定されている平行双眼撮像系により物点88の視差情報を得る。そしてこの視差情報を含む画像情報を、眼幅が平行双眼双眼撮像系の光軸間の幅と等しい平行双眼ディスプレイ上にそれぞれに表示し、左右の表示上の物点が一致するように見ようとする眼の輻輳角により立体視を再現する。そして、視度調節によって近視者、遠視者に対応し、健常者に準じた再現を可能とする。   The above is the description when the normal person, the nearsighted person, and the farsighted person observe the display on the right-eye display display surface 12a and the left-eye display display surface 14a based on the same image information captured in FIG. is there. As described above, in the fourth embodiment, the parallax information of the object point 88 is obtained by the parallel binocular imaging system in which the optical axes are parallel to each other and the width is set to the average human eye width. Then, the image information including the parallax information is displayed on each parallel binocular display whose eye width is equal to the width between the optical axes of the parallel binocular binocular imaging system, so that the object points on the left and right displays coincide with each other. The stereoscopic view is reproduced by the vergence angle of the eyes. Then, by adjusting diopter, it corresponds to near-sighted and far-sighted and enables reproduction according to a healthy person.

次に、図16および図17により、物点の位置が、ディスプレイ表示面12aの虚像12bの位置と同じ距離に設定されている物点88とは異なる場合について説明する。簡単のために、健常者についてのみ説明するが、図14、図15に準じて近視者および遠視者についても同様に理解できる。   Next, the case where the position of the object point is different from the object point 88 set at the same distance as the position of the virtual image 12b on the display display surface 12a will be described with reference to FIGS. For the sake of simplicity, only a normal person will be described, but a nearsighted person and a farsighted person can be similarly understood according to FIGS. 14 and 15.

図16は、図13と同様のものであるが、図16(A)に示すように、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28が、図13における標準距離の物点88よりも近い近距離物点102に合焦するようフォーカス調節されている。なお、この近距離物点102は後述するように健常者の視力調節範囲内にあるものとする。この状態において右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28から見た近距離物点102の視差は図13の場合よりも大きくなり、右目画像用撮像素子22の撮像面22a上に結像される像点104と左目画像用撮像素子26の撮像面26a上に結像される像点106の位置は、光軸から互いに反対側により大きくずれることになる。これが、近距離物点102の視差情報として右目画像用撮像素子22および左目画像用撮像素子26により撮像される。   FIG. 16 is the same as FIG. 13, but as shown in FIG. 16A, the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 are the object points of the standard distance in FIG. The focus is adjusted to focus on the near-distance object point 102 closer to 88. It is assumed that this short distance object point 102 is within the range of visual acuity adjustment for a healthy person as will be described later. In this state, the parallax of the short-distance object point 102 viewed from the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 is larger than that in the case of FIG. The positions of the image point 104 formed on the upper side and the image point 106 formed on the image pickup surface 26a of the left-eye image pickup device 26 are greatly shifted on the opposite sides from the optical axis. This is imaged by the right-eye image sensor 22 and the left-eye image sensor 26 as parallax information of the short-distance object point 102.

図16(B)は、図16(A)の状態において右目画像用撮像素子22および左目画像用撮像素子26により撮像した画像情報を、それぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示したものである。図16(B)において、右目用ディスプレイ表示面12aと右目用接眼レンズ18aの位置は、図12(A)と同様にセットされ、左目用ディスプレイ表示面14aと左目用接眼レンズ20aの位置も同様である。この点では、図16(B)は、図13(B)と同じである。   FIG. 16B shows image information captured by the right-eye image sensor 22 and the left-eye image sensor 26 in the state of FIG. 16A on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. It is displayed. In FIG. 16B, the positions of the right-eye display display surface 12a and the right-eye eyepiece 18a are set in the same manner as in FIG. 12A, and the positions of the left-eye display display surface 14a and the left-eye eyepiece 20a are also the same. It is. In this respect, FIG. 16B is the same as FIG.

しかしながら、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示される表示点108、110は、近距離物点102が近くなったため表示中心からより大きく互いに反対側にずれている。従って、このような表示点108、110がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aが右目用接眼レンズ18aおよび左目用接眼レンズ20によってディスプレイ表示面の虚像12b、14bとして見えるとき、その上での虚像表示点108a、110aは一致しない。(位置がクロスして逆転している。)しかしながら、これら虚像表示点108a、110aを同一の点として見ようとする右目6および左目8は、虚像表示点108a、110aの実像108b、110bが右目6および左目8のそれぞれ網膜の中心に結像するようなよりきつい輻輳角をとる。この結果、見えているものは、より近い距離にある一致点108c、110cであると認識する。   However, the display points 108 and 110 displayed on the right-eye display display surface 12a and the left-eye display display surface 14a are largely shifted from the display center to the opposite sides because the short-distance object point 102 is close. Accordingly, the right-eye display display surface 12a and the left-eye display display surface 14a on which the display points 108 and 110 are displayed are displayed as virtual images 12b and 14b on the display display surface by the right-eye eyepiece 18a and the left-eye eyepiece 20, respectively. When visible, the virtual image display points 108a, 110a on them do not coincide. (Positions are reversed and reversed.) However, the right image 6 and the left eye 8 that try to see the virtual image display points 108a and 110a as the same point are the real images 108b and 110b of the virtual image display points 108a and 110a. Further, the angle of convergence is more tight so as to form an image at the center of the retina of each of the left eyes 8. As a result, what is visible is recognized as the coincidence points 108c and 110c at a closer distance.

図16(C)は、図16(A)の近距離物点102を健常者が裸眼で実視した場合の右目6と左目8の輻輳角の状態を示している。上述のように近距離物点102は健常者の視力調節範囲内にある。図16(B)の輻輳角は図16(C)の輻輳角とほぼ一致するので、図16(B)における一致点108c、110cの観察は、使用者にとって図16(C)における近距離物点102の観察と等しい感覚を与えることになる。   FIG. 16C shows the state of convergence angles of the right eye 6 and the left eye 8 when a healthy person actually views the short distance object point 102 of FIG. 16A with the naked eye. As described above, the short-distance object point 102 is within the visual acuity adjustment range of a healthy person. Since the convergence angle in FIG. 16B substantially coincides with the convergence angle in FIG. 16C, the observation of the coincidence points 108c and 110c in FIG. A feeling equivalent to the observation of the point 102 is given.

図17は、図13および図16と同様のものであるが、図17(A)に示すように、右目用屈曲スームレンズ光学系24および左目用屈曲ズームレンズ光学系28が、図13における標準距離の物点88よりも遠い遠距離物点112に合焦するようフォーカス調節されている。なお、遠距離近距離物点112についても健常者の視力調節範囲内にあるものとする。この状態において右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28から見た遠距離物点112の視差は図13の場合よりも小さくなり、右目画像用撮像素子22の撮像面22a上に結像される像点114と左目画像用撮像素子26の撮像面26a上に結像される像点116の位置は、ずれてはいるが、より光軸に近づくことになる。これが、遠距離物点112の視差情報として右目画像用撮像素子22および左目画像用撮像素子26により撮像される。   FIG. 17 is the same as FIG. 13 and FIG. 16, except that the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 have the standard distance in FIG. The focus is adjusted to focus on a long-distance object point 112 farther than the object point 88. It is assumed that the long-distance / short-distance object point 112 is also within the range of visual acuity adjustment for a healthy person. In this state, the parallax of the long-distance object point 112 viewed from the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 is smaller than that in the case of FIG. The positions of the image point 114 formed above and the image point 116 formed on the image pickup surface 26a of the left-eye image pickup device 26 are shifted, but closer to the optical axis. This is imaged by the right-eye image sensor 22 and the left-eye image sensor 26 as parallax information of the long-distance object point 112.

図17(B)は、図17(A)の状態において右目画像用撮像素子22および左目画像用撮像素子26により撮像した画像情報を、それぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示したものである。図17(B)において、右目用ディスプレイ表示面12aと右目用接眼レンズ18aの位置は、図12(A)と同様にセットされ、左目用ディスプレイ表示面14aと左目用接眼レンズ20aの位置も同様である。この点では、図17(B)は、図13(B)および図16(B)と同じである。   FIG. 17B shows image information captured by the right-eye image imaging element 22 and the left-eye image imaging element 26 in the state of FIG. 17A on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. It is displayed. In FIG. 17B, the positions of the right-eye display display surface 12a and the right-eye eyepiece 18a are set in the same manner as in FIG. 12A, and the positions of the left-eye display display surface 14a and the left-eye eyepiece 20a are also the same. It is. In this respect, FIG. 17B is the same as FIGS. 13B and 16B.

しかしながら、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aに表示される表示点118、120は、遠距離物点112が遠くなったため表示中心により近づく。従って、このような表示点118、120がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aが右目用接眼レンズ18aおよび左目用接眼レンズ20によってディスプレイ表示面の虚像12b、14bとして見えるとき、その上での虚像表示点118a、120aは一致しない。しかしながら、これら虚像表示点118a、120aを同一の点として見ようとする右目6および左目8は、虚像表示点118a、120aの実像118b、120bが右目6および左目8のそれぞれ網膜の中心に結像するようなよりゆるい輻輳角をとる。この結果、見えているものは、より遠い距離にある一致点118d、120dであると認識する。   However, the display points 118 and 120 displayed on the right-eye display display surface 12a and the left-eye display display surface 14a are closer to the display center because the long-distance object point 112 is far away. Therefore, the right-eye display display surface 12a and the left-eye display display surface 14a on which the display points 118 and 120 are displayed are respectively converted into virtual images 12b and 14b on the display display surface by the right-eye eyepiece lens 18a and the left-eye eyepiece lens 20. When visible, the virtual image display points 118a, 120a on them do not coincide. However, in the right eye 6 and the left eye 8 that try to see the virtual image display points 118a and 120a as the same point, the real images 118b and 120b of the virtual image display points 118a and 120a are formed at the centers of the retinas of the right eye 6 and the left eye 8, respectively. Take a looser angle of convergence. As a result, what is visible is recognized as the coincidence points 118d and 120d at a farther distance.

図17(C)は、図17(A)の遠距離物点112を健常者が裸眼で実視した場合の右目6と左目8の輻輳角の状態を示している。上述のように近距離物点112は健常者の視力調節範囲内にある。図17(B)の輻輳角は図17(C)の輻輳角とほぼ一致するので、図17(B)における一致点118d、120dの観察は、使用者にとって図17(C)における遠距離物点112の観察と等しい感覚を与えることになる。   FIG. 17C shows the state of convergence angles of the right eye 6 and the left eye 8 when the normal object is viewed with the naked eye by the long distance object point 112 of FIG. As described above, the short-distance object point 112 is within the visual acuity adjustment range of a healthy person. Since the convergence angle in FIG. 17B substantially matches the convergence angle in FIG. 17C, the observation of the coincidence points 118d and 120d in FIG. A feeling equivalent to the observation of the point 112 is given.

このように、光軸が互いに平行でその幅が人間の平均的な眼幅に設定されている平行双眼撮像系により撮像した画像情報を、眼幅が平行双眼双眼撮像系の光軸間の幅と等しい平行双眼ディスプレイ上にそれぞれに表示する実施例4の構成は、左右の表示上の物点が一致するように見ようとする眼の輻輳角により物点の距離が異なっても、立体視を再現することができる。   As described above, the image information captured by the parallel binocular imaging system in which the optical axes are parallel to each other and the width is set to the average human eye width is the width between the optical axes of the parallel binocular imaging system in which the eye width is parallel. In the configuration of the fourth embodiment, which is displayed on a parallel binocular display equal to each other, stereoscopic viewing is possible even if the distance between the object points varies depending on the convergence angle of the eye to be seen so that the object points on the left and right displays coincide with each other. Can be reproduced.

図18および図19は、中央制御部80が画像処理部81を制御して右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aによる表示画像をそれぞれ拡大、縮小(ワイド化)する場合に関するものであり、輻輳角の観点から拡大および縮小の際の見えのリアリティについて検討している。   FIGS. 18 and 19 relate to the case where the central control unit 80 controls the image processing unit 81 to enlarge and reduce (widen) the display images on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. Yes, from the viewpoint of the angle of convergence, we are examining the reality of appearance when expanding and contracting.

図18は、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aによる表示画像をそれぞれ拡大した場合に関する。まず、図18(A)は、拡大前の標準倍率状態を示しており、図13(B)の状態に相当する。このとき、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aには、それぞれ表示画像122および表示画像124が表示される。(拡大、縮小を示すため大きさのある画像として示す。)図13(B)と同様にして、表示画像122および表示画像124が表示右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aは、右目用接眼レンズ18aおよび左目用接眼レンズ20によって、虚像表示画像122a、124aがそれぞれ表示されたディスプレイ表示面の虚像12b、14bとして見える。このとき、図13(B)と同様にして、虚像表示画像122a、124aは一致する。図18(B)では、このような虚像表示画像122a、124aを右目6および左目8が注視することによって、虚像表示画像122a、124aの実像122bおよび124b(位置のみを示すため、点で図示)が右目6および左目8のそれぞれ網膜の中心に結像している状態を示している。この注視により右目6および左目8に輻輳角が生じ、一致している虚像表示画像122a、124aまでの距離を感じることができるのは、図13(B)と同様である。   FIG. 18 relates to a case where display images on the right-eye display display surface 12a and the left-eye display display surface 14a are enlarged. First, FIG. 18A shows a standard magnification state before enlargement, and corresponds to the state of FIG. At this time, a display image 122 and a display image 124 are displayed on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. (Shown as a large image to show enlargement and reduction.) Similarly to FIG. 13B, the display image 122 and the display image 124 are displayed on the display display surface 12a for the right eye and the display display surface 14a for the left eye. By the right eyepiece 18a and the left eyepiece 20, the virtual image display images 122a and 124a can be seen as virtual images 12b and 14b on the display surface on which they are displayed. At this time, the virtual image display images 122a and 124a match in the same manner as in FIG. In FIG. 18B, when the right eye 6 and the left eye 8 gaze at the virtual image display images 122a and 124a, the real images 122b and 124b of the virtual image display images 122a and 124a (shown with dots to show only the position). Indicates a state in which images are formed at the centers of the retinas of the right eye 6 and the left eye 8, respectively. This gaze causes a convergence angle in the right eye 6 and the left eye 8, and the distance to the coincident virtual image display images 122a and 124a can be felt as in FIG. 13B.

これに対し、図18(B)は、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a上の表示画像を拡大し、それぞれ拡大表示画像126、128とした場合を示す。この時重要なのは、拡大表示画像126、128自体をそれぞれ中心として拡大するのではなく、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a全体の中央部を中心として画像全体を拡大することである。これによって、図18(A)の状態において右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a全体の中央部になかった表示画像122、124が、図18(B)の拡大表示画像126、128となったとき、拡大とともに、より大きく互いに反対側にずれる。(画像中央部から離れる。)   On the other hand, FIG. 18B shows a case where the display images on the right-eye display display surface 12a and the left-eye display display surface 14a are enlarged to be enlarged display images 126 and 128, respectively. What is important at this time is not to enlarge the enlarged display images 126 and 128 themselves as the center, but to enlarge the entire image around the central portions of the entire right-eye display display surface 12a and the left-eye display display surface 14a. . As a result, the display images 122 and 124 that are not in the center of the entire right-eye display display surface 12a and the left-eye display display surface 14a in the state of FIG. 18A are displayed as enlarged display images 126 and 128 in FIG. When it becomes, it will shift to the opposite side more greatly with expansion. (Leave away from the center of the image.)

従って、このような拡大表示画像126、128がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aが右目用接眼レンズ18aおよび左目用接眼レンズ20によってディスプレイ表示面の虚像12b、14bとして見えるとき、その上での虚像拡大表示画像126a、128aは一致しない。(位置がクロスして逆転している。)しかしながら、これら虚像拡大表示画像126a、128bを同一の点として見ようとする右目6および左目8は、虚像拡大表示画像126a、128bの実像126b、128b(位置のみを示すため、点で図示)が右目6および左目8のそれぞれ網膜の中心に結像するようなよりきつい輻輳角をとる。この結果、見えているものは、より近い距離にある一致画像126c、128cであると2認識する。これによって、一致画像126c、128cは拡大とともにより近くに見え、3D画像としてのリアリティを実現できる。   Accordingly, the right-eye display display surface 12a and the left-eye display display surface 14a on which such enlarged display images 126 and 128 are displayed are displayed on the display display surface virtual images 12b and 14b by the right-eye eyepiece 18a and the left-eye eyepiece 20, respectively. , The virtual image enlarged display images 126a and 128a thereon do not match. (The positions are reversed and reversed.) However, the right eye 6 and the left eye 8 trying to see the virtual image enlarged display images 126a and 128b as the same point are the real images 126b and 128b of the virtual image enlarged display images 126a and 128b ( Since only the position is shown, the angle of convergence is such that the image of the right eye 6 and the left eye 8 is focused on the center of the retina. As a result, what is visible is recognized as two coincident images 126c and 128c at a closer distance. Thereby, the coincidence images 126c and 128c appear closer together with enlargement, and the reality as a 3D image can be realized.

一方、図19は、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aによる表示画像をそれぞれ縮小(周辺画像がある場合はワイド化)した場合に関する。図19(A)は、図18(A)と同じもので、拡大前の標準倍率状態を示している。   On the other hand, FIG. 19 relates to a case where the display images on the right-eye display display surface 12a and the left-eye display display surface 14a are reduced (widened if there are peripheral images). FIG. 19A is the same as FIG. 18A and shows a standard magnification state before enlargement.

これに対し、図19(B)は、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a上の表示画像を縮小し、それぞれ縮小表示画像130、132とした場合を示す。この時重要なのは、図18と同様にして、縮小表示画像130、132自体をそれぞれ中心として縮小するのではなく、右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a全体の中央部を中心として画像全体を縮小することである。これによって、図19(A)の状態における表示画像122、124が、図19(B)の縮小表示画像130、132となったとき、縮小とともに、互いに画像中央部に近づく。   On the other hand, FIG. 19B shows a case where the display images on the right-eye display display surface 12a and the left-eye display display surface 14a are reduced to reduced display images 130 and 132, respectively. What is important at this time is not to reduce the reduced display images 130 and 132 themselves as the centers, as in FIG. 18, but to center the central portions of the right-eye display display surface 12a and the left-eye display display surface 14a. It is to reduce the whole. As a result, when the display images 122 and 124 in the state of FIG. 19A become the reduced display images 130 and 132 of FIG. 19B, the images approach each other along with the reduction.

従って、このような縮小表示画像130、132がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aが右目用接眼レンズ18aおよび左目用接眼レンズ20によってディスプレイ表示面の虚像12b、14bとして見えるとき、その上での虚像縮小表示画像130a、132aは一致しない。しかしながら、これら虚像縮小表示画像130a、132aを同一の点として見ようとする右目6および左目8は、虚像縮小表示画像130a、132aの実像130b、132b(位置のみを示すため、点で図示)が右目6および左目8のそれぞれ網膜の中心に結像するようなよりゆるい輻輳角をとる。この結果、見えているものは、より遠い距離にある一致画像130c、132cであると認識する。これによって、一致画像132c、132cは縮小とともにより遠のいて見え、3D画像としてのリアリティを実現できる。   Accordingly, the right-eye display display surface 12a and the left-eye display display surface 14a on which such reduced display images 130 and 132 are displayed are displayed on the display display surface virtual images 12b and 14b by the right-eye eyepiece 18a and the left-eye eyepiece 20, respectively. , The virtual image reduced display images 130a and 132a thereon do not match. However, the right eye 6 and the left eye 8 that try to see the virtual image reduced display images 130a and 132a as the same point have the real images 130b and 132b of the virtual image reduced display images 130a and 132a (shown with dots to show only the position) as the right eye. The 6 and the left eye 8 each take a looser convergence angle that forms an image at the center of the retina. As a result, what is visible is recognized as the coincidence images 130c and 132c at a farther distance. As a result, the coincidence images 132c and 132c appear farther with reduction, and the reality as a 3D image can be realized.

図20から図22は、図13から図19で説明した条件とは異なる相互関係にある撮像系と表示系用いた場合の視差・輻輳を説明するものである。   20 to 22 illustrate the parallax / congestion in the case of using an imaging system and a display system that are in a mutually different relationship from the conditions described in FIGS. 13 to 19.

図20は、本発明の実施例5の断面模式図である。図20の実施例5は、光軸が互いに平行でその幅が人間の平均的な眼幅より狭く設定されている小型の平行双眼撮像系により撮像した画像情報を、人間の平均的な眼幅に設定された平行双眼ディスプレイ上にそれぞれに表示するものである。以下このように、平行双眼撮像系と平行双眼双眼撮像系の光軸幅が異なる場合の実施例5の処理について説明する。なお、上記以外の構成は、実施例4と共通であるため、構成の詳細は図11を援用する。   FIG. 20 is a schematic sectional view of Example 5 of the present invention. In Example 5 of FIG. 20, image information captured by a small parallel binocular imaging system in which the optical axes are parallel to each other and the width thereof is set to be narrower than the average human eye width, the average human eye width is obtained. Are displayed on the parallel binocular display set to. Hereinafter, the processing of the fifth embodiment when the optical axis widths of the parallel binocular imaging system and the parallel binocular imaging system are different will be described. In addition, since structures other than the above are common to the fourth embodiment, FIG. 11 is used for details of the structure.

図20(A)は、右目用屈曲スームレンズ光学系134および左目用屈曲ズームレンズ光学系136よりなる3Dの平行双眼撮像系の基本構成を示す。図13と同様にして、単純化のため、光路を延ばして図示している。実施例4と同様にして、右目用屈曲スームレンズ光学系134および左目用屈曲ズームレンズ光学系136の光軸は互いに平行であるが、その幅は人間の平均的な眼幅よりも狭い。なお、右目用屈曲スームレンズ光学系134および左目用屈曲ズームレンズ光学系136はともに標準焦点距離にセットされるとともに、標準距離にある物点88に合焦するようフォーカス調節されている。この物点88の標準距離は、図12(a)におけるディスプレイ表示面12aの虚像12bの位置と同じ距離に設定されている。   FIG. 20A shows a basic configuration of a 3D parallel binocular imaging system including a right-eye bent zoom lens optical system 134 and a left-eye bent zoom lens optical system 136. Similarly to FIG. 13, for the sake of simplicity, the optical path is extended. As in the fourth embodiment, the optical axes of the right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136 are parallel to each other, but their width is narrower than the average human eye width. The right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136 are both set to the standard focal length and the focus is adjusted to focus on the object point 88 at the standard distance. The standard distance of the object point 88 is set to the same distance as the position of the virtual image 12b on the display display surface 12a in FIG.

このような右目用屈曲スームレンズ光学系134および左目用屈曲ズームレンズ光学系136により右目画像用撮像素子の撮像面138aおよび右目画像用撮像素子の撮像面140aにそれぞれ結像される像点142、144は、光軸からそれぞれ反対側にずれる。しかしながら、そのずれ量は、右目用屈曲スームレンズ光学系134と左目用屈曲ズームレンズ光学系136との光軸幅が狭いため、図13(A)よりも小さくなっている。   Image points 142 and 144 imaged on the imaging surface 138a of the right-eye image pickup device and the imaging surface 140a of the right-eye image pickup device by the right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136, respectively. Deviate from the optical axis to the opposite side. However, the shift amount is smaller than that in FIG. 13A because the optical axis widths of the right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136 are narrow.

図20(B)は、上記のように、眼幅が人間の平均的な眼幅と等しい平行双眼ディスプレイであって、構成としては、図13(B)と同じものである。しかしながら、図20(A)のように像点142、144のずれ量が小さい画像情報に基づいてそれぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aの表示が行われるとすると、表示点146、148は、より表示中心により近づくことになる。従って、このような表示点146、148がそれぞれ表示された右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14aがディスプレイ表示面の虚像12b、14bとして見えるとき、虚像表示点146a、148aは一致しない。右目6および左目8は、これら虚像表示点146a、148aを同一の点として見ようとしてその実像146b、148bが右目6および左目8のそれぞれ網膜の中心に結像するようなよりゆるい輻輳角をとる。この結果、見えているものは、物点88より遠い距離にある一致点146c、148cであると認識してしまう。このように、平行双眼撮像系と平行双眼双眼撮像系の光軸間の幅が一致しない場合、表示される一致点146c、148cは、撮像対象の物点88と異なる距離に見え、違和感が生じる。   FIG. 20B shows a parallel binocular display in which the eye width is equal to the average eye width of a human as described above, and the configuration is the same as FIG. 13B. However, if the display on the right-eye display display surface 12a and the left-eye display display surface 14a are displayed on the basis of image information in which the shift amounts of the image points 142 and 144 are small as shown in FIG. 148 is closer to the display center. Accordingly, when the right-eye display display surface 12a and the left-eye display display surface 14a on which such display points 146 and 148 are respectively displayed are seen as virtual images 12b and 14b on the display display surface, the virtual image display points 146a and 148a do not match. . The right eye 6 and the left eye 8 have looser convergence angles such that the real images 146b and 148b are formed at the centers of the retinas of the right eye 6 and the left eye 8 in an attempt to view the virtual image display points 146a and 148a as the same point. As a result, what is visible is recognized as the coincidence points 146c and 148c at a distance farther than the object point 88. Thus, when the widths between the optical axes of the parallel binocular imaging system and the parallel binocular imaging system do not match, the displayed matching points 146c and 148c appear to be at a different distance from the object point 88 to be imaged, resulting in a sense of incongruity. .

図20(C)は、上記のような違和感を解消するための構成を示す。具体的には、図20(C)の示すように、ディスプレイ表示面の虚像12b、14b上において虚像表示点150d、152dが一致するよう、中央制御部80が画像処理部81を制御してそれぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a上の表示点のシフトを行う。つまり、図20に示す表示点146、148を、図20(C)に矢印で示す画像の外側方向に向けてシフトし、表示点150、152としたとき、ディスプレイ表示面の虚像12b、14b上において虚像表示点150d、152dが一致する。これによって、表示される一致点150d、152dが撮像対象の物点88と同じ位置に見える輻輳角の状態となり、違和感を解消することができる。   FIG. 20C shows a configuration for eliminating the above-mentioned uncomfortable feeling. Specifically, as shown in FIG. 20C, the central control unit 80 controls the image processing unit 81 so that the virtual image display points 150d and 152d coincide on the virtual images 12b and 14b on the display surface, respectively. The display points on the right-eye display display surface 12a and the left-eye display display surface 14a are shifted. That is, when the display points 146 and 148 shown in FIG. 20 are shifted toward the outer side of the image indicated by the arrows in FIG. 20C and set as the display points 150 and 152, on the virtual images 12b and 14b on the display surface. , The virtual image display points 150d and 152d coincide. As a result, the displayed coincidence points 150d and 152d are in a state of convergence angle where they can be seen at the same position as the object point 88 to be imaged, and the uncomfortable feeling can be eliminated.

図21は、本発明の実施例6の断面模式図である。実施例6では、平行双眼ディスプレイの眼幅が調節可能に構成される。具体的には、図21の実施例5は、光軸が互いに平行でその幅が人間の平均的な眼幅より狭く設定されている小型の平行双眼撮像系により撮像した画像情報を、眼幅が調節可能な平行双眼ディスプレイ上にそれぞれに表示する。   FIG. 21 is a schematic sectional view of Example 6 of the present invention. The sixth embodiment is configured such that the eye width of the parallel binocular display can be adjusted. Specifically, Example 5 in FIG. 21 shows image information captured by a small parallel binocular imaging system in which the optical axes are parallel to each other and the width thereof is set narrower than the average human eye width. Are each displayed on an adjustable parallel binocular display.

図21(A)は、図20(A)と同じものである。つまり、実施例6にあっても、右目用屈曲スームレンズ光学系134および左目用屈曲ズームレンズ光学系136の光軸の幅は人間の平均的な眼幅よりも狭く、右目画像用撮像素子の撮像面138aおよび右目画像用撮像素子の撮像面140aにそれぞれ結像される像点142、144のずれ量は、右目用屈曲スームレンズ光学系134と左目用屈曲ズームレンズ光学系136との光軸幅が狭いため、図13(A)よりも小さくなっている。   FIG. 21A is the same as FIG. That is, even in Example 6, the width of the optical axis of the right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136 is narrower than the average human eye width, and the imaging of the right-eye image pickup device is performed. The shift amounts of the image points 142 and 144 formed on the imaging surface 140a of the surface 138a and the imaging device for the right eye image are determined by the optical axis widths of the right-eye bent zoom lens optical system 134 and the left-eye bent zoom lens optical system 136, respectively. Since it is narrow, it is smaller than FIG.

図21(B)は、図20(B)と同様の平行双眼ディスプレイの断面模式図であるが、眼幅調整により、左目用ディスプレイ表示面14aと左目用接眼レンズ20aが右目用ディスプレイ表示面12aと右目用接眼レンズ18aにそれぞれ近づけられ、平行双眼ディスプレイの眼幅が平行双眼双眼撮像系の光軸間の幅と等しくなっている。このような状態は、眼幅の狭い子供用のディスプレイとして好適である。そして、平行双眼撮像系と平行双眼双眼撮像系の光軸間の幅が一致させられた結果、図21(A)と図21(B)の関係は、図13(A)と図(13B)の関係と同様となり、ディスプレイ表示面の虚像12b、14b上においける虚像表示点146a、148aが一致する。そしてその位置は、撮像対象の物点88と同じ距離に見え、違和感は生じない。このように、違和感の解消は、光軸間の幅の調節によっても可能である。   FIG. 21B is a schematic cross-sectional view of a parallel binocular display similar to FIG. 20B, but the left-eye display display surface 14a and the left-eye eyepiece 20a are connected to the right-eye display display surface 12a by adjusting the eye width. The eye width of the parallel binocular display is equal to the width between the optical axes of the parallel binocular binocular imaging system. Such a state is suitable as a display for children with a narrow eye width. Then, as a result of matching the width between the optical axes of the parallel binocular imaging system and the parallel binocular imaging system, the relationship between FIG. 21A and FIG. 21B is as shown in FIG. 13A and FIG. The virtual image display points 146a and 148a on the virtual images 12b and 14b on the display surface coincide with each other. The position looks the same distance as the object point 88 to be imaged, and there is no sense of incongruity. In this way, the sense of discomfort can be eliminated by adjusting the width between the optical axes.

図21(C)は、図20(C)と同じものであって、眼幅調整によって例えば大人用に平行双眼ディスプレイの眼幅を広げた場合を示す。そしてこの場合は実施例5と同様にして、中央制御部80が画像処理部81を制御してそれぞれ右目用ディスプレイ表示面12aおよび左目用ディスプレイ表示面14a上の表示点のシフトを行い、違和感を解消する。   FIG. 21C is the same as FIG. 20C, and shows a case where the eye width of the parallel binocular display is increased by adjusting the eye width, for example, for adults. In this case, as in the fifth embodiment, the central control unit 80 controls the image processing unit 81 to shift the display points on the right-eye display display surface 12a and the left-eye display display surface 14a, respectively. Eliminate.

図22は、本発明の実施例7の断面模式図である。実施例7は、平行双眼双眼撮像系と平行双眼ディスプレイを別体とし、種々の平行双眼双眼撮像系と平行双眼ディスプレイを組み合わせる場合に好適である。   FIG. 22 is a schematic sectional view of Example 7 of the present invention. The seventh embodiment is suitable when a parallel binocular imaging system and a parallel binocular display are separated and various parallel binocular imaging systems and parallel binocular displays are combined.

図22(A)は、基本組み合わせに用いられる平行双眼ディスプレイであり、その構成は、図21(B)と同じものである。但し、眼幅は狭い状態に固定される。実施例7の基本組み合わせにおいて、図22(A)の平行双眼ディスプレイは、図21(A)に示す平行双眼双眼撮像系と組み合わされる。この組み合わせは、および図21(B)と図21(A)の関係と同等であるため、表示に違和感はない。   FIG. 22A shows a parallel binocular display used for the basic combination, and its configuration is the same as FIG. 21B. However, the eye width is fixed in a narrow state. In the basic combination of the seventh embodiment, the parallel binocular display shown in FIG. 22A is combined with the parallel binocular binocular imaging system shown in FIG. Since this combination is equivalent to the relationship between FIG. 21B and FIG. 21A, the display does not feel strange.

図22(B)は、図21(A)に示す平行双眼双眼撮像系と組み合わされる他の平行双眼ディスプレイを示す。図22(B)の平行双眼ディスプレイは、光軸間の幅が平行双眼双眼撮像系と一致しているが、ディスプレイ表示面154a、156aが右目6および左眼812から遠い位置にあり、これに伴って接眼レンズ158a、160aも異なる光学系となっている。このため、この組み合わせにおける平行双眼双眼撮像系と平行双眼ディスプレイの関係は図20(A)と図20(B)と同様の関係となる。このため、図22(C)に示すように、図20(C)と同様の補正を行い、違和感を解消する。この目的のため、各平行双眼双眼撮像系と平行双眼ディスプレイは補正に必要な情報を保持し、相互に伝達しあう。   FIG. 22B shows another parallel binocular display combined with the parallel binocular binocular imaging system shown in FIG. In the parallel binocular display of FIG. 22B, the width between the optical axes coincides with that of the parallel binocular binocular imaging system, but the display display surfaces 154a and 156a are located far from the right eye 6 and the left eye 812. Accordingly, the eyepiece lenses 158a and 160a are different optical systems. For this reason, the relationship between the parallel binocular binocular imaging system and the parallel binocular display in this combination is the same as that in FIGS. 20 (A) and 20 (B). For this reason, as shown in FIG. 22C, the same correction as in FIG. 20C is performed to eliminate the uncomfortable feeling. For this purpose, each binocular binocular imaging system and parallel binocular display hold information necessary for correction and communicate with each other.

以上の各実施例に示した種々の特徴の実施は、それぞれの実施例に限るものではなく、その利点を享受できる。   The implementation of the various features shown in each of the above embodiments is not limited to each embodiment, and the advantages thereof can be enjoyed.

例えば双眼撮像系と双眼ディスプレイ装置が一体となり、眼前にある視野をリアルタイムで見る視覚補助システムとして構成されている実施例の種々の特徴は、実施例7のように双眼撮像系と双眼ディスプレイ装置をそれぞれ3Dカメラおよび3Dヘッドマウントディスプレイからなる互いに別体の構成としたものにも、応用可能である。この場合、3Dカメラで撮影済みの3D動画コンテンツを、異なった時間に、および/または異なった場所でヘッドマウント3Dディスプレイにて鑑賞することができるシステムとなる。   For example, the binocular imaging system and the binocular display device are integrated, and various features of the embodiment configured as a visual assistance system for viewing the visual field in front of the eye in real time include the binocular imaging system and the binocular display device as in the seventh embodiment. The present invention can also be applied to a separate structure composed of a 3D camera and a 3D head-mounted display. In this case, the 3D moving image content shot by the 3D camera can be viewed on the head mounted 3D display at different times and / or at different places.

本発明は、視覚補助システムおよび双眼ディスプレイ装備に適用することができる。   The present invention can be applied to visual assistance systems and binocular display equipment.

24、28、134、136 双眼撮像系
12a、14a、18a、20a 双眼表示系
80、81 画像シフト機能
24, 28, 134, 136 Binocular imaging system
12a, 14a, 18a, 20a Binocular display system 80, 81 Image shift function

Claims (8)

光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系の光軸幅と同等の光軸幅を有する双眼表示系を備えた双眼ディスプレイ。   A binocular display provided with a binocular display system that receives image information from a binocular imaging system having parallel optical axes and has an optical axis width equivalent to the optical axis width of the binocular imaging system. 前記双眼撮像系の標準被写体距離と同等の距離に表示虚像を提供することを特徴とする請求項1記載の双眼ディスプレイ。   The binocular display according to claim 1, wherein a display virtual image is provided at a distance equivalent to a standard subject distance of the binocular imaging system. 視度調節機能を備えることを特徴とする請求項1または2記載の双眼ディスプレイ。   The binocular display according to claim 1 or 2, further comprising a diopter adjustment function. 画像拡大機能を有することを特徴とする請求項1から3のいずれかに記載の双眼ディスプレイ。   4. The binocular display according to claim 1, wherein the binocular display has an image enlargement function. 画像縮小機能を有することを特徴とする請求項1から4のいずれかに記載の双眼ディスプレイ。   5. The binocular display according to claim 1, further comprising an image reduction function. 光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系の光軸幅と異なる光軸幅を有する双眼表示系と、前記双眼撮像系の光軸幅と前記双眼表示系の光軸幅との差に基づく画像シフト機能と、を有する双眼ディスプレイ。   A binocular display system that receives image information from a binocular imaging system with parallel optical axes and has an optical axis width different from the optical axis width of the binocular imaging system, the optical axis width of the binocular imaging system, and the light of the binocular display system A binocular display having an image shift function based on a difference from an axial width. 光軸幅調整機能を備えた双眼表示系と、前記双眼表示系における光軸幅の調整に応じた画像シフト機能と、を有する双眼ディスプレイ。   A binocular display having a binocular display system having an optical axis width adjustment function and an image shift function according to an adjustment of an optical axis width in the binocular display system. 光軸が平行な双眼撮像系から画像情報を受けるとともに、前記双眼撮像系と異なる表示光学系を有し、前記表示光学系の差に基づく画像シフト機能を有する双眼ディスプレイ。   A binocular display that receives image information from a binocular imaging system having parallel optical axes, has a display optical system different from the binocular imaging system, and has an image shift function based on a difference between the display optical systems.
JP2015159111A 2014-09-18 2015-08-11 Binoculars display device Pending JP2017037235A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015159111A JP2017037235A (en) 2015-08-11 2015-08-11 Binoculars display device
PCT/JP2015/076051 WO2016043165A1 (en) 2014-09-18 2015-09-14 Binocular display system
US15/508,655 US10426668B2 (en) 2014-09-18 2015-09-14 Binocular display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015159111A JP2017037235A (en) 2015-08-11 2015-08-11 Binoculars display device

Publications (1)

Publication Number Publication Date
JP2017037235A true JP2017037235A (en) 2017-02-16

Family

ID=58048202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015159111A Pending JP2017037235A (en) 2014-09-18 2015-08-11 Binoculars display device

Country Status (1)

Country Link
JP (1) JP2017037235A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019186897A (en) * 2018-04-10 2019-10-24 株式会社シンクアウト Head mounted display
KR20190132491A (en) * 2017-05-17 2019-11-27 애플 인크. Head-Mount Display Device with Vision Correction

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190132491A (en) * 2017-05-17 2019-11-27 애플 인크. Head-Mount Display Device with Vision Correction
KR102337620B1 (en) * 2017-05-17 2021-12-08 애플 인크. Head-mounted display device with vision correction
US11874530B2 (en) 2017-05-17 2024-01-16 Apple Inc. Head-mounted display device with vision correction
JP2019186897A (en) * 2018-04-10 2019-10-24 株式会社シンクアウト Head mounted display
JP7139548B2 (en) 2018-04-10 2022-09-21 株式会社シンクアウト head mounted display

Similar Documents

Publication Publication Date Title
WO2016043165A1 (en) Binocular display system
US11480784B2 (en) Binocular display with digital light path length modulation
US9916690B2 (en) Correction of displayed images for users with vision abnormalities
RU2661027C2 (en) Method and system for treatment of visual impairment
JP5637560B2 (en) Methods and devices for prevention and treatment of myopia and fatigue
US11300805B2 (en) Stereoscopic eyeglasses, method for designing eyeglass lens to be used for the stereoscopic eyeglasses, and method for observing stereoscopic image
KR101632156B1 (en) Calibration lens can be seen ultra short distance
JP3624112B2 (en) Auto focus glasses
WO2018096647A1 (en) Method for designing vision correction lens, and vision correction lens
JP2017037235A (en) Binoculars display device
KR20190057871A (en) Virtual reality device for preventing myopic progression
JP2001290101A (en) System for detecting will to adjust visual point in length direction and method for driving the will and spectacles for automatic correction of perspective
JP6544901B2 (en) Vision aid system and vision aid device
JP6633269B2 (en) Visual aid system
CN204374515U (en) A kind of head mounted display be convenient to ametropia patient and used
EP2865183B1 (en) Method of adapting 3d content to an observer wearing prescription glasses
Padmanaban Enabling Gaze-Contingent Accommodation in Presbyopia Correction and Near-Eye Displays
WO2010098274A1 (en) Head-mounted display
JP2007219462A (en) Ready-made reading glasses
JP7483011B2 (en) Imaging device
TW202321783A (en) Eyeglass devices and related methods
JP2023032278A (en) Video display device and method for controlling the same, and program
CN117982323A (en) Vision correction enhancing method and device for visually impaired patient