JP2016080971A - Visual assistance system - Google Patents

Visual assistance system Download PDF

Info

Publication number
JP2016080971A
JP2016080971A JP2014214474A JP2014214474A JP2016080971A JP 2016080971 A JP2016080971 A JP 2016080971A JP 2014214474 A JP2014214474 A JP 2014214474A JP 2014214474 A JP2014214474 A JP 2014214474A JP 2016080971 A JP2016080971 A JP 2016080971A
Authority
JP
Japan
Prior art keywords
unit
image
user
display
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014214474A
Other languages
Japanese (ja)
Other versions
JP2016080971A5 (en
JP6633269B2 (en
Inventor
前田 利久
Toshihisa Maeda
利久 前田
田中 雅英
Masahide Tanaka
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2014214474A priority Critical patent/JP6633269B2/en
Priority to US15/508,655 priority patent/US10426668B2/en
Priority to PCT/JP2015/076051 priority patent/WO2016043165A1/en
Publication of JP2016080971A publication Critical patent/JP2016080971A/en
Publication of JP2016080971A5 publication Critical patent/JP2016080971A5/ja
Application granted granted Critical
Publication of JP6633269B2 publication Critical patent/JP6633269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To propose a useful visual assistance system.MEANS FOR SOLVING THE PROBLEM: A visual assistance system for correcting an image obtained by an imaging part which images an object that a user is trying to see in accordance with a visual defect of the user by an image processing part, and for displaying the image, and for selecting a plurality of stored processing modes is configured to restrict a manual operation unsuitable for selection on the basis of the detection of a situation sensor which detects a situation during use, and to automatically select the processing mode on the basis of the detection of the situation sensor, and to learn and store the detection of the situation sensor when the manual operation is performed, and to automatically select the processing mode on the basis of learning and storage and the detection of the situation sensor, and to determine the propriety of automatic selection on the basis of the learning and storage when the processing mode is automatically selected, and to decrease the frame rate of image display in image enlargement, and to stop the change of display when the situation sensor detects fine vibrations, and to restore the processing of the image processing part to a standard state on the basis of the detection of the situation sensor.SELECTED DRAWING: Figure 8

Description

本発明は、視覚補助システムに関する。   The present invention relates to a visual aid system.

視覚障害者のための視覚補助システムが種々検討されている。視覚障害の主な原因には、緑内症例、白内障、夜盲症、加齢黄斑変性などの目の疾患、または幼児期の視力障害などによる発達障害があり、その対策として種々の補助カメラや補助表示装置が提案されている。一例として、メガネ型の視覚拡張装置において、CCDカメラで撮像した映像のうち使用者の視野に相当する領域の画像に対して画像処理を行い、これを虚像表示装置により使用者に視認させることが提案されている。(特許文献1)また他の例として、撮像部から得られた画像情報を処理して表示部の表示エリアに表示するとともに、この表示部において外界の映像と表示エリアの処理画像が同時に観察者から見ることができるようにしたものが提案されている。(特許文献2)   Various visual assistance systems for visually impaired people have been studied. The main causes of visual impairment include glaucoma cases, cataracts, night blindness, eye diseases such as age-related macular degeneration, or developmental disorders such as visual impairment in early childhood. A device has been proposed. As an example, in an eyeglass-type visual enhancement device, image processing is performed on an image of a region corresponding to the user's visual field among images captured by a CCD camera, and this can be visually recognized by a user using a virtual image display device. Proposed. As another example, the image information obtained from the imaging unit is processed and displayed on the display area of the display unit, and the image of the outside world and the processed image of the display area are simultaneously displayed on the display unit by the observer. It has been proposed that can be seen from. (Patent Document 2)

特開2003−287708号公報JP 2003-287708 A 特許4600290号公報Japanese Patent No. 4600200

しかしながら、視覚補助システムに関してはさらに検討すべき課題が多い。   However, there are many issues to be further examined regarding the visual assistance system.

本発明の課題は、上記に鑑み、より有用な視覚補助システムを提案することにある。   In view of the above, an object of the present invention is to propose a more useful visual assistance system.

上記課題を達成するため、本発明は、使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、前記画像処理部による複数の処理モードを記憶する記憶部と、前記複数の処理モードからの選択を行う選択部とを有することを特徴とする視覚補助システムを提供する。これによって使用状況に適した処理モードの選択が可能となる。   In order to achieve the above object, the present invention provides an imaging unit that captures an object to be viewed by a user, an image processing unit that corrects an image obtained by the imaging unit according to a visual impairment of the user, and an image A display unit that displays an image of the processing unit so that a user can see it, a storage unit that stores a plurality of processing modes by the image processing unit, and a selection unit that selects from the plurality of processing modes. Provide a visual aid system. This makes it possible to select a processing mode suitable for the use situation.

本発明の具体的な特徴によれば、使用時の状況を検知する状況センサの検知に基づいて選択に不適な手動操作を制限する。例えば、状況センサが加速度を検知するとき画像拡大モードを選択する操作に制限を加える。これにより、事故等を防止することができる。上記において、不適な手動操作であることを使用者に報知することもできる。他の特徴によれば、前記状況センサの検知に基づき前記記憶部の処理モードを自動選択する。これによって使用状況に適した処理モードの自動選択が可能となる。   According to a specific feature of the present invention, manual operations unsuitable for selection are limited based on detection of a state sensor that detects a state of use. For example, the operation of selecting the image enlargement mode when the situation sensor detects acceleration is limited. Thereby, an accident etc. can be prevented. In the above, it is possible to notify the user that the manual operation is inappropriate. According to another feature, the processing mode of the storage unit is automatically selected based on the detection of the situation sensor. This enables automatic selection of a processing mode suitable for the usage situation.

本発明の具体的な特徴によれば、前記記憶部は手動操作が行われるときの前記状況センサの検知に基づいて状況に適した処理モードを学習記憶する。これによって、学習記憶とこれに対応する前記状況センサの検知に基づき前記記憶部の処理モードを自動選択することができる。また、状況センサの検知に基づき前記記憶部の処理モードを自動選択する際、学習記憶に基づいて自動選択の適否を判断することができる。   According to a specific feature of the present invention, the storage unit learns and stores a processing mode suitable for a situation based on detection of the situation sensor when a manual operation is performed. Accordingly, the processing mode of the storage unit can be automatically selected based on the learning storage and the detection of the situation sensor corresponding thereto. In addition, when automatically selecting the processing mode of the storage unit based on the detection of the situation sensor, it is possible to determine whether the automatic selection is appropriate based on the learning storage.

本発明の他の特徴によれば、使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、前記画像処理部が画像の拡大を行うとき前記表示部における画像表示のフレームレートを低下させる制御部とを有することを特徴とする視覚補助システムが提供される。これにより、画像の拡大時における映像酔い等を緩和できる。   According to another aspect of the present invention, an image capturing unit that captures an object to be viewed by a user, an image processing unit that corrects an image obtained by the image capturing unit in accordance with a visual impairment of the user, and image processing A visual aid comprising: a display unit for displaying a part of the image so that a user can see; and a control unit for reducing a frame rate of image display in the display unit when the image processing unit enlarges the image. A system is provided. Thereby, it is possible to alleviate video sickness and the like when the image is enlarged.

本発明の他の特徴によれば、使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、前記状況センサが微小振動を検知するとき前記表示部における表示の変更を停止する制御部とを有することを特徴とする視覚補助システムが提供される。これにより、画像の微小振動による映像酔い等を緩和できる。   According to another aspect of the present invention, an image capturing unit that captures an object to be viewed by a user, an image processing unit that corrects an image obtained by the image capturing unit in accordance with a visual impairment of the user, and image processing A display unit that displays the image of the unit so that the user can see, a status sensor that detects a situation during use, and a control unit that stops changing the display on the display unit when the status sensor detects minute vibrations A visual aid system is provided that comprises: Thereby, it is possible to alleviate video sickness and the like due to minute vibrations of the image.

本発明の他の特徴によれば、使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、前記状況センサの検知に基づいて前記画像処理部の処理を変更する制御部とを有することを特徴とする視覚補助システムが提供される。これにより状況に応じた自動表示変更が可能となる。   According to another aspect of the present invention, an image capturing unit that captures an object to be viewed by a user, an image processing unit that corrects an image obtained by the image capturing unit in accordance with a visual impairment of the user, and image processing A display unit that displays the image of the unit so that the user can see it, a status sensor that detects a situation during use, and a control unit that changes the processing of the image processing unit based on the detection of the status sensor A featured visual aid system is provided. Thereby, automatic display change according to the situation becomes possible.

本発明の他の特徴によれば、使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、画像処理部の処理を変更する変更部と、前記状況センサの検知に基づいて前記画像処理部の処理を標準状態に復帰させる制御部とを有することを特徴とする視覚補助システムが提供される。これにより例えば状況センサが歩行開始等による加速度を検知したときに読書目的の画像拡大状態から等倍状態または視野狭窄者のためのワイド状態への自動復帰を行い、事故の可能性を低減することができる。   According to another aspect of the present invention, an image capturing unit that captures an object to be viewed by a user, an image processing unit that corrects an image obtained by the image capturing unit in accordance with a visual impairment of the user, and image processing A display unit that displays the image of a part so that the user can see it, a status sensor that detects a situation during use, a change unit that changes processing of the image processing unit, and the image processing unit based on detection of the status sensor And a control unit that returns the processing to the standard state. As a result, for example, when the situation sensor detects acceleration due to the start of walking, etc., the possibility of an accident is reduced by automatically returning from the image enlargement state for reading purposes to the same magnification state or the wide state for those with constricted visual field Can do.

上記のように、より有用な視覚補助システムが提供される。   As described above, a more useful visual aid system is provided.

本発明の視覚補助システムの実施例1における全体構成を示すブロック図である。(実施例1)It is a block diagram which shows the whole structure in Example 1 of the visual assistance system of this invention. Example 1 実施例1における中央制御部の動作を説明する基本フローチャートである。3 is a basic flowchart illustrating an operation of a central control unit according to the first embodiment. 図2のステップS22およびステップS24の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S22 of FIG. 2, and step S24. 図2のステップS26およびステップS28の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S26 of FIG. 2, and step S28. 図2のステップS34の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S34 of FIG. 図2のステップS14の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S14 of FIG. 本発明の視覚補助システムの実施例2における画像急変緩和処理の詳細を示すフローチャートである。(実施例2)It is a flowchart which shows the detail of the image sudden change mitigation process in Example 2 of the visual assistance system of this invention. (Example 2) 本発明の視覚補助システムの実施例3における全体構成を示すブロック図である。(実施例3)It is a block diagram which shows the whole structure in Example 3 of the visual assistance system of this invention. (Example 3) 実施例3における中央制御部の動作を説明する基本フローチャートである。10 is a basic flowchart illustrating an operation of a central control unit according to a third embodiment. 図9のステップS214の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S214 of FIG.

図1は、本発明の実施の形態に係る視覚補助システムの実施例1における全体構成を示すブロック図である。実施例1の視覚補助システムは、ゴーグル型ヘッドマウントディスプレイ(以下「HMD」)2および、これとケーブルで接続されるコントローラ4を有する。上記ケーブルは、HMD2とコントローラ4のパラレルデータ通信ラインおよび電源供給ラインとなる。   FIG. 1 is a block diagram showing an overall configuration in Example 1 of a visual assistance system according to an embodiment of the present invention. The visual assistance system according to the first embodiment includes a goggle type head mounted display (hereinafter, “HMD”) 2 and a controller 4 connected to the goggle type head mounted display (hereinafter, “HMD”). The cable serves as a parallel data communication line and a power supply line for the HMD 2 and the controller 4.

HMD2は、使用者の右目6および左目8の前にかけられている通常の眼鏡10のさらに前にかけられる。このように、HMD2は、眼鏡10により使用者の右目6および左目8の屈折上の問題が解決されているという前提で使用される。この目的のため、HMD2は、本体部2aおよびツル部2bよりなり、ツル部2bを眼鏡10の上から耳にかけたとき、本体部2aが眼鏡10のレンズの前に来るよう構成されている。   The HMD 2 is put in front of normal glasses 10 put in front of the user's right eye 6 and left eye 8. As described above, the HMD 2 is used on the assumption that the problem of refraction of the user's right eye 6 and left eye 8 is solved by the glasses 10. For this purpose, the HMD 2 includes a main body portion 2a and a temple portion 2b. When the temple portion 2b is put on the ear from above the glasses 10, the main body portion 2a is arranged in front of the lens of the eyeglasses 10.

本体部2a内のHMDの右目用ディスプレイ12および左目用ディスプレイ14はいずれも有機EL現象を利用したOLED(有機発光ダイオード)ディスプレイパネルにより構成されている。駆動部16は、後述のようにコントローラ4から送られる画像信号に基づいて右目用ディスプレイ12および左目用ディスプレイ14をそれぞれ駆動し、右目用画像および左目用画像を表示する。表示された画像の虚像は、破線矢印で示すように、視線6aおよび8aに沿って右目用接眼光学系18および左目用接眼光学系20によりそれぞれ右目6および左目8に導かれる。駆動部16は、また、コントローラ4の制御に基づいて右目用接眼光学系18および左目用接眼光学系20のフォーカス調節を行うとともに、その光軸を並行移動させて視線6aまたは8aからずらせる視線シフト調節も行う。   Both the right-eye display 12 and the left-eye display 14 of the HMD in the main body 2a are configured by an OLED (organic light emitting diode) display panel using an organic EL phenomenon. The drive unit 16 drives the right-eye display 12 and the left-eye display 14 based on image signals sent from the controller 4 as described later, and displays a right-eye image and a left-eye image. The virtual image of the displayed image is guided to the right eye 6 and the left eye 8 by the right eyepiece optical system 18 and the left eyepiece optical system 20 along the lines of sight 6a and 8a, as indicated by broken line arrows. The drive unit 16 also adjusts the focus of the right-eye eyepiece optical system 18 and the left-eye eyepiece optical system 20 based on the control of the controller 4, and moves the optical axis in parallel to shift the line of sight from the line of sight 6a or 8a. Shift adjustment is also performed.

本体部2a内の右目画像用撮像素子22には、破線矢印で示すように右目の視線6aに沿って入射する光を90度内側(紙面で右側)に屈曲させる右目用屈曲ズームレンズ光学系24によって被写界の実像が結像させられる。同様に、左目画像用撮像素子26には、破線矢印で示すように左目の視線8aに沿って入射する光を90度内側(紙面で左側)に屈曲させる左目用屈曲ズームレンズ光学系28によって被写界の実像が結像させられる。右目画像用撮像素子22および左目画像用撮像素子26で撮像された被写界像は、後述のように駆動部16を介してコントローラ4に送られる。右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28によるズーミング機能により、右目画像用撮像素子22および左目画像用撮像素子26には、等倍の画像だけでなく、実際の被写界を拡大した画像や実際の被写界のワイド領域を集約した画像を結像させることができる。前者は拡大観察に、後者は、視野狭窄の使用者のために実際に見えるよりもワイドな被写界像を視野内に提供するのに適する。   The right-eye image pickup element 22 in the main body 2a has a right-eye bending zoom lens optical system 24 that bends light incident along the line of sight 6a of the right eye 90 degrees inward (right side in the drawing) as indicated by a broken arrow. By this, a real image of the object scene is formed. Similarly, the left-eye image pickup device 26 is covered by a left-eye bending zoom lens optical system 28 that bends light incident along the line of sight 8a of the left eye 90 ° inward (left side in the drawing) as indicated by a dashed arrow. A real image of the scene is formed. The object scene images picked up by the right-eye image pickup device 22 and the left-eye image pickup device 26 are sent to the controller 4 via the drive unit 16 as described later. Due to the zooming function of the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28, the right-eye image pickup device 22 and the left-eye image pickup device 26 not only have the same magnification image but also the actual image. It is possible to form an image in which the field is enlarged or an image in which the wide area of the actual scene is aggregated. The former is suitable for magnifying observation, and the latter is suitable for providing a field image in the field of view that is wider than it would actually look for a user with field stenosis.

上記の右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28を用いた撮像系は入射光軸方向の厚みを薄くし、本体部2aが前方に過度に飛び出さないようにする。また、右目用屈曲ズームレンズ光学系24および左目用屈曲ズームレンズ光学系28は屈曲後の光学系がそれぞれ視線6a、8aに垂直な方向のスペースを占めるとともに、屈曲方向の更に内側に右目画像用撮像素子22および左目画像用撮像素子26が配置される。この配置により、視線6aおよび8aの外側を遮る部品配置を避け、視線6aおよび8aの外側の実際の被写界が直接見えるようにしている。人間の目は、200度程度の広角の被写界の情報が認識できるといわれているが、実施例1において右目用ディスプレイ12および左目用ディスプレイ14に表示される被写界の情報は約40度である。このため、実施例1では、右目用ディスプレイ12および左目用ディスプレイ14に表示される画像情報の外側の被写界についても直接これを見ることにより視覚情報が得られるようにしている。   In the imaging system using the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28, the thickness in the direction of the incident optical axis is reduced so that the main body 2a does not protrude excessively forward. Further, the right-eye bent zoom lens optical system 24 and the left-eye bent zoom lens optical system 28 occupy a space in the direction perpendicular to the lines of sight 6a and 8a, respectively, and the right-eye image further inside the bending direction. An imaging element 22 and a left-eye image imaging element 26 are disposed. This arrangement avoids the arrangement of parts that block the outside of the lines of sight 6a and 8a, so that the actual field outside the lines of sight 6a and 8a can be seen directly. Although it is said that the human eye can recognize information on a wide-angle field of about 200 degrees, the information on the field displayed on the right-eye display 12 and the left-eye display 14 in Example 1 is about 40. Degree. Therefore, in the first embodiment, visual information can be obtained by directly viewing the object scene outside the image information displayed on the right-eye display 12 and the left-eye display 14.

以上の構成により、実施例1の視覚補助システムは、右目画像用撮像素子22および左目画像用撮像素子26で撮像された被写界像をコントローラ4に送って使用者の症状に合わせて処理し、コントローラ4から戻される処理画像を右目用ディスプレイ12および左目用ディスプレイ14に観察可能に表示することにより、被写界を直接目で見るよりも良好な視覚情報が得られるようにする。例えば、夜盲症(暗順応障害)の使用者にはゲインアップを行うとともにガンマ補正により暗部を持ち上げた処理画像を提供する。一方、羞明(明順応障害)の使用者にはガンマ補正により高輝度部分を圧縮した処理画像を提供する。また、文字等の判読性を高めるため、白黒反転画像を提供することも可能である。さらに、上記のように右目用ディスプレイ12および左目用ディスプレイ14に表示される画像情報の周りの被写界についても直接これを見ることにより視覚情報が得ることができる。なお、直接画像については、後述のように、その透過率を制御することにより、表示画像との調和が図られる。   With the above-described configuration, the visual assistance system according to the first embodiment sends the object scene image captured by the right-eye image imaging element 22 and the left-eye image imaging element 26 to the controller 4 for processing according to the user's symptoms. By displaying the processed image returned from the controller 4 on the right-eye display 12 and the left-eye display 14 so as to be observable, it is possible to obtain better visual information than when the object scene is viewed directly. For example, a user with night blindness (dark adaptation disorder) is provided with a processed image in which the gain is increased and the dark portion is raised by gamma correction. On the other hand, a processed image in which a high-intensity portion is compressed by gamma correction is provided to a user of dawn (light adaptation disorder). In order to improve the legibility of characters and the like, it is also possible to provide a black and white inverted image. Furthermore, visual information can be obtained by directly viewing the object scene around the image information displayed on the right-eye display 12 and the left-eye display 14 as described above. As will be described later, the direct image is harmonized with the display image by controlling the transmittance.

上記でも触れたように、本発明の実施例1においては、通常状態では、右目用ディスプレイ12の虚像を右目6に導く右目用接眼光学系18の光軸は右目用屈曲スームレンズ光学系24の入射光軸と一致している。同様に、左目用ディスプレイ14の虚像を左目8に導く左目用接眼光学系20の光軸は左目用屈曲スームレンズ光学系28の入射光軸と一致している。そして、必要に応じ、駆動部16の制御により右目用接眼光学系18または左目用接眼光学系20の光軸を並行移動させて視線6aまたは8aからずらせることが可能である。これは、例えば加齢黄斑変性等により中心視覚に障害がある場合、右目画像用撮像素子22または左目画像用撮像素子26で撮像された被写界中心の像が障害のない網膜の中心部以外に見えるよう視線をシフトするためである。   As described above, in the first embodiment of the present invention, in the normal state, the optical axis of the right-eye eyepiece optical system 18 that guides the virtual image of the right-eye display 12 to the right eye 6 is incident on the right-eye bent-smooth lens optical system 24. It coincides with the optical axis. Similarly, the optical axis of the left-eye eyepiece optical system 20 that guides the virtual image of the left-eye display 14 to the left eye 8 coincides with the incident optical axis of the left-eye bent smooth lens optical system 28. If necessary, the optical axis of the right-eye eyepiece optical system 18 or the left-eye eyepiece optical system 20 can be moved in parallel by the control of the drive unit 16 so as to be shifted from the line of sight 6a or 8a. This is because, for example, when there is a disturbance in central vision due to age-related macular degeneration or the like, the image of the center of the field imaged by the right-eye image pickup device 22 or the left-eye image pickup device 26 is other than the central portion of the retina where there is no failure. This is to shift the line of sight so that it can be seen.

また、上述のように本発明の実施例1では、視線6aおよび8aの外側の実際の被写界が背景として直接見えるように構成している。そして、矢印30で示す右目外側からの光路中には、右目用可変透過率NDフィルタ33が設けられている。右目用可変透過率NDフィルタ33は例えば液晶シャッタにより構成され、駆動部16の制御により、最大透過率と遮光状態との間で透過率が可変となっている。同様に、矢印34で示す左目外側からの光路中には、左目用可変透過率NDフィルタ36が設けられており、駆動部16の制御により、最大透過率と遮光状態との間で透過率が可変となっている。このように、右目用可変透過率NDフィルタ32と左目用可変透過率NDフィルタ36は互いに独立に透過率が変更可能である。透過率の変更は、周囲の明るさ変化に対する瞳孔の順応能力の補助に用いられる他、表示部の明るさの変化に合わせた透過率変更により表示部を見やすくするとともに、表示部の画像と背景としての直接観察画像との調和を図るために活用される。さらに表示部に白黒反転表示を行なったときは右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36を遮光状態として、白黒反転画像観察の妨げとならないようにする。   Further, as described above, the first embodiment of the present invention is configured so that the actual field outside the lines of sight 6a and 8a can be directly seen as the background. A right-eye variable transmittance ND filter 33 is provided in the optical path from the outside of the right eye indicated by the arrow 30. The right-eye variable transmittance ND filter 33 is constituted by, for example, a liquid crystal shutter, and the transmittance is variable between the maximum transmittance and the light-shielded state under the control of the driving unit 16. Similarly, a left-eye variable transmittance ND filter 36 is provided in the optical path from the outside of the left eye indicated by the arrow 34, and the transmittance is controlled between the maximum transmittance and the light-shielded state under the control of the driving unit 16. It is variable. Thus, the transmittance of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 can be changed independently of each other. The change in transmittance is used to assist the pupil's adaptability to changes in ambient brightness, and the display is made easier to see by changing the transmittance according to the change in brightness of the display. It is used to achieve harmony with direct observation images. Further, when black and white reverse display is performed on the display unit, the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 are set in a light-shielded state so as not to interfere with black-and-white reverse image observation.

図1からも明らかなように、上記で説明した実施例1における各構成は、すべて本体部2a内に収納されており、本体部2a前面から突出する部分がない。従って、HMD2を装着した使用者に向かい合う人から見たとき、HMD2は通常のサングラスに近似したものに感じられ、特別な機器で観察されているという違和感が軽減される。   As is clear from FIG. 1, all the components in the first embodiment described above are housed in the main body 2a, and there is no portion protruding from the front surface of the main body 2a. Therefore, when viewed from a person facing the user wearing the HMD2, the HMD2 is felt to be similar to normal sunglasses, and the uncomfortable feeling that it is observed with a special device is reduced.

HMD2の本体部2aにおける駆動部16は、パラレルデータ通信および電源供給ライン38でコントローラ4と接続され、相互の通信およびコントローラ4からHMD2への電源供給をおこなっている。また、環境の明るさに応じて右目用ディスプレイ12および左目用ディスプレイ14に提供される画像処理を変更するためHMD2のツル部2bには環境光センサ40が設けられており、通信ライン42により環境光の情報をコントローラ4に送っている。さらに、顔の向きを変えた場合等における特に拡大時の画像急変を緩和するため加速度センサ44がツル部2bに設けられており、通信ライン46により顔の動き等の情報をコントローラ4に送っている。パラレルデータ通信および電源供給ライン38、通信ライン42、46は実際には一本の接続ケーブルにまとめられている。また、図1では、環境光センサ40、加速度センサ44および生体センサ45が直接コントローラと通信する構成を図示しているが、駆動部16を介してパラレルデータ通信および電源供給ライン38で通信するよう構成してもよい。   The drive unit 16 in the main body 2a of the HMD 2 is connected to the controller 4 through parallel data communication and a power supply line 38, and performs mutual communication and power supply from the controller 4 to the HMD 2. In addition, in order to change the image processing provided to the right-eye display 12 and the left-eye display 14 according to the brightness of the environment, an ambient light sensor 40 is provided on the vine portion 2b of the HMD 2 and the communication line 42 is used to Light information is sent to the controller 4. Further, an acceleration sensor 44 is provided in the temple portion 2b to alleviate a sudden change in the image especially when the face is changed, and the information such as the movement of the face is sent to the controller 4 through the communication line 46. Yes. The parallel data communication and power supply line 38 and the communication lines 42 and 46 are actually combined into one connection cable. 1 shows a configuration in which the ambient light sensor 40, the acceleration sensor 44, and the biological sensor 45 directly communicate with the controller. However, the parallel light communication and the power supply line 38 communicate with each other via the drive unit 16. It may be configured.

コントローラ4は、上記のようなHMD2との通信およびHMD2への電源供給のための入出力部48を有する。コントローラ4の画像処理部50は、パラレルデータ通信および電源供HMD2の右目画像用撮像素子22および左目画像用撮像素子26から駆動部16を介して給ライン38により受信した画像を処理し、使用者の補助に適した画像データとして表示制御部52に送る。表示制御部52からの画像データはパラレルデータ通信および電源供給ライン38により送信され、駆動部16は受信した画像データに基づいて右目用ディスプレイ12および左目用ディスプレイ14を駆動し、画像表示する。また、背景制御部54は、パラレルデータ通信および電源供給ライン38を通じて目用可変透過率NDフィルタ32と左目用可変透過率NDフィルタ36を制御する。   The controller 4 has an input / output unit 48 for communicating with the HMD 2 and supplying power to the HMD 2 as described above. The image processing unit 50 of the controller 4 processes the image received by the supply line 38 via the drive unit 16 from the image sensor 22 for the right eye image and the image sensor 26 for the left eye image of the parallel data communication and power supply HMD 2, and Is sent to the display control unit 52 as image data suitable for assistance. Image data from the display control unit 52 is transmitted by parallel data communication and the power supply line 38, and the drive unit 16 drives the right-eye display 12 and the left-eye display 14 based on the received image data to display an image. The background control unit 54 controls the eye variable transmittance ND filter 32 and the left eye variable transmittance ND filter 36 through parallel data communication and the power supply line 38.

プリセット記憶部56は、使用者の個別症状および環境光に応じた画像処理情報および可変透過率NDフィルタにおける透過率情報のプリセット値を記憶している。操作部58はコントローラ表示部60の表示との連携で上記のプリセット値の入力操作および白黒反転などの画像処理選択操作を行なう。中央制御部62は、プリセット記憶部56の画像処理情報に操作部58の操作、環境光センサ40および加速度センサ44からの情報も加味して画像処理部50を制御する。また、中央制御部58は、プリセット記憶部56の透過率情報に環境光センサ40からの情報も加味して背景制御部50を制御する。背景制御部50の制御データはパラレルデータ通信および電源供給ライン38により送信され、駆動部16受信したデータに基づき、右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36の透過率を変化させて、直接観察される背景の明るさを制御する。中央制御部62はさらに、以上のような機能に関連して、表示制御部52、コントローラ表示部60を制御する。電源部64は、コントローラ全体に給電するとともに、入出力部48を介してHMD2にも給電する。   The preset storage unit 56 stores image processing information corresponding to individual symptoms of the user and ambient light, and preset values of transmittance information in the variable transmittance ND filter. The operation unit 58 performs the preset value input operation and the image processing selection operation such as black and white reversal in cooperation with the display of the controller display unit 60. The central control unit 62 controls the image processing unit 50 by adding the operation of the operation unit 58 and the information from the ambient light sensor 40 and the acceleration sensor 44 to the image processing information of the preset storage unit 56. Further, the central control unit 58 controls the background control unit 50 by adding information from the ambient light sensor 40 to the transmittance information in the preset storage unit 56. The control data of the background control unit 50 is transmitted by the parallel data communication and the power supply line 38, and based on the data received by the driving unit 16, the transmittances of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 are set. Vary the background brightness directly observed. The central control unit 62 further controls the display control unit 52 and the controller display unit 60 in relation to the above functions. The power supply unit 64 supplies power to the entire controller and also supplies power to the HMD 2 via the input / output unit 48.

図2は、実施例1における中央制御部62の動作を説明する基本フローチャートである。フローは、システムへの給電が開始されるとスタートし、ステップS2でプリセット値が記憶されているか否かチェックする。そして記憶があればプリセット値をプリセット記憶部56から読み出し、ステップS6に移行する。一方、ステップS2プリセット値の記憶がなければステップS8に移行し、画像処理において補正を行わない旨のデフォルト値を読み出してステップS6に移行する。   FIG. 2 is a basic flowchart for explaining the operation of the central control unit 62 in the first embodiment. The flow starts when power supply to the system is started, and it is checked in step S2 whether a preset value is stored. If there is a memory, the preset value is read from the preset memory 56, and the process proceeds to step S6. On the other hand, if the preset value is not stored in step S2, the process proceeds to step S8, a default value indicating that no correction is performed in the image processing is read, and the process proceeds to step S6.

ステップS6では、右目画像用撮像素子22および左目画像用撮像素子26による撮像を開始し、ステップS10に進んで、所定の明るさを基準とした標準状態の表示制御およびこれに見合う標準状態の背景となるよう右目用可変透過率NDフィルタ32および左目用可変透過率NDフィルタ36の透過率制御を開始する。   In step S6, imaging by the right-eye image imaging device 22 and the left-eye image imaging device 26 is started, and the process proceeds to step S10, where the standard state display control based on the predetermined brightness and the standard state background corresponding thereto are performed. Then, transmittance control of the right-eye variable transmittance ND filter 32 and the left-eye variable transmittance ND filter 36 is started.

次いでステップS12では、プリセット値を設定する操作が行われたか否かチェックし、設定操作が行われたことが確認されるとステップS14に移行してプリセット値設定処理を行い、ステップS16に移行する。一方、ステップS12でプリセット値設定操作が確認されないときは直接ステップS16に移行する。ステップS14のプリセット値設定処理の詳細については後述する。   Next, in step S12, it is checked whether or not an operation for setting a preset value has been performed. If it is confirmed that the setting operation has been performed, the process proceeds to step S14 to perform a preset value setting process, and the process proceeds to step S16. . On the other hand, when the preset value setting operation is not confirmed in step S12, the process directly proceeds to step S16. Details of the preset value setting process in step S14 will be described later.

ステップS16では、使用者に中心視野障害があることがプリセット値として記憶されているか否かチェックし、該当すればステップS16に進んで視線シフト処理を行いステップS20に移行する。一方、ステップS16で使用者が中心視野障害に該当しないことが確認されたときは、直接ステップS20に移行する。このときは、通常状態となり、上述のように右目用接眼光学系18および右目用接眼光学系20の光軸はそれぞれ右目用屈曲スームレンズ光学系24および左目用屈曲スームレンズ光学系26の入射光軸と一致することになる。   In step S16, it is checked whether or not the fact that the user has a central visual field defect is stored as a preset value. If so, the process proceeds to step S16 to perform a line-of-sight shift process, and the process proceeds to step S20. On the other hand, when it is confirmed in step S16 that the user does not correspond to the central visual field disorder, the process directly proceeds to step S20. At this time, the normal state is reached, and the optical axes of the right-eye eyepiece optical system 18 and the right-eye eyepiece optical system 20 are the same as the incident optical axes of the right-eye bent-summed lens optical system 24 and the left-eye bent-summed lens optical system 26, respectively. Will match.

ステップS16では、環境光の明るさが変化したか否かチェックし、変化があれば、ステップS22の右目用表示変更処理、およびステップS24の右目用表示変更処理を順次実行してステップS26に至る。このように、右目用と左目用の表示変更処理はそれぞれ独立して行われる。ステップS26では、右目用背景変更処理が行われ、次いでステップS28の左目用背景変更処理が実行されてステップS30に至る。このように、右目用と左目用の背景変更処理についてもそれぞれ独立した処理が行われる。一方、ステップS20で環境光の変化がなかったときは直接ステップS30に移行する。   In step S16, it is checked whether or not the brightness of the ambient light has changed. If there is a change, the right-eye display change process in step S22 and the right-eye display change process in step S24 are sequentially executed to reach step S26. . In this way, the display change processing for the right eye and the left eye is performed independently. In step S26, the right eye background change process is performed, and then the left eye background change process of step S28 is executed, and the process proceeds to step S30. In this way, independent processing is performed for the right-eye and left-eye background change processing. On the other hand, when there is no change in ambient light in step S20, the process directly proceeds to step S30.

ステップS30では、白黒反転操作があったか否かチェックし、操作があればステップS32に移行して白黒反転表示を行うとともに背景については白黒反転表示の観察を妨げないよう遮光状態としてステップS34に移行する。一方、ステップS30で白黒反転操作がかくにんできないときには直接ステップS34に移行する。ステップS34では電源供給中か否かがチェックされ、供給中であればステップS12に戻って、以下、ステップS36で電源供給中であること確認される限りステップS12からステップS36を繰り返す。一方、ステップS36で電源供給中であることが確認されなければ直ちにフローを終了する。   In step S30, it is checked whether or not a black and white reversal operation has been performed. If there is an operation, the flow proceeds to step S32 to perform black and white reversal display and the background is shifted to step S34 in a light-shielding state so as not to prevent observation of black and white reversal display. . On the other hand, when the black and white reversal operation cannot be performed in step S30, the process directly proceeds to step S34. In step S34, it is checked whether the power is being supplied. If the power is being supplied, the process returns to step S12. Thereafter, as long as it is confirmed that the power is being supplied in step S36, steps S12 to S36 are repeated. On the other hand, if it is not confirmed in step S36 that power is being supplied, the flow is immediately terminated.

図3は、図2のステップS22の右目用表示変更処理およびステップS24の左目用表示変更処理の詳細を示すフローチャートであり、両ステップに共通の内容であるが、図2に示すように右目用および左目用にそれぞれ実行される。フローがスタートすると、ステップS42に進み、図1のステップS20において検知された環境光の変化が表示変更処理用にあらかじめ定められた所定値以上か否かチェックする。そして変化が表示変更処理を必要としない所定値以下であれば直ちにフローを終了し、ステップS26に移行する。   FIG. 3 is a flowchart showing details of the right-eye display change process in step S22 and the left-eye display change process in step S24 of FIG. 2, and the contents are common to both steps, but for the right eye as shown in FIG. And for the left eye respectively. When the flow starts, the process proceeds to step S42, and it is checked whether or not the change in ambient light detected in step S20 in FIG. 1 is greater than or equal to a predetermined value that is predetermined for display change processing. If the change is equal to or less than a predetermined value that does not require display change processing, the flow is immediately terminated, and the process proceeds to step S26.

一方、ステップS42で所定以上の変化が検知されるとステップS44に移行し、その変化により環境光が所定値よりも増加したか否かチェックする。ステップS44において環境光が所定値よりも増加したことが検知されるとステップS46で撮像素子のゲインをダウンしてステップS48に移行する。ステップS48では、使用者に明順応障害があるか否かチェックし、該当すればステップS50に進んで高輝度部分を圧縮するガンマ補正を行ってステップS52に進む。ステップS52ではさらに輪郭強調処理を行ってステップS54に移行する。一方ステップS44において環境光が所定値より増加したことが検知されない場合、またはステップS48において使用者が明順応障害であることが確認されない場合は、直接ステップS54に移行する。   On the other hand, when a change greater than or equal to the predetermined value is detected in step S42, the process proceeds to step S44, and it is checked whether or not the ambient light has increased beyond a predetermined value due to the change. If it is detected in step S44 that the ambient light has increased above the predetermined value, the gain of the image sensor is decreased in step S46, and the process proceeds to step S48. In step S48, it is checked whether or not the user has a light adaptation disorder. If yes, the process proceeds to step S50 to perform gamma correction for compressing the high-intensity part, and the process proceeds to step S52. In step S52, contour enhancement processing is further performed, and the process proceeds to step S54. On the other hand, if it is not detected in step S44 that the ambient light has increased above the predetermined value, or if it is not confirmed in step S48 that the user is a light adaptation disorder, the process proceeds directly to step S54.

ステップS54では、環境光が所定値よりも減少したか否かがチェックする。そして、環境光が所定値よりも減少したことが検知されるとステップS56で撮像素子のゲインをアップしてステップS58に移行する。ステップS58では、使用者に暗順応障害があるか否かチェックし、該当すれば60に進んで低輝度部分を持ち上げるガンマ補正を行ってステップS62に進む。ステップS62ではさらに輪郭強調処理を行ってステップS64に移行する。一方ステップS54において環境光が所定値より減少したことが検知されない場合、またはステップS58において使用者が暗順応障害であることが確認されない場合は、直接ステップS64に移行する。   In step S54, it is checked whether ambient light has decreased below a predetermined value. When it is detected that the ambient light has decreased below the predetermined value, the gain of the image sensor is increased in step S56, and the process proceeds to step S58. In step S58, it is checked whether or not the user has a dark adaptation failure, and if applicable, the process proceeds to 60 to perform gamma correction for lifting the low luminance part, and the process proceeds to step S62. In step S62, contour enhancement processing is further performed, and the process proceeds to step S64. On the other hand, if it is not detected in step S54 that the ambient light has decreased below the predetermined value, or if it is not confirmed in step S58 that the user is a dark adaptation disorder, the process directly proceeds to step S64.

ステップS54では、明るさの変化に瞳孔が反応する時間に応じた表示変更補正を行うためのカウンタをリセットしてスタートさせ、ステップS66に進む。ステップS66では、前回の明るさ変化に基づく瞳孔反応の補正中であるか否かチェックし、該当すればステップS68に進んで前回の瞳孔反応補正をキャンセルしてステップS70に進む。一方、ステップS66で前回瞳孔反応補正中であることが検知されなければ直接ステップS70に進む。ステップS70では瞳孔反応補正を開始させるとともにカウンタに基づき瞳孔反応が終了した時点で瞳孔反応補正を自動終了させる処理をスタートさせてフローを終了する。   In step S54, a counter for correcting display change according to the time when the pupil reacts to the change in brightness is reset and started, and the process proceeds to step S66. In step S66, it is checked whether or not the pupil response correction based on the previous brightness change is being performed. If yes, the process proceeds to step S68, the previous pupil response correction is canceled, and the process proceeds to step S70. On the other hand, if it is not detected in step S66 that the previous pupil reaction correction is being performed, the process proceeds directly to step S70. In step S70, pupil response correction is started, and processing for automatically ending pupil response correction is started when the pupil response is completed based on the counter, and the flow ends.

図4は、図2のステップS26の右目用背景変更処理およびステップS28の左目用背景変更処理の詳細を示すフローチャートであり、両ステップに共通の内容であるが、図2に示すように右目用および左目用にそれぞれ実行される。フローがスタートすると、ステップS82に進み、図1のステップS20において検知された環境光の変化により環境光が所定値よりも増加したか否かチェックする。通常、図4のステップS82における所定値は、図3のステップS44における所定値よりもレベルが低い。   FIG. 4 is a flowchart showing details of the right-eye background changing process in step S26 and the left-eye background changing process in step S28 of FIG. 2, and the contents are common to both steps, but for the right eye as shown in FIG. And for the left eye respectively. When the flow starts, the process proceeds to step S82, and it is checked whether the ambient light has increased beyond a predetermined value due to the change in ambient light detected in step S20 in FIG. Normally, the predetermined value in step S82 in FIG. 4 is lower in level than the predetermined value in step S44 in FIG.

ステップS82において環境光が所定値よりも増加したことが検知されるとステップS84に進み、環境光の増加に対応して可変透過率NDフィルタの透過率を減少させてステップS86に移行する。ステップS86では、今回の環境光変化に基づいて表示部変更処理が行われたか否かチェックし、該当すればステップS88に進んで表示部変更に対応して可変透過率NDフィルタの透過率を変更してステップS90に至る。一方ステップS82において環境光が所定値より増加したことが検知されない場合、またはステップS86において表示部変更処理があったことが確認されない場合は、直接ステップS90に移行する。   If it is detected in step S82 that the ambient light has increased above the predetermined value, the process proceeds to step S84, and the transmittance of the variable transmittance ND filter is decreased corresponding to the increase in ambient light, and the process proceeds to step S86. In step S86, it is checked whether or not the display portion change processing has been performed based on the current ambient light change. If yes, the process proceeds to step S88 to change the transmittance of the variable transmittance ND filter in response to the display portion change. Then, step S90 is reached. On the other hand, if it is not detected in step S82 that the ambient light has increased above the predetermined value, or if it is not confirmed in step S86 that the display unit changing process has been performed, the process proceeds directly to step S90.

ステップS90では、図1のステップS20において検知された環境光の変化により環境光が所定値よりも減少したか否かチェックする。通常、図4のステップS90における所定値は、図3のステップS54における所定値よりもレベルが高い。ステップS90において環境光が所定値よりも減少したことが検知されるとステップS92に進み、可変透過率NDフィルタの透過率が既に最大になっているか否かチェックする。そして最大値でなければステップS94に進み、環境光の増加に対応して可変透過率NDフィルタの透過率を増加させてステップS96に移行する。但し、この増加は最大透過率が限度である。一方、ステップS92で可変透過率NDフィルタの透過率が既に最大になっていることが検知された場合は直接ステップS96に移行する。   In step S90, it is checked whether or not the ambient light has decreased below a predetermined value due to the change in ambient light detected in step S20 of FIG. Usually, the predetermined value in step S90 of FIG. 4 has a higher level than the predetermined value in step S54 of FIG. When it is detected in step S90 that the ambient light has decreased below the predetermined value, the process proceeds to step S92, and it is checked whether or not the transmittance of the variable transmittance ND filter has already been maximized. If it is not the maximum value, the process proceeds to step S94, the transmittance of the variable transmittance ND filter is increased corresponding to the increase in the ambient light, and the process proceeds to step S96. However, this increase is limited by the maximum transmittance. On the other hand, if it is detected in step S92 that the transmittance of the variable transmittance ND filter has already been maximized, the process proceeds directly to step S96.

ステップS96では、今回の環境光変化に基づいて表示部変更処理が行われたか否かチェックし、該当すればステップS98に進んで表示部変更に対応して可変透過率NDフィルタの透過率を変更してステップS100に移行する。但し、この増加は最大透過率が限度である。一方ステップS90において環境光が所定値より減少したことが検知されない場合、またはステップS96において表示部変更処理があったことが確認されない場合は、直接ステップS90に移行する。   In step S96, it is checked whether or not the display portion changing process has been performed based on the current ambient light change. If applicable, the process proceeds to step S98 to change the transmittance of the variable transmittance ND filter in response to the display portion change. Then, the process proceeds to step S100. However, this increase is limited by the maximum transmittance. On the other hand, if it is not detected in step S90 that the ambient light has decreased below the predetermined value, or if it is not confirmed in step S96 that the display unit changing process has been performed, the process proceeds directly to step S90.

ステップS100では、図3において表示変更のためにスタートされた瞳孔反応補正処理があるか否かチェックし、該当すればステップS102に進んで対応する可変透過率NDフィルタの透過率補正を開始させるとともに表示変更のための動向反応補正に対応して補正を自動終了させる処理をスタートさせてフローを終了する。   In step S100, it is checked whether or not there is a pupil response correction process started for display change in FIG. 3, and if applicable, the process proceeds to step S102 to start the transmittance correction of the corresponding variable transmittance ND filter. In response to the trend response correction for display change, a process for automatically ending the correction is started and the flow is ended.

図5は、図2のステップS34における画像急変緩和処理の詳細を示すフローチャートである。フローがスタートすると、ステップS112で表示倍率が等倍以上か否かチェックする。そしてこれに該当しない場合、すなわち、表示倍率が背景の倍率と等倍かまたはより低倍率であって顔の向きを変えた場合等における画像急変の緩和を必要としない場合は、直ちにフローを終了し、ステップS36に移行する。   FIG. 5 is a flowchart showing details of the sudden image change mitigation process in step S34 of FIG. When the flow starts, it is checked in step S112 whether the display magnification is equal to or larger than the same magnification. If this is not the case, that is, if the display magnification is the same as or lower than the background magnification and the face orientation is not changed, etc. Then, the process proceeds to step S36.

これに対し、ステップS112で表示倍率が等倍以上であることが検知されるとステップS114に進み、顔の向きを変えたことに基づく加速度が検知されるか否か検知する。そして加速度が検知されるとステップS116に進み、右目用ディスプレイ12および左目用ディスプレイ14における前フレームの表示を維持し、ステップS118に進む。ステップS118では表示倍率に対応して予め決められている時間(例えば表示倍率2倍で3フレーム分の時間)が経過したか否かチェックする。そして時間経過がなければステップS116に戻り、以下、ステップS118で時間経過が検知されるまでステップS116およびステップS118を繰り返し、前フレームを維持する。一方、ステップS118で時間経過が検知されるとステップS120に進む。   On the other hand, when it is detected in step S112 that the display magnification is equal to or larger than the same magnification, the process proceeds to step S114, and it is detected whether or not an acceleration based on the change of the face orientation is detected. When acceleration is detected, the process proceeds to step S116, the display of the previous frame on the right-eye display 12 and the left-eye display 14 is maintained, and the process proceeds to step S118. In step S118, it is checked whether or not a predetermined time corresponding to the display magnification (for example, a time corresponding to 3 frames at a display magnification of 2) has elapsed. If no time has elapsed, the process returns to step S116, and thereafter, step S116 and step S118 are repeated until the time elapse is detected in step S118, and the previous frame is maintained. On the other hand, when the passage of time is detected in step S118, the process proceeds to step S120.

ステップS120では、再度加速度検知を行い、顔の動きが止まることにより加速度が検知されなくなった場合はステップS122に進み、ステップS116で維持されたフレームの次のフレームを表示してステップS126に移行する。ステップS122の次フレーム表示は通常よりも早いフレームレートで行われる。ステップS126では現フレームの表示に追いついたかどうかチェックが行われ、まだ追いつかない場合はステップS120に戻る。以下ステップS120で新たな加速度が検知されずステップS126で現フレームに追いつかない限りステップS120からステップS126が繰り返され、通常フレームレートよりも早いフレームレートで現フレームへの復帰が行われる。そしてステップS126で現フレームが表示され鵜状態となったことが検知されるとフローを終了する。これにより、倍率が大きい状態で顔の向きを変えた場合の画像の急変が緩和され、画像の動きに遅延がかけられる。なおこの遅延は顔の動きが止まったときに速やかに取り戻される。一方、ステップS120で加速度が検知され、顔の動きが継続しているときは、ステップS124に進み、現フレームを表示してフローを終了する。従って顔の動きが継続しているときはフレームの間引かれる形で画像の急変が健和される。   In step S120, acceleration detection is performed again. When acceleration is no longer detected due to the stop of the movement of the face, the process proceeds to step S122, the next frame of the frame maintained in step S116 is displayed, and the process proceeds to step S126. . The next frame display in step S122 is performed at a frame rate faster than usual. In step S126, it is checked whether or not the current frame has been displayed. If the current frame has not been caught, the process returns to step S120. Thereafter, unless a new acceleration is detected in step S120 and the current frame cannot be caught in step S126, steps S120 to S126 are repeated, and return to the current frame is performed at a frame rate faster than the normal frame rate. Then, when it is detected in step S126 that the current frame is displayed and the camera is in the saddle state, the flow is terminated. This alleviates sudden changes in the image when the face direction is changed in a state where the magnification is large, and delays the movement of the image. This delay is quickly recovered when the facial movement stops. On the other hand, when the acceleration is detected in step S120 and the facial motion continues, the process proceeds to step S124, the current frame is displayed, and the flow is ended. Therefore, when the movement of the face continues, the sudden change of the image is reduced in a form that is thinned out of the frame.

図6は、図2のステップS14におけるプリセット値設定処理の詳細を示すフローチャートである。フローがスタートすると、ステップS132で医師による設定か否かのチェックが行われる。該当すればステップS134に進み、医師設定処理を実行してステップS136に移行する。一方、ステップS132で医師による設定であることが検知されない場合は直接ステップS136に移行する。ステップS136では、視能訓練士による設定か否かのチェックが行われる。該当すればステップS138に進み、視能訓練士設定処理を実行してステップS140に移行する。一方、ステップS136で視能訓練士による設定であることが検知されない場合は直接ステップS140に移行する。   FIG. 6 is a flowchart showing details of the preset value setting process in step S14 of FIG. When the flow starts, it is checked in step S132 whether the setting is made by a doctor. If it corresponds, it progresses to step S134, a doctor setting process is performed, and it transfers to step S136. On the other hand, if it is not detected in step S132 that the setting is made by the doctor, the process directly proceeds to step S136. In step S136, it is checked whether or not the setting is made by a vision trainer. If it corresponds, it progresses to step S138, a vision trainer setting process is performed, and it transfers to step S140. On the other hand, if it is not detected in step S136 that the setting is made by the vision trainer, the process proceeds directly to step S140.

ステップS140では、使用者本人による設定か否かがチェックされる。そして該当すればステップS142で右目設定をスタートしステップS144では環境光初期設定が行われる。本人設定は、実際に本人がHMD2を装着し、右目用ディスプレイ12を観察することで設定の適否を判断する。具体的には、ステップS146において本人による表示補正パラメータの変更が行われる。そしてステップS148において右目用ディスプレイ12により観察される画像が最適であるか否かについて本人の判断を求める。そして最適との判断ができなければステップS146に戻り、以下ステップS146とステップS148を繰り返すことでパラメータ変更と本人の判断が繰り返される。そしてステップS148において本人による最適判断なされて操作部58が操作されるとステップS150に進み、その状態におけるパラメータを記憶してステップS152に移行する。   In step S140, it is checked whether the setting is made by the user himself / herself. If applicable, right eye setting is started in step S142, and ambient light initial setting is performed in step S144. In the personal setting, the user actually wears the HMD 2 and observes the right-eye display 12 to determine whether the setting is appropriate. Specifically, the display correction parameter is changed by the person in step S146. In step S148, the person's judgment is obtained as to whether or not the image observed by the right-eye display 12 is optimal. If it cannot be determined that it is optimal, the process returns to step S146, and thereafter, step S146 and step S148 are repeated to repeat the parameter change and the person's determination. Then, when the optimum determination is made by the user in step S148 and the operation unit 58 is operated, the process proceeds to step S150, the parameters in that state are stored, and the process proceeds to step S152.

ステップS152では、上記のようにして記憶されるパラメータ蓄積記憶が所定回数に達したか否かチェックする。ステップS152において蓄積記憶が所定数に達していなければステップS146に戻り、以下蓄積記憶が所定数に達するまでステップS146からステップS152が繰り返される。一方、ステップS152において蓄積記憶が所定数に達するとステップS154に進み、記憶されたパラメータの平均による設定パラメータの確定を行う。   In step S152, it is checked whether the parameter storage stored as described above has reached a predetermined number of times. If the accumulated storage has not reached the predetermined number in Step S152, the process returns to Step S146, and Steps S146 to S152 are repeated until the accumulated storage reaches the predetermined number. On the other hand, when the accumulated storage reaches a predetermined number in step S152, the process proceeds to step S154, and the set parameter is determined by averaging the stored parameters.

次いで、ステップS156では、設定の目的で環境光を自動変更してステップS158に進む。ステップS158では、環境光の変更処理が終了したか否かチェックする。変更処理が終了していなければステップS146に戻り、以下環境光変更が終了しない限りステップS146からステップS158を繰り返し、右目用設定が継続される。一方、ステップS158で環境光変更処理が終了するとステップS160の左目設定処理に移行する。ステップS160の左目設定処理の詳細は、ステップS146からステップS158における右目用設定処理と同じであるが、煩雑を避けるためステップS160にまとめて図示している。ステップS160の左目用設定処理が終了するとフローを終了し、図2のステップS16に移行する。一方ステップS140で本人による設定であることが検知されなければ、直ちにフローを終了する。   Next, in step S156, the ambient light is automatically changed for the purpose of setting, and the process proceeds to step S158. In step S158, it is checked whether or not the ambient light changing process has been completed. If the change process has not ended, the process returns to step S146, and thereafter, unless the ambient light change is ended, steps S146 to S158 are repeated, and the setting for the right eye is continued. On the other hand, when the ambient light changing process ends in step S158, the process proceeds to the left eye setting process in step S160. The details of the left-eye setting process in step S160 are the same as those in the right-eye setting process in steps S146 to S158, but are collectively shown in step S160 to avoid complication. When the left eye setting process in step S160 ends, the flow ends, and the process proceeds to step S16 in FIG. On the other hand, if it is not detected in step S140 that the setting is made by the user, the flow is immediately terminated.

以上の実施例1に示した種々の特徴の実施は、上記の実施例1に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。例えば、図3のフローでは、使用者に明順応障害がある場合に輪郭強調を行うとともに、使用者に暗順応障害がある場合にコントラスト強調を行うようにしているが、このような使い分けは任意であり、明順応障害がある場合でも暗順応障害がある場合でも、輪郭強調およびコントラスト強調を採用することが可能である。   The implementation of the various features shown in the first embodiment is not limited to the first embodiment, and other embodiments can be implemented as long as the advantages can be enjoyed. For example, in the flow of FIG. 3, contour enhancement is performed when the user has a light adaptation disorder, and contrast enhancement is performed when the user has a dark adaptation disorder. It is possible to employ contour enhancement and contrast enhancement regardless of whether there is a light adaptation disorder or a dark adaptation disorder.

図7は、本発明の実施の形態に係る視覚補助システムの実施例2における画像急変緩和処理の詳細を示すフローチャートである。実施例2の全体構成は図1における実施例1のブロック図と共通である。また、その基本動作は、図における実施例1の基本フローチャートと共通である。従って、共通の部分については、実施例1を援用し、説明を省略する。実施例2が実施例1と異なるのは、図2のステップS34における画像急変緩和処理の具体的構成である。図7のフローチャートはこのような実施例2において援用される図2のステップS34の詳細を示すものである。   FIG. 7 is a flowchart showing the details of the sudden image change mitigation process in Example 2 of the visual assistance system according to the embodiment of the present invention. The overall configuration of the second embodiment is the same as the block diagram of the first embodiment in FIG. The basic operation is the same as the basic flowchart of the first embodiment shown in the figure. Therefore, about a common part, Example 1 is used and description is abbreviate | omitted. The second embodiment differs from the first embodiment in the specific configuration of the image sudden change mitigation process in step S34 of FIG. The flowchart of FIG. 7 shows the details of step S34 of FIG.

図7のフローがスタートすると、ステップS162で所定量以上の加速度が検知されるか否かチャックされる。加速度の検知があればステップS164に進み、一連の加速度検知において加速度を最初に検知してから所定時間(例えば2秒)経過したか否かがチェックされる。所定時間が経過していなければステップS166に進み、一連の加速度検知の履歴分析を行いステップS168に移行する。ステップS168では、分析を開始してから所定の時間(例えば0.5秒)が経過したか否化チェックする。所定の時間が経過していなければステップS166に戻り、以下所定時間が経過するまでステップS166とステップS168を繰り返して分析を継続する。   When the flow of FIG. 7 is started, whether or not an acceleration of a predetermined amount or more is detected is chucked in step S162. If acceleration is detected, the process proceeds to step S164, and it is checked whether or not a predetermined time (for example, 2 seconds) has elapsed since the acceleration was first detected in a series of acceleration detection. If the predetermined time has not elapsed, the process proceeds to step S166, a series of acceleration detection history analysis is performed, and the process proceeds to step S168. In step S168, whether or not a predetermined time (for example, 0.5 seconds) has elapsed since the analysis was started is checked. If the predetermined time has not elapsed, the process returns to step S166, and thereafter, the analysis is continued by repeating steps S166 and S168 until the predetermined time elapses.

一方、ステップS168で分析を開始してから所定の時間が経過したことが確認されたときはステップS170に進み、履歴分析の結果、検知された一連の加速度変化が微小振動に該当するか否かがチェックされる。そして微小振動が検知されたときは、ステップS172に進んで前フレームの表示を維持し、表示の変更を停止する。これは意図しない体の震えなどによる微小振動による画像のブレを防止するためである。そしてステップS174において同方向の加速度が検知されたか否かをチェックする。   On the other hand, when it is confirmed that a predetermined time has elapsed since the analysis was started in step S168, the process proceeds to step S170, and whether or not a series of acceleration changes detected as a result of the history analysis corresponds to minute vibrations. Is checked. When the minute vibration is detected, the process proceeds to step S172, the display of the previous frame is maintained, and the display change is stopped. This is to prevent image blurring due to minute vibrations caused by unintentional body tremors. In step S174, it is checked whether or not acceleration in the same direction is detected.

ステップS174で同方向の加速度が検知されない場合は、ステップS164に戻り、加速度を最初に検知してから所定時間が経過したことがステップS164で検知されない限り、ステップS164からステップS174を繰り返す。一方、ステップS174で同方向の加速度が検知されたときは、顔の向きを変えた等の意図的な動作が行われたものと判断し、表示を変更停止の状態から現フレームに変更しステップS178に移行する。なお、ステップS170で履歴分析の結果微小振動でないと判断された場合は、直ちにステップS178に移行する。   If the acceleration in the same direction is not detected in step S174, the process returns to step S164, and steps S164 to S174 are repeated unless it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected. On the other hand, when acceleration in the same direction is detected in step S174, it is determined that an intentional operation such as changing the orientation of the face has been performed, and the display is changed from the change stop state to the current frame. The process proceeds to S178. If it is determined in step S170 that it is not a minute vibration as a result of history analysis, the process immediately proceeds to step S178.

ステップS178では、現在の表示倍率の確認を行い、ステップS180に進んで表示倍率が当倍以上か否かチェックする。そして等倍以上であれば、ステップS182で倍率依存コマ落としを指示してステップS184に移行する。ステップS182の倍率依存コマ落としでは、例えば倍率が1.5倍のときフレームレートを半分に落とし、倍率が2倍の時はフレームレートを3分の1に落とすなど、倍率に依存したコマ落としを行い、倍率が高い程フレームレートを落として画像が短時間に細かく動かないようにし、拡大画像による映像酔い等を防止する。一方、ステップS180で画像が等倍以上でないときはステップS186に進み、通常フレームレートでの表示を指示してステップS184に移行する。   In step S178, the current display magnification is confirmed, and the process proceeds to step S180 to check whether the display magnification is equal to or larger than the current magnification. If it is equal to or greater than the same magnification, in step S182, the magnification dependent frame dropping is instructed, and the process proceeds to step S184. In the magnification-dependent frame dropping in step S182, for example, the frame rate is reduced to half when the magnification is 1.5 times, and the frame rate is reduced to one third when the magnification is 2 times. The higher the magnification is, the lower the frame rate is so that the image does not move finely in a short time, thereby preventing video sickness caused by the enlarged image. On the other hand, if it is determined in step S180 that the image is not equal to or larger than the same size, the process proceeds to step S186 to instruct display at the normal frame rate, and the process proceeds to step S184.

ステップS184では、加速度検知の有無を再度検知し、引き続き加速度が検知されるときはステップS164に戻り、加速度を最初に検知してから所定時間が経過したことがステップS164で検知されない限り、ステップS164からステップS188を繰り返す。一方、ステップS184で加速度検知がないことが確認されるとステップS188に進み、現フレームの表示を指示してフローを終了する。   In step S184, the presence / absence of acceleration detection is detected again. If acceleration is subsequently detected, the process returns to step S164, and unless it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected, step S164 is performed. To repeat step S188. On the other hand, if it is confirmed in step S184 that no acceleration is detected, the process proceeds to step S188 to instruct the display of the current frame, and the flow ends.

また、ステップS164で加速度を最初に検知してから所定時間が経過したことが検知されたときは、たとえ加速度検知が継続していたとしても直ちにフローを終了する。これは図7のフローに長時間留まることによって図2における他のタスクを実行できなくなるのを防止するためである、図2に明らかなように他にタスクなければステップS12からステップS32の繰り返しの中でステップS34に至るので、図7のフローが繰り返され、加速度検知があればこれに対応する図7の機能を継続することができる。なお、ステップS162で加速度が検知されない場合はステップS190に移行し、通常フレームレートでの表示を指示してフローを終了する。この場合、図7のフローには実質的に動作は行われないことになるが、通常表示状態以外でステップS162に至り加速度検知がされない場合のためにステップS190を置いている。   If it is detected in step S164 that a predetermined time has elapsed since the acceleration was first detected, the flow is immediately ended even if the acceleration detection is continued. This is to prevent other tasks in FIG. 2 from being unable to be executed due to staying in the flow of FIG. 7 for a long time. As apparent from FIG. 2, if there are no other tasks, the process from step S12 to step S32 is repeated. In step S34, the flow in FIG. 7 is repeated, and if there is acceleration detection, the corresponding function in FIG. 7 can be continued. If no acceleration is detected in step S162, the process proceeds to step S190, the display at the normal frame rate is instructed, and the flow ends. In this case, substantially no operation is performed in the flow of FIG. 7, but step S190 is set for the case where acceleration is not detected because the process reaches step S162 in a state other than the normal display state.

図8は、本発明の実施の形態に係る視覚補助システムの実施例3における全体構成を示すブロック図である。図8における実施例3の構成は、図1における実施例1と共通するところが多いので、同一部分には同一の番号を付し、説明を省略する。実施例3が実施例1と異なる第一点目は、ツル部2bに脈拍を検知する脈拍センサ66が設けられており使用者が安静状態にあるか歩行中等の活動状態にあるか等の情報を通信ライン68によりコントローラ4に送っている点である。実施例1と同様にして、パラレルデータ通信および電源供給ライン38、通信ライン42、46、68は実際には一本の接続ケーブルにまとめられている。また、図3においても、環境光センサ40、加速度センサ44および生体センサ66が直接コントローラ4と通信する構成を図示しているが、各センサとコントローラ4は、駆動部16を介してパラレルデータ通信および電源供給ライン38で通信するよう構成してもよい。   FIG. 8 is a block diagram showing an overall configuration in Example 3 of the visual assistance system according to the embodiment of the present invention. Since the configuration of the third embodiment in FIG. 8 is similar to that of the first embodiment in FIG. 1, the same parts are denoted by the same reference numerals and the description thereof is omitted. The first point that the third embodiment differs from the first embodiment is that a pulse sensor 66 for detecting a pulse is provided in the temple portion 2b, and information such as whether the user is in a resting state or in an active state such as walking. Is sent to the controller 4 via the communication line 68. Similar to the first embodiment, the parallel data communication and power supply line 38 and the communication lines 42, 46, and 68 are actually combined into one connection cable. 3 also shows a configuration in which the ambient light sensor 40, the acceleration sensor 44, and the biological sensor 66 directly communicate with the controller 4. However, each sensor and the controller 4 perform parallel data communication via the drive unit 16. The power supply line 38 may be used for communication.

図8に示す実施例3が図1の実施例1と異なる第二点目は、HMD2に視線センサが設けられており、使用者の視線の動きを検知する点である。視線センサ70によって検知された使用者の視線の動き等の情報は駆動部16を介してパラレルデータ通信によりコントローラ4に送られる。脈拍センサ66および視線センサ70の詳細については後述する。実施例3における環境光センサ40、加速度センサ44、脈拍センサ66、視線センサ70等は、HMD2が使用される際の状況を検知するものなので、状況センサと総称する。   The second point in which the third embodiment shown in FIG. 8 differs from the first embodiment shown in FIG. 1 is that a line-of-sight sensor is provided in the HMD 2 and detects the movement of the line of sight of the user. Information such as the movement of the user's line of sight detected by the line-of-sight sensor 70 is sent to the controller 4 via the drive unit 16 by parallel data communication. Details of the pulse sensor 66 and the line-of-sight sensor 70 will be described later. The ambient light sensor 40, the acceleration sensor 44, the pulse sensor 66, the line-of-sight sensor 70, and the like in the third embodiment are collectively referred to as a situation sensor because they detect the situation when the HMD 2 is used.

図8に示す実施例3が図1の実施例1と異なる第三点目は、コントローラ4がモード記憶部72を有し、拡大モード、ワイドモード、白黒反転モードなどの各モードがそれぞれ使用される状況を検知する状況センサおよび操作部58の操作の関係の学習情報とともに登録される点である。そして、中央制御部74との連携によって操作部58によるモード選択に制限を加えたり、登録されたモードの自動選択を行ったりする。これらの詳細についても後述する。   The third point in which the third embodiment shown in FIG. 8 is different from the first embodiment shown in FIG. 1 is that the controller 4 has a mode storage unit 72, and each mode such as an enlarged mode, a wide mode, and a black / white reversal mode is used. It is a point that is registered together with a situation sensor for detecting a situation to be detected and learning information on the operation relationship of the operation unit 58. Then, in cooperation with the central control unit 74, the mode selection by the operation unit 58 is limited, or the registered mode is automatically selected. These details will also be described later.

図9は、実施例3における中央制御部74の動作を説明する基本フローチャートである。図9のフローは、実施例3における図のフローと共通するところが多いので、共通するステップには同一ステップ番号を付して説明を省略するとともに、共通するステップ郡についてもこれらをまとめて図示し、説明を省略する。つまり、ステップS192の立上げ処理は図2のステップS2、ステップS4およびステップS8をまとめたもの、ステップS194は図2のステップS12からステップS18をまとめたもの、ステップS194は図2のステップS22からステップS28をまとめたものである。   FIG. 9 is a basic flowchart for explaining the operation of the central control unit 74 in the third embodiment. Since the flow of FIG. 9 is often in common with the flow of the diagram in the third embodiment, common steps are denoted by the same step numbers and description thereof is omitted, and common step groups are also illustrated together. The description is omitted. That is, the start-up process in step S192 is a combination of steps S2, S4, and S8 in FIG. 2, step S194 is a combination of steps S12 to S18 in FIG. 2, and step S194 is a combination of steps S22 in FIG. Step S28 is summarized.

ステップS196の表示・拝見変更処理を経てステップS198に至ると、通常モード以外の拡大モード、ワイドモード、白黒反転モードなどを選択可能なように登録するための手動の
モード登録操作があったか否かをチェックする。モード登録操作があったときはステップS200に進み、操作に従ったモード手動登録処理を実行してステップS202に移行する。一方ステップS198でモード登録操作が検知されないときは直接ステップS202に移行する。
When the display / view change process in step S196 is followed to step S198, it is determined whether or not there has been a manual mode registration operation for registering an enlargement mode other than the normal mode, a wide mode, a black and white reversal mode, and the like. To check. When there is a mode registration operation, the process proceeds to step S200, a mode manual registration process according to the operation is executed, and the process proceeds to step S202. On the other hand, when the mode registration operation is not detected in step S198, the process directly proceeds to step S202.

ステップS202では、モードを選択する手動操作があったか否かチェックする。モード選択操作があったときは、ステップS204以下に進み、で操作があったときの状況を各センサにて検知する。具体的には、ステップS204で環境光を環境光センサ40にて検知するとともに、ステップS206で加速度を加速度センサ44にて検知し、さらにステップS208で脈拍を脈拍センサ66で検知する。また、ステップS210で視線の移動状態を視線センサ70で検知する。   In step S202, it is checked whether or not a manual operation for selecting a mode has been performed. If there is a mode selection operation, the process proceeds to step S204 and the subsequent steps, and the state when the operation is performed is detected by each sensor. Specifically, ambient light is detected by the ambient light sensor 40 in step S204, acceleration is detected by the acceleration sensor 44 in step S206, and a pulse is detected by the pulse sensor 66 in step S208. In step S210, the line-of-sight sensor 70 detects the movement state of the line of sight.

次いでステップS212では、そのモードが手動選択されたときに各センサの検知状態がどうであったかを学習してそのモードに自動登録するモード自動学習登録処理を行う。この処理では、例えば、拡大モードおよび白黒モードが選択されたときに、加速度検知のない静止状態でかつ脈拍から見て安静状態にあり、視線の移動が限定的であるであれば、このような状態のとき拡大モードかつ白黒モードが選択されるものであることを学習し、拡大モードと白黒モードにこれらの検知状態を登録する。つまり、このような状態の時は、使用者が読書または書類を見るために拡大モードと白黒モードを選択したものと解釈して登録する。   Next, in step S212, a mode automatic learning registration process is performed in which the detection state of each sensor is learned when the mode is manually selected, and the mode is automatically registered. In this process, for example, when the enlargement mode and the black and white mode are selected, if there is a rest state without acceleration detection and a rest state as viewed from the pulse, and the movement of the line of sight is limited, In the state, it is learned that the enlargement mode and the monochrome mode are selected, and these detection states are registered in the enlargement mode and the monochrome mode. In other words, in such a state, the user interprets and registers as having selected the enlargement mode and the monochrome mode for reading or viewing documents.

上記ステップS212のモード自動学習処理による登録情報は、後述のように一般的なモードを自動選択する際の妥当性のクロスチェックに用いられるとともに、使用者に特有の特定の学習結果条件の成立に基づく自動カスタムモード設定に利用される。ステップS212のモード自動学習処理が終了するとステップS214に進む。一方、ステップS202でモード選択操作が検知されない場合は直接ステップS214に移行する。ステップS214ではモード変更処理が実行されるがその詳細は後述する。ステップS34以下は図2と共通である。   The registration information by the mode automatic learning process in step S212 is used for cross-checking validity when automatically selecting a general mode as described later, and for establishing a specific learning result condition specific to the user. Used for automatic custom mode setting based. When the mode automatic learning process in step S212 ends, the process proceeds to step S214. On the other hand, if no mode selection operation is detected in step S202, the process directly proceeds to step S214. In step S214, mode change processing is executed, details of which will be described later. Step S34 and subsequent steps are the same as those in FIG.

図10は、図9のステップS214におけるモード変更処理の詳細を示すフローチャートである。フローがスタートすると、ステップS222でワイドモードに変更する旨の手動操作が行われたか否かのチェックが行われる。この操作が検知されなければステップS224に進み、拡大モードに変更する旨の手動操作が行われたか否かのチェックが行われる。拡大モードに変更する旨の手動操作が検知されるとステップS226に進み、使用者が移動中であることに対応する加速度が検知されているか否かのチェックが行われる。そして加速度検知がなければステップS228に進み、操作通りの倍率変更(この場合「拡大モード」の倍率)を実行してステップS230に移行する。   FIG. 10 is a flowchart showing details of the mode change process in step S214 of FIG. When the flow starts, it is checked in step S222 whether or not a manual operation for changing to the wide mode has been performed. If this operation is not detected, the process advances to step S224 to check whether or not a manual operation for changing to the enlargement mode has been performed. When a manual operation for changing to the enlargement mode is detected, the process proceeds to step S226, and it is checked whether or not an acceleration corresponding to the movement of the user is detected. If no acceleration is detected, the process proceeds to step S228, the magnification change according to the operation is performed (in this case, the magnification in the “enlargement mode”), and the process proceeds to step S230.

一方、ステップS226で、使用者が移動中であることに対応する加速度が検知されるとステップS232に移行し、拡大が不可である旨の報知表示をコントローラ表示部60に表示して倍率変更を実行することなくステップS230に移行する。なお、拡大が不可である旨のメッセージ表示は右目画像用撮像素子22および左目画像用撮像素子26のいずれかの画像に重畳表示してもよい。   On the other hand, when an acceleration corresponding to that the user is moving is detected in step S226, the process proceeds to step S232, and a notification display that enlargement is impossible is displayed on the controller display unit 60 to change the magnification. It transfers to step S230, without performing. Note that the message display indicating that enlargement is not possible may be superimposed on one of the images of the right-eye image sensor 22 and the left-eye image sensor 26.

また、ステップS222で、ワイドモードに変更する旨の手動操作が行われたことが検知されると直接ステップS228に進み、操作通りの倍率変更(この場合「ワイドモード」の倍率)を実行してステップS230に移行する。このように、倍率を小さくするための操作であれば、仮に使用者が移動中であっても危険の可能性は少ないので加速度の検知は行わず、直ちに操作を実行する。なお、ステップS224で拡大モード操作が検知されなければ倍率変更の手動操作はないことを意味するので直ちにステップS230に移行する。   If it is detected in step S222 that a manual operation for changing to the wide mode has been performed, the process directly proceeds to step S228, and the magnification change according to the operation (in this case, the “wide mode” magnification) is executed. The process proceeds to step S230. In this way, if the operation is to reduce the magnification, even if the user is moving, there is little possibility of danger, so the acceleration is not detected and the operation is executed immediately. If the enlargement mode operation is not detected in step S224, it means that there is no manual operation for changing the magnification, and the process immediately proceeds to step S230.

ステップS230では、使用者が視野狭窄者であるか否かを確認する。そして視野狭窄者でなければステップS236に移行して等倍表示を標準モードに設定してステップS236に移行する。一方、ステップS230で使用者が視野狭窄者であることが確認されると、ステップS238に移行し、ワイド表示を標準モードに設定してステップS236に移行する。   In step S230, it is confirmed whether or not the user is a visual field constrictor. If it is not a visual field constriction person, the process proceeds to step S236 to set the same size display to the standard mode and proceeds to step S236. On the other hand, if it is confirmed in step S230 that the user is a visual field constrictor, the process proceeds to step S238, the wide display is set to the standard mode, and the process proceeds to step S236.

ステップ236以下は自動モード変更に関する。まず、ステップS236では、加速度センサ44に基づき、使用者が静止状態にあるか否かチェックする。静止状態であればステップS240に進み、脈拍センサ66に基づき、使用者が安静状態にあるか否かチェックする。そして静止状態にあればステップS242に進み、このような状態において自動的に拡大モードに設定することがこれまでの使用者の手動設定行動に矛盾しないかチェックする。この結果矛盾がなければステップS244で拡大モードを自動設定し、ステップS246に移行する。一方、ステップS236で静止状態が検知できないか、ステップS240で安静状態が検知できないか、またはステップS242で学習情報との矛盾が検知されるかしたときは拡大モードの自動設定をせず、ステップS246に移行する。なお、学習情報との矛盾とは、図9のステップS202からステップS212の自動登録処理において、静止状態かつ安静状態であるにも関わらず、拡大モードを手動選択した履歴が稀である場合、または、静止状態かつ安静状態であることに基づき自動設定された拡大モードが手動によりキャンセルされた履歴が認められる場合等である。このような場合、静止状態および安静状態であることが検知されても拡大モードを自動設定することは使用者の意向に反する可能性が高いので、拡大モードの自動設定を控えてステップS246に移行することになる。   Steps 236 and thereafter relate to automatic mode change. First, in step S236, it is checked based on the acceleration sensor 44 whether or not the user is in a stationary state. If it is in a stationary state, the process proceeds to step S240, and it is checked based on the pulse sensor 66 whether the user is in a resting state. If it is in the stationary state, the process proceeds to step S242, and it is checked whether the automatic setting in the enlarged mode in such a state is consistent with the manual setting action of the user so far. If there is no contradiction as a result, the enlargement mode is automatically set in step S244, and the process proceeds to step S246. On the other hand, if the stationary state cannot be detected in step S236, the resting state cannot be detected in step S240, or inconsistency with the learning information is detected in step S242, the enlargement mode is not automatically set, and step S246 is performed. Migrate to The contradiction with the learning information means that, in the automatic registration process from step S202 to step S212 in FIG. 9, the history of manually selecting the expansion mode is rare despite being in a stationary state and a resting state, or This is the case where there is a history in which the enlargement mode automatically set based on the stationary state and the resting state is manually canceled. In such a case, there is a high possibility that the automatic setting of the enlargement mode is contrary to the user's intention even if it is detected that the camera is in a stationary state and a resting state. Will do.

ステップS246では、視線センサ70の出力に基づく使用者の視線の動と読書パターンの視線移動を示す参照データとを比較し、使用者の視線移動が読書パターンの視線移動に該当するか否かチェックする。読書バターン視線移動であると判断されたときはステップS240に進み、読書パターンの視線移動がある状態において自動的に白黒反転モードに設定することがこれまでの使用者の手動設定行動に矛盾しないかチェックする。この結果矛盾がなければステップS250で白黒反転モードを自動設定し、ステップS252に移行する。一方、ステップS246で読書バターン視線移動が検知できないときは白黒反転モードの自動設定をせず、ステップS252に移行する。なお、この場合の学習情報との矛盾とは、ステップS242の説明と同様にして、図9のステップS202からステップS212の自動登録処理において、読書パターン視線移動があるにも関わらず、白黒反転モードを手動選択した履歴が稀である場合、または、読書パターン視線移動に基づき自動設定された白黒反転モードが手動によりキャンセルされた履歴が認められる合等である。このような場合、読書パターン視線移動が検知されても白黒反転モードを自動設定することは使用者の意向に反する可能性が高いので、白黒反転モードの自動設定を控えてステップS254に移行することになる。   In step S246, the movement of the user's line of sight based on the output of the line-of-sight sensor 70 is compared with the reference data indicating the movement of the reading pattern, and it is checked whether the movement of the user's line of sight corresponds to the movement of the reading pattern. To do. If it is determined that the reading pattern line-of-sight movement is detected, the process proceeds to step S240, and whether the black-and-white reversal mode is automatically set in a state where the reading pattern line-of-sight movement exists is consistent with the manual setting action of the user so far. To check. If there is no contradiction as a result, the monochrome inversion mode is automatically set in step S250, and the process proceeds to step S252. On the other hand, when the reading pattern line-of-sight movement cannot be detected in step S246, the black-and-white reversal mode is not automatically set and the process proceeds to step S252. Note that the contradiction with the learning information in this case is the black and white reversal mode in the automatic registration process from step S202 to step S212 in FIG. Is a rare history, or a history in which the black-and-white reversal mode automatically set based on the reading pattern line-of-sight movement is manually canceled is recognized. In such a case, there is a high possibility that it is contrary to the user's intention to automatically set the black-and-white reversal mode even if the reading pattern line-of-sight movement is detected. Therefore, the process proceeds to step S254 with the automatic black-and-white reversal mode set ahead. become.

以上のステップS236からステップS250の自動設定において、ステップS244での拡大モード自動設定を経てステップS250の白黒反転モード自動設定が行われた場合は、拡大された表示が白黒反転される。一方、ステップS244での拡大モード自動設定が行われてもステップS246で読書パターンの視線移動が検知されない場合は、例えば椅子に座って組立作業等を行っている可能性があり、文字判読に適した白黒反転を行うことは不適当な場合が多いので、拡大モードの自動設定のみでステップS252に至ることになる。   In the automatic setting from step S236 to step S250, when the black / white reversal mode automatic setting in step S250 is performed after the enlargement mode automatic setting in step S244, the enlarged display is reversed in black and white. On the other hand, if the line-of-sight movement of the reading pattern is not detected in step S246 even if the enlargement mode is automatically set in step S244, there is a possibility that the user is sitting on a chair and performing assembly work or the like, which is suitable for character interpretation. Since it is often inappropriate to perform black and white reversal, only step S252 is reached by automatic setting of the enlargement mode.

また、以上のステップS236からステップS250における自動設定は拡大モードや白黒反転モード等の比較的一般的なモードの自動設定に関するものである。これに対し、ステップS252およびステップS254は、明暗への順応障害、視野の異常等、使用者の症状に合わせて特定の使用者についてカスタム設定された複数のモード(少なくとも特定条件下での特定モードとその使用者について個別設定された標準モードとを含む)から一つを状況に応じて選択し、自動設定するために設けられているものである。具体的には、ステップS252においてカスタム設定された所定の条件に該当するか否かがチェクされ、該当すればステップS254の自動カスタムモード設定処理に入ってモード設定の変更を自動的に行い、ステップS256に移行する。一方、ステップS252でカスタム設定条件に該当することが検知されない場合は直接ステップS256に移行し、現設定モードを維持する。   Further, the automatic setting in steps S236 to S250 described above relates to automatic setting of relatively general modes such as the enlargement mode and the black and white reversal mode. On the other hand, in steps S252 and S254, a plurality of modes that are custom-set for a specific user according to the user's symptoms such as an adaptation failure to light and dark, an abnormality in visual field, etc. (at least a specific mode under a specific condition) And a standard mode individually set for the user) are selected according to the situation and are automatically set. Specifically, it is checked whether or not the predetermined condition custom-set in step S252 is met, and if so, the automatic custom mode setting process in step S254 is entered to automatically change the mode setting. The process proceeds to S256. On the other hand, if it is not detected in step S252 that the custom setting condition is met, the process directly proceeds to step S256, and the current setting mode is maintained.

ステップS256では、移動加速度が検知されたか否かのチェックを行う。そして移動加速度が検知されたときはステップS258に移行し、標準モードへの自動復帰を行ってフローを終了する。一方、ステップS256において移動加速度が検知されない場合は、現設定モードを維持してフローを終了する。ステップS256において移動加速度が検知された場合は、例えば椅子に座って読書や作業などをしていた人が立ち上がって歩き出した可能性があり、このような場合に拡大モードや白黒反転モードが維持されると危険であるためステップS258で標準モードへの自動復帰を行う。この標準モードは、ステップS234またはステップS238で設定された等倍モードまたはワイドモードである。また、標準モードは、特定の使用者についてカスタム設定しておくことも可能である。   In step S256, it is checked whether or not a movement acceleration is detected. When the movement acceleration is detected, the process proceeds to step S258, where the automatic return to the standard mode is performed and the flow ends. On the other hand, if the movement acceleration is not detected in step S256, the current setting mode is maintained and the flow ends. If the movement acceleration is detected in step S256, for example, a person sitting in a chair and reading or working may have stood up and started walking. In such a case, the enlargement mode and the black / white inversion mode are maintained. If it is done, it is dangerous, and in step S258, automatic return to the standard mode is performed. This standard mode is the same magnification mode or the wide mode set in step S234 or step S238. The standard mode can be custom set for a specific user.

以上の各実施例に示した種々の特徴の実施は、それぞれの実施例に限るものではなく、その利点を享受できる限り、他の実施例でも実施可能である。また、本明細書では、簡単のため、各実施例における説明や図示を他の実施例と異なる部分に集中しているが、各実施例において説明したそれぞれの特徴を兼ね備えた実施、これらを置き換えた実施、または複数の特徴を組み合わせた実施等も可能であることは言うまでもない。   The implementation of the various features shown in the above embodiments is not limited to each embodiment, and other embodiments can be implemented as long as the advantages can be enjoyed. Further, in this specification, for the sake of simplicity, the explanations and illustrations in the respective embodiments are concentrated on portions different from those in the other embodiments. However, the embodiments having the respective characteristics described in the respective embodiments are replaced. Needless to say, the present invention can be implemented by combining a plurality of features or a plurality of features.

本発明は、視覚補助システムに適用することができる。   The present invention can be applied to a visual assistance system.

22、24、26、28 撮像部
50 画像処理部
12、18、14、20 表示部
72、処理モードを記憶する記憶部
58,74 選択部
40、44、66、70 状況センサ
74 画像表示のフレームレートを低下させる制御部
74 表示の変更を停止する制御部
74 画像処理部の処理を変更する制御部
74 画像処理部の処理を標準状態に復帰させる制御部
22, 24, 26, 28 Imaging unit 50 Image processing unit 12, 18, 14, 20 Display unit 72, Storage unit 58, 74 for storing processing mode Selection unit 40, 44, 66, 70 Status sensor 74 Image display frame Control unit 74 for reducing rate Control unit 74 for stopping display change Control unit 74 for changing processing of image processing unit Control unit for returning processing of image processing unit to standard state

Claims (19)

使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、前記画像処理部による複数の処理モードを記憶する記憶部と、前記複数の処理モードからの選択を行う選択部とを有することを特徴とする視覚補助システム。   An imaging unit that captures an object to be viewed by the user, an image processing unit that corrects an image obtained by the imaging unit according to the visual impairment of the user, and an image displayed by the image processing unit so that the user can see the image A visual assistance system comprising: a display unit that performs storage; a storage unit that stores a plurality of processing modes by the image processing unit; and a selection unit that performs selection from the plurality of processing modes. 使用時の状況を検知する状況センサを有することを特徴とする請求項1記載の視覚補助システム。   The visual assistance system according to claim 1, further comprising a situation sensor that detects a situation during use. 前記選択部は手動操作に基づいて前記複数の処理モードからの選択を行うことを特徴とする請求項2記載の視覚補助システム。   The visual assistance system according to claim 2, wherein the selection unit performs selection from the plurality of processing modes based on a manual operation. 前記状況センサは手動操作が行われる際の状況を検知するとともに、前記選択部は、前記状況センサによる検知に基づいて選択に不適な手動操作を制限することを特徴とする請求項3記載の視覚補助システム。   4. The visual system according to claim 3, wherein the situation sensor detects a situation when a manual operation is performed, and the selection unit restricts a manual operation unsuitable for selection based on detection by the situation sensor. Auxiliary system. 前記選択部は、選択が不適であることを報知することを特徴とする請求項4記載の視覚補助システム。   The visual assistance system according to claim 4, wherein the selection unit notifies that selection is inappropriate. 前記撮選択部は、前記状況センサが加速度を検知するとき画像拡大モードを選択する操作に制限を加えることを特徴とする請求項4または5記載の視覚補助システム。   The visual assistance system according to claim 4, wherein the imaging selection unit adds a restriction to an operation of selecting an image enlargement mode when the situation sensor detects acceleration. 前記記憶部は手動操作が行われるときの前記状況センサの検知に基づいて状況に適した処理モードを学習記憶することを特徴とする請求項2から6のいずれかに記載の視覚補助システム。   The visual assistance system according to claim 2, wherein the storage unit learns and stores a processing mode suitable for a situation based on detection of the situation sensor when a manual operation is performed. 前記選択部は、前記記憶部の前記学習記憶と前記学習記憶に対応する前記状況センサの検知に基づき前記記憶部の処理モードを自動選択することを特徴とする請求項7記載の視覚補助システム。   The visual assistance system according to claim 7, wherein the selection unit automatically selects a processing mode of the storage unit based on the learning storage of the storage unit and detection of the situation sensor corresponding to the learning storage. 前記選択部は、前記状況センサの検知に基づき前記記憶部の処理モードを自動選択するとともに前記記憶部の前記学習記憶に基づいて自動選択の適否を判断することを特徴とする請求項7記載の視覚補助システム。   8. The selection unit according to claim 7, wherein the selection unit automatically selects a processing mode of the storage unit based on detection of the situation sensor and determines whether or not the automatic selection is appropriate based on the learning storage of the storage unit. Visual aid system. 前記選択部は、前記状況センサの検知に基づき前記記憶部の処理モードを自動選択することを特徴とする請求項2から7のいずれかに記載の視覚補助システム。   The visual assistance system according to claim 2, wherein the selection unit automatically selects a processing mode of the storage unit based on detection of the situation sensor. 前記記憶部は標準モードを記憶するとともに、前記選択部は前記状況センサの検知に基づきどのような処理モードが選択されていても前記標準モードの選択に復帰することを特徴とする請求項2から10のいずれかに記載の視覚補助システム。   The storage unit stores a standard mode, and the selection unit returns to the selection of the standard mode no matter what processing mode is selected based on detection of the status sensor. The visual assistance system according to claim 10. 前記標準モードは等倍表示モードであることを特徴とする請求項11記載の視覚補助システム。   The visual assistance system according to claim 11, wherein the standard mode is an equal magnification display mode. 前記標準モードはワイド表示モードであることを特徴とする請求項11記載の視覚補助システム。   12. The visual assistance system according to claim 11, wherein the standard mode is a wide display mode. 前記画像処理部が画像の拡大を行うとき前記表示部における画像表示のフレームレートを低下させることを特徴とする請求項1から13のいずれかに記載の視覚補助システム。   The visual assistance system according to claim 1, wherein when the image processing unit enlarges an image, a frame rate of image display on the display unit is reduced. 前記状況センサが微小振動を検知するとき前記表示部における表示の変更を停止することを特徴とする請求項2から13のいずれかに記載の視覚補助システム。   14. The visual assistance system according to claim 2, wherein when the status sensor detects minute vibrations, the display change in the display unit is stopped. 使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、前記画像処理部が画像の拡大を行うとき前記表示部における画像表示のフレームレートを低下させる制御部とを有することを特徴とする視覚補助システム。   An imaging unit that captures an object to be viewed by the user, an image processing unit that corrects an image obtained by the imaging unit according to the visual impairment of the user, and an image displayed by the image processing unit so that the user can see the image And a control unit that reduces a frame rate of image display on the display unit when the image processing unit enlarges the image. 使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、前記状況センサが微小振動を検知するとき前記表示部における表示の変更を停止する制御部とを有することを特徴とする視覚補助システム。   An imaging unit that captures an object to be viewed by the user, an image processing unit that corrects an image obtained by the imaging unit according to the visual impairment of the user, and an image displayed by the image processing unit so that the user can see the image A visual assistance system, comprising: a display unit that detects a situation during use; and a control unit that stops changing the display on the display unit when the situation sensor detects minute vibrations. 使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、前記状況センサの検知に基づいて前記画像処理部の処理を変更する制御部とを有することを特徴とする視覚補助システム。   An imaging unit that captures an object to be viewed by the user, an image processing unit that corrects an image obtained by the imaging unit according to the visual impairment of the user, and an image displayed by the image processing unit so that the user can see the image A visual assistance system comprising: a display unit that detects a situation at the time of use; and a control unit that changes processing of the image processing unit based on detection of the situation sensor. 使用者が見ようとする対象を撮像する撮像部と、前記撮像部により得られた画像を使用者の視覚障害に合わせて補正する画像処理部と、画像処理部の画像を使用者が見えるよう表示する表示部と、使用時の状況を検知する状況センサと、画像処理部の処理を変更する変更部と、前記状況センサの検知に基づいて前記画像処理部の処理を標準状態に復帰させる制御部とを有することを特徴とする視覚補助システム。   An imaging unit that captures an object to be viewed by the user, an image processing unit that corrects an image obtained by the imaging unit according to the visual impairment of the user, and an image displayed by the image processing unit so that the user can see the image A display unit that detects a situation during use, a change unit that changes processing of the image processing unit, and a control unit that returns the processing of the image processing unit to a standard state based on the detection of the status sensor A visual assistance system characterized by comprising:
JP2014214474A 2014-09-18 2014-10-21 Visual aid system Active JP6633269B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014214474A JP6633269B2 (en) 2014-10-21 2014-10-21 Visual aid system
US15/508,655 US10426668B2 (en) 2014-09-18 2015-09-14 Binocular display apparatus
PCT/JP2015/076051 WO2016043165A1 (en) 2014-09-18 2015-09-14 Binocular display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014214474A JP6633269B2 (en) 2014-10-21 2014-10-21 Visual aid system

Publications (3)

Publication Number Publication Date
JP2016080971A true JP2016080971A (en) 2016-05-16
JP2016080971A5 JP2016080971A5 (en) 2017-10-12
JP6633269B2 JP6633269B2 (en) 2020-01-22

Family

ID=55958496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214474A Active JP6633269B2 (en) 2014-09-18 2014-10-21 Visual aid system

Country Status (1)

Country Link
JP (1) JP6633269B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123260A (en) * 2019-01-31 2020-08-13 株式会社日立製作所 Head-mounted display device and virtual space display control method

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11180011A (en) * 1997-12-19 1999-07-06 Fuji Xerox Co Ltd Image forming apparatus
JP2003287708A (en) * 2002-03-28 2003-10-10 Seiko Epson Corp Vision expansion device and display system
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2006135884A (en) * 2004-11-09 2006-05-25 Konica Minolta Photo Imaging Inc Video display device
JP2006208997A (en) * 2005-01-31 2006-08-10 Konica Minolta Photo Imaging Inc Video display device and video display system
JP2008065169A (en) * 2006-09-08 2008-03-21 Sony Corp Display device and display method
JP2008191724A (en) * 2007-01-31 2008-08-21 Sanyo Electric Co Ltd Excess temperature rise preventing device and heating device
JP2009222921A (en) * 2008-03-14 2009-10-01 Fujifilm Corp Image display device, photographing device and image display method
JP2010004113A (en) * 2008-06-18 2010-01-07 Olympus Imaging Corp Imaging apparatus, imaging method, image processing device and image processing method
JP2010016613A (en) * 2008-07-03 2010-01-21 Canon Inc Imaging apparatus
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
JP2014508596A (en) * 2011-02-24 2014-04-10 アイシス イノベーション リミテッド Optical device for individuals with visual impairment
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11180011A (en) * 1997-12-19 1999-07-06 Fuji Xerox Co Ltd Image forming apparatus
JP2003287708A (en) * 2002-03-28 2003-10-10 Seiko Epson Corp Vision expansion device and display system
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2006135884A (en) * 2004-11-09 2006-05-25 Konica Minolta Photo Imaging Inc Video display device
JP2006208997A (en) * 2005-01-31 2006-08-10 Konica Minolta Photo Imaging Inc Video display device and video display system
JP2008065169A (en) * 2006-09-08 2008-03-21 Sony Corp Display device and display method
JP2008191724A (en) * 2007-01-31 2008-08-21 Sanyo Electric Co Ltd Excess temperature rise preventing device and heating device
JP2009222921A (en) * 2008-03-14 2009-10-01 Fujifilm Corp Image display device, photographing device and image display method
JP2010004113A (en) * 2008-06-18 2010-01-07 Olympus Imaging Corp Imaging apparatus, imaging method, image processing device and image processing method
JP2010016613A (en) * 2008-07-03 2010-01-21 Canon Inc Imaging apparatus
JP2014508596A (en) * 2011-02-24 2014-04-10 アイシス イノベーション リミテッド Optical device for individuals with visual impairment
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123260A (en) * 2019-01-31 2020-08-13 株式会社日立製作所 Head-mounted display device and virtual space display control method

Also Published As

Publication number Publication date
JP6633269B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
WO2016043165A1 (en) Binocular display system
JP4600290B2 (en) Visual auxiliary display device
JP4635572B2 (en) Video display device
KR20170118693A (en) Information processing apparatus, information processing method, and program
JP5078781B2 (en) Image display device and imaging device
JP2013148599A (en) Display device
JP6501389B2 (en) Head mounted display device, photographing control method, and program
JP3624112B2 (en) Auto focus glasses
KR101359926B1 (en) Portable Magnifying Apparatus which have Auto Focusing
JP6633269B2 (en) Visual aid system
JP6544901B2 (en) Vision aid system and vision aid device
JP2017037235A (en) Binoculars display device
CN111630847B (en) Image projection apparatus, image projection method, image display light output control method
CN108415167B (en) Head-mounted virtual reality display device and automatic adjustment method
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
EP4049716B1 (en) Artificial retina system based on augmented reality
JP2005286927A (en) Transparent indicating device mounted on the head
JP7483011B2 (en) Imaging device
WO2010098274A1 (en) Head-mounted display
WO2024111378A1 (en) Information processing device, information processing method, and recording medium
US11740478B2 (en) Display device, control method thereof, and recording medium
JP7434437B2 (en) Observation system, observation system control method, observation system control program
Padmanaban Enabling Gaze-Contingent Accommodation in Presbyopia Correction and Near-Eye Displays
KR102504865B1 (en) Binocular fundus camera
US20220148332A1 (en) Appearance based dominant eye selector systems and methods for gaze estimation from passive imagery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191212

R150 Certificate of patent or registration of utility model

Ref document number: 6633269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250