JP6928382B2 - Visibility evaluation system - Google Patents
Visibility evaluation system Download PDFInfo
- Publication number
- JP6928382B2 JP6928382B2 JP2018157326A JP2018157326A JP6928382B2 JP 6928382 B2 JP6928382 B2 JP 6928382B2 JP 2018157326 A JP2018157326 A JP 2018157326A JP 2018157326 A JP2018157326 A JP 2018157326A JP 6928382 B2 JP6928382 B2 JP 6928382B2
- Authority
- JP
- Japan
- Prior art keywords
- optotype
- subject
- visibility evaluation
- evaluation system
- reference position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、視認性評価システムに関する。 The present invention relates to a visibility evaluation system.
身体運動を伴う応答を要求することで、子供から大人、高齢者等までの運動能力向上にも役立つ動体視力及び反応動作のトレーニング方法、システム等が考えられている。例えば特許文献1には、利用者のトレーニング用映像を表示するディスプレイと、利用者からの応答を入力される応答入力手段と、を少なくとも備えるトレーニングシステムを用いて、利用者の動体視力及び反応動作をトレーニングする方法が開示されている。
Training methods and systems for dynamic visual acuity and reaction movements that are useful for improving athletic ability from children to adults, elderly people, etc. by requesting a response accompanied by physical exercise are being considered. For example,
社会全体で進む高齢化に伴い、例えば、個々の運転能力の正確な把握が求められている。そのため、簡素な評価手続でありながらも、被験者の周辺視野に対する視認能力を正確に評価可能な視認性評価システムへのニーズが高まっている。 With the aging of society as a whole, for example, accurate understanding of individual driving abilities is required. Therefore, there is an increasing need for a visibility evaluation system that can accurately evaluate the visual field of a subject with respect to the peripheral visual field, even though the evaluation procedure is simple.
本発明は、このような課題に鑑みてなされたものであって、簡素な評価手続でありながらも、被験者の周辺視野に対する視認能力を正確に評価することができる視認性評価システムを提供する。 The present invention has been made in view of such a problem, and provides a visibility evaluation system capable of accurately evaluating the visual ability of a subject with respect to the peripheral visual field, even though the evaluation procedure is simple.
本発明の第1の態様によれば、視認性評価システムは、被験者に対向配置され、所定の基準位置が規定されるとともに当該基準位置とは異なる位置に視標を配置可能な視標提示ボードと、前記被験者の注視点を特定可能な視線解析装置と、前記基準位置から前記視標までの前記被験者の注視点の動きに基づいて、前記被験者の視認性を評価するための視認性評価情報を取得する情報処理装置と、を備える。 According to the first aspect of the present invention, the visibility evaluation system is arranged facing the subject, a predetermined reference position is defined, and an optotype presenting board capable of arranging an optotype at a position different from the reference position. And the visibility evaluation information for evaluating the visibility of the subject based on the line-of-sight analysis device capable of identifying the gaze point of the subject and the movement of the gaze point of the subject from the reference position to the target. It is equipped with an information processing device for acquiring.
本発明の第2の態様によれば、第1の態様に係る視認性評価システムにおいて、前記情報処理装置は、前記視認性評価情報として、前記注視点が前記基準位置を離れてから前記視標が配置された位置に到達するまでの時間を取得する。 According to the second aspect of the present invention, in the visibility evaluation system according to the first aspect, the information processing apparatus uses the reference point as the visibility evaluation information after the gazing point leaves the reference position. Gets the time it takes to reach the position where.
本発明の第3の態様によれば、第1または第2の態様に係る視認性評価システムは、前記被験者と前記視標提示ボードとの間に配置され、透過状態及び遮蔽状態を切り替え可能な遮蔽装置を更に備える。 According to the third aspect of the present invention, the visibility evaluation system according to the first or second aspect is arranged between the subject and the optotype presenting board, and can switch between a transmission state and a shielding state. Further provided with a shielding device.
本発明の第4の態様によれば、第3の態様に係る視認性評価システムは、前記遮蔽装置が遮蔽状態にある場合においても、前記視標提示ボードにおける前記基準位置を視認可能に提示する基準位置提示装置を更に備える。 According to the fourth aspect of the present invention, the visibility evaluation system according to the third aspect visually presents the reference position on the optotype presenting board even when the shielding device is in the shielding state. A reference position presentation device is further provided.
本発明の第5の態様によれば、第1から第4の何れか一の態様に係る視認性評価システムは、前記被験者が前記視標を認識した場合に行う入力操作を受け付ける視標認識入力手段を更に備える。 According to a fifth aspect of the present invention, the visibility evaluation system according to any one of the first to fourth aspects accepts an optotype recognition input that accepts an input operation performed when the subject recognizes the optotype. Further provided means.
本発明の第6の態様によれば、第1から第5の何れか一の態様に係る視認性評価システムにおいて、前記視標は、所定方向に延びる形状に形成されている。 According to the sixth aspect of the present invention, in the visibility evaluation system according to any one of the first to fifth aspects, the optotype is formed in a shape extending in a predetermined direction.
上述の何れか一の態様に係る視認性評価システムによれば、簡素な評価手続でありながらも、被験者の周辺視野に対する視認能力を正確に評価することができる。 According to the visibility evaluation system according to any one of the above aspects, the visual ability of the subject with respect to the peripheral visual field can be accurately evaluated even though the evaluation procedure is simple.
以下、本発明の一実施形態に係る視認性評価システム1について、図1〜図6を参照しながら説明する。
Hereinafter, the
(視認性評価システムの全体構成)
図1は、本発明の一実施形態に係る視認性評価システムの全体構成を示す図である。
図1に示すように、視認性評価システム1は、視標提示ボード2と、頭部装着装置3と、発光装置4と、視標認識ボタン5と、情報処理装置6とを備えている。
(Overall configuration of visibility evaluation system)
FIG. 1 is a diagram showing an overall configuration of a visibility evaluation system according to an embodiment of the present invention.
As shown in FIG. 1, the
視標提示ボード2は、被験者Tに対向配置される。視標提示ボード2は、その板面の中心点に基準位置M0が規定されている。更に、視標提示ボード2は、基準位置M0とは異なる複数の位置(視標位置M1)に視標20を配置可能とされている。
The
視標20は、視標提示ボード2の板面に設けられた複数の視標位置M1のうちいずれか一つに配置される。視標20は、例えば、長方形に形成されている。視標20の配置位置、色、角度等は、視認性評価システム1を用いた視認性評価の一連の流れの中で、検査者Oによって適宜変更される。
The
頭部装着装置3は、被験者Tの頭部に装着される。頭部装着装置3は、液晶シャッター30と、視線解析装置31とを有している。
The head wearing device 3 is worn on the head of the subject T. The head-mounted device 3 includes a
液晶シャッター30(遮蔽装置)は、被験者Tと視標提示ボード2との間において、被験者Tの視界全体を覆うように配置される。液晶シャッター30は、検査者Oの情報処理装置6に対する入力操作に応じて、透過状態及び遮蔽状態を切り替え可能とされている。遮蔽状態のとき、液晶シャッター30は曇りガラスのような状態となって、被験者Tの視界を遮蔽する。この場合、被験者Tは、視標提示ボード2を視認することができない。一方、透過状態にあるとき、液晶シャッター30は透明ガラスのような状態となる。この場合、被験者Tは、視標提示ボード2を視認することができる。
The liquid crystal shutter 30 (cloaking device) is arranged between the subject T and the
視線解析装置31は、被験者Tの注視点を特定可能とする装置である。具体的には、視線解析装置31は、小型カメラによる暗瞳孔検出により、被験者Tが視標提示ボード2のどの位置を注視しているかを特定することができる。
The line-of-
発光装置4(基準位置提示装置)は、視標提示ボード2の基準位置M0に配置され、被験者Tに視認可能な光Lを発する。発光装置4は、例えば、レーザポインタやLED素子等であってよい。発光装置4が発する光Lは、液晶シャッター30が遮蔽状態にある場合においても、被験者Tに視認可能な出力レベルに調整されている。即ち、被験者Tは、光Lを視認することで、液晶シャッター30が遮蔽状態にある時点においても、注視点を基準位置M0に合わせることができる。
The light emitting device 4 (reference position presenting device) is arranged at the reference position M0 of the
視標認識ボタン5(視標認識入力手段)は、被験者Tの手元に配置される。視標認識ボタン5は、被験者Tが視標提示ボード2上の視標20を認識した場合に行う入力操作を受け付け可能とされた押しボタン式の入力装置である。
The optotype recognition button 5 (optimal target recognition input means) is arranged at the hand of the subject T. The
情報処理装置6は、検査者Oによる操作を受け付けながら、視認性評価システム1全体の動作を制御する端末装置である。情報処理装置6は、視標提示ボード2上における基準位置M0から視標位置M1までの被験者Tの注視点の動きを記録する。そして、情報処理装置6は、被験者Tの視認性(視認能力)を評価するための視認性評価情報を取得する。
The information processing device 6 is a terminal device that controls the operation of the entire
(視認性評価システムの機能構成)
図2は、本発明の一実施形態に係る視認性評価システムの機能構成を示すブロック図である。
図2に示すように、視認性評価システム1の情報処理装置6は、CPU60と、接続インタフェース61と、メモリ62と、操作部63と、表示部64と、ストレージ65とを備えている。
(Functional configuration of visibility evaluation system)
FIG. 2 is a block diagram showing a functional configuration of a visibility evaluation system according to an embodiment of the present invention.
As shown in FIG. 2, the information processing device 6 of the
接続インタフェース61は、頭部装着装置3(液晶シャッター30、視線解析装置31)、発光装置4、視標認識ボタン5との間で通信するための通信インタフェースである。
The
メモリ62は、いわゆる主記憶装置であって、CPU60がプログラムに基づいて動作するための命令及びデータが展開される。
The
操作部63は、検査者Oの操作を受け付ける入力デバイスであって、例えば、一般的なマウス、キーボード、タッチセンサなどであってよい。
The
表示部64は、情報を視認可能に表示可能な表示デバイスであって、例えば、液晶ディスプレイや有機ELディスプレイ、曲面ディスプレイ、VR(virtual reality)やMR(Mixed Reality)、AR(Augmented Reality)を実現するディスプレイなどであってよい。
The
ストレージ65は、いわゆる補助記憶装置であって、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等であってよい。ストレージ65には、例えば、視線解析装置31が取得した注視点の動きを示す情報などが記録される。
The
CPU60は、の動作全体の制御を司るプロセッサである。CPU60は、視線解析装置31によって特定される注視点の動きに基づいて、被験者Tの周辺視野の視認性を評価するための視認性評価情報を取得する。視認性評価情報は、例えば、以下のような情報に例示される。
(1)液晶シャッター30が透過状態となってから被験者Tの注視点が基準位置M0を離れるまでの時間
(2)被験者Tの注視点が基準位置M0を離れてから視標20の位置する視標位置M1に到達するまでの時間
(3)被験者Tの注視点が視標20の位置する視標位置M1に到達してから視標認識ボタン5が押下されるまでの時間
(4)視標20の配置位置毎の正答率
(5)視標20の色に対する正答率
(6)視標20の見落とし率
The
(1) Time from when the
(視認性評価システムの配置構成例)
図3は、本発明の一実施形態に係る視認性評価システムの配置構成の一例を示す図である。
図4は、本発明の一実施形態に係る視標の一例を示す図である。
図3〜図4を参照しながら、視認性評価システム1の配置構成の一例について説明する。ここでは、被験者Tが自動車を安全に運転可能な視認能力を有しているかを評価するために、視認性評価システム1が用いられる態様を例として説明する。
(Example of layout configuration of visibility evaluation system)
FIG. 3 is a diagram showing an example of an arrangement configuration of a visibility evaluation system according to an embodiment of the present invention.
FIG. 4 is a diagram showing an example of a target according to an embodiment of the present invention.
An example of the arrangement configuration of the
自動車のドライバーは、例えば道路上又は路側に存在する対象物(歩行者、自転車等の移動体、ゴミ、落下物、駐車車両等の障害物等)を認識して、当該対象物に衝突する危険がある場合はブレーキをかけて自動車を停止させる必要がある。ドライバーが危険を認識してから、ブレーキをかけて自動車が停止するまでの間に、自動車はある程度の距離を移動することとなる。これを停止距離という。停止距離は、ドライバーが危険を認識してからブレーキをかけるまでの反応時間で自動車が進む距離(空走距離)と、ドライバーがブレーキをかけてから自動車が停止するまでの間に進む距離(制動距離)とを合計した距離である。 The driver of a car recognizes an object (pedestrian, moving object such as a bicycle, dust, falling object, obstacle such as a parked vehicle, etc.) existing on or on the road side, and is in danger of colliding with the object. If there is, you need to apply the brakes to stop the car. The car travels a certain distance between the time the driver recognizes the danger and the time the car brakes and stops. This is called the stop distance. The stopping distance is the distance traveled by the vehicle (free running distance) in the reaction time from when the driver recognizes the danger to when the brakes are applied, and the distance traveled between when the driver applies the brakes and when the vehicle stops (braking). Distance) is the total distance.
対象物への衝突を防ぐために、ドライバーが当該対象物の1m手前で自動車を停止させることを想定する。
例えば路面が乾いた状態(摩擦係数=0.7)であり、ドライバーの反応速度が平均的な値(0.75秒)であったとすると、60km/hで走行する自動車のドライバーは、約34m手前において対象物を認識できる必要がある。この場合、ドライバーは、視野中心から水平方向に凡そ±15度離れた周辺視野において、対象物を認識できる視認能力が必要となる。
また、例えば路面が湿潤状態(摩擦係数=0.5)であり、ドライバーの反応速度が平均よりも遅い値(例えば1.10秒)であったとすると、60km/hで走行する自動車のドライバーは、約48m手前において対象物を認識できる必要がある。この場合、ドライバーは、視野中心から水平方向に凡そ±10度離れた周辺視野において、対象物を認識できる視認能力が必要となる。
このような想定のもと、視認性評価システム1は、ドライバーである被験者Tの周辺視野における視認能力を評価可能な配置構成を有している。
It is assumed that the driver stops the vehicle 1 m before the object in order to prevent a collision with the object.
For example, if the road surface is dry (coefficient of friction = 0.7) and the reaction speed of the driver is an average value (0.75 seconds), the driver of a car traveling at 60 km / h is about 34 m. It is necessary to be able to recognize the object in the foreground. In this case, the driver needs to have a visual ability to recognize an object in a peripheral visual field that is approximately ± 15 degrees in the horizontal direction from the center of the visual field.
Further, for example, if the road surface is wet (coefficient of friction = 0.5) and the reaction speed of the driver is slower than the average (for example, 1.10 seconds), the driver of the automobile traveling at 60 km / h It is necessary to be able to recognize the object about 48 m before. In this case, the driver needs to have a visual ability to recognize an object in a peripheral visual field that is approximately ± 10 degrees in the horizontal direction from the center of the visual field.
Based on such an assumption, the
具体的には、図3に示すように、視標提示ボード2は、被験者Tから距離D1離れた位置に配置される。本実施形態では、距離D1が2mに設定される例について説明するが、これに限られることはない。他の実施形態では、視認性評価システム1を設置する室内の大きさ等に応じて任意に変更可能である。
Specifically, as shown in FIG. 3, the
液晶シャッター30は、被験者Tから距離D2離れた位置に配置される。距離D1は、液晶シャッター30が被験者Tの視界全体を覆うことが可能となるように、視標提示ボード2の大きさ、及び被験者Tからの距離D1に応じて設定される。具体的には、距離D2は、例えば0.05m〜0.20mの間の任意の値が設定される。
The
視標提示ボード2は、幅W1及び高さH1の長方形、正方形あるいは曲面に形成される。幅W1は例えば2m〜3mに設定され、高さH1は例えば1m〜2mに設定される。
The
また、視標提示ボード2は、基準位置M0が水平方向及び垂直方向の略中央に配置され、その周囲に複数の視標位置M1が配置される。
例えば図3に示すように、複数の視標位置M1は、水平方向に配置される複数の視標位置M1a、及び、垂直方向に配置される複数の視標位置M1bから構成されてなる。
Further, in the
For example, as shown in FIG. 3, the plurality of optotype positions M1 are composed of a plurality of optotype positions M1a arranged in the horizontal direction and a plurality of optotype positions M1b arranged in the vertical direction.
複数の視標位置M1aは、被験者Tの水平方向における所定の視野領域に含まれるように、基準位置M0を中心とした幅W2の範囲内に水平方向に配置される。
水平方向における所定の視野領域とは、被験者Tの注視点が基準位置M0にあるときを基準(0度)として、水平方向にθ1度以内の視野の範囲を示す。上述のように、自動車のドライバーである被験者Tは、水平方向に±15度離れた周辺視野において対象物を認識可能であることが求められる。また、運転時にはより広い範囲において対象物を認識できることが望ましいため、θ1度は、少なくとも±15度以上の値に設定される。なお、視界が制限される自動車内から路上の対象物(歩行者等)の視認能力を評価することを考慮して、本実施形態ではθ1度は±20度に設定されることが好適である。なお、他の実施形態では、被験者Tの視界を遮るものがない状況を想定して、θ1度を±20度よりも大きな値(例えば人間の水平方向における視野範囲を想定して±100度までの任意の値)に設定してもよい。
例えば、θ1度が±20度であり、被験者Tと視標提示ボード2との間の距離D1が2mである場合、幅W2は約1.456mとなる。
The plurality of optotype positions M1a are arranged in the horizontal direction within a width W2 centered on the reference position M0 so as to be included in a predetermined visual field region in the horizontal direction of the subject T.
The predetermined visual field region in the horizontal direction indicates a range of the visual field within θ1 degree in the horizontal direction with the time when the gazing point of the subject T is at the reference position M0 as a reference (0 degree). As described above, the subject T, who is the driver of the automobile, is required to be able to recognize the object in the peripheral visual field separated by ± 15 degrees in the horizontal direction. Further, since it is desirable that the object can be recognized in a wider range during operation, θ1 degree is set to a value of at least ± 15 degrees or more. In this embodiment, it is preferable that θ1 degree is set to ± 20 degree in consideration of evaluating the visual ability of an object (pedestrian or the like) on the road from the inside of a vehicle where the field of view is restricted. .. In another embodiment, assuming a situation in which the field of view of the subject T is not obstructed, θ1 degree is set to a value larger than ± 20 degrees (for example, up to ± 100 degrees assuming a human field of view in the horizontal direction). It may be set to any value of).
For example, when θ1 degree is ± 20 degrees and the distance D1 between the subject T and the
また、複数の視標位置M1aは、視標提示ボード2の垂直方向の略中央において、基準位置M0の左右に所定間隔C1毎に配置される。なお、間隔C1は、隣接する二つの視標位置M1aの中心間距離を示す。
本実施形態では、間隔C1は、被験者Tの視線を水平方向に5度移動させたときの距離に相当するように設定される。例えば被験者Tと視標提示ボード2との間の距離D1が2mである場合、間隔C1は約0.175mに設定される。
Further, the plurality of optotype positions M1a are arranged at predetermined intervals C1 on the left and right sides of the reference position M0 at substantially the center of the
In the present embodiment, the interval C1 is set so as to correspond to the distance when the line of sight of the subject T is moved 5 degrees in the horizontal direction. For example, when the distance D1 between the subject T and the
複数の視標位置M1bは、被験者Tの垂直方向における所定の視野領域に含まれるように、基準位置M0を中心とした高さH2の範囲内に垂直方向に配置される。
垂直方向における所定の視野領域とは、被験者Tの注視点が基準位置M0にあるときを基準(0度)として、垂直方向にθ2度以内の視野の範囲を示す。本実施形態では、視界が限定される自動車内から路上の対象物(歩行者等)の視認能力を評価することを考慮して、θ2度は±10度に設定されることが好適である。なお、他の実施形態では、被験者Tの視界を遮るものがない状況を想定して、θ1度を±10度よりも大きな値(例えば人間の垂直方向における視野範囲を想定して±70度までの任意の値)に設定してもよい。
例えば、θ2度が±10度であり、被験者Tと視標提示ボード2との間の距離D1が2mである場合、高さH2は約0.705mとなる。
The plurality of optotype positions M1b are vertically arranged within a range of height H2 centered on the reference position M0 so as to be included in a predetermined visual field region in the vertical direction of the subject T.
The predetermined visual field region in the vertical direction indicates the range of the visual field within θ2 degrees in the vertical direction with the time when the gazing point of the subject T is at the reference position M0 as a reference (0 degrees). In the present embodiment, it is preferable that θ2 degree is set to ± 10 degree in consideration of evaluating the visual ability of an object (pedestrian or the like) on the road from the inside of the automobile where the field of view is limited. In another embodiment, assuming a situation in which the field of view of the subject T is not obstructed, θ1 degree is set to a value larger than ± 10 degrees (for example, up to ± 70 degrees assuming a visual field range in the vertical direction of a human being). It may be set to any value of).
For example, when θ2 degrees is ± 10 degrees and the distance D1 between the subject T and the
また、複数の視標位置M1bは、視標提示ボード2の水平方向の略中央において、基準位置M0の上下に所定間隔C2毎に配置される。なお、間隔C2は、隣接する二つの視標位置M1bの中心間距離を示す。
本実施形態では、間隔C1は、被験者Tの視線を垂直方向に5度移動させたときの距離に相当するように設定される。例えば被験者Tと視標提示ボード2との間の距離D1が2mである場合、間隔C2は約0.175mに設定される。
Further, the plurality of optotype positions M1b are arranged at predetermined intervals C2 above and below the reference position M0 at substantially the center of the
In the present embodiment, the interval C1 is set so as to correspond to the distance when the line of sight of the subject T is moved by 5 degrees in the vertical direction. For example, when the distance D1 between the subject T and the
なお、図3には、複数の視標位置M1aからなる行と、複数の視標位置M1bからなる列とが、視標提示ボード2の略中央に十字形状に配置される例が示されているが、これに限られることはない。他の実施形態では、複数の視標位置M1aからなる行が、高さH2の範囲内で上下に複数配置されてもよいし、複数の視標位置M1bからなる列が幅W2の範囲内で左右に複数配置されてもよい。
Note that FIG. 3 shows an example in which a row consisting of a plurality of optotype positions M1a and a column composed of a plurality of optotype positions M1b are arranged in a cross shape substantially in the center of the
図4の実線で示すように、視標20は、垂直方向に延びる長方形(傾き0度の長方形)に形成されている。
例えば、視標20は、約34m先の路側(視野中心から±15度離れた周辺視野)に位置する歩行者を、ドライバーである被験者Tが見たときの大きさを模擬したものである。
具体的には、ドライバーの位置から見える歩行者の上肢の平均的なサイズが、長さ約50cm、幅約12cmであるとする。被験者Tと視標提示ボード2との間の距離D1が2mである場合、視標20は、「長さX1=約3cm」、「幅X2=約1.3cm」の長方形に形成される。なお、この長さX1及び幅X2は、視標提示ボード2までの距離D1、想定される対象物の大きさに応じて適宜変更してもよい。
As shown by the solid line in FIG. 4, the
For example, the
Specifically, it is assumed that the average size of the upper limbs of a pedestrian seen from the position of the driver is about 50 cm in length and about 12 cm in width. When the distance D1 between the subject T and the
また、視標20は、図4の破線で示されるように、垂直方向からα度傾いた方向に延びる長方形(傾きα度の長方形)に形成されてもよい。α度は、例えば+15度又は−15度に設定される。検査者Oは、このように傾きが異なる複数の視標20から、任意の視標20を選択するようにしてもよい。
Further, as shown by the broken line in FIG. 4, the
更に、視標20の色は、視標提示ボード2及び視標位置M1の背景色とは異なる色に設定される。視標20の色は、単色であってもよいし、複数の色の組み合わせ、縞や市松模様であってもよい。検査者Oは、このように色が異なる複数の視標20から、任意の視標20を選択するようにしてもよい。
Further, the color of the
視標位置M1は視標20が配置可能な大きさに形成されている。例えば、視標位置M1は、直径X3(約7〜10cm)の円形状に形成される。また、視標位置M1の背景色は、視標提示ボード2の背景色と同じ色に設定される。
The optotype position M1 is formed to a size in which the
(視認性評価システムの処理フロー)
図5は、本発明の一実施形態に係る視認性評価システムの処理の一例を示すフローチャートである。
本実施形態に係る視認性評価システム1は、暗幕等により外光が遮断された室内に設置され、一定の環境条件下で、複数の視標位置M1のうち何れか一つに配置された視標20を、被験者Tが認識するまでの時間を測定する。そして、視認性評価システム1は、所定回数(例えば視標位置M1それぞれについて3回ずつ)の測定を繰り返し実行して被験者Tの視認能力を評価する。なお、環境条件は、室内の明るさを示す。環境条件は、例えば日中に運転することを想定した「明所」、夕方、荒天時等に運転することを想定した「薄明」、夜間に運転することを想定した「暗所」から何れかを選択するものとする。
以下、図5を参照しながら、視認性評価システム1による評価処理の流れについて詳細に説明する。
(Processing flow of visibility evaluation system)
FIG. 5 is a flowchart showing an example of processing of the visibility evaluation system according to the embodiment of the present invention.
The
Hereinafter, the flow of the evaluation process by the
まず、情報処理装置6は、被験者Tに装着された液晶シャッター30を遮蔽状態にする(ステップS01)。例えば、情報処理装置6は、操作部63を介して検査者Oの入力操作を受け付けて、液晶シャッター30を遮蔽状態にする。また、情報処理装置6は、検査者Oが操作部63を介して設定したタイミングで、自動的に液晶シャッター30を遮蔽状態にしてもよい。
このとき、被験者Tは、液晶シャッター30越しに発光装置4から発する光Lを視認することにより、視標提示ボード2の基準位置M0に注視点を合わせる。また、情報処理装置6は、視線解析装置31により被験者Tの視線を解析し、被験者Tが基準位置M0に注視点を合わせているか確認してもよい。なお、視線解析装置31による解析結果は、逐次、情報処理装置の表示部64に表示され、検査者Oが被験者Tの注視点の位置を確認できるようにしてもよい。
First, the information processing device 6 puts the
At this time, the subject T adjusts the gazing point to the reference position M0 of the
次に、検査者Oは、視標提示ボード2の複数の視標位置M1のうち何れか一つに、視標20を配置する(ステップS02)。例えば、視標20を配置する視標位置M1は、被験者Tによる予測が困難となるように、情報処理装置6により各回の測定毎に異なる位置が予め決められていてもよい。この場合、情報処理装置6は、検査者Oに対し、表示部64を介して視標20を配置すべき視標位置M1を指示するようにしてもよい。
Next, the inspector O arranges the
次に、情報処理装置6は、検査者Oの入力操作を受け付けて、被験者Tに装着された液晶シャッター30を透過状態にする(ステップS03)。例えば、情報処理装置6は、操作部63を介して検査者Oの入力操作を受け付けて、液晶シャッター30を透過状態にする。このとき、液晶シャッター30が透過状態になるタイミングを被験者Tが予期できないように、検査者Oは液晶シャッター30を遮蔽状態にしてから透過状態にするまでの時間をランダムにする。また、情報処理装置6は、検査者Oが操作部63を介して入力した設定に従い、ランダムなタイミングで自動的に液晶シャッター30を透過状態にしてもよい。
Next, the information processing device 6 accepts the input operation of the inspector O and puts the
液晶シャッター30が透過状態になり、視標提示ボード2を目視可能となると、被験者Tは、視標提示ボード2上に配置された視標20を探して視線を移動させる。この間、視線解析装置31は、被験者Tの注視点の位置を特定して情報処理装置6に逐次、出力する。
そうすると、情報処理装置6は、視線解析装置31から出力された被験者Tの注視点の動きを、液晶シャッター30が透過状態になってからの経過時間と対応付けて記録する(ステップS04)。具体的には、情報処理装置6は、「液晶シャッター30が透過状態となってから被験者Tの注視点が基準位置M0を離れるまでの時間」、及び「被験者Tの注視点が基準位置M0を離れてから視標20の位置する視標位置M1に到達するまでの時間」を記録する。
「被験者Tの注視点が基準位置M0を離れた」とは、被験者Tの注視点が図3に示す基準位置M0の円形の枠外に移動したことを示す。また、「被験者Tの注視点が視標位置M1に到達する」とは、被験者の注視点が図3に示す視標位置M1の円形の枠内に移動したことを示す。なお、情報処理装置6は、視線解析装置31の精度に応じて、図3に示す円形の枠よりも広い(又は狭い)仮想領域を設定し、被験者Tの注視点が仮想領域の内側又は外側に移動したとき、「視標位置M1に到達する」、又は「基準位置M0を離れた」と判断するようにしてもよい。また、この仮想領域は円形ではなく、矩形であってもよい。
When the
Then, the information processing device 6 records the movement of the gazing point of the subject T output from the line-of-
“The gazing point of the subject T has left the reference position M0” indicates that the gazing point of the subject T has moved out of the circular frame of the reference position M0 shown in FIG. Further, "the gazing point of the subject T reaches the optotype position M1" means that the gazing point of the subject has moved within the circular frame of the optotype position M1 shown in FIG. The information processing device 6 sets a virtual area wider (or narrower) than the circular frame shown in FIG. 3 according to the accuracy of the line-of-
次に、情報処理装置6は、視標認識ボタン5を介して、被験者Tが視標20を認識したことを示す入力操作を受け付ける(ステップS05)。このとき、情報処理装置6は、「被験者Tの注視点が視標20の位置する視標位置M1に到達してから視標認識ボタン5が押下されるまでの時間(反応時間)」を記録する。
また、情報処理装置6は、液晶シャッター30が透過状態となってから所定時間(例えば1秒)を経過しても視標認識ボタン5が押下されなかった場合、「被験者Tが視標20を見落とした」ことを記録する。
Next, the information processing device 6 receives an input operation indicating that the subject T has recognized the
Further, in the information processing device 6, when the
次に、情報処理装置6は、所定回数の測定が完了したか否かを判断する(ステップS06)。
情報処理装置6は、所定回数の測定が完了していない場合(ステップS06:NO)、ステップS01に戻り、次の測定を行う。
一方、情報処理装置6は、所定回数の測定が完了した場合(ステップS06:YES)、各回の測定結果に基づいて、視認性評価情報R1(図6)を作成する(ステップS07)。このとき、情報処理装置6は、作成した視認性評価情報R1を表示部64に表示して、検査者Oが確認できるようにしてもよい。
Next, the information processing device 6 determines whether or not the measurement of a predetermined number of times is completed (step S06).
When the measurement of the predetermined number of times is not completed (step S06: NO), the information processing apparatus 6 returns to step S01 and performs the next measurement.
On the other hand, when the measurement of a predetermined number of times is completed (step S06: YES), the information processing apparatus 6 creates the visibility evaluation information R1 (FIG. 6) based on the measurement result of each measurement (step S07). At this time, the information processing device 6 may display the created visibility evaluation information R1 on the
図6は、本発明の一実施形態に係る視認性評価情報の一例を示す図である。
図6に示すように、視認性評価情報R1には、「被験者情報」、「視標種類」、「注視点が基準位置を離れた時間」、「注視点が視標位置に到達した時間」、「視標認識ボタンが押下されるまでの時間」、「配置位置毎の正答率」、「正答率」、「見落とし率」等が含まれる。
FIG. 6 is a diagram showing an example of visibility evaluation information according to an embodiment of the present invention.
As shown in FIG. 6, the visibility evaluation information R1 includes "subject information", "target type", "time when the gazing point leaves the reference position", and "time when the gazing point reaches the optotype position". , "Time until the optotype recognition button is pressed", "Correct answer rate for each placement position", "Correct answer rate", "Oversight rate" and the like are included.
「被験者情報」は、被験者を識別するための情報である。「被験者情報」は、被験者ID、氏名、性別、年齢等の情報を含んでいてもよい。被験者情報は、一連の測定を行う前に、検査者Oにより操作部63を介して情報処理装置6に入力される。
"Subject information" is information for identifying a subject. The "subject information" may include information such as subject ID, name, gender, and age. The subject information is input to the information processing device 6 by the inspector O via the
「視標種類」は、一連の測定において使用された視標20の種類を示す情報であり、例えば視標20の色、視標20の角度等が含まれる。「視標種類」は、一連の測定を行う前に、検査者Oにより操作部63を介して情報処理装置6に入力される。
The "target type" is information indicating the type of the
「注視点が基準位置を離れた時間」、及び「注視点が視標位置に到達した時間」は、図5のステップS04において情報処理装置6により記録された「液晶シャッター30が透過状態となってから被験者Tの注視点が基準位置M0を離れるまでの時間」、及び「被験者Tの注視点が基準位置M0を離れてから視標20の位置する視標位置M1に到達するまでの時間」を示す。
The "time when the gazing point leaves the reference position" and the "time when the gazing point reaches the optotype position" are the "time when the
「視標認識ボタンが押下されるまでの時間」は、図5のステップS05において情報処理装置6により記録された「被験者Tの注視点が視標20の位置する視標位置M1に到達してから視標認識ボタン5が押下されるまでの時間(反応時間)」を示す。
The "time until the optotype recognition button is pressed" is the "time when the gazing point of the subject T reaches the optotype position M1 where the
「配置位置毎の正答率」は、複数の視標位置M1それぞれについて、被験者Tが視標20を正しく視認できた割合を示す。
例えば、情報処理装置6は、複数の視標位置M1のうち、一部の視標位置M1(例えば基準位置から水平方向に±15度の範囲内に位置する視標位置M1)それぞれの正答率が所定の値(例えば60%)以上であれば、被験者Tは自動車を安全に運転することができる視認能力を有していると評価するようにしてもよい。
The “correct answer rate for each placement position” indicates the rate at which the subject T can correctly see the
For example, the information processing device 6 has a correct answer rate for each of the plurality of optotype positions M1 (for example, the optotype position M1 located within a range of ± 15 degrees in the horizontal direction from the reference position). If is greater than or equal to a predetermined value (for example, 60%), subject T may be evaluated as having a visual ability to drive a car safely.
「正答率」は、一連の測定において使用された視標20の種類(色、角度)について、被験者Tが視標20を正しく視認できた割合を示す情報である。この情報を参照することにより、検査者Oは、視標20の色及び角度による、被験者Tの視認能力の変化を知ることができる。
The "correct answer rate" is information indicating the rate at which the subject T can correctly see the
「見落とし率」は、一連の測定において被験者Tが視標20を視認できなかった割合(図5のステップS05において「見落とした」と記録された割合)を示す情報である。
例えば、情報処理装置6は、「見落とし率」が所定の値(例えば50%)以上である場合、被験者Tは自動車を安全に運転することができる視認能力を有していないと評価するようにしてもよい。
The “oversight rate” is information indicating the rate at which the subject T could not visually recognize the
For example, the information processing device 6 evaluates that the subject T does not have the visual ability to drive a car safely when the "oversight rate" is equal to or higher than a predetermined value (for example, 50%). You may.
なお、「注視点が視標位置を離れた時間」、「注視点が視標位置に到達した時間」、及び「視標認識ボタンが押下されるまでの時間」は、図6に示すように各回の測定毎に記録されている。また、情報処理装置6は、更に一連の測定における平均時間をそれぞれ計算して、視認性評価情報R1に含めてもよい。 The "time when the gazing point leaves the optotype position", "time when the gazing point reaches the optotype position", and "time until the optotype recognition button is pressed" are as shown in FIG. It is recorded for each measurement. Further, the information processing apparatus 6 may further calculate the average time in a series of measurements and include it in the visibility evaluation information R1.
情報処理装置6は、視認性評価情報R1を作成すると、処理を終了する。なお、検査者Oは、視標20の種類(色及び角度)を変更して、再び図5に示す一連の処理を実行するようにしてもよい。このようにすることで、情報処理装置6は、視標20の種類毎に被験者Tの視認能力を評価することができる。
更に、検査者Oは、室内の環境条件(「明所」、「薄明」、「暗所」)を変更して、再び図5に示す一連の処理を実行するようにしてもよい。このようにすることで、情報処理装置6は、様々な環境における被験者Tの視認能力を評価することができる。
When the information processing device 6 creates the visibility evaluation information R1, the processing ends. The inspector O may change the type (color and angle) of the
Further, the inspector O may change the indoor environmental conditions (“bright place”, “twilight”, “dark place”) to execute the series of processes shown in FIG. 5 again. By doing so, the information processing apparatus 6 can evaluate the visual ability of the subject T in various environments.
以上のように、本実施形態に係る視認性評価システム1は、被験者Tに対向配置され、所定の基準位置M0が規定されるとともに当該基準位置M0とは異なる位置(視標位置M1)に視標20を配置可能な視標提示ボード2と、被験者Tの注視点を特定可能な視線解析装置31と、基準位置M0から視標20までの被験者Tの注視点の動きに基づいて、被験者Tの視認性(視認能力)を評価するための視認性評価情報R1を取得する情報処理装置6と、を備える。
このようにすることで、視認性評価システム1は、簡素な評価手続でありながらも、被験者Tの周辺視野に対する視認能力を正確に評価することができる。
As described above, the
By doing so, the
また、情報処理装置6は、視認性評価情報R1として、注視点が基準位置M0を離れてから視標20が配置された視標位置M1に到達するまでの時間を取得する。
このようにすることで、視認性評価システム1は、被験者Tが周辺視野における視標20を認識するまでに要する時間を視認性評価情報R1として、検査者Oに提示することができる。
Further, the information processing device 6 acquires, as the visibility evaluation information R1, the time from when the gazing point leaves the reference position M0 to when the
By doing so, the
また、視認性評価システム1は、被験者Tと視標提示ボード2との間に配置され、透過状態及び遮蔽状態を切り替え可能な液晶シャッター30(遮蔽装置)を更に備える。
このようにすることで、被験者Tは液晶シャッター30が透過状態になるまで視標20の位置を知ることが出来ないので、被験者Tの視認能力を正確に評価することができる。
Further, the
By doing so, the subject T cannot know the position of the
また、視認性評価システム1は、液晶シャッター30が遮蔽状態にある場合においても、視標提示ボード2における基準位置M0を視認可能に提示する発光装置4(基準位置提示装置)を更に備える。
このようにすることで、視認性評価システム1は、液晶シャッター30により被験者Tが視標提示ボード2を視認できない間も、被験者Tの注視点を基準位置M0に合わせるように誘導することができる。
Further, the
By doing so, the
また、視認性評価システム1は、被験者Tが視標20を認識した場合に行う入力操作を受け付ける視標認識ボタン5(視標認識入力手段)を更に備える。
このようにすることで、視認性評価システム1は、被験者Tが視標20を認識してから、入力操作を行うまでの反応時間を計測することができる。
Further, the
By doing so, the
また、視標20は、所定方向に延びる形状に形成されている。例えば、視標20は、図4の実線で示すように、視標20は、垂直方向に延びる長方形(傾き0度の長方形)に形成されている。また、視標20は、図4の破線で示されるように、垂直方向からα度傾いた方向に延びる長方形(傾きα度の長方形)に形成されてもよい。
このようにすることで、視認性評価システム1は、自動車のドライバーが前方の路側(例えば34m先の路側)に位置する歩行者を模擬した視標20を、簡易な形状で形成することができる。
Further, the
By doing so, the
なお、上述した情報処理装置6の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体(ストレージ65)に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。 The various processing processes of the information processing apparatus 6 described above are stored in a computer-readable recording medium (storage 65) in the form of a program, and the various processing can be performed by the computer reading and executing this program. Will be done. The computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.
上記プログラムは、上述した機能の一部を実現するためのものであってもよい。更に、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.
以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, some embodiments according to the present invention have been described, but all of these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.
1 視認性評価システム
2 視標提示ボード
20 視標
3 頭部装着装置
30 液晶シャッター(遮蔽装置)
31 視線解析装置
4 発光装置(基準位置提示装置)
5 視標認識ボタン(視標認識入力手段)
6 情報処理装置
1
31 Line-of-
5 Target recognition button (target recognition input means)
6 Information processing equipment
Claims (6)
前記被験者の注視点を特定可能な視線解析装置と、
前記基準位置から前記視標までの前記被験者の注視点の動きに基づいて、前記被験者の視認性を評価するための視認性評価情報を取得する情報処理装置と、
を備える視認性評価システム。 An optotype presentation board that is placed facing the subject, a predetermined reference position is defined, and an optotype can be placed at a position different from the reference position.
A line-of-sight analysis device capable of identifying the gaze point of the subject, and
An information processing device that acquires visibility evaluation information for evaluating the visibility of the subject based on the movement of the gaze point of the subject from the reference position to the target.
Visibility evaluation system equipped with.
前記視認性評価情報として、前記注視点が前記基準位置を離れてから前記視標が配置された位置に到達するまでの時間を取得する
請求項1に記載の視認性評価システム。 The information processing device
The visibility evaluation system according to claim 1, wherein as the visibility evaluation information, the time from when the gazing point leaves the reference position to when the optotype reaches the position where the optotype is arranged is acquired.
請求項1または請求項2に記載の視認性評価システム。 The visibility evaluation system according to claim 1 or 2, further comprising a shielding device arranged between the subject and the optotype presenting board and capable of switching between a transmission state and a shielding state.
請求項3に記載の視認性評価システム。 The visibility evaluation system according to claim 3, further comprising a reference position presenting device that visually presents the reference position on the optotype presenting board even when the shielding device is in a shielding state.
請求項1から請求項4の何れか一項に記載の視認性評価システム。 The visibility evaluation system according to any one of claims 1 to 4, further comprising an optotype recognition input means that accepts an input operation performed when the subject recognizes the optotype.
請求項1から請求項5の何れか一項に記載の視認性評価システム。 The visibility evaluation system according to any one of claims 1 to 5, wherein the optotype is formed in a shape extending in a predetermined direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157326A JP6928382B2 (en) | 2018-08-24 | 2018-08-24 | Visibility evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157326A JP6928382B2 (en) | 2018-08-24 | 2018-08-24 | Visibility evaluation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020028627A JP2020028627A (en) | 2020-02-27 |
JP6928382B2 true JP6928382B2 (en) | 2021-09-01 |
Family
ID=69623232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157326A Active JP6928382B2 (en) | 2018-08-24 | 2018-08-24 | Visibility evaluation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6928382B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000316811A (en) * | 1999-05-14 | 2000-11-21 | Sumitomo Osaka Cement Co Ltd | Eyeball movement measuring device |
FR2975885B1 (en) * | 2011-06-01 | 2013-06-21 | Centre Nat Rech Scient | SYSTEM COMPRISING AN OCULOMETER, METHOD USED ON SUCH A SYSTEM AND CORRESPONDING COMPUTER PROGRAM PRODUCT |
GB201417208D0 (en) * | 2014-09-30 | 2014-11-12 | Ibvision Ltd | Method Software And Apparatus For Testing A Patiants Visual Field |
-
2018
- 2018-08-24 JP JP2018157326A patent/JP6928382B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020028627A (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107224261B (en) | Visual impairment detection system using virtual reality | |
KR101520113B1 (en) | Unitary vision and neuro-processing testing center | |
KR101726894B1 (en) | Testing/training visual perception speed and/or span | |
CN111343927B (en) | Cognitive dysfunction diagnostic device and cognitive dysfunction diagnostic program recording medium | |
Barrett et al. | Relationship between perceptual style and driver reaction to an emergency situation. | |
JP5408572B2 (en) | Automatic driving behavior evaluation system | |
US20130137076A1 (en) | Head-mounted display based education and instruction | |
US20110205167A1 (en) | Brain concussion screening method & apparatus | |
Dukic et al. | Effect of button location on driver's visual behaviour and safety perception | |
CN109715046A (en) | Ophthalmic measurement device and ophthalmic measurement system | |
Dukic et al. | Effect of drivers' age and push button locations on visual time off road, steering wheel deviation and safety perception | |
KR20160138193A (en) | Multi mode display system | |
US20210303066A1 (en) | Display device, display method, and computer-readable storage medium | |
JP2011118601A (en) | Traffic hazard map generation apparatus | |
JP6928382B2 (en) | Visibility evaluation system | |
US20160029938A1 (en) | Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium | |
JP4900953B2 (en) | Traffic vision perception ability inspection system using virtual reality technology | |
JP2008012223A (en) | Device for adding function for game table having sight line analyzing and tracking function, and method for adding function for game table | |
CN103854026B (en) | A kind of recognition methods and electronic equipment | |
Guo et al. | Effects of apparent image velocity and complexity on the dynamic visual field using a high-speed train driving simulator | |
Nwakacha et al. | Evaluating distraction and disengagement of attention from the road | |
US20210345924A1 (en) | Evaluation device, evaluation method, and non-transitory compter-readable recording medium | |
Wood et al. | Now or never: noticing occurs early in sustained inattentional blindness | |
JP4125253B2 (en) | Dynamic visual acuity measurement device | |
KR102542977B1 (en) | Device and method for evaluation of sign visibility based on mr simulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210720 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6928382 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |