JP7057893B2 - Visual condition judgment device - Google Patents
Visual condition judgment device Download PDFInfo
- Publication number
- JP7057893B2 JP7057893B2 JP2018032976A JP2018032976A JP7057893B2 JP 7057893 B2 JP7057893 B2 JP 7057893B2 JP 2018032976 A JP2018032976 A JP 2018032976A JP 2018032976 A JP2018032976 A JP 2018032976A JP 7057893 B2 JP7057893 B2 JP 7057893B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation index
- convergence angle
- viewer
- visual
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、視認状態判定装置に関するものである。 The present invention relates to a visual state determination device.
特許文献1には、視認者が緊張状態であるか否かを、その視線方向、視線分布、瞳孔径変化等に基づいて推定するものが開示されている。
ところで、視認者の視認対象物に対する没入度合い(視認対象物に対する興味度合いともいえる)を判定することが望まれている。例えば、視認者として車両の運転者の場合、車両前方にある視認対象物に対する没入度合いが高いということは、前方状況を十分に注意しているという点では好ましい反面、バックミラー、サイドミラー、メータパネル等の適宜視認すべきものを見落としがちになっている、という好ましくない傾向を示すことにもなる。 By the way, it is desired to determine the degree of immersion of the visual object with respect to the visual object (which can be said to be the degree of interest in the visual object). For example, in the case of a vehicle driver as a visual observer, a high degree of immersion in a visible object in front of the vehicle is preferable in that he / she pays sufficient attention to the situation in front of the vehicle, but on the other hand, a rear-view mirror, a side mirror, and a meter. It also shows an unfavorable tendency that it is easy to overlook something that should be visually recognized, such as a panel.
本発明は以上のような事情を勘案してなされたもので、視認者が視認対象物に対してどの程度没入しているかということを判定できるようにした視認状態判定装置を提供することにある。 The present invention has been made in consideration of the above circumstances, and an object of the present invention is to provide a visual recognition state determining device capable of determining how much a viewer is immersed in a visual object. ..
本発明にあっては、基本的に、視認者が自分の意思で積極的に視認対象物を視認する能動的な視認の場合は、視認対象物までの実際の距離と視認者が視認対象物を視認している視距離との差が小さくなる一方、受動的に視認しているときは、実際の距離と視距離との差が大きくなる、という知見に基づいてなされたものである。そして、視距離を、視認者における左右の眼の視線がなす輻輳角に基づいて決定するようにしてある。 In the present invention, basically, in the case of active visual recognition in which the viewer positively visually recognizes the visual object by his / her own will, the actual distance to the visual object and the visual object are the visual object. It was made based on the finding that the difference between the actual distance and the viewing distance is large when the person is passively visually recognizing, while the difference between the viewing distance and the viewing distance is small. Then, the viewing distance is determined based on the convergence angle formed by the lines of sight of the left and right eyes of the viewer.
具体的には、本発明にあっては次のような解決手法を採択してある。すなわち、請求項1に記載のように、
視認者が視認対象物を目視している際に、視認者における左右の眼の視線がなす輻輳角を取得する輻輳角取得手段と、
視認者から前記視認対象物までの実際の距離を検出する実距離検出手段と、
前記輻輳角取得手段で取得された輻輳角に対応して設定される第1評価指数と前記実距離検出手段で検出された実際の距離に対応して設定される第2評価指数とに基づいて、視認者が前記視認対象物に没入している度合いを判定する没入度合い判定手段と、
を備え、
前記第1評価指数が、前記輻輳角取得手段で取得された輻輳角として設定され、
前記第2評価指数が、前記実距離検出手段で検出された実際の距離に対応した輻輳角として設定される、
ようにしてある。上記解決手法によれば、実際の距離と輻輳角とに基づいて、視認対象物に対する没入度合いを判定することができる。特に、2つの評価指数をそれぞれ輻輳角の値でもって比較することができる。
Specifically, the following solution method is adopted in the present invention. That is, as described in
Convergence angle acquisition means for acquiring the convergence angle formed by the line of sight of the left and right eyes of the viewer when the viewer is visually observing the visual object.
An actual distance detecting means for detecting the actual distance from the viewer to the visual object, and
Based on the first evaluation index set corresponding to the congestion angle acquired by the congestion angle acquisition means and the second evaluation index set corresponding to the actual distance detected by the actual distance detecting means. An immersive degree determining means for determining the degree to which the viewer is immersed in the visual object,
Equipped with
The first evaluation index is set as the convergence angle acquired by the convergence angle acquisition means, and the first evaluation index is set.
The second evaluation index is set as a convergence angle corresponding to the actual distance detected by the actual distance detecting means.
It is done like this. According to the above solution method, it is possible to determine the degree of immersion in the visual object based on the actual distance and the convergence angle. In particular, the two evaluation indices can be compared by the value of the convergence angle.
上記解決手法を前提とした好ましい態様は、請求項2以下に記載のとおりである。
A preferred embodiment premised on the above-mentioned solution method is as described in
前記没入度合い判定手段は、前記第1評価指数と前記第2評価指数との差に基づいて没入度合いを判定する、ようにしてある(請求項2対応)。この場合、上記差が小さいときは、実際の距離と視距離とが合致あるいはほぼ合致しているときで視認対象物を十分に認識している能動的な視認状態であると判定することができる。逆に、上記差が大きいときは、視認対象物を十分に視認していない受動的な視認状態であると判定することができる。 The immersive degree determining means determines the immersive degree based on the difference between the first evaluation index and the second evaluation index (corresponding to claim 2 ). In this case, when the above difference is small, it can be determined that the user is in an active visual recognition state in which the visual object is sufficiently recognized when the actual distance and the visual distance are matched or almost matched. .. On the contrary, when the above difference is large, it can be determined that the visual object is in a passive visual state in which the visual object is not sufficiently visually recognized.
前記没入度合い判定手段は、あらかじめ設定された所定時間内において、前記第1評価指数と前記第2評価指数との差が所定値以下となる回数が所定回数以上である場合に、没入度合いが高いと判定する、ようにしてある(請求項3対応)。この場合、所定時間に渡ってのデータに基づいて、没入度合い(の傾向)を精度よく判定することができる。 The immersive degree determining means has a high degree of immersiveness when the number of times the difference between the first evaluation index and the second evaluation index is equal to or less than a predetermined number of times within a predetermined time set in advance. (Corresponding to claim 3 ). In this case, the degree of immersion (tendency) can be accurately determined based on the data over a predetermined time.
前記視認者によって視認可能な位置に設定されると共に表示輝度が変更可能な表示手段を備え、
前記没入度合い判定手段によって没入度合いが低いと判定されたときに、前記表示手段の表示輝度が高められる、
ようにしてある(請求項4対応)。この場合、表示輝度を高めることにより、没入度合いを高めさせることができる。
A display means that is set to a position that can be visually recognized by the viewer and whose display brightness can be changed is provided.
When the immersive degree determination means determines that the immersive degree is low, the display brightness of the display means is increased.
(Corresponding to claim 4 ). In this case, the degree of immersion can be increased by increasing the display brightness.
前記表示手段が車両に装備されると共に、前記視認者が該車両の運転者とされ、
車両が自動運転されているときまたは停車中であることを条件として、前記表示手段の表示輝度が高められる、
ようにしてある(請求項5対応)。この場合、自動運転中または停車中を条件として表示輝度が高められるので、走行中において表示輝度が高められることにより表示輝度が高められた一部の視認領域に対してのみ没入してしまう事態を防止して、周囲状況を万遍なく視認させる上で好ましいものとなる。
The display means is installed in the vehicle, and the viewer is regarded as the driver of the vehicle.
The display brightness of the display means is increased provided that the vehicle is automatically driven or stopped.
(Corresponding to claim 5 ). In this case, since the display brightness is increased on condition that the vehicle is automatically driven or stopped, the situation where the display brightness is increased while the vehicle is running causes the user to immerse only in a part of the visible area where the display brightness is increased. It is preferable to prevent it and make the surrounding situation visible evenly.
前記輻輳角取得手段が、視認者の顔部分を撮像する撮像手段を有して、該撮像手段で得られた画像に基づいて輻輳角を取得する、ようにしてある(請求項6対応)。この場合、撮像手段を利用して、輻輳角の検出つまり視距離の推定を精度よく行うことができる。 The congestion angle acquisition means has an image pickup means for photographing the face portion of the viewer, and acquires the convergence angle based on the image obtained by the image pickup means (corresponding to claim 6 ). In this case, the image pickup means can be used to accurately detect the convergence angle, that is, estimate the viewing distance.
前記視認者が、車両の運転者とされ、
前記撮像手段が、車室内に設けられている、
ようにしてある(請求項7対応)。この場合、車両の運転者についての没入度合いを判定することができる。
The viewer is regarded as the driver of the vehicle.
The image pickup means is provided in the vehicle interior.
(Corresponding to claim 7 ). In this case, the degree of immersion of the driver of the vehicle can be determined.
本発明によれば、視認者が視認対象物に対してどの程度没入しているかということを判定することができる。 According to the present invention, it is possible to determine how much the viewer is immersed in the visual object.
以下本発明の実施形態について、没入度合いの判定対象者となる視認者が、車両としての自動車を運転する運転者とした場合について説明する。 Hereinafter, an embodiment of the present invention will be described with respect to a case where a visual person who is a target person for determining the degree of immersion is a driver who drives a car as a vehicle.
図1は、車両Vの運転席1を上方から見た簡略図である。運転席1には運転者Pが着座されている。運転席1の前方において車幅方向に延びるインストルメントパネル2の上面には、運転者Pから目視されやすい位置において、表示手段としてディスプレイ3が配設されている。ディスプレイ3は、例えばナビゲーション装置用とされて、地図情報を表示する他に、各種警告情報等を適宜切換え表示するようになっている(吹き出し形式等による表示等でもよい)。このディスプレイ3の表示輝度は、自動的に変更可能となっている。
FIG. 1 is a simplified view of the driver's
運転者Pは、メガネ式の輻輳角検出装置10を装備している。輻輳角検出装置10は、例えば1または2個のアイカメラを有して、図2に示すように、左右の眼の視線方向がなす角度となる輻輳角θ0を検出する。図2では、視認対象物として、例えばディスプレイ3とされている。また、輻輳角検出装置10によって、運転者Pの両眼の間隔が検出される。なお、輻輳角θ0や両眼の間隔の検出は、メガネ式とすることなく、例えば、ルーフパネルの前縁部やルームミラー等に装備されて、運転者Pの顔(のうち特に両眼)に指向された車内カメラによって行う等、適宜の手法によりなし得る。
The driver P is equipped with a glasses-type convergence
両眼の間隔が同じ場合は、輻輳角θ0が小さいほど、視認対象物(図2ではディスプレイ3)までの距離つまり視距離が大きくなる(逆に、輻輳角θ0が大きいほど、視認対象物までの距離つまり視距離が小さくなる)。輻輳角θ0とこれに対応した視距離との関係は、両眼の間隔をある一定値とした場合に、例えば図3のような特性線によって示される。具体的には、視距離をL、両眼の間隔をDとすると、輻輳角θ0と視距離Lとの関係は次式(1)のようになる。
When the distance between both eyes is the same, the smaller the convergence angle θ0, the larger the distance to the visual object (
L=(D/2)×(1/tan(θ0/2)) (1)
図5は、運転者Pによる前方視認領域を、縦横に分割した複数の小領域(実施形態では縦3×横3の合計9つの小領域)に分割してある。そして、各小領域における主たる視認対象物が、図5に列記されている。
L = (D / 2) × (1 / tan (θ0 / 2)) (1)
In FIG. 5, the front viewing area by the driver P is divided into a plurality of vertically and horizontally divided small areas (in the embodiment, a total of nine small areas of vertical 3 × horizontal 3). The main visual objects in each small area are listed in FIG.
図6は、ディスプレイ3の存在する小領域を運転者Pが注視している状況が示される。図中破線で示す部分が、単位時間あたりの中心点が存在する範囲であり、中抜きの1つの丸印が注視点分布の中心を示す。
FIG. 6 shows a situation in which the driver P is gazing at a small area where the
図6において、ディスプレイ3の位置は固定であることから、運転席シート1の特定位置とディスプレイ3との間の実際の距離はあらかじめ知ることができる。つまり、運転席1に着座している運転者Pのアイポイント位置とディスプレイ3との距離をあらかじめ知ることができる。ただし、運転席1のシートポジションが前後方向に変化することによって、運転者Pのアイポイント位置とディスプレイ3との間の距離が変化する。運転席1の前後方向位置に応じて運転者Pのアイポイント位置が、図4に示すように補正される。すなわち、運転席1の前後方向位置として、運転者Pが標準的な体格である場合の位置を標準位置とし、運転席1が標準位置から前後方向に移動したときは、その移動分の距離が補正される。
In FIG. 6, since the position of the
アイポイント位置の補正は、具体的には、次のように行えばよい。まず、運転席1の標準位置をX(前後方向の座標位置)とする。この場合、運転席1が標準位置Xから後方へ「Xh1」だけ移動されたときは、運転者Pのアイポイント位置が「X+Xh1」として設定される。逆に、運転席1が標準位置Xから前方へ「Xh2」だけ移動されたときは、運転者Pのアイポイント位置が「X-Xh2」として設定される。このような運転席1の前後方向移動に応じたアイポイント位置の補正は、ディスプレイ3に限らず、ルームミラー、メータ等々、各視認位置に応じて行われる。
Specifically, the correction of the eye point position may be performed as follows. First, the standard position of the driver's
図7は、本発明の制御系統例を示すものである。図中Uは、車両に搭載されたマイクロコンピュータを利用して構成されたコントローラ(制御ユニット)である。このコントローラUには、前述した輻輳角検出装置10からの信号の他、各種センサS1、S2からの信号が入力される。図中、S1は、レーダであり、例えば車両の前端あるいはフロントウインドガラスの上端部付近の車室内に設けられて、車両前方に位置する物体(視認対象物)までの実際の距離を検出するものとなっている。また、コントローラUは、ディスプレイ3を制御する。
FIG. 7 shows an example of the control system of the present invention. In the figure, U is a controller (control unit) configured by using a microcomputer mounted on a vehicle. In addition to the signal from the congestion
図1中、S2は、シートポジションセンサであり、運転席1を構成するシートクッションの前後方向位置を検出するものとなっている。シートポジションセンサS2により検出された運転席1の前後方向位置に応じて、運転者Pのアイポイント位置が特定される。運転者Pのアイポイント位置が特定されることにより、運転者による視認対象物となる各種車載機器類(例えばナビゲーション画面、メータパネル、バックミラー、サイドミラー等)までの実際の距離が特定される。
In FIG. 1, S2 is a seat position sensor, which detects the position in the front-rear direction of the seat cushion constituting the driver's
具体的には、コントローラUは、運転席1が標準位置にあるときを前提として、上記各種車載機器類までの実際の距離を記憶したデータベースDBを有している。そして、このデータベースDBに、運転席1の標準位置からの前後方向への位置変化に対応させて、アイポイント位置が前述のようにして補正される。シートポジションセンサS2とデータベースDBとが、運転者の眼の位置から視認対象物までの実際の距離を検出する検出手段を構成している。なお、アイポイント位置の特定(補正)に際しては、運転席1のシートクッションの高さやシートバックの傾斜角度等をも考慮することもできる。
Specifically, the controller U has a database DB that stores the actual distances to the various in-vehicle devices, assuming that the driver's
コントローラUは、輻輳角検出装置10により撮像された画像から、運転者の左右の眼の視線がなす角度、つまり輻輳角θ0を決定して、この輻輳角θ0に基づいて、運転者による視認対象物までの視距離を推定するようになっている。既知のように、輻輳角が小さいほど遠くのものを視認している(逆に輻輳角が大きいほど近くを視認している)と判断される。また、視認対象物が車両Vよりも前方に存在するときは、この視認対象物までの実際の距離が、レーダS1を利用して検出される(運転席1の前後方向位置に応じた補正あり)。
The controller U determines the angle formed by the line of sight of the driver's left and right eyes, that is, the convergence angle θ0 from the image captured by the convergence
輻輳角θ0に基づいて推定される視認対象物までの視距離と、視認対象物までの実際の距離とが一致あるいはほぼ一致しているときは、運転者Pは視認対象物を積極的に注視している状態、つまり能動状態でもって視認している状態となる。この能動状態での視認が長く続くほど、あるいは短時間のうちに繰り返し発生するほど、視認対象物に対する没入度合い(つまり興味度合い)が高い状態とされる。一方、上記視距離と実際の距離とが大きくずれているときは、受動状態での視認となる(見せられている状態)。 When the viewing distance to the visual object estimated based on the convergence angle θ0 and the actual distance to the visual object are the same or almost the same, the driver P positively gazes at the visual object. It is in a state of being visually recognized, that is, in an active state. The longer the visual recognition in the active state continues, or the more repeatedly it occurs within a short period of time, the higher the degree of immersion (that is, the degree of interest) in the visual object is considered to be. On the other hand, when the above-mentioned viewing distance and the actual distance are significantly different from each other, the visual recognition is performed in the passive state (the state of being shown).
次に、図8、図9に示すフローチャートを参照しつつ、コントローラUによる没入度合い判定のための制御例について説明する。なお、図8はメインのフローチャート、図9はサブのフローチャートであり、図9での処理結果が図8の制御に反映される。また、以下の説明でQはステップを示す。 Next, a control example for determining the degree of immersion by the controller U will be described with reference to the flowcharts shown in FIGS. 8 and 9. 8 is a main flowchart, FIG. 9 is a sub flowchart, and the processing result in FIG. 9 is reflected in the control of FIG. Further, in the following description, Q indicates a step.
まず、図9は、視認対象物を特定して、この視認対象物までの実際の距離を検出すると共に、検出された実際の距離を実輻輳角θrに変換するための制御例となっている。この図9の制御例については、図8の制御例を説明した後に説明することとする。 First, FIG. 9 is a control example for specifying a visual object, detecting the actual distance to the visual object, and converting the detected actual distance into the actual convergence angle θr. .. The control example of FIG. 9 will be described after the control example of FIG. 8 is described.
メインのフローチャートを示す図8において、まずQ1において、輻輳角検出装置10によって、運転者の左右の眼の視線がなす輻輳角θ0が検出される。この後、Q2において、検出された輻輳角θ0と、後述する視認対象物までの実際の距離に対応した実輻輳角θrとの偏差の絶対値が、所定値A(実施形態では1度)よりも小さいか否かが判別される。
In FIG. 8 showing the main flowchart, first, in Q1, the convergence
上記Q2の判別でNOのときは、そのままリターンされる。Q2の判別でYESのときは、Q3において、没入回数Nbがカウントアップされる。Qなお、没入回数Nbは、制御開始の時点では0にクリアされている。3の後、Q4において、Q2の判別で初めてYESとなった時点から所定時間(例えば2秒~3秒)経過したか否かが判別される。このQ4の判別でNOのときは、リターンされる。 If NO in the determination of Q2 above, the product is returned as it is. If YES in the determination of Q2, the number of immersions Nb is counted up in Q3. Q The number of immersions Nb is cleared to 0 at the start of control. After 3, it is determined in Q4 whether or not a predetermined time (for example, 2 seconds to 3 seconds) has elapsed from the time when YES is first determined in Q2. If NO in the determination of Q4, it is returned.
Q4の判別でYESのときは、Q5において、没入回数Nbが所定値B(例えば5~ 10回)以上であるか否かが判別される。このQ5の判別でYESのときは、Q6において、没入度が大であると判定される。このQ5では、次回の判定に備えて、没入回数Nbが0にクリアされる(Q4で用いた所定時間の計測もクリアされる)。なお、視認対象物に対して運転者Pの没入度合いが高い状態が続いたときに、萬遍なく周囲状況を視認するように注意情報を表示することもできる(例えばディスプレイ3での表示)。 If YES in the determination of Q4, it is determined in Q5 whether or not the number of immersions Nb is a predetermined value B (for example, 5 to 10 times) or more. If YES in the determination of Q5, it is determined in Q6 that the degree of immersion is large. In this Q5, the number of immersions Nb is cleared to 0 in preparation for the next determination (the measurement of the predetermined time used in Q4 is also cleared). It is also possible to display caution information so that the surrounding situation can be visually recognized evenly when the driver P continues to be highly immersive in the visual object (for example, display on the display 3).
上記Q5の判別でNOのときは、Q7において、没入度が小であると判定される。このQ7では、次回の判定に備えて、没入回数Nbが0にクリアされる(Q4で用いた所定時間の計測もクリアされる)。 If the determination in Q5 is NO, it is determined in Q7 that the degree of immersion is small. In this Q7, the number of immersions Nb is cleared to 0 in preparation for the next determination (the measurement of the predetermined time used in Q4 is also cleared).
Q7の後、Q8において、現在自動運転時であるかあるいは停車時であるか否かが判別される。このQ8の判別でNOのときは、そのままリターンされる。Q8の判別でYESのときは、表示手段としての例えばディスプレイ3の画面平均輝度が、現在の輝度よりも高くなるように変更される。図10に示すように、没入度が高いほど、輝度を高くする度合いを高めることができる。
After Q7, in Q8, it is determined whether or not the vehicle is currently in automatic driving or stopped. If the determination of Q8 is NO, the product is returned as it is. If YES in the determination of Q8, the screen average brightness of, for example, the
次に、図9のフローチャートについて説明するが、この図9は、視認対象までの実際の距離に対応した実輻輳角θrを決定する処理となる。まず、Q21において、レーダS1の設置位置(例えば車両前端部)から車外の視認対象までの距離が検出される。そして、標準アイポイント位置からレーダ設置位置までの距離を加算して、標準アイポイント位置から車外の視認対象までの距離が算出される。このようにして、例えば前方の歩行者までの実際の距離が「X歩」とされ、前方の信号機までの実際の距離が「X信」とされ、その他も同様にして検出される。 Next, the flowchart of FIG. 9 will be described, and FIG. 9 is a process of determining the actual convergence angle θr corresponding to the actual distance to the visual recognition target. First, in Q21, the distance from the installation position of the radar S1 (for example, the front end of the vehicle) to the visual object outside the vehicle is detected. Then, the distance from the standard eye point position to the radar installation position is added to calculate the distance from the standard eye point position to the visual object outside the vehicle. In this way, for example, the actual distance to the pedestrian in front is defined as "X steps", the actual distance to the traffic light in front is defined as "X communication", and the others are detected in the same manner.
Q22では、標準アイポイント位置と各種車載機器類との間の距離が取得される。例えば、ルームミラまでの距離が「Xミラー」とされ、ディスプレイ3までの距離が「Xナビ」とされ、その他の車載機器類についても同様にして検出される。
In Q22, the distance between the standard eye point position and various in-vehicle devices is acquired. For example, the distance to the room mirror is set to "X mirror", the distance to the
Q23では、前述したように、運転席1の前後方向位置に応じて、標準位置に対するアイポイント位置の補正量が決定される(図4の「xh1」の決定に相当)。この後、Q24において、単位時間における注視点分布の中心(平均位置)が決定される(図6の中抜き丸印の位置決定)。この後、Q24で決定された中心点分布中心位置が存在する領域が、視認対象物が存在する領域(小領域)であると判定される。 In Q23, as described above, the correction amount of the eye point position with respect to the standard position is determined according to the position in the front-rear direction of the driver's seat 1 (corresponding to the determination of "xh1" in FIG. 4). After that, in Q24, the center (average position) of the gazing point distribution in a unit time is determined (position determination of the hollow circle in FIG. 6). After that, it is determined that the region where the center position of the center point distribution determined in Q24 exists is the region (small region) where the visual object exists.
Q25の後、Q26において、Q25で決定された領域(小領域)における視認対象物までの実際の距離Drが決定される。実際の距離Drの決定に際しては、Q23で決定されたアイポイント位置の補正量が加味されたものされる。 After Q25, in Q26, the actual distance Dr to the visual object in the region (small region) determined by Q25 is determined. When determining the actual distance Dr, the correction amount of the eye point position determined in Q23 is added.
Q27では、Q26で決定された実際の距離Drが、実輻輳角θrとして変換される(図3のような特性で、(1)式に基づく算出ともなる)。このようにして決定された実輻輳角θrが、図8におけるQ2での処理に用いられる。なお、図9の処理は、図8の処理と並行して行うようにしてもよく(図8への割り込み処理ともなる)、また、図9の処理を行った後に図8に移行するような直列処理とすることもできる。 In Q27, the actual distance Dr determined in Q26 is converted as the actual convergence angle θr (characteristics as shown in FIG. 3, which are also calculated based on the equation (1)). The actual convergence angle θr determined in this way is used for the processing in Q2 in FIG. The process of FIG. 9 may be performed in parallel with the process of FIG. 8 (also serves as an interrupt process to FIG. 8), and the process shifts to FIG. 8 after the process of FIG. 9 is performed. It can also be serialized.
以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能である。実施形態では、検出された輻輳角θ0を第1評価指数とし、検出された実際の距離Drに対応する実輻輳角θrを第2評価指数としたが、評価指数を距離とすることもできる。すなわち、検出された輻輳角θ0に対応した視認距離を参照して、この視認距離を第1評価指数とする一方、検出された実際の距離Drを第2評価指数とすることもできる。表示手段としては、ディスプレイ3に限らず、例えば運転者の前方に表示情報を投影するヘッドアップディスプレイ等適宜のものを採択することができる。
Although the embodiments have been described above, the present invention is not limited to the embodiments, and appropriate modifications can be made within the scope of the claims. In the embodiment, the detected convergence angle θ0 is used as the first evaluation index, and the actual convergence angle θr corresponding to the detected actual distance Dr is used as the second evaluation index, but the evaluation index can also be used as the distance. That is, with reference to the viewing distance corresponding to the detected convergence angle θ0, this viewing distance can be used as the first evaluation index, while the detected actual distance Dr can be used as the second evaluation index. The display means is not limited to the
視認者は、車両Vの運転者Pに限らず、例えば飛行機、船舶、鉄道電車等の乗物を操作する者であってもよく、また乗り物以外の動く物(例えば無線操縦されるドローンやヘリコプター等)の操縦者であってもよく、さらには飛行場での管制官等、定位置で所定範囲を監視する者等であってもよい。没入度合いの判定は、2段階に限らず、3段階以上の多段階で行うこともできる。また、短時間(例えば3~10秒)での没入度合いの判定を行うことができる。本発明は、例えば広告宣伝用のポスターがどの程度視認者を引きつけられるか等(広告宣伝用ポスターの場合は、没入度合いが高くなるほど好ましいものと判断される)、種々の分野において適用することができる。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。 The viewer is not limited to the driver P of the vehicle V, but may be a person who operates a vehicle such as an airplane, a ship, or a railroad train, and a moving object other than the vehicle (for example, a drone or a helicopter operated wirelessly). ) May be the operator, and may also be a person who monitors a predetermined range at a fixed position, such as a controller at an airfield. The degree of immersion is not limited to two stages, but can be determined in multiple stages of three or more stages. In addition, the degree of immersion can be determined in a short time (for example, 3 to 10 seconds). The present invention can be applied in various fields such as, for example, how much an advertising poster attracts viewers (in the case of an advertising poster, it is judged that the higher the degree of immersion is, the more preferable it is). can. Of course, the object of the present invention is not limited to what is specified, but also implicitly includes providing what is expressed as substantially preferable or advantageous.
本発明は、視認対象物への没入度合いを判定することができる。 The present invention can determine the degree of immersion in a visual object.
V:車両
P:運転者
U:コントローラ
S1:レーダ
S2:シートポジションセンサ
1:運転席
3:ディスプレイ(表示手段)
10:輻輳角検出装置
V: Vehicle P: Driver U: Controller S1: Radar S2: Seat position sensor 1: Driver's seat 3: Display (display means)
10: Convergence angle detector
Claims (7)
視認者から前記視認対象物までの実際の距離を検出する実距離検出手段と、
前記輻輳角取得手段で取得された輻輳角に対応して設定される第1評価指数と前記実距離検出手段で検出された実際の距離に対応して設定される第2評価指数とに基づいて、視認者が前記視認対象物に没入している度合いを判定する没入度合い判定手段と、
を備え、
前記第1評価指数が、前記輻輳角取得手段で取得された輻輳角として設定され、
前記第2評価指数が、前記実距離検出手段で検出された実際の距離に対応した輻輳角として設定される、
ことを特徴とする視認状態判定装置。 Convergence angle acquisition means for acquiring the convergence angle formed by the line of sight of the left and right eyes of the viewer when the viewer is visually observing the visual object.
An actual distance detecting means for detecting the actual distance from the viewer to the visual object, and
Based on the first evaluation index set corresponding to the congestion angle acquired by the congestion angle acquisition means and the second evaluation index set corresponding to the actual distance detected by the actual distance detecting means. An immersive degree determining means for determining the degree to which the viewer is immersed in the visual object,
Equipped with
The first evaluation index is set as the convergence angle acquired by the convergence angle acquisition means, and the first evaluation index is set.
The second evaluation index is set as a convergence angle corresponding to the actual distance detected by the actual distance detecting means.
A visual condition determination device characterized by this.
前記没入度合い判定手段は、前記第1評価指数と前記第2評価指数との差に基づいて没入度合いを判定する、ことを特徴とする視認状態判定装置。 In claim 1 ,
The immersive degree determining means is a visual recognition state determining device, characterized in that the immersive degree is determined based on the difference between the first evaluation index and the second evaluation index.
前記没入度合い判定手段は、あらかじめ設定された所定時間内において、前記第1評価指数と前記第2評価指数との差が所定値以下となる回数が所定回数以上である場合に、没入度合いが高いと判定する、ことを特徴とする視認状態判定装置。 In claim 2 ,
The immersive degree determining means has a high degree of immersiveness when the number of times the difference between the first evaluation index and the second evaluation index is equal to or less than a predetermined number of times within a predetermined time set in advance. A visual recognition state determination device characterized by determining that.
前記視認者によって視認可能な位置に設定されると共に表示輝度が変更可能な表示手段を備え、
前記没入度合い判定手段によって没入度合いが低いと判定されたときに、前記表示手段の表示輝度が高められる、
ことを特徴とする視認状態判定装置。 In any one of claims 1 to 3 ,
A display means that is set to a position that can be visually recognized by the viewer and whose display brightness can be changed is provided.
When the immersive degree determination means determines that the immersive degree is low, the display brightness of the display means is increased.
A visual condition determination device characterized by this.
前記表示手段が車両に装備されると共に、前記視認者が該車両の運転者とされ、
車両が自動運転されているときまたは停車中であることを条件として、前記表示手段の表示輝度が高められる、
ことを特徴とする視認状態判定装置。 In claim 4 ,
The display means is installed in the vehicle, and the viewer is regarded as the driver of the vehicle.
The display brightness of the display means is increased provided that the vehicle is automatically driven or stopped.
A visual condition determination device characterized by this.
前記輻輳角取得手段が、視認者の顔部分を撮像する撮像手段を有して、該撮像手段で得られた画像に基づいて輻輳角を取得する、ことを特徴とする視認状態判定装置。 In any one of claims 1 to 5 ,
A visual recognition state determination device, wherein the convergence angle acquisition means has an image pickup means for photographing a face portion of a viewer and acquires a convergence angle based on an image obtained by the image pickup means.
前記視認者が、車両の運転者とされ、
前記撮像手段が、車室内に設けられている、
ことを特徴とする視認状態判定装置。
In claim 6 ,
The viewer is regarded as the driver of the vehicle.
The image pickup means is provided in the vehicle interior.
A visual condition determination device characterized by this.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042596 | 2017-03-07 | ||
JP2017042596 | 2017-03-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018143760A JP2018143760A (en) | 2018-09-20 |
JP7057893B2 true JP7057893B2 (en) | 2022-04-21 |
Family
ID=63590218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018032976A Active JP7057893B2 (en) | 2017-03-07 | 2018-02-27 | Visual condition judgment device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7057893B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9259798B2 (en) | 2012-07-13 | 2016-02-16 | Perkinelmer Health Sciences, Inc. | Torches and methods of using them |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079737A (en) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | Concentration degree evaluating apparatus and display device for vehicle equipped with the same |
JP2015133113A (en) | 2014-01-09 | 2015-07-23 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Detection of visual inattention based on eye convergence |
US20150338915A1 (en) | 2014-05-09 | 2015-11-26 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
JP2015217798A (en) | 2014-05-16 | 2015-12-07 | 三菱電機株式会社 | On-vehicle information display control device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62284628A (en) * | 1986-05-31 | 1987-12-10 | 日本放送協会 | Stereoscopic examination apparatus |
JPH06190389A (en) * | 1992-12-25 | 1994-07-12 | Meidensha Corp | Abnormality detectorof water treatment system |
-
2018
- 2018-02-27 JP JP2018032976A patent/JP7057893B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079737A (en) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | Concentration degree evaluating apparatus and display device for vehicle equipped with the same |
JP2015133113A (en) | 2014-01-09 | 2015-07-23 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Detection of visual inattention based on eye convergence |
US20150338915A1 (en) | 2014-05-09 | 2015-11-26 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
JP2015217798A (en) | 2014-05-16 | 2015-12-07 | 三菱電機株式会社 | On-vehicle information display control device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9259798B2 (en) | 2012-07-13 | 2016-02-16 | Perkinelmer Health Sciences, Inc. | Torches and methods of using them |
Also Published As
Publication number | Publication date |
---|---|
JP2018143760A (en) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311735B2 (en) | Vehicle display system and method of controlling vehicle display system | |
US10156728B2 (en) | Information provision device, information provision method, and recording medium | |
JP4475308B2 (en) | Display device | |
CN109795413B (en) | Driving support device and driving support method | |
US10169885B2 (en) | Vehicle display system and method of controlling vehicle display system | |
JP6454368B2 (en) | Vehicle display system and method for controlling vehicle display system | |
US10976545B2 (en) | Display device and adjustment method | |
US20180239136A1 (en) | Head mounted display device | |
JP6459205B2 (en) | Vehicle display system | |
US10227002B2 (en) | Vehicle display system and method of controlling vehicle display system | |
US20090225434A1 (en) | Vehicle rear view apparatus utilizing heads up display and rear looking sensors | |
JP5855206B1 (en) | Transmission display device for vehicle | |
JP7047837B2 (en) | Attention device | |
JP2016210212A (en) | Information providing device, information providing method and control program for information provision | |
US11100718B2 (en) | Method for operating a display device in a motor vehicle | |
US20150124097A1 (en) | Optical reproduction and detection system in a vehicle | |
JP2017056909A (en) | Vehicular image display device | |
JP7057893B2 (en) | Visual condition judgment device | |
JPWO2020208804A1 (en) | Display control device, display control method, and display control program | |
JP7068647B2 (en) | Driving support device | |
US20220074753A1 (en) | Method for Representing a Virtual Element | |
JP2021105989A (en) | Onboard display device and program | |
JP2019064422A (en) | Head-up display device | |
JP2019081480A (en) | Head-up display device | |
CN116977986A (en) | Control method and device of head-up display, vehicle and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7057893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |