JP7051254B2 - 評価装置、評価システム、評価サーバ及び評価プログラム - Google Patents

評価装置、評価システム、評価サーバ及び評価プログラム Download PDF

Info

Publication number
JP7051254B2
JP7051254B2 JP2020047687A JP2020047687A JP7051254B2 JP 7051254 B2 JP7051254 B2 JP 7051254B2 JP 2020047687 A JP2020047687 A JP 2020047687A JP 2020047687 A JP2020047687 A JP 2020047687A JP 7051254 B2 JP7051254 B2 JP 7051254B2
Authority
JP
Japan
Prior art keywords
gaze
evaluation
time
visual field
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047687A
Other languages
English (en)
Other versions
JP2021148907A (ja
Inventor
尚登 本多
Original Assignee
東京海上ディーアール株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東京海上ディーアール株式会社 filed Critical 東京海上ディーアール株式会社
Priority to JP2020047687A priority Critical patent/JP7051254B2/ja
Publication of JP2021148907A publication Critical patent/JP2021148907A/ja
Application granted granted Critical
Publication of JP7051254B2 publication Critical patent/JP7051254B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 掲載アドレス:https://www.tokiorisk.co.jp/files/pdf-20190912-01.pdf、掲載年月日:令和元年9月12日、公開者:東京海上日動リスクコンサルティング株式会社。 掲載アドレス:https://www.nikkei.com/article/DGXMZ049894920X10C19A9XQH000/、掲載年月日:令和元年9月18日、公開者:株式会社日本経済新聞社。 刊行物:日本経済新聞(令和元年9月12日付、第13面)、発行年月日:令和元年9月12日、公開者:株式会社日本経済新聞社。
本発明は、車両の周囲を視認する能力を評価することができる評価装置、評価システム、評価サーバ及び評価プログラムに関する。
従来、車両事故を抑制するために、種々の運転適性診断方法が用いられている。特許文献1には、無事故運転者の運転行動と事故惹起運転者の運転行動とに基づいて評価基準を設定したうえで、前記評価基準に基づいて、被験者の運転行動情報の診断データを分析して被験者の運転適性を判別する運転適性診断方法が開示されている。この運転適性診断方法によれば、被験者に運転適性の情報等をフィードバックして、被験者の運転技量を向上させることができるため、車両事故を抑制することができる。
特開2008-139553号公報
車両事故を抑制するためには、運転技量のベースとして、車両の周囲を視認する能力(以下、単に視認能力とも称す)が必要となる。運転技量が優れていても、視認能力が欠落している場合、例えばバック駐車時において、他車両やガードレール等と接触して事故を招く可能性がある。
ここで、特許文献1に記載の方法は上述の通り、運転技量に焦点を当てた方法であるため、被験者の運転技量を測ることはできるものの、視認能力を測ることはできない。
この点に鑑み、本発明は、車両の周囲を視認する能力を評価することが可能な評価装置、評価システム、評価サーバ及び評価プログラムを提供することを目的とする。
本願第1の発明は、車両の周囲を視認する能力を評価するための評価装置であって、ディスプレイと、映像再生部と、注視点検出部と、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。
映像再生部は、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる。注視点検出部は、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。
視界領域がn個に設定されたとき、n個の視界領域のうち第i領域Aiを注視した時間をTi[s]とすると、第i領域Aiを注視した時間の割合γi[-]は、以下の式(i)で表される。γ1~γnのうち、基準値1/nとの差が最も大きいものをγmaxとすると、第1評価値は、以下の式(ii)で表される偏差Yを用いて算出される。
Figure 0007051254000001
視界領域が3個に設定されたとき、第1評価値は、以下の式(iii)で算出される。ここで、P1は第1評価値であり、γmaxはγ1~γnのうち、基準値1/nとの差が最も大きいものである。
Figure 0007051254000002
第2評価値は、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bとから構成される。シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとする(b>0、c,d≦0)。第2評価加点値P2aと、第2評価減点値P2bと、は以下の式(iV)、(V)でそれぞれ算出される。
Figure 0007051254000003
第2評価値は、第2評価加点値P2aと、第2評価減点値P2bと、の和で算出される。視認能力評価値は、第1評価値と、第2評価値と、の和に基づいて算出される。
本願第2の発明は、車両の周囲を視認する能力を評価するための評価システムであって、電子機器と、電子機器とネットワークを介して接続されるサーバと、を備える。電子機器は、ディスプレイを備える。サーバは、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる映像再生部を備える。電子機器はさらに、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備える。
サーバはさらに、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。
本願第3の発明は、車両の周囲を視認する能力を評価するための評価システムが備える評価サーバであって、評価システムはさらに、評価サーバとネットワークを介して接続される電子機器を備える。電子機器は、ディスプレイを備える。評価サーバは、予め複数の視界領域が設定されたシミュレーション映像をディスプレイに表示させる映像再生部を備える。電子機器はさらに、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備える。
評価サーバはさらに、注視時間検出部と、視界領域判定部と、時間積算部と、評価値算出部とを備える。注視時間検出部は、注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定部は、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算部は、注視時間検出部において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定部において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出部は、時間積算部によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出部によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。
本願第4の発明は、コンピュータに、下記手段を実行させる評価プログラムである。映像再生手段では、予め複数の視界領域が設定されたシミュレーション映像を、電子機器が備えるディスプレイに表示させる。注視点検出手段では、ディスプレイに表示されたシミュレーション映像における、評価対象者の注視点を検出する。注視時間検出手段では、注視点検出手段によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する。視界領域判定手段では、複数の視界領域のうち、評価対象者が注視していた視界領域を、基準となる注視点ごとに判定する。時間積算手段では、注視時間検出手段において得られた、基準となる注視点と注視時間との対応関係と、視界領域判定手段において得られた、視界領域と基準となる注視点との対応関係と、に基づいて、視界領域に応じたすべての注視時間を取得し、視界領域ごとに積算する。評価値算出手段では、時間積算手段によって算出された視界領域ごとの注視時間に基づいて、複数の視界領域における視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、注視時間検出手段によって検出された注視時間に基づいて、視界領域に対する各注視時間の妥当性を評価する第2評価値を算出し、第1評価値及び第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する。
本発明によれば、車両の周囲を視認する能力を評価することができる。また、評価結果を評価対象者にフィードバックすることにより、評価対象者の視認能力を向上させ、ひいては車両事故を抑制することができる。
第1実施形態に係るHMD(評価装置)のハードウェア構成を示す図である。 第1実施形態に係るHMD(評価装置)の機能構成を示す図である。 第1実施形態におけるシミュレーション映像に設定された3つの視界領域を示す図である。 第1実施形態におけるシミュレーション映像に設定された3つの視界領域の変形例を示す図である。 HMDを装着した評価対象者が視認するシミュレーション映像の拡大模式図である。 HMDにおいて行われる処理の流れを示すフローチャートである。 注視時間検出部による注視時間の検出の流れを示すフローチャートである。 視界領域内に、視界の方向とは異なる方向で視認される映像が含まれる場合を説明する図である。 第2実施形態に係る評価装置を有する評価システムを示す図である。 第3実施形態に係る評価装置を有する評価システムを示す図である。
(第1実施形態)
以下、図面を参照しながら、第1実施形態に係る、車両の周囲を視認する能力を評価する評価装置(以下、単に評価装置と称す)について説明する。図1は第1実施形態に係るHMDのハードウェア構成を示す図である。第1実施形態において、評価装置としてヘッドマウントディスプレイ(以下、HMDと称す)を用いているが、これに限られず、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。
HMD1は、ディスプレイ2、注視点検出部3、メモリ4、プロセッサ5を有する。ディスプレイ2は、視認能力を評価するためのシミュレーション映像を表示する。HMD1は、ディスプレイ2が評価対象者(不図示)の眼前に配置されるように、装着ベルト(不図示)によって評価対象者の頭部に固定される。
シミュレーション映像は、評価対象者に仮想現実を体験させるための映像であり、任意の映像を選択することができる。例えば、本実施形態においては、図3に示すような仮想車両Tを駐車させる映像を、VR(Virtual Reality)で表現する。シミュレーション映像における運転席Hからの視界には、運転席Hから車両Tの長さ方向に沿って後方に延びる破線L1から、運転席Hと左サイドミラーT1の内側縁部とを通る破線L2までの第1領域A1と、破線L2から、運転席Hと右サイドミラーT2の内側縁部とを通る破線L3までの第2領域A2と、破線L3から破線L1までの第3領域A3と、から構成される視界領域が予め設定されている。すなわち、第1領域A1は、車両の左側領域(車両左側ガラスから視認可能な領域及び左サイドミラーT1を介して視認可能な領域)を示し、第2領域A2は、車両の前方領域(フロントガラスから視認可能な領域)を示し、第3領域A3は、車両の右側領域(車両右側ガラスから視認可能な領域及び右サイドミラーT2を介して視認可能な領域)を示す。なお、「サイドミラーの内側縁部」とは、サイドミラーを、シミュレーション映像における運転席Hから見た場合において、最も内側(車両中心側)に位置する部分を指すものとする。
なお、本実施形態においては、図3に示す第1領域A1、第2領域A2及び第3領域A3を視界領域として設定しているが、これに限られず、例えば、図4に示すように、第1領域A1を、運転席Hから左斜め後方に延びる破線L4から破線L2までの領域とし、第3領域A3を、破線L3から、運転席Hから右斜め後方に延びる破線L5までの領域として設定してもよい。また、本実施形態においては、視界領域を3つに設定しているが、これに限られず、視界領域を2つまたは4つ以上に設定してよい。このように視界領域を設定するだけでよいため、あらゆる映像をシミュレーション映像として用いることができる。言い換えれば、あらゆる映像に対して、本実施形態で説明する評価を適用することができる。
注視点検出部3は、ディスプレイ2に表示されたシミュレーション映像における、評価対象者の注視点を検出する。「注視点」とは、「評価対象者がシミュレーション映像を視認している場合における、シミュレーション映像に対する視線位置座標」である。
図5は、HMDを装着した評価対象者が視認するシミュレーション映像の拡大模式図である。図5に示す第1領域A1、第2領域A2及び第3領域A3は、図3に示す第1領域A1、第2領域A2及び第3領域A3に相当する。また、シミュレーション映像に表現される背景画像(道路や他車両等)について、図5では記載を省略する。注視点検出部3によって、サンプリング周期△t[s]ごとに評価対象者の注視点を検出する。図5においては、最初の注視点a1から、a1→a2→a3→b1→c1→c2→c3→c4→…の順番で注視点が検出される。
注視点検出部3における注視点の検出方法としては、赤外線によって眼球の動きや瞳孔の楕円形状等に基づいて検出する方法を採用することができるが、これに限られない。実車両で運転者の顔の向きに応じて運転者の視界が変化することを利用して、仮想車両(シミュレーション映像に表示された車両)の正面方向に対する頭部の左右の旋回角度に基づいて注視点を検出する方法を採用してもよい。
メモリ4は、各種のデータやプログラムを記憶する記憶装置である。プロセッサ5は、メモリ4に記憶されたデータやプログラムを読みだして実行する処理装置である。
(機能構成)
図2は、第1実施形態に係るHMDの機能構成を示す図である。図2を参照して、HMD1は、記憶部6及び制御部7を有する。記憶部6は、ハード構成におけるメモリ4に相当する。制御部7は、ハード構成におけるプロセッサ5に相当する。
記憶部6は、ディスプレイ2に表示させるシミュレーション映像が記憶されたシミュレーション映像DB61を有する。制御部7は、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える。
映像再生部71は、シミュレーション映像DB61からシミュレーション映像を読み出し、ディスプレイ2に表示させる。
注視時間検出部72は、注視点検出部3によって検出された注視点に基づき、評価対象者の各注視時間を検出する。ここで、「注視時間」とは、「基準となる注視点(以下、基準注視点とも称す)に対して、基準注視点を含むように所定領域を設定し、注視点が該所定領域内に継続して含まれる時間」である。「基準注視点」は、本実施形態において、注視点検出部3において最初に検出される注視点と、所定領域内から所定領域外に移動した注視点と、を指すが、これに限られない。
人間は通常、ある一点のみを継続して注視しようとしても、視線位置に一定程度の誤差(ブレ)が生じる。そこで、基準注視点に対して、基準注視点を含むように所定領域を設定し、注視点が該所定領域内に継続して含まれる時間を「注視時間」とすることにより、より精確な注視時間を検出可能とした。
ここで、注視時間の検出方法について、再度図5を参照して説明する。なお、注視時間を検出するフローに関しては詳細に後述するものとする。上述の通り、注視点検出部3によって、サンプリング周期△t[s]ごとに、a1→a2→a3→b1→c1→c2→c3→c4→…の順番で注視点が検出される。ここで、注視点a1は、注視点検出部3において最初に検出される注視点であるため、基準注視点に該当する。したがって、注視時間検出部72によって、注視点a1に対して、注視点a1を含むように所定領域Q1が設定される。本実施形態において、所定領域Q1は、注視点a1を中心とした円形状内部の領域である。注視点a1に続いて検出された注視点a2及びa3は、所定領域Q1に含まれるため、「注視点a1を注視している状態における誤差(視線のブレ)」である。注視点a3の次の注視点b1が所定領域Q1に含まれないため、所定領域Q1に継続して含まれる注視点a1~a3が「評価対象者がa1を注視している状態」であり、注視時間が算出される。具体的には、注視点a1~a3のサンプリング周期がそれぞれ△t[s]であるため、「評価対象者がa1を注視している状態」の注視時間は、「a1→a2」と「a2→a3」の合算、すなわち2×△t[s]と表される。
注視点b1は、所定領域Q1内から所定領域Q1外に移動した注視点であるため、基準注視点に該当する。したがって、注視点b1に対して、注視点b1を含むように所定領域Q2が設定される。本実施形態において、所定領域Q2は、注視点b1を中心とした円形状内部の領域である。注視点b1の次の注視点c1が所定領域Q2に含まれないため、注視点b1のみが「評価対象者がb1を注視している状態」であり、注視時間が算出される。具体的には、「評価対象者がb1を注視している状態」の注視時間は、0[s]と表される。
注視点c1は、所定領域Q2内から所定領域Q2外に移動した注視点であるため、基準注視点に該当する。したがって、注視点c1に対して、注視点c1を含むように所定領域Q3が設定される。本実施形態において、所定領域Q3は、注視点c1を中心とした円形状内部の領域である。注視点c2~c4は、所定領域Q3に含まれるため、「注視点c1を注視している状態における誤差(視線のブレ)」である。注視点c4の次の注視点が所定領域Q3に含まれないため、注視点c1~c4が「評価対象者がc1を注視している状態」であり、注視時間が算出される。具体的には、注視点c1~c4のサンプリング周期がそれぞれ△t[s]であるため、「評価対象者がc1を注視している状態」の注視時間は、「c1→c2」と「c2→c3」と「c3→c4」との合算、すなわち3×△t[s]と表される。
所定領域の位置や形状、範囲等については、注視点の検出方法等に応じて適宜設定することができる。例えば、仮想車両の正面方向に対する頭部の左右の旋回角度に基づいて注視点を検出する方法においては、評価対象者の正面方向を基準として左右に所定の幅を有する領域を、所定領域として設定することができる。なお、この方法における「注視点」は、仮想車両の正面方向に対する頭部の左右の旋回角度に基づき、左右方向のみの座標で表現する。
視界領域判定部73は、評価対象者が3つの視界領域(A1~A3)のうちどの視界領域を注視していたかを、基準注視点ごとに判定する。図5を参照して、「評価対象者が注視点a1を注視している状態(a1~a3)」では、注視点a1が第2領域A2に含まれるため、「第2領域A2を注視していた」と判定する。「評価対象者が注視点b1を注視している状態(b1)」では、注視点b1が第2領域A2に含まれるため、「第2領域A2を注視していた」と判定する。「評価対象者が注視点c1を注視している状態(c1~c4)」では、注視点c1が第1領域A1に含まれるため、「第1領域A1を注視していた」と判定する。
ここで、注視点c4は、第1領域A1ではなく第2領域A2に含まれる。しかしながら、注視点c4は、注視点c1に対して設定された所定領域Q3に含まれており、「評価対象者がc1を注視している状態」である。この点を考慮し、視界領域判定部73における判定は、「各注視点(本実施形態におけるa1~c4)」ではなく、先に例示した通り、「基準注視点(本実施形態におけるa1、b1、c1)」に基づいて行う。
時間積算部74は、(1)注視時間検出部72において得られた、基準注視点a1、b1、c1と注視時間との対応関係と、(2)視界領域判定部73において得られた、視界領域A1~A3と基準注視点a1、b1、c1との対応関係と、に基づいて、視界領域A1~A3に応じたすべての注視時間を取得し、視界領域A1~A3ごとに積算する。
図5を参照して、上述の通り、第1領域A1には基準注視点c1が含まれる。ここで、基準注視点c1における注視時間(すなわち、「評価対象者がc1を注視している状態」の注視時間)は、上述の通り、3×△t[s]である。したがって、第1領域A1における注視時間は、3×△t[s]と算出される。
上述の通り、第2領域A2には基準注視点a1及びb1が含まれる。ここで、基準注視点a1における注視時間(すなわち、「評価対象者がa1を注視している状態」の注視時間)は、上述の通り、2×△t[s]である。また、基準注視点b1における注視時間(すなわち、「評価対象者がb1を注視している状態」の注視時間)は、上述の通り、0[s]である。したがって、第2領域A2における注視時間は、2×△t[s]+0=2×△t[s]と算出される。
第3領域A3には基準注視点が含まれていないため、第3領域A3における注視時間は、0[s]と算出される。
評価値算出部75は、注視時間検出部72によって検出された注視時間と、時間積算部74によって算出された視界領域ごとの注視時間と、に基づいて、視認能力評価値(評価対象者が車両の周囲を視認できているかを評価するための評価値)を算出する。
評価値算出部における評価値の算出方法について、さらに詳細に説明する。評価値算出部においては、下記の第1評価値P1及び第2評価値P2を算出した後、視認能力評価値Pを求める。
(第1評価値P1の算出方法)
第1評価値P1は、視界領域A1~A3における視界領域ごとの注視時間の偏り(評価対象者が車両周囲をバランスよく確認しているか)を評価する指標であり、時間積算部74によって算出された、視界領域ごとの注視時間に基づいて算出される。具体的には、評価対象者が、第1領域A1を注視した時間をT1[s]、第2領域A2を注視した時間をT2[s]、第3領域A3を注視した時間をT3[s]としたとき、第1領域A1を注視した時間の割合γ1[-]、第2領域A2を注視した時間の割合γ2[-]、第3領域A3を注視した時間の割合γ3[-]は、それぞれ以下の式(1)~(3)で表すことができる。
Figure 0007051254000004
ここで、γ1[-]、γ2[-]、γ3[-]のうち、基準値M=1/3との差が最も大きいものをγmaxとすると、第1評価値P1は、以下の式(4)で算出される。なお、車両周囲は、均等なバランス(γ1=γ2=γ3)で確認する必要があるため、基準値M=1/3に設定される。以下の式(4)における「300」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば、250や400に変更することができる。
Figure 0007051254000005
基準値M=1/3に設定することにより、第1評価値P1は0以下となる。すなわち、本実施形態における第1評価値P1は、「車両周囲は均等なバランスで確認する」ことを前提としており、車両周囲を均等なバランスで確認しなかった場合には減点となる。
ここで、視界領域をn個に設定した場合を考える。第i領域Aiを注視した時間をTi[s]とすると、第i領域Aiを注視した時間の割合γi[-]は、以下の式(5)で表すことができる(iは、1~nまでの整数)。
Figure 0007051254000006
ここで、γ1~γnのうち、基準値Mとの差が最も大きいものをγmaxとすると、第1評価値P1は、以下の式(6)で表される偏差Yを用いて、式(7)で算出される。視界領域をn個に設定した場合、「車両周囲を均等なバランスで確認する」ことを前提とすると、基準値M=1/nに設定される。以下の式(7)におけるVの値は、評価の容易性や評価の精確性等に応じて適宜設定することができるが、例えばn×100に設定することができる。
Figure 0007051254000007
また、視界領域を3つに設定した場合において、基準値M>1/3に設定することができ、例えば、基準値M=1/2に設定することができる。この場合、1/3<γmax<1/2(車両周囲の確認のバランスの偏りが小さい)のときP1が正の値(加点)となり、γmax>1/2(車両周囲の確認のバランスの偏りが大きい)のときP1が負の値(減点)となるように、第1評価値P1を以下の式で算出することができる。以下の式(8)における「300」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば、250や400に変更することができる。
Figure 0007051254000008
(第2評価値P2の算出方法)
第2評価値P2は、視界領域に対する各注視時間の妥当性(評価対象者が車両周囲を注意して確認しているか)を評価する指標であり、注視時間検出部72において検出された、評価対象者の注視時間に基づいて算出される。第2評価値P2は、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bとから構成される。具体的には、シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとする(b>0、c,d≦0)。d≦c≦0に設定する場合、c=(dti-Bd)/(C-B)に設定することができる。例えば、A=0.2、B=0.5、C=3.0、b=5、d=-50のとき、c=―20ti+10に設定される。また、例えば、d<c<0に設定する場合、(b,c,d)=(10,-10、-20)としてもよく、(15,-20,-30)としてもよい。第2評価加点値P2aや第2評価減点値P2bの評価に用いられる第1閾値A、第2閾値B、第3閾値C、b、c、dの値は、評価の容易性や評価の精確性等に応じて適宜設定することができる。
上述の得点piに基づき、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bと、を以下の式(9)、(10)でそれぞれ求める。注視時間が適切である場合には、第2評価値P2は加点され、注視時間が適切でない(短いまたは長い)場合には、第2評価値P2は減点される。
Figure 0007051254000009
(視認能力評価値Pの算出方法)
視認能力評価値Pは、第1評価値P1及び第2評価値P2(第2評価加点値P2a、第2評価減点値P2b)を用いて、以下の式(11)によって算出される。式(11)における「1000」との数値は、評価の容易性や評価の精確性等に応じて適宜変更することができ、例えば1500や900に変更することができる。
Figure 0007051254000010

式(11)に示す通り、視認能力評価値Pは、「評価対象者が車両周囲をバランスよく確認しているか」との観点から設定された第1評価値P1と、「評価対象者が車両周囲を注意して確認しているか」との観点から設定された第2評価値P2と、に基づいて算出される。そのため、本発明に係る評価装置1によれば、車両の周囲を視認する能力を評価することができる。
制御部7は、式(10)によって算出された視認能力評価値Pを、ディスプレイ2に表示させてもよい。これにより、評価対象者が自身の評価結果を知り、視認能力の向上を図ることができる。また、第1評価値P1、第2評価加点値P2a、第2評価減点値P2bを表示させることにより、「車両周囲をバランスよく確認できているか」との観点と、「車両周囲を注意して確認しているか」との観点とに分けて、自身の視認能力を再確認できるため、視認能力の向上を図ることができる。さらに、上述のγa[-]、γb[-]、γc[-]の値をディスプレイに表示させることで、車両の周囲を視認するバランスの偏りを評価対象者が理解することができるため、視認能力の向上を図ることができる。
(処理の流れ)
HMD1において行われる処理の流れを説明する。図6は、HMDにおいて行われる処理の流れを示すフローチャートである。図を参照して、評価対象者がHMD1を装着した状態において、映像再生部71がシミュレーション映像DB61からシミュレーション映像を読み出してディスプレイ2に表示させる(S110)。シミュレーション映像における運転席Hからの視界には、上述の実施形態の通り、第1視界領域A1、第2視界領域A2及び第3視界領域A3が予め設定されている(図3参照)。
注視時間検出部72により、基準注視点ごとに、評価対象者の各注視時間が検出される(S120)。ここで、注視時間の検出方法について、図7を用いてさらに詳しく説明する。図7は、注視時間の検出の流れを示すフローチャートである。図7を参照して、注視点検出部3は、ディスプレイ2に表示されたシミュレーション映像における、評価対象者の基準注視点を検出する(S131)。注視時間検出部72は、該基準注視点に対して、該基準注視点を含むように所定領域を設定する(S132)。注視点検出部3は、該基準注視点からサンプリング周期△tだけ経過したときの注視点を検出する(S133)。注視時間検出部72は、この注視点が該所定領域に含まれるかを判定する(S134)。
サンプリング周期△t後の注視点が所定領域に含まれる場合(S134でYES)、注視時間に△tを加算し(S135)、シミュレーション映像が終了したかを判定する(S136)。シミュレーション映像が終了していないと判定された場合(S136でNO)、注視点検出部3は、さらにサンプリング周期△t後の注視点を検出する(S133)。一方、シミュレーション映像が終了したと判定された場合(S136でYES)、注視時間の検出を終了する。
サンプリング周期△t後の注視点が所定領域に含まれない場合(S134でNO)、これまで加算した注視時間を保存してリセットし(S137)、シミュレーション映像が終了したかを判定する(S138)。なお、注視時間が加算されていない場合、注視時間=0として保存する。シミュレーション映像が終了していないと判定された場合(S136でNO)、注視点検出部3は、基準注視点を検出する(S131)。一方、シミュレーション映像が終了したと判定された場合(S138でYES)、注視時間の検出を終了する。
再び図6を参照して、注視時間の検出が終了すると、視界領域判定部73は、評価対象者が3つの視界領域A1~A3のうちどの視界領域を注視していたかを、基準注視点ごとに判定する(S130)。なお、視界領域判定部73における判定方法については、上述したため、説明を省略する。
時間積算部74は、(1)注視時間検出部72において得られた、基準注視点a1、b1、c1と注視時間との対応関係と、(2)視界領域判定部73において得られた、視界領域A1~A3と基準注視点a1、b1、c1との対応関係と、に基づいて、視界領域A1~A3に応じたすべての注視時間を取得し、視界領域A1~A3ごとに積算する(S140)。なお、時間積算部74における算出方法については、上述したため、説明を省略する。
注視時間検出部72によって検出された注視時間と、時間積算部74によって検出された視界領域A1~A3ごとの注視時間と、に基づいて、第1評価値P1及び第2評価値P2を算出し(S150)、視認能力評価値Pを算出する(S160)。なお、第1評価値P1、第2評価値P2及び視認能力評価値Pの算出方法については、上述したため、説明を省略する。
なお、シミュレーション映像が終了したかの判定(S136、S138)は、S120~S150の間のいずれに配置されてもよい。すなわち、S136及びS138は、S130とS140との間に配置されてもよく、S140とS150との間に配置されてもよい。
本実施形態において、シミュレーション映像で設定される各視界領域には、この視界の方向で視認(直接的に視認)される映像が表示されるが、視界領域によっては、この視界の方向とは異なる方向で視認(間接的に視認)される映像が含まれることがある。例えば、図8に示すように、第2領域A2には、車内に設けられたルームミラーRMや、車両のインストルメントパネルに取り付けられたバックモニターBMが存在することがある。第2領域A2(ルームミラーRMやバックモニターBMを除く)には、車両の前方を視認(直接的に視認)したときの映像が表示されるが、ルームミラーRMには、ルームミラーRMを介して車両の後方を視認(間接的に視認)したときの映像が表示され、バックモニターBMには、車両に搭載されたカメラを介して車両の後方を視認(間接的に視認)したときの映像が表示される。なお、ルームミラーRMやバックモニターBMに限らず、車両の種類(例えば、バス、トラック、作業用途に応じた車両)に応じて、視界領域に、この視界の方向で視認される映像と、この視界の方向とは異なる方向で視認される映像との両方が含まれることがある。
ルームミラーRMやバックモニターBMに相当する領域に注視点が存在する場合と、第2領域A2(ルームミラーRMやバックモニターBMを除く)に注視点が存在する場合とでは、視認される映像が互いに異なる。この点を考慮して、上述した第1評価値P1を算出することができる。なお、第2領域A2において、ルームミラーRMやバックモニターBMに相当する領域は、シミュレーション映像を規定する2つの軸(具体的には、垂直方向(図8の上下方向)を規定する軸と、水平方向(図8の左右方向)を規定する軸)を座標軸とした座標位置に基づいて特定することができる。
第1評価値P1を算出するときにおいて、図8に示すルームミラーRMやバックモニターBMに相当する領域内に注視点が存在する場合には、ルームミラーRMやバックモニターBMを注視した時間は、第2領域A2を注視した時間T2から除外することができる。また、ルームミラーRMやバックモニターBMに表示される映像は、第1領域A1又は第3領域A3に含まれる映像であるため、ルームミラーRMやバックモニターBMを注視した時間は、ルームミラーRMやバックモニターBMに表示される映像が含まれる視界領域(第1領域A1又は第3領域A3)を注視した時間(時間T1又は時間T3)として算出することができる。すなわち、第2領域A2のうち、ルームミラーRMやバックモニターBMに相当する領域は、第1領域A1又は第3領域A3とみなすことができる。
第1評価値P1は、上述したとおり、視界領域ごとの注視時間の偏り(評価対象者が車両周囲をバランスよく確認しているか)を評価する指標であるが、視界領域に、この視界の方向とは異なる方向で視認される映像が含まれることを考慮して第1評価値P1を算出することにより、第1評価値P1の精度を向上させることができる。
なお、図3において、第1領域A1には、左サイドミラーT1に表示される映像が含まれるが、この映像は、第1領域A1に含まれる映像であるため、第1評価値P1を算出する上では、左サイドミラーT1を注視した時間と、第1領域A1のうち、左サイドミラーT1以外の領域を注視した時間とを区別しなくてもよい。一方、視覚領域の設定によっては、左サイドミラーT1を介して視認(間接的に視認)される映像と、左サイドミラーT1を介さずに視認(直接的に視認)される映像とが互いに異なる場合がある。この場合には、第1評価値P1の算出に用いられる視界領域ごとの注視時間として、左サイドミラーT1に相当する領域(視覚領域)を注視した時間と、左サイドミラーT1に相当する領域以外の領域(1つ又は複数の視覚領域)を注視した時間とを別々に算出することができる。なお、左サイドミラーT1に相当する領域は、上述したシミュレーション映像を規定する2つの軸を座標軸とした座標位置に基づいて特定することができる。
同様に、図3において、第3領域A3には、右サイドミラーT2に表示される映像が含まれるが、この映像は、第3領域A3に含まれる映像であるため、第1評価値P1を算出する上では、右サイドミラーT2を注視した時間と、第3領域A3のうち、右サイドミラーT2以外の領域を注視した時間とを区別しなくてもよい。一方、視覚領域の設定によっては、右サイドミラーT2を介して視認(間接的に視認)される映像と、右サイドミラーT2を介さずに視認(直接的に視認)される映像とが互いに異なる場合がある。この場合には、第1評価値P1の算出に用いられる視界領域ごとの注視時間として、右サイドミラーT2に相当する領域(視覚領域)を注視した時間と、右サイドミラーT2に相当する領域以外の領域(1つ又は複数の視覚領域)を注視した時間とを別々に算出することができる。なお、右サイドミラーT2に相当する領域は、上述したシミュレーション映像を規定する2つの軸を座標軸とした座標位置に基づいて特定することができる。
(第2実施形態)
図9は、第2実施形態に係る評価装置を有する評価システム(以下、単に評価システムと称す)を示す図である。なお、第2実施形態の構成要素のうち、第1実施形態の構成要素と同様の機能を有するものについては、同様の記号を付し、説明を省略するものとする。評価システム100は、HMD1aと、サーバ10と、表示装置20と、を有する。なお、HMDに限られず、例えば、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。HMD1a、サーバ10及び表示装置20は、ネットワークAを介して接続される。ネットワークAは、インターネット等のオープンネットワークであり、有線であるか無線であるかを問わない。HMD1aは、ディスプレイ2、注視点検出部3、送受信部8を有する。サーバ10は、記憶部6、制御部7を備える。記憶部6及び制御部7の各構成は、第1実施形態における記憶部6及び制御部7とそれぞれ同様であるため、説明を省略する。
HMD1aが備える送受信部8は、サーバ10が有する映像再生部71によってシミュレーション映像DB61から読みだされたシミュレーション映像を、ネットワークAを介してサーバ10から受信する。また、送受信部8は、ネットワークAを介して、注視点検出部3によって検出されたシミュレーション映像における注視点を、サーバ10が有する制御部7に送信する。
表示装置20は、例えば、複数の視聴者を収容した教室内に配置される。例えば、評価対象者の視認映像を、HMD1aの送受信部からネットワークAを介してサーバ10の記憶部6に保存し、その視認映像を、ネットワークAを介して表示装置20に表示させることができる。これにより、評価対象者以外の者が、表示装置20に表示された表示映像を見て追体験をすることができる。なお、評価対象者の視認映像は、サーバ10の記憶部6に保存せず、リアルタイムで表示装置20に表示するような構成としてもよい。
なお、サーバ10は、シミュレーション映像DB61を備える記憶部6と、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える制御部7と、を備える。そのため、サーバ10を、ディスプレイ2及び注視点検出部3を備える他の電子機器とネットワークAを介して接続した場合であっても、第1実施形態と同様に、視認能力評価値Pを算出し、車両の周囲を視認する能力を評価することができる。
(第3実施形態)
図10は、第3実施形態に係る評価装置を有する評価システムを示す図である。なお、第3実施形態の構成要素のうち、第2実施形態の構成要素と同様の機能を有するものについては、同様の記号を付し、説明を省略するものとする。評価システム200は、HMD1aと、管理端末30と、表示装置20と、を有する。なお、HMDに限られず、例えば、携帯端末(タブレットやスマートフォン)等の種々の電子機器を用いることができる。HMD1a及び管理端末30は、ネットワークBを介して接続される。ネットワークBはクローズドネットワークであり、有線であるか無線であるかを問わない。HMD1aは、ディスプレイ2、注視点検出部3、送受信部8を有する。管理端末30は、記憶部6と、制御部7と、を備える。
管理端末30と表示装置20とは、クローズドネットワークで繋がっている。管理端末30及び表示装置20を繋ぐクローズドネットワークは、有線であるか無線であるかを問わない。表示装置20は、例えば、複数の視聴者を収容した教室内に配置される。例えば、評価対象者の視認映像を、HMD1aの送受信部からネットワークBを介して管理端末30の記憶部6に保存し、その視認映像を表示装置20に表示させることができる。これにより、評価対象者以外の者が、表示装置20に表示された表示映像を見て追体験をすることができる。なお、評価対象者の視認映像は、管理端末30の記憶部6に保存せず、リアルタイムで表示装置20に表示するような構成としてもよい。
なお、管理端末30は、シミュレーション映像DB61を備える記憶部6と、映像再生部71、注視時間検出部72、視界領域判定部73、時間積算部74、評価値算出部75を備える制御部7と、を備える。そのため、管理端末30を、ディスプレイ2及び注視点検出部3を備える他の電子機器とネットワークBを介して接続した場合であっても、第1実施形態と同様に、視認能力評価値Pを算出し、車両の周囲を視認する能力を評価することができる。
上述の評価装置1又は評価システム100、200を構成する各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行することで、各部の機能を動作させることができる。
また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータ(例えば、サーバ10)に提供することも可能である。コンピュータ読取可能な記録媒体としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。
1:評価装置 2:ディスプレイ 3:注視点検出部 10:サーバ 30:管理端末 71:映像再生部 72:注視時間検出部 73:視界領域判定部 74:時間積算部 75:評価値算出部 100、200:評価システム A1:A2、A3:視界領域 a1、b1、c1:基準注視点

Claims (9)

  1. 車両の周囲を視認する能力を評価するための評価装置であって、
    ディスプレイと、
    予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部と、
    前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部と、
    前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
    前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
    前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
    前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された、前記基準となる注視点ごとの注視時間に基づいて、前記基準となる注視点ごとの注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、
    を備えることを特徴とする評価装置。
  2. 前記視界領域がn個に設定され、
    n個の前記視界領域のうち第i領域Aiを注視した時間をTi[s]とすると、前記第i領域Aiを注視した時間の割合γi[-]は、以下の式(i)で表され、
    γ1~γnのうち、基準値1/nとの差が最も大きいものをγmaxとすると、前記第1評価値は、以下の式(ii)で表される偏差Yを用いて算出されることを特徴とする請求項1に記載の評価装置。
    Figure 0007051254000011
  3. 前記視界領域が3個に設定され、前記第1評価値は、以下の式(iii)で算出されることを特徴とする請求項2に記載の評価装置。
    Figure 0007051254000012
    ここで、P1は前記第1評価値であり、γmaxはγ1~γnのうち、基準値1/nとの差が最も大きいものである。
  4. 第2評価値は、加点分の合計を示す第2評価加点値P2aと、減点分の合計を示す第2評価減点値P2bとから構成され、
    シミュレーション開始からi回目に発生した注視時間をti[s]、ti[s]に対する得点をpiとしたとき、ti[s]が第1閾値A以下であるときは、「注視時間が短い」としてpi=0とし、ti[s]が第1閾値Aより大きく第2閾値B以下であるときは、「適切な注視時間である」としてpi=bとし、ti[s]が第2閾値Bより大きく第3閾値C以下であるときは、「注視時間が長い」としてpi=cとし、ti[s]が第3閾値Cより大きいときは、「注視時間が過度に長い」としてpi=dとして(b>0、c,d≦0)、
    前記第2評価加点値P2aと、前記第2評価減点値P2bと、は以下の式(iV)、(V)でそれぞれ算出されることを特徴とする請求項1ないし3のいずれか1つに記載の評価装置。
    Figure 0007051254000013
  5. 前記第2評価値は、前記第2評価加点値P2aと、前記第2評価減点値P2bと、の和で算出されることを特徴とする請求項4に記載の評価装置。
  6. 前記視認能力評価値は、前記第1評価値と、前記第2評価値と、の和に基づいて算出されることを特徴とする請求項1ないし5のいずれか1つに記載の評価装置。
  7. 車両の周囲を視認する能力を評価するための評価システムであって、
    電子機器と、前記電子機器とネットワークを介して接続されるサーバと、を備え、
    前記電子機器は、
    ディスプレイを備え、
    前記サーバは、
    予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部を備え、
    前記電子機器はさらに、
    前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備え、
    前記サーバはさらに、
    前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
    前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
    前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
    前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された、前記基準となる注視点ごとの注視時間に基づいて、前記基準となる注視点ごとの注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、を備える
    ことを特徴とする評価システム。
  8. 車両の周囲を視認する能力を評価するための評価システムが備える評価サーバであって、
    前記評価システムはさらに、前記評価サーバとネットワークを介して接続される電子機器を備え、
    前記電子機器は、
    ディスプレイを備え、
    前記評価サーバは、
    予め複数の視界領域が設定されたシミュレーション映像を前記ディスプレイに表示させる映像再生部を備え、
    前記電子機器はさらに、
    前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出部を備え、
    前記評価サーバはさらに、
    前記注視点検出部によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出部と、
    前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定部と、
    前記注視時間検出部において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定部において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算部と、
    前記時間積算部によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出部によって検出された、前記基準となる注視点ごとの注視時間に基づいて、前記基準となる注視点ごとの注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出部と、を備える
    ことを特徴とする評価サーバ。
  9. コンピュータに、
    予め複数の視界領域が設定されたシミュレーション映像を、電子機器が備えるディスプレイに表示させる映像再生手段と、
    前記ディスプレイに表示された前記シミュレーション映像における、評価対象者の注視点を検出する注視点検出手段と、
    前記注視点検出手段によって検出された注視点に基づき、基準となる注視点ごとに、評価対象者の注視時間を検出する注視時間検出手段と、
    前記複数の視界領域のうち、評価対象者が注視していた視界領域を、前記基準となる注視点ごとに判定する視界領域判定手段と、
    前記注視時間検出手段において得られた、前記基準となる注視点と前記注視時間との対応関係と、前記視界領域判定手段において得られた、前記視界領域と前記基準となる注視点との対応関係と、に基づいて、前記視界領域に応じたすべての前記注視時間を取得し、前記視界領域ごとに積算する時間積算手段と、
    前記時間積算手段によって算出された前記視界領域ごとの注視時間に基づいて、前記複数の視界領域における前記視界領域ごとの注視時間の偏りを評価する第1評価値を算出し、前記注視時間検出手段によって検出された、前記基準となる注視点ごとの注視時間に基づいて、前記基準となる注視点ごとの注視時間の妥当性を評価する第2評価値を算出し、前記第1評価値及び前記第2評価値に基づいて、車両の周囲を視認する能力を評価するための視認能力評価値を算出する、評価値算出手段と、
    を実行させることを特徴とする評価プログラム。
JP2020047687A 2020-03-18 2020-03-18 評価装置、評価システム、評価サーバ及び評価プログラム Active JP7051254B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047687A JP7051254B2 (ja) 2020-03-18 2020-03-18 評価装置、評価システム、評価サーバ及び評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047687A JP7051254B2 (ja) 2020-03-18 2020-03-18 評価装置、評価システム、評価サーバ及び評価プログラム

Publications (2)

Publication Number Publication Date
JP2021148907A JP2021148907A (ja) 2021-09-27
JP7051254B2 true JP7051254B2 (ja) 2022-04-11

Family

ID=77848763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047687A Active JP7051254B2 (ja) 2020-03-18 2020-03-18 評価装置、評価システム、評価サーバ及び評価プログラム

Country Status (1)

Country Link
JP (1) JP7051254B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917925B1 (ko) * 2016-09-20 2018-11-12 현대제철 주식회사 주형 조형장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000278A (ja) 2009-06-18 2011-01-06 Honda Motor Co Ltd 視認行動情報提示装置
JP2016095571A (ja) 2014-11-12 2016-05-26 いすゞ自動車株式会社 車両の運転評価装置、並びに車両の運転評価方法
JP2018097515A (ja) 2016-12-12 2018-06-21 株式会社デンソーアイティーラボラトリ 運転支援装置、運転支援方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257310B2 (ja) * 1994-12-22 2002-02-18 トヨタ自動車株式会社 漫然運転検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000278A (ja) 2009-06-18 2011-01-06 Honda Motor Co Ltd 視認行動情報提示装置
JP2016095571A (ja) 2014-11-12 2016-05-26 いすゞ自動車株式会社 車両の運転評価装置、並びに車両の運転評価方法
JP2018097515A (ja) 2016-12-12 2018-06-21 株式会社デンソーアイティーラボラトリ 運転支援装置、運転支援方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101917925B1 (ko) * 2016-09-20 2018-11-12 현대제철 주식회사 주형 조형장치

Also Published As

Publication number Publication date
JP2021148907A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
CN103500331B (zh) 提醒方法及装置
CN103431840B (zh) 眼睛光学参数检测系统及方法
EP2891953B1 (en) Eye vergence detection on a display
US10182720B2 (en) System and method for interacting with and analyzing media on a display using eye gaze tracking
US7889244B2 (en) Image processing apparatus
CN103605208B (zh) 内容投射系统及方法
EP3575926B1 (en) Method and eye tracking system for providing an approximate gaze convergence distance of a user
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
CN107272194A (zh) 抬头显示装置及其方法
CN103530623A (zh) 信息观察方法及信息观察装置
GB2449855A (en) System and method for measuring pupillary distance
CN111886564A (zh) 信息处理装置、信息处理方法和程序
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7051254B2 (ja) 評価装置、評価システム、評価サーバ及び評価プログラム
JP5644414B2 (ja) 覚醒度判定装置、覚醒度判定方法及びプログラム
WO2020208804A1 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
CN111417885B (zh) 用于确定增强现实眼镜的姿态的系统和方法
JP4336854B2 (ja) 視線表示装置および痴呆症診断装置
CN113827244A (zh) 驾驶员视线方向的检测方法、监控方法、系统和装置
CN115246405A (zh) 一种驾驶员分心行为的检测方法及系统
JP7100100B2 (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2020161002A (ja) 映像表示システム、運転シミュレータシステム、映像表示方法、及びプログラム
US11740478B2 (en) Display device, control method thereof, and recording medium
WO2024071298A1 (ja) 運転支援装置

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7051254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150