JP2019159518A - 視認状態検知装置、視認状態検知方法および視認状態検知プログラム - Google Patents

視認状態検知装置、視認状態検知方法および視認状態検知プログラム Download PDF

Info

Publication number
JP2019159518A
JP2019159518A JP2018042591A JP2018042591A JP2019159518A JP 2019159518 A JP2019159518 A JP 2019159518A JP 2018042591 A JP2018042591 A JP 2018042591A JP 2018042591 A JP2018042591 A JP 2018042591A JP 2019159518 A JP2019159518 A JP 2019159518A
Authority
JP
Japan
Prior art keywords
visual
difficulty
target
state detection
visual recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018042591A
Other languages
English (en)
Inventor
内海 章
Akira Uchiumi
章 内海
栄穂 阪口
Eiho Sakaguchi
栄穂 阪口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2018042591A priority Critical patent/JP2019159518A/ja
Publication of JP2019159518A publication Critical patent/JP2019159518A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ターゲットの視認難易度と視線挙動の特性に基づいて、視認の有無を推定することが可能な視認状態検知装置を提供する【解決手段】対象者2の視認の状態を検知するための視認状態検知装置1000は、対象者2にとっての視認の対象物4を含む領域の画像を撮像するためのカメラ30と、対象者2の視線方向を検出するための視線検出部4004と、対象者2について、対象物4の視覚特性に与える要因と視認難易度との関係に基づき、カメラ30により撮像された画像中の対象物4の視認難易度を推定する視認難易度推定部4006と、カメラ30により撮像された画像における対象物4の位置と視線検出部4004により検出された視線方向を入力とする識別器により、視認の状態を判定する視認状態判定部4010とを備える【選択図】図1

Description

この発明は、対象者が、視覚対象を認知したか否かを判定する技術の分野に関する。
ヒトの注意を適切に誘導することが求められる場面は多い。たとえば、自動車の運転時において、歩行者などの注意すべき物体に運転手の注意を適切に誘導することは、運転の安全性を向上させる上で重要である。
そのため運転手の注意を誘導する方法について、これまでに多くの検討がなされている(非特許文献1、非特許文献2)。自動車の運転時のように刻々と変化する状況に応じて歩行者などの注意すべき物体に運転手の注意を誘導し、視覚的な気づきを効率的に誘発させるには、注意誘導の方法に加えて視覚的な気づきの生起を検知する手段が重要となる。
ここで、本明細書においては、「視認」とは、人がターゲットを視覚的に認識することをいうものとする。また、「視認推定」とは、視覚的な認識の検知をいうものとする。
対象者の視認を検知できれば、不必要な誘導を避けた効率の良い情報呈示を実現できる可能性があることになる。たとえば、対象者が運転手の視認推定のために、顔方向や頭部姿勢に基づいて運転手の注意状態を推定する研究がなされている(非特許文献3)。
また、特許文献1では、監視対象者の視認領域を推定する視認領域推定装置において、撮像環境に拘わらず視認領域をより良好に推定できるようにするための視線推定装置が開示されている。
特許文献1に開示の安全確認警報装置においては、時系列に従って監視対象者の顔が撮像された複数の撮像画像を取得し、取得した複数の撮像画像に基づいて、監視対象者の顔の向き、および監視対象者の顔の向きの変化が停止または略停止している時間を表す滞留時間を検出する。そして、監視対象者の顔の向き、および滞留時間を含むパラメータに基づいて、視認領域を推定する。このような安全確認警報装置によれば、監視対象者の眼球の位置よりもより認識が容易な顔の向きとその滞留時間とから視認領域を推定するので、眼球の位置が認識できない場合であっても視認領域をより安定に推定することができる、とされている。
しかしながら、このような頭部姿勢や顔方向に基づいた注意状態の推定では、大まかな注意の方向は推定可能であるが、注意方向に存在する物体を実際に視認したか否か推定することは困難である。
そこで、より詳細に注意方向の視覚ターゲットの視認の有無を推定するために視線情報を用いる方法も検討されている(非特許文献4、非特許文献5)
特開2015-102498号公報明細書
Arun,S.,M. Murugappan,and Kenneth Sundaraj."Hypovigilance warning system: A review on driver alerting techniques." Control and System Graduate Research Colloquium (ICSGRC),IEEE,2011.
高橋宏、"まさかに備える自動車安全技術"、信学技報、SSS、安全性、111(221)、PP.17-20,2011.
Meers,Simon,and Koren Ward,"Head pose tracking with a time-of-flight camera",Proceedings of the Australian Conference on Robotics and Automation,pp. 113-116,2008.
Ashish Tawari,Andreas Mogelmose,Sujitha Martin,Thomas B. and Moeslund,Mohan M.Trivedi,"Attention estimation by simultaneous analysis of viewer and view"Proc. 17th Int.IEEE ITSC,Oct.2014
Fletcher,Luke,and Alexander Zelinsky."Driver intention detection based on eye gaze−Road event correlation." The international journal of robotics research 28.6 (2009): pp.774-801.
しかしながら、上述したような視線情報を用いる方法では、ターゲット周囲の領域に一定時間注視点が重なることや、注視点がターゲット周囲の領域から移動したことが視認完了の条件とされており、ターゲットやターゲット周囲の視覚特性が考慮されていないことが問題である。
すなわち、上述したような従来の技術は、ターゲットの視覚特性に依らず一定の条件で視認を推定するため、ターゲットの視覚特性が大きく異なると視認の有無を適切に推定できない場合がある、という問題があった。
本発明の目的は、ターゲットの視認難易度と視線挙動の特性に基づいて、視認の有無を推定することが可能な視認状態検知装置、視認状態検知方法および視認状態検知プログラムを提供することである。
この発明の1つの局面に従うと、対象者の視認の状態を検知するための視認状態検知装置であって、対象者にとっての視認の対象物を含む領域の画像を撮像するための撮像手段と、対象者の視線方向を検出するための視線検出手段と、対象者について、対象物の視覚特性に与える要因と視認難易度との関係に基づき、撮像手段により撮像された画像中の対象物の視認難易度を推定する視認難易度推定手段と、撮像手段により撮像された画像における対象物の位置と視線検出手段により検出された視線方向を入力とする識別器により、視認の状態を判定する視認状態判定手段とを備える。
好ましくは、視認難易度推定手段は、対象物の視覚特性に与える要因と視認難易度との関係を回帰した結果に基づき視認難易度を推定する。
好ましくは、対象物の視覚特性に与える要因は、対象物の、撮像された画像中における大きさおよび移動速度を含む。
好ましくは、視認難易度推定手段において、対象物の視覚特性に与える要因と視認難易度との関係の算出は、対象者個人ごとに実行される。
好ましくは、視認状態判定手段における識別器は、ニューラルネットワークである。
好ましくは、ニューラルネットワークに対する学習データは、入力データとして、複数の学習用対象物の各々について、視線検出手段が視線検出処理において抽出する頭部姿勢の情報と、視線情報および対象物の画像中の位置により算出される対象者の網膜座標中の学習用対象物の位置の情報と、学習用対象物についての視認難易度の情報を含み、教師データとして、予め対象者について取得された学習用対象物に対する視認情報を含む。
この発明の他の局面に従うと、対象者の視認の状態を検知するための視認状態検知方法であって、対象者について、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップと、対象者にとっての視認の対象物を含む領域の画像を撮像するステップと、対象者の視線方向を検出するステップと、予め算出した関係に基づき、撮像手段により撮像された画像中の対象物の視認難易度を推定するステップと、撮像された画像における対象物の位置と視線検出手段により推定された視線と、検出された視線方向を入力として、予め機械学習により学習された識別器により、視認の状態を判定するステップとを備える。
好ましくは、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップは、学習用対象物の視覚特性に与える要因と視認難易度との回帰により算出するステップを含み、対象物の視認難易度を推定するステップは、予め回帰にした結果に基づき、撮像された画像中の対象物の視認難易度を推定するステップを含む。
この発明のさらに他の局面に従うと、記憶装置と演算装置とを有するコンピュータに、対象者の視認の状態を検知するための視認状態検知を実行させるための視認状態検知プログラムであって、視認状態検知プログラムは、演算装置により、対象者について、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出して記憶装置に格納するステップと、撮像装置により、対象者にとっての視認の対象物を含む領域の画像を撮像するステップと、演算装置により、対象者の視線方向を検出するステップと、演算装置により、記憶装置に格納された予め算出した関係に基づき、撮像手段により撮像された画像中の対象物の視認難易度を推定するステップと、演算装置により、撮像された画像における対象物の位置と視線検出手段により推定された視線と、検出された視線方向を入力として、予め機械学習により学習された識別器により、視認の状態を判定するステップとを、実行させる。
好ましくは、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップは、学習用対象物の視覚特性に与える要因と視認難易度との関係を予め回帰により算出して記憶装置に格納するステップを含み、対象物の視認難易度を推定するステップは、演算装置により、記憶装置に格納された予め回帰にした結果に基づき、撮像手段により撮像された画像中の対象物の視認難易度を推定するステップを含む。
この発明によれば、ターゲットの視認難易度を考慮して、対象者の視認を推定するので、ターゲットの視覚特性が異なる場合でも、視認の有無を適切に推定することが可能である。
視認状態検知装置1000の構成を示す機能ブロック図である。 コンピュータシステム20のハードウェアブロック図である。 視認状態検知装置の主要機能の説明および検証を実行するためのシステムの構成を説明するための概念図である。 ヒトの中心視野、周辺視野および有効視野を示す概念図である。 ターゲットの視覚特性の要因と視認難易度の関係性を示す図である。 実験1で実験参加者に課した実験フローを示す図である。 視認難易度の要因と各要因の難易度のスコアを示す図である。 視線挙動を示す特徴量のうち、追従時間を示す概念図である。 視線挙動を示す特徴量のうち、最接近角度を示す概念図である。 視線挙動を示す特徴量のうち、最接近時の移動方向の類似度を示す概念図である。 視認難易度と視線挙動の特徴量との関係を示す図である。 実験3の実験フローを示す図である。 個人特化した視認難易度とターゲット視認時の視線挙動の関係性を分析するための実験のフローを説明するための図である。 視認難易度0.5の試行に関しての表示時間と正解率の関係を示す図である。 視認難易度と最接近角度との関係を示す図である。 識別に利用した入力特徴量の種類とk近傍探索法で得られた識別率を示す図である。 視認推定に用いるニューラルネットワークの構成を示す概念図である。 モニターと注視点の位置及び頭部座標との関係を示す概念図である。 ニューラルネットワークへの入力データを示す概念図である。 ニューラルネットワークへの入力データを示す概念図である。 ニューラルネットワークへの入力データを示す概念図である。 ニューラルネットワークの構成を示す図である。 学習処理におけるパラメータを示す図である。 ニューラルネットワークを用いた視認の認識の正解率を示す図である。 視認状態検知装置1000の処理を実行するために、コンピュータ2010が実行する処理を説明するフローチャートである。
以下、本発明の実施の形態の視認状態検知装置の構成について、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。
以下に説明するように、本実施の形態の視認状態検知装置は、ターゲットの視認の難しさを視認難易度と定義して、視覚ターゲットの視認難易度が視覚特性の違いによって変化するものとして考慮し、ターゲットの視認難易度と視線挙動特性に基づいて、視認の有無を推定する。
このようにして、より適切な視認推定が実現されることで、より効率的で快適な注意誘導システムに適用することが可能となる。
[実施の形態1]
以下、本発明の実施の形態にかかる「視認状態検知装置」について説明する。この視認状態検知装置は、パーソナルコンピュータ、カメラ付きの携帯情報端末、または、専用コンピュータ等、演算装置上で実行されるソフトウェアにより実現されるものであって、対象画像から視認の対象物を抽出し、さらに視認の対象物に基づいて、視認状態を推定するためのものである。
ただし、以下に説明する「視認状態検知装置」の各機能の一部または全部は、ハードウェアにより実現されてもよい。
なお、以下では、特に限定されないが、視認状態検知装置については汎用のコンピュータにより構成されるものとして説明するものの、具体的な状況を検討する際には、視認状態検知装置が、自動車の運転者について、視認推定をするものとして説明することとする。自動車の運転者について、視認推定をする場合は、上述のとおり、専用のコンピュータに実装される構成となることが想定される。
図1は、この視認状態検知装置1000の構成を示す機能ブロック図である。
以下では、視認状態検知装置が、ソフトウェアにより機能が実行されるコンピュータにより実現される構成を例にとって説明する。
図1を参照して、この視認状態検知装置を構成するシステム1000は、不揮発性の記憶媒体からデータやプログラムを読み取るためのドライブ装置を備えたコンピュータ本体20と、コンピュータ本体20に接続され、画像を取込むためのカメラ30およびカメラ32とを含む。
ここで、カメラ30は、対象者(たとえば、運転手)2にとっての視認の対象物4を含む領域の画像を撮像するものであり、カメラ32は、対象者2の視線を検出するために対象者2の顔および頭部を含む画像を撮像するものとする。
また、この実施の形態の装置では、各カメラ30,32としては、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)センサのような固体撮像素子を含むカメラを用いることができる。
まず、カメラ30による撮像は、対象者2に対して、対象物4の位置を検出するためのものであって、たとえば、光学画像を撮像するステレオカメラを利用することが可能である。ただし、ステレオカメラに限定されるものではなく、対象の位置を計測できるセンサであれば、画像センサ、ミリ波レーダーなどのセンサを用いる構成であってもよい。
また、上述したようなカメラ32(単眼でもよいし、ステレオカメラでもよい)により対象者2の視線を検出するための技術としては、たとえば、以下の文献に開示がある。
文献1:特開2014-194617号公報
文献2:特開2012-216180号公報
また、距離画像センサを用いて、視線方向を検出する技術としては、以下の文献に開示がある。
文献3:特開2015-194838号公報
なお、上述するように、視線方向の検出にあたっては、対象者2の頭部姿勢の情報を用いることができる。このような頭部姿勢の情報の取得についても、上記の文献1〜3に記載の技術を用いることが可能である。また、視認の対象物4が対象者2の有効視野内に入っているかどうかを判断する情報として、対象物4が対象者2の網膜上に結ぶ像の網膜座標上の位置を用いることも可能であり、後述するように、上記頭部姿勢の情報と、視認状態の判定の入力データとして使用することが可能である。
ただし、後述するように、対象者2の視線の検知のための手法としては、上記のように対象者2の顔および頭部を撮像等して、顔画像中の眼の画像や推定される頭部姿勢に基づいて、視線を推定するという方法に限られず、たとえば、眼鏡型の視線推定装置など他の方法を用いるものであってもよい。ただし、運転者を対象者2とするような応用用途では、対象者2への負担を軽減するという観点から、カメラ32の撮像画像や距離画像センサに基づく方法が望ましい。
また、コンピュータ20中の演算装置(CPU)2040が処理を実行するためのプログラムやデータを格納するための不揮発性記憶媒体としては、SSD(Solid State Drive)やフラッシュメモリのような半導体素子であってもよいし。あるいは、CD−ROM(Compact Disc Read-Only Memory )またはDVD−ROM(Digital Versatile Disc Read-Only Memory)のような光学ディスクなどであってもよい。
コンピュータ20は、カメラ30およびカメラ32からの画像データを取り込むための画像入力インタフェース2092と、プログラムに基づいて、後述するような各種の演算処理を実行するためのCPU2040と、記憶装置2080とを含む。
記憶装置2080は、CPU2040の処理の実行を指示するための処理プログラム2082と、後述するように、視認状態を判定するために使用する識別器を特定するための識別器情報2084と、対象者2の個人の視認特性を特定するための個人特化情報2086とを格納する。
CPU2040の達成する機能は、画像入力インタフェース2092からカメラ30の画像情報を受け取り、視認対象物を抽出する対象物抽出部4002と、画像入力インタフェース2092からカメラ32の画像情報を受け取り、対象者2の視線を検出する視線検出部4004と、対象物抽出部4002により抽出された対象物の情報に基づいて、当該対象物の視認難易度を推定する視認難易度推定部4006と、対象物抽出部4002により抽出された対象物の情報に基づいて、当該対象物の位置の情報を取得する視認対象位置取得部4008と、視線検出部4004からの視線検出結果と、視認難易度推定部4006および視認対象位置取得部4008からの情報にもとづいて、識別器情報2084を用いて、後述するような方法で、視認状態を判定する視認状態判定部4010と、視認状態判定部4010の判定結果により、対象者2の注意を誘導する注意誘導処理部4012とを含む。「対象物の位置」の情報は、対象者2の頭部座標系において、検出された視線方向と対象物の方向とがなす角度を検知することに用いられる。
注意誘導処理部4012による注意誘導の方法としては、特に限定されないが、たとえば、視認すべき対象物が検出されているにもかかわらず、対象者2の視認が検出されないときは、音声により注意を促す、などの方法が想定される。
ここで、画像情報から対象物や、後述するような対象物の周りの情報を検出する技術としては、特に限定されないが、たとえば、以下の文献に開示された技術を用いることができる。
文献4:秋田時彦、”周辺監視カメラによる画像認識用いた運転支援システム”、自動運転、先進運転支援システムの最新動向とセンシング技術、pp.128-135
文献5:Vijay John,Seiichi Mita,Zheng Liu and Bin Qi,”Pedestrian detection in thermal images using adaptive fuzzy C-means clustering and convolutional neural networks.” Machine Vision Applications (MVA),2015 14th IAPR International Conference on. IEEE,2015.
文献6:若山雅史、道満恵介、出口大輔、井手一郎、村瀬洋、玉津幸政、”大局的特徴として顕著性を利用した歩行者の視認性推定”,画像の認識・理解シンポジウム(MIRU2011)論文集,pp.1597−1603,2011
また、視認難易度の推定にあたっては、後述するように、ターゲット視認時の視線挙動とターゲットの大きさ・明るさ・速度・妨害の程度などの視覚特性の差異を生じさせる要因を用いることができる。
(ハードウェアの構成)
図2は、コンピュータシステム20のハードウェアブロック図である。
図2において、コンピュータ本体2010は、メモリドライブ2020、ディスクドライブ2030に加えて、CPU2040と、ディスクドライブ2030及びメモリドライブ2020に接続されたバス2050と、ブートアッププログラム等のプログラムを記憶するためのROM2060とに接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM2070と、アプリケーションプログラム、システムプログラム、及びデータを記憶するための不揮発性記憶装置(たとえば、ハードディスク(HDD))2080と、ネットワーク等を介して外部機器、たとえば、サーバ等と通信するための通信インタフェース2090と、カメラ30からの画像信号を受信するための画像入力インタフェース2092とを含む。
コンピュータシステム20に、本実施の形態の視認状態検知装置の機能を実行させるプログラムは、CD−ROM2200、またはメモリ媒体2210に記憶されて、ディスクドライブ2030またはメモリドライブ2020に挿入され、さらにハードディスク2080に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ本体2010に送信され、ハードディスク2080に記憶されても良い。プログラムは実行の際にRAM2070にロードされる。
コンピュータシステム20は、さらに、入力装置としてのキーボード2100およびマウス2110と、出力装置としてのディスプレイ2120とを備える。
上述したようなコンピュータシステム20として機能するためのプログラムは、コンピュータ本体2010に、情報処理装置等の機能を実行させるオペレーティングシステム(OS)は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム20がどのように動作するかは周知であり、詳細な説明は省略する。
また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
さらに、CPU2040も、1つのプロセッサであっても、あるいは複数のプロセッサであってもよい。すなわち、シングルコアのプロセッサであっても、マルチコアのプロセッサであってもよい。
[システムの各機能についての説明]
以下では、図1で説明した視認状態検知装置の構成のうち、主要な機能を実現するための詳細について説明する。
また、このような機能の実現性を確認するために、以下のような検証を行った結果についても説明する。
図3は、視認状態検知装置の主要機能の説明および検証を実行するためのシステムの構成を説明するための概念図である。
コンピュータ20については、図1および図2で説明したのと同様の構成である。
図3においては、カメラ30およびカメラ32も設けられているものの、対象者2の視線の検出や対象者2の視認対象となる領域の画像の取得は、主として、対象者2の装着する眼鏡型視線計測装置6により実行されるものとして説明する。
このような眼鏡型視線計測装置については、たとえば、以下の文献に開示がある。
文献7:特開2013-81762号公報
文献8:特開2014-215963号公報
文献9:特開2017-41123号公報
また、トビー・テクノロジー社製の商品名「Tobii Pro グラス 2」や、ナックイメージテクノロジー社製の商品名「アイマークレコーダEMR-9」などの装置によっても、視線検出を実行することが可能である。
特に限定されないが、このような眼鏡型視線計測装置6からコンピュータ20がデータを取り込む際には、無線インタフェース34を利用して実行する構成とすることが可能である。
また、以下では、対象者2の視認状態の検証を行うために、モニター5上に、対象物4が表示されるものとする。また、モニター5の4角には、マーカー3.1〜3.4が配置されており、取得された画像中のマーカーの配置の情報から逆算して、対象者2の頭部姿勢が推定されるものとする。マーカー3.1〜3.4としては、特に限定されないが、たとえば、赤外線LEDを用いることができる。
(視認推定)
運転中の運転者を対象者2として想定すると、運転者に呈示される情報には、自車の状態や車外環境の情報などが挙げられる。
たとえば、安全運転支援において重要となる視認の対象物としては、車外の歩行者や標識といった注意すべき物体の存在がある。このような情報を運転手の状態に応じて呈示するためには、運転手が注意すべき物体を確認したか否か推定することが必要となる。運転手が注意すべき物体を確認したことを適切に推定することが可能となれば、確認が完了した時点での情報呈示の停止が可能となることや、既に確認した物体に関する情報を呈示しないことが可能となり、不必要な誘導を避けた劾率的な情報提示が可能となる。
このような効率的な情報呈示によって運転手に負荷の少ない注意誘導が実現され、より快適で安全な運転につながると考えられる。
(視認と人の視覚野)
視覚による情報伝達は眼球前方の情報が眼球内の網膜上に投影され、視神経を通じて脳に伝達されることで人は外界を認知することができる。
眼球内の網膜は中心部だけ感受性が高いため視線方向の物体は解像度が高く細部まで認識可能となり、中心から離れるほど網膜上の物体の解像度は低下する。感受性が高い中心部を中心視野と呼び、その周囲から視界の端までの範囲を周辺視野と呼ぶ。中心部の解像度が高い部分はごく一部に限られているが、中心視野の部分でのみ物体の詳細な情報を認識しているわけではない。
図4は、ヒトの中心視野、周辺視野および有効視野を示す概念図である。
図4に示すように、中心視野の周囲の周辺視野の部分に有効視野と呼ばれる範囲が存在し、有効視野の部分においても物体をある程度認識することが可能である。
自動車の運転中の車外に存在する物体は自車に対して相対的に移動しており、運転手は移動する物体を視認することが必要とされる。一般的に移動する物体を視認する際には、人の眼球は追従眼球運動と呼ばれる運動を行い、ターゲットに対して注視点を追従させようとする。ただし、追従眼球運動中であってもターゲットの軌道と注視点の軌道は必ずしも一致せず、眼球の中心窩でターゲットをとらえ続けているわけではないことがわかっている。つまり、人は静止物体のみならず移動物体の視認においても、中心視野だけでなく有劾視野の範囲でも物体を認識していると考えられる。
[ヒトの物体に対する視覚特性]
(ターゲットの視覚特性と視認難易度)
実際の運転場面の中で運転手が見る景色は複雑であり、運転場面の中には注意すべき視覚ターゲットのみならず、ターゲットの視認を妨害する物体が存在する。運転手が注意すべきターゲットには、標識や歩行者、前走車、前走車のテールランプなどがある。妨害としては街路樹や壁、影などのターゲットの視認を妨害する要因も存在する。運転手にとってターゲットを視認する難しさは、ターゲットそのものの視覚特性に加えてターゲット周囲の妨害も影響する。本研究ではこのように様々な視覚特性によって変化するターゲットを視認する難しさを視認難易度と定義する。
視認難易度を変化させる視覚特性には、ターゲットの大きさ、背景とのコントラスト、妨害の程度、色、速度などの要因が挙げられる。
上述した文献4〜6にも開示されるとおり、自動運転技術のために自動車に画像センサやレーザセンサを設置し、車外の情報を収集・解析する研究が盛んに行われており、このような車外に存在するターゲットやその周囲の情報は十分に取得可能である。
(視認難易度とターゲット視認時の視線挙動の関係性)
以下ではターゲットの視認難易度とターゲット視認時の視線挙動の関係性を調べるため、抽象化して設計した実験タスクによって被験者実験を行う。
実験1では多数存在するターゲットの視覚特性の要因から大きさ、コントラスト、妨害の程度に着目する。これらの要因を変化させることでターゲットの視認難易度を変化させ、ターゲットを視認する際の視線挙動を分析する。
図5は、ターゲットの視覚特性の要因と視認難易度の関係性を示す図である。
図5に示すように、それぞれ大きさは大きいほど、コントラストは高いほど、妨害の程度は少ないほどターゲットの視認はより簡単になる。
(実験1:視覚ターゲットの視認難易度とターゲット視認時の視線挙動の関係)
まず、以下では、実環境を抽象化した実験によって、ターゲットの表示位置やパラメータを制御して視認難易度に関して得られたデータについて説明する。
実験1では、ディスプレイ上に表示するターゲット刺激は数字「0」〜「9」とし、「2」を認識ターゲットとする。
図6は、実験1で実験参加者に課した実験フローを示す図である。
図6に示すように、以下のような実験を行う。
すなわち、実験は背景が黒の画面内に
i)面の中心に固視点「+」を1.5[s]間表示し、実験参加者に固視点を注視させる。
ii)固視点を消失させ0.16[s]〜1.0[s]間待機する。
iii)覚ターゲットを中心から±5度以内の位置を表示開始位置として、4方向(右上、左上、左下、右下)のうちの1方向に移動させながら0.8[s]間表示する。実験参加者にはターゲット刺激が認識ターゲットと確実に視認したとき、可能な限り早くボタンで応答するよう指示した。
妨害刺激としてi)〜iii)の間、複数の「〇」の図形を図形毎にランダムな方向に常に移動させながら表示し続けた。iii)の次は再びi)に戻り、これを繰り返す。1セットあたり認識ターゲットが120回出現するまで繰り返し行い、休憩をはさみながら1人あたり3セット行った。
対象者は、図5に示した各要因をそれぞれ3段階(大きさ(視野角): 0.57、2.08,3.12度、輝度(背景に対するコントラスト): 50,150,255、妨害の程度:10,20,30[個])に変化させて表示した。ただし、i)〜iii)の期間で、妨害の大きさと輝度はターゲット刺激として同じレベルとし、妨害の表示パラメータ変更はi)のタイミングで行った。実験参加者にはi)のときに固視点を注視するよう指示したが、その後の視線挙動については一切指示をしなかった。実験参加者は26〜55歳の男女17を(男性1名、女性16名)である。
モニター5上にマーカー3.1〜3.4が設置されているので、視線計測装置の視野画像内に観測されたマーカー位置から頭部運動が推定される。算出した頭部姿勢と視野画像内の注視点位置からモニター5上の注視点を算出することができる。
(視認難易度の算出)
前節で述べた大きさ、輝度、妨害の程度の3つの要因の違いが視線挙動に与える影響を評価するために、実験1では呈示条件毎に、式(3.1)に示す認識タスクの誤答率に基づいて「視認の難易度」を定める。
実験1では視認難易度に影響を与える3つの要因の条件をそれぞれ3通りずつ変化させているため、27通りの呈示条件がある。以下の解析では着目する1つの要因以外の差異を無視して条件を満たすデータを抽出して解析する(例えば「大きさ」ついて分類する場合は「輝度」「妨害数」の差異は無視する)。
図7は、視認難易度の要因と各要因の難易度のスコアを示す図である。
図7に示すように、大きさ・妨害数についてはそれぞれターゲットが大きいほど、妨害数が少ないほど低い誤答率が得られる。
一方で、輝度については、本実験の条件では、誤答率の差異が小さい。
(解析対象とする視線挙動の特徴量)
解析では、以下に説明するように、視線挙動の中で追従時間、最接近角度、注視点とターゲットの動きの類似度の3項目について解析することとした。ターゲットの視認難易度との関係を各項目について以下に説明する。
(a)追従時間Td
図8は、視線挙動を示す特徴量のうち、追従時間を示す概念図である。
追従時間はターゲットを視認するために注視点の追従を行った時間である(Fig.3.5(a))。実験1ではターゲットの表示開始位置を中心から±5度以内としているため、ターゲットの出現とほぼ同時に実験参加者はターゲットに気づくと考えられる。実験参加者にはターゲットを視認したら可能な限り早くボタンで応答するよう指示したため、実験1では表示開始からボタン応答までにかかった時間を視認に要した追従時間とした。ターゲットの視認難易度が高いほど、より確実に視認するために長い追従時間が必要になると考えられる。
(b)最接近角度θd
図9は、視線挙動を示す特徴量のうち、最接近角度を示す概念図である。
注視点がターゲットに最も接近した時の位置関係を表す。実験参加者の目の位置から注視点への方向ベクトルと、目の位置からターゲットへの方向ベクトルのなす角度を、最接近角度と呼ぶことにする。
ターゲットを視認する場合、ターゲットに対する注視が生じやすいと考えられることから、試行の中で注視点がターゲットに最も接近した時点の角度を解析対象とする。
(c)注視点とターゲットの動きの類似度θv
図10は、視線挙動を示す特徴量のうち、最接近時の移動方向の類似度を示す概念図である。
ターゲットと注視点の動きの関係性を解析するための特徴量として、ターゲットの移動方向ベクトルと注視点の移動方向ベクトルのなす角度の差を「動きの類似度」として採用する。視認時に近いタイミングでの移動方向の差を解析対象とするため、(b)の最も接近したときの移動方向の差をもとにする。
(実験2:視認難易度と視線挙動の特徴量の分析)
図11は、視認難易度と視線挙動の特徴量との関係を示す図である。
図11(a)は、視認難易度と追従時間(応答時間)の関係を示す。
縦軸は追従時間、横軸は視認難易度である。グラフは左側ほど簡単な試行であったことを表している。実験結果からターゲットの視認難易度が高いほど、反応までの時間が長くなっており、視認難易度と追従時間には直線的な関係が見られる。ここから視認が難しいターゲットであるほど時間をかけた追従が生じていることがわかる。
図11(b)は、視認難易度と最接近角度の関係を示す。
縦軸は最接近角度、横軸は視認難易度(誤答率)である。グラフは左側ほど簡単な試行であったことを表している。
実験結果からターゲットの視認難易度が高いほど、最接近角度が小さくなっており、追従時間と同様に直線関係であることがわかる。つまりターゲットの視認が難しいほど注視点をターゲット近くまで移動させる挙動が生じていることがわかる。
図11(c)は、視認難易度と注視点とターゲットの動きの類似度の関係を示す。
縦軸は注視点とターゲットの動きの類似度、横軸は視認難易度である。グラフは左側ほど簡単な試行であったことを表している。結果から視認難易度が高いほど、ターゲットに対してより平行に移動するような注視点の挙動が生じたことがわかる。
これら結果から、視認難易度(誤答率)と追従時間、最接近角度、注視点とターゲッ卜の動きの類似度との間にそれぞれ直線的な関係(相関)があることが確認された。このことは、ターゲットの視認難易度を推定することによってターゲットの運動と人の視線挙動の関係から視認の有無をより適切に推定できる可能性を示唆する。
一方で観察された視線挙動には大きなばらつきがあり、その原因は実験参加者間の個人差であると考えられる。安定した視認推定の実現には個人毎の視線挙動の特性を把握し、それを推定処理に反映させる手法の検討も必要となる可能性が高い。
実験1および実験2において、移動するターゲットを視認するタスクを実験参加者に課し、ターゲットの視認難易度とターゲットを視認する際の視線挙動との関係性を分析した。実験結果から、ターゲット視認タスクにおける視線挙動がターゲットおよびその周辺の視覚特性によって異なることわかった。視線挙動の違いは、ターゲッ 卜の認識率(認識タスクの誤答率)として定義される視認難易度と一定の関係性を持つことを確認された。
[視認難易度の個人特化]
実験1と実験2の結果を受けて、個人差による視線挙動のばらつきを軽減するため、視認難易度の個人特化方法について説明する。
このような個人差についての実験も、図3において説明したのと、同様な実験の構成で行う。
すなわち、自然な姿勢での計測とするため、視線の計測は眼鏡型の視線計測装置を用いて頭部非固定で行い、モニターの枠上に赤外線LEDを4個設置してマーカーとし、視線計測装置の視野画像内に観測されたマーカー位置を用いて頭部運動を推定した。算出した頭部姿勢と視線計測結果からモニター上の注視点を算出した。実験は暗環境で行った。
(個人差の計測)
(視認難易度の個人特化方法)
以下に説明するように、実験3によってあらかじめ個人特性を計測した後、実験4の解析時にターゲットの視認難易度を個人毎に算出することで視認難易度を個人特化する。
このようにして個人特化された視認難易度の情報は、図1の個人特化情報2086として使用される。
実験3および実験4では、実験参加者は37〜46歳の女性10名である。実験では視認難易度変化させるパラメータとしてターゲットの速度と大きさを用いた。速度はターゲットが移動することを前提としているため視認難易度に影響すると推測される。
(実験3:個人毎の視認特性の計測)
図11に示した実験2では、視認する際の最接近角度がターゲットの大きさによって変化することを示している。また、ターゲットの視認性と視線挙動の関係には、一般には、個人差があると考えられる。
実験3では、視認可能な有効視野、ターゲットへの追従能力の差異、大きさ及び速度に対する個人ごとの視認特性を計測する。
図12は、実験3の実験フローを示す図である。
図12に示すように、実験3の実験フローは以下のとおりである。
i)モニターに固視点を表示し、
ii)「▲」と「■」の図形を合計6個固視点の周囲に表示する。実験参加者には常に固視点を見続けるよう指示した。
iii)「■」の個数を答えさせる。周題の図形の大きさを2段階(視野角1.0,3.3度)、表示角度を3段階(視野角10,15,20度)、移動速度を3段階(視野角0,18,36[度/s])でそれぞれ変化させ、すべての組み合わせが10試行ずつ行われるよう合計180回行った。
要因の条件の組み合わせは18種類あり、それぞれの誤答率を基に個人特性を抽出する。速度と大きさを誤答率の従属変数として、実験参加者毎に重回帰分析により式(4.1)の各パラメータA,B,Cを求めた。次節に述べる実験2の解析において、実験タスクの呈示条件(速度、大きさ)から式(4.1)によって実験参加者毎の視認難易度を算出し、視認難易度の個人特化を行う。
すなわち、個人ごとに、このパラメータA,B,Cの大きさが変化することになる。
なお、誤答率(視覚難易度)を回帰する式としては、必ずしも上記のような線形関係だけに限定されるものではない。速度が大きいほど、誤答率が高くなり、ターゲットの大きさが大きいほど、誤答率が低くなる関係式であれば、他の実験式を用いることも可能である。あるいは、上記のような回帰式に限られず、たとえば、ニューラルネットの入力として、ターゲットの速度、大きさ、対象物から所定の範囲内にある妨害物の数などを入力として、誤答率を出力とするように、機械学習を行ってもよい。さらに、このような誤答率を算出する実験としては、今回のような抽象的な情報の呈示ではなく、より現実の状況に近い画像を対象者に提示することで、上記のような回帰関係を得ることとしてもよい。
このようにして、予め特定の対象者に対して、誤答率(視認難易度)の回帰関係を求めた関係式や、ニューラルネットの構成や重み係数を、図1に示した個人特化情報2086として、記憶装置2080内に格納しておく。
そして、視認対象となる物体(ターゲット)の速度や大きさといったような視認の難易度に影響を与える要因について、「視認難易度」を定義することで、個々の対象者の視力や年齢等に影響されうる視認能力のレベルを統一的に扱うことが可能となる。
(実験4:速度と大きさを変化させたターゲット視認実験)
図13は、個人特化した視認難易度とターゲット視認時の視線挙動の関係性を分析するための実験のフローを説明するための図である。
実験回数は1人当たり300試行とした。ターゲット刺激の大きさ(視野角0.8〜2.5度)と速度(0〜48[度/s])を変化させることでターゲットの視認難易度を変化させた。
i)固視点を画面中心に1.0[s]表示する。
ii)画面のランダムな位置にターゲット刺激を表示する。
iii)ターゲット刺激が何か回答させる。この時、確実に図形が何か認識した場合のみ図形を選択させ、自信がない場合には「わからない」を選択するよう指示した。
ターゲット刺激は図形の6角形と7角形とした。
ここでは、最接近角度を用いて検討を行う。ターゲットを視認する際、ターゲットが十分に長い時間表示された時には注視点がターゲットに十分近くまで接近すると考えられ、最接近角度はターゲットの視認難易度に関わらず十分小さくなると考えられる。
そこで視認難易度を20段階に四捨五入して分割し、各視認難易度について表示時間毎の視認の成功率(正解率)の関係を分析した。
図14は、視認難易度0.5の試行に関しての表示時間と正解率の関係を示す図である。
表示時間が長いものほど正解率が高くなることがわかる。全ての視認難易度について、正解率が50%を初めて超えた時点までを視認動作を終えた時間とし、ターゲット刺激呈示開始から視認動作終了時点までの視線挙動を解析する。
(個人特化した視認難易度の評価結果)
図15は、視認難易度と最接近角度との関係を示す図である。
図15(a)は、視認難易度を個人特化した結果であり、実験3で実験参加者毎に抽出した大きさと速度と誤答率の相関関係から、実験4において実験参加者毎の視認難易度を求めた結果である。
図15(b)は、個人差を考慮しない場合の結果である。すなわち、実験3での誤答率を全実験参加者の平均値とし、大きさと速度と誤答率の関係式からターゲットの視認難易度を算出している。
図15においては、視認難易度を幅0.05毎の区間に分割し、区間毎に最接近角度の平均値、標準偏差を算出した。ただし、視認に成功した試行のみ解析対象とした。
図15(a)および(b)により個人特化の有無に関わらずターゲットの視認難易度が高い程、最接近角度が小さくなることがわかる。特に、視認難易度の高い条件において、実験参加者の個人差を考慮した場合、考慮しない場合に比べて最接近角度の標準偏差が小さい(p<0.01)。
したがって、対象者の個人特性を計測し、計測結果に基づいて対象者ごとにターゲット呈示条件と視認難易度の回帰関係を得る。その結果、視認難易度の個人差を考慮することで、特にターゲットの視認難易度が高い場合において個人差を考慮しない場合に比べて標準偏差がより小さくなることが確認された。
[視線挙動と視認難易度に基づく視認推定の評価]
以下では、リアルタイムでの視認状態を推定する手法について説明する。
すなわち、図1に示した視認状態判定部4010の実行する処理として、視線挙動を基に、機械学習によって視認の有無の推定を行う。
ここまでで、追従時間や最接近角度、最接近時の移動方向の類似度を視線挙動の1つとして解析した結果において、視認難易度の違いによって視認時の視線挙動が変化することが明らかになった。したがって、視認難易度の違いを考慮した視線挙動特性の解析によって、視認の有無の識別が可能になる。
(視線挙動と視認推定)
以下では、まず、視線挙動特徴に基づいて視認推定を行うために、機械学習手法として、k近傍探索法によって視認の有無を識別する手法について説明する。
視線挙動に関する特徴量としては、有効視野内にターゲットが存在した時間(追従時間)と最接近角度を算出し、視線挙動以外の特徴量であるターゲットの呈示パラメータ(大きさ、速度)、視認難易度と併せて識別に用いる。
以下では、追従時間の評価に用いる個人毎の有効視野の算出には、実験3で得られた式(4.1)の個人特性の算出方法に独立変数として刺激呈示距離を追加した式(5.1)を用い、重回帰分析により係数A,B,C,Dを求める。
有効視野は、実験3で得られたパラメータに基づいて、誤答率0.5になる時の刺激呈示位置として、式(5.2)により算出する。個人差を考慮しない場合は実験参加者全体の平均値から算出する。
図16は、識別に利用した入力特徴量の種類とk近傍探索法で得られた識別率を示す図である。
k近傍探索法のkの値は識別率が最大となるようチューニングし、k=17とした。実験結果より、特徴量として最接近角度のみを用いた場合の識別率は約59%であった。個人差を考慮しない追従時間のみを用いた場合の識別率は64%程度である。個人特化したターゲットの視認難易度を特徴量として加えることで、視線挙動特徴のみの場合と比べ約8%識別率が向上した。実験結果から、ターゲットの視認難易度を用いた個人特性を特徴量とすることは、視認の有無の識別に有効であることが確認された。また、視線挙動特徴の中では、特に追従時間が視認の有無の識別に重要であることが示された。
(ニューラルネットワークによる視認推定)
上述した種類の視線挙動特徴は計測データを解析するなかで視認の有無を識別する上で特に重要度が高いと考えられた情報を抽出すること意図して定義したものであり、視線挙動に含まれる情報の全てを表すものではない。
以下では、上記の解析で用いた特徴以外の視線挙動が識別に寄与する可能性を検討するため、ニューラルネットワークを利用して各時刻の視線挙動(注視点軌跡)自体を入力特徴とした識別器を生成し、本節で示した視線挙動特徴を用いた識別手法に対する識別性能の向上の有無を確認する。
図17は、視認推定に用いるニューラルネットワークの構成を示す概念図である。
ニューラルネットワークは、図17(a)に示すような構造を持ったm次元の入力ベクトルxとn次元の出力ベクトルyの関係を表すモデルを推定する。
図17(a)の左端は入力層、右端を出力層、その間を中間層(隠れ層)と呼ぶ。
一般的に入力ベクトルには特徴量と呼ばれる物理量が与えられ、分類問題の場合には出力層にラベルが与えられる。教師データに対して誤差が最小になるように重みwとバイアスbを変化させながら学習を行う手法である。
視認推定においては、対象とする注視点データは系列データであるため、時間方向の揺らぎに対してロバスト性を考慮し、畳み込みニューラルネットワーク(Convolution Neural Network、CNN)を利用する。
畳み込みニューラルネットワークとは、図17(b)のように畳み込み層とプーリング層の2種類の層を交互に積み重ねた構造を持ったニューラルネットワークである。
CNNは、特に画像認識分野でよく用いられており、高い認識性能を達成している。 CNNは、一般的に画像の縦横方向の特徴量を畳み込みすることで、位置に依存しない特徴の学習が可能となる。
一方で、時系列データを対象として時間方向のみに畳み込むニューラルネットワークとして、時間遅れニューラルネットワーク(Time Delay Neural Network、TDNN)と呼ばれる手法が提案されている。
TDNNについては、たとえば、以下の文献に開示がある。
文献10:久保陽太郎,”音声認識のための深層学習”、深層学習、近代科学社、2015,PP.195-201.
なお、時系列データを扱うためのニューラルネットワークとしては、TDNNに限定されるものではなく、たとえば、再帰型ニューラルネットワークなどを用いることも可能である。
TDNNにおいてもCNNと同様に時間方向に畳み込み演算を行い、最終ノードで時間方向に関して総和をとることで、どの時間に最も強くフィルターノードに反応したかという情報を捨て、時間方向の揺らぎに対してロバストな分類を実現できる。
視認推定で対象とする注視点データは系列データであるため、TDNNの考え方を利用して学習を行うことで、視認に関わる視線挙動のフィルターが生成され、総和プーリング処理によって時間方向にロバストになる。
(ニューラルネットワークによる識別器の評価実験)
実験4において実験参加者10名から収集した視線挙動データ合計3000回分を用いて、ニューラルネットワークによって視認推定を行う。
図18は、モニターと注視点の位置及び頭部座標との関係を示す概念図である。
顔がモニターの中心に向かって正面を向いている姿勢を基準に、頭部座標を設定する。
図19、図20、図21は、ニューラルネットワークへの入力データを示す概念図である。
図19に示すように、入力データとしては、(a)頭部姿勢の2次元系列データθvx,θvyと、図20に示すように(b)の頭部座標上の注視点角度の2次元系列データθhx,θhyと、図21示すように、(c)網膜座標上のターゲットの角度の2次元系列データθtx,θty及び視認難易度とターゲットの大きさ、速度のスカラー値とした。
頭部姿勢について、実験参加者は図19中のz方向の軸周りには頭部を回転させないと考え、図20のように上下左右方向の回転運動から頭部姿勢を算出した。
また、図20に示すように、注視点角度の2次元系列データは、視線計測装置に取り付けられたへッドマウントカメラによって観測された注視点の角度である。
さらに、図21に示すように、網膜座標上のターゲットの角度の2次元系列データは、モニターに設置したLEDマーカーを、視線計測装置に取り付けられたヘッドマウントカメラによって観測して頭部姿勢推定を行い、網膜座標上に変換した注視点を基準とするターゲットの角度である。
視認難易度はターゲットの大きさと速度を式(4.1)に与えることで、視認難易度のスカラー値を算出した。
実験データは各実験参加について300回の10人で合計3000回分であり、内訳は図13の実験フロ一iii)で、6角形もしくは7角形を選択し、正解であった「視認成功」数が1586であり、「わからなかった」を選択した「視認不成功」数が1192、その他に6角形もしくは7角形を選択し、不正解であった「間違い」数が222となっている。
図13に示す実験では、確実に視認した場合に正解と判断した方を選択するよう実験参加者に指示していたため、「間違い」のデータは除外し、「視認成功」と「視認不成功」のデータのみ利用することとした。入カデータは1[フレーム]刻みで最大が30[フレーム]であり、30[フレーム]未満のデータについては0−paddingしている。
学習データ不足を解消するために、全データを学習データとテストデータを分割した後、(i)時間が30[フレーム](0.5[s])以下の学習データについては、0−paddingのデータ位置を時間方向にデータをずらし、(ii)全ての学習データについて画面方向の軸に対して±30度以内でランダムに回転させ、(iii)全学習データについて左右対称に反転させて、学習データを増加させた。(i)、(ii)、(iii)によって合計で30倍に学習データを増加している。
(ネットワークの構造)
図22は、ニューラルネットワークの構成を示す図である。
入カデータは上述の6次元×30[フレーム]の180次元、視認したか否かの2値分類問題であるため、カテゴリ数は2となり、入力層180ユニット、出力層2ユニットである。中間層の深さや全結合層のノード数、畳み込み層の種類はチューニングによって決定した。
図23は、その他の学習処理におけるパラメータを示す図である。
1層目の畳み込み演算において、頭部姿勢角度の2次元、注視点角度の2次元、網膜座標上のターゲットの角度の2次元、視認難易度の計6次元を1次元に畳み込み演算する。その後、畳み込み演算とプーリング演算を行い、全結合した後カテゴリに分類するネットワークとなっている。視認難易度、大きさ、速度のスカラー値は、全結合層の直前にそれぞれのノー ドを追加した。
(識別性能の評価結果)
図24は、ニューラルネットワークを用いた視認の認識の正解率を示す図である。
識別率は、k-fold交差検証を使用し、k=10として得られた結果である。
視線挙動とターゲットの動きから推定する場合の正解率は0.661、実験参加者の個人差を考慮しない視認難易度を利用した場合の正解率は0.686、視認難易度を個人特化した場合の正解率は0.768となった。
この結果から、ターゲットの視認難易度を入力に加えることで、視認推定の精度が約2%向上する結果となった。さらにターゲットの視認難易度を個人特化することで、個人差を無視した場合と比べて約8%精度が向上する結果となった。ターゲットの視認難易度を特徴量として加えることで、より適切な視認推定が可能となることが示された。
以上説明したような一連の実験によって、ターゲット視認時の視線挙動ボターゲットの大きさ・明るさ・速度・妨害の程度などの視覚特性の差異を生じさせる要因には寄らずに定義される視認難易度によって変化することが確認された。
さらに、視覚ターゲットの動きと視線挙動から視認の有無を推定する手法について検討した。その結果、機械学習を用いた手法によって、約77%の精度で視認の有無を推定できることを確認した。個人差を考慮した視認難易度を入力情報に加えることで、視認難易度を考慮しない場合に比べ約10%以上、推定精度が向上することがわかった。このことは視認推定における視認難易度の有効性を示している。
図25は、視認状態検知装置1000の処理を実行するために、コンピュータ2010が実行する処理を説明するフローチャートである。
図25を参照して、まず、演算装置2040は、視認対象の視覚特性の要因(ターゲットの大きさ、速度等)に対する視認難易度を回帰関係として対象者ごとに特定する(S100)。
続いて、演算装置2040は、視認難易度と頭部姿勢情報および視線推定による注視位置情報を入力として、視認を判定する識別器を機械学習で生成する(S200)。
さらに、演算装置2040は、図1に説明したような機能ブロックに基づいて、リアルタイムに入力される対象者の視認対象画像情報および視線検出情報に基づき、学習した識別器により、視認の有無を判別する(S300)。
そして、演算装置2040は、判別された視認の有無に応じて、注意を誘導する(S400)。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
20 視認状態検知装置、30,32 カメラ、2010 コンピュータ本体、2020 光学ディスクドライブ、2030 光学ディスクドライブ、2040 CPU、2050 バス、2060 ROM、2070 RAM、2080 不揮発性記憶装置、2100 キーボード、2110 マウス、2120 ディスプレイ、2210 メモリカード、2092 画像入力インタフェース、4002 対象物抽出部、4004 視線検出部、4006 視認難易度推定部、4008 視認対象位置取得部、4010 視認状態判定部、4012 注意誘導処理部。

Claims (10)

  1. 対象者の視認の状態を検知するための視認状態検知装置であって、
    前記対象者にとっての視認の対象物を含む領域の画像を撮像するための撮像手段と、
    前記対象者の視線方向を検出するための視線検出手段と、
    前記対象者について、対象物の視覚特性に与える要因と視認難易度との関係に基づき、前記撮像手段により撮像された画像中の前記対象物の視認難易度を推定する視認難易度推定手段と、
    前記撮像手段により撮像された画像における前記対象物の位置と前記視線検出手段により検出された視線方向を入力とする識別器により、視認の状態を判定する視認状態判定手段とを備える、視認状態検知装置。
  2. 前記視認難易度推定手段は、対象物の視覚特性に与える要因と視認難易度との関係を回帰した結果に基づき視認難易度を推定する、請求項1記載の視認状態検知装置。
  3. 前記対象物の視覚特性に与える要因は、前記対象物の、前記撮像された画像中における大きさおよび移動速度を含む、請求項1または2記載の視認状態検知装置。
  4. 前記視認難易度推定手段において、対象物の視覚特性に与える要因と視認難易度との関係の算出は、前記対象者個人ごとに実行される、請求項1〜3のいずれか1項に記載の視認状態検知装置。
  5. 前記視認状態判定手段における識別器は、ニューラルネットワークである、請求項1〜4のいずれか1項に記載の視認状態検知装置。
  6. 前記ニューラルネットワークに対する学習データは、
    入力データとして、複数の学習用対象物の各々について、前記視線検出手段が視線検出処理において抽出する頭部姿勢の情報と、前記視線情報および前記対象物の前記画像中の位置により算出される前記対象者の網膜座標中の前記学習用対象物の位置の情報と、前記学習用対象物についての前記視認難易度の情報を含み、
    教師データとして、予め前記対象者について取得された前記学習用対象物に対する視認情報を含む、請求項5記載の視認状態検知装置。
  7. 対象者の視認の状態を検知するための視認状態検知方法であって、
    前記対象者について、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップと、
    前記対象者にとっての視認の対象物を含む領域の画像を撮像するステップと、
    前記対象者の視線方向を検出するステップと、
    前記予め算出した関係に基づき、前記撮像手段により撮像された画像中の前記対象物の視認難易度を推定するステップと、
    前記撮像された画像における前記対象物の位置と前記視線検出手段により推定された視線と、検出された視線方向を入力として、予め機械学習により学習された識別器により、視認の状態を判定するステップとを備える、視認状態検知方法。
  8. 前記学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップは、学習用対象物の視覚特性に与える要因と視認難易度との回帰により算出するステップを含み、
    前記対象物の視認難易度を推定するステップは、前記予め回帰にした結果に基づき、前記撮像された画像中の前記対象物の視認難易度を推定するステップを含む、請求項7記載の視認状態検知方法。
  9. 記憶装置と演算装置とを有するコンピュータに、対象者の視認の状態を検知するための視認状態検知を実行させるための視認状態検知プログラムであって、前記視認状態検知プログラムは、
    前記演算装置により、前記対象者について、学習用対象物の視覚特性に与える要因と視認難易度との関係を算出して前記記憶装置に格納するステップと、
    撮像装置により、前記対象者にとっての視認の対象物を含む領域の画像を撮像するステップと、
    前記演算装置により、前記対象者の視線方向を検出するステップと、
    前記演算装置により、前記記憶装置に格納された前記予め算出した関係に基づき、前記撮像手段により撮像された画像中の前記対象物の視認難易度を推定するステップと、
    前記演算装置により、前記撮像された画像における前記対象物の位置と前記視線検出手段により推定された視線と、検出された視線方向を入力として、予め機械学習により学習された識別器により、視認の状態を判定するステップとを、実行させる、視認状態検知プログラム。
  10. 前記学習用対象物の視覚特性に与える要因と視認難易度との関係を算出するステップは、学習用対象物の視覚特性に与える要因と視認難易度との関係を予め回帰により算出して前記記憶装置に格納するステップを含み、
    前記対象物の視認難易度を推定するステップは、前記演算装置により、前記記憶装置に格納された前記予め回帰にした結果に基づき、前記撮像手段により撮像された画像中の前記対象物の視認難易度を推定するステップを含む、請求項9記載の視認状態検知プログラム。
JP2018042591A 2018-03-09 2018-03-09 視認状態検知装置、視認状態検知方法および視認状態検知プログラム Pending JP2019159518A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018042591A JP2019159518A (ja) 2018-03-09 2018-03-09 視認状態検知装置、視認状態検知方法および視認状態検知プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042591A JP2019159518A (ja) 2018-03-09 2018-03-09 視認状態検知装置、視認状態検知方法および視認状態検知プログラム

Publications (1)

Publication Number Publication Date
JP2019159518A true JP2019159518A (ja) 2019-09-19

Family

ID=67996217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042591A Pending JP2019159518A (ja) 2018-03-09 2018-03-09 視認状態検知装置、視認状態検知方法および視認状態検知プログラム

Country Status (1)

Country Link
JP (1) JP2019159518A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192066A (zh) * 2021-05-28 2021-07-30 武汉长江通信智联技术有限公司 一种用于高速公路全天候的能见度估计方法的装置及方法
WO2021225166A1 (ja) * 2020-05-08 2021-11-11 大日本住友製薬株式会社 立体認知能力評価システム
WO2022264269A1 (ja) * 2021-06-15 2022-12-22 日本電信電話株式会社 学習装置、推定装置、それらの方法、およびプログラム
CN115775341A (zh) * 2023-02-13 2023-03-10 广州海昇计算机科技有限公司 一种实验设备状态检测方法及系统
WO2023058393A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021225166A1 (ja) * 2020-05-08 2021-11-11 大日本住友製薬株式会社 立体認知能力評価システム
JP6995255B1 (ja) * 2020-05-08 2022-01-14 大日本住友製薬株式会社 立体認知能力評価システム
CN113192066A (zh) * 2021-05-28 2021-07-30 武汉长江通信智联技术有限公司 一种用于高速公路全天候的能见度估计方法的装置及方法
WO2022264269A1 (ja) * 2021-06-15 2022-12-22 日本電信電話株式会社 学習装置、推定装置、それらの方法、およびプログラム
WO2023058393A1 (ja) * 2021-10-04 2023-04-13 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN115775341A (zh) * 2023-02-13 2023-03-10 广州海昇计算机科技有限公司 一种实验设备状态检测方法及系统
CN115775341B (zh) * 2023-02-13 2023-05-09 广州海昇计算机科技有限公司 一种实验设备状态检测方法及系统

Similar Documents

Publication Publication Date Title
EP3539054B1 (en) Neural network image processing apparatus
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
JP2019159518A (ja) 視認状態検知装置、視認状態検知方法および視認状態検知プログラム
CN112590794B (zh) 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置
CN107818310B (zh) 一种基于视线的驾驶员注意力检测方法
JP6577454B2 (ja) 軸上視線追跡システム及び方法
JP6322986B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110826370B (zh) 车内人员的身份识别方法、装置、车辆及存储介质
JP5127531B2 (ja) 画像監視装置
JP5598751B2 (ja) 動作認識装置
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
Bertoni et al. Perceiving humans: from monocular 3d localization to social distancing
CN113227878A (zh) 用于视线估计的方法和系统
JP6043933B2 (ja) 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN111563480A (zh) 冲突行为检测方法、装置、计算机设备和存储介质
JP2022033805A (ja) 無人車内の乗客状態の識別方法、装置、機器及び記憶媒体
JP2010191793A (ja) 警告表示装置及び警告表示方法
Dipu et al. Real-time driver drowsiness detection using deep learning
JP2019109843A (ja) 分類装置、分類方法、属性認識装置、及び機械学習装置
WO2018051836A1 (ja) 虹彩検出装置、虹彩検出方法、虹彩検出プログラム、及び虹彩検出プログラムを記録した記録媒体
Geisler et al. Real-time 3d glint detection in remote eye tracking based on bayesian inference
KR101877873B1 (ko) 공포 심리 분석 시스템 및 방법
KR20230077560A (ko) 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법