JP2023066923A - 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム - Google Patents
視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム Download PDFInfo
- Publication number
- JP2023066923A JP2023066923A JP2021177787A JP2021177787A JP2023066923A JP 2023066923 A JP2023066923 A JP 2023066923A JP 2021177787 A JP2021177787 A JP 2021177787A JP 2021177787 A JP2021177787 A JP 2021177787A JP 2023066923 A JP2023066923 A JP 2023066923A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- situation
- dangerous situation
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】運転者が認識しておらず車両としての回避動作もなかったが、実際には危険状況が発生していた場合に、当該危険状況の発生を当該運転者に認識させることが可能な視線情報処理装置等を提供する。【解決手段】車両の運転者の視線を示す視線情報を取得する視線センサ1と、車両の周囲状況を示す状況情報を取得するマイク2、カメラ2A及び近接センサ2Bと、取得された状況情報に基づいて、車両が関連する事故に至る可能性のある危険状況の発生を検出する周囲状況検出部3と、検出された視線を示す視線情報に基づき、危険状況が発生したときの視線における視点の位置と危険状況の発生位置との相違を判定する判定部4と、を備える。【選択図】図2
Description
本願は、視線情報処理装置、視線情報処理方法及び視線情報処理用プログラムの技術分野に属する。より詳細には、例えば車両等の移動体の搭乗者の視線を示す視線情報を用いた処理を行う視線情報処理装置及び視線情報処理方法、並びに当該視線情報処理装置において用いられる視線情報処理用プログラムの技術分野に属する。
近年、人の視線の方向や視線の位置(到達位置)を検出する技術が開発されており、これに伴って、当該検出結果を含む視線情報を活用した技術も開発されている。このような従来技術の一例を開示した先行技術文献としては、例えば下記特許文献1に記載された技術がある。
この特許文献1に開示されている従来技術では、自車両の前方に位置する衝突対象物を検出し、その衝突対象物と自車両との衝突を回避又は当該衝突による被害を軽減するための回避動作を自車両に実行させると共に、自車両の運転者の視線を検出する構成とされている。そして、回避動作を実行させた後に、回避動作の開始前に運転者の視線が衝突対象物の方を向いていたか否かに基づいて運転者の運転技量を評価する評価指標を算出し、その評価指標を運転者に告知し、且つ当該評価指標に基づいて運転支援の介入の度合いを変更する構成とされている。
ここで一般に、通常の車両の運行においては、「運転者は認識していないが、事故に至る可能性のある危険状況がその車両に発生していた」場合があり得る。より具体的には、「運転者が衝突対象物を認識しておらず、よって上記回避動作は行われない一方、幸いにも事故には至らなかったが、実際にはその車両の周囲又は周辺においてその車両が関連する事故に至る可能性がある危険状況が発生していた」場合があり得る。そしてこのような危険状況が発生していた場合、運転者はその危険状況の発生に気付いていないため、その視線も危険状況の方向又はその発生位置には向けられていないのが通常である。
他方、このような危険状況を発生させるような運転は、将来的には大きな事故に至る可能性がある運転であり、爾後の安全運転を考慮した場合には、当該危険状況が発生していたことを運転者に認識させる必要がある。このことは、従来から、「一回の現実の事故には、それまでの数十回、数百回の危険状況が潜んでいる」と言われていることを鑑みると、より強く要請されるものである。
しかしながら、上記特許文献1に記載されている技術では、運転者が衝突対象物を認識して回避動作等を行うことが前提となっており、上述したような「運転者の視線が指向されておらず、その危険状況が運転者によって認識されていなかった事態」についての検討は一切されていない。よって特許文献1に記載されている技術では、上記の課題及び要請に応じることはできないという問題点がある。
そこで、本願は上記の要請及び問題点に鑑みて為されたもので、その課題の一例は、運転者が認識しておらず車両としての回避動作もなかったが、実際には危険状況が発生していた場合に、当該危険状況の発生を当該運転者に認識させることが可能な視線情報処理装置及び視線情報処理方法、並びに当該視線情報処理装置において用いられる視線情報処理用プログラムを提供することにある。
上記の課題を解決するために、請求項1に記載の発明は、移動体を移動させている搭乗者の視線を示す視線情報を取得する視線情報取得手段と、前記移動体の周囲状況を示す状況情報を取得する状況情報取得手段と、前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を検出する危険状況検出手段と、前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を判定する判定手段と、を備える。
上記の課題を解決するために、請求項8に記載の発明は、視線情報取得手段と、状況情報取得手段と、危険状況検出手段と、判定手段と、を備える視線情報処理装置において実行される支線情報処理方法であって、移動体を移動させている搭乗者の視線を示す視線情報を前記視線情報取得手段により取得する視線情報取得工程と、前記移動体の周囲状況を示す状況情報を前記状況情報取得手段により取得する状況情報取得工程と、前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を前記危険状況検出手段により検出する危険状況検出工程と、前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を前記判定手段により判定する判定工程と、を含む。
上記の課題を解決するために、請求項9に記載の発明は、コンピュータを、移動体を移動させている搭乗者の視線を示す視線情報を取得する視線情報取得手段、前記移動体の周囲状況を示す状況情報を取得する状況情報取得手段、前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を検出する危険状況検出手段、及び、前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を判定する判定手段、として機能させる。
次に、本願を実施するための形態について、図1を用いて説明する。なお図1は、実施形態の視線情報処理装置の概要構成を示すブロック図である。
図1に示すように、実施形態の視線情報処理装置Sは、視線情報取得手段1と、状況情報取得手段2と、危険状況検出手段3と、判定手段4と、を備えて構成されている。
この構成において視線情報取得手段1は、移動体を移動させている搭乗者の視線を示す視線情報を取得する。
一方状況情報取得手段2は、上記移動体の周囲状況を示す状況情報を取得する。そして危険状況検出手段3は、状況情報取得手段2により取得された状況情報に基づいて、当該移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を検出する。
これらにより判定手段4は、危険状況検出手段3により検出された視線を示す視線情報に基づき、危険状況が発生したときの搭乗者の視線における視点の位置と危険状況の発生位置との相違を判定する。
以上説明したように、実施形態の視線情報処理装置Sの動作によれば、移動体の搭乗者の視線における視点の位置と、事故に至る可能性のある移動体の危険状況の発生位置との相違を判定するので、例えば、搭乗者が気付かなかった危険状況の発生を、当該危険状況発生以降において新たな事故に至る前に報知すること等が可能となる。
次に、上述した実施形態に対応する具体的な実施例について、図2乃至図4を用いて説明する。なお以下に説明する各実施例は、移動体の一例としての車両の運転者の視線を検出し、その検出結果を用いて当該運転者に種々の情報を提供する情報提供装置に対して本願を適用した場合の実施例である。このとき、上記運転者が本願の「搭乗者」の一例に相当する。
(I)第1実施例
初めに、上記実施形態に対応する第1実施例について、図2及び図3を用いて説明する。なお、図2は第1実施例の情報提供装置の概要構成を示すブロック図であり、図3は第1実施例の情報提供処理を示すフローチャートである。このとき図2では、図1に示した実施形態の視線情報処理装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該視線情報処理装置Sにおける各構成部材と同一の部材番号を用いている。
初めに、上記実施形態に対応する第1実施例について、図2及び図3を用いて説明する。なお、図2は第1実施例の情報提供装置の概要構成を示すブロック図であり、図3は第1実施例の情報提供処理を示すフローチャートである。このとき図2では、図1に示した実施形態の視線情報処理装置Sにおける各構成部材に対応する実施例の構成部材それぞれについて、当該視線情報処理装置Sにおける各構成部材と同一の部材番号を用いている。
図2に示すように、上記車両に搭載されている第1実施例の情報提供装置SSは、車両の運転者の視線を検出する視線センサ1と、マイク2と、カメラ2Aと、近接センサ2Bと、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等からなる処理部10と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等からなる不揮発性の記録部11と、操作ボタン又はリモコン等からなる操作部12と、液晶ディスプレイ等からなるディスプレイ13と、スピーカ14と、インターフェース15と、により構成されている。このときマイク2は、当該車両の車内の音を集音する車内マイク及び当該車両の車外の周囲の音を集音する外部マイクを含んでいる。またカメラ2Aは、上記車内の運転者等を撮像する車内カメラ及び上記周囲を撮像する車外カメラであってそれぞれがCCD(Charge Coupled Device)又はCMOS(Complementary Metal-Oxide -Semiconductor)撮像素子等からなる車内カメラ及び車外カメラを含んでいる。なお以下の説明において、実施例の情報提供装置SSが搭載されている車両を、単に「自車両」と称する。
また処理部10は、周囲状況検出部3と、判定部4と、視線検出部5と、判定結果処理部6と、により構成されている。このとき、周囲状況検出部3、判定部4、視線検出部5及び判定結果処理部6は、処理部10を構成する上記CPU等のハードウエアロジック回路により実現されてもよいし、後述する第1実施例の情報提供処理を示すフローチャートに対応するプログラムを記録部11から読み出して実行することにより、ソフトウェア的に実現されてもよい。そして、視線センサ1が実施形態の視線情報取得手段1の一例に相当し、マイク2、カメラ2A及び近接センサ2Bが実施形態の状況情報取得手段2の一例にそれぞれ相当する。また、周囲状況検出部3が実施形態の危険状況検出手段3の一例に相当し、判定部4が実施形態の判定手段4の一例に相当する。更に、ディスプレイ13及びスピーカ14が本願の「報知手段」の一例に相当し、処理部10が本願の「挙動検出手段」の一例及び「数値化手段」の一例にそれぞれ相当し、記録部11が本願の「記録手段」の一例に相当する。更にまた、図2に破線で示す通り、視線センサ1、マイク2、カメラ2A、近接センサ2B、周囲状況検出部3及び判定部4により、実施形態の視線情報処理装置Sの一例を構成している。
以上の構成において、視線センサ1は、自車両の運転者の視線を、例えば当該運転者の瞳孔の光学的な撮像等の従来と同様の方法により検出し、その検出結果を視線データとして処理部10の視線検出部5に出力する。このとき、視線センサ1の構成及び視線の検出方法自体は、基本的には従来の視線センサと同様のものが用いられる。また当該視線データには、検出された視線の方向を示す視線方向データが少なくとも含まれている。なおこのとき、当該視線の到達点としての視点の位置を示す視点位置データまでが視線データに含まれていてもよい。
一方、マイク2の上記外部マイクは、上記車外の周囲で発生している音(以下、当該音を「周囲音」と称する)を集音し、周囲音データを生成して処理部10の周囲状況検出部3に出力する。またマイク2の上記車内マイクは、上記車内で発生している音(以下、当該音を「車内音」と称する)を集音し、車内音データを生成して処理部10の周囲状況検出部3に出力する。
他方、カメラ2Aの上記車外カメラは、上記周囲を撮像し、その撮像結果としての車外撮像データを生成して視線検出部5及び周囲状況検出部3に出力する。また同様に、カメラ2Aの上記車内カメラは、上記運転者等を撮像し、その撮像結果としての車内撮像データを生成して視線検出部5及び周囲状況検出部3に出力する。
更に近接センサ2Bは、例えば超音波を用いた従来と同様の方法等により自車両の周囲に存在する周囲物体の存在及びその動き等を検出し、その検出結果を周囲物体データとして周囲状況検出部3に出力する。このとき上記周囲物体には、例えば、自車両の周囲を走行する他の車両や自転車、当該周囲を歩行する歩行者、或いは当該周囲に存在するその他の施設や標識等の地物が含まれる。
これらにより、先ず視線検出部5は、視線センサ1からの視線データと、上記車外カメラからの車外撮像データ及び上記車内カメラからの車内撮像データと、に基づき、上記運転者の視線の方向及び視点の位置を検出し、その検出結果を判定部4に出力する。
一方、周囲状況検出部3は、マイク2から出力された上記周囲音データ、カメラ2Aから出力された上記車外撮像データ及び近接センサ2Bから出力された上記周囲物体データに基づき、自車両の周囲で第1実施例の危険状況が発生している場合に当該危険状況を検出し、その検出結果を判定部4に出力する。
このとき、当該「危険状況」とは、例えば、自車両が関連する事故は発生していないが、当該事故に至る可能性のある自車両の周囲の状況である。より具体的には、以下の(i)乃至(iv)のような状況が自車両の周囲で発生した場合、それらは当該危険状況として周辺状況検出部3により検出される。
(i)自車両の周囲で検出された自転車の挙動が、自車両を回避したような挙動(例えば、急に方向変換したり、自車両が通過した後に転倒したりしていること等)であったことが上記周囲物体データから検出されたこと。
(ii)上記(i)の自転車の挙動が自車両を回避するために急ブレーキをかけたような挙動であり、そのブレーキ音が外部マイクにより集音されていたこと。
(iii)自車両の周辺を走行中の他の車両が急ブレーキで停止することで、そのブレーキ音が外部マイクにより集音されていたこと。
(iv)自車両の周囲の歩行者(通行人等)が自車両を避ける動作をしたりビックリしたような声を出しており、当該動作が周囲物体データから検出されたり、当該声が外部マイクにより集音されていたこと。
(i)自車両の周囲で検出された自転車の挙動が、自車両を回避したような挙動(例えば、急に方向変換したり、自車両が通過した後に転倒したりしていること等)であったことが上記周囲物体データから検出されたこと。
(ii)上記(i)の自転車の挙動が自車両を回避するために急ブレーキをかけたような挙動であり、そのブレーキ音が外部マイクにより集音されていたこと。
(iii)自車両の周辺を走行中の他の車両が急ブレーキで停止することで、そのブレーキ音が外部マイクにより集音されていたこと。
(iv)自車両の周囲の歩行者(通行人等)が自車両を避ける動作をしたりビックリしたような声を出しており、当該動作が周囲物体データから検出されたり、当該声が外部マイクにより集音されていたこと。
次に判定部4は、視線検出部5における検出結果及び周囲状況検出部3による危険状況の発生の検出結果に基づき、自車両の運転者の視線の方向及び視点の位置と、検出された危険状況の自車両の位置から見た発生方向及び発生位置とが、当該危険状況の発生時において相違していたか否かを判定し、その判定結果を判定結果処理部6に出力する。このとき判定部4は、自車両の運転者の視点の位置と、検出された危険状況の発生位置とが当該危険状況の発生時において相違していたか否かを少なくとも判定するように構成されてもよい。
その後判定結果処理部6は、判定部4からの判定結果に基づき、自車両の運転者の視線の方向及び視点の位置と危険状況の発生方向及び発生位置とが相違しているとき、当該相違していたことを示す情報を危険情報として記録部11に記録する。これに加えて判定結果処理部6は、当該危険状況が発生していた上に上記相違があった旨を、例えばスピーカ14を介した音声により、又はディスプレイ13を介した表示により運転者に報知する。
一方、操作部12は、情報提供装置SSを操作する上記運転者等による当該操作を受け付け、当該受け付けた操作に対応する操作信号を処理部10に出力する。また記録部11は、上記危険情報の記録の他に、上記プログラムを含んで第1実施例の情報提供処理を処理部10に実行させるための種々のデータを記録する。更にインターフェース15は、当該情報提供処理を実行するために必要なデータ等を、インターネット等の外部のネットワークを介して取得し、処理部10に出力する。更にまた、ディスプレイ13及びスピーカ14は、処理部10の制御の下、上記危険状況が発生していた上に上記相違があった旨の報知を行うほか、第1実施例の情報提供処理に必要な表示又は音声出力を行う。このとき、当該第1実施例の情報提供処理は、上記操作信号に基づいて実行される。
次に、処理部10を中心として実行される第1実施例の情報提供処理について、具体的に図2及び図3を用いて説明する。なお、第1実施例の情報提供処理は、自車両が移動を開始した以降、予め設定された時間ごとに開始される。
対応するフローチャートを図3に示すように、第1実施例の情報提供処理が上記既定時間ごとに開始されると、処理部10の視線検出部5は、上記視線データと、上記車外撮像データ及び上記車内撮像データと、に基づき、上記運転者の視線の方向及び視点の位置を検出し、その検出結果を判定部4に出力する(ステップS1)。
一方周囲状況検出部3は、上記周囲音データ、上記車外撮像データ及び上記周囲物体データに基づいて自車両の周囲状況を検出し(ステップS2)、更に当該周囲状況において上記危険状況の発生が検出されたか否かを判定する(ステップS3)。そして、当該ステップS3において危険状況の発生が検出された場合(ステップS3:YES)、周囲状況検出部3はその検出結果を判定部4に出力する。一方ステップS3の判定において、危険状況の発生が検出されない場合(ステップS3:NO)、処理部10は後述するステップS7に移行する。
他方、ステップS3の判定において、自車両の周囲で危険状況の発生が検出された場合(ステップS3:YES)、次に判定部4は、周囲状況検出部3からの判定結果に基づき、自車両の運転者の視線の方向等と、検出された危険状況の発生方向等とが、当該危険状況の発生時において相違していたか否かを判定する(ステップS4)。ステップS4の判定において、自車両の運転者の視線の方向等と危険状況の発生方向等とが相違していなかった場合(ステップS4:NO)、処理部10は後述するステップS7に移行する。一方、ステップS4の判定において、自車両の運転者の視線の方向等と危険状況の発生方向等とが相違していた場合(ステップS4:YES)、判定部4はその旨を示す判定結果を判定結果処理部6に出力する。これにより判定結果処理部6は、判定部4からの判定結果に基づき、上記危険状況が発生していた上に上記相違があった旨を、スピーカ14又はディスプレイ13を用いて運転者に報知する(ステップS5)。その後判定結果処理部6は、上記危険情報を生成して記録部11に記録する(ステップS6)。
その後処理部10は、自車両が目的地に到着する等の理由により第1実施例の情報提供処理を終了するか否かを判定する(ステップS7)。ステップS7の判定において、当該情報提供処理を継続する場合(ステップS7:NO)、処理部10は上記ステップS1に戻って上述した一連の動作を繰り返す。一方ステップS7の判定において、当該情報提供処理を終了する場合(ステップS7:YES)、処理部10はそのまま当該情報提供処理を終了する。
なお、上記ステップS6により記録部11に記録された危険情報は、当該記録後に、例えば運転者の運転技倆の評価や、自車両又は当該運転者に適用される自動車関連保険の保険料の改定等に活用することができる。
より具体的に例えば、処理部10は、上記周囲物体データにより示される危険状況の発生時の状態に基づき、当該危険状況における危険度を複数段階に数値化し、その数値化の結果をもって、運転者の運転技倆の事後評価とすることができる。
また、当該数値化の結果を保険料情報とし、当該保険料情報に基づいて、以降の自車両又は運転者に適用される保険料や保険プランを段階的に修正するように構成することができる。例えば、処理部10は、上記数値化の結果と、予め設定された一又は複数の閾値とを比較し、交通の安全上より深刻な危険状況が発生していた場合は、以降の自車両又は運転者に適用される保険料を上げるか、又は保険プランを高額保障のものに変える処理を行うように構成するのが好適である。
以上説明したように、第1実施例の情報提供処理によれば、自車両の運転者の視線における視点の位置と、事故に至る可能性のある危険状況の発生位置との相違を判定するので(図3ステップS4参照)、例えば、運転者が気付かなかった危険状況の発生を、当該危険状況発生以降において新たな事故に至る前に報知すること等(図3ステップS5及びステップS6参照)が可能となる。
また、運手者の視点の位置と自車両に関する危険状況の発生位置との相違があると判定されたとき(図3ステップS4:YES)、危険状況の発生及び当該相違がある旨が報知されるので(図3ステップS5参照)、運転者が気付かなかった危険状況の発生を報知することができる。なお、当該危険状況の発生の報知は、例えば目的地到着後等の事後的であってもよい。
更に、運転者の視点の位置と自車両に関する危険状況の発生位置との相違があるとき、危険状況が発生したこと及び当該相違がある旨を示す危険情報が記録部11に記録されるので(図3ステップS6参照)、運転者が気付かなかった危険状況の発生を例えば事後的に当該運転者に認識させることができる。
更にまた、危険情報に基づいて危険状況を数値化し、その結果を用いて、例えば、運転差Hが気付かない危険状況の発生を含む自車両の移動状態(すなわち運転者の運転技倆)を評価することができる。
また、上記数値化の結果に基づいて保険料の改訂等を行う場合は、当該搭乗者についての適切な保険料を設定することができる。
(II)第2実施例
次に、上記実施形態に対応する他の実施例である第2実施例について、図2及び図4を用いて説明する。なお図4は第2実施例の情報提供処理を示すフローチャートである。また、第2実施例の情報提供装置のハードウエア的な構成は、基本的には第1実施例の情報提供装置SSと同一である。よって以下の説明では、第2実施例の情報提供装置の構成部材について、第1実施例の情報提供装置SSの構成部材と同一の部材については、同一の部材番号を付して細部の説明を省略する。また、第2実施例の情報提供処理について、第1実施例の情報提供処理と同一の処理(ステップ)については、同一のステップ番号を付して細部の説明を省略する。
次に、上記実施形態に対応する他の実施例である第2実施例について、図2及び図4を用いて説明する。なお図4は第2実施例の情報提供処理を示すフローチャートである。また、第2実施例の情報提供装置のハードウエア的な構成は、基本的には第1実施例の情報提供装置SSと同一である。よって以下の説明では、第2実施例の情報提供装置の構成部材について、第1実施例の情報提供装置SSの構成部材と同一の部材については、同一の部材番号を付して細部の説明を省略する。また、第2実施例の情報提供処理について、第1実施例の情報提供処理と同一の処理(ステップ)については、同一のステップ番号を付して細部の説明を省略する。
上述した第1実施例の情報提供処理では、運転者の視点の方向及び視点の位置と、自車両の周囲の危険状況の発生方向及び発生位置とが相違している場合に、その旨を報知する(図3ステップS5参照)こととした。これに対し、第2実施例の情報提供処理では、運転者の視点の方向及び視点の位置と、自車両の周囲の危険状況の発生方向及び発生位置とが相違していることに加えて、危険状況発生時における自車両の挙動に異常がなかったか否かも合わせて判定する。なお、第2実施例の情報提供処理が開始されるタイミングは、第1実施例の情報提供処理が開始されるタイミングと同一である。
より具体的に、対応するフローチャートを図4に示すように、第2実施例の情報提供処理が開始されると、処理部10は、第1実施例の情報提供処理と同様のステップS1乃至ステップS3を実行する。このとき、第2実施例の情報提供処理として処理部10は、マイク2の上記車内マイクからの車内音データ、カメラ2Aの上記車内カメラからの車内撮像データ、及び、例えば図示しないGPS(Global Positioning System)センサからの自車両の位置及び進行方向並びに車速等をそれぞれ示すデータに基づいて、移動中における自車両の挙動を検出している。
そして、ステップS3の判定において自車両の周囲で危険状況の発生が検出された場合(ステップS3:YES)、判定部4は、周囲状況検出部3からの判定結果と上記自車両の挙動の検出結果に基づいて、自車両の運転者の視線の方向等と、検出された危険状況の発生方向等とが、当該危険状況の発生時において相違しており、且つ当該危険状況の発生時にいて自車両の挙動に異常がなかったか否かを判定する(ステップS10)。ステップS10の判定において、自車両の運転者の視線の方向等と危険状況の発生方向等とが相違していないか、又は自車両の挙動に異常があった場合(ステップS10:NO)、処理部10は後述するステップS7に移行する。一方、ステップS4の判定において、自車両の運転者の視線の方向等と危険状況の発生方向等とが相違しており、且つ自車両の挙動に異常がなかった場合(すなわち、運転者として危険状況に全く気付かずに自車両を正常に運転していた場合。ステップS10:YES。)、判定部4及び判定結果処理部6を含む処理部10は、第1実施例の情報提供処理と同様のステップS5乃至ステップS7を実行する。このとき、運転者に報知される内容としては(ステップS5)、危険状況発生時に自車両の挙動に異常がなかった旨(つまり正常であった旨)が追加して報知される。また、記録部11に記録される危険情報(ステップS6)としても、危険状況発生時に自車両の挙動に異常がなかった旨(つまり正常であった旨)が追加して記録される。
以上説明したように、第2実施例の情報提供処理によれば、第1実施例の情報提供処理による効果に加えて、運転者の視点の位置と自車両に関する危険状況の発生位置との相違があると判定され且つ自車両の挙動に異常がなかったとき、当該異常がない旨、危険状況の発生及び当該相違がある旨が報知されるので、運転者が気付かず且つ自車両の挙動異常もなかったにも拘わらず危険状況が発生したことを報知することができる。
また、運転者の視点の位置と自車両に関する危険状況の発生位置との相違があると判定され且つ自車両の挙動に異常がなかったとき、当該異常がない旨、危険状況の発生及び当該相違がある旨を示す危険情報が記録部11に記録されるので、運転者が気付かず且つ自車両の挙動異常もなかったにも拘わらず危険状況が発生したことを例えば事後的に当該運転者に認識させることができる。
なお、上述した各実施例は、搭乗者が車両(四輪車)に登場している場合について説明したが、これ以外に、二輪車又は自転車に搭載された情報提供装置による当該二輪車又は自転車の移動の案内処理中の情報提供処理に対して各実施例の情報提供処理を適用することも可能である。
また、上述した各実施例における視線は、運転者におけるその視線が検出の対象とされていたが、これ以外に、助手席又は後席に同乗している他の搭乗者の視線をその検出対象としてもよい。
更に、図3又は図4に示したフローチャートに相当するプログラムを、光ディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得しておき、これを汎用のマイクロコンピュータ等に読み出して実行することにより、当該マイクロコンピュータ等を各実施例の処理部10として機能させることも可能である。
1 視線情報取得手段(視線センサ)
2 状況情報取得手段(マイク)
2A カメラ
2B 近接センサ
3 危険状況検出手段(周囲状況検出部)
4 判定手段(判定部)
10 処理部
S 視線情報処理装置
SS 情報提供装置
2 状況情報取得手段(マイク)
2A カメラ
2B 近接センサ
3 危険状況検出手段(周囲状況検出部)
4 判定手段(判定部)
10 処理部
S 視線情報処理装置
SS 情報提供装置
Claims (9)
- 移動体を移動させている搭乗者の視線を示す視線情報を取得する視線情報取得手段と、
前記移動体の周囲状況を示す状況情報を取得する状況情報取得手段と、
前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を検出する危険状況検出手段と、
前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を判定する判定手段と、
を備えることを特徴とする視線情報処理装置。 - 請求項1に記載の視線情報処理装置において、
前記相違があると判定されたとき、前記危険状況の発生及び前記相違がある旨を報知する報知手段を更に備えることを特徴とする視線情報処理装置。 - 請求項1に記載の視線情報処理装置において、
前記移動体の挙動を検出する挙動検出手段と、
前記相違があると判定され且つ前記挙動に異常がなかったとき、当該異常がない旨、前記危険状況の発生及び前記相違がある旨を報知する報知手段と、
を更に備えることを特徴とする視線情報処理装置。 - 請求項1から請求項3のいずれか一項に記載の視線情報処理装置において、
前記相違があると判定されたとき、前記危険状況の発生及び当該相違がある旨を示す危険情報を記録する記録手段を更に備えることを特徴とする視線情報処理装置。 - 請求項1から請求項3のいずれか一項に記載の視線情報処理装置において、
前記移動体の挙動を検出する挙動検出手段と、
前記相違があると判定され且つ前記挙動に異常がなかったとき、当該異常がない旨、前記危険状況の発生及び前記相違がある旨を示す危険情報を記録する記録手段と、
更に備えることを特徴とする視線情報処理装置。 - 請求項4又は請求項5に記載の視線情報処理装置において、
前記記録されている危険情報に基づいて、前記移動体の移動状態を数値化した数値化情報を生成する数値化手段を更に備えることを特徴とする視線情報処理装置。 - 請求項6に記載の視線情報処理装置において、
前記生成された数値化情報に基づいて、前記搭乗者による前記移動体の移動に適用される保険料を示す保険料情報を生成する保険料情報生成手段を更に備えることを特徴とする視線情報処理装置。 - 視線情報取得手段と、状況情報取得手段と、危険状況検出手段と、判定手段と、を備える視線情報処理装置において実行される支線情報処理方法であって、
移動体を移動させている搭乗者の視線を示す視線情報を前記視線情報取得手段により取得する視線情報取得工程と、
前記移動体の周囲状況を示す状況情報を前記状況情報取得手段により取得する状況情報取得工程と、
前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を前記危険状況検出手段により検出する危険状況検出工程と、
前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を前記判定手段により判定する判定工程と、
を含むことを特徴とする視線情報処理方法。 - コンピュータを、
移動体を移動させている搭乗者の視線を示す視線情報を取得する視線情報取得手段、
前記移動体の周囲状況を示す状況情報を取得する状況情報取得手段、
前記取得された状況情報に基づいて、前記移動体が関連する事故に至る可能性のある当該移動体の危険状況の発生を検出する危険状況検出手段、及び、
前記検出された視線を示す視線情報に基づき、前記危険状況が発生したときの前記視線における視点の位置と当該危険状況の発生位置との相違を判定する判定手段、
として機能させることを特徴とする視線情報処理用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021177787A JP2023066923A (ja) | 2021-10-29 | 2021-10-29 | 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021177787A JP2023066923A (ja) | 2021-10-29 | 2021-10-29 | 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023066923A true JP2023066923A (ja) | 2023-05-16 |
Family
ID=86326717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021177787A Pending JP2023066923A (ja) | 2021-10-29 | 2021-10-29 | 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023066923A (ja) |
-
2021
- 2021-10-29 JP JP2021177787A patent/JP2023066923A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817751B2 (en) | Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium | |
US20090058622A1 (en) | Method for predicting lane line and lane departure warning system using the same | |
US11713046B2 (en) | Driving assistance apparatus and data collection system | |
JP2009069885A (ja) | 状態判定装置およびプログラム | |
WO2021053780A1 (ja) | 認知機能推定装置、学習装置、および、認知機能推定方法 | |
JP2008021177A (ja) | 危険状況判断装置及び危険状況記録装置 | |
TW201538369A (zh) | 結合駕駛行爲之車道偏移警示系統及方法 | |
US20220073067A1 (en) | Pedestrian collision prevention system and method for vehicle | |
JP6018840B2 (ja) | ドライブレコーダ | |
JP5013175B2 (ja) | 走行制御装置および方法、プログラム、並びに記録媒体 | |
JP4561627B2 (ja) | 車両周辺監視装置 | |
CN111932717A (zh) | 一种车辆紧急事件分析方法、装置、存储介质及系统 | |
JP7434882B2 (ja) | 危険運転判定装置、危険運転判定方法、および危険運転判定プログラム | |
JP2021163096A (ja) | 物体検出方法、物体検出装置、及び、プログラム | |
JP2023066923A (ja) | 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム | |
JP2018144534A (ja) | 運転支援システムおよび運転支援方法並びに運転支援プログラム | |
KR20150047900A (ko) | 사고 예방과 상해치 경감을 위한 영상 기반 능동 제어 시스템 | |
JP6626549B1 (ja) | 判定装置および判定方法 | |
US9815485B2 (en) | Method and device for outputting an acoustic warning signal of a rail vehicle and warning system for a rail vehicle | |
KR101971262B1 (ko) | 통행 예측을 기반으로 한 사고 관리 방법 및 시스템 | |
GB2525654A (en) | Driver incident assistance system and method | |
JP2020071594A (ja) | 履歴蓄積装置、及び履歴蓄積プログラム | |
JP7321371B2 (ja) | 走行支援装置および走行支援方法 | |
KR102575325B1 (ko) | 차량의 장애물 인식 속도 평가 시스템 | |
WO2022269948A1 (ja) | 情報記録装置及び情報記録方法 |