JP2023040789A - 危険検知装置及び危険検知方法 - Google Patents

危険検知装置及び危険検知方法 Download PDF

Info

Publication number
JP2023040789A
JP2023040789A JP2021147946A JP2021147946A JP2023040789A JP 2023040789 A JP2023040789 A JP 2023040789A JP 2021147946 A JP2021147946 A JP 2021147946A JP 2021147946 A JP2021147946 A JP 2021147946A JP 2023040789 A JP2023040789 A JP 2023040789A
Authority
JP
Japan
Prior art keywords
danger
user
information
flag
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021147946A
Other languages
English (en)
Inventor
泰雄 大塚
Yasuo Otsuka
悟史 堀江
Satoshi Horie
拓志 植木
Takushi Ueki
隆義 下田
Takayoshi Shimoda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021147946A priority Critical patent/JP2023040789A/ja
Publication of JP2023040789A publication Critical patent/JP2023040789A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】従来技術では把握し難い危険を検知可能な危険検知装置及び危険検知方法を提供する。【解決手段】危険検知装置100は、入力部と制御部とを備える。入力部は、ユーザの位置と、ユーザの生体情報とを取得する。制御部は、ユーザの位置が危険場所に含まれるか否かを検知し、生体情報に基づいて、危険に対するユーザの応答反応を検知する。制御部は、ユーザの位置が危険場所に含まれることを検知し、かつ、応答反応を検知したとき、ユーザの位置が危険場所に含まれ、かつ、応答反応があることを示す第1のフラグと、ユーザの位置を示す位置情報とを出力する。制御部は、ユーザの位置が危険場所に含まれることを検知し、かつ、応答反応を検知しなかったとき、ユーザの位置が危険場所に含まれ、かつ、応答反応がないことを示す第2のフラグと、位置情報とを出力する。【選択図】図1

Description

本開示は、危険検知装置及び危険検知方法に関する。
特許文献1は、車両の運転状況のセンシングデータを取得し、運転者の生体変化に関する生体情報を取得し、取得したこれらの情報に対応する指標値に基づいて危険イベントの発生を判定する運転支援装置を開示する。
国際公開第2020/122175号
特許文献1の運転支援装置は、車両の運転状況のセンシングデータと運転者の生体情報から危険イベントの発生を判定するものである。こうした従来技術では、車両が危険な場所に位置するにもかかわらず運転者がその危険を自覚していない状態という危険を把握することは困難である。
本開示の目的は、従来技術では把握し難い危険を検知可能な危険検知装置及び危険検知方法を提供することにある。
本開示の一態様に係る危険検知装置は、入力部と制御部とを備える。入力部は、ユーザの位置と、ユーザの生体情報とを取得する。制御部は、ユーザの位置が危険場所に含まれるか否かを検知し、生体情報に基づいて、危険に対するユーザの応答反応を検知する。制御部は、ユーザの位置が危険場所に含まれることを検知し、かつ、応答反応を検知したとき、ユーザの位置が危険場所に含まれ、かつ、応答反応があることを示す第1のフラグと、ユーザの位置を示す位置情報とを出力する。制御部は、ユーザの位置が危険場所に含まれることを検知し、かつ、応答反応を検知しなかったとき、ユーザの位置が危険場所に含まれ、かつ、応答反応がないことを示す第2のフラグと、位置情報とを出力する。
本開示の他の態様に係る危険検知方法は、ユーザの位置と、ユーザの生体情報とを取得するステップと、ユーザの位置が危険場所に含まれるか否かを検知するステップと、生体情報に基づいて、危険に対するユーザの応答反応を検知するステップと、を含む。危険検知方法は、ユーザの位置が危険場所に含まれることが検知され、かつ、応答反応が検知されたとき、ユーザの位置が危険場所に含まれ、かつ、応答反応があることを示す第1のフラグと、ユーザの位置を示す位置情報とを出力するステップを更に含む。危険検知方法は、ユーザの位置が危険場所に含まれることが検知され、かつ、応答反応が検知されなかったとき、ユーザの位置が危険場所に含まれ、かつ、応答反応がないことを示す第2のフラグと、位置情報とを出力するステップを更に含む。
本開示に係る危険検知装置及び危険検知方法によれば、従来技術では把握し難い危険を検知することができる。
本開示の実施形態1に係る危険検知システムの概要を示す模式図 実施形態1に係る危険検知システムの構成を示すブロック図 実施形態1の地図管理サーバの構成を示すブロック図 実施形態1の危険エリアマップの表示態様を例示する模式図 実施形態1に係る危険検知装置の動作を説明するためのフローチャート 図5の高危険エリア処理を示すフローチャート 図5の無自覚エリア処理を示すフローチャート 図5の危険判定改善処理を示すフローチャート 実施形態1の危険エリアマップ更新部の動作を説明するためのフローチャート 危険エリアマップの一例を示す模式図 実施形態1の危険検知モデル更新部の動作を説明するためのフローチャート 実施形態1の危険エリアマップに基づく報知処理を説明するためのフローチャート
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
1.構成
1-1.危険検知システム1
図1は、本開示の実施形態1に係る危険検知システム1の概要を示す模式図である。危険検知システム1は、危険検知装置100と、車外撮影カメラ3と、バイタルセンサ等の生体情報検知装置4と、表示装置5とを含む。これらの構成要素は、車両90に搭載される。危険検知システム1は、危険についての情報を含む地図情報である危険エリアマップ222を記憶及び更新する地図管理サーバ200を更に含む。地図管理サーバ200は、複数の車両90に搭載された各危険検知装置100と通信可能に構成されている。
危険検知装置100は、車両90の現在地と、車外撮影カメラ3によって生成された車外画像とに基づいて、現在地が危険場所に含まれるか否かを検知する。また、生体情報検知装置4によって検知された運転者の生体情報に基づいて、運転者の危険自覚反応を検知する。本明細書では、「危険自覚反応」とは、危険に対する運転者等のユーザの応答反応(情動)を意味する。
現在地が危険場所に含まれるか否かの検知結果、及び運転者の危険自覚反応の検知結果は、危険検知装置100から地図管理サーバ200に送信され、危険エリアマップ222に反映される。このように、危険エリアマップ222には、位置及び車外画像に基づく危険場所の検知結果にだけではなく、運転者の危険自覚反応の検知結果にも基づいた情報が反映される。例えば、危険エリアマップ222には、危険があるにもかかわらず運転者の危険自覚反応が検知されない、危険の無自覚に関する情報が登録される。したがって、危険検知システム1によれば、運転者が自覚できないことがある危険など、従来技術では把握し難い危険を検知することができる。
危険エリアマップ222は、複数の車両90に搭載された各危険検知装置100によって地図管理サーバ200からダウンロード可能であり、ダウンロードされた危険エリアマップ222は、表示装置5に表示される。これにより、運転者は、現在地周辺の自覚できないことがある危険の存在及び位置を知ることができ、このような危険に注意して運転をすることができる。
図2は、危険検知システム1の構成を示すブロック図である。危険検知システム1は、入力装置として、測位システム2と、車外撮影カメラ3と、生体情報検知装置4と、車内撮影カメラ7と、操作装置8とを備える。
測位システム2は、運転者の位置を測定するシステムである。測位システム2は、例えば、GNSS(Global Navigation Satellite System :全地球的衛星測位システム)である。GNSSは、例えば、GPSを含む。測位システム2は、運転者の位置を測定できるものであればよく、運転者が運転する車両90、運転者が所持する携帯電話、スマートフォン等の情報処理装置内に搭載されてもよい。
車外撮影カメラ3は、例えば所定のフレームレートで車両90の外部を撮影し、逐次、車外画像データを生成する撮像装置である。車外撮影カメラ3は、例えば、CMOS(Complementary MOS)、CCD(Charge Coupled Device)等の固体撮像素子によって撮像画像を生成する。車外撮影カメラ3は、例えば、ドライブレコーダに搭載されたカメラである。車外撮影カメラ3は、眼鏡に搭載された眼鏡型カメラなど、運転者が装着できるウェアラブルカメラであってもよい。
生体情報検知装置4は、運転者の生体情報を検知する。生体情報検知装置4は、バイタルセンサ41、顔カメラ42、マイク43を含む。バイタルセンサ41は、運転者の心拍、体温、血流量、血圧、呼吸回数、SpO2等のバイタルサインを検出する。顔カメラ42は、例えば車両90の内部に搭載され、所定のフレームレートで運転者の顔を撮影し、逐次、顔画像データを生成する撮像装置であり、運転者の顔の向き、表情、眼球運動、瞳孔のサイズ、瞼の位置、瞬きの頻度等を検知する。マイク43は、運転者の声を検知する。上記のように、本明細書では、対象者の生体情報とは、対象者のバイタルサイン、顔の向き、表情、眼球運動、瞳孔のサイズ、瞼の位置、瞬きの頻度、声の音圧レベル、声色等の情報を含む。
車内撮影カメラ7は、例えば所定のフレームレートで助手席、後部座席、運転席等の車両90の内部を撮影し、逐次、車内画像データを生成する撮像装置である。前述の車外画像データ、顔画像データ、及び車内画像データは、それぞれ、撮影日時、撮影方向等のメタデータ、例えばExif情報を含んでもよい。
操作装置8は、運転者等のユーザによる操作入力を制御部110に伝達するための入力装置であり、例えばタッチパネル、ボタン、キーボード、マウスを含む。
また、危険検知システム1は、出力装置として、表示装置5と報知装置6とを備える。表示装置5は、情報を表示可能な液晶ディスプレイ、有機ELディスプレイ等のディスプレイを含む。報知装置6は、運転者に対して音により情報を報知するスピーカ等の音声出力装置を含む。報知装置6は、運転者に対して光等の視認可能な情報を報知するLED、ディスプレイ等の出力装置であってもよい。
1-2.危険検知装置100
危険検知装置100は、制御部110と、記憶部102と、入出力インタフェース(I/F)103と、通信I/F104とを備える。
制御部110は、例えば、CPU、MPU、FPGA等の回路で構成され、情報処理を行って危険検知装置100の機能を実現する。このような情報処理は、例えば、制御部110が記憶部102に格納されたプログラムを実行することにより実現される。制御部110は、プログラムの指令に従って動作することにより、危険場所検知部111、危険自覚反応検知部112、フラグ生成部113、送信部114、報知処理部115、及び車内画像処理部117として機能する。図2では、理解の便宜のため、上記機能をブロックとして設けている。
上記ではソフトウェアとハードウェア資源との協働により制御部110の各機能を実現する例について説明したが、本実施形態はこれに限定されない。例えば、制御部110は、危険場所検知部111、危険自覚反応検知部112、フラグ生成部113、送信部114、報知処理部115、及び車内画像処理部117をそれぞれ別体で実行する複数のハードウェア資源で構成されてもよい。
また、制御部110の上記機能の全てが常に同時並列的に実行される必要はない。例えば、制御部110は、ある時刻においては危険場所検知部111及び危険自覚反応検知部112として動作し、その後の時刻においては実質的に並列的に、フラグ生成部113、送信部114、報知処理部115、及び車内画像処理部117として動作することができる。上記の各機能の詳細については後述する。
記憶部102は、危険検知装置100の機能を実現するために必要なプログラム及びデータを含む種々の情報を記録する記録媒体である。記憶部102は、例えば、フラッシュメモリ、ソリッド・ステート・ドライブ(SSD)等の半導体記憶装置、ハードディスクドライブ(HDD)等の磁気記憶装置、その他の記録媒体単独で又はそれらを組み合わせて実現される。記憶部102は、SRAM、DRAM等の揮発性メモリを含んでもよい。
入出力I/F103は、測位システム2、車外撮影カメラ3、生体情報検知装置4、車内撮影カメラ7、操作装置8等の入力装置からの情報を受け付けるために、危険検知装置100と入力装置とを接続するインタフェース回路である。さらに、入出力I/F103は、表示装置5、報知装置6等の出力装置に情報を出力する。入出力I/F103は、既存の有線通信規格又は無線通信規格に従ってデータ通信を行う通信回路であってもよい。
通信I/F104は、既存の有線通信規格又は無線通信規格に従ってデータ通信を行う通信回路である。制御部110は、通信I/F104及びネットワークを介して、後述の地図管理サーバ200及び異常事態モニタ300と通信可能に構成される。
1-3.地図管理サーバ200
地図管理サーバ200は、危険検知装置100と通信可能に構成されている。地図管理サーバ200は、本開示の「サーバ装置」の一例である。
図3は、地図管理サーバ200の詳細な構成を示すブロック図である。地図管理サーバ200は、制御部210と、記憶部220と、入出力I/F230と、通信I/F240とを備える。
制御部210は、情報処理を行って地図管理サーバ200の機能を実現する。このような情報処理は、例えば、制御部210が記憶部220に格納されたプログラムを実行することにより実現される。制御部210は、プログラムの指令に従って動作することにより、危険検知モデル更新部211及び危険エリアマップ更新部212として機能する。制御部110は、例えば、CPU、MPU、FPGA等の回路で構成される。記憶部220は、地図管理サーバ200の機能を実現するために必要なプログラム及びデータを含む種々の情報を記録する記録媒体であり、図2の記憶部102と同様の構成を有する。記憶部220は、例えば、危険検知モデル221と危険エリアマップ222とを格納する。
危険検知モデル221は、位置に関する入力情報の入力に対して、当該位置が危険場所に含まれるか否かの検知結果を出力する。例えば、危険検知モデル221は、位置情報、車外画像等の位置に関する入力情報について、入力情報が示す位置が危険場所に該当するか否かの正解情報との関係を学習することにより生成される学習済みモデルである。危険検知モデル221は、ニューラルネットワーク、例えば畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)の構造を有する学習用モデルである。CNNのようなモデルの教師あり学習では、危険検知モデル221は、位置情報、車外画像等の位置に関する入力データと、入力情報が示す位置が危険場所に該当するか否かを示す情報である出力データとを教師データとして機械学習が行われることにより生成される。CNNのようなモデルの教師あり学習は、例えば誤差逆伝播法を利用して、危険検知モデル更新部211によって行われる。
入出力I/F230は、地図管理サーバ200と外部機器とを接続するI/F回路である。通信I/F240は、既存の有線通信規格又は無線通信規格に従ってデータ通信を行う通信回路である。
1-4.異常事態モニタ300
危険検知システム1は、異常事態モニタ300を更に備える。異常事態モニタ300は、危険検知装置100及び地図管理サーバ200と通信可能な情報処理端末であり、例えば車両に関する異常事態を管理する管理センターに設置されて管理者により操作される。
異常事態モニタ300は、図3の地図管理サーバ200と同様の構成を有し、制御部、記憶部、入出力I/F、通信I/F等を備える。
2.動作
2-1.動作の概要
図1及び図4を用いて、本実施形態に係る危険検知装置100の動作の概要を説明する。図4は、危険エリアマップ222の表示態様を例示する模式図である。
危険検知装置100は、現在地が危険場所に含まれることを検知し、かつ、運転者の危険自覚反応を検知したとき、現在地が危険度の高い高危険エリアに該当することを示す高危険フラグと、現在地とを地図管理サーバ200に送信する。地図管理サーバ200は、受信した車両90の現在地に対応する危険エリアマップ222内の位置に、高危険フラグを登録する。
また、危険検知装置100は、現在地が危険場所に含まれることを検知し、かつ、運転者の危険自覚反応を検知しなかった場合、現在地が、そこが危険場所に含まれるにもかかわらず運転者が危険を自覚しない無自覚エリアに該当することを示す無自覚フラグと、現在地とを地図管理サーバ200に送信する。地図管理サーバ200は、受信した車両90の現在地に対応する危険エリアマップ222内の位置に、無自覚フラグを登録する。無自覚フラグは、危険があるにもかかわらず運転者が危険を自覚しない無自覚エリアを示す情報であり、危険検知装置100は、このような危険性のある無自覚エリアを検知できる。
危険検知装置100は、高危険フラグ及び無自覚フラグが登録された危険エリアマップ222を地図管理サーバ200から取得し、表示装置5に表示する。表示装置5に表示された危険エリアマップ222には、図4に例示するように、車両90又は運転者の現在地を示す現在地アイコン、高危険エリアを示す高危険エリアアイコン、及び無自覚エリアを示す無自覚エリアアイコンが表示される。これにより、運転者は、現在地周辺の高危険エリア及び無自覚エリアの存在及び位置を知ることができ、各危険エリアに注意して運転をすることができる。
2-2.危険検知装置100の動作
図5は、本実施形態に係る危険検知装置100の動作を説明するためのフローチャートである。図5のフローチャートに示す各処理は、危険検知装置100の制御部110によって実行される。危険検知装置100は、危険場所検知ステップS3及び危険自覚反応検知ステップS4,S5の両結果に応じて処理内容を変えることを特徴とする。なお、危険検知装置100は、表示装置5に危険エリアマップ222を表示させる処理も行うが、このマップ表示処理については後述の地図管理サーバ200の動作の説明の後に説明する。
図5において、まず、制御部110は、入出力I/F103を介して、測位システム2から車両90又は運転者の現在地を示す位置情報を取得し、車外撮影カメラ3から車外画像を取得し、車内撮影カメラ7から車内画像を取得する(S1)。制御部110は、逐次取得する位置情報、車外画像、及び車内画像を記憶部102に格納する。制御部110は、生体情報検知装置4から運転者の生体情報を取得する(S2)。ステップS1,S2の実行順は図5に示した例に限定されず、例えばステップS2はステップS1より前に実行されてもよい。
次に、危険場所検知部111は、ステップS1で取得した位置情報及び車外画像を危険検知モデル221に入力し、危険検知モデル221から出力された検知結果を取得することにより、車両90の現在地が危険場所に含まれるか否かを検知する(S3)。危険検知モデル221は、ステップS1で取得された位置情報及び車外画像の少なくとも一方の入力に対して、現在地が危険場所に含まれるか否かの検知結果を出力する。ステップS3において検知の対象とする現在地は、車両90の運転者といったユーザの位置の一例である。
また、危険自覚反応検知部112は、ステップS2で取得した運転者の生体情報に基づいて、運転者の危険自覚反応を検知する(S4,S5)。運転者が、事故発生には至らないものの、事故発生の危険性が高い事象(ヒヤリハット事象)を体験したとき、運転者の心拍数が急上昇する等のバイタルサインの変化、平常時と異なる眼球運動、驚いたことによる発声等の危険自覚反応が生じることがある。危険自覚反応検知部112は、運転者の生体情報を観察することにより、このような危険自覚反応を検知することができる。
例えば、危険自覚反応検知部112は、バイタルセンサ41によって取得された運転者の心拍数が所定の値を超えたとき、危険自覚反応を検知する。また、例えば、危険自覚反応検知部112は、顔カメラ42によって取得された運転者の顔が驚いた表情であるとき、瞳孔が急に開いたとき、眼球が平常時に比べて急激に移動したとき等に、危険自覚反応を検知する。また、危険自覚反応検知部112は、マイク43によって取得された車両90内の音に基づき、例えば音圧レベルを超える運転者の声を取得したとき、危険自覚反応を検知する。
制御部110は、危険場所検知ステップS3及び危険自覚反応検知ステップS4,S5の両結果に応じて下記のステップS6~ステップS8の処理を実行する。
すなわち、危険場所検知部111が、現在地が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応検知部112が、運転者の危険自覚反応を検知したとき(S4でYes)、制御部110は、高危険エリア処理を行う(S6)。高危険エリア処理S6は、ステップS1で取得された位置情報及び車外画像と、高危険フラグとを互いに関連付けて、地図管理サーバ200に送信することを含む。高危険エリア処理S6の詳細については後述する。
危険場所検知部111が、現在地が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応検知部112が、運転者の危険自覚反応を検知しなかった場合(S4でNo)、制御部110は、現在地が無自覚エリアに含まれることに対応する処理である無自覚エリア処理を行う(S7)。この場合、制御部110は、危険についての運転者の無自覚を検知したともいえる。無自覚エリア処理S7は、ステップS1で取得された位置情報及び車外画像と、無自覚フラグとを互いに関連付けて、地図管理サーバ200に送信することを含む。無自覚エリア処理S7の詳細については後述する。
危険場所検知部111が、現在地が危険場所に含まれることを検知せず(S3でNo)、かつ、危険自覚反応検知部112が、運転者の危険自覚反応を検知したとき(S4でYes)、制御部110は、危険判定改善処理を行う(S8)。この条件が満たされるとき、危険場所検知部111は、現在地が危険場所に含まれることを検知すべきであった可能性があり、危険場所検知部111による危険場所検知処理には改善の余地がある。そこで、危険判定改善処理S8により、危険検知システム1において、現在地が危険場所検知部111による危険場所検知処理の精度向上の余地がある危険判定改善エリアとして管理することを可能にする。危険判定改善処理S8は、ステップS1で取得された位置情報及び車外画像と、危険判定改善フラグとを互いに関連付けて、地図管理サーバ200に送信することを含む。危険判定改善処理S8の詳細については後述する。
一方、現在地が危険場所に含まれることが検知されず(S3でNo)、かつ、運転者の危険自覚反応が検知されなかったとき(S4でYes)、制御部110は、例えば所定周期においてステップS1以降の処理を再び行う。また、制御部110は、ステップS6~S8の実行後、本フローチャートの処理を終了する。その後、例えば所定周期を置いて本フローの処理が再び実行される。
以上の危険検知装置100の動作によると、例えば運転者が車両90の運転中に危険場所を通過した際に(S3でYES)、運転者の危険自覚反応の有無を含めた情報が地図管理サーバ200に送信される(S4~S7)。これにより、地図管理サーバ200において、各車両90が危険場所を通過した際の情報を集約して、運転者が無自覚であった傾向などを危険エリアマップ222に反映できる。
2-2-1.高危険エリア処理S6
図6は、図5の高危険エリア処理S6の詳細を示すフローチャートである。高危険エリア処理S6では、まず、フラグ生成部113は、高危険フラグ(第1のフラグ)を生成する(S61)。
次に、送信部114は、ステップS1で取得された位置情報及び車外画像と、高危険フラグとを互いに関連付けて出力し、通信I/F104を介して地図管理サーバ200に送信する(S62)。後述のように、高危険フラグを受信した地図管理サーバ200は、危険エリアマップ222において位置情報が示す位置に、高危険フラグが示す情報を登録する(図9のステップS15参照)。
また、車内画像処理部117は、ステップS1で取得された位置情報及び車内画像と、高危険フラグとを、通信I/F104を介して異常事態モニタ300に送信する(S63)。異常事態モニタ300の管理者は、異常事態モニタ300が受信した車内画像を確認し、車内画像内において乗員間トラブル、機器故障、火災等の異常事態が認められる場合には、異常事態モニタ300を用いて、車両90内部に異常事態が認められたことを示す車内異常通知を地図管理サーバ200に送信することができる。この場合には、異常事態モニタ300の管理者は、警察本部、救急センター等に連絡することもできる。
以上の高危険エリア処理S6では、ステップS62で送信部114から送信された高危険フラグ、位置情報、及び車外画像を受信した地図管理サーバ200は、高危険エリアの情報を危険エリアマップ222に登録することができる。危険エリアマップ222に登録された高危険エリアの情報は、例えば、危険検知装置100の表示装置5への表示により他の運転者に報知される。これにより、運転者は、現在地周辺の高危険エリアの存在及び位置を知ることができ、危険エリアに注意して運転をすることができる。
高危険エリア処理S6では、車内画像処理部117は、車両90を特定するための車両情報を異常事態モニタ300に送信してもよい。また、異常事態モニタ300は、ステップS63で受信した車内画像を、位置情報及び高危険フラグ等の情報と共に内部又は外部のデータベースに蓄積してもよい。
2-1-2.無自覚エリア処理S7
図7は、図5の無自覚エリア処理S7の詳細を示すフローチャートである。無自覚エリア処理S7では、まず、フラグ生成部113は、無自覚フラグ(第2のフラグ)を生成する(S71)。
次に、送信部114は、ステップS1で取得された位置情報及び車外画像と、無自覚フラグとを互いに関連付けて出力し、通信I/F104を介して地図管理サーバ200に送信する(S72)。後述のように、無自覚フラグを受信した地図管理サーバ200は、危険エリアマップ222において位置情報が示す位置に、無自覚フラグが示す情報を登録する(図9のステップS16参照)。
報知処理部115は、送信部114から無自覚フラグが出力されたとき、報知装置6によって、運転者に対する報知を行ってもよい(S73)。例えば、報知処理部115は、LEDを点滅させる、スピーカから警告アナウンスの音声を出力するなどして、運転者に対する報知を行う。このリアルタイムの報知により、運転者は、現在地が危険を自覚し難い無自覚エリアであっても、報知により現在地が危険場所に含まれることを自覚することができる。もっとも、ステップS73は、省略可能である。危険エリアマップ222に登録済みの高危険フラグ及び/又は無自覚フラグに基づく報知処理については、後述する。
無自覚エリア処理S7では、ステップS72で送信部114から送信された無自覚フラグ、位置情報、及び車外画像を受信した地図管理サーバ200は、無自覚エリアの情報を危険エリアマップ222に登録することができる。危険エリアマップ222に登録された無自覚エリアの情報は、例えば、危険検知装置100の表示装置5への表示により運転者に報知される。これにより、運転者は、現在地周辺の無自覚エリアの存在及び位置を知ることができ、危険が運転者にとって自覚できない性質のものであったとしても、慎重に運転を行うなどして安全を担保することができる。
2-2-3.危険判定改善処理S8
図8は、図5の危険判定改善処理S8の詳細を示すフローチャートである。危険判定改善処理S8では、まず、フラグ生成部113は、危険判定改善フラグ(第3のフラグ)を生成する(S81)。
次に、送信部114は、ステップS1で取得された位置情報及び車外画像と、危険判定改善フラグとを互いに関連付けて出力し、通信I/F104を介して地図管理サーバ200に送信する(S82)。後述のように、危険判定改善フラグを受信した地図管理サーバ200は、例えば、危険エリアマップ222において位置情報が示す位置に、危険判定改善フラグが示す情報を登録する(図9のステップS17参照)。
また、車内画像処理部117は、ステップS1で取得された位置情報及び車内画像と、危険判定改善フラグとを、通信I/F104を介して異常事態モニタ300に送信する(S83)。車内画像処理部117は、更に車両情報を異常事態モニタ300に送信してもよい。
危険判定改善処理S8では、ステップS82で送信部114から送信された危険判定改善フラグ、位置情報、及び車外画像を受信した地図管理サーバ200は、危険判定改善エリアの情報を危険エリアマップ222に登録することができる。地図管理サーバ200は、危険エリアマップ222に登録された危険判定改善エリアの情報に基づいて危険検知モデル221を更新し、更新後の危険検知モデル221による危険場所検知ステップS3の検知精度を向上させることができる。地図管理サーバ200の動作については、以下に詳説する。
2-3.地図管理サーバ200の動作
図9は、本実施形態に係る地図管理サーバ200の危険エリアマップ更新部212の動作を説明するためのフローチャートである。図9のフローチャートに示す各処理は、地図管理サーバ200の制御部210(図3参照)によって実行される。
危険エリアマップ更新部212は、受信したフラグの種類を判別する(S11~S13)。危険エリアマップ更新部212は、高危険フラグを受信したとき(S11でYes)、危険エリアマップ222に高危険フラグが示す情報を登録する(S15)。一方、危険エリアマップ更新部212は、無自覚フラグを受信したとき(S12でYes)、危険エリアマップ222に無自覚フラグが示す情報を登録する(S16)。
危険エリアマップ更新部212は、危険判定改善フラグを受信したとき(S13でYes)、異常事態モニタ300から車内異常通知を受信したか否かを判断する(S14)。危険エリアマップ更新部212は、異常事態モニタ300から車内異常通知を受信していない場合(S14でNo)、危険エリアマップ222に危険判定改善フラグが示す情報を登録する(S17)。なお、危険判定改善フラグの情報は、危険エリアマップ222に登録されるものの、後述のように運転者等のユーザには表示されない。しかしながら、制御部110は、例えばユーザによる設定に応じて、危険判定改善フラグの情報を表示してもよい。
地図管理サーバ200の制御部210は、異常事態モニタ300から車内異常通知を受信した場合(S14でYes)、危険エリアマップ222に危険判定改善フラグが示す情報を登録せずに、図9のフローを終了する。車内異常通知を受信した場合に危険エリアマップ222に危険判定改善フラグが示す情報を登録しない理由は、次の通りである。
すなわち、地図管理サーバ200が車内異常通知を受信した場合、図5のステップS5で運転者の危険自覚反応が検知されたのは、車両90内部の異常事態に起因するものであり、道路のレイアウト、建物の配置等の車外環境を理由とするものではないことが推測される。したがって、地図管理サーバ200が車内異常通知を受信した場合は、危険場所検知部111による危険場所検知処理の精度向上の必要性は少ないといえる。
上記のステップS14は、制御部210が危険判定改善フラグを受信した場合(S13でYes)に、危険エリアマップ222に危険判定改善フラグが示す情報を登録するか否かを判断する処理の一例であるが、このような処理は上記のものに限定されない。例えば、地図管理サーバ200の制御部210は、危険判定改善フラグを受信した場合(S13でYes)であっても、以下のようなときには、危険エリアマップ222に危険判定改善フラグが示す情報を登録せずに、図9のフローを終了する。
すなわち、脇見運転、居眠り運転、自車両の速度超過、他車両の速度超過、自車両と他車両との異常接近等の自車両及び/又は他車両の運転者の過失行為が検知されたときは、制御部210は、図9のフローを終了する。これらの事例では、図5のステップS5で運転者の危険自覚反応が検知されたのは、運転者の過失行為に起因するものであり、道路のレイアウト、建物の配置等の車外環境を理由とするものではないことが推測される。したがって、地図管理サーバ200が過失行為の検知通知を受信した場合は、危険場所検知部111による危険場所検知処理の精度向上の必要性は少ないといえるため、危険エリアマップ222に危険判定改善フラグが示す情報を登録しない。
上記の場合の過失行為の検知通知は、例えば、危険検知装置100の制御部110が、上述した各事例を検知したときに、危険検知装置100から地図管理サーバ200に送信される。あるいは、危険検知装置100の制御部110は、上記事例を検知したときに、危険判定改善処理S8のステップS82の処理を行わないようにしてもよい。これによっても、上記事例については、地図管理サーバ200において危険判定改善フラグの登録(S17)が行われないようにすることができる。
脇見運転及び居眠り運転は、例えば、生体情報検知装置4によって検知された眼球運動の低下量、瞳孔のサイズの低下(収縮)、瞼の位置の下降、瞬きの頻度の低下等に基づいて、危険検知装置100の制御部110によって検知される。自車両の速度超過は、例えば図示しない自車両の速度計によって検知される。他車両の速度超過は、例えば、車外撮影カメラ3によって連続的に撮影された車外画像中の他車両の移動量と撮影時間間隔とに基づいて、危険検知装置100の制御部110によって検知される。自車両と他車両との異常接近は、例えば、自車両と他車両との距離が所定距離以下となった場合であり、車外画像データに基づいて、危険検知装置100の制御部110によって検知される。車両間の接近が危険なものであるか否かは、自車両及び/又は他車両の速度にも依るため、自車両と他車両との異常接近は、図示しない自車両の速度計による検知結果と、車外画像データとに基づいて、危険検知装置100の制御部110によって検知されてもよい。
図10は、複数のフラグが示す情報が登録された危険エリアマップ222の一例を示す模式図である。危険エリアマップ222は、道路情報を含む。また、図示しないが、危険エリアマップ222は、建物、信号機、有料道路の出入口等の情報、及び、地名、交差点名等の文字情報を含んでもよい。危険エリアマップ222が表示装置5に表示される際には、これらの情報を示す画像が表示される。
さらに、危険エリアマップ222は、図9のステップS15~S17で登録されたフラグの情報を含む。危険エリアマップ222において、高危険フラグが登録された地点に対応するエリアは高危険エリアとして管理される。同様に、無自覚フラグが登録された地点に対応するエリアは無自覚エリアとして管理され、危険判定改善フラグが登録された地点に対応するエリアは危険判定改善エリアとして管理される。
各エリアの管理の態様の一例は、以下の通りである。例えば、危険エリアマップ222において、高危険フラグが登録された地点を含む所定範囲の単位エリアは高危険エリアとして管理される。同様に、無自覚フラグが登録された地点を含む所定範囲の単位エリアは無自覚エリアとして管理され、危険判定改善フラグが登録された地点を含む所定範囲の単位エリアは危険判定改善エリアとして管理される。上記の所定範囲の単位エリアは、図10に示すように、危険エリアマップ222を距離、又は、緯度及び経度に基づいて所定の間隔でメッシュ状に区切ったときの一格子に相当する。
同一の単位エリアに異なるフラグが登録されているときは、最も多いフラグに対応するエリアとして管理されてもよい。例えば、同一の単位エリアに3つの高危険フラグと7つの無自覚フラグが登録されているときは、当該単位エリアは、無自覚エリアとして管理される。あるいは、同一の単位エリアに異なるフラグ、例えば高危険フラグと無自覚フラグが登録されているときは、当該単位エリアは、登録された全フラグに対応するエリア、例えば高危険エリア及び無自覚エリアの両方を含むエリアとして管理されてもよい。
あるいは、高危険フラグ、無自覚フラグ、危険判定改善フラグの順に優先度を高く設定し、同一の単位エリアに高危険フラグ及び他のフラグが登録されているときは、高危険フラグ及び他のフラグの数に関わらず、当該単位エリアを高危険エリアとして管理してもよい。この場合、同一の単位エリアに高危険フラグが登録されておらず、無自覚フラグ及び危険判定改善フラグが登録されているときは、無自覚フラグ及び危険判定改善フラグの数に関わらず、当該単位エリアを無自覚エリアとして管理する。
2-3-2.危険検知モデル更新部211の動作
図11は、本実施形態に係る地図管理サーバ200の危険検知モデル更新部211の動作を説明するためのフローチャートである。図11のフローチャートに示す各処理は、地図管理サーバ200の制御部210(図3参照)によって実行される。
危険検知モデル更新部211は、危険エリアマップ上の同一のエリアに所定数以上の危険判定改善フラグが登録されたとき(S21でYes)、危険検知モデル221を更新する(S22)。上記の所定数は、1以上の整数である。この危険検知モデル更新処理S22は、危険場所検知ステップS3(図5参照)でされた、車両90の位置が危険場所でないとした判断が妥当でない場合に、危険検知モデル221を更新する。これにより、更新後の危険検知モデル221による危険場所検知ステップS3の検知精度を向上させることができる。
危険検知モデル更新処理S22の一例は、次の通りである。例えば、危険検知モデル更新部211は、危険場所検知ステップS3(図5参照)で危険場所でないと判断する基礎となった位置情報が示す位置について、危険度が現在の算出値より高く算出されるように危険検知モデル221を更新する。あるいは、危険検知モデル更新部211は、危険場所検知ステップS3(図5参照)で危険場所でないと判断する基礎となった車外画像によって特定される位置について、危険度が現在の算出値より高く算出されるように危険検知モデル221を更新する。
危険検知モデル更新処理S22の他の例は、以下の通りである。例えば、危険検知モデル更新部211は、危険エリアマップ上の同一のエリアに登録された各危険判定改善フラグについて、危険場所検知ステップS3(図5参照)で危険場所でないと判断する基礎となった位置情報及び車外画像の少なくとも一方を入力情報とする。
入力情報が位置情報である場合、危険検知モデル更新部211は、この入力情報と、「当該位置情報が示す位置は危険場所に該当する」という正解情報との関係を危険検知モデル221に学習させることにより、危険検知モデル221を更新する。入力情報が車外画像である場合、危険検知モデル更新部211は、この入力情報と、「当該車外画像によって特定される位置は危険場所に該当する」という正解情報との関係を危険検知モデル221に学習させることにより、危険検知モデル221を更新する。
これらの正解情報は、例えば、過去の事故現場の周囲にいた車両のドライブレコーダに記録された位置情報及び車外画像を収集して解析することにより形成される。過去の事故の情報により、特定の交差点等の事故が起こりやすい位置、走行車線、対向車の有無、前後車両の有無、見晴らしの良し悪し等の事故が起こりやすい状況を類型的に把握することができる。上述の危険検知モデル更新処理S22の一例及び他の例は、組み合わせることができる。
2-4.危険エリアマップに基づく報知処理
以下、危険エリアマップ222に登録済みの高危険フラグ及び/又は無自覚フラグに基づく報知処理について説明する。前述のリアルタイムの報知処理では、報知処理部115は、送信部114から無自覚フラグが出力されたときに運転者に対する報知を行うことを説明した。これに対し、危険エリアマップに基づく報知処理では、報知処理部115は、車両90又は運転者の現在地が、危険エリアマップ222において高危険フラグ及び/又は無自覚フラグが示す情報が登録された場所に対応するとき、運転者に対する報知を行う。
図12は、危険エリアマップに基づく報知処理を説明するためのフローチャートである。図12のフローチャートに示す各処理は、報知処理部115として動作する制御部110によって実行される。まず、報知処理部115は、地図管理サーバ200から、高危険フラグ及び/又は無自覚フラグが示す情報が登録された危険エリアマップ222を取得する(S201)。高危険フラグ及び/又は無自覚フラグが示す情報は、図9のステップS15,S16において危険エリアマップ222に登録されている。危険検知装置100によって地図管理サーバ200から取得された危険エリアマップ222は、ローカルの地図情報として記憶部102に格納され、報知処理部115は、記憶部102に格納された当該ローカルの地図情報を参照してもよい。
また、報知処理部115は、入出力I/F103を介して、測位システム2から車両90又は運転者の現在地を示す位置情報を取得する(S202)。図12では、ステップS201~S207を1つのフローチャートとして例示したが、危険エリアマップ222を取得するステップS201と、位置情報を取得するステップS202とは、互いに異なる間隔で繰り返し実行されてもよい。
次に、報知処理部115は、表示装置5に、現在地周辺の危険エリアマップ222を表示させる(S203)。図4に例示したように、特に、危険エリアマップ222に表示された無自覚エリアアイコンにより、運転者は、現在地周辺の無自覚エリアの存在及び位置を知ることができ、危険が運転者にとって自覚できない性質のものであったとしても、慎重に運転を行うなどして安全を担保することができる。
また、報知処理部115は、現在地が高危険エリア周辺である場合(S204でYes)は、報知装置6によってその旨を運転者に報知し(S206)、現在地が無自覚エリア周辺である場合(S205でYes)は、報知装置6によってその旨を運転者に報知する(S207)。例えば、報知処理部115は、車両90が無自覚エリアに近付いている場合、「300m先、無自覚エリアです。」との旨の警告アナウンスをスピーカに出力させる。これにより、運転者は、現在地周辺の無自覚エリアの存在及び位置を知ることができ、危険に注意して運転をすることができる。
危険検知システム1では、地図管理サーバ200が1以上の車両90の危険検知装置100から無自覚エリアの情報を受信し、危険エリアマップ222に反映させるため(図1参照)、上記のような報知(S207)が実行可能となる。
3.効果等
以上のように、本実施形態に係る危険検知装置100は、運転者(ユーザの一例)の位置と、運転者の生体情報とを取得する入出力I/F103(入力部の一例)と、運転者の位置が危険場所に含まれるか否かを検知し、取得された生体情報に基づいて危険自覚反応を検知する制御部110とを備える。制御部110は、運転者の位置が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応を検知したとき(S4でYes)、運転者の位置が危険場所に含まれ、かつ、危険自覚反応があることを示す高危険フラグ(第1のフラグの一例)と、運転者の位置を示す位置情報とを出力する(S62)。制御部110は、運転者の位置が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応を検知しなかったとき(S4でNo)、運転者の位置が危険場所に含まれ、かつ、危険自覚反応がないことを示す無自覚フラグ(第2のフラグの一例)と、位置情報とを出力する(S72)。
この構成により、危険検知装置100は、危険があるにもかかわらず運転者が危険を自覚しない無自覚エリアを検知するなど、従来技術では把握し難い危険を検知することができる。
危険検知装置100は、危険エリアマップ222(地図情報の一例)を管理する地図管理サーバ200(サーバ装置の一例)とデータ通信を行う通信I/F104(通信部の一例)を更に備えてもよい。制御部110は、運転者の位置が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応を検知したとき(S4でYes)、高危険フラグと位置情報とを、通信I/F104を介して地図管理サーバ200に送信する(S62)。制御部110は、運転者の位置が危険場所に含まれることを検知し(S3でYes)、かつ、危険自覚反応を検知しなかったとき(S4でNo)、無自覚フラグと位置情報とを、通信I/F104を介して地図管理サーバ200に送信する(S72)。
この構成により、検知された多様な危険についての情報を、地図管理サーバ200等の外部装置において利用することができる。
地図管理サーバ200は、危険検知装置100から受信された高危険フラグ及び/又は無自覚フラグと位置情報とに基づいて、危険エリアマップ222において当該位置情報に対応する場所に、当該高危険フラグ及び/又は無自覚フラグが示す情報を登録するように危険エリアマップ222を更新してもよい(S15及び/又はS16)。通信I/F104は、地図管理サーバ200から更新された危険エリアマップ222を受信する。
この構成により、危険検知装置100は、検知された多様な危険を反映させた危険エリアマップ222を得ることができる。
危険検知装置100は、運転者に対する報知を行う報知処理部115(報知部の一例)を更に備えてもよい。報知処理部115は、通信I/F104から受信された危険エリアマップ222に基づいて、運転者の位置が、危険エリアマップ222において高危険フラグ及び/又は無自覚フラグが示す情報が登録された場所に対応するとき、運転者に対する報知を行う。
この構成により、運転者は、高危険フラグ及び/又は無自覚フラグが示す情報が登録された場所に存在し得る危険を知ることができ、このような危険エリアに注意して運転をすることができる。
危険検知装置100は、制御部110から無自覚フラグが出力されたときに運転者に対する報知を行う報知処理部115(報知部の一例)を更に備えてもよい。
この構成により、運転者は、無自覚エリアに存在し得る危険を知ることができ、このような危険エリアに注意して運転をすることができる。
制御部110は、危険検知モデル221を用いて、運転者の位置が危険場所に含まれるか否かを検知してもよい。危険検知モデル221は、運転者の位置に関する入力情報を入力して、運転者の位置が危険場所に含まれるか否かの検知結果を出力する。入出力I/F103は、運転者の周囲環境を撮像することにより生成された車外画像(周囲画像の一例)を更に取得してもよい。この場合、危険検知モデル221の入力情報は、入出力I/F103によって取得された運転者の位置及び車外画像(周囲画像の一例)の少なくとも一方を含む。
危険検知装置100は、上記効果に加えて、位置及び車外画像の少なくとも一方を利用することにより、運転者の位置が危険場所に含まれるか否かを精度良く検知することができる。
危険検知装置100は、危険検知モデル221を管理する地図管理サーバ200とデータ通信を行う通信I/F104を更に備えてもよい。制御部110は、運転者の位置が危険場所に含まれることを検知せず(S3でNo)、かつ、危険自覚反応を検知したとき(S4でYes)、運転者の位置が危険場所に含まれず、かつ、危険自覚反応があることを示す危険判定改善フラグ(第3のフラグの一例)と、運転者の位置を示す位置情報とを、通信I/F104を介して地図管理サーバ200に送信する(S82)。地図管理サーバ200は、危険検知装置から受信した危険判定改善フラグと位置情報とに基づいて、危険検知モデル221を更新する(S22)。制御部110は、地図管理サーバ200から通信I/F104を介して、更新された危険検知モデル221を受信して、記憶部102に格納する。
危険検知装置100は、更新された危険検知モデル221を利用することにより、上記効果に加えて、運転者の位置が危険場所に含まれるか否かを精度良く検知することができる。
(他の実施の形態)
以上のように、本開示における技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
上記実施の形態では、危険検知装置100の制御部110が危険場所検知ステップS3及び危険自覚反応検知ステップS4,S5を行う例について説明したが、本開示はこれに限定されない。例えば、危険場所検知ステップS3及び危険自覚反応検知ステップS4,S5は、外部の情報処理端末において行われ、危険検知装置100は、運転者の位置が危険場所に含まれるか否かの検知結果と、危険自覚反応の検知結果とを、当該外部の情報処理端末から取得してもよい。このように外部の情報処理端末から検知結果を取得することも、本開示の「検知」に含まれる。
上記実施の形態では、送信部114が、ステップS1で取得された位置情報及び車外画像と、フラグとを、互いに関連付けて通信I/F104を介して地図管理サーバ200に送信する例(S62,S72,S82)について説明したが、本開示はこれに限定されない。すなわち、上記実施の形態で説明したような危険エリアマップ222及び/又は危険検知モデル221の更新は必須ではない。例えば、送信部114は、ステップS1で取得された位置情報及び車外画像と、フラグとを、記憶部102に対して出力し、記憶部102に記憶させてもよい。このような構成であっても、危険検知装置100は、無自覚エリアを検知するなど、従来技術では把握し難い危険を検知することができる。記憶部102に記憶されたこれらの情報が、危険エリアマップ222及び/又は危険検知モデル221の更新に利用されてもよい。
さらに、位置情報、車外画像、及びフラグを記憶部102に記憶する上記の例において、危険エリアマップ222及び/又は危険検知モデル221も、外部サーバではなく危険検知装置100の記憶部102に格納されてもよい。この構成によれば、危険エリアマップ222の更新処理及び危険検知モデル221の更新処理は、危険検知装置100単独で実行可能である。
上記実施の形態では、危険検知モデル221が地図管理サーバ200の記憶部220に格納される例について説明したが、本開示はこれに限定されない。例えば、運転者の位置が危険場所に含まれるか否かの検知結果を出力する危険検知モデル221は、危険検知装置100の記憶部102に格納されてもよい。また、危険検知装置100は、地図管理サーバ200の危険検知モデル更新部211によって危険検知モデル221が更新されたときに地図管理サーバ200から危険検知モデル221をダウンロードして記憶部102に格納してもよい。この場合、危険検知装置100は、次に危険検知モデル更新部211によって危険検知モデル221が更新されるまでは、記憶部102に格納されたローカルの危険検知モデル221を使用して危険場所検知ステップS3を行ってもよい。
上記実施の形態では、運転者の生体情報のみに基づいて運転者の危険自覚反応を検知する危険自覚反応検知部112について説明したが、本開示はこれに限定されない。例えば、危険自覚反応検知部112は、運転者の生体情報だけでなく、更に属性情報に基づいて、運転者の危険自覚反応を検知してもよい。属性情報は、運転者の身長、体重、年齢、性別、現病歴、及び既往歴を含む。属性情報は、運転者等のユーザによって入力されてもよいし、外部装置から入力されてもよい。危険自覚反応検知部112は、属性情報を考慮することにより、危険自覚反応の検知の閾値を下げるなど、その運転者に最も適した危険自覚反応の検知を行うことができる。
上記実施の形態では、地図管理サーバ200の制御部210が危険判定改善フラグを受信した場合(S13でYes)に、危険エリアマップ222に危険判定改善フラグが示す情報を登録するか否かを判断する処理の一例について説明した。そこでは、ステップS13でYesの場合であっても、運転者の過失行為が検知されたときは、危険エリアマップ222に危険判定改善フラグが示す情報が登録されないことを説明した。しかしながら、本開示はこれに限定されない。
例えば、制御部210は、危険判定改善フラグを受信し(S13でYes)、かつ、運転者の過失行為が検知された場合のデータを記憶部220に蓄積し、特定の位置における過失行為の検知頻度が所定の頻度よりも高いときは、蓄積された危険判定改善フラグが示す情報を危険エリアマップ222に登録する。脇見運転等の過失行為が頻繁に発生する場合、過失行為の原因が、道路のレイアウト、建物の配置等の車外環境にあることが推測される。したがって、このような場合に蓄積された危険判定改善フラグが示す情報を危険エリアマップ222に登録することにより、危険検知システム1において、特定の位置が危険場所検知処理の精度向上の余地がある危険判定改善エリアとして管理することが可能となる。上記の過失行為の検知頻度は、例えば、過失行為の検知位置の交通量に対する過失行為の発生回数の割合で表される。
上記実施の形態では、道路を走行する車両90について説明したが、車両90は、バイクや自転車でもよい。さらに倉庫、工場等の敷地内を移動する移動補助車、フォークリフト等の搬送車であってもよい。
上記実施の形態では、車載の危険検知装置100について説明したが、本開示はこれに限定されない。例えば、危険検知装置100は、スマートフォン、タブレット等のユーザが携帯可能なウェアラブルデバイスであってもよい。これにより、歩行者にとっての無自覚エリアの情報を危険エリアマップ222に反映させることができる。また、危険エリアマップ222がスマートフォンのディスプレイに表示されることにより、ユーザは、現在地周辺の高危険エリア及び無自覚エリアの存在及び位置を知ることができ、危険に注意して行動することができる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において、種々の変更、置換、付加、省略などを行うことができる。
本開示は、ユーザの周囲の危険を検知する危険検知装置として利用可能である。
1 危険検知システム
2 測位システム
3 車外撮影カメラ
4 生体情報検知装置
41 バイタルセンサ
42 顔カメラ
43 マイク
5 表示装置
6 報知装置
7 車内撮影カメラ
8 操作装置
90 車両
100 危険検知装置
102 記憶部
103 入出力インタフェース(I/F)
110 制御部
111 危険場所検知部
112 危険自覚反応検知部
113 フラグ生成部
114 送信部
115 報知処理部
117 車内画像処理部
200 地図管理サーバ
210 制御部
211 危険検知モデル更新部
212 危険エリアマップ更新部
220 記憶部
221 危険検知モデル
222 危険エリアマップ
300 異常事態モニタ

Claims (10)

  1. ユーザの位置と、前記ユーザの生体情報とを取得する入力部と、
    前記ユーザの位置が危険場所に含まれるか否かを検知し、前記生体情報に基づいて、危険に対する前記ユーザの応答反応を検知する制御部とを備え、
    前記制御部は、
    前記ユーザの位置が前記危険場所に含まれることを検知し、かつ、前記応答反応を検知したとき、前記ユーザの位置が前記危険場所に含まれ、かつ、前記応答反応があることを示す第1のフラグと、前記ユーザの位置を示す位置情報とを出力し、
    前記ユーザの位置が前記危険場所に含まれることを検知し、かつ、前記応答反応を検知しなかったとき、前記ユーザの位置が前記危険場所に含まれ、かつ、前記応答反応がないことを示す第2のフラグと、前記位置情報とを出力する、
    危険検知装置。
  2. 地図情報を管理するサーバ装置とデータ通信を行う通信部を更に備え、
    前記制御部は、
    前記ユーザの位置が前記危険場所に含まれることを検知し、かつ、前記応答反応を検知したとき、前記第1のフラグと前記位置情報とを、前記通信部を介して前記サーバ装置に送信し、
    前記ユーザの位置が前記危険場所に含まれることを検知し、かつ、前記応答反応を検知しなかったとき、前記第2のフラグと前記位置情報とを、前記通信部を介して前記サーバ装置に送信する、
    請求項1に記載の危険検知装置。
  3. 前記サーバ装置は、前記危険検知装置から受信された第1及び/又は第2のフラグと位置情報とに基づいて、前記地図情報において当該位置情報に対応する場所に、当該第1及び/又は第2のフラグが示す情報を登録するように前記地図情報を更新し、
    前記通信部は、前記サーバ装置から前記更新された地図情報を受信する、
    請求項2に記載の危険検知装置。
  4. 前記通信部から受信された地図情報に基づいて、前記ユーザの位置が、前記地図情報において前記第1及び/又は前記第2のフラグが示す情報が登録された場所に対応するとき、前記ユーザに対する報知を行う報知部を更に備える、請求項3に記載の危険検知装置。
  5. 前記制御部から前記第2のフラグが出力されたときに前記ユーザに対する報知を行う報知部を更に備える、請求項1~3のいずれかに記載の危険検知装置。
  6. 前記ユーザの位置に関する入力情報を入力して、前記ユーザの位置が前記危険場所に含まれるか否かの検知結果を出力する危険検知モデルを記憶する記憶部を更に備え、
    前記制御部は、前記危険検知モデルを用いて、前記ユーザの位置が前記危険場所に含まれるか否かを検知する、請求項1~5のいずれかに記載の危険検知装置。
  7. 前記入力部は、前記ユーザの周囲環境を撮像することにより生成された周囲画像を更に取得し、
    前記危険検知モデルの入力情報は、前記入力部によって取得されたユーザの位置及び前記周囲画像の少なくとも一方を含む請求項6に記載の危険検知装置。
  8. 前記危険検知モデルを管理するサーバ装置とデータ通信を行う通信部を更に備え、
    前記制御部は、前記ユーザの位置が前記危険場所に含まれることを検知せず、かつ、前記応答反応を検知したとき、前記ユーザの位置が前記危険場所に含まれず、かつ、前記応答反応があることを示す第3のフラグと、前記ユーザの位置を示す位置情報とを、前記通信部を介して前記サーバ装置に送信し、
    前記サーバ装置は、前記危険検知装置から受信した前記第3のフラグと前記位置情報とに基づいて、前記危険検知モデルを更新し、
    前記制御部は、前記サーバ装置から前記通信部を介して、前記更新された危険検知モデルを受信して、前記記憶部に格納する
    請求項6又は7に記載の危険検知装置。
  9. 前記危険検知装置は、車両に搭載され、前記ユーザは、前記車両の運転者である、請求項1~8のいずれかに記載の危険検知装置。
  10. ユーザの位置と、前記ユーザの生体情報とを取得するステップと、
    前記ユーザの位置が危険場所に含まれるか否かを検知するステップと、
    前記生体情報に基づいて、危険に対する前記ユーザの応答反応を検知するステップと、
    前記ユーザの位置が前記危険場所に含まれることが検知され、かつ、前記応答反応が検知されたとき、前記ユーザの位置が前記危険場所に含まれ、かつ、前記応答反応があることを示す第1のフラグと、前記ユーザの位置を示す位置情報とを出力するステップと、
    前記ユーザの位置が前記危険場所に含まれることが検知され、かつ、前記応答反応が検知されなかったとき、前記ユーザの位置が前記危険場所に含まれ、かつ、前記応答反応がないことを示す第2のフラグと、前記位置情報とを出力するステップと、
    を含む、危険検知方法。
JP2021147946A 2021-09-10 2021-09-10 危険検知装置及び危険検知方法 Pending JP2023040789A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021147946A JP2023040789A (ja) 2021-09-10 2021-09-10 危険検知装置及び危険検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021147946A JP2023040789A (ja) 2021-09-10 2021-09-10 危険検知装置及び危険検知方法

Publications (1)

Publication Number Publication Date
JP2023040789A true JP2023040789A (ja) 2023-03-23

Family

ID=85632131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021147946A Pending JP2023040789A (ja) 2021-09-10 2021-09-10 危険検知装置及び危険検知方法

Country Status (1)

Country Link
JP (1) JP2023040789A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023203515A1 (de) 2022-04-18 2023-10-19 Resonac Packaging Corporation Batterieverpackungsmaterial

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023203515A1 (de) 2022-04-18 2023-10-19 Resonac Packaging Corporation Batterieverpackungsmaterial

Similar Documents

Publication Publication Date Title
US11375338B2 (en) Method for smartphone-based accident detection
US9815478B2 (en) Driving assistance system and driving assistance method
CA2848995C (en) A computing platform for development and deployment of sensor-driven vehicle telemetry applications and services
US20170146801A1 (en) Head-mounted display device with a camera imaging eye microsaccades
US10922970B2 (en) Methods and systems for facilitating driving-assistance to drivers of vehicles
US10332385B2 (en) Location based support request messages responsive to alert recommendation
JP2018180983A (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2016028933A1 (en) System for determining an underwriting risk, risk score, or price of insurance using sensor information
Shubham et al. A survey on IoT based automatic road accident detection
US20240059323A1 (en) Dynamic emergency detection and automated responses
US11107302B2 (en) Methods and systems for emergency event management
JP2023040789A (ja) 危険検知装置及び危険検知方法
JP7297300B2 (ja) 情報処理装置及びプログラム
Patil et al. Drowsy driver detection using OpenCV and Raspberry Pi3
ITRM20130723A1 (it) Sistema informatico e relativo procedimento di supporto all'acquisizione e trasmissione tramite dispositivo mobile di dati relativi al moto di un veicolo alla geo-localizzazione ed ai comportamenti alla guida
JP2023092989A (ja) プログラム、情報処理方法、ドライブレコーダー、及び情報処理システム
Eldeib Helmet-Mounted Display System Based on IoT
US20230325690A1 (en) Predictive data analysis operations using a hierarchical intervention recommendation machine learning framework
JP2020135564A (ja) 危険性判定装置、危険性判定方法、及びプログラム
US20240289145A1 (en) Systems and methods for dynamically generating an instructional interface
US20230392936A1 (en) Method and apparatus for determining lingering communication indicators
US20220383256A1 (en) Post-vehicular incident reconstruction report
JP2023135476A (ja) 情報処理システム、情報処理方法、プログラム及び記憶媒体
Bhanja et al. Fuzzy Logic-Based Accident Detection System for Vehicular Ad Hoc Networks: A Prototype Implementation
JP2022078363A (ja) 情報処理装置及びプログラム