JP7021899B2 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JP7021899B2
JP7021899B2 JP2017204732A JP2017204732A JP7021899B2 JP 7021899 B2 JP7021899 B2 JP 7021899B2 JP 2017204732 A JP2017204732 A JP 2017204732A JP 2017204732 A JP2017204732 A JP 2017204732A JP 7021899 B2 JP7021899 B2 JP 7021899B2
Authority
JP
Japan
Prior art keywords
image
vehicle
danger avoidance
driver
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017204732A
Other languages
English (en)
Other versions
JP2019079203A (ja
Inventor
春樹 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017204732A priority Critical patent/JP7021899B2/ja
Publication of JP2019079203A publication Critical patent/JP2019079203A/ja
Application granted granted Critical
Publication of JP7021899B2 publication Critical patent/JP7021899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像生成装置および画像生成方法に関する。
近年、車両に搭載されるナビゲーション装置において、車両が注意して走行する必要があるヒヤリハット地点を通過する際に、ドライバに注意喚起を促す技術が提案されている(例えば、特許文献1参照)。
特開2010―128980号公報
しかしながら、従来技術は、単にヒヤリハット地点の存在をユーザに通知するためのものであって、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させる上で改善の余地があった。
本発明は、上記に鑑みてなされたものであって、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる画像生成装置および画像生成方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、実施形態に係る画像生成装置は、検出部と、抽出部と、変換部と、対応付け部とを備える。前記検出部は、車両の走行データから危険回避運転を検出する。前記抽出部は、前記検出部によって前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出する。前記変換部は、前記抽出部によって抽出された前記移動物体を抽象化したアニメーション画像へ変換する。対応付け部は、前記変換部によって変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける。
本発明によれば、ユーザに対してヒヤリハットのシチュエーションを直感的に把握させることができる。
図1は、画像生成方法の概要を示す図である。 図2は、画像生成システムの構成例を示す図である。 図3は、画像生成装置のブロック図である。 図4は、車載カメラの設置位置を示す模式図である。 図5は、ユーザデータベースの具体例を示す図である。 図6は、ヒヤリハット地点データベースの具体例を示す図である。 図7は、3次元地図画像の一例を示す図である。 図8は、表示映像の概念図である。 図9は、車載装置のブロック図である。 図10は、検索画面の一例を示す図である。 図11は、表示画面の一例を示す図である。 図12は、画像生成装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、実施形態に係る画像生成装置および画像生成方法を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
まず、図1を用いて実施形態に係る画像生成方法の概要について説明する。図1は、画像生成方法の概要を示す図である。かかる画像生成方法は、画像生成装置によって実行される。
実施形態に係る画像生成方法は、車両が急ブレーキ等を行った際のいわゆるヒヤリハット地点におけるヒヤリハットの事象を映像化してユーザに直感的に把握させるものである。
ここで、実施形態に係る画像生成方法に先立ち、従来技術について説明する。従来技術において、ヒヤリハット地点を車両が通過する際に、運転者へ注意喚起を促すものがある。
しかしながら、従来技術では、ディスプレイ上に表示された地図画像にヒヤリハット地点を重畳して表示したり、スピーカから注意喚起を促す音声を出力したりするのみであった。このため、従来技術では、ユーザは実際のシチュエーションを把握し難かった。
これに対して、ヒヤリハット時に撮像された実際の映像をユーザに提示することも考えられる。しかしながら、かかる場合に、映像に写る通行人や、通行車両のプライバシーが侵害されるおそれがあり、個人情報を保護する観点から好ましくない。
そこで、実施形態に係る画像生成方法では、個人情報を保護しつつ、ユーザに対してヒヤリハットの事例を直感的に把握させることとした。つまり、実施形態に係る画像生成方法では、映像に写る通行人や、通行車両を加工することで、プライバシーを保護しつつ、ヒヤリハットのシチュエーションをユーザに直感的に把握させることが可能となる。
具体的には、図1に示すように、まず、実施形態に係る画像生成方法では、車両の走行データから危険回避運転を検出する(ステップS1)。ここで、危険回避運転とは、例えば、急ブレーキ、急操舵等を含む。また、危険回避運転は、危険を回避できた場合のみならず、危険を回避しようとしたものの、危険を避けられなかった場合を含む。
次に、実施形態に係る画像生成方法では、車両の外部が撮像された撮像映像Lから移動物体を抽出する(ステップS2)。ここで、移動物体とは、撮像映像Lに写る通行人や、通行車両を示す。同図に示す例では、歩行者Pおよび通行車両Tcを移動物体として抽出した場合について示す。なお、移動物体とは、時系列的な撮像映像Lにおいて静止中の歩行者や停止中の通行車両を含む。
続いて、実施形態に係る画像生成方法では、抽出した移動物体をアニメーション画像Gへ変換する(ステップS3)。アニメーション画像Gとは、例えば、3次元のポリゴン画像であるが、移動物体を抽象化したものであれば、その態様は問わない。
このように、実施形態に係る画像生成方法では、移動物体をアニメーション画像Gへ変換することで、歩行者Pや通行車両Tcの個人情報を保護することが可能となる。
次に、実施形態に係る画像生成方法では、アニメーション画像Gに対して危険回避運転の位置情報を対応付ける(ステップS4)。ここで、位置情報とは、例えば、移動物体の実際の位置であり、移動物体の向き等を含む。
このように、実施形態に係る画像生成方法では、アニメーション画像Gに対して位置情報を対応付けることで、危険回避運転の実際のシチュエーションを地図画像上で表示することが可能となる。
これにより、運転者は、危険回避運転が多発するポイント(以下、ヒヤリハット地点と記載する)を通過する前に、かかるヒヤリハット地点のアニメーション画像Gを事前に確認することが可能となる。
このように、実施形態に係る画像生成方法では、危険回避運転を検出した場合に、撮像映像Lに写る移動物体をアニメーション画像Gに変換することで、ヒヤリハット時のシチュエーションを直感的に把握させることが可能となる。
次に、図2を用いて実施形態に係る画像生成システム100について説明する。図2は、画像生成システム100の構成例を示す図である。図2に示すように、画像生成システム100は、画像生成装置1と、複数の車載装置50とを備える。画像生成装置1と、複数の車載装置50とは、ネットワークNを介して双方向に情報を送受信することが可能である。
各車載装置50は、それぞれ車両Cに搭載され、DCM(Date Communication Module)などの車載通信モジュールやドライブレコーダ等を含む。車載装置50は、それぞれ車両Cの走行データや、ドライブレコーダで撮像された撮像映像Lを含む情報を所定周期で画像生成装置1へ送信する。
画像生成装置1は、各車載装置50から送信される情報に基づいて危険回避運転を検出し、かかる移動物体をアニメーション画像Gへ変換する処理を実行することとなる。
このように、実施形態に係る画像生成システム100では、各車載装置50から送信される情報を画像生成装置1へ集積することで、多様なシチュエーションにおける危険回避運転に関する事象をビッグデータ化することが可能となる。
例えば、ビッグデータ化した危険回避運転に関する情報は、運転者に対して事前にヒヤリハット時のシチュエーションを把握させるのみならず、交通安全に関する教育や、インフラの整備等に活用することが可能である。なお、ここでは、画像生成装置1が、車載装置50と別体である場合について説明したが、画像生成装置1と、車載装置50とは一体であってもよい。つまり、画像生成装置1を各車両Cに搭載し、車載装置50の機能を兼ねることにしてもよい。
かかる場合に、画像生成システム100では、画像生成装置1によって生成されたアニメーション画像Gを集約するサーバ装置を別途備えることにしてもよい。
次に、図3を用いて実施形態に係る画像生成装置1の構成例について説明する。図3は、画像生成装置1のブロック図である。図3に示すように、画像生成装置1は、通信部2と、制御部3と、記憶部4とを備える。通信部2は、上述した各車載装置50とデータの送受信を行う通信インターフェースである。
制御部3は、検出部31と、抽出部32と、変換部33と、対応付け部34と、生成部35とを備える。また、記憶部4は、ヒヤリハット地点データベース41と、ユーザデータベース42と、3次元地図データベース43とを記憶する。
制御部3は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35として機能する。
また、制御部3の検出部31、抽出部32、変換部33、対応付け部34および生成部35の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部4は、例えば、RAMやHDDに対応する。RAMやHDDは、ヒヤリハット地点データベース41、ユーザデータベース42および3次元地図データベース43や各種プログラムの情報を記憶することができる。なお、画像生成装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
制御部3の検出部31は、車両Cの走行データから危険回避運転を検出する。具体的には、検出部31は、各車載装置50から送信される走行データから例えば、急ブレーキ、急操舵を危険回避運転として検出する。
より詳細には、検出部31は、走行データのうち、車両Cの速度の推移や、車両Cに生じる加速度に基づいて急ブレーキを検出し、車両Cの舵角の推移に基づいて急操舵を検出する。また、検出部31は、車両Cの加速度や、エアバッグの作動状況から車両Cの衝突を検出することもできる。
なお、検出部31は、車両Cから撮像された撮像映像Lや、車両Cが備えるレーダ装置の検知結果に基づいて危険回避運転を検出することにしてもよい。
具体的には、検出部31は、例えば、時系列の撮像映像Lから同一の特徴点を結んだベクトル、いわゆるオプティカルフローに基づいて車両Cの速度や旋回角を導出し、危険回避運転を検出することもできる。
このとき、検出部31は、車両Cの進行方向について障害物の有無を撮像映像Lやレーダ装置の検知結果に基づいて判定することもできる。つまり、検出部31は、検出した危険回避運転が障害物等による外的要因によるものか、運転者による内的要因によるものかを判定することもできる。
かかる場合に、検出部31は、検出した危険回避運転のうち、外的要因による危険回避運転のみを危険回避運転として判定することもできる。つまり、内的要因に基づく危険回避運転を排除することで、外的要因に基づくヒヤリハット地点のみを抽出することが可能となる。
検出部31は、危険回避運転を検出した場合、危険回避運転の発生した時刻を示す時刻情報および危険回避運転の発生地点、危険回避運転時を含む前後の時刻に撮像された撮像映像L等を含む情報を抽出部32へ通知する。
抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部が撮像された撮像映像Lから移動物体を抽出する。例えば、抽出部32は、危険回避運転時を含む前後の時刻に撮像された撮像映像Lからテンプレート画像とのマッチング処理によって撮像映像Lに写る歩行者や他車両を移動物体として抽出することができる。
また、抽出部32は、抽出した移動物体の撮像映像L上の座標位置およびかかる移動物体の種別等を示す移動物体情報を変換部33へ通知する。なお、抽出部32は、上記のマッチング処理のみならず、いわゆる背景差分法などその他の手法を用いて撮像映像Lから移動物体を抽出することにしてもよい。
変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。例えば、変換部33は、上記の移動物体情報に基づいて移動物体の種別に応じたアニメーション画像Gを撮像映像L上の座標位置に重畳することで移動物体をアニメーション画像Gへ変換する。変換部33は、変換したアニメーション画像Gに関する情報を対応付け部34へ出力する。
ここで、上述したように、アニメーション画像Gは、3次元のポリゴン画像であり、視点方向を変更可能な自由視点画像である。つまり、ユーザは、アニメーション画像Gに対して画像上で視点の角度を変えて視認することができる。このため、変換部33は、アニメーション画像Gへの変換に際して、移動物体の実際の大きさや、撮像映像Lを撮像する車載カメラCmと移動物体との相対距離を決定する必要がある。
そこで、変換部33は、車両Cの外部を撮像する車載カメラCmの設置位置に基づいて移動物体の実際の大きさや相対距離を決定する。図4は、車載カメラCmの設置位置を示す模式図である。図4に示すように、取り付け位置は、取付高さHおよび取付俯角θを含む。
取付高さHとは、路面から車載カメラCmのレンズまでの高さを示し、例えば、車両Cの車種や、取付位置に応じて異なる。また、取付俯角θとは、路面から車載カメラCmの垂線に対する撮像軸axの角度を示す。
取付俯角θについても、取付高さHと同様に車両C毎に固有の値である。なお、取付高さHおよび取付俯角θに関する情報は、例えば、画像生成システム100に対する車載装置50の初期登録時に画像生成装置1に登録される。
変換部33は、車載カメラCmの取付高さHおよび取付俯角θに基づいて車載カメラCmの撮像領域を導出し、かかる撮像領域を路面上の座標系に変換する。そして、変換部33は、かかる座標系に基づいて撮像映像Lに写る移動物体の実際の大きさや相対距離を決定する。
このように、変換部33は、車載カメラCm毎の取り付け位置に基づいて移動物体の実際の大きさや相対距離を決定することで、撮像映像Lから移動物体の大きさや相対距離を正確に導出することができる。
図3の説明に戻り、対応付け部34について説明する。対応付け部34は、変換部33によって変換されたアニメーション画像Gにヒヤリハット地点の位置情報を対応付ける。例えば、対応付け部34は、危険回避運転時の位置情報を各アニメーション画像Gへ対応付ける。
このとき、対応付け部34は、危険回避運転前後の位置情報の推移に基づき、車両Cの進行方向、すなわち、車載カメラCmの撮像方向を推定し、かかる撮像方向に関する情報をアニメーション画像Gへ対応付ける。
つまり、対応付け部34は、推定した撮像位置および撮像方向と、変換部33によって導出された撮像映像L上における移動物体の位置情報とに基づいてアニメーション画像Gの正確な位置や向きを対応付けることができる。
また、対応付け部34は、アニメーション画像Gに対して危険回避運転を行った運転者に関する運転者情報を対応付ける。かかる運転者情報は、記憶部4のユーザデータベース42に格納される。
図5は、ユーザデータベース42の具体例を示す図である。図5に示すように、ユーザデータベース42には、運転者情報として「ユーザID」、「車両ID」、「性別」、「走行距離」、「運転スキル」、「違反回数」が互いに対応付けられる。
「ユーザID」は、運転者を識別する識別子であり、「車両ID」は、運転者が乗車する車両Cを識別する識別子である。また、「性別」は、運転者の性別を示し、「走行距離」は、運転者が車両Cを運転した距離を示す。
「運転スキル」は、運転者の運転に関する技量を示し、「違反回数」は、例えば、運転者が道路交通法を違反した回数を示す。なお、運転スキルについは、例えば、画像生成装置1に運転スキルを診断する診断部を設けることにしてもよいし、外部の装置で診断した運転スキルをユーザデータベース42へ登録することにしてもよい。
このように、対応付け部34は、運転者情報をアニメーション画像Gへ対応付けることで、各アニメーション画像Gの検索を容易にすることができる。つまり、ユーザID、性別、走行距離等の検索条件の入力によってアニメーション画像Gを容易に検索することができる。なお、かかる点の詳細については、図10を用いて後述する。
さらに、対応付け部34は、アニメーション画像Gに対して、危険回避運転時の時刻、天候等に関する情報を対応付けることもできる。そして、対応付け部34は、アニメーション画像Gについて情報の対応付けを終えると、アニメーション画像Gを図3に示すヒヤリハット地点データベース41に格納する。
図6は、ヒヤリハット地点データベース41の具体例を示す図である。図6に示すように、ヒヤリハット地点データベース41には、各アニメーション画像Gについて、「画像ID」、「ユーザID」、「位置」、「ヒヤリハット種別」、「日時」、「天候」等の情報が対応付けられて記憶される。
「画像ID」は、アニメーション画像Gを識別する識別子であり、「ユーザID」は、危険回避運転の運転者を示す識別子であり、ユーザIDには、図5に示したように、運転者情報が紐付けられる。
「位置」は、アニメーション画像Gを地図画像上で表示する位置を示す。「ヒヤリハット種別」は、危険回避運転時のヒヤリハットに関する事象を示す。「日時」は、危険回避運転が発生した日時を示し、「天候」は、ヒヤリハット時の天候を示す。
例えば、天候に関する情報は、「位置」および「日時」に基づいて外部の装置、もしくは、各車載装置50から取得することができる。
図3の説明に戻り、生成部35について説明する。生成部35は、位置情報に基づき、アニメーション画像を撮像映像Lに対応した3次元地図画像に重畳させた表示映像Dを生成する。
かかる3次元地図画像は、記憶部4の3次元地図データベース43に記憶される。図7は、3次元地図画像の一例を示す図である。図7に示すように、3次元地図画像は、例えば、ビルなどの建物を3次元的に表現した画像である。
3次元地図画像には、実際の位置情報が対応付けられており、生成部35は、アニメーション画像Gに対応付けられた位置情報に基づき、3次元地図画像上にアニメーション画像Gを重畳する。
これにより、アニメーション画像Gを3次元地図画像上の実位置に重畳することが可能となる。また、アニメーション画像Gおよび3次元地図画像は、いずれも視点位置を変更可能である。
このため、表示映像Dにおいては、3次元地図画像およびアニメーション画像Gについて視点位置を変更して表示することが可能である。つまり、図8に示すように、車載カメラCmの撮像位置や、撮像軸axを疑似的に変更させて表示映像Dを表示することが可能である。なお、図8は、表示映像Dの概念図である。
このように、視点位置を変更可能とすることで、任意の視点位置からヒヤリハットのシチュエーションを検証することが可能となる。すなわち、ヒヤリハット時の運転者の視点からの画像のみならず、他車両や、歩行者から車両Cを見た画像、さらに、全体を俯瞰した俯瞰画像等を表示映像Dとして表示することが可能となる。
つまり、生成部35は、アニメーション画像Gを3次元地図画像に重畳することで、多様な角度からヒヤリハット時のシチュエーションを検証することが可能となる。
特に、生成部35は、ドライバの視点位置や移動物体の視点位置を含む視点位置から見た表示画像Dを生成することで、ドライバおよび移動物体の双方の視点からヒヤリハットのシチュエーションを検証することができる。
つまり、ユーザが、ヒヤリハットの発生原因を多様な角度から解析することが可能となる。これにより、ユーザが、ヒヤリハットを未然に防ぐための運転知識を深めることできるので、ヒヤリハットの発生を抑止する効果が期待される。
また、アニメーション画像Gを重畳した3次元地図画像を表示し、実際に撮影された映像を表示しないことで、ヒヤリハットの事象を発生させたドライバやそのドライバの所属する企業(タクシー会社等)が特定されることを防止できる。これは、実際に撮影された映像には、個人を特定する私物や企業を示すマークを含む場合があるからである。
このように個人や企業を特定できないようにすることで、複数人や複数企業でヒヤリハット時のシチュエーションの検証に有効なシーンを安心して共有することができる。
また、生成部35は、アニメーション画像Gに対応付けられた天候情報や時刻情報を反映させた表示映像Dを生成することも可能である。かかる点の詳細については、後述する。
次に、図9を用いて実施形態に係る車載装置50について説明する。図9は、車載装置50のブロック図である。図9に示すように、車載装置50は、ナビゲーション装置60、表示装置70、車載カメラCm、免許証リーダLlが接続される。
また、車載装置50は、ブレーキセンサSc1、アクセルセンサSc2、ステアリングセンサSc3、GセンサSc4、GPS(Global Positioning System)Sc5等から取得した情報を走行データとして画像生成装置1へ送信する。
車載カメラCmは、上述したように、いわゆるドライブレコーダであり、車両Cの前方を撮像した撮像映像Lを車載装置50へ出力する。なお、車載カメラCmを車載装置50に含める構成にすることにしてもよい。
免許証リーダLlは、運転者の免許証から情報を読み取る装置である。例えば、免許証リーダLlは、運転者の免許証から運転者の氏名、年齢、住所、免許証の色の区分等を読み取り、車載装置50へ出力する。
なお、車載装置50は、免許証リーダLlに代えて、運転者が撮像された撮像映像から運転者を識別したり、指紋等を用いた生体認証により運転者を識別したりすることにしてもよい。
車載装置50は、通信部51と、制御部52とを備える。通信部51は、画像生成装置1とデータを送受信する通信インターフェースである。制御部52は、車載装置50の全体を制御するCPUとして機能する。
例えば、制御部52は、車載カメラCmで撮像された撮像映像Lや走行データに対して運転者情報を紐付けて通信部51を介して画像生成装置1へ送信する。
また、制御部52は、ナビゲーション装置60から車両Cの進路情報を取得し、かかる進路情報を画像生成装置1へ送信する。これにより、画像生成装置1から車載装置50へ車両Cの進路上のヒヤリハット地点に関する表示映像Dが送信され、かかる表示映像Dが表示装置70の表示部71に表示される。
なお、車載装置50に予め表示映像Dに関する情報を記憶しておき、車載装置50がかかる情報に基づいて表示映像Dを選択して表示部71に表示することにしてもよい。つまり、画像生成装置1によって生成された表示映像Dに関する情報を所定の周期で車載装置50にアップデートして用いることにしてもよい。
ナビゲーション装置60は、車両Cの現在地や、目的地までの経路を示すナビゲーション画像を生成し、表示装置70へ出力する。表示装置70は、例えば、タッチパネルディスプレイであり、表示部71と、操作部72とを備え、上記のナビゲーション画像や表示映像Dを表示する。
ところで、上述したように、アニメーション画像Gを含む表示映像Dには、運転者情報や、時刻情報、天候情報等が対応付けられる。このため、ユーザは、表示部71に表示された検索画面を見ながら、操作部72に対する操作によってアニメーション画像Gを条件検索することが可能である。
図10は、検索画面の一例を示す図である。図10に示すように、検索画面には、性別、天候、年代、時間帯、免許証等の検索条件が表示される。
かかる検索条件の各項目が選択されると、検索条件に合致するヒヤリハット地点Sが地図上に表示される。そして、例えば、地図上のヒヤリハット地点Sが選択されると、選択されたヒヤリハット地点Sにおけるアニメーション画像Gを含む表示映像Dが再生される。
これにより、ユーザは、所望するヒヤリハット地点Sにおけるヒヤリハットのシチュエーションを確認することが可能となる。また、表示映像Dの条件検索を可能とすることで、ユーザが所望する表示映像Dを簡便な操作で検索することができる。
また、画像生成システム100では、所定の地点からヒヤリハット地点までの表示映像Dを再生することも可能である。図11は、表示画面の具体例を示す図である。
図11に示すように、表示画面には、車両Cの走行位置を示すアイコンIが表示された地図画像Mと、表示映像Dが表示される。ここで、表示映像Dは、アイコンIの位置における運転者の視点画像である。
つまり、表示映像Dは、車両Cが実際にアイコンIの位置を走行した際に運転席から見える景色が表示される。このとき、車両Cにあわせて視点位置の高さを調整することも可能である。
すなわち、車両Cの運転席の高さに応じて視点位置の高さを変更して表示映像Dを表示することができる。これにより、リアリティーの高い表示映像Dを提供することが可能となる。
また、表示画面では、アイコンIの移動に伴って、表示映像Dが更新される。すなわち、アイコンIが移動すると、移動した位置から運転者が見える景色が表示映像Dに随時表示される。つまり、表示画像Dを再生した場合の時間的変化に連動して、車両Cの位置を示すアイコンIを地図画像上で移動する。
同図に示す例では、地図画像M上に表示されたアイコンIが右折後に、ヒヤリハット地点Sが見える場合を示す。このため、かかるアイコンIの位置からは、ヒヤリハット地点Sを視認することはできないので、表示映像Dにはヒヤリハット地点Sは表示されず、かかるヒヤリハット地点Sの手前にある交差点が表示される。
このように、画像生成システム100では、ヒヤリハット地点Sにおける表示映像Dだけでなく、ヒヤリハット地点Sに至るまでの表示映像Dを生成することが可能である。
これにより、運転者は、ヒヤリハット地点Sにおける表示映像Dのみならず、ヒヤリハット地点Sに至るまでの走行ルートにおける表示映像Dを事前に確認することができる。したがって、ユーザは、走行ルートとともにヒヤリハットの内容を確認することができる。
なお、この際に、例えば、走行ルートにおいて、ヒヤリハット地点Sの手前にある特徴的な構造物を強調して表示することにしてもよい。これにより、ユーザは、走行ルートを実際に走行する際に、かかる構造物を目印として、ヒヤリハット地点Sに近づいたことを認識することが可能となる。
つまり、かかる構造物を強調して表示することにより、ユーザに対してヒヤリハット地点Sの実際の位置を印象付けて記憶させることが可能となる。また、アイコンIの移動に伴って、アイコンIの位置から見える表示映像Dを表示することで、ユーザは、車両Cの位置とともに、かかる位置における風景を同時に視聴することが可能となる。
ところで、画像生成システム100では、表示映像Dを車両Cのフロントガラスに見立てて、時刻や天候に応じて表示態様を変更することも可能である。具体的には、天候が雨や雪であれば、表示映像Dに雨や雪を表示する。
例えば、画像生成システム100では、時刻に応じて表示映像Dの明るさを変化させて表示したり、降水量や積雪量に応じて雨や雪の量を調整して表示映像Dに重畳したりすることができる。また、表示映像Dにワイパが動作するアニメーションを重畳して表示することも可能である。かかる場合に、雨や雪の量に応じてワイパの速度を調整することもできる。
このように、画像生成システム100では、時刻や天候を表示映像Dに反映させる。これにより、運転者は、時刻や天候から想定される視界の表示映像Dを視聴することができる。つまり、現在の運転状況にあわせてリアリティーの高い表示映像Dを提供することが可能となる。
次に、図12を用いて実施形態に係る画像生成装置1が実行する処理手順について説明する。図12は、画像生成装置1が実行する処理手順を示すフローチャートである。図12に示すように、まず、画像生成装置1は、走行データを受信し(ステップS101)、危険回避運転を検出したか否かを判定する(ステップS102)。
抽出部32は、検出部31が危険回避運転を検出した場合(ステップS102,Yes)、撮像映像Lから移動物体を抽出する(ステップS103)。一方、危険回避運転を検出しなかった場合(ステップS102,No)、処理を終了する。
続いて、変換部33は、移動物体をアニメーション画像Gへ変換し(ステップS104)、対応付け部34は、アニメーション画像Gに対して危険回避運転の位置情報を対応付けて(ステップS105)、処理を終了する。
上述したように、実施形態に係る画像生成装置1は、検出部31と、抽出部32と、変換部33と、対応付け部34とを備える。検出部31は、車両Cの走行データから危険回避運転を検出する。抽出部32は、検出部31によって危険回避運転が検出された場合に、車両Cの外部を継続的に撮像した撮像映像Lから移動物体を抽出する。
変換部33は、抽出部32によって抽出された移動物体を抽象化したアニメーション画像Gへ変換する。対応付け部34は、変換部33によって変換されたアニメーション画像Gに対して危険回避運転の位置情報を対応付ける。したがって、実施形態に係る画像生成装置1によれば、ユーザに対してヒヤリハット時のシチュエーションを直感的に把握させることができる。
ところで、上述した実施形態では、画像生成装置1が、ヒヤリハットに対する表示映像Dを生成する場合について説明したが、これに限定されるものではない。
そこで、以下では、画像生成装置1の変形例について説明する。変形例に係る画像生成装置1は、車両Cの走行データに基づいて運転者の視点画像を再現した表示映像Dを生成する。
このとき、例えば、画像生成装置1には、各道路における法定速度、道路標識に関する情報を記憶しておき、走行データから道路交通法の違反を検出することもできる。
画像生成装置1は、かかる違反を検出した場合に、違反内容を示すテロップを表示映像Dに重畳して表示することもできる。また、画像生成装置1は、撮像映像Lに写る信号機の点灯状態を検出し、信号無視等の違反を検出することも可能である。
なお、上述した実施形態では、車載装置50を介して表示映像Dをユーザに提示する場合について説明したが、パソコン等の表示部を介して表示映像Dをユーザへ提示することにしてもよい。
かかる場合に、例えば、トラック、バス等を含む営業車両の運行を管理する管理者が営業所等で各運転者に対してヒヤリハット地点およびヒヤリハットのシチュエーションを事前に確認させることができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 画像生成装置
31 検出部
32 抽出部
33 変換部
34 対応付け部
35 生成部
C 車両
D 表示映像
G アニメーション画像

Claims (7)

  1. 車両の走行データから危険回避運転を検出し、
    前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出し、
    抽出された前記移動物体を抽象化したアニメーション画像へ変換し、
    変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付ける制御部を備え、
    前記制御部は、
    現在の時刻または天候から想定されるドライバの視界を再現した前記危険回避運転に関する表示映像を生成すること
    を特徴とする画像生成装置。
  2. 前記制御部は、
    前記位置情報に基づき、前記アニメーション画像を前記撮像映像に対応した3次元地図画像に重畳させた表示映像を生成すること
    を特徴とする請求項1に記載の画像生成装置。
  3. 前記制御部は、
    前記車両のドライバおよび前記移動物体の視点位置を含んだ視点位置を変更可能にして、前記表示映像を生成すること
    を特徴とする請求項2に記載の画像生成装置。
  4. 前記制御部は、
    前記表示映像を再生した場合の時間的変化に連動して、前記車両の位置を示すアイコン画像を地図画像上で移動させること
    を特徴とする請求項2または3に記載の画像生成装置。
  5. 前記制御部は、
    天候情報および時刻情報に応じた前記表示映像を生成すること
    を特徴とする請求項2、3または4に記載の画像生成装置。
  6. 前記制御部は、
    前記アニメーション画像に対して前記車両の運転者に関する運転者情報を対応付けること
    を特徴とする請求項1~5のいずれか一つに記載の画像生成装置。
  7. 制御部により実行される画像生成方法であって、
    前記制御部は、
    車両の走行データから危険回避運転を検出し、
    前記危険回避運転が検出された場合に、前記車両の外部を継続的に撮像した撮像映像から移動物体を抽出し、
    抽出された前記移動物体を抽象化したアニメーション画像へ変換し、
    変換された前記アニメーション画像に対して前記危険回避運転の位置情報を対応付けて、
    現在の時刻または天候から想定されるドライバの視界を再現した前記危険回避運転に関する表示映像を生成する
    ことを特徴とする画像生成方法。
JP2017204732A 2017-10-23 2017-10-23 画像生成装置および画像生成方法 Active JP7021899B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017204732A JP7021899B2 (ja) 2017-10-23 2017-10-23 画像生成装置および画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017204732A JP7021899B2 (ja) 2017-10-23 2017-10-23 画像生成装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP2019079203A JP2019079203A (ja) 2019-05-23
JP7021899B2 true JP7021899B2 (ja) 2022-02-17

Family

ID=66627774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204732A Active JP7021899B2 (ja) 2017-10-23 2017-10-23 画像生成装置および画像生成方法

Country Status (1)

Country Link
JP (1) JP7021899B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7151654B2 (ja) 2019-07-26 2022-10-12 トヨタ自動車株式会社 検索装置、学習装置、検索システム、検索プログラム、及び学習プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164001A (ja) 2002-11-08 2004-06-10 Matsushita Electric Ind Co Ltd 安全運転支援装置、安全運転支援基地局、および安全運転支援システム
JP2008003657A (ja) 2006-06-20 2008-01-10 Hitachi Ltd 運転情報集約装置、システム、情報集約方法、及び、情報集約プログラム
JP2008204304A (ja) 2007-02-22 2008-09-04 Hitachi Ltd 車両挙動再現方法およびシステム
JP2010238209A (ja) 2009-03-31 2010-10-21 Fujitsu Ten Ltd 車載システム
JP2011239001A (ja) 2010-04-30 2011-11-24 Techno Safety Co Ltd 画像編集装置、画像再生装置及び画像編集方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164001A (ja) 2002-11-08 2004-06-10 Matsushita Electric Ind Co Ltd 安全運転支援装置、安全運転支援基地局、および安全運転支援システム
JP2008003657A (ja) 2006-06-20 2008-01-10 Hitachi Ltd 運転情報集約装置、システム、情報集約方法、及び、情報集約プログラム
JP2008204304A (ja) 2007-02-22 2008-09-04 Hitachi Ltd 車両挙動再現方法およびシステム
JP2010238209A (ja) 2009-03-31 2010-10-21 Fujitsu Ten Ltd 車載システム
JP2011239001A (ja) 2010-04-30 2011-11-24 Techno Safety Co Ltd 画像編集装置、画像再生装置及び画像編集方法

Also Published As

Publication number Publication date
JP2019079203A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
US10417816B2 (en) System and method for digital environment reconstruction
CN106536299B (zh) 基于检测对象制动车辆的系统和方法
CN111164967B (zh) 图像处理设备和图像处理方法
US20190251374A1 (en) Travel assistance device and computer program
US9336630B2 (en) Method and apparatus for providing augmented reality
JP6127659B2 (ja) 運転支援装置及び運転支援方法
WO2020100922A1 (ja) データ配信システム、センサデバイス及びサーバ
US11682297B2 (en) Real-time scene mapping to GPS coordinates in traffic sensing or monitoring systems and methods
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
US20230343108A1 (en) Systems and methods for detecting projection attacks on object identification systems
JP7021899B2 (ja) 画像生成装置および画像生成方法
KR20170056789A (ko) 블랙박스 기능을 갖는 avm 시스템 및 운용 방법
JP7533616B2 (ja) 交通イベント再現システム、サーバ、交通イベント再現方法、及び交通イベント再現プログラム
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
JP2013077122A (ja) 事故解析装置、事故解析方法、および、プログラム
AU2021107425A4 (en) Obstacle detection system in hybrid classification of heterogeneous environment using data mining techniques and method thereof
JP7140895B1 (ja) 事故分析装置、事故分析方法及びプログラム
JP2019169042A (ja) 視点切替装置及び視点切替方法
Rezaei et al. Vision-based driver-assistance systems
JP7038881B1 (ja) 事故分析装置、事故分析方法及びプログラム
JP2012084078A (ja) 動体情報解析装置、動体情報解析システム、動体情報解析装置の制御方法、および動体情報解析装置の制御プログラム
WO2020073268A1 (en) Snapshot image to train roadmodel
WO2020073272A1 (en) Snapshot image to train an event detector
WO2020073270A1 (en) Snapshot image of traffic scenario
WO2020073271A1 (en) Snapshot image of traffic scenario

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7021899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150