JP2007172551A - 運転状況推定装置 - Google Patents

運転状況推定装置 Download PDF

Info

Publication number
JP2007172551A
JP2007172551A JP2005373056A JP2005373056A JP2007172551A JP 2007172551 A JP2007172551 A JP 2007172551A JP 2005373056 A JP2005373056 A JP 2005373056A JP 2005373056 A JP2005373056 A JP 2005373056A JP 2007172551 A JP2007172551 A JP 2007172551A
Authority
JP
Japan
Prior art keywords
image
value
complexity
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005373056A
Other languages
English (en)
Inventor
Hiroshi Shimizu
洋志 清水
Osamu Shimoyama
修 下山
Yasushi Takada
裕史 高田
Tetsugun Nae
鉄軍 苗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
CCI KK
Original Assignee
Nissan Motor Co Ltd
CCI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd, CCI KK filed Critical Nissan Motor Co Ltd
Priority to JP2005373056A priority Critical patent/JP2007172551A/ja
Publication of JP2007172551A publication Critical patent/JP2007172551A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】車両の周囲の運転環境を推定する際に、その車両の周囲環境の複雑さも加味して行うようにした運転状況推定装置の提供。
【解決手段】車外風景撮像装置1〜4は、車両に配置されてその車両の運転中に車外の風景を撮像する。車外風景画像保存部5は、車外風景撮像装置1〜4で撮像された車外風景画像を保存する。フラクタル次元算出部6は、車外風景画像保存部5に保存された所定の1つの車外風景画像に対してフラクタル解析を行い、そのフラクタル次元を算出する。運転環境複雑度推定部7は、フラクタル次元算出部6で算出されたフラクタル次元の大きさに基づき、その車外風景画像の撮影時における運転環境の複雑度を推定する。
【選択図】 図1

Description

本発明は、車両の運転中に、車両の周囲情報の複雑さを加味して車両の周囲の変化状況を知らせるようにした運転状況推定装置に関するものである。
従来、車両の前方を撮影した画像に基づき、運転者に対する影響度(運転負荷)を推定する技術として、特許文献1に記載のものが知られている。
この技術は、車両の前方などをカメラで撮影し、その撮影した画像の明暗分布により検出対象域を割り出し、その割り出した検出対象域の重心と面積の変化によって移動体(周囲の車両)を検出して、移動体の移動量を推定し、自己の車両の周囲の移動体の変化状況を知らせるものである。
特開平3−260813号公報
しかしながら、従来の発明では、以下のような不具合があった。
すなわち、運転者が運転時に受ける負荷は周囲の車両(移動体)だけではなく、例えば込み入った市街地を運転する場合には、その周囲の環境による影響を大きくうけると考えられるが、車両の周囲の環境の複雑さが考慮されていなかった。
そこで、本発明の目的は、上記の点に鑑み、車両の周囲の運転環境を推定する際に、その車両の周囲環境の複雑さも加味して行うようにした運転状況推定装置を提供することにある。
上記の課題を解決し本発明の目的を達成するために、本発明は、以下のような構成からなる。
すなわち、本発明は、車両に配置されてその車両の運転中に車外の風景を撮像する車外風景撮像装置と、前記車外風景撮像装置で撮像された車外風景画像を保存する車外風景画像保存部と、前記車外風景画像保存部に保存された少なくとも1つの車外風景画像に対してフラクタル解析を行い、そのフラクタル次元を算出するフラクタル次元算出部と、前記フラクタル次元算出部で算出されたフラクタル次元の大きさに基づき、その車外風景画像の撮影時における運転環境の複雑度を推定する運転環境複雑度推定部と、を備えている。
本発明によれば、車外風景画像の撮像時における運転環境の複雑度を推定する際に、車両の周囲情報の複雑さを加味することができる。
以下、図面を参照して、本発明の実施形態について説明する。
(第1実施形態)
図1は、本発明の第1実施形態の構成を示すブロック図である。
この第1実施形態は、図1に示すように、車外風景撮像装置1〜4と、車外風景画像保存部5と、フラクタル次元算出部6と、運転環境複雑度推定部7とを、少なくとも備えている。ここで、図1の各装置や各部は、特許請求の範囲の各装置や各部に対応する。
次に、第1実施形態の各部の具体的な構成について説明する。
車外風景撮像装置1〜4は、車両を運転中(走行中)に車外の風景を撮影するために、車両上に搭載されたものである。この車外風景撮像装置1〜4は、例えばCCDカメラからなる。
車外風景撮像装置1は、図2(a)に示すように、運転者8が前方を見ているときの車外風景と同等の画像が撮影できる位置に配置されている。例えば、ルームミラー部9にCCDカメラを埋め込み(図2(b)参照)、そのCCDカメラが運転者の前方の風景画像が撮影できるように設定されている。
残りの車外風景撮像装置2〜4は、車両の右側方の風景画像、その左側方の風景画像、およびその後方の風景画像をそれぞれ撮像するようになっており、例えば、図2(a)に示すように、車体の所定位置にCCDカメラがそれぞれ埋め込まれている。
車外風景画像保存部5は、車外風景撮像装置1〜4が撮影した風景画像を保存(記憶)するものであり、例えば半導体メモリなどからなる。この車外風景画像保存部5は、例えば、車外風景撮像装置1〜4が撮影する風景画像について、1秒間に30コマの風景画像を保存できるようになっている。そして、図3に示すように、その各風景画像を保存の際に、画像データの他に、どの方向(前方、右側方、左側方、および後方)の画像であるという情報と、取得(撮影)した時間情報とを保存するようになっている。
また、車外風景画像保存部5は、保存できる風景画像が時間または画像数で制限されるようになっている。すなわち、図4に示すように、車外風景画像保存部5は、1コマずつの風景画像の保存が開始し(ステップS1)、時間制限のある場合には(ステップS2)、保存時間が一定時間T1以上になると(ステップS3)、古い風景画像から順に消去される(ステップS4)。一方、画像数に制限がある場合には(ステップS5)、保存が画像が所定値S1以上になると(ステップS6)、古い風景画像から順に消去される(ステップS7)。
フラクタル次元算出部6は、図5に示す各処理を行う行うものである。すなわち、フラクタル次元算出部6は、車外風景画像保存部5に保存されている車外風景画像のうちからその1つを抽出し(ステップS11)、この抽出した1つの車外風景画像に対してフラクタル解析を行い(ステップS12)、その車外風景画像に対するフラクタル次元の値を算出する(ステップS13)。この算出されたフラクタル次元の値は、その値が大きいほど、その風景画像に対する複雑度が大きなことを意味する。
運転環境複雑度推定部7は、フラクタル次元算出部6で算出されたフラクタル次元の大きさに基づき、後述のように、その車外風景画像の撮影時における運転環境の複雑度を推定するものである。
次に、このような構成からなる第1実施形態の動作例について、図1および図6を参照して説明する。
車外風景撮像装置1〜4は、運転者が車両を運転中に、すなわち車両の走行中に車外の風景をそれぞれ撮影する(ステップS21)。このように撮影された各車外風景画像は、車外風景画像保存部5に所定の順序で保存されていく(ステップS22)。
その後、現在の車両の走行環境(運転環境)において、運転者がその運転環境の複雑さを感じる視覚環境(風景画像)が車外風景画像保存部5から抽出される。この抽出の指示は、例えば運転環境複雑度推定部7が行う。
ここで、車両が通常の走行であれば、運転者は前方を注視して運転することから、車外風景画像保存部5に保存される車外風景撮影装置1が撮影した1枚の前方車外風景画像が、一定時間T2ごとに車外風景画像保存部5から抽出される(ステップS23)。その一定時間T2は、例えば0.1秒である。
フラクタル次元算出部6は、その抽出された前方車外風景画像に対してフラクタル解析を実行し(ステップS24)、その画像に対するフラクタル次元F0を算出する(ステップS25)。
運転環境複雑度推定部7は、その算出されたフラクタル次元F0を、その車外風景画像を撮影した時点における運転環境の複雑度を表わす運転環境複雑度の瞬時推定値として推定する(ステップS26)。さらに、運転環境複雑度推定部7は、その瞬時推定値であるフラクタル次元F0が所定値FB以上であるときに運転環境の複雑さが大きいと推定(判定)し(ステップS27)、そのフラクタル次元F0が所定値FS以下であるときに運転環境の複雑さが小さいと推定し(ステップS28)、そのフラクタル次元F0が所定値FBと所定値FSとの間に存在するときには、運転環境の複雑さが普通であると推定する。ここで、所定値FB、FSは、FB>FSの関係にあるものとする。
以上のように、第1実施形態は、上記のような構成からなるので、車両の周囲情報の複雑さも加味した運転状況の推定が可能となる。
(第2実施形態)
この第2実施形態は、図1に示す第1実施形態の構成を基本とし、図1に示す運転環境複雑度推定部7を、図7に示すような推定動作を行う運転環境複雑度推定部に置き換えたものである。
すなわち、第2実施形態に係る運転環境複雑度推定部は、フラクタル次元算出部で算出されたフラクタル次元の値を、運転環境複雑さ瞬時推定値として推定するとともに、その瞬時推定値を時系列で順次推定し、かつ、所定の時間内に推定された複数の瞬時推定値の平均を求め、この求めた平均値を運転環境複雑さ推定値とするようにした。
次に、この第2実施形態に係る運転環境複雑度推定部の動作について、図7を参照して説明する。
この運転環境複雑度推定部は、図1に示す運転環境複雑度推定部7と同様に、フラクタル次元算出部6の算出したフラクタル次元F0を運転環境複雑さ瞬時推定値として算出する(ステップS31)。そして、その算出した運転環境複雑さ瞬時推定値は、一定時間T1にわたって順に図示しないメモリに蓄積される(ステップS32)。
次に、その一定時間T1に蓄積された運転環境複雑さ瞬時推定値の総和と総数とをそれぞれ算出する(ステップS33)。次に、その算出した瞬時推定値の総和と総数に基づいて、一定時間T1における運転環境複雑さ瞬時推定値における平均値を算出し(ステップS34)、その算出した平均値の大きさに基づいて運転者が受ける運転環境の複雑さ度合いを推定する(ステップS35)。その後、メモリに蓄積した運転環境複雑さ瞬時推定値を消去して初期化する(ステップS36)。
以上のように、第2実施形態は、上記のような構成からなるので、ノイズに強い安定した運転状況の推定が可能となる。
(第3実施形態)
この第3実施形態は、図1に示す第1実施形態の構成を基本とし、図1に示す運転環境複雑度推定部7を、図8に示すような推定動作を行う運転環境複雑度推定部に置き換えたものである。
すなわち、第3実施形態に係る運転環境複雑度推定部は、フラクタル次元算出部で算出されたフラクタル次元の値を運転環境複雑度の瞬時推定値として推定するとともに、その瞬時推定値を時系列で順次推定し、かつ、所定の時間内に推定された複数の瞬時推定値の中から最大値と最小値をそれぞれ求め、この求めた最大値と最小値との差を運転環境複雑度の変化推定値として算出し、さらに、その算出した最小値、最大値、および変化推定値に基づいて運転環境の複雑度の増減を推定するようにした。
次に、この第3実施形態に係る運転環境複雑度推定部の動作について、図8を参照して説明する。
この運転環境複雑度推定部は、図1に示す運転環境複雑度推定部7と同様に、フラクタル次元算出部6の算出したフラクタル次元F0を運転環境複雑さ瞬時推定値として算出する(ステップS41)。そして、その算出した運転環境複雑さ瞬時推定値を一定時間T2にわたって図示しないメモリに順に蓄積させる(ステップS42)。
次に、その一定時間T2に蓄積された複数の運転環境複雑さ瞬時推定値のうちから、その瞬時推定値の最大値と最小値とを抽出する(ステップS43)。次に、その抽出した最大値と最小値との差を算出し、この算出した運転環境複雑度さ変化推定値とする(ステップS44)。
さらに、その算出した運転環境複雑度さ変化推定値が所定値FV以上である場合に(ステップS45)、その瞬時推定値の時系列の変化が最小値から最大値に向けて変化する場合には運転環境の複雑度が増加したと推定し、一方、その瞬時推定値の時系列の変化が最大値から最小値に向けて変化する場合には運転環境の複雑度が減少したと推定する(ステップS46)。
以上のように、第3実施形態は、上記のような構成からなるので、運転者にとって影響の大きな環境変化に対応した運転状況の推定が可能となる。
(第4実施形態)
図9は、本発明の第4実施形態の構成を示すブロック図である。
この第4実施形態は、図9に示すように、車外風景撮像装置1〜4と、車外風景画像保存部5と、フラクタル次元算出部6と、運転環境複雑度推定部7と、フラクタル次元補正部10と、を備えている。ここで、図9の各装置や各部は、特許請求の範囲の各装置や各部に対応する。
この第4実施形態は、図1に示す第1実施形態の構成を基本とし、フラクタル次元補正部10を追加したものである。
すなわち、フラクタル次元補正部10は、車外風景画像保存部5に保存された各車外風景画像の明度をそれぞれ算出し、その算出した各明度に応じて必要なときに、フラクタル次元算出部6で算出されたフラクタル次元を補正する。また、運転環境複雑度推定部7は、その補正されたフラクタル次元に基づき、車外風景画像の撮影時における運転環境の複雑度を推定する。
さらに詳述すると、フラクタル次元補正部10は、車外風景画像保存部5に保存される各車外風景画像の明度を算出し、この算出した明度に基づいてほぼ同一の明るさ環境にある画像をグループ化して第1グループとし、その第1グループの画像については、フラクタル次元算出部6で求めたフラクタル次元を補正しないようにした。これにより、明度がほぼ同一グループの画像間については、その補正しないフラクタル次元同士を運転環境複雑度推定部7が比較できるようになる。
一方、その算出した明度に基づき、上記第1グループの他に、その第1グループとは明るさが異なる環境にある画像をグループ化した第2グループがある場合に、その第2グループの画像については、フラクタル次元算出部6で求めたフラクタル次元に対して、所定の数値を加算して補正を行うようにした。
次に、第4実施形態のフラクタル次元補正部8の具体的な動作例について、図9および図10を参照して説明する。
フラクタル次元補正部10は、車外風景画像保存部5に保存される各車外風景画像を取り込んで、その各車外風景画像の明るさ度合い(明度)を算出し(ステップS51)、その算出した各明度を一定時間Tgにわたって図示しないメモリに順に蓄積していく(ステップS52)。そして、一定時間Tgになると、その蓄積した明度の平均値を算出する(ステップS53)。
次に、その平均値と予め定めてある基準となる数値(明度)を比較し、その差異を求める(ステップS54)。そして、その差異がある場合には、予め定めてある数値を、その差異がある車外風景画像に対してフラクタル次元算出部6が算出したフラクタル次元の値に加算することにより(ステップS55)、そのフラクタル次元を補正する。
以上のように、第4実施形態は、上記のような構成からなるので、太陽光などで撮影画像が明るくなるような場合による影響を抑制でき、より精度の高い運転状況の推定が可能となる。
(第5実施形態)
図11は、本発明の第5実施形態の構成を示すブロック図である。
この第5実施形態は、図11に示すように、車外風景撮像装置1〜4と、車外風景画像保存部5と、画像領域分割部11と、領域別フラクタル次元算出部12と、車外風景画像分割領域重み設定部13と、領域別運転環境複雑度推定部14と、運転環境複雑度推定部15と、車両進行方向予測部16と、速度センサ17と、視線方向検出部18と、選択スイッチ19と、を備えている。ここで、図11の各装置や各部は、特許請求の範囲の各装置や各部に対応する。
次に、第5実施形態の各部の具体的な構成について説明する。
車外風景撮像装置1〜4および車外風景画像保存部5は、図1に示す車外風景撮像装置1〜4および車外風景画像保存部5と同様に構成される。
画像領域分割部11は、車両の走行中に、車外風景画像保存部5から1つの車外風景画像(例えば前方の風景画像)を取り出し、その取り出した画像に対してn個の領域に分割するものである。
領域別フラクタル次元算出部12は、画像領域分割部11で分割された各画像分割領域に対してフラクタル解析を行い、その各画像分割領域のフラクタル次元の値をそれぞれ算出するものである。
車外風景画像分割領域重み設定部13は、車両進行方向予測部16、速度センサ17、および視線方向検出部18のうちのいずれか1つの出力に基づき、画像領域分割部11で分割された各画像分割領域の重みを設定するものである。
領域別運転環境複雑度推定部14は、領域別フラクタル次元算出部12で算出された各画像分割領域ごとのフラクタル次元の値と車外風景画像分割領域重み設定部13で設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における画像分割領域ごとにおける運転環境の複雑度と推定するものである。
運転環境複雑度推定部15は、領域別運転環境複雑度推定部14が推定した画像分割領域ごとにおける運転環境の複雑度に基づき、総合的または全体的な運転環境の複雑度を推定するものである。
車両進行方向予測部16は、車両の進行方向を予測するものである。この車両進行方向予測部16の具体例としては、ナビゲーションシステムの位置情報に基づいて車両の進行方向を推定するもの、車速や操舵角などの車両情報に基づいて車両の進行方向を推定するもの、あるいは車外風景画像保存部5に保存ざれる風景画像、特に前方の風景画像を解析することにより車両の進行方向を推定するものなどがある。
速度センサ17は、車両の速度を検出するものである。視線方向検出部18は、車両の運転者の視線方向を検出するものである。スイッチ19は、車両進行方向予測部16が予測する車両の進行方向、速度センサ17の検出する車両の速度、および視線方向検出部18が検出する運転者の視線方向のうちのいずれか1つを選択して車外風景画像分割領域重み設定部13に供給するものである。
次に、このような構成からなる第5実施形態の全体の動作の概要について、図11および図12を参照して説明する。
車外風景撮像装置1〜4は、運転者が車両を運転中に、すなわち車両の走行中に車外の風景をそれぞれ撮影する(ステップS61)。このように撮影された各車外風景画像は、車外風景画像保存部5に所定の順序で保存されていく(ステップS62)。
その後、現在の車両の運転環境において、運転者がその運転環境の複雑さを感じる視覚環境が車外風景画像保存部5から抽出される。この抽出の指示は、例えば運転環境複雑度推定部15が行い、例えば1枚の前方車外風景画像が車外風景画像保存部5から抽出される(ステップS63)。
その抽出された車外風景画像は、画像領域分割部11によりn個の分割領域P1〜Pn(例えば5つ)に分割される(ステップS64)。その車外風景画像の分割方法の一例について、前方の風景画像の場合について図13を用いて説明する。
この前方の風景画像では、図示のように車両が走行する道路を中心とする道路環境部P3、その道路に沿って設けられている建物や街路樹などで構成される周囲環境部とに大別し、さらにその周囲環境部を、左前方遠方周囲環境部P1、左前方近傍周囲環境部P2、右前方遠方周囲環境部P4、および右前方近傍周囲環境部P5にそれぞれ分割する。従って、前方の風景画像の場合には、図13に示すように5つの画像領域に分割される。
その分割された各画像分割領域P1〜Pnに対して、領域別フラクタル次元算出部12はフラクタル解析を実行し(ステップS65)、その各画像分割領域のフラクタル次元をそれぞれ算出する(ステップS66)。
車両進行方向予測部16、速度センサ17、および視線方向検出部18のうちのいずれか1つの出力に基づき、車外風景画像分割領域重み設定部13は、画像領域分割部11で分割された各分割領域P1〜Pnの重みをそれぞれ設定する(ステップS67)。
これは、その分割された前方の風景画像の各分割領域P1〜Pnは、運転者が運転の際に感じる運転環境の複雑さの程度が異なると考えられるので、その程度に応じて、その各分割領域P1〜Pnに重みを設定するためである。
領域別運転環境複雑度推定部14は、その算出された各画像分割領域ごとのフラクタル次元の値と、その設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における各画像分割領域ごとにおける運転環境の複雑度と推定する(ステップS68)。
運転環境複雑度推定部15は、その推定された画像分割領域ごとの運転環境の複雑度に基づき、総合的または全体的な運転環境の複雑度を推定する(ステップS69)。
次に、車外風景画像分割領域重み設定部13が行う、各分割領域に対する各重み設定の具体的な方法について、図14〜図17を参照して説明する。
図14は、車外風景画像分割領域重み設定部13が、車両進行方向予測部16の車両方向の予測に基づき、重みを設定する場合である。
この場合には、車両進行方向予測部16が、自己の車両の進行方向の予測を行う(ステップS71)。この車両の進行方向の予測は、例えばナビゲーションシステムの位置情報、車速や操舵角などの車両情報、あるいは車外風景画像保存部5に保存される前方の風景画像の画像解析などに基づいて行う。
ここで、その車両の進行方向の予測に基づいて車両の進行方向の同定を行うために、図15に示すような進行方向予測パターン対応重み付けデータベースが用意されている。そして、このデータベースには、車両の進行方向が、車両が直線走行中、車線変更直前、車線変更中、カーブに差し掛かる直前、カーブ走行中、あるいはカーブから直線に戻る場合などのいくつかのパターンに予めじめ分類されるとともに、後進の場合についてもいくつかのパターンに予め分類されている。
そこで、車外風景画像分割領域重み設定部13は、上記の位置情報などに基づいて、その分類した中から車両の具体的な進行方向を同定する(ステップS72)。
次に、車外風景画像分割領域重み設定部13は、その同定された進行方向に基づき、進行方向予測パターン対応重み付けデータベースを参照し(ステップS73)、各画像領域P1〜P5に対する重み付けを設定する(ステップS74)。
図16は、車外風景画像分割領域重み設定部13が、速度センサ17が検出する車両の速度に応じて、重みを設定する場合である。
この場合には、速度センサ17が自己の車両の速度を検出する(ステップS81)。次に、車外風景画像分割領域重み設定部13は、画像領域分割部11で分割されている画像領域について前方遠方領域と、それ以外の領域とを設定する(ステップS82)。ここで、図13を例にすると、前方遠方領域は同図における領域P1、P4とし、同図のP1、P4以外の領域をそれ以外の領域とする。
次に、車外風景画像分割領域重み設定部13は、その検出された車両速度に応じて、その設定された前方遠方領域とそれ以外の領域に対する各重みを、対応表(テーブル)を参照して抽出する(ステップS83)。さらに、その抽出した各重みを、各画像領域P1〜P5に対する重みとして設定する(ステップS84)。このとき、前方遠方領域についての重みを他の領域の重みに対して相対的に大きくする。
図17は、車外風景画像分割領域重み設定部13が、視線方向検出部18が検出する運転者の視線方向に応じて、重みを設定する場合である。
この場合には、視線方向検出部18が運転者の視線方向を検出する(ステップS91)。次に、車外風景画像分割領域重み設定部13は、一定時間Tcの間に、各画像領域P1〜Pnに対する一定時間停留した視線、すなわち固視点の頻度分布または累積注視時間をを算出する(ステップS92)。
そして、車外風景画像分割領域重み設定部13は、その算出された固視点の頻度分布または累積注視時間に基づき、各画像領域P1〜Pnごとの固視点頻度分布の比率、または各画像領域P1〜Pnごとの累積注視時間の比率をそれぞれ算出する(ステップS93)。次に、各画像領域P1〜Pnに基準の重み1を与え、その求めた固視点頻度分布の比率または累積注視時間を比率に基づき、例えば総加算点を5点とすると、5点の比率分、例えば80%ならば、5点の80%である4点をその分割領域の重みとして加算し、1+4=5点の重み付けを設定する(ステップS94)。
以上のように、第5実施形態は、上記の構成からなるので、運転者にとって影響を受け易い車両の周囲情報の複雑さを考慮した運転状況の推定が可能となる。
また、車外風景画像分割領域重み設定部13が、車両進行方向予測部16の予測に応じて重みを設定する場合には、カーブ走行などのように周囲環境の影響が異なる状況に対しても、より精度の高い運転状況の推定が可能となる。
また、車外風景画像分割領域重み設定部13が、速度センサ17が検出する車両の速度に応じて重みを設定する場合には、高速走行または低速走行などによって車両の周囲環境の影響が異なる状況に対し、より精度の高い運転状況の推定が可能となる。
さらに、車外風景画像分割領域重み設定部13が、視線方向検出部18が検出する運転者の視線方向に応じて重みを設定する場合には、実際の運転者の視線方向を加味した車両の周囲環境の重み付けを行うことができるようになり、より精度の高い運転状況の推定が可能となる。
(その他の実施形態)
上記の第5実施形態では、領域別運転環境複雑度推定部14が、その算出された各画像分割領域ごとのフラクタル次元の値と、その設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における各画像分割領域ごとにおける運転環境の複雑度と推定するようにした。
しかし、領域別運転環境複雑度推定部14は、上記のように各画像分割領域ごとにおける運転環境の複雑度と推定するとともに、その各画像分割領域ごとにおける各数値を時系列で順次推定し、かつ、所定の時間内に推定された各画像分割領域ごとにおける各数値の平均を求め、この求めた各平均値を各画像分割領域ごとの運転環境複雑さ推定値とするようにしても良い。
さらに、領域別運転環境複雑度推定部14は、上記のように各画像分割領域ごとにおける運転環境の複雑度と推定するとともに、各画像分割領域ごとにおける各数値を時系列で順次推定し、かつ、所定の時間内に推定された各画像分割領域ごとにおける複数の数値の中から最大値と最小値をそれぞれ求め、この求めた最大値と最小値との差を各画像分割領域ごとにおける運転環境複雑度の変化推定値としてそれぞれ算出する。さらに、その算出した画像分割領域ごとにおける運転環境複雑度の変化推定値が各所定値以上であって、その瞬時推定値の時系列の変化が最小値から最大値に向けて変化する場合には、その画像分割領域については運転環境の複雑度が増加したと推定し、一方、その変化が最大値から最小値に向けて変化する場合には、その画像分割領域については運転環境の複雑度が減少したと推定するようにしても良い。
本発明の第1実施形態の構成を示すブロック図である。 車外風景撮像装置の配置構成例を説明する図である。 車外風景画像保存部における画像データの保存形式を示す図である。 車外風景画像保存部の動作を説明するフローチャートである。 フラクタル次元算出部の動作を説明するフローチャートである。 第1実施形態の全体の動作を説明するフローチャートである。 本発明の第2実施形態における運転環境複雑度推定部の動作を説明するフローチャートである。 本発明の第3実施形態における運転環境複雑度推定部の動作を説明するフローチャートである。 本発明の第4実施形態の構成を示すブロック図である。 フラクタル次元補正部の動作を説明するフローチャートである。 本発明の第5実施形態の構成を示すブロック図である。 第5実施形態の全体の動作を説明するフローチャートである。 車外風景画像の分割例を説明する図である。 車外風景画像分割領域重み設定部の第1の設定例を説明するフローチャートである。 進行方向予測パターン対応重み付けデータベースの一例を示す図である。 車外風景画像分割領域重み設定部の第2の設定例を説明するフローチャートである。 車外風景画像分割領域重み設定部の第3の設定例を説明するフローチャートである。
符号の説明
1〜4 車外風景撮像装置
5 車外風景画像保存部
6 フラクタル次元算出部
7 運転環境複雑度推定部
10 フラクタル次元補正部
11 画像領域分割部
12 領域別フラクタル次元算出部
13 車外風景画像分割領域重み設定部
14 領域別運転環境複雑度推定部
15 運転環境複雑度推定部
16 車両進行方向予測部
17 速度センサ
18 視線方向検出部

Claims (12)

  1. 車両に配置されてその車両の運転中に車外の風景を撮像する車外風景撮像装置と、
    前記車外風景撮像装置で撮像された車外風景画像を保存する車外風景画像保存部と、
    前記車外風景画像保存部に保存された少なくとも1つの車外風景画像に対してフラクタル解析を行い、そのフラクタル次元を算出するフラクタル次元算出部と、
    前記フラクタル次元算出部で算出されたフラクタル次元の大きさに基づき、その車外風景画像の撮影時における運転環境の複雑度を推定する運転環境複雑度推定部と、
    を備えることを特徴とする運転状況推定装置。
  2. 前記運転環境複雑度推定部は、
    前記フラクタル次元算出部で算出されたフラクタル次元の値を、その車外風景画像を撮影した時点における運転環境の複雑度を表わす運転環境複雑度の瞬時推定値として推定するようにし、
    その推定した瞬時推定値が第1の所定値以上の場合には運転環境の複雑さが大きいと推定し、その瞬時推定値が前記第1の所定値よりも小さな第2の所定値以下の場合には運転環境の複雑さが小さいと推定するようになっていることを特徴とする請求項1に記載の運転状況推定装置。
  3. 前記運転環境複雑度推定部は、
    前記フラクタル次元算出部で算出されたフラクタル次元の値を、その車外風景画像を撮影した時点における運転環境の複雑度を表わす運転環境複雑度の瞬時推定値として推定するとともに、その瞬時推定値を時系列で順次推定し、
    かつ、所定の時間内に推定された複数の瞬時推定値の平均を求め、この求めた平均値を運転環境複雑度の推定値とすることを特徴とする請求項1に記載の運転状況推定装置。
  4. 前記運転環境複雑度推定部は、
    前記フラクタル次元算出部で算出されたフラクタル次元の値を、その車外風景画像を撮影した時点における運転環境の複雑度を表わす運転環境複雑度の瞬時推定値として推定するとともに、その瞬時推定値を時系列で順次推定し、
    かつ、所定の時間内に推定された複数の瞬時推定値の中から最大値と最小値をそれぞれ求め、この求めた最大値と最小値との差を運転環境複雑度の変化推定値として算出し、
    さらに、その算出した変化推定値が所定値以上であって、その瞬時推定値の時系列の変化が最小値から最大値に向けて変化する場合には運転環境の複雑度が増加したと推定し、一方、その変化が最大値から最小値に向けて変化する場合には運転環境の複雑度が減少したと推定することを特徴とする請求項1に記載の運転状況推定装置。
  5. 前記車外風景画像保存部に保存された各車外風景画像の明度をそれぞれ算出し、その算出した各明度に応じて必要なときに、前記フラクタル次元算出部で算出されたフラクタル次元を補正するフラクタル次元補正部をさらに備え、
    前記運転環境複雑度推定部は、前記補正されたフラクタル次元に基づき、車外風景画像の撮影時における運転環境の複雑度を推定するようになっていることを特徴とする請求項1に記載の運転状況推定装置。
  6. 車両に配置されてその車両の運転中に車外の風景を撮像する車外風景撮像装置と、
    前記車外風景撮像装置で撮像された車外風景画像を保存する車外風景画像保存部と、
    前記車外風景画像保存部から取り出した1つの車外風景画像を複数の領域に分割する画像領域分割部と、
    前記画像領域分割部で分割された各画像分割領域に対してフラクタル解析を行い、そのフラクタル次元をそれぞれ算出するフラクタル次元算出部と、
    前記画像領域分割部で分割された各画像分割領域の重みを設定する画像分割領域重み設定部と、
    前記フラクタル次元算出部で算出された各画像分割領域ごとのフラクタル次元の値と前記画像分割重み設定部で設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における画像分割領域ごとにおける運転環境の複雑度と推定する領域別運転環境複雑度推定部と、
    を備えることを特徴とする運転状況推定装置。
  7. 前記領域別運転環境複雑度推定部は、
    前記フラクタル次元算出部で算出された各画像分割領域ごとのフラクタル次元の値と前記画像分割重み設定部で設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における画像分割領域ごとにおける運転環境の複雑度と推定するとともに、
    その画像分割領域ごとにおける各数値を時系列で順次推定し、
    かつ、所定の時間内に推定された画像分割領域ごとにおける各数値の平均を求め、この求めた各平均値を画像分割領域ごとの運転環境複雑度の推定値とすることを特徴とする請求項6に記載の運転状況推定装置。
  8. 前記領域別運転環境複雑度推定部は、
    前記フラクタル次元算出部で算出された各画像分割領域ごとのフラクタル次元の値と前記画像分割重み設定部で設定された対応する各画像分割領域の重みとを掛け合わせた数値を求め、この求めた各数値を、車外風景画像の撮影時における画像分割領域ごとにおける運転環境の複雑度と推定するとともに、
    その画像分割領域ごとにおける各数値を時系列で順次推定し、
    かつ、所定の時間内に推定された画像分割領域ごとにおける各数値の中から最大値と最小値をそれぞれ求め、この求めた最大値と最小値との差を画像分割領域ごとにおける運転環境複雑度の変化推定値としてそれぞれ算出し、
    さらに、その算出した画像分割領域ごとにおける運転環境複雑度の変化推定値が所定値以上であって、その瞬時推定値の時系列の変化が最小値から最大値に向けて変化する場合にはその画像分割領域については運転環境の複雑度が増加したと推定し、一方、その変化が最大値から最小値に向けて変化する場合にはその画像分割領域については運転環境の複雑度が減少したと推定することを特徴とする請求項7に記載の運転状況推定装置。
  9. 車両の進行方向を予測する車両進行方向予測部をさらに備え、
    前記画像分割領域重み設定部は、前記車両進行方向予測部で予測された進行方向に応じて前記画像領域分割部で分割された各画像分割領域の重みを設定することを特徴とする請求項6乃至請求項8のうちのいずれかに記載の運転状況推定装置。
  10. 車両の速度を検出する速度センサをさらに備え、
    前記画像分割領域重み設定部は、前記速度センサで検出された速度に応じて前記画像領域分割部で分割された各画像分割領域の重みを設定することを特徴とする請求項6乃至請求項8のうちのいずれかに記載の運転状況推定装置。
  11. 前記画像分割領域重み設定部は、前記速度センサで検出された速度が所定値以上の場合に、前記画像領域分割部で分割された画像分割領域のうち、車外の前方を撮影した画像分割領域について遠方になるほど相対的に重みを大きく設定することを特徴とする請求項10に記載の運転状況推定装置。
  12. 運転者の視線方向を検出する視線方向検出部をさらに備え、
    前記画像分割領域重み設定部は、前記視線方向検出部で検出された視線方向に応じて前記画像領域分割部で分割された各画像分割領域の重みを設定することを特徴とする請求項6乃至請求項8のうちのいずれかに記載の運転状況推定装置。
JP2005373056A 2005-12-26 2005-12-26 運転状況推定装置 Pending JP2007172551A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005373056A JP2007172551A (ja) 2005-12-26 2005-12-26 運転状況推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005373056A JP2007172551A (ja) 2005-12-26 2005-12-26 運転状況推定装置

Publications (1)

Publication Number Publication Date
JP2007172551A true JP2007172551A (ja) 2007-07-05

Family

ID=38298988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005373056A Pending JP2007172551A (ja) 2005-12-26 2005-12-26 運転状況推定装置

Country Status (1)

Country Link
JP (1) JP2007172551A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022504A (ja) * 2010-07-14 2012-02-02 Honda Motor Co Ltd 脇見判定装置
WO2019049548A1 (ja) * 2017-09-05 2019-03-14 株式会社デンソー 画像処理装置
CN109655814A (zh) * 2017-10-12 2019-04-19 福特全球技术公司 车辆传感器操作
CN113968302A (zh) * 2021-09-26 2022-01-25 武汉小安科技有限公司 电单车的控制方法、装置及电单车

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022504A (ja) * 2010-07-14 2012-02-02 Honda Motor Co Ltd 脇見判定装置
WO2019049548A1 (ja) * 2017-09-05 2019-03-14 株式会社デンソー 画像処理装置
US11257193B2 (en) 2017-09-05 2022-02-22 Denso Corporation Image processing apparatus
CN109655814A (zh) * 2017-10-12 2019-04-19 福特全球技术公司 车辆传感器操作
CN113968302A (zh) * 2021-09-26 2022-01-25 武汉小安科技有限公司 电单车的控制方法、装置及电单车

Similar Documents

Publication Publication Date Title
US8289402B2 (en) Image processing apparatus, image pickup apparatus and image processing method including image stabilization
JP5587930B2 (ja) 距離算出装置及び距離算出方法
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017094567A1 (ja) 追跡装置
EP2960829A2 (en) Lane boundary estimation device and lane boundary estimation method
CN101379825A (zh) 自动跟踪设备和自动跟踪方法
WO2007111220A1 (ja) 道路区画線検出装置
JP4597087B2 (ja) 画像処理装置及び方法、及び撮像装置
JP2009176090A (ja) 環境認識装置
WO2014136499A1 (ja) 監視装置、監視方法および撮像部の配置方法
JP2009239664A (ja) 車両用環境認識装置および先行車追従制御システム
JP5759907B2 (ja) 車載撮像装置
JP2008158640A (ja) 移動物体検出装置
KR102458938B1 (ko) 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
JP2005214914A (ja) 移動速度検出装置および移動速度検出方法
JP2007172551A (ja) 運転状況推定装置
CN110914867A (zh) 位姿确定方法、设备、计算机可读存储介质
JP3704045B2 (ja) 目標物体追尾装置
CN112385208A (zh) 图像识别装置以及图像识别方法
JP5127692B2 (ja) 撮像装置及びその追尾方法
JP2009223504A (ja) 車両検出装置および方法、並びに、プログラム
JP2014238409A (ja) 距離算出装置及び距離算出方法
CN112287805A (zh) 运动物体的检测方法、装置、可读存储介质及电子设备
JP6819785B2 (ja) 位置推定装置、位置推定方法及びプログラム
JP2020166758A (ja) 画像処理装置および画像処理方法