JP2005212709A - 車両運転支援システム - Google Patents

車両運転支援システム Download PDF

Info

Publication number
JP2005212709A
JP2005212709A JP2004025046A JP2004025046A JP2005212709A JP 2005212709 A JP2005212709 A JP 2005212709A JP 2004025046 A JP2004025046 A JP 2004025046A JP 2004025046 A JP2004025046 A JP 2004025046A JP 2005212709 A JP2005212709 A JP 2005212709A
Authority
JP
Japan
Prior art keywords
vehicle
information
support system
driving
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004025046A
Other languages
English (en)
Inventor
Yoichi Takebayashi
洋一 竹林
Yutaka Sakane
裕 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2004025046A priority Critical patent/JP2005212709A/ja
Publication of JP2005212709A publication Critical patent/JP2005212709A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】本発明は、複数のカメラを装備し、それらのカメラから得られる画像を処理することにより車両内外の状況を運転者や同乗者が把握し、自然に快適、安全、楽しい運転を可能とする車両運転支援システムを提供する。
【解決手段】本発明による支援システムは、車両内外の映像情報、走行状態、運転環境の情報入力手段5、それらの情報を処理する処理装置1,2,3および処理結果を表示する出力手段4を備えている。マルチモーダル提示情報選択制御部3により情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御する。
【選択図】図1

Description

本発明は、複数のカメラを装備し、それらのカメラから得られる画像を処理することにより車両内外の状況を運転者や同乗者が把握し、自然に快適、安全、楽しい運転を可能とする車両運転支援システムに関する。
自動車、オートバイ、自転車などの車両の高機能化と多機能化が進んでいる。これらの車両は日常生活に密着した必需品となり、いわば日用品となるにつれて、クルマをもっと魅力的かつ安全にし、多様なユーザの多様な要求を満たすように様々な形態の車両が開発され、多様な機能やサービスの開発が期待されるようになってきた。
パソコンや携帯電話、あるいは家電機器と同様に、マルチメディア、マルチモーダル化が進み、DVDや超高品質のオーディオ、音声認識、音声合成、音声対話、車両内外とユーザに関わる有線・無線のネットワークが装備されて、多様なユーザの多様な要求にこたえるべく、従来型のテレビ、電話、コンピュータ、オーディオ機器の開発にとどまらず、様々なエンターテイメントや情報サービス機能が提供されるようになってきた。
静止画が簡単に撮れるデジタルスチルカメラやビデオカメラが、携帯電話やPDAやパソコンに搭載されるようになり、様々な応用が生まれるようになり、ビジネスチャンスも拡大している。
このような情報通信が進化する環境下で車両の電子化やデジタル化やネットワーク化が進展し、車両には多数のコンピュータが搭載され、カーオーディオやカーナビに加えて、様々なカメラや画像表示デバイスが搭載されてきた。車両の走行や運行に関するセンサやアクチュエータを含む機器システムのデジタル化とマルチモーダル化も進み、車両は人間(運転者)と共生する巨大かつ複雑なユビキタスコンピューティングシステムに進化していると言える。
このような車両に関わる情報のデジタル化とマルチメディア・マルチモーダル情報処理システムが高度化するにつれて、多数の遍在するコンピュータが使われ、ユーザの多様性と多様な要求に答えるために、膨大な計算が車両において行うことが可能となった。この方向は増大する一方であり、車両を魅力的に進化させることが望まれている。
その一方で車両の運転システムの特徴は、事故防止などの、安全、安心が重要視されることにある。しかしながら、安全かつ安心な運転を実現するには、現状の車両の機器システムの使いやすい設計だけではなく、運転している周囲の状況や、運転者の様々な心の状況や身体的な状況に応じた運転支援が必要とされている。しかしながら、そのような運転支援を実現するのにはコストがかかるので実用化が進んでいない。エンターテイメントやカーナビ機器のように普及させるような、気の利いた運転支援システムの実現が望まれている。
したがって、本発明の目的は、車両自体が車両内外の状況を包括的に把握し、運転者や同乗者の意図や状況に応じて適切なモダリティ(視聴覚や触覚などの感覚器のこと)で車両の各種機能を利用できる車両の運転支援システムを提供することにある。
さらに詳しく言えば本発明の目的は、複数のカメラを設けた車両における、ドライビング・アシスト、同乗者・アシスト、コミュニケーション・アシスト等の支援を状況または、環境に応じて提供できる運転支援システムを提供することにある。
前記目的を達成するために、本発明による請求項1記載の支援システムは、
車両内外の映像情報、走行状態、または運転環境の情報を処理する処理装置の処理結果を表示する車両の運転支援システムにおいて、
車両外部の外界状況を認識判断する手段と、
走行速度や走行方向などの車両運行状態、温度、騒音レベル、湿度、明るさなどに関する車両内部状況を認識判断する手段と、
運転者あるいは同乗者に関する乗車人間状況を認識判断する手段と、
前記車両の外部と内部、および、乗車人間状況の認識判断結果を総合的に判断する車両状況判断部での車両状況判断結果に基づき、外界情報と外界状況認識判断結果とを動的に変化させて運転者へ情報提示する出力手段と、
情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御するためのマルチモーダル提示情報選択制御部と、
を有することを特徴とする。
本発明による請求項2記載の支援システムは、
第1項記載の車両運転支援システムにおいて、
前記車両の運行状況,車両外部状況,車両内部状況,および乗車人間状況の情報のいずれかまたは複数を蓄積する手段を有することを特徴とする。
本発明による請求項3記載の支援システムは、
第1項記載の車両運転支援システムにおいて、
複数のカメラから得られた画像情報を処理し、車両周囲の画像を合成して、運転者および同乗者に提示する手段を有することを特徴とする。
本発明による請求項4記載の支援システムは、
第1項記載の車両運転支援システムにおいて、
車両および人間の認識判断結果に基づいて、車載運転支援システムの運転支援モードを制御する手段を有することを特徴とする。
本発明による請求項5記載の支援システムは、
第4項記載の車両運転支援システムにおいて、
通常走行、高速走行、夜間運転、雨天運転、急停車、急減速、後ろ向き走行などの走行モードを決定する手段と、
車両の乗車人数、追い越しや駐車などの運転意図、運転者や同乗者の疲労度、車両内のオーディオ出力のレベルに係わる運転モードを決定する手段を有し、
これらのモード情報を用いて、外界状況の提示を変化させることを特徴とする。
本発明による請求項6記載の支援システムは、
第1項記載の車両運転支援システムにおいて、
車両運行時の目的地を入力する手段を有し、
運転者あるいは同乗者の移動目的が仕事、買い物、観光などである車両運転目的を入力する手段を有し、
前記目的地情報と車両運転目的情報を用いて、
複数のカメラの制御や外界情報の提示を変化させることを特徴とする。
本発明による請求項7記載の支援システムは、
第1項記載の車両運転支援システムにおいて、
車両内にも乗車人間の情報を入力するためのカメラとマイクとを具備することを特徴とする。
本発明による請求項8記載の支援システムは、
第7項記載の車両運転支援システムにおいて、
車両内部の乗車人間と車両外部の人間とが互いにオンライン通信する手段を有し、
両者がオンライン通信している場合、相手の車両を自車両のカメラで捕らえたことを検知する手段と、相手車両を映し出す手段を有することを特徴とする。
本発明による車両運転支援システムにより、運転者は運転の状況や運転の目的、さらには、運転者の意図状況に応じた、車両の外界状況を自然に把握できるので、安全・安心な運転が可能となり、また、運転者の運転能力を増幅させることが可能となる。さらには、車両運転中に得られる、画像情報を様々な用途に活用できるので、車両運転をより豊かにエキサイティングにすることが可能となる。
さらに、具体的にいうと、本発明による支援システムでは運転者のサラウンディング感覚を増幅する全周囲あるいは半周囲の視覚補完システム "サラウンドビジョン" を実現できる。これは通常の、フロントガラスや側面の窓ガラスを通し、また、車両前方にあるフェンダーミラーや室内のバックミラー、あるいは、後方の窓ガラスを経由した車両周囲の視覚的情報を同時に見ることができ、さらに、これまで死角となっていた車両の周囲の視覚的情報をも複数のカメラを利用して入力し、計算機処理して加工処理および適切な提示を行うことにより、サラウンディング感覚を付与するものである。
請求項2記載のシステムでは過去の状況をRAMやROM等の記憶手段に蓄積することができるから、この情報を次の車両運転の情報の生成等に利用できる。請求項3記載のシステムでは、フロントパネル等に全周の情報をわかりやすく表示できる。請求項4記載のシステムでは、運転支援モードを利用者の主観的な判断により選択できるから快適な運転支援を提供できる。請求項5記載のシステムでは、運転モードに適した運転支援が可能となる。請求項6記載のシステムでは、運転目的に応じた情報のみを提供できる。請求項7記載のシステムでは、車内の人間等の情報をカメラとマイクで取得し、その状況に対応する支援が可能となる。請求項8記載のシステムでは、車両の外とのコミュニケーションが可能となる。
本発明による支援システムは、車両自体が車両内外の状況を包括的に把握し、運転者や同乗者の意図や状況に応じて適切なモダリティで車両の各種機能を利用できる点が特徴である。言い換えると、本発明で扱う運転支援システムは、複数のカメラを具備した車両における、同乗者・アシスト、コミュニケーション・アシストを含む。また狭義のドライビング・アシストの実施形態として( "サラウンドビジョン" )を実施できる。
これは通常の、フロントガラスや側面の窓ガラスを通し、また、車両前方にあるフェンダーミラーや室内のバックミラー、あるいは、後方の窓ガラスを経由した車両周囲の視覚的情報を同時に見ることができ、さらに、これまで死角となっていた車両の周囲の視覚的情報をも複数のカメラを利用して入力し、計算機処理して加工処理および適切な提示を行うことにより、サラウンディング感覚を付与するものである。
図1は本発明による支援システムの基本構成を概略的に示すブロック図である。
複数のカメラ(図2および図5参照)から得られる車両の外部(外界)の視覚情報(画像情報)は、車外状況情報処理部1に送られて、画像情報の編集・加工や認識処理など様々な処理がなされる。ここで、使用されるカメラ群(A)(図2参照)は通常のカメラ,距離情報があわせて取得可能なカメラのいずれであっても良い。それらのセンサ群5の出力は車外状況情報処理部1,車内状況情報処理部2に入力される。車内状況情報処理部2は、車両運行状況認識判断部2a、車両内部状況認識判断部2b、乗車人間状況認識判断部2cから構成されている。
図2は本発明による支援システムのセンサ、プロセッサ、ディスプレイ等の配置を略図的に示した斜視図である。図2に示すように本発明の支援システムを構成する主な構成要素はカメラ群(A)(図1のセンサ群5に相当)、サテライトプロセッサ群(B)(図1の1に相当)、セントラルプロセッサ(C)(図1の3に相当)、ディスプレイ群(D)(図1の4に相当)である。
この実施例では車外状況情報処理部1をサテライトプロセッサ(B)で、残りをセントラルプロセッサ(C)に配置するものとして説明する。図3は、本発明による支援システムのハードウエア構成を示すブロック図である。システムバス接続に関しバスアービタ,コンフィギュレーション用ROM,作業用RAM動作用電源等が一般に必要であるが、詳述しない。図において、33の部分は車外情報処理部、32の部分はセントラルプロセッサ(C)に相当し、ディスプレイやカメラ等は入出力31としてまとめて示してある。なお、33の車外情報処理部には道路面の白線や物体の検出のための認識部専用ハードウェア33aを設けてある。
図5は、本発明による支援システムにおける、複数のイメージセンサ(カメラ)の配置を示す斜視図である。複数のイメージセンサは車内外に配置される。
図においてカメラ51により車内の情報が入力され、カメラ52,53は車外の情報を取得するために配置されている。カメラの光軸はリモートコントロールにより調整可能である。
図6は、表示手段4の一部を構成するフロントパネル4cの表示例を示す斜視図である。
例えば、運転中に、車外状況情報処理部1で、歩行者や犬や猫の検出が自動的に行われた場合、サラウンド画像に対して、犬や猫や歩行者の、位置や方向や行動(動作)を認識判断し、音声で「進行方向の右前方に犬が走っています」、「斜め後方に老人の歩行者がいます」「クルマの横で酔っ払いがふらついています」などと、テキスト音声合成で伝える。また、検出された「犬」や「老人」などを色や明るさを強調して表示したり、点滅させたり、デフォルメさせたりすることができる。さらに、複数のスピーカの指向性を制御して、運転者の「気づき」の能力を向上させることも可能である。
さらに、車両の走行速度と走行位置や走行方向など車両運行状況認識判断部2a(図1)で把握することにより、フロントのサラウンド画像の表示領域を、前方180度、240度、270度、360度など、あるいは、右前方、後方など、種々変更させることができる。
図4は、本発明による支援システムの基本となる流れを示してある。
(ステップ1) 車体に配置したカメラ群のうち隣接するもの同士の画像をサテライトプロセッサ(B)に送る。各サテライトプロセッサ(B)の車外状況情報処理部1では隣接カメラの画像から対応点を検出し、両眼視差の原理を用いて各画素の奥行き (すなわち距離情報) を算出し、各画素をボクセル空間にマッピングする。距離情報が取得可能なカメラの場合は、このステップは省略可能である。
(ステップ2) ステップ1)で用意した各サテライトのボクセル空間はカメラの向きに応じた独立な座標系を持つ。サラウンドビジョン生成に際し、複数のボクセル空間をひとつのグローバル座標系に貼り合わせるために視点変換を行うが、この視点をセントラルプロセッサ(C)が決定する。視点位置の決定は平均的なドライバーの頭部位置に固定しておく。
なお、カメラで捉えたドライバーの実際の動きを車内状況情報処理部2で解析のうえ、頭部や眼球の動きに応答させることもできる。また、車内状況情報処理部2において車速等の車両情報を考慮し、車庫入れ等の低速時は応答角を誇張,定速走行時は誇張を抑制するなど、応答の加減を調整することもできる。
(ステップ3) 定まった視点を各サテライトプロセッサ(B)に送り返し、各サテライトの車外状況情報処理部1で、各自が持つボクセル空間の座標変換を分散して行う。各サテライトはセントラルプロセッサ(C)から与えられた視点と既知のカメラ位置とのずれを考慮して視点変換を行う。
(ステップ4) サテライトプロセッサ(B)で分散して行った視点変換結果をシステムバスを通じ再びセントラルプロセッサ(C)に送り返す。各サテライトから送られてくる複数のボクセル空間は、視点変換により統一座標系をもつ部分空間をなしているから、これらを張り合わせることでドライバー座標系のグローバルなボクセル空間が完成する。
(ステップ5) グローバルなボクセル空間を平面の画像に変換し、ドライバーを囲む複数のディスプレイに表示する。これは、グローバルなボクセル空間を各ディスプレイ平面に射影することによりなされる。
(ステップ6) 射影により得られた平面画像を各ディスプレイに対して送ることでサラウンド画像を提示する。
図7は、本発明による支援システムのバックギアの操作に関連し、車両の後方を表示する場合の流れ図である。
車の基本機能である、選択したギアの情報を活用して、車両運転状況を的確に把握し、クルマ後部のリアカメラのスイッチをオンにし、リアカメラ画像をそのままフロントやバックミラーの画面に表示するとともに、エッジ検出やオプティカルフロー計算を行う。障害物の発見などの処理を行う。また、同様に、ブレーキをかけた時の情報も同様に活用できる。
バック撮像用カメラ53(図5)からの映像を解析し、移動障害物と静止障害物を検出する。
バックギアの操作(ステップ700)に関連し次のステップを実行する。
形状や色、大きさ情報から障害物を特定する(ステップ702〜707)。
移動障害物に関しては、人や動物などが含まれるため緊急性を有するものはブレーキをかけて停止を促す(ステップ708→ステップ713)。
車の後方に配置したマイク(センサの一種)から音声を取り込み分析し、声から動物を検出する(ステップ710〜ステップ712)。
動物を検出した場合もブレーキをかけて停止を促す(ステップ713)。
最終的な提示画像は2つの領域に分けて合成し、カメラ画像と距離に応じた障害物アイコンを提示する(ステップ714)。
映像は車両後方に設置したモニタに提示する(ステップ715)。
さらには、フロントのサラウンド画像を複数種類用意したり、フロントガラスに映し出したり、サイドミラーやバックミラーと分散協調的に提示することも可能である。
図8は、図7の流れに関連してリアカメラの動作とその映像の表示の例を示す説明図である。表示は後方の複数画面のディスプレイで行う。
画面左側はリアカメラからの映像,右側は距離に応じて障害物をアイコンで提示する。なお、前方のディスプレイで行うことも可能である。
図9は、リアカメラ映像の表示の他の例を示す説明図である。
図9に示すように、各種障害物や周囲の状況をデフォルメして表示したり、音声合成などするのも効果的である。このような各種提示が次世代運転支援で実現できる。
図10は、通常走行モードに関連する合成画像の表示を説明するための流れ図である。
高速走行や、追い越しや追い抜かれ状況に関する処理を説明している。関係する車両と自車両の速度や、関係や、距離の計測、把握、判断が重要である。その状況判断によって、各種情報提示を変化させると効果的である。
図11は、図10に関連して説明した通常走行モードで走行中の後方の他の車両等との関連の例を示す平面図である。
このような少し複雑な状況下においても、複数のカメラ情報処理を基本として、パターン認識や各種コンピュータビジョンの技術(分散協調視覚技術)により、車外状況を把握できる。このような技術は既に利用可能な状況にあるので、車両の状況をマルチモーダル・クルージング・ビークルが把握し、その状況に応じて、必要な車外の外界画像処理を行なう。
図12は、図11の例における後方車両の表示例を示す。緊急車両の検出例であり、方向と距離と緊急車両の種類と、周囲の車両の状況を把握したり、認識判断することで、運転支援に活用できる。この場合は、音量を大きくして、音声メッセージを入れたり、救急車のサイレンを合成して鳴らしたり、退避すべきかどうか、道路に左端に緊急で幅寄せして退避するとの指示を出すこともできる。
図10を参照して、通常走行モード時における、後方から車両接近がある場合の情報提示について説明する(ステップ801)。
左右後方に設置したカメラ(図2,図5)からの画像を解析し、接近車両を検出する(
左 ステップ802〜805,右 ステップ807〜810)。
速度と距離を測定しカメラ画像にアノテーションを付与する。
左カメラ映像をモニタの左に、右カメラ映像をモニタの右に提示する(ステップ806,811,817)。
緊急車両はマイクから収集した音声を解析し発見する(ステップ812〜816)。
緊急車両は図12に示すように、モニタ上に重畳し大げさに提示する(ステップ816,817)。
図13は、本発明による支援システムの実施例のマルチモーダルクルージングビークルの各種センサ情報やデータ処理の流れの概観を説明する図である。
処理の流れの方向(上から下)に沿って処理手段等を配列してある。なお各部を図1に対応させて数字を付してある。
センサ群5の車外センサとして、車外用のカメラ(イメージセンサ)5a複数組と、マイク5bがある。走行状態等を検出する車体センサとして、車体速度センサ5c、ギアシフト位置検出センサ5d、操舵各方向指示器関連センサ5eが設けられている。
また車内センサとして、運転者等検出カメラ5f、マイク5gがある。それらの検出出力はマルチモーダルプロセッサ(図1の、1,2,3相当)の処理部で図の上から下に順次処理されて、対応する表示手段4の車外向け表示手段4e、車体に関連する出力手段4d,車内の出力手段4c等で出力される。なお、車外向けデバイス4eは、請求項8記載の支援システムを形成するときに用いられる。
図14は、前記構成をさらに簡略化した実施例を示すブロック図である。
図1に示した基本構成に対応する数字を付してある。ただし出力手段は表示のみに限っている。センサ群5として全周囲カメラ,2眼カメラ(測距用)およびハンドル・ブレーキ・アクセル等の位置情報を取得するセンサを準備している。これらのセンサから得られた情報についてはオプティカルフローの情報処理技術を用いて動きを予測したり、距離情報、運転状況の情報を獲得し、画像および認識結果を合成して画像変換部により画像に変換し、表示手段4に表示する。
図15は、本発明による支援システムを請求項6に規定するように移動目的等にしたがって、運用する実施形態を説明するためのブロック図である。図18はその実施形態における流れ図である。目的地・目的入力部1501、現在位置取得部1502、提示手段決定部1503、カメラ制御部1504、および提示映像生成部1505で実現できる。目的地および目的入力部1501は、車両運行時の目的地を入力する手段と、運転者あるいは同乗者の移動目的を入力する手段を備えている。移動目的は例えば仕事、買い物、観光などである。
次に主として図18を参照してさらに説明する。図18は目的が仕事、目的地が初めて訪れる場所である場合の画像生成に関する流れ図である。
(ステップ1800〜1801) 図15における目的地・目的入力部1501において、目的が仕事であり、目的地に初めて訪れる場合であるかを調べる。
(ステップ1802) 現在位置取得部1502から得られる自車両の位置情報から、目的地に到達したかを検出しシステムの実行および終了を判断する。
(ステップ1803) 位置情報の履歴または方位センサなどから車両の運行が右左折時であるかを検出する。
(ステップ1804) 位置情報と目的地・目的情報をもとに提示手段決定部1503において決定した提示手段に従い、カメラ制御部1504により、車両外部に設置したカメラから右左折時周辺の画像を撮影し、画像解析により特徴を抽出する。
(ステップ1805) 提示映像生成部1505で得られるカメラ映像とステップ1804で得た特徴を合わせて記録する。
(ステップ1807) ステップ1805で蓄積した映像と特徴を合成し、映像コンテンツとして記録する。
図21、図22は前述の実施形態に関連するインタフェースである。図21は目的地を中心とした、図22は目的を中心とした入力インタフェースを示している。
目的地入力では、例えばナビゲーションシステムにおいてカーソルを特定の場所や建物に合わせることで、コンビニエンスストアであれば「買い物」「散歩」などの目的候補がボタンとして画面に表示され、同時に音声により選択枝が読み上げられる。表示されたボタンを押す、または音声で目的を発話することで入力を完了する。
目的入力では、例えば、目的に応じて木構造のメニューを画面に表示する。目的により分類されたメニューを選択していくことで、自車両から近い対象がモニタ上に三角マークで指示され、選択または音声により選択することで入力を完了する。
音声による入力では、目的地を先に言えば目的地中心、目的を先に言えば目的中心インタフェースに自動的にスイッチし、自然発話に近い入力が行える機能も有する。
図16は、本発明による支援システムを請求項7に規定するようにカメラとマイクを用いた同乗者のコンテンツ作成支援に関するブロック図である。図19は流れ図である。
(ステップ1900) 図16における車内用マイク1601bから得た音声を音声解析部1602bで解析し、同乗者による音声コマンドを検出する。
(ステップ1901) マイクの位置からステップ1900でコマンドを発した同乗者を特定する。
(ステップ1902) 車内用カメラ1601aの映像を画像解析部1602aで処理し、同乗者の顔を獲得する。
(ステップ1903) ステップ1902で撮影した顔画像を画像解析部1602aで解析し、視線方向を検出する。乗車人間用入力情報判断部1603において視線インタフェースとして認識する。
(ステップ1904) カメラ位置とステップ1903で検出した視線方向から、対象者が見ている風景が映るようにカメラを制御する。
(ステップ1905) ステップ1904で制御したカメラから得られる映像をコンテンツとして記録する。
(ステップ1906〜1907) 対象者の終了コマンドを検出すると終了する。
図17は、本発明による支援システムを請求項8に規定するように車両内外の通信支援に関する実施形態におけるブロック図である。図20は流れ図である。
(ステップ2000) 図17におけるネットワーク接続検出部1701で、オンライン登録をしている車両位置を検索する。
(ステップ2001) 通信相手位置・情報取得部1702aにおいて獲得した相手車両位置および自車両位置取得部1702bから獲得した自車両位置から近くを走行中の車両を判断する。
(ステップ2002) ステップ2001で発見した車両にアクセスし、通信相手位置・情報取得部1702aから相手車両の色や形状を含む車両情報を獲得する。
(ステップ2003) ステップ2001で発見した相手車両位置を乗車人間に音声で通知する。
(ステップ2004) カメラ制御部1703において、車両に搭載したカメラをステップ2001で検出した相手車両位置に向ける。
(ステップ2005) ステップ2002で獲得した車両情報を元にステップ2004で獲得したカメラ映像から相手車両を特定する。
(ステップ2006) カメラ映像処理部1704において、ステップ2005で獲得した相手車両映像を画像処理し、提示映像生成部1705で生成した映像を、車内に設置したモニタで乗車人間に映像を提示する。
図23は自車両前方に、ネットワーク機能を有する自転車で走行する対象を発見したときのインタフェース例である。
ステップ2004で獲得されたカメラ画像を図24aとすると、ステップ2005で獲得した対象情報を活用し、同乗人間に分かりやすいように画像処理を施す。例えば図24aの画像のエッジを強調しグレースケールに変換する。検出した対象を元画像から抽出し、変換した画像上に重ね合わせ対象を線で囲み図24bを生成する。
本発明による支援システムは以上のように構成されているので、自動車運転者の運転支援に広く利用できる。自動車産業において、製造当初から本発明による支援システムを搭載することにより、車体の価値を向上させることができる。
本発明による支援システムの基本構成を概略的に示すブロック図である。 本発明による支援システムのセンサ、プロセッサ、ディスプレイ等の配置を略図的に示した斜視図である。 本発明による支援システムのハードウエア構成を示すブロック図である。 本発明による支援システムの基本流れ図である。 本発明による支援システムにおける、複数のイメージセンサの配置を示す斜視図である。 フロントパネルの表示例を示す斜視図である。 本発明による支援システムのバックギアの操作に関連する流れ図である。 リアカメラの動作とその映像の表示の例を示す説明図である。 リアカメラ映像の表示の他の例を示す説明図である。 通常走行モードに関連する合成画像の表示に関連する流れ図である。 図10に関連して説明した通常走行モードに関連して、走行中の後方の他の車等との関連の例を示す平面図である。 図11の例における後方車両の表示例を示す。 本発明による支援システムの実施例であるマルチモーダルクルージングビークルの各種センサ情報やデータ処理の流れの概観を説明する略図である。 本発明によるマルチモーダル運転支援システムを簡略化した実施例を示すブロック図である。 本発明によるマルチモーダル運転支援システムを運転の目的等に応じて支援するシステムを形成したときの実施例を示すブロック図である。 本発明によるマルチモーダル運転支援システムを車内の人間の情報に応じて支援するシステムを形成したときの実施例を示すブロック図である。 本発明によるマルチモーダル運転支援システムを車内外の人間の情報に応じて支援するシステムを形成したときの実施例を示すブロック図である。 図15に示した支援システムの動作を説明するための流れ図である。 図16に示した支援システムの動作を説明するための流れ図である。 図17に示した支援システムの動作を説明するための流れ図である。 図15に示した支援システムのインタフェースである。 図15に示した支援システムのインタフェースである。 図17に示した支援システムのインタフェースである。 図17に示した支援システムのインタフェースである。 図17に示した支援システムのインタフェースである。
符号の説明
1 車外状況情報処理部
2 車内状況情報処理部
3 マルチモーダル提示情報選択制御部(セントラルプロセッサ)
4 出力手段(ディスプレイ,スピーカ等の表示手段)
5 入力手段(カメラ,マイク等のセンサ群)

Claims (8)

  1. 車両内外の映像情報、走行状態、または運転環境の情報を処理する処理装置の処理結果を表示する車両の運転支援システムにおいて、
    車両外部の外界状況を認識判断する手段と、
    走行速度や走行方向などの車両運行状態、温度、騒音レベル、湿度、明るさなどに関する車両内部状況を認識判断する手段と、
    運転者あるいは同乗者に関する乗車人間状況を認識判断する手段と、
    前記車両の外部と内部、および、乗車人間状況の認識判断結果を総合的に判断する車両状況判断部での車両状況判断結果に基づき、外界情報と外界状況認識判断結果とを動的に変化させて運転者へ情報提示する出力手段と、
    情報提示における提示情報の表現メディア、画像の解像度、画像表示画面の大きさ、提示速度、情報提示タイミング、音像定位方向のいずれかまたは複数を選択し制御するためのマルチモーダル提示情報選択制御部と、
    を有することを特徴とする車両運転支援システム。
  2. 第1項記載の車両運転支援システムは、
    前記車両の運行状況,車両外部状況,車両内部状況,および乗車人間状況の情報のいずれかまたは複数を蓄積する手段を有することを特徴とする車両運転支援システム。
  3. 第1項記載の車両運転支援システムは、
    複数のカメラから得られた画像情報を処理し、車両周囲の画像を合成して、運転者および同乗者に提示する手段を有することを特徴とする車両運転支援システム。
  4. 第1項記載の運転支援システムは、
    車両および人間の認識判断結果に基づいて、車載運転支援システムの運転支援モードを制御する手段を有することを特徴とする車両運転支援システム。
  5. 第4項記載の車両運転支援システムは、
    通常走行、高速走行、夜間運転、雨天運転、急停車、急減速、後ろ向き走行などの走行モードを決定する手段と、
    車両の乗車人数、追い越しや駐車などの運転意図、運転者や同乗者の疲労度、車両内のオーディオ出力のレベルに係わる運転モードを決定する手段を有し、
    これらのモード情報を用いて、外界状況の提示を変化させることを特徴とする車両運転支援システム。
  6. 第1項記載の車両運転支援システムは、
    車両運行時の目的地を入力する手段を有し、
    運転者あるいは同乗者の移動目的が仕事、買い物、観光などである車両運転目的を入力する手段を有し、
    前記目的地情報と車両運転目的情報を用いて、
    複数のカメラの制御や外界情報の提示を変化させることを特徴とする車両運転支援システム。
  7. 第1項記載の車両運転支援システムは、
    車両内にも乗車人間の情報を入力するためのカメラとマイクとを具備することを特徴とする車両運転支援システム。
  8. 第7項記載の車両運転支援システムは、
    車両内部の乗車人間と車両外部の人間とが互いにオンライン通信する手段を有し、
    両者がオンライン通信している場合、相手の車両を自車両のカメラで捕らえたことを検知する手段と、相手車両を映し出す手段を有することを特徴とする車両運転支援システム。
JP2004025046A 2004-02-02 2004-02-02 車両運転支援システム Pending JP2005212709A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004025046A JP2005212709A (ja) 2004-02-02 2004-02-02 車両運転支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004025046A JP2005212709A (ja) 2004-02-02 2004-02-02 車両運転支援システム

Publications (1)

Publication Number Publication Date
JP2005212709A true JP2005212709A (ja) 2005-08-11

Family

ID=34907534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004025046A Pending JP2005212709A (ja) 2004-02-02 2004-02-02 車両運転支援システム

Country Status (1)

Country Link
JP (1) JP2005212709A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
WO2008087706A1 (ja) * 2007-01-16 2008-07-24 Pioneer Corporation 車両用表示装置、車両用表示方法及び車両用表示プログラム
JP2008309533A (ja) * 2007-06-13 2008-12-25 Ihi Corp 車両形状計測方法と装置
JP2010114547A (ja) * 2008-11-05 2010-05-20 Canon Inc 撮影システム及びレンズ装置
CN103192767A (zh) * 2013-01-07 2013-07-10 浙江吉利汽车研究院有限公司杭州分公司 汽车侧后视镜智能调节控制系统及其控制方法
JP2013184491A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 車両走行支援装置
WO2014061664A1 (ja) * 2012-10-17 2014-04-24 日立マクセル株式会社 画像伝送システム
JP5706874B2 (ja) * 2010-03-03 2015-04-22 本田技研工業株式会社 車両の周辺監視装置
KR20160051421A (ko) * 2014-11-03 2016-05-11 현대모비스 주식회사 운전 장애 처리 장치
JP2016103264A (ja) * 2014-11-27 2016-06-02 エレクトロビット オートモーティブ ゲーエムベーハー 自動車の運転手用の装着可能な器械
CN105751970A (zh) * 2016-02-26 2016-07-13 卢佳龙 后视镜智能调节系统
WO2019155936A1 (ja) * 2018-02-07 2019-08-15 株式会社東海理化電機製作所 車両用視認装置
JP2021010175A (ja) * 2020-09-29 2021-01-28 トヨタ モーター ヨーロッパ 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。
US11379705B2 (en) 2015-07-23 2022-07-05 Toyota Motor Europe System and computer-based method for simulating a human-like control behaviour in an environmental context
CN115249413A (zh) * 2021-04-27 2022-10-28 丰田自动车株式会社 信息处理装置以及信息处理方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
US8174576B2 (en) 2005-09-28 2012-05-08 Nissan Motor Co., Ltd. Vehicle periphery video providing apparatus and method
WO2008087706A1 (ja) * 2007-01-16 2008-07-24 Pioneer Corporation 車両用表示装置、車両用表示方法及び車両用表示プログラム
JPWO2008087706A1 (ja) * 2007-01-16 2010-05-06 パイオニア株式会社 車両用表示装置、車両用表示方法及び車両用表示プログラム
JP2008309533A (ja) * 2007-06-13 2008-12-25 Ihi Corp 車両形状計測方法と装置
JP2010114547A (ja) * 2008-11-05 2010-05-20 Canon Inc 撮影システム及びレンズ装置
JP5706874B2 (ja) * 2010-03-03 2015-04-22 本田技研工業株式会社 車両の周辺監視装置
JP2013184491A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 車両走行支援装置
US9877026B2 (en) 2012-10-17 2018-01-23 Hitachi Maxell, Ltd. Image transmission system
WO2014061664A1 (ja) * 2012-10-17 2014-04-24 日立マクセル株式会社 画像伝送システム
JP2014082651A (ja) * 2012-10-17 2014-05-08 Hitachi Consumer Electronics Co Ltd 画像伝送システム
CN103192767A (zh) * 2013-01-07 2013-07-10 浙江吉利汽车研究院有限公司杭州分公司 汽车侧后视镜智能调节控制系统及其控制方法
KR20160051421A (ko) * 2014-11-03 2016-05-11 현대모비스 주식회사 운전 장애 처리 장치
KR102317237B1 (ko) * 2014-11-03 2021-10-26 현대모비스 주식회사 운전 장애 처리 장치
US10086758B2 (en) 2014-11-27 2018-10-02 Elektrobit Automotive Gmbh Wearable apparatus for use by a driver of a motor vehicle
JP2016103264A (ja) * 2014-11-27 2016-06-02 エレクトロビット オートモーティブ ゲーエムベーハー 自動車の運転手用の装着可能な器械
US11379705B2 (en) 2015-07-23 2022-07-05 Toyota Motor Europe System and computer-based method for simulating a human-like control behaviour in an environmental context
CN105751970A (zh) * 2016-02-26 2016-07-13 卢佳龙 后视镜智能调节系统
WO2019155936A1 (ja) * 2018-02-07 2019-08-15 株式会社東海理化電機製作所 車両用視認装置
JP2021010175A (ja) * 2020-09-29 2021-01-28 トヨタ モーター ヨーロッパ 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。
JP7204717B2 (ja) 2020-09-29 2023-01-16 トヨタ モーター ヨーロッパ 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。
CN115249413A (zh) * 2021-04-27 2022-10-28 丰田自动车株式会社 信息处理装置以及信息处理方法
CN115249413B (zh) * 2021-04-27 2023-11-10 丰田自动车株式会社 信息处理装置以及信息处理方法

Similar Documents

Publication Publication Date Title
KR102432614B1 (ko) 차량 탑승자 및 원격 사용자를 위한 공유 환경
JP3102250B2 (ja) 車両用周囲情報表示装置
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
KR101732983B1 (ko) 차량용 리어 콤비네이션 램프 및 이를 포함하는 차량
US10339711B2 (en) System and method for providing augmented reality based directions based on verbal and gestural cues
JP5618138B2 (ja) 駐車支援装置
JP2005212709A (ja) 車両運転支援システム
CN107415938A (zh) 基于乘员位置和注意力控制自主车辆功能和输出
JP2012071635A (ja) 駐車支援装置
KR20160142167A (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
JP2012071635A5 (ja)
CN218839317U (zh) 移动装置
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US11148671B2 (en) Autonomous systems human controller simulation
JP2007237785A (ja) 車載用情報提示システム
JP2012096597A (ja) 駐車支援装置
JP2020080542A (ja) 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法
US10889238B2 (en) Method for providing a spatially perceptible acoustic signal for a rider of a two-wheeled vehicle
JP2020020987A (ja) 車内システム
KR20170041418A (ko) 차량용 디스플레이 장치 및 그 제어방법
KR101807788B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
KR20160064762A (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
KR101816570B1 (ko) 차량용 디스플레이 장치
JP7456490B2 (ja) 音データ処理装置および音データ処理方法
KR101567405B1 (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070118

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091215